亚洲中文久久精品无码WW16,亚洲国产精品久久久久爰色欲,人人妻人人澡人人爽欧美一区九九,亚洲码欧美码一区二区三区

廣州虹科電子科技有限公司

康謀分享 | aiSim5基于生成式AI擴大仿真測試范圍(終)

時間:2024-5-21 閱讀:382
分享:

摘要:

在前面的幾章節(jié)中探討了aiSim仿真合成數(shù)據(jù)的置信度,此外在場景重建和測試流程閉環(huán)的過程中,難免會面臨3D場景制作重建耗時長、成本高、擴展性低以及交通狀況復(fù)雜程度難以滿意等問題,當(dāng)前的主要挑戰(zhàn)在于如何自動化生成3D靜態(tài)場景并添加動態(tài)實例編輯,從而有效縮短測試流程,擴大仿真測試范圍。

 
  圖1:實際圖像                                                                           圖2:NeRF重建場景


對于3D重建,目前主要的兩種解決方案為NeRF和3DGS。


一、NeRF

1、NeRF:神經(jīng)輻射場(Neural Radiance Fields)

NeRF是將三維空間中的每個點的顏色和密度信息編碼為一個連續(xù)的函數(shù)并由MLP參數(shù)化。給定一個視角和三維空間中的點,NeRF可以預(yù)測該點的顏色和沿視線方向的密度分布。通過對這些信息進(jìn)行體積渲染,NeRF能夠合成出新視角下的圖像。

2、優(yōu)勢

  • 高保真輸出。

  • 基于NerFStudio提供了較為友好地代碼庫。

  • 相對較快的訓(xùn)練時間。

  • 對于待重建區(qū)域具有可擴展性。

3、不足與挑戰(zhàn)

  • 渲染速度緩慢。NeRF需要沿著從相機到場景的每條光線進(jìn)行大量的采樣和計算,以準(zhǔn)確估計場景的體積密度和顏色。這個過程計算密集,在NVIDIA A100上進(jìn)行了測試,全HD分辨率下,渲染一張圖像大約需要10s。

  • 場景深度估計效果不理想。NeRF通過體積渲染隱式地學(xué)習(xí)了場景的深度信息,但這種深度信息通常是與場景的顏色和密度信息耦合在一起的。這意味著,如果場景中存在遮擋或非朗伯(non-Lambertian)反射等復(fù)雜情況,NeRF可能難以準(zhǔn)確估計每個像素的深度。



  • 近距離物體重建質(zhì)量可能較低。這可能是由視角和分辨率不足、深度估計不夠準(zhǔn)確以及運動模糊遮擋等問題造成的。

 


  • 高FOV相機校準(zhǔn)不完善導(dǎo)致的重影偽影。 



當(dāng)然為了解決這些問題研究人員通過引入深度正則化來提升NeRF深度估計的準(zhǔn)確性和穩(wěn)定性,通過優(yōu)化NeRF的結(jié)構(gòu)和算法提升渲染速度。


二、3DGS

1、3DGS:3D高斯?jié)姙R(3D Gaussian Splatting)

3DGS采用三維高斯分布來表示場景中的點云數(shù)據(jù),每個點用一個具有均值和協(xié)方差的高斯函數(shù)來描述。通過光柵化渲染高斯函數(shù),從而生成逼真的3D場景圖像。

2、優(yōu)勢

  • 訓(xùn)練時間短。

  • 近似于實時的渲染。

  • 提供高保真的輸出。

3、不足及主要挑戰(zhàn)

  • 代碼庫友好度較低。相比于NeRFStudio,文檔的完善程度和易用性較低。

  • 初始點云獲取需求高,需要精確的傳感器和復(fù)雜的數(shù)據(jù)處理流程,否則將會對3DGS的性能產(chǎn)生明顯的影響。



  • 深度估計同樣不足,主要可能有幾個原因:在優(yōu)化過程中傾向于獨立優(yōu)化每個高斯點,導(dǎo)致在少量圖像下出現(xiàn)過擬合;由于缺乏全局的幾何信息,導(dǎo)致在大型場景下或復(fù)雜幾何結(jié)構(gòu)重建時深度估計不準(zhǔn)確;初始點云的深度信息不夠準(zhǔn)確等



  • 相機模型支持受限。目前3DGS主要支持針孔相機模型,雖然理論上可以推導(dǎo)出其他相機模型的3DGS版本,但還需要后續(xù)的實驗驗證其有效性和準(zhǔn)確性。

  • 重建區(qū)域可擴展受限,主要是缺乏LiDAR覆蓋區(qū)域之外的幾何信息導(dǎo)致的不完整重建以及大型城市場景重建的大量計算。



  • 集成和資源密集的挑戰(zhàn),目前3DGS集成通常依賴Python接口;3DGS在運行時可能會占用大量的VRAM。


通過優(yōu)化超參數(shù)和采用新方法,如Scaffold-GS,可能有助于減少內(nèi)存需求,提高在大型場景下的處理能力。


三、操作方法

1、訓(xùn)練流程

① 輸入:相機視頻數(shù)據(jù);自車運動數(shù)據(jù);校準(zhǔn)數(shù)據(jù);用于深度正則化的LiDAR點云數(shù)據(jù);

② 移除動態(tài)對象:創(chuàng)建分割圖來識別和遮罩圖像中的不同對象和區(qū)域;對動態(tài)對象進(jìn)行自動注釋*(康謀aiData工具鏈);


③ 進(jìn)行NeRF或3DGS:

NeRF:

  • 嵌入不同的氣候條件;

  • 采用Block-NeRF進(jìn)行大規(guī)模重建;

  • 可以使用任何攝像頭模型,示例中使用的是MEI相機模型。

3DGS:

  • 采用Block-Splatting進(jìn)行大規(guī)模重建;

  • 可以從COLMAP或LiDAR中獲得初始點云;

  • 將輸入的相機轉(zhuǎn)化為針孔相機模型。


2、添加動態(tài)對象

  • 在NeRF和3DGS生成靜態(tài)場景后,aiSim5將基于外部渲染API進(jìn)一步增加動態(tài)元素,不僅可以重建原始場景,也可以根據(jù)測試需求構(gòu)建不同的交通狀態(tài)。




  • aiSim5中基于NeRF/3DGS場景細(xì)節(jié)。

 
                          圖13:網(wǎng)格投射陰影                                                                            圖14:車下環(huán)境遮蔽


3、效果展示

在aiSim5中完成動態(tài)對象的添加后,可以自由的在地圖場景中更改交通狀態(tài),用于感知/規(guī)控等系統(tǒng)的SiL/HiL測試。


會員登錄

×

請輸入賬號

請輸入密碼

=

請輸驗證碼

收藏該商鋪

X
該信息已收藏!
標(biāo)簽:
保存成功

(空格分隔,最多3個,單個標(biāo)簽最多10個字符)

常用:

提示

X
您的留言已提交成功!我們將在第一時間回復(fù)您~
撥打電話 產(chǎn)品分類
在線留言