當(dāng)前位置:廣州虹科電子科技有限公司>>技術(shù)文章>>康謀分享 | aiSim5基于生成式AI擴大仿真測試范圍(終)
康謀分享 | aiSim5基于生成式AI擴大仿真測試范圍(終)
摘要:
在前面的幾章節(jié)中探討了aiSim仿真合成數(shù)據(jù)的置信度,此外在場景重建和測試流程閉環(huán)的過程中,難免會面臨3D場景制作重建耗時長、成本高、擴展性低以及交通狀況復(fù)雜程度難以滿意等問題,當(dāng)前的主要挑戰(zhàn)在于如何自動化生成3D靜態(tài)場景并添加動態(tài)實例編輯,從而有效縮短測試流程,擴大仿真測試范圍。
圖1:實際圖像 圖2:NeRF重建場景
對于3D重建,目前主要的兩種解決方案為NeRF和3DGS。
一、NeRF
1、NeRF:神經(jīng)輻射場(Neural Radiance Fields)
NeRF是將三維空間中的每個點的顏色和密度信息編碼為一個連續(xù)的函數(shù)并由MLP參數(shù)化。給定一個視角和三維空間中的點,NeRF可以預(yù)測該點的顏色和沿視線方向的密度分布。通過對這些信息進(jìn)行體積渲染,NeRF能夠合成出新視角下的圖像。
2、優(yōu)勢
高保真輸出。
基于NerFStudio提供了較為友好地代碼庫。
相對較快的訓(xùn)練時間。
對于待重建區(qū)域具有可擴展性。
3、不足與挑戰(zhàn)
渲染速度緩慢。NeRF需要沿著從相機到場景的每條光線進(jìn)行大量的采樣和計算,以準(zhǔn)確估計場景的體積密度和顏色。這個過程計算密集,在NVIDIA A100上進(jìn)行了測試,全HD分辨率下,渲染一張圖像大約需要10s。
場景深度估計效果不理想。NeRF通過體積渲染隱式地學(xué)習(xí)了場景的深度信息,但這種深度信息通常是與場景的顏色和密度信息耦合在一起的。這意味著,如果場景中存在遮擋或非朗伯(non-Lambertian)反射等復(fù)雜情況,NeRF可能難以準(zhǔn)確估計每個像素的深度。
近距離物體重建質(zhì)量可能較低。這可能是由視角和分辨率不足、深度估計不夠準(zhǔn)確以及運動模糊遮擋等問題造成的。
高FOV相機校準(zhǔn)不完善導(dǎo)致的重影偽影。
當(dāng)然為了解決這些問題研究人員通過引入深度正則化來提升NeRF深度估計的準(zhǔn)確性和穩(wěn)定性,通過優(yōu)化NeRF的結(jié)構(gòu)和算法提升渲染速度。
二、3DGS
1、3DGS:3D高斯?jié)姙R(3D Gaussian Splatting)
3DGS采用三維高斯分布來表示場景中的點云數(shù)據(jù),每個點用一個具有均值和協(xié)方差的高斯函數(shù)來描述。通過光柵化渲染高斯函數(shù),從而生成逼真的3D場景圖像。
2、優(yōu)勢
訓(xùn)練時間短。
近似于實時的渲染。
提供高保真的輸出。
3、不足及主要挑戰(zhàn)
代碼庫友好度較低。相比于NeRFStudio,文檔的完善程度和易用性較低。
初始點云獲取需求高,需要精確的傳感器和復(fù)雜的數(shù)據(jù)處理流程,否則將會對3DGS的性能產(chǎn)生明顯的影響。
深度估計同樣不足,主要可能有幾個原因:在優(yōu)化過程中傾向于獨立優(yōu)化每個高斯點,導(dǎo)致在少量圖像下出現(xiàn)過擬合;由于缺乏全局的幾何信息,導(dǎo)致在大型場景下或復(fù)雜幾何結(jié)構(gòu)重建時深度估計不準(zhǔn)確;初始點云的深度信息不夠準(zhǔn)確等
相機模型支持受限。目前3DGS主要支持針孔相機模型,雖然理論上可以推導(dǎo)出其他相機模型的3DGS版本,但還需要后續(xù)的實驗驗證其有效性和準(zhǔn)確性。
重建區(qū)域可擴展受限,主要是缺乏LiDAR覆蓋區(qū)域之外的幾何信息導(dǎo)致的不完整重建以及大型城市場景重建的大量計算。
集成和資源密集的挑戰(zhàn),目前3DGS集成通常依賴Python接口;3DGS在運行時可能會占用大量的VRAM。
通過優(yōu)化超參數(shù)和采用新方法,如Scaffold-GS,可能有助于減少內(nèi)存需求,提高在大型場景下的處理能力。
三、操作方法
1、訓(xùn)練流程
① 輸入:相機視頻數(shù)據(jù);自車運動數(shù)據(jù);校準(zhǔn)數(shù)據(jù);用于深度正則化的LiDAR點云數(shù)據(jù);
② 移除動態(tài)對象:創(chuàng)建分割圖來識別和遮罩圖像中的不同對象和區(qū)域;對動態(tài)對象進(jìn)行自動注釋*(康謀aiData工具鏈);
③ 進(jìn)行NeRF或3DGS:
NeRF:
嵌入不同的氣候條件;
采用Block-NeRF進(jìn)行大規(guī)模重建;
可以使用任何攝像頭模型,示例中使用的是MEI相機模型。
3DGS:
采用Block-Splatting進(jìn)行大規(guī)模重建;
可以從COLMAP或LiDAR中獲得初始點云;
將輸入的相機轉(zhuǎn)化為針孔相機模型。
2、添加動態(tài)對象
在NeRF和3DGS生成靜態(tài)場景后,aiSim5將基于外部渲染API進(jìn)一步增加動態(tài)元素,不僅可以重建原始場景,也可以根據(jù)測試需求構(gòu)建不同的交通狀態(tài)。
aiSim5中基于NeRF/3DGS場景細(xì)節(jié)。
圖13:網(wǎng)格投射陰影 圖14:車下環(huán)境遮蔽
3、效果展示
在aiSim5中完成動態(tài)對象的添加后,可以自由的在地圖場景中更改交通狀態(tài),用于感知/規(guī)控等系統(tǒng)的SiL/HiL測試。