用QA问答详解深度估计 [泊车场景:AFNet/UniDepth]
Q:如何利用时序提升单目depth [AFNet]
single-view对低纹理以及noisy pose更加鲁棒友好,multi-view包含视差,一般采用cost volume对于动态目标效果差,对于noisy pose很敏感。
Read More
single-view对低纹理以及noisy pose更加鲁棒友好,multi-view包含视差,一般采用cost volume对于动态目标效果差,对于noisy pose很敏感。
Read More
时序融合分为并行融合 Parallel fusion 和递归融合 Recurrent fusion 2种,其中并行融合同时融合处理多个历史帧feat,可获取更丰富完整long-term信息,递归融合当前帧feat只与history feat融合,计算复杂度和内...
用QA问答详解端到端 [工程落地:UniAD/PARA-Drive/SpareDrive/VADv2]
Q:端到端模型通常大致分为几种?
分为两种,一种是完全黑盒OneNet,模型直接优化Planner;另一种是模块化端到端,即模块级联或者并联,通过感知模块,预测模块以及规划模块之间feat-level/query-level的交互,减少分段式自动驾驶模型的误差累积。
Q:[UniAD]...
Read More
用QA问答详解OnlineMapping [向量化建图: MapTR / VectorMapNet]
Q:什么是SDMap,HDMap以及OnlineMapping,且3者的区别是什么
- SDMap 是指低精度地图,一般指拓扑地图,只有道路级别精度,大约在米级别,不包含路面标志和坐标,主要用于导航。
- HDMap 是指高精度地图,侧重车道级别信息...
Read More
用QA问答详解BEV系列 [CVPR24: BEVSpread / BEVNeXT]
Q:LSS范式的BEV感知思路和逻辑是什么
常规LSS范式思路是:预测2D feat和depth进行点积获得2.5D的视锥feat,然后通过相机内外参数转换为3D feat,通过voxel pooling将3D feat转换到BEV feat。
Read More
用QA问答详解Occ系列 [工程落地: FlashOcc / SparseOcc]
Q:Occ在工程落地上对比BEV有什么优缺点
更丰富的3D信息:Occ提供了完整的3D场景表示,包括高度信息,而BEV...
Read More
View:307
User:267