用QA问答详解深度估计 [泊车场景:AFNet/UniDepth]
Q:如何利用时序提升单目depth [AFNet]
single-view对低纹理以及noisy pose更加鲁棒友好,multi-view包含视差,一般采用cost volume对于动态目标效果差,对于noisy pose很敏感。
时序融合分为并行融合 Parallel fusion 和递归融合 Recurrent fusion 2种,其中并行融合同时融合处理多个历史帧feat,可获取更丰富完整long-term信息,递归融合当前帧feat只与history feat融合,计算复杂度和内...
[内容由AI生成] 怎么做选择 分为两种,一种是完全黑盒OneNet,模型直接优化Planner;另一种是模块化端到端,即模块级联或者并联,通过感知模块,预测模块以及规划模块之间feat-level/query-level的交互,减少分段式自动驾驶模型的误差累积。 常规LSS范式思路是:预测2D feat和depth进行点积获得2.5D的视锥feat,然后通过相机内外参数转换为3D feat,通过voxel pooling将3D feat转换到BEV feat。Read More
用QA问答讲项目故事
Q1:如何根据badcase从已有标注数据中挖掘筛选高质量训练数据[BEV静态感知基于Seg的OM任务]?
用QA问答详解BEV系列 [时序融合工程化:HENet/RecurrentBEV/PointBEV]
Q:BEV时序融合分为几种,各自优点和区别是什么?
原则:用金钱牺牲换来的做事原则
Q:如何做决策?
费马帕斯卡模型
Read More
用QA问答详解端到端 [工程落地:UniAD/PARA-Drive/SpareDrive/VADv2]
Q:端到端模型通常大致分为几种?
Q:[UniAD]...
用QA问答详解OnlineMapping [向量化建图: MapTR / VectorMapNet]
Q:什么是SDMap,HDMap以及OnlineMapping,且3者的区别是什么
用QA问答详解BEV系列 [CVPR24: BEVSpread / BEVNeXT]
Q:LSS范式的BEV感知思路和逻辑是什么
Read More
用QA问答详解Occ系列 [工程落地: FlashOcc / SparseOcc]