CN110717457A - 用于车辆的行人位姿解算方法 - Google Patents
用于车辆的行人位姿解算方法 Download PDFInfo
- Publication number
- CN110717457A CN110717457A CN201910960491.7A CN201910960491A CN110717457A CN 110717457 A CN110717457 A CN 110717457A CN 201910960491 A CN201910960491 A CN 201910960491A CN 110717457 A CN110717457 A CN 110717457A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- vehicle
- dimensional
- vehicles
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明公开了一种用于车辆的行人位姿解算方法。包括:多辆能够联网的车辆利用其环视相机,对视野范围内行人进行实时感知,获得单车视野的行人三维点云;根据车载系统的行驶速度回报值,过滤无效车辆,形成可共享有效数据的局域车联网;基于局域车联网,进行多车视野的行人三维点云的合成与拼接,得到全局三维点云;利用点云中各点之间的位置关系,得到全局行人三维位姿;将全局行人三维位姿共享至局域车联网内的所有车辆;基于单车安全范围,对全局行人三维位姿进行分析,获得单车安全范围内的行人预警信息。利用本发明,可以在停车场、交叉路口等场景中,扩展车辆的感知范围,同时使不具备感知能力的车辆感知到安全范围内的行人信息。
Description
技术领域
本发明涉及一种位姿判断方法,具体涉及一种用于车辆的行人位姿解算方法。
背景技术
目前,大多数汽车及移动机器人已经具备基于视觉的行人检测能力,但其检测结果为二维的包围框。二维数据无法提供物体的空间位置信息,检测结果缺少空间立体感,无法准确感知物体在空间内的真实三维位姿。目前检测物体的三维位姿主要靠激光雷达、双目相机、ToF、光编码相机来完成,上述硬件对环境内的光照强度、物体成像距离都有一定要求。车辆在真实行车场景中,不可避免地会存在由于车辆遮挡、建筑物遮挡形成的视野盲区。传统单车感知,无法感知视野盲区的行人信息。传统多车协同任务中,三维点云合并是一种意义不强的方法,主要原因在于点云精度过低,无法基于点云提取物体的关键点,甚至无法判断物体的类型。
因此,现有行人检测技术存在无法感知行人真实三维位置、成像质量不高、感知范围有限以及点云精度过低等问题。
发明内容
本发明提供了一种用于车辆的行人位姿解算方法,该方法实现了有效感知行人真实三维位姿、扩展感知范围,感知结果更准确,感知范围更广。
一种用于车辆的行人位姿解算方法,该方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其环视相机,以单目形式对视野范围内行人进行实时感知,根据感知结果,获得单车视野的行人三维点云;
步骤二,根据车载系统的行驶速度回报值,过滤无效车辆,将处于静止状态的车辆进行组网,形成可共享有效数据的局域车联网;
步骤三,基于局域车联网,利用点云匹配方式进行多车视野的行人三维点云的合成与拼接,得到全局三维点云;
步骤四,根据获取的全局三维点云,利用点云中各点之间的位置关系,得到全局行人三维位姿;
步骤五,将全局行人三维位姿共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围;
步骤六,基于单车安全范围,对全局行人三维位姿进行分析,获得单车安全范围内的行人预警信息。
步骤一具体包括:
对环视相机以单目形式获得的单帧图像进行行人检测,获得行人包围框集合;
截取行人包围框并对包围框大小进行归一化;
通过关键点检测深度神经网络得到行人二维关键点集;
基于关键点检测获得的行人二维关键点集,通过三维关键点估计得到单车视野的行人三维点云。
步骤一还包括:
对检测得到的行人二维关键点集进行特征描述,获得行人二维关键点集的特征描述子。
步骤三具体包括:
基于局域车联网,根据获得的行人二维关键点集的特征描述子,对获得的多车视野的行人三维点云进行匹配;
根据坐标变换矩阵,对多车视野的行人三维点云进行配准和拼接,获得全局三维点云。
扩展网络内车辆的感知范围具体为:车辆接收到全局行人三维位姿,补充车辆盲区的行人信息。
特征描述子为一维特征向量。
特征描述子的获得方法具体为:以关键点以及关键点邻域内的点的点对模式进行特征描述子的描述,对每一点对进行布尔运算得到二进制值向量,即采用如下描述子:
M=[T(Pa1,Pb1),T(Pa2,Pb2),T(Pa3,Pb3)…T(Pax,Pbx)],x∈(1,n),
行人二维关键点集包括:头顶、鼻子、下颚、左右肩、左右肘、左右胯、左右膝、左右脚踝。
具备联网能力的车辆能够感知车辆的行驶速度和电子罗盘朝向。
基于深度卷积神经网络对物体的二维特征点进行检测及位置回归是近年来的主流应用方向。深度卷积神经网络利用单目彩色图像即可在单帧实现关键点的检测及位置回归。基于表征学习的优势,在目标被强遮挡的情况下,网络依然能够预测被遮挡的关键点位置。
本发明的有益效果在于:
1、本发明根据相机采集的图像利用三维映射、点云合并,对行人进行三维建模,克服了现有技术中二维图像空间立体感知能力较弱的问题;
2、车联网生态是自动驾驶的必经之路,本发明克服了车辆硬件匹配问题,以单个相机为单位,在保证宽动态范围的情况下,成像质量较高;
3、本发明的局域车联网组网不对车辆的类型进行限制,不具备视觉感知能力的车辆依然可以加入网络,并得到完整的感知信息,克服了传统单车感知遇到的遮挡问题,并且能够向不具备视觉感知能力的车辆提供感知信息;
4、本发明使用深度卷积神经网络关键点检测、三维关键点估计等新方法,从根本上克服了点云精度不高的问题。
附图说明
图1为行人位姿解算流程图;
图2为行人三维点云数据生成过程示意图;
图3为停车场场景下本发明方法效果示意图;
图4为交叉路口场景下本发明方法效果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种行人位姿计算方法,下面通过具体实施例来进行说明。
实施例一:
用于车辆的行人位姿解算方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其环视相机,以单目形式对视野范围内行人进行实时感知,根据感知结果,获得单车视野的行人三维点云。即三维点云感知步骤。
步骤二,根据车载系统的行驶速度回报值,过滤无效车辆,将处于静止状态的车辆进行组网,形成可共享有效数据的局域车联网。即车联网组网步骤。
步骤三,基于局域车联网,利用点云匹配方式进行多车视野的行人三维点云的合成与拼接,得到全局三维点云。即点云融合步骤。
步骤四,根据获取的全局三维点云,利用点云中各点之间的位置关系,得到全局行人三维位姿。即三维位姿获取步骤。
步骤五,将全局行人三维位姿共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围。即点云共享步骤。
步骤六,基于单车安全范围,对全局行人三维位姿进行分析,获得单车安全范围内的行人预警信息。即预警分析步骤。图1为本发明方法的解算流程图。
下面对本发明的方法进行详细说明。
步骤一包括:
对环视相机的单帧图像进行行人检测,获得行人包围框集合。参见图2,图2是行人三维点云数据生成过程示意图。负责检测行人边界框的深度卷积神经网络211对图像帧201.0进行推理,211的输出为包围框202。
截取行人包围框并对包围框大小进行归一化,得到包围框集合203。
通过关键点检测深度神经网络得到行人二维关键点集。其中,行人关键点包括:头顶,鼻子,下颚,左右肩,左右肘,左右胯,左右膝,左右脚踝。行人关键点还可以包括眼睛、嘴巴。将包围框集合203送入二维骨骼关键点检测网络212,得到每个人的骨骼关键点集合204。
步骤一还包括:对检测得到的行人二维关键点集进行特征描述,获得行人二维关键点的特征描述子。特征描述子为一维特征向量。
具体特征描述方法如下:将关键点集合204送入行人特征别描述功能模块,得到特征描述子206。
特征描述向量即特征描述子206的元素定义为:
M=[T(Pa1,Pb1),T(Pa2,Pb2),T(Pa3,Pb3)…T(Pax,Pbx)],x∈(1,n),
一种实施例是特征描述向量有128个元素,即描述子为128bit的数据,可用SIMD指令集进行加速计算。特征描述子206描述为128维特征向量[T1,T2,T3,T4,…,T128]。在关键点周围选取邻域205,在邻域205内选取256个点对,特征向量矩阵207大小为16×16,一共256个元素。利用降维模块214取特征向量矩阵207的上三角区域,即128个元素,构成一维特征描述子206。为每一行人指派ID,将该行人的关键点集合特征描述子存入208,即ID-Map。ID-Map有助于提高后续特征匹配的效率。
基于关键点检测获得的行人二维关键点集,通过三维关键点估计得到单车视野的行人三维点云。利用时域卷积功能模块213对输入的视频帧序列的二维关键点集204进行卷积,获得行人三维点云209。视频帧序列包括当前帧201.0以及前T-n帧,T为获取当前帧的时间。进一步地,可以通过半监督模型,利用未标记数据和关键点检测,提高行人三维点云的精度。
步骤二具体可以通过以下方式实现。具备联网能力的车辆能够感知车辆的行驶速度和电子罗盘朝向。为实现上述方法,需要筛选车辆并与其它车辆组网,为了保证能够为不具备感知能力的车辆提供行人三维位姿估计功能,在此,设具备感知能力的车辆为A,不具备感知能力的车辆为B,考虑到解算速度及松散同步机制,以50Hz的感知速度为例,若车辆相对速度大于1m/s,则在每个样本中至少发生了2cm的误差;在点云合并过程中,由于RANSAC算法的特性,更大的误差会导致RANSAC将大量人物特征点归为外点。为了保证为B提供感知信息的可靠性及连接可靠性,需要将联网场景限制在拥堵、停车场等拥挤情况下,一种实施例是当车辆回报行驶速度不为静止或速度高于3m/s,则将车辆排除连接。
步骤三包括:
基于局域车联网,根据获得的行人二维关键点集的特征描述子,对获得的多车视野的行人三维点云进行匹配。
汉明距离在处理器多媒体指令集寄存器中是一个二进制表示的数值。使用汉明距离进行多视野的行人关键点特征描述子的匹配。特征描述子使用汉明距离进行匹配的特点在于,能够使用POPCNT指令集加速比较,在进行异或运算之后,对每个为1的比特位进行计数。进一步地,对从多车获得的ID-Map对行人进行重识别ReID,根据重识别结果,对相似度高的行人之间进行关键点匹配。
根据匹配结果,利用RANSAC算法求解点云间的坐标变换矩阵。
为了正确获得点云之间的旋转矩阵和平移矩阵,需要相机内参矩阵其中,fx、fy分别是相机在像素坐标系u轴和v轴的尺度参数;(u0,v0)是主点在像素坐标系的位置。三维场景中的点与图像上的像素坐标点,有如下表达式:其中Zc为点在相机坐标系Z轴的位置,[u,v,1]T是点在像素坐标系位置的齐次表示,[X,Y,Z]T是点在世界坐标系位置的齐次表示。
根据特征匹配获得的匹配点,作为内点,使用RANSAC算法迭代计算坐标变换矩阵。具体地,根据匹配点,获取匹配点之间的坐标转换关系,利用相机内参矩阵使用SVD奇异值分解求解转换关系,获得初始旋转平移矩阵。然后,对每次获得的旋转平移矩阵进行迭代计算,获取新的内点,过滤外点,最终获得的最优解即点云之间的坐标转换矩阵。
根据坐标变换矩阵,对多车视野的行人三维点云进行配准和拼接,获得全局三维点云。
步骤四,根据获取的全局三维点云,利用点云中各点之间的位置关系,得到全局行人三维位姿。人体关键点之间具有相应连接关系,根据关键点之间的连接关系,对全局三维点云中的点进行连接,得到全局行人三维位姿。
步骤五,将全局行人三维位姿共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围。扩展网络内车辆的感知范围具体为:车辆接受到全局行人位姿,补充车辆盲区的行人信息。
步骤六,基于单车安全范围,对全局行人三维位姿进行分析,获得单车安全范围内的行人预警信息。
如图3所示,在停车场场景中,若102-1、102-2、102-3车辆具备感知能力,101车辆不具备感知能力,则在101自动倒车出库时,该方法可以跟踪行人103并将感知结果合并后回传给101,防止碰撞。
如图4所示,在路口、拥堵的场景中,若车辆101不具备感知能力,则具备感知能力的102-1、102-2能够合并感知结果,为车辆101盲区补充行人103三维位姿信息。
值得指出的是,一般的车辆环视系统包含了不同焦段和分辨率,因此部分视角无法参与行人的检测及跟踪任务,为了节省计算资源,一种实施例是,小型车辆只采用车辆前后广角相机及远焦相机,大型车辆则尽可能使用所有环视相机。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种用于车辆的行人位姿解算方法,其特征在于,该方法包括:
步骤一,多辆具有感知能力并且能够联网的车辆利用其环视相机,以单目形式对视野范围内行人进行实时感知,根据感知结果,获得单车视野的行人三维点云;
步骤二,根据车载系统的行驶速度回报值,过滤无效车辆,将处于静止状态的车辆进行组网,形成可共享有效数据的局域车联网;
步骤三,基于局域车联网,利用点云匹配方式进行多车视野的行人三维点云的合成与拼接,得到全局三维点云;
步骤四,根据获取的全局三维点云,利用点云中各点之间的位置关系,得到全局行人三维位姿;
步骤五,将全局行人三维位姿共享至局域车联网内的所有车辆,使网络内不具备感知功能的车辆具备相同的感知能力,同时扩展网络内车辆的感知范围;
步骤六,基于单车安全范围,对全局行人三维位姿进行分析,获得单车安全范围内的行人预警信息。
2.如权利要求1所述的用于车辆的行人位姿解算方法,其特征在于,所述步骤一具体包括:
对环视相机以单目形式获得的单帧图像进行行人检测,获得行人包围框集合;
截取行人包围框并对包围框大小进行归一化;
通过关键点检测深度神经网络得到行人二维关键点集;
基于关键点检测获得的行人二维关键点集,通过三维关键点估计得到单车视野的行人三维点云。
3.如权利要求2所述的用于车辆的行人位姿解算方法,其特征在于,所述步骤一还包括:
对检测得到的行人二维关键点集进行特征描述,获得行人二维关键点集的特征描述子。
5.如权利要求1所述的用于车辆的行人位姿解算方法,其特征在于,所述扩展网络内车辆的感知范围具体为:车辆接收到全局行人三维位姿,补充车辆盲区的行人信息。
6.如权利要求4所述的用于车辆的行人位姿解算方法,其特征在于,所述特征描述子为一维特征向量。
8.如权利要求2所述的用于车辆的行人位姿解算方法,其特征在于,所述行人二维关键点集包括:头顶、鼻子、下颚、左右肩、左右肘、左右胯、左右膝、左右脚踝。
9.如权利要求1所述的用于车辆的行人位姿解算方法,其特征在于,具备联网能力的所述车辆能够感知车辆的行驶速度和电子罗盘朝向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960491.7A CN110717457A (zh) | 2019-10-10 | 2019-10-10 | 用于车辆的行人位姿解算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960491.7A CN110717457A (zh) | 2019-10-10 | 2019-10-10 | 用于车辆的行人位姿解算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110717457A true CN110717457A (zh) | 2020-01-21 |
Family
ID=69211352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910960491.7A Withdrawn CN110717457A (zh) | 2019-10-10 | 2019-10-10 | 用于车辆的行人位姿解算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717457A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111400423A (zh) * | 2020-03-16 | 2020-07-10 | 郑州航空工业管理学院 | 基于多视图几何的智慧城市cim三维车辆位姿建模系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950434A (zh) * | 2010-09-13 | 2011-01-19 | 天津市星际空间地理信息工程有限公司 | 一种车载激光雷达系统及城市部件自动化测量方法 |
CN104392622A (zh) * | 2014-11-07 | 2015-03-04 | 南京富士通南大软件技术有限公司 | 一种基于车联网的多功能辅助驾驶服务系统 |
CN105291984A (zh) * | 2015-11-13 | 2016-02-03 | 中国石油大学(华东) | 一种基于多车协作的行人及车辆检测的方法及系统 |
CN105787445A (zh) * | 2016-02-24 | 2016-07-20 | 武汉迈步科技有限公司 | 一种车载激光扫描数据中杆状物自动提取方法及系统 |
CN107172147A (zh) * | 2017-05-16 | 2017-09-15 | 大陆汽车投资(上海)有限公司 | 节点信息获取装置、车辆间拓扑结构获取装置以及方法 |
WO2018060313A1 (en) * | 2016-09-28 | 2018-04-05 | Tomtom Global Content B.V. | Methods and systems for generating and using localisation reference data |
CN108362294A (zh) * | 2018-03-05 | 2018-08-03 | 中山大学 | 一种应用于自动驾驶的多车协同建图方法 |
CN108829116A (zh) * | 2018-10-09 | 2018-11-16 | 上海岚豹智能科技有限公司 | 基于单目摄像头的避障方法及设备 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物体位姿估计方法及装置 |
-
2019
- 2019-10-10 CN CN201910960491.7A patent/CN110717457A/zh not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950434A (zh) * | 2010-09-13 | 2011-01-19 | 天津市星际空间地理信息工程有限公司 | 一种车载激光雷达系统及城市部件自动化测量方法 |
CN104392622A (zh) * | 2014-11-07 | 2015-03-04 | 南京富士通南大软件技术有限公司 | 一种基于车联网的多功能辅助驾驶服务系统 |
CN105291984A (zh) * | 2015-11-13 | 2016-02-03 | 中国石油大学(华东) | 一种基于多车协作的行人及车辆检测的方法及系统 |
CN105787445A (zh) * | 2016-02-24 | 2016-07-20 | 武汉迈步科技有限公司 | 一种车载激光扫描数据中杆状物自动提取方法及系统 |
WO2018060313A1 (en) * | 2016-09-28 | 2018-04-05 | Tomtom Global Content B.V. | Methods and systems for generating and using localisation reference data |
CN107172147A (zh) * | 2017-05-16 | 2017-09-15 | 大陆汽车投资(上海)有限公司 | 节点信息获取装置、车辆间拓扑结构获取装置以及方法 |
CN108362294A (zh) * | 2018-03-05 | 2018-08-03 | 中山大学 | 一种应用于自动驾驶的多车协同建图方法 |
CN108829116A (zh) * | 2018-10-09 | 2018-11-16 | 上海岚豹智能科技有限公司 | 基于单目摄像头的避障方法及设备 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物体位姿估计方法及装置 |
Non-Patent Citations (2)
Title |
---|
PANTELERIS P ET AL: "《Using a single RGB frame for real time 3D hand pose estimation in the wild》", 《2018 IEEE WACV》 * |
潘屏南: "《现代大型医用设备 原理、结构和临床应用》", 31 May 2002, 中国医药科技出版社 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111400423A (zh) * | 2020-03-16 | 2020-07-10 | 郑州航空工业管理学院 | 基于多视图几何的智慧城市cim三维车辆位姿建模系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cui et al. | Deep learning for image and point cloud fusion in autonomous driving: A review | |
Reiher et al. | A sim2real deep learning approach for the transformation of images from multiple vehicle-mounted cameras to a semantically segmented image in bird’s eye view | |
Zhe et al. | Inter-vehicle distance estimation method based on monocular vision using 3D detection | |
Yang et al. | A RGB-D based real-time multiple object detection and ranging system for autonomous driving | |
Liang et al. | A survey of 3D object detection | |
Chen et al. | SAANet: Spatial adaptive alignment network for object detection in automatic driving | |
Zhang et al. | RangeLVDet: Boosting 3D object detection in LiDAR with range image and RGB image | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN114332494A (zh) | 车路协同场景下基于多源融合的三维目标检测与识别方法 | |
Kemsaram et al. | A stereo perception framework for autonomous vehicles | |
CN115019043A (zh) | 基于交叉注意力机制的图像点云融合三维目标检测方法 | |
Shi et al. | Grid-centric traffic scenario perception for autonomous driving: A comprehensive review | |
Dinesh Kumar et al. | Stereo camera and LIDAR sensor fusion-based collision warning system for autonomous vehicles | |
Jiang et al. | Unsupervised monocular depth perception: Focusing on moving objects | |
Yang et al. | SAM-Net: Semantic probabilistic and attention mechanisms of dynamic objects for self-supervised depth and camera pose estimation in visual odometry applications | |
Mariotti et al. | Spherical formulation of geometric motion segmentation constraints in fisheye cameras | |
Wang et al. | Multi-sensor fusion technology for 3D object detection in autonomous driving: A review | |
Mo et al. | Stereo frustums: a siamese pipeline for 3d object detection | |
Han et al. | Self-supervised monocular Depth estimation with multi-scale structure similarity loss | |
Rao et al. | In-vehicle object-level 3D reconstruction of traffic scenes | |
CN110717457A (zh) | 用于车辆的行人位姿解算方法 | |
Huang et al. | Overview of LiDAR point cloud target detection methods based on deep learning | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN116630528A (zh) | 基于神经网络的静态场景重建方法 | |
CN110677491B (zh) | 用于车辆的旁车位置估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200121 |
|
WW01 | Invention patent application withdrawn after publication |