CN111222441A - 基于车路协同的点云目标检测和盲区目标检测方法及系统 - Google Patents
基于车路协同的点云目标检测和盲区目标检测方法及系统 Download PDFInfo
- Publication number
- CN111222441A CN111222441A CN201911411671.6A CN201911411671A CN111222441A CN 111222441 A CN111222441 A CN 111222441A CN 201911411671 A CN201911411671 A CN 201911411671A CN 111222441 A CN111222441 A CN 111222441A
- Authority
- CN
- China
- Prior art keywords
- target
- vehicle
- point cloud
- target detection
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001965 increasing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Abstract
本发明提供了一种基于车路协同的点云目标检测和盲区目标检测方法及系统,包括:图像目标检测和位置测算;基于校核器进行目标分类;依据校核器的目标分类结果,决定目标的检测方案;使用Pointnet++算法进行点云目标检测。通过巧妙地改变相机的位置和提出方形检索建议区域,应用到车路协同感知的新场景中去,达到了生成更优点云检索建议区域和盲区内目标检测的效果,保证了路灯故障下单车智能的独立性不受任何影响。因为路灯故障时,所有目标都被校核器判断为仅被车检测到的目标,该类目标将被决策为继续沿用搭载在车辆上的原Frustum Pointnets算法,感知结果与路灯无关。这使得搭载了本发明的智能汽车,在路侧智能辅助下,具有更快速、更全面和更安全的目标感知性能。
Description
技术领域
本发明属于车载雷达检测领域,尤其涉及一种基于车路协同的点云目标检测和盲区目标检测方法及系统。
背景技术
目前,在点云和图像的目标识别向的卷积神经网络研究领域,通常采用一种检索建议区域的方法来缩小网络数据处理量,从而提高点云目标或者图像目标识别算法的运行速度,Frustum Pointnets就是点云目标识别算法中的主要代表。但是该方法存在一个重大的缺点,就是在实际的路况中,由于路面上目标较多,导致锥形建议区域也相对较多,这使得最后的总建议区域面积非常大,甚至接近原始的360度点云数据。在此情况下,FrustumPointnets算法相对Pointnet++的速度提高有效性将大打折扣,导致算法处理速度低,目标检测速度提升效果不明显。另外,因为车路协同非常强调数据的实时性、时空同步性,所以该场景下对算法的检测速度提出了非常严苛的要求。而在实际应用中速度提升效果不明显的Frustum PointNets方法显然不能很好地满足要求,因为其检测速度将接近改进前的Pointntes++算法,而Pointnets++算法的检测速度本身就相对较慢。
除此之外,目前自动驾驶车辆通过搭载大量、多种类的传感器,取得了相对可靠的自动性能。但是在园区场景下的自动驾驶仍然面临着盲区目标检测问题,因为车辆本身在人车混流的园区内处于较为复杂的路况中,且车载传感器安装高度较低,受行人、车辆、绿化带以及地形的影响,不可避免地存在许多传感盲区。在无法获知盲区内的行人以及车辆信息的情况下,自动驾驶车辆将处于高风险的驾驶状态,并且盲区内物体的运动不确定性会给路径规划带来极大困难,这使得园区内的自动驾驶存在显著的安全隐患。
发明内容
本发明所要解决的技术问题是:解决现有技术的不足,提出了可以解决点云目标神经网络检测速度不足和盲区目标检测的一种基于车路协同的点云目标检测和盲区目标检测方法及系统。
第一方面,本发明实施例提供一种基于车路协同的点云目标检测和盲区目标检测方法,所述方法包括:
图像目标检测和位置测算;
基于校核器进行目标分类;
依据校核器的目标分类结果,决定目标的检测方案;
使用Pointnet++算法进行点云目标检测。
第二方面,本发明实施例还提供一种基于车路协同的点云目标检测和盲区目标检测的设备,所述设备包括:
检测模块:用于图像目标检测和位置测算;
分类模块:用于基于校核器进行目标分类;
选择模块:用于依据校核器的目标分类结果,决定目标的检测方案;
计算模块:用于使用Pointnet++算法进行点云目标的检测。
第三方面,本发明实施例还提供一种设备,包括存储器、处理器、以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于车路协同的点云目标检测和盲区目标检测的方法中的各个步骤。
第四方面,本发明实施例中还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于车路协同的点云目标检测和盲区目标检测的方法中的各个步骤。
本发明实施例提供一种基于车路协同的点云目标检测和盲区目标检测的方法,该方法包括:图像目标检测和位置测算;基于校核器进行目标分类;依据校核器的目标分类结果,决定目标的检测方案;使用Pointnet++算法进行点云目标检测。通过巧妙地改变相机的位置和提出方形检索建议区域,应用到车路协同感知的新场景中去,同时达到了生成更优点云检索建议区域和盲区内目标检测的效果,还保证了路灯故障下单车智能的独立性不受任何影响,因为路灯故障时,所有目标都被校核器判断为仅被车检测到的目标,而该类目标将被决策为继续沿用搭载在车辆上的原Frustum Pointnets算法,感知结果与路灯无关。这使得搭载了本发明的智能汽车,在路侧智能设备的辅助下,具有更快速、更全面和更安全的目标感知性能。
附图说明
下面结合附图详述本发明的具体结构
图1为本发明的流程图;
图2为本发明的方形检索建议区域与Frustum Pointnets算法的锥形检索建议区域的对比图;
图3为本发明的盲区目标检测示意图;
图4为本发明的校核器目标分类示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供了一种基于车路协同的点云目标检测和盲区目标检测的方法,包括:
步骤101、图像目标检测和位置测算。
其中,使用Faster-rcnn算法对车辆端的结构光深度相机和路灯侧的双目相机采集到的图像,进行车辆和行人的识别;识别出车辆和行人的目标后,车辆根据自身深度相机的图像信息和深度信息得到各个目标相对车辆的距离和角度;车辆端获取路灯根据自身的图像信息和双目视差法得到处理后的各个目标相对车辆的距离和角度。
步骤102、基于校核器进行目标分类。
其中,车辆端配置一种校核器;车辆端实时获取自身和所述路灯得到的目标位置信息,调用校核器对所有目标位置进行交集和并集处理,使得车辆端感知到校核器处理出来的的三类目标。这三类目标为车辆与路灯共同检测到的目标、车辆单独检测到的目标、路灯单独检测到的目标。
步骤103、依据校核器的结果,决定目标的检测方案。
其中,车辆端根据校核器的结果,决定每一个目标的检测方案。
步骤104、使用Pointnet++算法进行点云目标检测。
其中,车辆端汇总所有目标的检测方案,并生成相应的检索建议区域,得出最终的全局检索建议区域;然后车辆端提取出所述全局检索建议区域内的点云,丢弃非区域内的点云数据;最后使用点云检测程序,使用Pointnet++算法进行点云目标识别;得到目标的三维边界框,完成全局目标检测。
进一步的,所述图像目标检测和位置测算包括:
使用Faster-rcnn算法对车辆端的结构光深度相机和路灯侧的双目相机采集到的图像进行车辆和行人的识别;
车辆根据所述结构光深度相机的图像信息和深度信息获取各个目标相对车辆的距离和角度;
车辆端获取路灯根据自身的图像信息和双目视差法得到处理后的各个目标相对车辆的距离和角度。
进一步的,所述基于校核器进行目标分类包括:
车辆端配置一校核器;
车辆端实时获取并汇总自身和所述路灯得到的目标位置信息,调用校核器对所有目标位置进行交集、并集处理以及目标分类处理;
经过校核器处理,所述车辆端一共感知到三类目标。
进一步的,所述车辆端感知到的三类目标为车辆与所述路灯共同检测到的目标、车辆单独检测到的目标、所述路灯单独检测到的目标。
进一步的,依据校核器的结果,决定目标的检测方案包括:
车辆端根据校核器的结果,决定每一个目标的检测方案。
进一步的,对于不同目标采用不同的检测方案包括:
所述车辆与路灯共同检测到的目标的检测方案包括:
车辆端拥有自身所述深度相机与所述路灯侧设备检测的目标的相对位置信息;
车辆端丢弃自身所述结构光深度相机检测出的目标的位置信息,直接使用所述路灯提供的位置信息生成三维方形检索建议区域;
所述车辆单独检测到目标的检测方案包括:
车辆端拥有自身所述深度相机检测到的目标的位置信息;
车辆端根据该目标的位置信息,使用Frustum Pointnets算法中的锥形建议区域生成方法,生成锥形检索建议区域;
所述路灯单独检测到目标的检测方案包括:
车辆端直接使用所述路灯侧设备检测出的目标的位置信息。
进一步的,所述点云目标的检测包括:
车辆端汇总所有目标的检测方案,并生成相应的检索建议区域,得出最终的全局检索建议区域;
车辆端提取出所述全局检索建议区域内的点云,丢弃非区域内的点云数据;
车辆端使用点云检测程序,使用Pointnet++算法进行点云目标识别;
得到目标的三维边界框,完成全局目标检测。
进一步的,还包含无人车辆、车载16线激光雷达、车载深度相机、至少两个的带5G通讯设备的智慧路灯、至少两个的双目相机、车载计算机、至少两台的边缘云的计算机。
具体地,对于上述三类目标:
车辆与路灯共同检测到的目标的检测方案的具体步骤包括:车辆端拥有自身所述深度相机与所述路灯侧设备检测的目标的相对位置信息;车辆端丢弃自身所述深度相机检测出的目标的位置信息,直接使用所述路灯提供的位置信息生成三维方形检索建议区域。
车辆单独检测到目标的检测方案的具体步骤包括:车辆端拥有自身所述深度相机检测到的目标的位置信息;车辆端使用Frustum Pointnets算法中的锥形建议区域生成方法,生成锥形检索建议区域。
路灯单独检测到目标的检测方案的具体步骤包括:车辆端直接使用所述路灯侧设备检测出的目标的位置信息。
在本实施例中,使用Faster-rcnn算法对车辆端的结构光深度相机和路灯侧的双目相机采集到的图像,进行车辆和行人的识别(车载计算机处理深度相机图像识别,路灯侧计算机处理双目相机图像识别)。在识别出车辆和行人目标后,车辆根据自身深度相机的图像信息和深度信息可以得出各个目标相对车辆的距离和角度。而路灯根据自身的图像信息和双目视差法可以得到各个目标在相机坐标下三维坐标,然后根据各个目标的三维坐标即可算出各个目标相对车辆的距离和角度。车辆上配置一种校核器(校核器是一个安装在无人车辆端计算机上的程序),依靠路灯和车辆之间的实时通讯(路灯将在第一步中得到的目标位置信息实时地发送给车辆),车辆端在接收到这些信息后调用校核器,对来自路侧双目相机和来自车载相机的所有目标位置信息进行交集、并集处理以及目标分类处理。通过校核器的处理,无人车辆计算机端将感知到以下三类目标:车辆与路灯共同检测到的目标,车单独检测到的目标,路灯单独检测到的目标。接下来,依据校核器的结果,来决定每一个目标的检测方案。
对于车辆与路灯共同检测到的目标,采用检测方案1。方案1:在此情况下,无人车辆端的计算机中拥有两份该目标的相对位置信息(一份由自身车载相机检测所得,一份接收自路侧设备),此时车辆丢弃由自身深度相机检测出的位置信息,直接使用路灯提供的位置信息来生成一个三维方形检索建议区域。
对于车辆单独检测到的目标,采用检测方案2。方案2:在此情况下,无人车辆端的计算机中只拥有一份该目标的位置信息,即由车辆自身深度相机检测出的位置信息。无人车辆端的计算机将使用往常的Frustum Pointnets算法中的锥形建议区域生成方法,来生成一个锥形检索建议区域。
对于路灯单独检测到的目标,采用检测方案3。方案3:在此情况下,无人车辆端的计算机中只拥有一份该目标的位置信息,即由路侧相机检测出的位置信息。车辆直接使用由路灯提供的位置信息作为目标的位置信息。
将上面一步中所有目标的检测方案汇总,生成对应的检索建议区域并作并集处理,得到最终的全局检索建议区域。然后将这个总检索区域内的所有点云提取出来(丢弃掉非区域内的点云数据),然后送到车载计算机的点云检测程序中,使用Pointnet++算法进行点云目标识别,并得到目标的三维边界框,从而完成全局目标检测并提高检测精度。
综上所述,本发明提供的一种基于车路协同的点云目标检测和盲区目标检测方法及系统,通过巧妙地改变相机的位置和提出方形检索建议区域,应用到车路协同感知的新场景中去,同时达到了生成更优点云检索建议区域的效果(对于车和路侧相机同时看到的目标),以及盲区内目标检测的效果(对于路侧相机感知到的但车辆智能无法感知到的目标),还保证了在路灯故障的情况下单车智能的独立性不受任何影响(路灯故障时,所有目标都被校核器判断为仅被车检测到的目标,该类目标将被决策为继续沿用搭载在车辆上的原Frustum Pointnets算法,感知结果与路灯无关)。这使得搭载了本发明的智能汽车,在路侧智能设备的辅助下,具有更快速、更全面和更安全的目标感知性能。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于车路协同的点云目标检测和盲区目标检测方法,其特征在于,包括:
图像目标检测和位置测算;
基于校核器进行目标分类;
依据校核器的目标分类结果,决定目标的检测方案;
使用Pointnet++算法进行点云目标检测。
2.如权利要求1所述的方法,其特征在于,所述图像目标检测和位置测算的包括:
使用Faster-rcnn算法对车辆端的结构光深度相机和路灯侧的双目相机采集到的图像进行车辆和行人的识别;
所述车辆端根据所述结构光深度相机的图像信息和深度信息获取各个目标相对车辆的距离和角度;
所述车辆端获取所述路灯根据双目相机的图像信息和双目视差法得到处理后的各个目标相对车辆的距离和角度。
3.如权利要求1所述的方法,其特征在于,所述基于校核器进行目标分类包括:
所述车辆端配置一校核器;
所述车辆端实时获取并汇总自身和路灯得到处理后的目标位置信息,调用所述校核器对所有目标位置进行交集、并集处理以及目标分类处理;
经过校核器处理,所述车辆端一共感知到三类目标。
4.如权利要求3所述的方法,其特征在于,所述车辆端感知到的三类目标为车辆与所述路灯共同检测到的目标、车辆单独检测到的目标、所述路灯单独检测到的目标。
5.如权利要求1所述的方法,其特征在于,所述依据校核器的结果,决定目标的检测方案包括:
所述车辆端根据校核器的结果,决定每一个目标的检测方案。
6.如权利要求5所述的方法,其特征在于,对于不同目标采用不同的检测方案包括:
所述车辆与路灯共同检测到的目标的检测方案包括:
所述车辆端拥有自身所述深度相机与所述路灯侧设备检测的目标的相对位置信息;
所述车辆端丢弃自身所述深度相机检测出的目标的位置信息,直接使用所述路灯提供的位置信息生成三维方形检索建议区域;
所述车辆单独检测到目标的检测方案包括:
所述车辆端拥有自身所述结构光深度相机检测到的目标的位置信息;
所述车辆端根据所述目标的位置信息,使用Frustum Pointnets算法中的锥形建议区域生成方法,生成锥形检索建议区域;
所述路灯单独检测到目标的检测方案包括:
所述车辆端直接使用所述路灯侧设备检测出的目标的位置信息。
7.如权利要求1所述的方法,其特征在于,所述使用Pointnet++算法进行点云目标的检测包括:
所述车辆端汇总所有目标的检测方案,并生成相应的检索建议区域,得出最终的全局检索建议区域;
所述车辆端提取出所述全局检索建议区域内的点云,丢弃非区域内的点云数据;
使用点云检测程序,使用Pointnet++算法进行点云目标识别;
得到目标的三维边界框,完成全局目标检测。
8.一种基于车路协同的点云目标检测和盲区目标检测系统,其特征在于,所述系统包括:
检测模块:用于图像目标检测和位置测算;
分类模块:用于基于校核器进行目标分类;
选择模块:用于依据校核器目标分类的结果,决定目标的检测方案;
计算模块:用于使用Pointnet++算法进行点云目标的检测。
9.一种设备,包括存储器、处理器、以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的基于车路协同的点云目标检测和盲区目标检测方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的基于车路协同的点云目标检测和盲区目标检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911411671.6A CN111222441B (zh) | 2019-12-31 | 2019-12-31 | 基于车路协同的点云目标检测和盲区目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911411671.6A CN111222441B (zh) | 2019-12-31 | 2019-12-31 | 基于车路协同的点云目标检测和盲区目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111222441A true CN111222441A (zh) | 2020-06-02 |
CN111222441B CN111222441B (zh) | 2024-04-23 |
Family
ID=70830973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911411671.6A Active CN111222441B (zh) | 2019-12-31 | 2019-12-31 | 基于车路协同的点云目标检测和盲区目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111222441B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712719A (zh) * | 2020-12-25 | 2021-04-27 | 北京百度网讯科技有限公司 | 车辆控制方法、车路协同系统、路侧设备和自动驾驶车辆 |
CN113328996A (zh) * | 2021-05-08 | 2021-08-31 | 中国电子科技集团公司第三十研究所 | 一种基于目标感知的安全策略智能配置方法 |
CN113344906A (zh) * | 2021-06-29 | 2021-09-03 | 阿波罗智联(北京)科技有限公司 | 车路协同中相机评估方法、装置、路侧设备和云控平台 |
CN114475654A (zh) * | 2022-01-13 | 2022-05-13 | 香港中文大学(深圳) | 一种车辆控制方法、装置及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217615A (zh) * | 2014-09-16 | 2014-12-17 | 武汉理工大学 | 一种基于车路协同的行人防碰撞系统和方法 |
US20170220876A1 (en) * | 2017-04-20 | 2017-08-03 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
CN110570457A (zh) * | 2019-08-07 | 2019-12-13 | 中山大学 | 一种基于流数据的三维物体检测与跟踪方法 |
-
2019
- 2019-12-31 CN CN201911411671.6A patent/CN111222441B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217615A (zh) * | 2014-09-16 | 2014-12-17 | 武汉理工大学 | 一种基于车路协同的行人防碰撞系统和方法 |
US20170220876A1 (en) * | 2017-04-20 | 2017-08-03 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
CN110570457A (zh) * | 2019-08-07 | 2019-12-13 | 中山大学 | 一种基于流数据的三维物体检测与跟踪方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712719A (zh) * | 2020-12-25 | 2021-04-27 | 北京百度网讯科技有限公司 | 车辆控制方法、车路协同系统、路侧设备和自动驾驶车辆 |
CN113328996A (zh) * | 2021-05-08 | 2021-08-31 | 中国电子科技集团公司第三十研究所 | 一种基于目标感知的安全策略智能配置方法 |
CN113328996B (zh) * | 2021-05-08 | 2022-07-05 | 中国电子科技集团公司第三十研究所 | 一种基于目标感知的安全策略智能配置方法 |
CN113344906A (zh) * | 2021-06-29 | 2021-09-03 | 阿波罗智联(北京)科技有限公司 | 车路协同中相机评估方法、装置、路侧设备和云控平台 |
CN113344906B (zh) * | 2021-06-29 | 2024-04-23 | 阿波罗智联(北京)科技有限公司 | 车路协同中相机评估方法、装置、路侧设备和云控平台 |
CN114475654A (zh) * | 2022-01-13 | 2022-05-13 | 香港中文大学(深圳) | 一种车辆控制方法、装置及计算机可读存储介质 |
CN114475654B (zh) * | 2022-01-13 | 2024-03-15 | 香港中文大学(深圳) | 一种车辆控制方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111222441B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111222441B (zh) | 基于车路协同的点云目标检测和盲区目标检测方法及系统 | |
CN110443225B (zh) | 一种基于特征像素统计的虚实车道线识别方法及其装置 | |
CN107341454B (zh) | 一种场景中障碍物的检测方法及装置、电子设备 | |
CN101303735B (zh) | 探测车辆盲点区域内运动物体的方法及盲点探测装置 | |
US9607227B2 (en) | Boundary detection apparatus and boundary detection method | |
KR101891460B1 (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
JP5145585B2 (ja) | 物標検出装置 | |
Labayrade et al. | In-vehicle obstacles detection and characterization by stereovision | |
KR101103526B1 (ko) | 스테레오 카메라를 이용한 충돌회피 방법 | |
CN104902261A (zh) | 用于低清晰度视频流中的路面识别的装置和方法 | |
CN109871787A (zh) | 一种障碍物检测方法及装置 | |
CN112541416B (zh) | 跨雷达障碍物跟踪方法、装置、电子设备和存储介质 | |
CN108021899A (zh) | 基于双目相机的车载智能前车防撞预警方法 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN114118252A (zh) | 一种基于传感器多元信息融合的车辆检测方法及检测装置 | |
JP2021117048A (ja) | 変化点検出装置及び地図情報配信システム | |
CN104115204A (zh) | 立体物检测装置 | |
KR20180063524A (ko) | 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치 | |
Kühnl et al. | Visual ego-vehicle lane assignment using spatial ray features | |
CN111797701A (zh) | 用于车辆多传感器融合系统的道路障碍物感知方法及系统 | |
CN113432615B (zh) | 基于多传感器融合可驾驶区域的检测方法、系统和车辆 | |
JP3562278B2 (ja) | 環境認識装置 | |
CN104978568B (zh) | 前方车辆检测方法 | |
KR101998584B1 (ko) | 차선 검출 장치 및 차선 검출 방법 | |
JP2014026519A (ja) | 車載レーンマーカ認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |