CN106529466B - 一种基于仿生眼的无人驾驶车辆路径规划方法及系统 - Google Patents
一种基于仿生眼的无人驾驶车辆路径规划方法及系统 Download PDFInfo
- Publication number
- CN106529466B CN106529466B CN201610973702.7A CN201610973702A CN106529466B CN 106529466 B CN106529466 B CN 106529466B CN 201610973702 A CN201610973702 A CN 201610973702A CN 106529466 B CN106529466 B CN 106529466B
- Authority
- CN
- China
- Prior art keywords
- automatic driving
- driving vehicle
- module
- bionic eye
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011664 nicotinic acid Substances 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000033001 locomotion Effects 0.000 claims abstract description 68
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 8
- 238000000280 densification Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 230000004418 eye rotation Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 230000009017 pursuit movement Effects 0.000 abstract 1
- 230000006872 improvement Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000010129 solution processing Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Evolutionary Computation (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于仿生眼的无人驾驶车辆路径规划方法,包括:获取视频图像;对图像进行预处理;对图像进行SIFT特征点匹配及Harris角点匹配;实现环境的三维重建,并修正SIFT特征点的位置;对目标车辆进行识别与追踪定位,获取目标车辆的位置和运动信息;信息模糊处理;模糊推理和解模糊出无人驾驶车辆的角度、转角变化;电机控制无人驾驶车辆运动。本发明的有益效果:可实现无人驾驶车辆在对目标车辆进行识别的基础上寻求最优路径快速准确跟踪运动目标的识别,以及建立的三维环境模型搜索最优路径,对目标车辆进行跟踪。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种基于仿生眼的无人驾驶车辆路径规划方法及系统。
背景技术
智能车辆与交通技术兴起,无人驾驶车辆技术作为其关键技术之一被开发。无人驾驶车辆行驶过程需要多部分协同工作,保证对大量的内部数据监测,外部附近障碍感知以及行驶路线预判与规划等才能使其安全行使。
路径规划是无人驾驶车辆技术研究的重要研究方向之一,无人驾驶车辆如何根据当前获得的环境信息来确定最优路径并能够在没有人工干预的情况下沿该路径移动到预定目标点,是其研究的热点之一。
现有的无人驾驶车辆的路径规划技术部分通过道路行驶学习,部分依赖于GPS导航。但这些方法具有以下缺点:规划路径单一,应用范围有限;GPS导航易受障碍物干扰,导致定位精度低,影响行驶安全。
发明内容
为解决上述问题,本发明的目的在于提供一种基于仿生眼的无人驾驶车辆路径规划方法及系统,能够通过仿生眼感知目标车辆周围环境,并快速规划无人驾驶车辆的行驶路径。
本发明提供了一种基于仿生眼的无人驾驶车辆路径规划方法,其特征在于,该方法基于安装有仿生眼的无人驾驶车辆和与遥控装置通信连接的目标车辆,所述路径规划方法包括:
步骤1,所述仿生眼内的摄像头拍摄所述目标车辆的视频图像;
步骤2,所述仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征;
步骤3,所述图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将所述SIFT特征点和所述Harris角点转换到空间三维坐标;
步骤4,所述仿生眼内的电机控制所述仿生眼转动,使所述摄像头在不同的角度和不同的位置连续拍摄所述目标车辆的视频图像,重复步骤1-3,所述图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取所述无人驾驶车辆和所述SIFT特征点之间的相对距离,实时修正所述SIFT特征点的位置;
步骤5,所述目标车辆通过所述遥控装置实现快速运动及转弯,所述仿生眼对所述目标车辆进行识别与追踪定位,获取所述目标车辆的位置和运动信息;
步骤6,采用模糊控制方法将获取到的信息进行模糊处理;
步骤7,通过模糊推理和解模糊处理,得到所述无人驾驶车辆的运动路径,包括所述无人驾驶车辆的运动角度和转角变化;
步骤8,所述无人驾驶车辆内的电机根据该运动路径控制所述无人驾驶车辆的追踪运动。
作为本发明进一步的改进,所述仿生眼安装在所述无人驾驶车辆上,该仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动。
作为本发明进一步的改进,步骤4中,在进行三维重建时,将多幅图像中相邻两幅图像的重建结果进行叠加,同时对所述SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差。
本发明还提供了一种基于仿生眼的无人驾驶车辆路径规划系统,包括:
采集模块,其通过所述仿生眼内的摄像头拍摄所述目标车辆的视频图像;
预处理模块,其与所述采集模块相连,所述预处理模块通过所述仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征;
匹配模块,其与所述预处理模块相连,所述匹配模块通过所述图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将所述SIFT特征点和所述Harris角点转换到空间三维坐标;
三维重建模块,其与所述匹配模块相连,所述三维重建模块通过所述仿生眼内的电机控制所述仿生眼转动,使所述摄像头在不同的角度和不同的位置连续拍摄所述目标车辆的视频图像,重复步骤1-3,所述图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取所述无人驾驶车辆和所述SIFT特征点之间的相对距离,实时修正所述SIFT特征点的位置;
识别定位模块,其与所述三维重建模块相连,所述识别定位模块通过所述遥控装置实现所述目标车辆的快速运动及转弯,所述仿生眼对所述目标车辆进行识别与追踪定位,获取所述目标车辆的位置和运动信息;
模糊处理模块,其与所述识别定位模块相连,所述模糊处理模块采用模糊控制方法将获取到的信息进行模糊处理;
路径规划模块,其与所述模糊处理模块相连,所述路径规划模块通过模糊推理和解模糊处理,得到所述无人驾驶车辆的运动路径,包括所述无人驾驶车辆的运动角度和转角变化;
运动追踪模块,其与所述路径规划模块相连,所述运动追踪模块通过所述无人驾驶车辆内的电机控制所述无人驾驶车辆根据该运动路径实现追踪运动。
作为本发明进一步的改进,所述仿生眼安装在所述无人驾驶车辆上,所述遥控装置与所述目标车辆通信连接,所述仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动。
作为本发明进一步的改进,所述三维重建模块在进行三维重建时,将多幅图像中相邻两幅图像的重建结果进行叠加,同时对所述SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差。
本发明的有益效果为:
1、基于360度旋转运动的仿生眼拍摄目标车辆周围的环境,覆盖范围广,拍摄到的路况信息清晰明确,通过图像处理后可以快速得到目标车辆周围道路分布状况与交通状况,该信息实时、准确,依据该数据能够快速获得合理的规划路径;
2、通过对多幅连续图像通过纹理映射,并利用仿生眼绕光轴旋转的额外自由度实现旋转补偿,实现快速的图像匹配,同时也避免了三维重建过程中的累积误差,实现真实的三维重建;
3、通过仿生眼进行目标识别与三维定位,并根据所测的三维相对位置关系调整自身的追踪运动,定位误差小,精度高;
4、在不确定环境下采用模糊控制的控制方法对无人驾驶车辆进行控制,进一步提高了对目标车辆的定位效果。
附图说明
图1为本发明实施例所述的一种基于仿生眼的无人驾驶车辆路径规划方法的流程示意图;
图2为本发明实施例所述的一种基于仿生眼的无人驾驶车辆路径规划系统的结构框图。
具体实施方式
下面通过具体的实施例并结合附图对本发明做进一步的详细描述。
实施例1,如图1所示,本发明实施例的一种基于仿生眼的无人驾驶车辆路径规划方法,,该方法基于安装有仿生眼的无人驾驶车辆和与遥控装置通信连接的目标车辆,路径规划方法包括:
步骤1,仿生眼内的摄像头拍摄目标车辆的视频图像;
步骤2,仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征;
步骤3,图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将SIFT特征点和Harris角点转换到空间三维坐标;
步骤4,仿生眼内的电机控制仿生眼转动,使摄像头在不同的角度和不同的位置连续拍摄目标车辆的视频图像,重复步骤1-3,图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取无人驾驶车辆和SIFT特征点之间的相对距离,实时修正SIFT特征点的位置;
步骤5,目标车辆通过遥控装置实现快速运动及转弯,仿生眼对目标车辆进行识别与追踪定位,获取目标车辆的位置和运动信息;
步骤6,采用模糊控制方法将获取到的信息进行模糊处理;
步骤7,通过模糊推理和解模糊处理,得到无人驾驶车辆的运动路径,包括无人驾驶车辆的运动角度和转角变化;
步骤8,无人驾驶车辆内的电机根据该运动路径控制无人驾驶车辆的追踪运动。
其中,仿生眼安装在无人驾驶车辆上,该仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动的360度运动,实现对目标车辆周围环境的全方位拍摄。图像处理器可以采用FPGA来处理信号,利用FPGA的并行处理,可以很好的解决数据量大、处理速度不匹配、可靠性低及精度小等问题,提高图像处理的精度。仿生眼内的摄像头采用高清摄像头,能获取清晰的高帧频图像。在对图像进行预处理时,采用高斯滤波以及有限对比适应性直方均衡化(CLANE)方法,可以增强图像中所有区域的纹理特征。
进一步的,步骤4中,在进行三维重建时,将连续拍摄的多幅图像中相邻两幅图像的重建结果进行叠加,同时对SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差,完成真实的环境三维重建。
实施例2,本发明还提供了一种基于仿生眼的无人驾驶车辆路径规划系统,包括采集模块、预处理模块、匹配模块、三维重建模块、识别定位模块、模糊处理模块、路径规划模块和运动追踪模块。
采集模块通过仿生眼内的摄像头拍摄目标车辆的视频图像。
预处理模块与采集模块相连,预处理模块通过仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征。
匹配模块与预处理模块相连,匹配模块通过图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将SIFT特征点和Harris角点转换到空间三维坐标。
三维重建模块与匹配模块相连,三维重建模块通过仿生眼内的电机控制仿生眼转动,使摄像头在不同的角度和不同的位置连续拍摄目标车辆的视频图像,重复步骤1-3,图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取无人驾驶车辆和SIFT特征点之间的相对距离,实时修正SIFT特征点的位置;进一步的,可将多幅图像中相邻两幅图像的重建结果进行叠加,同时对SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差。
识别定位模块与三维重建模块相连,识别定位模块通过遥控装置实现目标车辆的快速运动及转弯,仿生眼对目标车辆进行识别与追踪定位,获取目标车辆的位置和运动信息。
模糊处理模块与识别定位模块相连,模糊处理模块采用模糊控制方法将获取到的信息进行模糊处理。
路径规划模块与模糊处理模块相连,路径规划模块通过模糊推理和解模糊处理,得到无人驾驶车辆的运动路径,包括无人驾驶车辆的运动角度和转角变化。
运动追踪模块与路径规划模块相连,运动追踪模块通过无人驾驶车辆内的电机控制无人驾驶车辆根据该运动路径实现追踪运动。
其中,仿生眼安装在无人驾驶车辆上,遥控装置与目标车辆通信连接,仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动。
本发明采用基于图像SIFT特征和Harris角点相结合的实时三维环境构建。由于采用特征匹配,希望图像增强算法可以增强图像中所有区域的纹理特征,因此首先对采集图像进行高斯滤波以及有限对比适应性直方均衡化(CLANE)方法预处理。而后对角点进行优化,对优化后的SIFT特征点及Harris角点,使用相机投影模式转换到空间三维坐标,再通过多幅图像对无人驾驶车辆和环境特征点之间的相对距离进行估计,实时修正特征点的位置,对特征点使用基于颜色区域增长稠密化即可得到较为真实的三维重建。
由于在不确定环境下,本发明采用模糊控制的控制方法对无人驾驶车辆进行控制,仿生眼对运动的目标车辆的位置和运动信息进行采集,而后将信息进行模糊化,通过对环境重构以及运动目标的追踪定位,实时生成合理的路径规划轨迹,再经过模糊推理,解模糊处理,得到无人驾驶车辆的运动,包括角度的转变。
本发明可实现无人驾驶车辆在对目标车辆进行识别的基础上寻求最优路径快速准确跟踪运动目标的识别,以及建立的三维环境模型搜索最优路径,对目标车辆进行跟踪。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于仿生眼的无人驾驶车辆路径规划方法,其特征在于,该方法基于安装有仿生眼的无人驾驶车辆和与遥控装置通信连接的目标车辆,所述路径规划方法包括:
步骤1,所述仿生眼内的摄像头拍摄所述目标车辆的视频图像;
步骤2,所述仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征;
步骤3,所述图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将所述SIFT特征点和所述Harris角点转换到空间三维坐标;
步骤4,所述仿生眼内的电机控制所述仿生眼转动,使所述摄像头在不同的角度和不同的位置连续拍摄所述目标车辆的视频图像,重复步骤1-3,所述图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取所述无人驾驶车辆和所述SIFT特征点之间的相对距离,实时修正所述SIFT特征点的位置;
步骤5,所述目标车辆通过所述遥控装置实现快速运动及转弯,所述仿生眼对所述目标车辆进行识别与追踪定位,获取所述目标车辆的位置和运动信息;
步骤6,采用模糊控制方法将获取到的信息进行模糊处理;
步骤7,通过模糊推理和解模糊处理,得到所述无人驾驶车辆的运动路径,包括所述无人驾驶车辆的运动角度和转角变化;
步骤8,所述无人驾驶车辆内的电机根据该运动路径控制所述无人驾驶车辆的追踪运动。
2.根据权利要求1所述的无人驾驶车辆路径规划方法,其特征在于,所述仿生眼安装在所述无人驾驶车辆上,该仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动。
3.根据权利要求1所述的无人驾驶车辆路径规划方法,其特征在于,步骤4中,在进行三维重建时,将多幅图像中相邻两幅图像的重建结果进行叠加,同时对所述SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差。
4.一种实施权利要求1所述的一种基于仿生眼的无人驾驶车辆路径规划系统,包括:
采集模块,其通过所述仿生眼内的摄像头拍摄所述目标车辆的视频图像;
预处理模块,其与所述采集模块相连,所述预处理模块通过所述仿生眼内的图像处理器对采集到的视频图像进行高斯滤波预处理以及有限对比适应性直方均衡化预处理,增强视频图像中所有区域的纹理特征;
匹配模块,其与所述预处理模块相连,所述匹配模块通过所述图像处理器对预处理后的视频图像进行SIFT特征点匹配及Harris角点匹配,并通过投影方法,将所述SIFT特征点和所述Harris角点转换到空间三维坐标;
三维重建模块,其与所述匹配模块相连,所述三维重建模块通过所述仿生眼内的电机控制所述仿生眼转动,使所述摄像头在不同的角度和不同的位置连续拍摄所述目标车辆的视频图像,重复步骤1-3,所述图像处理器对连续拍摄的多幅图像中相邻两幅图像之间进行SIFT特征点匹配,实现环境的三维重建,并获取所述无人驾驶车辆和所述SIFT特征点之间的相对距离,实时修正所述SIFT特征点的位置;
识别定位模块,其与所述三维重建模块相连,所述识别定位模块通过所述遥控装置实现所述目标车辆的快速运动及转弯,所述仿生眼对所述目标车辆进行识别与追踪定位,获取所述目标车辆的位置和运动信息;
模糊处理模块,其与所述识别定位模块相连,所述模糊处理模块采用模糊控制方法将获取到的信息进行模糊处理;
路径规划模块,其与所述模糊处理模块相连,所述路径规划模块通过模糊推理和解模糊处理,得到所述无人驾驶车辆的运动路径,包括所述无人驾驶车辆的运动角度和转角变化;
运动追踪模块,其与所述路径规划模块相连,所述运动追踪模块通过所述无人驾驶车辆内的电机控制所述无人驾驶车辆根据该运动路径实现追踪运动。
5.根据权利要求4所述的无人驾驶车辆路径规划系统,其特征在于,所述仿生眼安装在所述无人驾驶车辆上,所述遥控装置与所述目标车辆通信连接,所述仿生眼在电机的驱动下可实现上下运动、左右运动和绕光轴运动。
6.根据权利要求4所述的无人驾驶车辆路径规划系统,其特征在于,所述三维重建模块在进行三维重建时,将多幅图像中相邻两幅图像的重建结果进行叠加,同时对所述SIFT特征点使用基于颜色区域增长稠密化方法消除叠加误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610973702.7A CN106529466B (zh) | 2016-11-03 | 2016-11-03 | 一种基于仿生眼的无人驾驶车辆路径规划方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610973702.7A CN106529466B (zh) | 2016-11-03 | 2016-11-03 | 一种基于仿生眼的无人驾驶车辆路径规划方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106529466A CN106529466A (zh) | 2017-03-22 |
CN106529466B true CN106529466B (zh) | 2019-04-30 |
Family
ID=58349634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610973702.7A Active CN106529466B (zh) | 2016-11-03 | 2016-11-03 | 一种基于仿生眼的无人驾驶车辆路径规划方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529466B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733042B (zh) * | 2017-04-19 | 2021-11-09 | 上海汽车集团股份有限公司 | 自动驾驶车辆的目标跟踪方法及装置 |
CN107895147A (zh) * | 2017-11-07 | 2018-04-10 | 龚土婷 | 一种安全性高的无人驾驶汽车系统 |
CN109740462B (zh) * | 2018-12-21 | 2020-10-27 | 北京智行者科技有限公司 | 目标的识别跟随方法 |
CN109708654A (zh) * | 2018-12-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 一种路径规划方法和路径规划系统 |
US11320820B2 (en) * | 2019-03-26 | 2022-05-03 | GM Global Technology Operations LLC | Hyperassociation in episode memory |
CN110491155A (zh) * | 2019-07-30 | 2019-11-22 | 深圳市前海胡桃科技有限公司 | 一种自动驾驶装置的调度方法、装置及自动驾驶装置 |
CN110887488A (zh) * | 2019-11-18 | 2020-03-17 | 天津大学 | 一种无人驾驶碾压机定位方法 |
CN111361570B (zh) * | 2020-03-09 | 2021-06-18 | 福建汉特云智能科技有限公司 | 一种多目标跟踪反向验证方法及存储介质 |
CN112539758B (zh) * | 2020-12-16 | 2023-06-02 | 中铁大桥勘测设计院集团有限公司 | 一种航拍视频中地面线路绘制方法及系统 |
CN114936174B (zh) * | 2022-06-09 | 2024-01-30 | 中国兵器工业计算机应用技术研究所 | 基于地面无人平台的图像处理与融合计算方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104134209A (zh) * | 2014-07-18 | 2014-11-05 | 北京国电富通科技发展有限责任公司 | 一种视觉导航中的特征提取与匹配方法及系统 |
CN105279789A (zh) * | 2015-11-18 | 2016-01-27 | 中国兵器工业计算机应用技术研究所 | 一种基于图像序列的三维重建方法 |
CN105318888A (zh) * | 2015-12-07 | 2016-02-10 | 北京航空航天大学 | 基于无人机感知的无人驾驶车辆路径规划方法 |
CN106020203A (zh) * | 2016-07-15 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 用于控制无人驾驶车辆的方法及装置 |
-
2016
- 2016-11-03 CN CN201610973702.7A patent/CN106529466B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104134209A (zh) * | 2014-07-18 | 2014-11-05 | 北京国电富通科技发展有限责任公司 | 一种视觉导航中的特征提取与匹配方法及系统 |
CN105279789A (zh) * | 2015-11-18 | 2016-01-27 | 中国兵器工业计算机应用技术研究所 | 一种基于图像序列的三维重建方法 |
CN105318888A (zh) * | 2015-12-07 | 2016-02-10 | 北京航空航天大学 | 基于无人机感知的无人驾驶车辆路径规划方法 |
CN106020203A (zh) * | 2016-07-15 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 用于控制无人驾驶车辆的方法及装置 |
Non-Patent Citations (5)
Title |
---|
3D Reconstruction Based on SIFT and Harris Feature Points;Keju Peng 等;《2009 IEEE International Conference on Robotics and Biomimetics (ROBIO)》;20100225;全文 |
A Study on Evaluation of Safe Driving Using an In-Vehicle Data Camera;Ryo ISHIZAKI 等;《2013 IEEE International Conference on Systems, Man, and Cybernetics》;20140127;全文 |
仿生眼关键技术研究综述与应用展望;刘培志 等;《第十届全国信号和智能信息处理与应用学术会议》;20161021;全文 |
复杂场景下的视觉目标跟踪方法研究;李连昌;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120215;第2012年卷(第02期);全文 |
车辆的Harris与SIFT特征及车型识别;康维新 等;《哈尔滨理工大学学报》;20120630;第17卷(第3期);全文 |
Also Published As
Publication number | Publication date |
---|---|
CN106529466A (zh) | 2017-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529466B (zh) | 一种基于仿生眼的无人驾驶车辆路径规划方法及系统 | |
CN105512628B (zh) | 基于无人机的车辆环境感知系统及方法 | |
CN105946853B (zh) | 基于多传感器融合的长距离自动泊车的系统及方法 | |
CN106527426A (zh) | 一种室内多目轨迹规划系统及其方法 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
CN109720340A (zh) | 一种基于视觉识别的自动泊车系统及方法 | |
CN100554877C (zh) | 一种面向水下运载器的实时双目视觉导引方法 | |
CN113085896B (zh) | 一种现代有轨清洁车辅助自动驾驶系统及方法 | |
CN106607907A (zh) | 一种移动视觉机器人及其测控方法 | |
CN105197252A (zh) | 一种小型无人机降落方法及系统 | |
CN102944224A (zh) | 一种无人驾驶车的自动环境感知系统及其工作方法 | |
CN103413313A (zh) | 基于电力机器人的双目视觉导航系统及方法 | |
CN101452292B (zh) | 基于序列双色点阵式航标的鱼眼镜头全向视觉制导方法 | |
CN102179598B (zh) | 平板窄焊缝初始焊位对中和焊缝跟踪方法及装置 | |
CN109062229A (zh) | 基于双目视觉的水下机器人系统的领航跟随编队方法 | |
CN109947136A (zh) | 一种面向无人机群体快速目标搜索的协同主动感知方法 | |
CN102789234A (zh) | 基于颜色编码标识的机器人导航方法及系统 | |
CN101853528A (zh) | 一种手持式三维型面信息提取方法及其提取仪 | |
Zhang et al. | Robust inverse perspective mapping based on vanishing point | |
CN110163963B (zh) | 一种基于slam的建图装置和建图方法 | |
CN109947097A (zh) | 一种基于视觉和激光融合的机器人定位方法及导航应用 | |
CN110579771A (zh) | 一种基于激光点云的飞机泊位引导方法 | |
CN108445882A (zh) | 具有跟踪功能的自动导引车 | |
Chun-Fu et al. | Research on visual navigation algorithm of AGV used in the small agile warehouse | |
CN109492525A (zh) | 一种测量基站天线工程参数的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |