CN109490926B - 一种基于双目相机和gnss的路径规划方法 - Google Patents
一种基于双目相机和gnss的路径规划方法 Download PDFInfo
- Publication number
- CN109490926B CN109490926B CN201811141362.7A CN201811141362A CN109490926B CN 109490926 B CN109490926 B CN 109490926B CN 201811141362 A CN201811141362 A CN 201811141362A CN 109490926 B CN109490926 B CN 109490926B
- Authority
- CN
- China
- Prior art keywords
- point
- image
- points
- camera
- seed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000012010 growth Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 5
- 238000011156 evaluation Methods 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 abstract description 2
- 230000007246 mechanism Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000035040 seed growth Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及图像处理及车辆导航领域,尤其涉及一种基于双目相机和GNSS的路径规划方法。其中,利用双目相机及GNSS实时获取路况信息和位置信息,结合地图信息与实时路径情况,利用像素评价机制将两者结合起来,实现当前位置与目标位置及当前路面信息的融合。
Description
技术领域
本发明涉及图像处理及车辆导航领域,尤其涉及一种基于双目相机和GNSS的路径规划方法。
背景技术
随着计算机硬件计算能力的不断提升和图像处理技术的不断成熟,如今无人驾驶技术正逐渐成为一大热门产业,其中涉及到利用多种传感器的数据融合,从而引导车辆行驶的技术,一般涉及摄像头、激光雷达、毫米波雷达及GNSS系统等。其中利用双目相机,可以获取具有深度的图像,从而可以对前方障碍物情况及可通行状况进行判断;利用GNSS系统可以获得当前位置信息。
本发明基于机器视觉的通路检测技术及基于GNSS的路径规划技术,利用像素评价机制将两者结合起来,从而实现通路检测和路径规划的统一系统。
发明内容
本发明提供了一种基于双目相机和GNSS的路径规划方法,可应用于无人驾驶车辆。
本发明解决问题所提供的技术方案如下:一种基于双目相机和GNSS的路径规划方法,包括如下步骤:
(1)利用GNSS模块获取当前位置,根据目的地位置,规划初始路径;车辆行进中不断获取当前坐标(GNSS模块)、当前车辆方向及姿态(陀螺仪),计算出当前方向与导航方向的偏差角度。
(2)双目相机采集前方场景,得到前方场景的彩色图像和深度图像,处理器根据彩色图像,利用区域生长的方法获得可通行区域,或者利用棒状像素检测法获得可通行区域,或者利用机器学习中的语义分割的方式学习得到可通行区域。
(3)障碍物检测,包括如下步骤:
根据相机参数,计算得到深度图像中的点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
u0,v0分别为深度图像的中心坐标。zc表示相机坐标的z轴值,f为双目相机焦距;
利用该公式将深度图像转换为点云图,并获取图像中每一像素点的高度H,此时坐标系是以相机为基准的,对H进行判断,若H不在[-0.1-h~0.1-h]范围内,即视为障碍物;h为相机高度;
(4)对步骤2标记出可通行区域和步骤3标记出障碍物进行凸包检测,将凸点记为m表示凸点的个数;将凹点记为n表示凹点个数,对于可通行区域的第j行像素点有分别代表当前行像素点的左右两端像素点,对于第j行中的像素点(xij,yij)(其中i和j分别代表行和列的标号),利用以下计算公式求出T的评分:
其中α和βp为评分参数。
利用以下公式求出O的评分:
其中γq为评分参数。
(5)对于步骤2获得的可通行区域以内的像素,设置一套评分体系,内容包括且不限于步骤1获得的偏差角度θ、距离可通行区域边缘的远近T、距离障碍物的远近O等。由以下公式可算出像素点(xij,yij)的总评分G:
G=Aθ+BT+CO
其中A、B、C分别为θ、T、O的评分参数。
对于所有属于通行区域的像素进行评分得到像素的评分集合{Gij}。
进一步地,所述步骤2通过如下种子生长法获得可通行区域,包括如下步骤:
(2.1)双目相机采集前方场景,将采集得到的两个彩色图像传入处理器中处理获得深度图像;
(2.2)利用深度图像,使用种子生长算法,获得可通行的路径;具体实现如下:对于深度图像中所有的像素点(X,Y,Z),随机选取3个点,构成以这3个点为顶角的一个三角形平面,平面方程为AX+BY+CZ+D=0。如果(nth为阈值,取0.85~0.95),说明该平面和水平面夹角较小,可作为地面的候选;否则跳出进行下一次随机取点。对可作为地面的候选平面,计算出深度图像中每一点(Xi,Yi,Zi)到该候选平面的距离如果DPSi<T,(T为阈值,取20mm~100mm),则将(Xi,Yi,Zi)归为该平面内点。取所有候选平面中内点最多的平面作为初始地面。
(2.3)对步骤2.1获得的彩色图像进行颜色空间变换,获取在HSV颜色空间中的彩色图HSV。对彩色图像提取Canny边缘,获取彩色图像的边缘图像Canny。
(2.4)对于初始地面中的像素点,其四邻域不全是地面的像素点设为种子点。将种子点都压入种子点堆栈进行四邻域生长。设定种子点可向四邻域生长的条件:①这个种子点没有遍历过;②这个种子点不属于边缘图像Canny的像素点。四邻域生长过程如下:
对种子点G,该点的色调值为h;它的其中一个四邻域像素点Gi,色调值为hi;如Gi不属于边缘图像Canny的像素点,且Gi没有被遍历过,且|h-hi|<δ,其中δ是阈值(取2~5),则Gi也视为可通行的地面,压入种子点堆栈。当遍历堆栈中所有种子点后,种子区域生长结束。初始地面经过种子区域生长,被扩展到了距离更长,范围更广的扩展地面,即为可通行区域。
进一步地,所述步骤3中,点云图的计算过程如下:
(3.1)世界坐标点M(Xw,Yw,Zw)映射到图像点m(u,v)的公式如下:
其中u,v为图像坐标系下的任意坐标点。u0,v0分别为图像的中心坐标。xw,yw,zw表示世界坐标系下的三维坐标点。zc表示相机坐标的z轴值,即目标到相机的距离。R,T分别为外参矩阵的3x3旋转矩阵和3x1平移矩阵。f为双目相机焦距;
由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw,公式可进一步简化为:
从以上的变换矩阵公式,可以计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
进一步地,所述步骤4中α取值为1.0~1.5,βp取值为0.3~0.7,γq取值为0.3~0.7。
进一步地,所述步骤5中,A的取值为1.5-2.5,B的取值为0.5-1.5,C的取值为0.5-1.5。
本发明的有益效果在于:
(1)利用双目相机及GNSS,实时获取路况信息和位置信息,结合地图信息与实时路径情况,实现当前位置与目标位置及当前路面信息的融合。
(2)精度较高,实现10米左右的通路检测。
(3)具有较好的实时性,可达到每秒10到15帧。
附图说明
图1为本发明结构示意图;
图2为本发明系统示意图;
图3为本发明系统流程图;
图4为前方场景的图像;
图5为前方场景的深度图像;
图6为障碍物检测结果图;
附图中标记及对应的零部件名称:1-外壳、2-双目相机、3-底盘、31-车前轮、32-车后轮、4-上位机、41-GNSS模块、42-陀螺仪、43-4G模块、44-下位机、5-电池、6-电机。
具体实施方式
为使本发明的目的、技术方案和优点更加清晰明了,下面结合实例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
系统实例如图1所示,其包括GNSS模块、陀螺仪、网络通信模块、双目相机、电机模块、上位机、下位机、车轮。所述GNSS模块为GPS与北斗双模定位模块,与上位机相连,实时采集地理定位信息并发送至上位机;所述陀螺仪模块与上位机相连,将方向信息实时发送至上位机;所述网络通信模块为4G移动通信模块,与上位机相连,在有请求时进行网络通信;所述双目相机为双目相机,与上位机相连,进行对路况的实时采集并将获取的深度图像交由上位机处理;所述电机模块控制车轮前进后退及转向,与下位机相连;所述下位机模块可用Arduino开发板,与上位机相连,控制无人车的行驶;所述上位机为微型台式机,运行平台为Windows,负责对深度图像的实时处理、请求网络通信、实时获取GNSS数据和获取陀螺仪数据并分析处理;所述电池模块与上位机、下位机、电机相连,为其三者供电。
在车辆启动后,从上位机输入目的地址,上位机从GNSS模块中解析出当前地理坐标,将目的地和当前位置通过4G模块发送至云端服务器获取路径规划,而后开启通路检测算法,利用像素评价的方法计算出最佳可通行线路,借助电子罗盘传来的方向按照规划的路径向下位机传输行驶并避障的路线指引。
下面结合具体实例,对本发明作进一步说明。
一种基于双目相机和GNSS的路径规划方法,包括如下步骤:
(1)利用GNSS模块获取当前位置;根据目的地位置,规划初始路径;车辆行进中不断获取当前坐标,根据陀螺仪获取当前车辆方向及姿态,计算出当前方向与导航方向的偏差角度。
(2)双目相机采集前方场景,采集得到两个彩色图像,如图4所示,处理器根据彩色图像,利用区域生长的方法获得可通行区域,或者利用棒状像素检测法获得可通行区域,或者利用机器学习中的语义分割的方式学习得到可通行区域。本实施例中,采用如下所述的种子生长法来实现:
(2.1)双目相机采集前方场景,将采集得到的两个彩色图像传入处理器中处理获得深度图像,如图5所示;
(2.2)利用深度图像,使用种子生长算法,获得可通行的路径;具体实现如下:对于深度图像中所有的像素点(X,Y,Z),随机选取3个点,构成以这3个点为顶角的一个三角形平面,平面方程为AX+BY+CZ+D=0。如果(nth为阈值,取0.85~0.95),说明该平面和水平面夹角较小,可作为地面的候选;否则跳出进行下一次随机取点。对可作为地面的候选平面,计算出深度图像中每一点(Xi,Yi,Zi)到该候选平面的距离如果DPSi<T,(T为阈值,取20mm~100mm),则将(Xi,Yi,Zi)归为该平面内点。取所有候选平面中内点最多的平面作为初始地面。
(2.3)对步骤2.1获得的彩色图像进行颜色空间变换,获取在HSV颜色空间中的彩色图HSV。对彩色图像提取Canny边缘,获取彩色图像的边缘图像Canny。
(2.4)对于初始地面中的像素点,其四邻域不全是地面的像素点设为种子点。将种子点都压入种子点堆栈进行四邻域生长。设定种子点可向四邻域生长的条件:①这个种子点没有遍历过;②这个种子点不属于边缘图像Canny的像素点。四邻域生长过程如下:
对种子点G,该点的色调值为h;它的其中一个四邻域像素点Gi,色调值为hi;如Gi不属于边缘图像Canny的像素点,且Gi没有被遍历过,且|h-hi|<δ,其中δ是阈值(取2~5),则Gi也视为可通行的地面,压入种子点堆栈。当遍历堆栈中所有种子点后,种子区域生长结束。初始地面经过种子区域生长,被扩展到了距离更长,范围更广的扩展地面,即为可通行区域。
(3)障碍物检测,包括如下步骤:
根据相机参数,计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
u0,v0分别为图像的中心坐标。zc表示相机坐标的z轴值,f为双目相机焦距;
利用该公式将深度图像转换为点云图,并获取图像中每一像素点的高度H,此时坐标系是以相机为基准的,对H进行判断,若h不在[-0.1-h~0.1-h]范围内,即视为障碍物,如图6所示,分界线以上即为检测出的障碍物。
点云图的计算过程如下:
(3.1)世界坐标点M(Xw,Yw,Zw)映射到图像点m(u,v)的公式如下:
其中u,v为图像坐标系下的任意坐标点。u0,v0分别为图像的中心坐标。xw,yw,zw表示世界坐标系下的三维坐标点。zc表示相机坐标的z轴值,即目标到相机的距离。R,T分别为外参矩阵的3x3旋转矩阵和3x1平移矩阵。f为双目相机焦距;
由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw,公式可进一步简化为:
从以上的变换矩阵公式,可以计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
(4)对步骤2标记出可通行区域和步骤3标记出障碍物进行凸包检测,将凸点记为m表示凸点的个数;将凹点记为n表示凹点个数,对于可通行区域的第j行像素点有分别代表当前行像素点的左右两端像素点,对于第j行中的像素点(xij,yij)(其中i和j分别代表行和列的标号),利用以下计算公式求出T的评分:
其中α和βp为评分参数。本实施例中,α取值可以为1.0~1.5,βp取值可以为0.3~0.7。
利用以下公式求出O的评分:
其中γq为评分参数,本实施例中,可以为0.3~0.7,
(5)对于步骤2获得的可通行区域以内的像素,设置一套评分体系,内容包括且不限于步骤1获得的偏差角度θ、距离可通行区域边缘的远近T、距离障碍物的远近O等。由以下公式可算出像素点(xij,yij)的总评分G:
G=Aθ+BT+CO
其中A、B、C分别为θ、T、O的评分参数。本实施例中,A的取值可以为1.5-2.5,B的取值可以为0.5-1.5,C的取值可以为0.5-1.5
对于所有属于通行区域的像素进行评分得到像素的评分集合{Gij}。
Claims (1)
1.一种基于双目相机和GNSS的路径规划方法,其特征在于,包括如下步骤:
(1)利用GNSS模块获取当前位置,根据目的地位置,规划初始路径;车辆行进中不断获取当前坐标、当前车辆方向及姿态,计算出当前方向与导航方向的偏差角度;
(2)双目相机采集前方场景,得到前方场景的彩色图像和深度图像,处理器根据彩色图像,利用区域生长的方法获得可通行区域,包括如下步骤:
(2.1)双目相机采集前方场景,将采集得到的两个彩色图像传入处理器中处理获得深度图像;
(2.2)利用深度图像,使用种子生长算法,获得可通行的路径;具体实现如下:对于深度图像中所有的像素点(X,Y,Z),随机选取3个点,构成以这3个点为顶角的一个三角形平面,平面方程为AX+BY+CZ+D=0;如果其中,nth为阈值,取0.85~0.95,说明该平面和水平面夹角较小,可作为地面的候选;否则跳出进行下一次随机取点;对可作为地面的候选平面,计算出深度图像中每一点(Xi,Yi,Zi)到该候选平面的距离如果DPSi<T,其中,T为阈值,取20mm~100mm,则将(Xi,Yi,Zi)归为该平面内点;取所有候选平面中内点最多的平面作为初始地面;
(2.3)对步骤(2.1)获得的彩色图像进行颜色空间变换,获取在HSV颜色空间中的彩色图HSV;对彩色图像提取Canny边缘,获取彩色图像的边缘图像Canny;
(2.4)对于初始地面中的像素点,其四邻域不全是地面的像素点设为种子点;将种子点都压入种子点堆栈进行四邻域生长;设定种子点可向四邻域生长的条件:①这个种子点没有遍历过;②这个种子点不属于边缘图像Canny的像素点;四邻域生长过程如下:
对种子点G,该点的色调值为h;它的其中一个四邻域像素点Gi,色调值为hi;如Gi不属于边缘图像Canny的像素点,且Gi没有被遍历过,且|h-hi|<δ,其中δ是阈值,取2~5,则Gi也视为可通行的地面,压入种子点堆栈;当遍历堆栈中所有种子点后,种子区域生长结束;初始地面经过种子区域生长,被扩展到了距离更长,范围更广的扩展地面,即为可通行区域;
(3)障碍物检测,包括如下步骤:
根据相机参数,计算得到深度图像中的点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
u0,v0分别为深度图像的中心坐标;zc表示相机坐标的z轴值,f为双目相机焦距;
利用该公式将深度图像转换为点云图,并获取图像中每一像素点的高度H,此时坐标系是以相机为基准的,对H进行判断,若H不在[-0.1-h~0.1-h]范围内,即视为障碍物;h为相机高度;
其中,点云图的计算过程如下:
(3.1)世界坐标点M(Xw,Yw,Zw)映射到图像点m(u,v)的公式如下:
其中u,v为图像坐标系下的任意坐标点;u0,v0分别为图像的中心坐标;xw,yw,zw表示世界坐标系下的三维坐标点;zc表示相机坐标的z轴值,即目标到相机的距离;R,T分别为外参矩阵的3x3旋转矩阵和3x1平移矩阵;f为双目相机焦距;
由于世界坐标原点和相机原点是重合的,即没有旋转和平移,所以:
相机坐标系和世界坐标系的坐标原点重合,相机坐标和世界坐标下的同一个物体具有相同的深度,即zc=zw,公式可进一步简化为:
从以上的变换矩阵公式,可以计算得到图像点[u,v]T到世界坐标点[xw,yw,zw]T的变换公式:
(4)对步骤(2)标记出可通行区域和步骤(3)标记出障碍物进行凸包检测,将凸点记为m表示凸点的个数;将凹点记为n表示凹点个数,对于可通行区域的第j行像素点有分别代表当前行像素点的左右两端像素点,对于第j行中的像素点(xij,yij)(其中i和j分别代表行和列的标号),利用以下计算公式求出T的评分:
其中α和βp为评分参数,α取值为1.0~1.5,βp取值为0.3~0.7;
利用以下公式求出O的评分:
其中γq为评分参数,γq取值为0.3~0.7;
(5)对于步骤(2)获得的可通行区域以内的像素,设置一套评分体系,内容包括步骤(1)获得的偏差角度θ、距离可通行区域边缘的远近T、距离障碍物的远近O;由以下公式可算出像素点(xij,yij)的总评分G:
G=Aθ+BT+CO
其中A、B、C分别为θ、T、O的评分参数;其中,A的取值为1.5-2.5,B的取值为0.5-1.5,C的取值为0.5-1.5;
对于所有属于通行区域的像素进行评分得到像素的评分集合{Gij};
取每一行的所有像素取评分最高的像素Gjmax,从而得到从远到近的最高评分像素合集{Gmax};将相邻行最高分像素点用平滑曲线相连,即可获得基于当前图像的最优路径规划。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141362.7A CN109490926B (zh) | 2018-09-28 | 2018-09-28 | 一种基于双目相机和gnss的路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811141362.7A CN109490926B (zh) | 2018-09-28 | 2018-09-28 | 一种基于双目相机和gnss的路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109490926A CN109490926A (zh) | 2019-03-19 |
CN109490926B true CN109490926B (zh) | 2021-01-26 |
Family
ID=65690712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811141362.7A Active CN109490926B (zh) | 2018-09-28 | 2018-09-28 | 一种基于双目相机和gnss的路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109490926B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232418B (zh) * | 2019-06-19 | 2021-12-17 | 达闼机器人有限公司 | 一种语义识别方法、终端及计算机可读存储介质 |
WO2020258286A1 (zh) * | 2019-06-28 | 2020-12-30 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、拍摄装置和可移动平台 |
CN110608739B (zh) * | 2019-08-21 | 2021-07-27 | 深圳市人工智能与机器人研究院 | 干扰环境下运动目标的定位方法、系统及电子装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101866497A (zh) * | 2010-06-18 | 2010-10-20 | 北京交通大学 | 基于双目立体视觉的智能三维人脸重建方法及系统 |
CN101952737A (zh) * | 2007-12-11 | 2011-01-19 | 高通股份有限公司 | 有相机辅助的全球导航卫星系统方法和接收器 |
CN102944224A (zh) * | 2012-11-09 | 2013-02-27 | 大连理工大学 | 一种无人驾驶车的自动环境感知系统及其工作方法 |
CN104748751A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 姿态矩阵的计算方法及基于姿态矩阵的定位导航方法 |
US20170138752A1 (en) * | 2015-06-19 | 2017-05-18 | Yakov Z. Mermelstein | Method and System for Providing Personalized Navigation Services and Crowd-Sourced Location-Based Data |
CN107689065A (zh) * | 2016-08-03 | 2018-02-13 | 南京理工大学 | 一种gps双目摄像机标定及空间点重建方法 |
CN107782321A (zh) * | 2017-10-10 | 2018-03-09 | 武汉迈普时空导航科技有限公司 | 一种基于视觉和高精度地图车道线约束的组合导航方法 |
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4599730B2 (ja) * | 2001-03-02 | 2010-12-15 | 株式会社デンソー | 画像領域抽出装置 |
DE102004031720A1 (de) * | 2004-06-30 | 2006-01-26 | Infineon Technologies Ag | Abbildungseinrichtung und Verfahren zum Ermitteln einer optimierten Beleuchtungsverteilung in der Abbildungseinrichtung |
US8873821B2 (en) * | 2012-03-20 | 2014-10-28 | Paul Reed Smith Guitars Limited Partnership | Scoring and adjusting pixels based on neighborhood relationships for revealing data in images |
FR3019359B1 (fr) * | 2014-03-31 | 2017-10-06 | Continental Automotive France | Procede de determination d'un etat d'obstruction d'au moins une camera embarquee dans un systeme stereoscopique |
CN104899869B (zh) * | 2015-05-14 | 2017-09-01 | 浙江大学 | 基于rgb‑d相机和姿态传感器的平面和障碍检测方法 |
CN105021201B (zh) * | 2015-08-17 | 2017-12-01 | 武汉光庭信息技术有限公司 | 利用交通标示牌的坐标反推汽车自身位置的系统及方法 |
CN105205161A (zh) * | 2015-09-29 | 2015-12-30 | 浙江大学 | 一种基于互联网图片的同时目标搜索与分割方法 |
CN105674993A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 基于双目相机的高精度视觉定位地图生成系统及方法 |
CN105844692B (zh) * | 2016-04-27 | 2019-03-01 | 北京博瑞空间科技发展有限公司 | 基于双目立体视觉的三维重建装置、方法、系统及无人机 |
CN106225789A (zh) * | 2016-07-12 | 2016-12-14 | 武汉理工大学 | 一种具有高安全性的车载导航系统及其引导方法 |
CN106203390B (zh) * | 2016-07-22 | 2019-09-24 | 杭州视氪科技有限公司 | 一种智能盲人辅助系统 |
CN106080397B (zh) * | 2016-08-25 | 2019-11-26 | 北京奇虎科技有限公司 | 自适应巡航系统及车载设备 |
CN106403964A (zh) * | 2016-08-30 | 2017-02-15 | 北汽福田汽车股份有限公司 | 一种定位导航系统及车辆 |
CN106597690B (zh) * | 2016-11-23 | 2019-02-12 | 杭州视氪科技有限公司 | 一种基于rgb-d相机和立体声的视障人士通路预知眼镜 |
CN109131067B (zh) * | 2017-06-16 | 2021-11-19 | 鸿富锦精密电子(天津)有限公司 | 三角架自走车及其避障方法 |
CN108205320A (zh) * | 2017-12-18 | 2018-06-26 | 深圳市奇虎智能科技有限公司 | 地图数据处理方法及装置 |
-
2018
- 2018-09-28 CN CN201811141362.7A patent/CN109490926B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101952737A (zh) * | 2007-12-11 | 2011-01-19 | 高通股份有限公司 | 有相机辅助的全球导航卫星系统方法和接收器 |
CN101866497A (zh) * | 2010-06-18 | 2010-10-20 | 北京交通大学 | 基于双目立体视觉的智能三维人脸重建方法及系统 |
CN102944224A (zh) * | 2012-11-09 | 2013-02-27 | 大连理工大学 | 一种无人驾驶车的自动环境感知系统及其工作方法 |
CN104748751A (zh) * | 2013-12-29 | 2015-07-01 | 刘进 | 姿态矩阵的计算方法及基于姿态矩阵的定位导航方法 |
US20170138752A1 (en) * | 2015-06-19 | 2017-05-18 | Yakov Z. Mermelstein | Method and System for Providing Personalized Navigation Services and Crowd-Sourced Location-Based Data |
CN107689065A (zh) * | 2016-08-03 | 2018-02-13 | 南京理工大学 | 一种gps双目摄像机标定及空间点重建方法 |
CN107782321A (zh) * | 2017-10-10 | 2018-03-09 | 武汉迈普时空导航科技有限公司 | 一种基于视觉和高精度地图车道线约束的组合导航方法 |
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109490926A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210132612A1 (en) | Techniques for sharing mapping data between an unmanned aerial vehicle and a ground vehicle | |
KR102650541B1 (ko) | 위치파악 참조 데이터를 생성하고 사용하는 방법 및 시스템 | |
CN102138163B (zh) | 俯瞰图像生成装置及俯瞰图像生成方法 | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
CN114812581B (zh) | 一种基于多传感器融合的越野环境导航方法 | |
US20240159557A1 (en) | Techniques for collaborative map construction between an unmanned aerial vehicle and a ground vehicle | |
CN109490926B (zh) | 一种基于双目相机和gnss的路径规划方法 | |
US12061252B2 (en) | Environment model using cross-sensor feature point referencing | |
CN113409459A (zh) | 高精地图的生产方法、装置、设备和计算机存储介质 | |
CN113240813B (zh) | 三维点云信息确定方法及装置 | |
CN112232275B (zh) | 基于双目识别的障碍物检测方法、系统、设备及存储介质 | |
CN113190047B (zh) | 一种基于二维平面的无人机群路径识别方法 | |
CN109115232A (zh) | 导航的方法和装置 | |
WO2020223868A1 (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
CN113312435A (zh) | 高精度地图更新方法和设备 | |
CN114646317A (zh) | 车辆视觉定位导航控制方法、装置及计算机设备、介质 | |
JP2011215972A (ja) | 画像処理システム及び位置測位システム | |
CN114663596B (zh) | 基于无人机实时仿地飞行方法的大场景建图方法 | |
CN115540859A (zh) | 一种基于舰载履带机器人的实时建图系统 | |
CN118191873A (zh) | 一种基于光场图像的多传感器融合测距系统及方法 | |
CN113447032A (zh) | 定位方法、装置、电子设备及存储介质 | |
CN117873149A (zh) | 井下无人机航线生成方法、装置、电子设备及存储介质 | |
CN114442615A (zh) | 一种基于障碍物属性的机器人行进策略确定方法和系统 | |
CN117657203A (zh) | 自动驾驶车辆的自动驾驶方法、电子设备及存储介质 | |
CN116608874A (zh) | 基于定位匹配的地图构建方法、系统、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |