CN111046843B - 一种智能驾驶环境下的单目测距方法 - Google Patents

一种智能驾驶环境下的单目测距方法 Download PDF

Info

Publication number
CN111046843B
CN111046843B CN201911377802.3A CN201911377802A CN111046843B CN 111046843 B CN111046843 B CN 111046843B CN 201911377802 A CN201911377802 A CN 201911377802A CN 111046843 B CN111046843 B CN 111046843B
Authority
CN
China
Prior art keywords
information
detected
frame
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911377802.3A
Other languages
English (en)
Other versions
CN111046843A (zh
Inventor
罗玉涛
代金坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911377802.3A priority Critical patent/CN111046843B/zh
Publication of CN111046843A publication Critical patent/CN111046843A/zh
Application granted granted Critical
Publication of CN111046843B publication Critical patent/CN111046843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种智能驾驶环境下的单目测距方法,包括:S1,从车载摄像头拍摄的视频流中逐帧获得图像;S2,利用深度卷积神经网络模型从逐帧图像中识别出待测物体,并提取待测物体的标签信息与二维边框信息;S3,根据二维边框信息将待测物体从单帧图像中初步分割,并根据标签信息对待测物体进行分类;S4,根据待测物体的分类类型选择对应的图像深度分割与数值化方法对待测物体进行进一步的分割处理,得到待测物体的数值化信息;本发明利用卷积神经网络预先提取所测物体位置,再经过图像分割得到所测物体的数值化的信息,减少了由于外界环境的影响而带来的误差,具有更好的适用性、可靠性和抗干扰能力。

Description

一种智能驾驶环境下的单目测距方法
技术领域
本发明涉及机器视觉技术领域,特别是涉及一种智能驾驶环境下的单目测距方法。
背景技术
汽车的智能网联化是如今汽车发展的主要方向之一,视觉传感器具有提取信息量大、信息完整、价格便宜等优点,故成为获取周围环境信息的重要手段之一。
由于图像存在深度缺失以及背景环境干扰的问题,通过单目摄像头对物体进行准确测距的方法一直是视觉研究的难点之一,目前主流的方法包括:使用运动图像中的多个匹配点来对物体深度进行估测;通过寻找稳定参照物的方法来获得距离信息;通过固定摄像头位置状态下的物体距离检测方法;通过卷积神经网络来检测物体在图片中的大概尺寸结合先验信息进行估测。以上方法都多少存在精度不高、适用性不广、容易受环境干扰以及步骤繁琐等问题。
因此,行业内急需研发一种精度高、误差稳定、抗干扰能力强的单目视觉测距方法。
发明内容
针对现有技术存在的单目物体测距中深度缺失、背景干扰与前景分割困难的问题,本发明提供一种智能驾驶环境下的单目测距方法。
本申请的具体方案如下:
一种智能驾驶环境下的单目测距方法,包括:
S1,从车载摄像头拍摄的视频流中逐帧获得图像;
S2,利用深度卷积神经网络模型从逐帧图像中识别出待测物体,并提取待测物体的标签信息与二维边框信息;
S3,根据二维边框信息将待测物体从单帧图像中初步分割,并根据标签信息对待测物体进行分类;
S4,根据待测物体的分类类型选择对应的图像深度分割与数值化方法对待测物体进行进一步的分割处理,得到待测物体的数值化信息;
S5,根据相机成像原理与几何测距模型,利用物体数值化的信息与先验信息对待测物体进行测距,其中所述先验信息为待测物体的几何尺寸。
优选地,并根据标签信息对待测物体进行分类的步骤包括:将物理特征相似度为k的待测物体分为同一类,k>0,其中,物理特征包括形状、大小、颜色与材质中至少一种。
优选地,所用图像深度分割与数值化方法包括图像白平衡、灰度化处理、RGB/HSV阈值化处理、Candy边缘检测、Hough变换与滑动窗口多项式拟合方法。
优选地,所述数值化方法的步骤包括:统计单帧图像某部分的每列像素之和,以单帧图像左右两边的感兴趣区域为范围搜寻像素值和的最大值作为滑动窗口的起始点;
Figure BDA0002341460650000021
其中,m、n为图像的像素宽度与高度;hj为每列像素之和;Bl、Br为滑动窗口的左右初始点;k,li,ri为感兴趣区域的参数;根据式(1)获得初始点之后,算法根据一个矩形面积向上生长,根据矩形中像素最大值确定生长方向以及下一个初始点,以此迭代,最后通过多项式拟合方法对每一个矩形的中心点进行拟合,最终得到边界信息,迭代过程如式(2)所示;
Figure BDA0002341460650000031
式中w1、w2、h1、h2表示了矩形的长度与宽度;N表示矩形内像素之和;cj为矩形内每列像素之和;Bc为滑动窗口的迭代后的初始点;
根据拟合结果可得多条直线,求解相邻直线的交点,即可得到多边形的顶点坐标信息(ui,vi);
Aiu+Biv+ci=Aju+Bjv+cj (3)
优选地,步骤S5包括:设O-x-y-z为相机坐标系,现实世界的空间点P经过小孔O投影之后,落在物理成像平面O′-x′-y′上,成像点为P′;设P的坐标为[X,Y,Z]T,P′为[X,′Y′,Z′T],并且设物理成像平面到小孔的焦距为f;设在物理成像平面上固定着一个像素平面o-u-v,在像素平面得到了P′的像素坐标:[u,v]T;同时推导出像素坐标系与相机坐标系的空间转化关系,在此使用齐次坐标表示:
Figure BDA0002341460650000032
其中,K为相机的内参数矩阵;fx,fy分别是x,y轴方向的放大系数;cx,cy是物理成像坐标系和像素坐标系之间的位移量;
通过所述数值化方法得到物体在像素平面内的多点坐标(ui,vi);通过式(4),得到含有未知数Z的物体在相机坐标系下的三维坐标:
Xi=aiZi (5)
Yi=biZi (6)
Zi=Zi (7)
Figure BDA0002341460650000041
Figure BDA0002341460650000042
根据立体几何学,在空间中任意不共线的三点构成一个平面,在此已知相机坐标系下四点之间的相互关系,则构建以下关系:
·Pi-Pj|2=(aiZi-ajZj)2+(biZi-bjZj)2+(Zi-Zj)2=lij 2 (10)
(ai 2+bi 2+1)·Zi 2+(aj 2+bj 2+1)·Zj 2-2(aiaj+bibj+1)ZiZj=lij 2 (11)
观察等式(11)左边第三项,在实际应用中由于待测物体在空间中的位置对Z值的影响较小,认为Zi≈Zj成立,故在此做近似处理,由基本不等式可得:
cij·Zi 2+cji·Zj 2=lij 2 (12)
Figure BDA0002341460650000043
由于待测物体始终在相机前方,故在此Zi≥0恒成立;令xi=Zi 2,在此以四边形的求解过程举例,通过四个点各边的关系直接建立方程未能使用角度信息,而四边形并不具备稳定性,故使用该方法存在较大误差;于是将四边形分割为两个三角形进行求解,即在此加入对角线长度信息。
Figure BDA0002341460650000051
观察得知,上述方程组为超定方程组,在此使用最小二乘法求其近似解,通过最小二乘原理建立矩阵方程:
Figure BDA0002341460650000052
式中:
Figure BDA0002341460650000053
对矩阵方程进行求解,即得到各个顶点的Z轴信息
Figure BDA0002341460650000054
再通过式(16)求距离信息;将各点距离信息求均值,得到物体中心点的距离信息,至此测距完成;
Figure BDA0002341460650000055
Figure BDA0002341460650000056
优选地,并提取待测物体的标签信息与二维边框信息的步骤包括:根据置信度提取物体标签信息与二维边框信息。
与现有技术相比,本发明具有如下有益效果:
本发明的智能驾驶环境下的单目测距方法基于神经网络与几何测距模型。首先,利用深度卷积神经网络模型对需识别的物体进行训练与检测,标记物体并定位物体在图像中的位置,将需识别物体与背景分割。其次,通过上一步骤得到的物体分类与图像分割结果,使用边缘检测及边缘拟合的方法,进一步提取物体的图像边缘信息并将其转化为数值信息。最后,通过基于空间几何理论的测距模型,结合物体的数值信息与先验信息实现物体的距离测量。本发明节约了深度计算的时间并且无需固定摄像头位置,同时测距误差稳定,理论上测量误差不随测量距离的变化而产生变化,具有高效、灵活与稳定的特点,能够很好地适应智能驾驶的复杂环境。
附图说明
图1为本发明的智能驾驶环境下的单目测距方法的一示意性流程图。
图2为本发明的智能驾驶环境下的单目测距方法的另一示意性流程图。
图3是本发明的待测物体检测与初步分割的示意图。
图4是本发明的待测物体深度分割与数值化示意图。
图5是本发明的几何测距原理示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参见图1-2、一种智能驾驶环境下的单目测距方法,其特征在于,包括:
S1,从车载摄像头拍摄的视频流中逐帧获得图像;
S2,利用深度卷积神经网络模型从逐帧图像中识别出待测物体,并提取待测物体的标签信息与二维边框信息;使用深度卷积神经网络模型从逐帧图像中识别出待测物体,并根据置信度提取物体标签信息与二维边框信息,二维边框信息的置信度范围需要略微宽泛,以使边框能够完全包含所测物体,本方案的深度卷积神经网络模型为16层的深度卷积神经网络模型结构,该网络使用了9层卷积层与6层池化层交叠,并在最后直接使用卷积层直接输出识别结果,该结构经过验证能够在训练集较少的情况下获得更加优良的检测结果与检测速度。
S3,根据二维边框信息将待测物体从单帧图像中初步分割,并根据标签信息对待测物体进行分类;
S4,根据待测物体的分类类型选择对应的图像深度分割与数值化方法对待测物体进行进一步的分割处理,得到待测物体的数值化信息;
S5,根据相机成像原理与几何测距模型,利用物体数值化的信息与先验信息对待测物体进行测距,其中所述先验信息为待测物体的几何尺寸。
在本实施例中,摄像头使用的物理感光元件为索尼公司的IMX498传感器,传感器尺寸为1/2.8英寸,长宽比例4:3。摄像头实际焦距为3.5mm,等效35mm焦距为27mm。将视频流按照顺序输入训练好的深度卷积神经网络模型中,提取待测物体的标签信息与二维边框信息。本实施例的深度卷积神经网络模型的具体结构如表1所示。
表1
Figure BDA0002341460650000071
如图3所示,获得物体标签信息与二维边框信息(x,y,w,h)以后,沿着边框将物体从原始图像(车载摄像头拍摄的视频流中获得的逐帧图像)中分割出来,并根据物体标签信息对其分类。
如图4所示,对分类后的待测物体进行深度分割与数值化拟合。在此以交通指示牌的检测为例进行说明,对分割后的交通指示牌依次使用Candy边缘检测算法、Hough变换处理得到物体边界,使用滑动窗口的多项式拟合技术拟合边界得到拟合的多项式:统计图片某部分的每列像素之和,以左右两边的感兴趣区域为范围搜寻像素值和的最大值作为滑动窗口的起始点。根据式(1)获得初始点之后,算法根据一个矩形面积向上生长,根据矩形中像素最大值确定生长方向以及下一个初始点,以此迭代,最后通过多项式拟合方法对每一个矩形的中心点进行拟合,最终得到边界信息,迭代过程如式(2)所示。根据拟合结果可得数条直线,根据式(3)求解相邻直线的交点,即可得到多边形的顶点坐标信息(ui,vi)。
如图5所示,将由上一步骤获得的物体数值化信息进行提炼,得到物体的边界交点数据(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),通过几何测距模型对物体进行测距:设O-x-y-z为相机坐标系,设在物理成像平面上固定着一个像素平面o-u-v,在像素平面得到了P′的像素坐标:[u,v]T。通过上文物体提取与数值化的方法,得到物体在像素平面内的多点坐标(ui,vi)。通过式(4),可得到含有未知数Z的物体在相机坐标系下的三维坐标。根据立体几何学,在空间中任意不共线的三点构成一个平面,在此已知相机坐标系下四点之间的相互关系,则可构建式(10~11)的关系,由基本不等式可得式(12~13),由于物体始终在相机前方,故在此Zi≥0恒成立。令xi=Zi 2,将四边形分割为两个三角形进行求解,即在此加入对角线长度信息。对矩阵方程(15)进行求解,即可得到各个顶点的Z轴信息
Figure BDA0002341460650000091
再通过式(16)求距离信息。将各点距离信息求均值,得到物体中心点的距离信息,至此测距完成。
本方案利用卷积神经网络预先提取所测物体位置,再经过图像分割得到所测物体的数值化的信息,最后根据相机成像原理与几何测距模型,利用物体数值化的信息与先验信息对待测物体进行测距,减少了由于外界环境的影响而带来的误差,具有更好的适用性、可靠性和抗干扰能力。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种智能驾驶环境下的单目测距方法,其特征在于,包括:
S1,从车载摄像头拍摄的视频流中逐帧获得图像;
S2,利用深度卷积神经网络模型从逐帧图像中识别出待测物体,并提取待测物体的标签信息与二维边框信息;
S3,根据二维边框信息将待测物体从单帧图像中初步分割,并根据标签信息对待测物体进行分类;
S4,根据待测物体的分类类型选择对应的图像深度分割与数值化方法对待测物体进行进一步的分割处理,得到待测物体的数值化信息;
所述数值化方法的步骤包括:
统计单帧图像某部分的每列像素之和,以单帧图像左右两边的感兴趣区域为范围搜寻像素值和的最大值作为滑动窗口的起始点;
Figure FDA0004074422650000011
其中,m、n为图像的像素宽度与高度;hj为每列像素之和;Bl、Br为滑动窗口的左右初始点;k,li,ri为感兴趣区域的参数;根据式(1)获得初始点之后,算法根据一个矩形面积向上生长,根据矩形中像素最大值确定生长方向以及下一个初始点,以此迭代,最后通过多项式拟合方法对每一个矩形的中心点进行拟合,最终得到边界信息,迭代过程如式(2)所示;
Figure FDA0004074422650000021
式中w1、w2、h1、h2表示了矩形的长度与宽度;N表示矩形内像素之和;cj为矩形内每列像素之和;Bc为滑动窗口的迭代后的初始点;
根据拟合结果可得多条直线,求解相邻直线的交点,即可得到多边形的顶点坐标信息(ui,vi);
Aiu+Biv+ci=Aju+Bjv+cj (3)
S5,根据相机成像原理与几何测距模型,利用物体数值化的信息与先验信息对待测物体进行测距,其中所述先验信息为待测物体的几何尺寸。
2.根据权利要求1所述的智能驾驶环境下的单目测距方法,其特征在于,并根据标签信息对待测物体进行分类的步骤包括:
将物理特征相似度为k的待测物体分为同一类,k>0,其中,物理特征包括形状、大小、颜色与材质中至少一种。
3.根据权利要求1所述的智能驾驶环境下的单目测距方法,其特征在于,所用图像深度分割与数值化方法包括图像白平衡、灰度化处理、RGB/HSV阈值化处理、Candy边缘检测、Hough变换与滑动窗口多项式拟合方法。
4.根据权利要求1所述的智能驾驶环境下的单目测距方法,其特征在于,步骤S5包括:设O-x-y-z为相机坐标系,现实世界的空间点P经过小孔O投影之后,落在物理成像平面O′-x′-y′上,成像点为P′;设P的坐标为[X,Y,Z]T,P′为[X′,Y′,Z′T],并且设物理成像平面到小孔的焦距为f;设在物理成像平面上固定着一个像素平面o-u-v,在像素平面得到了P′的像素坐标:[u,v]T;同时推导出像素坐标系与相机坐标系的空间转化关系,在此使用齐次坐标表示:
Figure FDA0004074422650000031
其中,K为相机的内参数矩阵;fx,fy分别是x,y轴方向的放大系数;cx,cy是物理成像坐标系和像素坐标系之间的位移量;
通过所述数值化方法得到物体在像素平面内的多点坐标(ui,vi);通过式(4),得到含有未知数Z的物体在相机坐标系下的三维坐标:
Xi=aiZi (5)
Yi=biZi (6)
Zi=Zi (7)
Figure FDA0004074422650000032
Figure FDA0004074422650000033
根据立体几何学,在空间中任意不共线的三点构成一个平面,在此已知相机坐标系下四点之间的相互关系,则构建以下关系:
|Pi-Pj|2=(aiZi-ajZj)2+(biZi-bjZj)2+(Zi-Zj)2=lij 2 (10)
(ai 2+bi 2+1)·Zi 2+(aj 2+bj 2+1)·Zj 2-2(aiaj+bibj+1)ZiZj=lij 2 (11)
观察等式(11)左边第三项,在实际应用中由于待测物体在空间中的位置对Z值的影响较小,认为Zi≈Zj成立,故在此做近似处理,由基本不等式可得:
cij·Zi 2+cji·Zj 2=lij 2 (12)
Figure FDA0004074422650000041
由于待测物体始终在相机前方,故在此Zi≥0恒成立;令xi=Zi 2,在此以四边形的求解过程举例,通过四个点各边的关系直接建立方程未能使用角度信息,而四边形并不具备稳定性,故使用该方法存在较大误差;于是将四边形分割为两个三角形进行求解,即在此加入对角线长度信息;
Figure FDA0004074422650000042
观察得知,上述方程组为超定方程组,在此使用最小二乘法求其近似解,通过最小二乘原理建立矩阵方程:
Figure FDA0004074422650000043
式中:
Figure FDA0004074422650000044
对矩阵方程进行求解,即得到各个顶点的Z轴信息
Figure FDA0004074422650000045
再通过式(16)求距离信息;将各点距离信息求均值,得到物体中心点的距离信息,至此测距完成;
Figure FDA0004074422650000046
Figure FDA0004074422650000051
5.根据权利要求1所述的智能驾驶环境下的单目测距方法,其特征在于,并提取待测物体的标签信息与二维边框信息的步骤包括:根据置信度提取物体标签信息与二维边框信息。
CN201911377802.3A 2019-12-27 2019-12-27 一种智能驾驶环境下的单目测距方法 Active CN111046843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911377802.3A CN111046843B (zh) 2019-12-27 2019-12-27 一种智能驾驶环境下的单目测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911377802.3A CN111046843B (zh) 2019-12-27 2019-12-27 一种智能驾驶环境下的单目测距方法

Publications (2)

Publication Number Publication Date
CN111046843A CN111046843A (zh) 2020-04-21
CN111046843B true CN111046843B (zh) 2023-06-20

Family

ID=70239187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911377802.3A Active CN111046843B (zh) 2019-12-27 2019-12-27 一种智能驾驶环境下的单目测距方法

Country Status (1)

Country Link
CN (1) CN111046843B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611964A (zh) * 2020-05-29 2020-09-01 东软睿驰汽车技术(沈阳)有限公司 一种距离检测方法及装置
CN111780716A (zh) * 2020-07-03 2020-10-16 杭州电子科技大学 一种基于目标像素面积和宽高比的单目实时测距方法
CN113465572A (zh) * 2021-06-25 2021-10-01 中国科学技术大学 一种基于相机成像几何关系的单目测距方法及系统
CN113486837B (zh) * 2021-07-19 2023-07-18 安徽江淮汽车集团股份有限公司 针对低通度障碍物的自动驾驶控制方法
CN113686314B (zh) * 2021-07-28 2024-02-27 武汉科技大学 船载摄像头的单目水面目标分割及单目测距方法
CN113720300A (zh) * 2021-09-18 2021-11-30 兰州大学 一种基于目标识别神经网络的单目测距方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101294801A (zh) * 2007-07-13 2008-10-29 东南大学 基于双目视觉的车距测量方法
CN101698303A (zh) * 2009-09-11 2010-04-28 大连理工大学 一种三维激光和单目视觉间的自动标定方法
CN104899554A (zh) * 2015-05-07 2015-09-09 东北大学 一种基于单目视觉的车辆测距方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108759667A (zh) * 2018-05-29 2018-11-06 福州大学 车载摄像头下基于单目视觉与图像分割的前车测距方法
CN109146980A (zh) * 2018-08-12 2019-01-04 浙江农林大学 基于单目视觉的优化的深度提取和被动测距方法
CN109212547A (zh) * 2018-09-28 2019-01-15 南通大学 一种测距用实验装置及基于动目标边缘敏感的测距方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101294801A (zh) * 2007-07-13 2008-10-29 东南大学 基于双目视觉的车距测量方法
CN101698303A (zh) * 2009-09-11 2010-04-28 大连理工大学 一种三维激光和单目视觉间的自动标定方法
CN104899554A (zh) * 2015-05-07 2015-09-09 东北大学 一种基于单目视觉的车辆测距方法
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108759667A (zh) * 2018-05-29 2018-11-06 福州大学 车载摄像头下基于单目视觉与图像分割的前车测距方法
CN109146980A (zh) * 2018-08-12 2019-01-04 浙江农林大学 基于单目视觉的优化的深度提取和被动测距方法
CN109212547A (zh) * 2018-09-28 2019-01-15 南通大学 一种测距用实验装置及基于动目标边缘敏感的测距方法

Also Published As

Publication number Publication date
CN111046843A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111046843B (zh) 一种智能驾驶环境下的单目测距方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN109655019B (zh) 一种基于深度学习和三维重建的货物体积测量方法
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
CN109345574B (zh) 基于语义点云配准的激光雷达三维建图方法
US9846946B2 (en) Objection recognition in a 3D scene
US11720766B2 (en) Systems and methods for text and barcode reading under perspective distortion
CN106683137B (zh) 基于人工标志的单目多目标识别与定位方法
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
US7844133B2 (en) Method and system for filtering, registering, and matching 2.5D normal maps
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
Wang et al. Window detection from mobile LiDAR data
Pascoe et al. Robust direct visual localisation using normalised information distance.
CN108416798B (zh) 一种基于光流的车辆距离估计方法
Qian et al. Robust visual-lidar simultaneous localization and mapping system for UAV
Choe et al. Fast point cloud segmentation for an intelligent vehicle using sweeping 2D laser scanners
CN116452852A (zh) 一种高精度矢量地图的自动生成方法
CN109993107B (zh) 一种基于非迭代k均值算法的移动机器人障碍物视觉检测方法
Chaloeivoot et al. Building detection from terrestrial images
Nagy et al. 3D CNN based phantom object removing from mobile laser scanning data
CN111179271B (zh) 一种基于检索匹配的物体角度信息标注方法及电子设备
Wang et al. Multi-features visual odometry for indoor mapping of UAV
CN113487631A (zh) 基于lego-loam的可调式大角度探测感知及控制方法
CN112767459A (zh) 基于2d-3d转换的无人机激光点云与序列影像配准方法
Bazin et al. An original approach for automatic plane extraction by omnidirectional vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant