CN109634279A - 基于激光雷达与单目视觉的物体定位方法 - Google Patents
基于激光雷达与单目视觉的物体定位方法 Download PDFInfo
- Publication number
- CN109634279A CN109634279A CN201811543355.XA CN201811543355A CN109634279A CN 109634279 A CN109634279 A CN 109634279A CN 201811543355 A CN201811543355 A CN 201811543355A CN 109634279 A CN109634279 A CN 109634279A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- picture
- center
- laser
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000013135 deep learning Methods 0.000 claims abstract description 11
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种基于激光雷达与单目视觉的物体定位方法,将摄像头与激光雷达按照一定的相对位置关系安装,利用深度学习算法在机器人运动过程中对目标物进行识别,参照摄像头原理,利用目标物在图片中的位置计算得到目标物在摄像头坐标系下的角度,并在激光雷达数据中寻找该角度的对应的激光束以得到目标物与机器人的相对位置关系,在实时定位与地图构建过程中,获取得到目标物在地图中的位置。
Description
技术领域
本发明属于移动机器人定位与地图构建领域,具体涉及一种基于激光雷达与单目视觉的物体定位方法。
背景技术
伴随着经济社会的快速发展,服务机器人已经逐渐成为人类生活的一部分。服务机器人是一种半自主或者全自主工作的机器人,能完成有益于人类健康的服务工作。而对服务机器人来说,SLAM技术是其关键,即将机器人放入未知环境中的未知位置,让机器人在移动过程中根据位置估计和地图进行自身的定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。
随着人们对SLAM技术的探索,人们开始研究有理解力的SLAM技术,即语义SLAM,其能精准感知并适应环境并构建语义地图。将语义分析与SLAM有效融合,增强机器对环境中相互作用的理解能力,为机器人赋予了复杂环境感知力和动态场景适应力。
为了实现机器人的自我环境感知和自主移动与语义地图的构建,目前大多数研究人员都是选用激光雷达与摄像头两种传感器的结合。激光雷达是一种工作在光学波段的雷达,主动发射自己的激光束,激光束接触到目标后被反射并被系统接收,通过探测激光束的回波信号来获取目标位置,其不依赖于外界的光照条件或者目标的特性。激光雷扫描周期较短,探测范围较广,角度分辨率高,雷达本身体积较小,重量相对较轻,功耗也比较低,可靠性高,能采集到大量代表环境且具有准确角度和距离信息的点,能为地图构建与机器人的定位提供良好的传感器条件。摄像头可分为单目摄像头、双目摄像头以及RGB-D摄像头,三者在测距原理上完全不同,单目摄像头需要对目标进行识别,即在测距前先识别障碍物是哪种物体,在此基础上再进行测距。双目摄像头主要是通过两个位置固定的两个摄像头获取同一时刻同一被测物体的图像并计算图像对应点间的位置偏差,来获取距离信息,但是由于摄像头容易受光照等外界环境的干扰,导致得到的距离信息精度较低,且成本相对较高,不宜轻易使用。而对于RGB-D摄像头,以微软推出的kinectv1为例,拥有着一个彩色摄像头,一个红外结构光发射器、一个红外结构光接收器,通过发送发射器红外均匀点阵,接收器接收变形红外点阵,从而通过变形量获取深度信息,官方推荐的测量距离为1220mm~3810mm,其在距离为1.0m时,其精度大概为3mm,当距离为3.0m时,其精度大概为3.0cm,因此其测量距离越远,深度值精度也就越低,且由于使用红外进行深度值的测量,容易受日光或者其他传感器发射的红外光干扰,使用比较受限,此外RGB-D相机在成本、功耗等方面也有一定的劣势。
发明内容
本发明提供了一种基于激光雷达与单目视觉的物体定位方法,结构简单。能够将单目摄像头中识别到的物体的位置以较高的精度确定在地图中。在一定程度上降低了成本的同时,解决了双目以及RGB-D摄像头所测量得到的深度信息精度不够的问题。
为了实现上述发明目的,本发明提供的技术方案如下:基于激光雷达与单目视觉的物体定位方法,包括如下步骤:
步骤1,对单目摄像头进行标定;
步骤2,将单目摄像头与激光雷达水平安装在机器人正前方,并对单目摄像头与激光雷达在空间域上进行配准;
步骤3,将单目摄像头与激光雷达在时序上进行配准;
步骤4,通过激光雷达朝目标发射激光束,采集机器人与周围障碍物的距离信息,通过单目摄像头对准机器人前方采集图像,并利用标定参数修正畸变;
步骤5,利用深度学习算法得到单目摄像头视角范围内的目标物种类并获取其在图片中的位置,得到该位置相对于单目摄像头本身的角度位置关系;
步骤6,将目标物在单目摄像头坐标系下的角度关系映射到激光雷达坐标系,得到目标物对应的激光雷达一帧数据中的某一激光束,根据该激光束得到机器人与目标物之间的相对位置关系。
进一步的,步骤2中对摄像头与激光雷达在空间域上进行配准,实现单目摄像头和激光雷达正前方与机器人正前方对齐,激光雷达坐标系与摄像头坐标系的原点保持在同一竖直线上,单目摄像头坐标系所在平面与激光雷达坐标系所在平面均与地面保持平行。
进一步的,步骤5的具体实现方式如下,
设O为假想的光汇聚中心,单目摄像头的水平视场角为α,单目摄像头获取的图片大小为w*h,O’为图片的中心,通过深度学习算法识别到目标物中心在图片中的位置为(x,y),f’为O点到图片的虚拟垂直距离,则f’=(w/2)/tan(α/2),目标物中心(x,y)与图片中心点O’在图片宽度方向的距离w’=w/2-x,目标物中心(x,y)与图片中心点O’在图片高度方向距离h’=h/2-y,设α’为对应于目标物在摄像头坐标系下平面上的某一角度,则α’=arctan(w’/f’)。
进一步的,步骤6的具体实现方式如下,
在α’的基础上,通过空间域以及时序上的配准结果,将角度α’对应于激光雷达一帧数据中的某一激光束,那么激光雷达中心到目标物的距离则为某一帧激光雷达数第γ束激光束所测到的距离,其中γ的确定方法为下:如某一激光雷达扫描范围为正前方β,激光雷达角度分辨率为δ,当深度学习算法识别的目标物中心在图片左侧时,得到第n束激光束使得nδ<(β/2+α’)≤(n+1)δ,如((β/2+α’)-nδ)<δ/2,取γ=n,如((β/2+α’)-nδ)>δ/2,则取γ=n+1;如目标物中心在图片右侧时,求得n使得nδ<(β/2-α’)≤(n+1)δ,如((β/2-α’)-nδ)<δ/2,取γ=n,如((β/2-α’)-nδ)>δ/2,则取γ=n+1。
与现有技术相比,本发明的优点和有益效果:激光雷达作为目前slam过程中高精度保证所必须的传感器,本发明在利用单目摄像头的丰富的颜色纹理信息进行识别的同时,借助激光雷达较高精度的距离信息,从一定上程度上降低了slam过程中物体识别定位的成本,且提高了物体定位的精度。
附图说明
图1为本发明激光雷达与摄像头相对安装位置表示图;
图2为参照摄像头原理与程序中图片宽高构建的物体角度定位原理表示图;
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,下面结合附图和具体实施例对本发明做进一步的说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本方法要求摄像头与激光雷达水平安装于机器人本体上,且摄像头和激光雷达正前方(X轴方向)与机器人正前方对齐,并且保证激光雷达原点与摄像头原点基本保持在同一竖直线上。附图1中,表达了本方法所要求的激光雷达坐标系X2Y2Z2与单目摄像头坐标系X1Y1Z1的位置关系,单目摄像头坐标原点O1与激光雷达坐标原点O2在同一竖直线上,单目摄像头坐标系的X1-Z1平面与激光雷达坐标系的X2-Z2平面基本平行且坐标系中的X1-Y1平面和X2-Y2平面均与地面保持平行。
附图2中,虚线分别为大粗线框与小粗线框的水平与竖直中心线。左侧大粗线框为单目摄像头获取的图片,以图片的左上角点为原点,图片宽度方向为水平轴U,高度方向为竖直轴V,其大小为w*h,其大小可通过自带程序获得。小粗线框为使用深度学习算法识别到的目标物所在图片中的长方形框,其中心在图片中的位置为(x,y)。图中右侧实心圆点O可假想为光汇聚中心(假想的光汇聚中心为按照摄像头水平视场角α与图片的宽度大小在图片水平中心线所在的垂直于图片的面上得到的点,附图2为:将实际的物理空间依照摄像头原理与图片大小(像素)映射的另一单位的空间),α角为虚拟的水平视场角,其与真实物理空间摄像头的水平视场角相等,可由摄像头说明书以及其标定参数中计算得到,f’为O点到图片的虚拟垂直距离(O-O’),其单位按照程序中的图片大小与水平视场角进行转换,为pixel/rad。
本发明所采用的技术方案是,基于激光雷达与单目视觉的物体定位方法,所述的方法包括以下步骤:
机器人在运动过程中,激光雷达朝目标发射激光束采集机器人与周围障碍物的距离信息,而摄像头用于对准机器人前方采集图像,并利用摄像头标定参数修正其畸变。摄像头的水平视场角α可由摄像头的说明书以及摄像头标定参数计算得到,且其采集到的图像的宽高w*h通过程序获取。将单目摄像头采集到的图像通过深度学习算法得到机器人前方目标物的类型,并得到图像中被识别物体的中心在图像中的位置(x,y)。故附图2中的虚拟垂直距离f’=(w/2)/tan(α/2),而附图2中目标物中心(x,y)与图片中心点O’在U轴方向的距离w’=w/2-x,目标物中心(x,y)与图片中心点O’在V轴方向距离h’=h/2-y,那么α’=arctan(w’/f’),α’对应于目标物在摄像头坐标系下X1-Y1平面上的某一角度。
要得到机器人与所识别到的目标物之间的距离,并将目标物位置准确定于地图中并且标识其目标物类型,则要获取深度学习算法识别到目标物的同一时刻目标物所对应的激光束所测量到的距离。在图2中已得到识别到的目标物与摄像头的角度关系为α’,由于对激光雷达与摄像头安装关系的保证,对于激光雷达来说,将图2中角度α’对应于激光雷达一帧数据中的某一激光束(即在空间域中寻找激光雷达数据中与摄像头坐标系角度α’最为接近的一束激光束),然后激光雷达中心到图2中α’角度所对应的目标物的距离则为一帧激光雷达数第γ束激光束所测到的距离。γ确定为下:如某一激光雷达扫描范围为正前方β,激光雷达角度分辨率为δ,当深度学习算法识别的目标物中心在图片左侧时,得到第n束激光束使得nδ<(β/2+α’)≤(n+1)δ,如((β/2+α’)-nδ)<δ/2,取γ=n,如((β/2+α’)-nδ)>δ/2,则取γ=n+1。如目标物中心在图片右侧时,求得n使得nδ<(β/2-α’)≤(n+1)δ,如((β/2-α’)-nδ)<δ/2,取γ=n,如((β/2-α’)-nδ)>δ/2,则取γ=n+1。激光雷达精度较高,在实时定位与地图构建过程中,在获取到机器人位姿的情况下,依据此方法,同时可较为准确地可获取到目标物在地图中的位置。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.基于激光雷达与单目视觉的物体定位方法,其特征在于,包括如下步骤:
步骤1,对单目摄像头进行标定;
步骤2,将单目摄像头与激光雷达水平安装在机器人正前方,并对单目摄像头与激光雷达在空间域上进行配准;
步骤3,将单目摄像头与激光雷达在时序上进行配准;
步骤4,通过激光雷达朝目标发射激光束,采集机器人与周围障碍物的距离信息,通过单目摄像头对准机器人前方采集图像,并利用标定参数修正畸变;
步骤5,利用深度学习算法得到单目摄像头视角范围内的目标物种类并获取其在图片中的位置,得到该位置相对于单目摄像头本身的角度位置关系;
步骤6,将目标物在单目摄像头坐标系下的角度关系映射到激光雷达坐标系,得到目标物对应的激光雷达一帧数据中的某一激光束,根据该激光束得到机器人与目标物之间的相对位置关系。
2.如权利要求1所述的基于激光雷达与单目视觉的物体定位方法,其特征在于:步骤2中对摄像头与激光雷达在空间域上进行配准,实现单目摄像头和激光雷达正前方与机器人正前方对齐,激光雷达坐标系与摄像头坐标系的原点保持在同一竖直线上,单目摄像头坐标系所在平面与激光雷达坐标系所在平面均与地面保持平行。
3.如权利要求1所述的基于激光雷达与单目视觉的物体定位方法,其特征在于:步骤5的具体实现方式如下,
设O为假想的光汇聚中心,单目摄像头的水平视场角为α,单目摄像头获取的图片大小为w*h,O’为图片的中心,通过深度学习算法识别到的目标物中心在图片中的位置为(x,y),f’为O点到图片的虚拟垂直距离,则f’=(w/2)/tan(α/2),目标物中心(x,y)与图片中心点O’在图片宽度方向的距离w’=w/2-x,目标物中心(x,y)与图片中心点O’在图片高度方向距离h’=h/2-y,设α’为对应于目标物在摄像头坐标系下平面上的某一角度,则α’=arctan(w’/f’)。
4.如权利要求3所述的基于激光雷达与单目视觉的物体定位方法,其特征在于:步骤6的具体实现方式如下,
在α’的基础上,通过空间域以及时序上的配准结果,将角度α’对应于激光雷达一帧数据中的某一激光束,那么激光雷达中心到目标物的距离则为某一帧激光雷达数第γ束激光束所测到的距离,其中γ的确定方法为下:如某一激光雷达扫描范围为正前方β,激光雷达角度分辨率为δ,当深度学习算法识别的目标物中心在图片左侧时,得到第n束激光束使得nδ<(β/2+α’)≤(n+1)δ,如((β/2+α’)-nδ)<δ/2,取γ=n,如((β/2+α’)-nδ)>δ/2,则取γ=n+1;如目标物中心在图片右侧时,求得n使得nδ<(β/2-α’)≤(n+1)δ,如((β/2-α’)-nδ)<δ/2,取γ=n,如((β/2-α’)-nδ)>δ/2,则取γ=n+1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811543355.XA CN109634279B (zh) | 2018-12-17 | 2018-12-17 | 基于激光雷达与单目视觉的物体定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811543355.XA CN109634279B (zh) | 2018-12-17 | 2018-12-17 | 基于激光雷达与单目视觉的物体定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109634279A true CN109634279A (zh) | 2019-04-16 |
CN109634279B CN109634279B (zh) | 2022-08-12 |
Family
ID=66074628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811543355.XA Active CN109634279B (zh) | 2018-12-17 | 2018-12-17 | 基于激光雷达与单目视觉的物体定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109634279B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110146089A (zh) * | 2019-06-21 | 2019-08-20 | 合肥小步智能科技有限公司 | 一种基于嵌入式ai计算平台的巡检机器人定位方法 |
CN110471422A (zh) * | 2019-08-29 | 2019-11-19 | 南京理工大学 | 智能轮椅的障碍物检测与自主避障方法 |
CN110738105A (zh) * | 2019-09-05 | 2020-01-31 | 哈尔滨工业大学(深圳) | 一种基于深度学习的计算城市街道小区人流量的方法、装置、系统及存储介质 |
CN110736465A (zh) * | 2019-11-15 | 2020-01-31 | 北京云迹科技有限公司 | 导航方法、装置、机器人及计算机可读存储介质 |
CN110781779A (zh) * | 2019-10-11 | 2020-02-11 | 北京地平线机器人技术研发有限公司 | 物体位置检测方法、装置、可读存储介质及电子设备 |
CN111830517A (zh) * | 2019-04-17 | 2020-10-27 | 北京地平线机器人技术研发有限公司 | 调整激光雷达扫描范围的方法、装置及电子设备 |
CN111879314A (zh) * | 2020-08-10 | 2020-11-03 | 中国铁建重工集团股份有限公司 | 一种多传感器融合的巷道掘进装备实时定位系统和方法 |
CN111998772A (zh) * | 2020-08-05 | 2020-11-27 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
CN112504383A (zh) * | 2020-09-04 | 2021-03-16 | 上海大学 | 基于图像处理的量器内液位平视判断方法 |
CN112598729A (zh) * | 2020-12-24 | 2021-04-02 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 融合激光与相机的目标物体识别与定位方法 |
CN113296082A (zh) * | 2021-05-28 | 2021-08-24 | 南京牧镭激光科技有限公司 | 一种激光净空雷达监测风机净空距离时的标定方法及辅助装置 |
CN113312992A (zh) * | 2021-05-18 | 2021-08-27 | 中山方显科技有限公司 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
CN113916213A (zh) * | 2020-07-08 | 2022-01-11 | 北京猎户星空科技有限公司 | 定位方法、装置、电子设备和计算机可读存储介质 |
CN114013307A (zh) * | 2021-11-09 | 2022-02-08 | 青岛特来电新能源科技有限公司 | 车辆充电方法、装置和电子设备 |
WO2022027611A1 (zh) * | 2020-08-07 | 2022-02-10 | 苏州珊口智能科技有限公司 | 移动机器人的定位方法、构建地图的方法及移动机器人 |
CN115007480A (zh) * | 2022-06-30 | 2022-09-06 | 重庆泰美自动化科技有限公司 | 一种剪刀脚视觉识别筛分系统 |
CN115055934A (zh) * | 2022-07-20 | 2022-09-16 | 重庆泰美自动化科技有限公司 | 一种剪刀脚智能安装系统 |
WO2023086559A3 (en) * | 2021-11-15 | 2023-06-22 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031642A (ja) * | 2004-07-22 | 2006-02-02 | Ihi Aerospace Co Ltd | 移動体の自己位置特定方法 |
JP2012167944A (ja) * | 2011-02-10 | 2012-09-06 | Ricoh Co Ltd | ステレオカメラ校正方法及び装置 |
EP2946228A1 (fr) * | 2013-01-18 | 2015-11-25 | Archos | Procede et systeme pour fournir a un dispositif mobile des informations sur sa position par rapport a une cible, robot integrant un tel systeme et tablette |
CN105203084A (zh) * | 2015-07-02 | 2015-12-30 | 汤一平 | 一种无人机3d全景视觉装置 |
CN105758426A (zh) * | 2016-02-19 | 2016-07-13 | 深圳杉川科技有限公司 | 移动机器人的多传感器的联合标定方法 |
CN106556825A (zh) * | 2015-09-29 | 2017-04-05 | 北京自动化控制设备研究所 | 一种全景视觉成像系统的联合标定方法 |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107478214A (zh) * | 2017-07-24 | 2017-12-15 | 杨华军 | 一种基于多传感器融合的室内定位方法及系统 |
CN107886477A (zh) * | 2017-09-20 | 2018-04-06 | 武汉环宇智行科技有限公司 | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 |
CN108594244A (zh) * | 2018-04-28 | 2018-09-28 | 吉林大学 | 基于立体视觉和激光雷达的障碍物识别迁移学习方法 |
CN108776474A (zh) * | 2018-05-24 | 2018-11-09 | 中山赛伯坦智能科技有限公司 | 集成高精度导航定位与深度学习的机器人嵌入式计算终端 |
CN108875844A (zh) * | 2018-07-20 | 2018-11-23 | 清华大学苏州汽车研究院(吴江) | 激光雷达图像与摄像机图像的匹配方法及系统 |
CN108909624A (zh) * | 2018-05-13 | 2018-11-30 | 西北工业大学 | 一种基于单目视觉的实时障碍物检测和定位方法 |
-
2018
- 2018-12-17 CN CN201811543355.XA patent/CN109634279B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031642A (ja) * | 2004-07-22 | 2006-02-02 | Ihi Aerospace Co Ltd | 移動体の自己位置特定方法 |
JP2012167944A (ja) * | 2011-02-10 | 2012-09-06 | Ricoh Co Ltd | ステレオカメラ校正方法及び装置 |
EP2946228A1 (fr) * | 2013-01-18 | 2015-11-25 | Archos | Procede et systeme pour fournir a un dispositif mobile des informations sur sa position par rapport a une cible, robot integrant un tel systeme et tablette |
CN105203084A (zh) * | 2015-07-02 | 2015-12-30 | 汤一平 | 一种无人机3d全景视觉装置 |
CN106556825A (zh) * | 2015-09-29 | 2017-04-05 | 北京自动化控制设备研究所 | 一种全景视觉成像系统的联合标定方法 |
CN105758426A (zh) * | 2016-02-19 | 2016-07-13 | 深圳杉川科技有限公司 | 移动机器人的多传感器的联合标定方法 |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107478214A (zh) * | 2017-07-24 | 2017-12-15 | 杨华军 | 一种基于多传感器融合的室内定位方法及系统 |
CN107886477A (zh) * | 2017-09-20 | 2018-04-06 | 武汉环宇智行科技有限公司 | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 |
CN108594244A (zh) * | 2018-04-28 | 2018-09-28 | 吉林大学 | 基于立体视觉和激光雷达的障碍物识别迁移学习方法 |
CN108909624A (zh) * | 2018-05-13 | 2018-11-30 | 西北工业大学 | 一种基于单目视觉的实时障碍物检测和定位方法 |
CN108776474A (zh) * | 2018-05-24 | 2018-11-09 | 中山赛伯坦智能科技有限公司 | 集成高精度导航定位与深度学习的机器人嵌入式计算终端 |
CN108875844A (zh) * | 2018-07-20 | 2018-11-23 | 清华大学苏州汽车研究院(吴江) | 激光雷达图像与摄像机图像的匹配方法及系统 |
Non-Patent Citations (5)
Title |
---|
ANEESH CHAND 等: "《Vision and laser sensor data fusion technique for target approaching by outdoor mobile robot》", 《INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS》 * |
JEFFERY YOUNG 等: "《LIDAR and Monocular Based Overhanging Obstacle Detection》", 《PROCEDIA COMPUTER SCIENCE》 * |
ZHUANG ZHANG 等: "《Scale Estimation and Correction of the Monocular Simultaneous Localization and Mapping (SLAM) Based on Fusion of 1D Laser Range Finder and Vision Data》", 《SENSORS》 * |
蒋林 等: "《嵌入式平台上的三维重建算法研究》", 《机械设计与制造》 * |
雷海东 等: "《基于OV7725单目摄像头的激光测距系统》", 《江汉大学学报(自然科学版)》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111830517A (zh) * | 2019-04-17 | 2020-10-27 | 北京地平线机器人技术研发有限公司 | 调整激光雷达扫描范围的方法、装置及电子设备 |
CN110146089A (zh) * | 2019-06-21 | 2019-08-20 | 合肥小步智能科技有限公司 | 一种基于嵌入式ai计算平台的巡检机器人定位方法 |
CN110471422A (zh) * | 2019-08-29 | 2019-11-19 | 南京理工大学 | 智能轮椅的障碍物检测与自主避障方法 |
CN110738105A (zh) * | 2019-09-05 | 2020-01-31 | 哈尔滨工业大学(深圳) | 一种基于深度学习的计算城市街道小区人流量的方法、装置、系统及存储介质 |
CN110781779A (zh) * | 2019-10-11 | 2020-02-11 | 北京地平线机器人技术研发有限公司 | 物体位置检测方法、装置、可读存储介质及电子设备 |
CN110736465A (zh) * | 2019-11-15 | 2020-01-31 | 北京云迹科技有限公司 | 导航方法、装置、机器人及计算机可读存储介质 |
CN113916213A (zh) * | 2020-07-08 | 2022-01-11 | 北京猎户星空科技有限公司 | 定位方法、装置、电子设备和计算机可读存储介质 |
CN111998772B (zh) * | 2020-08-05 | 2021-11-16 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
CN111998772A (zh) * | 2020-08-05 | 2020-11-27 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
WO2022027611A1 (zh) * | 2020-08-07 | 2022-02-10 | 苏州珊口智能科技有限公司 | 移动机器人的定位方法、构建地图的方法及移动机器人 |
CN111879314A (zh) * | 2020-08-10 | 2020-11-03 | 中国铁建重工集团股份有限公司 | 一种多传感器融合的巷道掘进装备实时定位系统和方法 |
CN111879314B (zh) * | 2020-08-10 | 2022-08-02 | 中国铁建重工集团股份有限公司 | 一种多传感器融合的巷道掘进装备实时定位系统和方法 |
CN112504383A (zh) * | 2020-09-04 | 2021-03-16 | 上海大学 | 基于图像处理的量器内液位平视判断方法 |
CN112598729A (zh) * | 2020-12-24 | 2021-04-02 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 融合激光与相机的目标物体识别与定位方法 |
CN112598729B (zh) * | 2020-12-24 | 2022-12-23 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 融合激光与相机的目标物体识别与定位方法 |
CN113312992A (zh) * | 2021-05-18 | 2021-08-27 | 中山方显科技有限公司 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
CN113296082A (zh) * | 2021-05-28 | 2021-08-24 | 南京牧镭激光科技有限公司 | 一种激光净空雷达监测风机净空距离时的标定方法及辅助装置 |
CN113296082B (zh) * | 2021-05-28 | 2024-05-24 | 南京牧镭激光科技股份有限公司 | 一种激光净空雷达监测风机净空距离时的标定方法及辅助装置 |
CN114013307A (zh) * | 2021-11-09 | 2022-02-08 | 青岛特来电新能源科技有限公司 | 车辆充电方法、装置和电子设备 |
CN114013307B (zh) * | 2021-11-09 | 2024-02-09 | 青岛特来电新能源科技有限公司 | 车辆充电方法、装置和电子设备 |
WO2023086559A3 (en) * | 2021-11-15 | 2023-06-22 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
CN115007480B (zh) * | 2022-06-30 | 2024-03-22 | 重庆泰美自动化科技有限公司 | 一种剪刀脚视觉识别筛分系统 |
CN115007480A (zh) * | 2022-06-30 | 2022-09-06 | 重庆泰美自动化科技有限公司 | 一种剪刀脚视觉识别筛分系统 |
CN115055934A (zh) * | 2022-07-20 | 2022-09-16 | 重庆泰美自动化科技有限公司 | 一种剪刀脚智能安装系统 |
CN115055934B (zh) * | 2022-07-20 | 2024-05-03 | 重庆泰美自动化科技有限公司 | 一种剪刀脚智能安装系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109634279B (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109634279A (zh) | 基于激光雷达与单目视觉的物体定位方法 | |
CN104217439B (zh) | 一种室内视觉定位系统及方法 | |
CN106772431B (zh) | 一种结合tof技术和双目视觉的深度信息获取装置及其方法 | |
CN111551151B (zh) | 基于双目视觉的临近空间飞行器相对位姿测量方法及装置 | |
CN107014378A (zh) | 一种视线跟踪瞄准操控系统及方法 | |
CN112581545B (zh) | 多模态热源识别及三维空间定位系统、方法及存储介质 | |
CN109458928A (zh) | 基于扫描振镜和事件相机激光线扫描3d检测方法及系统 | |
CN106886030B (zh) | 应用于服务机器人的同步式地图构建与定位系统及方法 | |
CN109035309A (zh) | 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法 | |
CN108693532A (zh) | 基于增强型双目相机与3d毫米波雷达的可穿戴避障方法及装置 | |
CN109345542A (zh) | 一种穿戴式视觉注视目标定位装置及方法 | |
Mi et al. | A vision-based displacement measurement system for foundation pit | |
WO2020156299A1 (zh) | 基于三维光学成像传感器的三维超声成像方法和系统 | |
CN111077907A (zh) | 一种室外无人机的自主定位方法 | |
CN110009682A (zh) | 一种基于单目视觉的目标识别定位方法 | |
CN207965645U (zh) | 一种机器人自主导航系统 | |
CN105004324A (zh) | 一种具有三角测距功能的单目视觉传感器 | |
CN106370160A (zh) | 一种机器人室内定位系统和方法 | |
CN109816702A (zh) | 一种多目标跟踪装置和方法 | |
CN111551152A (zh) | 基于单目视觉的临近空间飞行器相对位姿测量方法及装置 | |
CN109085603A (zh) | 光学三维成像系统和彩色三维图像成像方法 | |
CN109270546A (zh) | 一种基于结构光和双图像传感器的测距装置及其测距方法 | |
CN112595236A (zh) | 一种水下激光三维扫描和实时测距的测量装置 | |
CN212256370U (zh) | 光学式运动捕捉系统 | |
CN117928491A (zh) | 一种多站组网视觉跟踪的监测系统及监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220729 Address after: 215000 room 2102, building 6, Rongyu garden, Xinghu street, Suzhou Industrial Park, Jiangsu Province Applicant after: Qu Weixin Address before: 430081 No. 947 Heping Avenue, Qingshan District, Hubei, Wuhan Applicant before: WUHAN University OF SCIENCE AND TECHNOLOGY |