CN112598729A - 融合激光与相机的目标物体识别与定位方法 - Google Patents

融合激光与相机的目标物体识别与定位方法 Download PDF

Info

Publication number
CN112598729A
CN112598729A CN202011550921.7A CN202011550921A CN112598729A CN 112598729 A CN112598729 A CN 112598729A CN 202011550921 A CN202011550921 A CN 202011550921A CN 112598729 A CN112598729 A CN 112598729A
Authority
CN
China
Prior art keywords
target object
camera
center
image
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011550921.7A
Other languages
English (en)
Other versions
CN112598729B (zh
Inventor
徐印赟
郑亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Original Assignee
Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhu Robot Technology Research Institute of Harbin Institute of Technology filed Critical Wuhu Robot Technology Research Institute of Harbin Institute of Technology
Priority to CN202011550921.7A priority Critical patent/CN112598729B/zh
Publication of CN112598729A publication Critical patent/CN112598729A/zh
Application granted granted Critical
Publication of CN112598729B publication Critical patent/CN112598729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开一种融合激光与相机的目标物体识别与定位方法,包括:S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;S2、将采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;S3、将目标物体中心的图像坐标转换为空间坐标Pcam,计算目标物体中心距雷达及相机所在平面的距离dcam;S4、激光雷达通过点云图像获取目标物体中心的空间坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas;S5、计算距离偏差ddis=|dlas‑dcam|,若距离偏差大于或等于阈值dp,则执行步骤S1,若距离偏差小于阈值dp,则返回目标物体的中心坐标。对相机定位与雷达定位结果进行相互校准,通过这种方式来提高识别准确度和定位精度。

Description

融合激光与相机的目标物体识别与定位方法
技术领域
本发明属于图像处理技术领域,更具体地,本发明涉及一种融合激光与相机的目标物体识别与定位方法。
背景技术
随着自主移动抓取机器人在服务和仓储物流领域有着越来越广泛的应用,其定位导航技术也越发重要。自主移动抓取机器人主要分为移动平台和机械臂,移动平台的定位导航主要使用激光或视觉SLAM,地图的分辨率比较低,定位精度不高,因此在机械臂对目标物体进行一系列操作之前,必须对目标物体进行识别和精定位。
现有基于双目视觉和激光雷达的机器人目标定位和抓取方法,进行了双目视觉和激光雷达的机器人目标定位,该方案也只是采用激光和相机进行目标物体的定位识别,并没有对样本和计算结果进行评估,精确性有待进一步提高。
发明内容
本发明提供了一种融合激光与相机的目标物体识别与定位,旨在改善上述问题。
本发明是这样实现的,一种融合激光与相机的目标物体识别与定位方法,所述方法具体包括如下步骤:
S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;
S2、将双目相机采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;
S3、将目标物体中心的图像坐标转换为世界坐标系下的空间坐标Pcam及目标物体中心距雷达及相机所在平面的距离dcam
S4、激光雷达通过点云图像获取目标物体中心的空间坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas
S5、计算距离偏差ddis=|dlas-dcam|,若距离偏差大于或等于阈值dp,则认定目标物体识别定位失败,执行步骤S1,若距离偏差小于阈值dp,则认定目标物体识别定位成功,返回目标物体的中心坐标。
进一步的,目标物体的中心坐标为:
Figure BDA0002857668450000023
Figure BDA0002857668450000021
Figure BDA0002857668450000022
其中,α为权重调整因子,Plas为雷达获取的目标物体中心的空间坐标,Pcam为双目相机获取的目标空间中心的空间坐标。
进一步的,神经网络模型为YOLOV3模型。
进一步的,YOLOV3模型是通过含有目标物体图像作为训练集,进行训练形成,训练集中含有目标物体图像的获取方法具体如下:
S21、自动获取目标物体在各方位上各拍摄角度的图像;
S22、去除步骤S21中各图像的背景,将目标物体进行不同透明度的处理;
S23、拍摄目标环境的目标环境图像,将步骤S22获得的图像复制至形成目标环境图像中;
S24、对步骤S23获得图像进行增强处理,形成目标物体在不同环境中的训练本集,其中,增强处理包括如下处理中的至少一种,即锐化处理、雾化处理、背景虚化处理、目标物体复制粘贴处理。
进一步的,所述步骤S21中的图像获取方法具体如下:
控制采样平台围绕目标物体以设定的步长移动,在移动至下一位置点后,控制机械臂末端的相机以不同的角度拍摄该位置点的目标物体图像,该位置点的角度图像拍摄完毕后,控制采样平台移动设定步长,移动至下一位置点,不断重读上述操作,直至采样平台完成所有位置点的图像拍摄。
本发明提供的融合激光与相机的目标物体识别与定位方法具有如下有益技术效果:
1)实现一键自动采集和样本生成,从而实现目标物体的识别训练的便利性提升、宽容性提升;
2)实现一键自动样本增强,从而实现目标物体的识别训练的样本数量提升和小目标检测模型精确度提升;
3)对相机定位与雷达定位结果进行相互校准,通过这种方式来提高识别准确度和定位精度。
附图说明
图1为本发明实施例提供的种融合激光与相机的目标物体识别与定位方法流程图;
图2为本发明实施例提供的双目视差法原理示意图。
具体实施方式
下面对照附图,通过对实施例的描述,对本发明的具体实施方式作进一步详细的说明,以帮助本领域的技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。
图1为本发明实施例提供的种融合激光与相机的目标物体识别与定位方法流程图,该方法具体包括如下步骤:
S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;
在进行目标物体定位和识别过程前,需要对相机进行标定,获取相机内参和畸变等。还需要对相机和雷达进行联合配准,建立相机坐标系和雷达坐标系之间的坐标转换关系。
S2、将双目相机采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;
在本发明实施例中,神经网络模型为YOLOV3模型,适合工业应用,但物体定位不够准确,利用激光雷达来进行弥补
在进行物体识别之前,需要采集各种物体的图像数据集,然后采用神经网络对数据集进行训练,构造目标检测模型。为了实际工业应用的轻便性和准确性,如果人为拍摄去获取数据集,这样不仅耗时,样本多样性和训练精度很难保证。我们设计一种样本采集与处理方法,实现自动采集和增强样本一键标注,从而实现后期的物体识别训练,在本发明实施例中,YOLOV3模型是通过含有目标物体图像作为训练集,进行训练形成,在本发明实施例中,训练集中含有目标物体图像的获取方法具体如下:
S21、自动获取目标物体在各方位上各拍摄角度的图像;其获取方法具体如下:
控制采样平台围绕目标物体以设定的步长移动,在移动至下一位置点后,控制机械臂末端的相机以不同的角度拍摄该位置点的目标物体图像,该位置点的角度图像拍摄完毕后,控制采样平台移动设定步长,移动至下一位置点,不断重读上述操作,直至采样平台完成所有位置点的图像拍摄。
S22、去除步骤S21中各图像的背景,将目标物体进行不同透明度的处理;
S23、拍摄目标环境的目标环境图像,将步骤S22获得的图像复制至形成目标环境图像中;
S24、对步骤S23获得图像进行增强处理,形成目标物体在不同环境中的训练本集,其中,增强处理包括如下处理中的至少一种,即锐化处理、雾化处理、背景虚化处理、目标物体复制粘贴处理。
考虑工业应用场景的实际情况,很多场景可能环境很大,比如几千平的厂房,在相机获取的图片中,很多目标可能在图片中是很小的,而通用的Yolov3模型对小目标的检测精确性有待进一步提高。设计不同于yolov3的更丰富的数据增强和数据集扩充与生成技术,来对小目标检测的精度进行提高。
其中,由于在实际场景中很难采集大量样本,为了扩大样本数量及样本采集便利性,样本的采集我们设计样本采集平台,在滑台上安装有机械臂,机械臂的末端设置有相机(可以为单目相机或双目相机),滑台上有三自由度机械臂,基座转轴实现竖直方向上的转动,中间转轴实现水平方向的转动,最上面的转轴同样实现竖直方向转动。并且滑台可以呈矩形排布,以实现样本的四个方位,10个角度采集(角度数量可以通过编程控制更改)。
为了扩大样本的数量和样本的适用性,我们设计了一种样本扩充和生成技术,我们只需获取大量厂房等工业应用场景、实际生活目标物体存在场景的照片,将这些场景等照片作为背景图片,将采集的物体照片进行原背景去除处理并进行目标物体不同透明度处理后复制到这些场景中,生成模拟对应环境的目标物体图片,从而减少了去不同场景实地拍摄实际目标物体照片的大量样本采集过程。之后还会对形成的物体图片进行锐化、雾化、背景虚化、目标物体复制粘贴、并将工业场景背景图的某一部分复制覆盖目标物体的部分区域模拟环境遮挡,多目标物体,多环境重叠等,进行一系列的数据增强策略,丰富样本的宽容性,以适应不同环境的目标检测过程。并且这些数据增强策略实现一键完成,对数据的预处理能够降低模型的训练时间。
S3、将目标物体中心的图像坐标转换为世界坐标系下的空间坐标Pcam及目标物体中心距雷达及相机所在平面的距离dcam
S4、激光雷达通过点云图像获取目标物体的中心坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas
在本发明实施例中,根据双目视差法算出目标物体中心点的空间坐标P,结合图2对双目视差法原理进行简要说明,说明如下:
世界坐标系下的空间坐标为:
Figure BDA0002857668450000061
其中,pl,pr为双目相机同一时刻相对于空间中的点P在左右图像上的点,
P(Xw,Yw,Zw)为点P在世界坐标系及左相机坐标系中的坐标,f为左相机、右相机的焦距,d0为左相机光心与右相机光心的距离,因为两个相机只是在X轴方向有相对位移,所以d0=||Ol-Or||,其中Ol、Or为左相机的相机坐标系原点,右相机的相机坐标系原点,(xl,yl)表示点P在相机坐标系Ol中的坐标,(xr,yr)表示点P在相机坐标系Or中的坐标;
于是:
Figure BDA0002857668450000062
yr=yl=y;所以:视差
Figure BDA0002857668450000063
Z=Zw,也即是深度值。
S5、计算距离偏差ddis=|dlas-dcam|,若距离偏差大于或等于阈值dp,则认定目标物体识别定位失败,执行步骤S1,若距离偏差小于阈值dp,则认定目标物体识别定位成功,返回目标物体的中心坐标,通过这种方式来提高识别准确度和定位精度。
在本发明实施例中,目标物体的中心坐标为(λcamPcamlasPlas),
Figure BDA0002857668450000064
Figure BDA0002857668450000065
其中,α为权重调整因子,在实际应用中,λcam远小于λlas
本发明提供的融合激光与相机的目标物体识别与定位方法具有如下有益技术效果:
1)实现一键自动采集和样本生成,从而实现目标物体的识别训练的便利性提升、宽容性提升;
2)实现一键自动样本增强,从而实现目标物体的识别训练的样本数量提升和小目标检测模型精确度提升;
3)对相机定位与雷达定位结果进行相互校准,通过这种方式来提高识别准确度和定位精度。
上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。

Claims (5)

1.一种融合激光与相机的目标物体识别与定位方法,其特征在于,所述方法具体包括如下步骤:
S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;
S2、将双目相机采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;
S3、将目标物体中心的图像坐标转换为世界坐标系下的空间坐标Pcam、并计算目标物体中心距雷达及相机所在平面的距离dcam
S4、激光雷达通过点云图像获取目标物体中心的空间坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas
S5、计算距离偏差ddis=|dlas-dcam|,若距离偏差大于或等于阈值dp,则执行步骤S1,若距离偏差小于阈值dp,则返回目标物体的中心坐标。
2.如权利要求1所述融合激光与相机的目标物体识别与定位方法,其特征在于,目标物体的中心坐标为:(λcamPcamlasPlas),
Figure FDA0002857668440000011
其中,α为权重调整因子,Plas为雷达获取的目标物体中心的空间坐标,Pcam为双目相机获取的目标空间中心的空间坐标。
3.如权利要求1所述融合激光与相机的目标物体识别与定位方法,其特征在于,神经网络模型为YOLOV3模型。
4.如权利要求3所述融合激光与相机的目标物体识别与定位方法,其特征在于,YOLOV3模型是通过含有目标物体图像作为训练集,进行训练形成,训练集中含有目标物体图像的获取方法具体如下:
S21、自动获取目标物体在各方位上各拍摄角度的图像;
S22、去除步骤S21中各图像的背景,将目标物体进行不同透明度的处理;
S23、拍摄目标环境的目标环境图像,将步骤S22获得的图像复制至形成目标环境图像中;
S24、对步骤S23获得图像进行增强处理,形成目标物体在不同环境中的训练本集,其中,增强处理包括如下处理中的至少一种,即锐化处理、雾化处理、背景虚化处理、目标物体复制粘贴处理。
5.如权利要求3所述融合激光与相机的目标物体识别与定位方法,其特征在于,所述步骤S21中的图像获取方法具体如下:
控制采样平台围绕目标物体以设定的步长移动,在移动至下一位置点后,控制机械臂末端的相机以不同的角度拍摄该位置点的目标物体图像,该位置点的角度图像拍摄完毕后,控制采样平台移动设定步长,移动至下一位置点,不断重读上述操作,直至采样平台完成所有位置点的图像拍摄。
CN202011550921.7A 2020-12-24 2020-12-24 融合激光与相机的目标物体识别与定位方法 Active CN112598729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011550921.7A CN112598729B (zh) 2020-12-24 2020-12-24 融合激光与相机的目标物体识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011550921.7A CN112598729B (zh) 2020-12-24 2020-12-24 融合激光与相机的目标物体识别与定位方法

Publications (2)

Publication Number Publication Date
CN112598729A true CN112598729A (zh) 2021-04-02
CN112598729B CN112598729B (zh) 2022-12-23

Family

ID=75200929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011550921.7A Active CN112598729B (zh) 2020-12-24 2020-12-24 融合激光与相机的目标物体识别与定位方法

Country Status (1)

Country Link
CN (1) CN112598729B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113146628A (zh) * 2021-04-13 2021-07-23 中国铁道科学研究院集团有限公司通信信号研究所 一种适用于编组站的制动软管摘结机器人系统
CN113610838A (zh) * 2021-08-25 2021-11-05 华北电力大学(保定) 一种螺栓缺陷数据集扩充方法
CN113762359A (zh) * 2021-08-18 2021-12-07 北京临近空间飞行器系统工程研究所 一种面向rd时频数据的深度学习模型评测系统及方法
CN114115278A (zh) * 2021-11-26 2022-03-01 东北林业大学 一种基于fpga的森林防火机器人行进间避障系统
CN114200945A (zh) * 2021-12-13 2022-03-18 哈尔滨工业大学芜湖机器人产业技术研究院 一种移动机器人的安全控制方法
CN116158851A (zh) * 2023-03-01 2023-05-26 哈尔滨工业大学 医用远程超声自动扫描机器人的扫描目标定位系统及方法
WO2023236872A1 (zh) * 2022-06-09 2023-12-14 劢微机器人(深圳)有限公司 基于雷达和相机融合的卸货方法、检测装置及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014112794A1 (de) * 2014-09-05 2016-03-10 Carl Zeiss Sports Optics Gmbh System zum modularen Nachrüsten oder Ergänzen eines optischen Geräts mit einer Laserentfernungsmessung
CN107093195A (zh) * 2017-03-10 2017-08-25 西北工业大学 一种激光测距与双目相机结合的标记点定位方法
CN108828606A (zh) * 2018-03-22 2018-11-16 中国科学院西安光学精密机械研究所 一种基于激光雷达和双目可见光相机联合测量方法
CN109035309A (zh) * 2018-07-20 2018-12-18 清华大学苏州汽车研究院(吴江) 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法
CN109634279A (zh) * 2018-12-17 2019-04-16 武汉科技大学 基于激光雷达与单目视觉的物体定位方法
CN110741303A (zh) * 2017-12-12 2020-01-31 株式会社腾龙 双目望远镜及其制造方法
CN110988912A (zh) * 2019-12-06 2020-04-10 中国科学院自动化研究所 自动驾驶车辆的道路目标与距离检测方法、系统、装置
CN111340797A (zh) * 2020-03-10 2020-06-26 山东大学 一种激光雷达与双目相机数据融合检测方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014112794A1 (de) * 2014-09-05 2016-03-10 Carl Zeiss Sports Optics Gmbh System zum modularen Nachrüsten oder Ergänzen eines optischen Geräts mit einer Laserentfernungsmessung
CN107093195A (zh) * 2017-03-10 2017-08-25 西北工业大学 一种激光测距与双目相机结合的标记点定位方法
CN110741303A (zh) * 2017-12-12 2020-01-31 株式会社腾龙 双目望远镜及其制造方法
CN108828606A (zh) * 2018-03-22 2018-11-16 中国科学院西安光学精密机械研究所 一种基于激光雷达和双目可见光相机联合测量方法
CN109035309A (zh) * 2018-07-20 2018-12-18 清华大学苏州汽车研究院(吴江) 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法
CN109634279A (zh) * 2018-12-17 2019-04-16 武汉科技大学 基于激光雷达与单目视觉的物体定位方法
CN110988912A (zh) * 2019-12-06 2020-04-10 中国科学院自动化研究所 自动驾驶车辆的道路目标与距离检测方法、系统、装置
CN111340797A (zh) * 2020-03-10 2020-06-26 山东大学 一种激光雷达与双目相机数据融合检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XU JIAN 等: "Bolt positioning method based on active binocular vision", 《2019 CHINESE CONTROL CONFERENCE (CCC)》 *
丁红杰 等: "基于双目激光的车辆限高障碍探测技术研究", 《汽车实用技术》 *
王涛 等: "基于双目视觉的舰载光电雨天对岸测距方法", 《指挥控制与仿真》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113146628A (zh) * 2021-04-13 2021-07-23 中国铁道科学研究院集团有限公司通信信号研究所 一种适用于编组站的制动软管摘结机器人系统
CN113762359A (zh) * 2021-08-18 2021-12-07 北京临近空间飞行器系统工程研究所 一种面向rd时频数据的深度学习模型评测系统及方法
CN113762359B (zh) * 2021-08-18 2024-02-13 北京临近空间飞行器系统工程研究所 一种面向rd时频数据的深度学习模型评测系统及方法
CN113610838A (zh) * 2021-08-25 2021-11-05 华北电力大学(保定) 一种螺栓缺陷数据集扩充方法
CN114115278A (zh) * 2021-11-26 2022-03-01 东北林业大学 一种基于fpga的森林防火机器人行进间避障系统
CN114200945A (zh) * 2021-12-13 2022-03-18 哈尔滨工业大学芜湖机器人产业技术研究院 一种移动机器人的安全控制方法
CN114200945B (zh) * 2021-12-13 2024-04-02 长三角哈特机器人产业技术研究院 一种移动机器人的安全控制方法
WO2023236872A1 (zh) * 2022-06-09 2023-12-14 劢微机器人(深圳)有限公司 基于雷达和相机融合的卸货方法、检测装置及存储介质
CN116158851A (zh) * 2023-03-01 2023-05-26 哈尔滨工业大学 医用远程超声自动扫描机器人的扫描目标定位系统及方法

Also Published As

Publication number Publication date
CN112598729B (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN112598729B (zh) 融合激光与相机的目标物体识别与定位方法
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
CN108648240B (zh) 基于点云特征地图配准的无重叠视场相机姿态标定方法
CN109658461B (zh) 一种基于虚拟仿真环境的合作二维码的无人机定位方法
CN109165680B (zh) 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN105740899B (zh) 一种机器视觉图像特征点检测与匹配复合的优化方法
CN109947097B (zh) 一种基于视觉和激光融合的机器人定位方法及导航应用
CN110223351B (zh) 一种基于卷积神经网络的深度相机定位方法
CN110991227A (zh) 一种基于深度类残差网络的三维物体识别和定位方法
CN112163588A (zh) 基于智能进化的异源图像目标检测方法、存储介质及设备
CN109900274B (zh) 一种图像匹配方法及系统
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
CN111798373A (zh) 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
Nagy et al. SFM and semantic information based online targetless camera-LIDAR self-calibration
CN116619358A (zh) 一种矿山自主探测机器人自适应定位优化与建图方法
CN118135526B (zh) 基于双目相机的四旋翼无人机视觉目标识别与定位方法
CN114596382A (zh) 一种基于全景相机的双目视觉slam方法及系统
CN114063099A (zh) 基于rgbd的定位方法及装置
CN112419496A (zh) 一种基于深度学习的语义地图构建方法
Zhang et al. Improved feature point extraction method of ORB-SLAM2 dense map
CN116894876A (zh) 基于实时图像的6-dof的定位方法
CN112270748A (zh) 基于图像的三维重建方法及装置
CN114419259B (zh) 一种基于物理模型成像仿真的视觉定位方法及系统
An et al. Survey of extrinsic calibration on lidar-camera system for intelligent vehicle: Challenges, approaches, and trends

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant