CN113538510A - 一种生产线上工件实时追踪与定位装置 - Google Patents
一种生产线上工件实时追踪与定位装置 Download PDFInfo
- Publication number
- CN113538510A CN113538510A CN202110638063.XA CN202110638063A CN113538510A CN 113538510 A CN113538510 A CN 113538510A CN 202110638063 A CN202110638063 A CN 202110638063A CN 113538510 A CN113538510 A CN 113538510A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- positioning
- real
- color
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 12
- 230000001629 suppression Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 2
- 238000011897 real-time detection Methods 0.000 abstract description 6
- 230000003068 static effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种生产线上工件实时追踪与定位装置,通过基于深度学习的神经网络实现对相机捕获的视频流中的工件实时追踪,在识别出视频流中目标后,利用投射出的红外结构光与左右红外相机来获取工件三维坐标,然后通过网络接口将结果输出,可以有效解决复杂工业环境下光线强弱和视觉特征对追踪和测量造成的干扰,能够提供复杂场景下实时准确的景深计算。本发明具有抗干扰能力强、检测帧率快、准确率高、定位精度高等优点,能够非常方便的实现视线范围内静止或运动工件的实时检测定位。
Description
技术领域
本发明涉及计算机视觉目标检测与三维测量目标定位技术领域,具体为一种生产线上工件实时追踪与定位装置。
背景技术
随着智能制造的全面开展、部署和实施,各行各业对工业自动化、智能化需求日益增加,开发和生产更加智能化、信息化、高精度的智能制造系统也成为了当下的主要任务,作为机器视觉中的关键技术,目标检测与定位技术在工业生产中也具有很大的应用价值,将具备实时检测定位功能的视觉系统和机械臂用到工业自动化生产线上,能够实现码垛、焊接、涂装、装配等各种功能,但随着工业自动化程度的进步和提高,工业应用场景日益复杂,市场需求也在增加,对于目标检测定位技术的智能化、精度、稳定性和速度都提出了更高的要求。目前主要是利用二维图像并基于深度学习网络模型进行目标检测和被动式三维坐标测量的方法,这种方法具有对相机硬件要求低、实现简单、功耗低等优点,但是容易受光照强度和角度影响,对于缺乏视觉纹理特征的场景匹配很困难,匹配的精度和准确度也很难保证,不适用于场景复杂、受外界因素干扰较多的工业自动化生产线上的工件检测与定位。
发明内容
本发明提供一种生产线上工件实时追踪与定位装置,解决了实时检测定位系统能够在复杂场景和任意光照变化下实现对静止或运动工件的检测工作。
为实现上述目的,本发明提供如下技术方案:一种生产线上工件实时追踪与定位装置,包括用于采集彩色图像的彩色相机,用于采集红外图像的红外相机,用于产生结构光的红外激光发射器,用于补偿设备晃动对图像所产生干扰的陀螺仪和加速度计,用于存储数据的存储器,用于数据加工处理的处理器,数据输出接口,视频流输出接口以及用于目标识别算法和目标定位算法。
优选的,所述处理器包括通用处理器(PS)和可编程逻辑模块(PL)两个部分。
一种基于生产线上工件实时追踪与定位装置的定位方法,包括如下步骤:
第一步、通过对采集彩色图像的彩色相机和左右双目红外相机进行标定,获取彩色相机和左右红外相机的内参数和外参数;
第二步、采集待测工件图像并制作包含训练集和验证集的图像数据集,设计目标检测网络结构并训练得到工件检测网络模型;
第三步、通过彩色相机获取场景的彩色视频流并使用深度学习工件检测网络获取视频流中的工件类别以及所在图像区域位置坐标,其中,工件回归框像素坐标为(xc,yc,w,h);
第四步、生成归一化的边框值,再分别乘以图像的宽和高,得到工件检测框中心点的像素坐标(x,y);
第五步、通过把深度图与彩色图对齐,将红外相机坐标系下的点转换到彩色相机坐标系,获取彩色图中像素点所对应的深度值;
第六步、根据第一步和第四步获得的相机标定参数与工件图像区域中心点像素坐标,结合三角定位原理计算工件在彩色相机坐标系下的三维坐标,实现工件三维坐标定位;
第七步、根据第一步至第六步,彩色相机根据捕捉到的图像能实时检测,框出目标工件并对目标三维坐标定位,所利用的公式为:其中,depth是测得的深度,depth scale为深度比例;fX和fY分别为彩色相机在x方向和y方向的像素焦距;分别为彩色相机在x方向和y方向的主点。
优选的,所述定位方法基于神经网络,并且用于训练神经网络的图像数据集包括彩色相机拍摄的工件图像和通过使用的双目红外相机在结构光照射下采集的各种场景和光线下的工件图像,所述工件图像自动进行标注和格式转换。
优选的,所述第二步中,所述网络模型采用延迟低、精度高的轻量级神经网络模型作为工件检测网络的基础网络。
优选的,所述网络模型采用Mobilenet作为基础模型来提取初步特征,去掉MobileNet最后的一些层,在Mobilenet的Conv13后面添加了八个卷积层,分别为Conv14_1、Conv14_2、Conv15_1、Conv15_2、Conv16_1、Conv16_2、Conv17_1Conv17_2,该网络从Conv11、Conv13、Conv14_2、Conv15_2、Conv16_2、Conv17_2这6层上抽取六个不同尺度的特征图来进行多尺度融合,在每个特征图上的每个位置(x,y)预先生成多个先验框并进行位置回归和类别置信度回归,并通过非极大值抑制算法获得最终检测结果,所述非极大值抑制算法的步骤为:
步骤1、对生成的所有候选框进行排序,选出置信度(score)最高的候选框;
步骤2、遍历剩余框并计算与最高分候选框的交叠率(IoU),删除IoU大于一定阈值的候选框,交叠率计算原理为:其中A是预测框;B是真实框;IoU是重叠部分面积,删除重叠面积大的候选框,保留重叠面积小的不是同一物体的候选框;
步骤3、重复步骤1和步骤2,直到删除所有IoU大于阈值的候选框。
优选的,所述第三步中,通过对所述彩色相机拍摄的视频流进行逐帧检测,按照置信度大小对每帧检测到的工件进行标号,并在显示屏幕上实时显示每个工件目标的类别与三维坐标信息。
优选的,所述第五步中,所述深度图从双目红外结相机获取取代表场景内物体深度信息,所述彩色图从彩色相机获取。
与现有技术相比,本发明的有益效果:
1、本发明使用基于深度学习轻量级的目标检测网络进行工件实时检测与定位,可以解决深度神经网络中体积大耗费存储空间、网络模型复杂以及检测速度缓慢的问题,配合性能优良的红外相机,实时检测和定位速度方面有一个很大的突破。
2、本发明通过基于主动红外立体声技术的红外相机来实现深度的测量和三维坐标的获取,相较于当下利用被动式双目立体视觉进行三维坐标测量的方式,能有效解决场景光线强弱和视觉特征造成的问题,在场景复杂、受外界因素干扰较多的工业自动化生产线上也能实现实时准确的景深计算。
3、本发明具有抗干扰能力强、检测帧率快、准确率高、定位精度高、适用范围广等优点,能够在相机视线范围内远近不同距离实现目标工件三维测距,并且能完成对静止或运动工件的实时检测与定位。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
在附图中:
图1是本发明的组成结构示意图;
图2是本发明使用的算法结构框架图;
图3是本发明轻量级深度可卷积网络结构图;
图4是本发明相机的结构光三维透视模型图;
图5是本发明相机成像模型图;
图6是本发明深度图与彩色图对齐原理图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例:如图1所示,一种生产线上工件实时追踪与定位装置,包括用于采集彩色图像的彩色相机,用于采集红外图像的红外相机,用于产生结构光的红外激光发射器,用于补偿设备晃动对图像所产生干扰的陀螺仪和加速度计,用于存储数据的存储器,用于数据加工处理的处理器,所述处理器包括通用处理器(PS)和可编程逻辑模块(PL)两个部分,数据输出接口,视频流输出接口以及用于目标识别算法和目标定位算法,具体选用Xilinx出品的ZynqUltraScale型号为XAZU3EG,其PS部分包含4个ARMCortex-A53处理器、2个ARMCortex-R5处理器,其PL部分包含15.4万个逻辑处理单元,14.1万个触发器;系统板载4GB内存8GB闪存;所配置的彩色和红外相机体积小巧,图像分辨率高达1280*720,系统运行Linux4.14操作系统,在Tensorflow Object_detection API上使用OpenCV图形开发库、numpy矩阵运算库、系统基本依赖以及传感器的Python API接口等结合相机SDK共同实现。
如图2-6所示,一种基于生产线上工件实时追踪与定位装置的定位方法,所述定位方法基于神经网络,并且用于训练神经网络的图像数据集包括彩色相机拍摄的工件图像和通过使用的双目红外相机在结构光照射下采集的各种场景和光线下的工件图像,所述工件图像自动进行标注和格式转换,包括如下步骤:
第一步、通过对采集彩色图像的彩色相机和左右双目红外相机进行标定,获取彩色相机和左右红外相机的内参数和外参数;
第二步、采集待测工件图像并制作包含训练集和验证集的图像数据集,制作工件数据集,通过红外相机的彩色相机采集不同场景、不同角度和不同光线下丰富的工件图像共1000张,将数据集中的图片按照3:1分为训练集和数据集,使用LambelImg软件对图像进行标注,并完成转换数据集格式为输入神经网络所需的形式,设计目标检测网络结构并训练得到工件检测网络模型,所述网络模型采用延迟低、精度高的轻量级神经网络模型作为工件检测网络的基础网络,所述网络模型采用Mobilenet作为基础模型来提取初步特征,去掉MobileNet最后的一些层,在Mobilenet的Conv13后面添加了八个卷积层,分别为Conv14_1、Conv14_2、Conv15_1、Conv15_2、Conv16_1、Conv16_2、Conv17_1Conv17_2,该网络从Conv11、Conv13、Conv14_2、Conv15_2、Conv16_2、Conv17_2这6层上抽取六个不同尺度的特征图来进行多尺度融合,在每个特征图上的每个位置(x,y)预先生成多个先验框并进行位置回归和类别置信度回归,并通过非极大值抑制算法获得最终检测结果,并通过非极大值抑制算法获得最终检测结果,所述非极大值抑制算法的步骤为:
步骤1,对生成的所有候选框进行排序,选出置信度(score)最高的候选框;
步骤2,遍历剩余框并计算与最高分候选框的交叠率(IoU),删除IoU大于一定阈值的候选框,交叠率计算原理为:其中A是预测框;B是真实框;IoU是重叠部分面积,删除重叠面积大的候选框,保留重叠面积小的不是同一物体的候选框;
步骤3,重复步骤1和步骤2,直到删除所有IoU大于阈值的候选框;
第三步、通过彩色相机获取场景的彩色视频流进行逐帧检测,当检测到每帧画面中的多个工件目标时则逐个进行检测定位,并使用深度学习工件检测网络,按照置信度大小对每帧检测到的工件进行标号,可通过DP接口在显示屏幕上实时显示每个工件目标的类别与工件检测框中心点三维坐标信息,也可以经由网络发送工件坐标数据,从而获取视频流中的工件类别以及所在图像区域位置坐标,并在显示屏幕上实时显示,其中,工件回归框像素坐标为(xc,yc,w,h);
第四步、生成归一化的边框值,再分别乘以图像的宽和高,得到工件检测框中心点的像素坐标(x,y);
第五步、通过把从双目红外结相机获取取代表场景内物体深度信息的深度图与从彩色相机获取的彩色图对齐,将红外相机坐标系下的点转换到彩色相机坐标系,获取彩色图中像素点所对应的深度值;
第六步、根据第一步和第四步获得的相机标定参数与工件图像区域中心点像素坐标,结合三角定位原理计算工件在彩色相机坐标系下的三维坐标,实现工件三维坐标定位;
第七步、根据第一步至第六步,彩色相机根据捕捉到的图像能实时检测,框出目标工件并对目标三维坐标定位,所利用的公式为:其中,depth是测得的深度,depth scale为深度比例;fX和fY分别为彩色相机在x方向和y方向的像素焦距;分别为彩色相机在x方向和y方向的主点,通过张正友标定法对三个相机进行标定,从六个不同角度捕捉标定板的图像,根据采集到的图像得到彩色相机标定内参矩阵:其中(cx,cy)是图像坐标系中心在像素坐标系中的位置,fx和fy分别是相机在x和y方向上的焦距,同时该装置搭载有六轴惯性测量单元(IMU),IMU信息与3D深度传感器和视频图像生成的数据帧同步,可以提升图像的稳定性和更好地提供环境信息,因此,本发明在对运动中的工件进行检测定位时也可以有很好的效果。
在室内复杂环境下工作前,首先对相机进行标定获得彩色相机和左右红外相机的内外参数,然后使用红外相机和彩色相机采集工件图像并制作成包含训练集和验证集的图像数据集,在深度学习框架下训练数据集得到检测网络模型,并调用模型和深度摄像头用于工件实时检测任务,在摄像头采集的视频流中检测并框出工件所在图像区域以及置信度,从而得到检测回归框的坐标(xc,yc,w,h),接着获取彩色图像与深度图像并对齐,根据标定得到的相机内外参数、三角测距原理以及检测时框出的工件图像区域中心点坐标(x,y),通过计算得到工件相对彩色相机的三维坐标,实现工件的检测与定位,该装置能够根据彩色相机捕捉到的图像检测出目标工件和中心点三维坐标,且检测效果好、速度快、定位准确率高。
最后应说明的是:以上所述仅为本发明的优选实例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种生产线上工件实时追踪与定位装置,其特征在于:包括用于采集彩色图像的彩色相机,用于采集红外图像的红外相机,用于产生结构光的红外激光发射器,用于补偿设备晃动对图像所产生干扰的陀螺仪和加速度计,用于存储数据的存储器,用于数据加工处理的处理器,数据输出接口,视频流输出接口以及用于目标识别算法和目标定位算法。
2.根据权利要求1所述的一种生产线上工件实时追踪与定位装置,其特征在于:所述处理器包括通用处理器和可编程逻辑模块。
3.一种基于权利要求1-2任一项所述的生产线上工件实时追踪与定位装置的定位方法,其特征在于,包括如下步骤:
第一步、通过对采集彩色图像的彩色相机和左右双目红外相机进行标定,获取彩色相机和左右红外相机的内参数和外参数;
第二步、采集待测工件图像并制作包含训练集和验证集的图像数据集,设计目标检测网络结构并训练得到工件检测网络模型;
第三步、通过彩色相机获取场景的彩色视频流并使用深度学习工件检测网络获取视频流中的工件类别以及所在图像区域位置坐标;
第四步、生成归一化的边框值,再分别乘以图像的宽和高,得到工件检测框中心点的像素坐标;
第五步、通过将深度图与彩色图对齐,将红外相机坐标系下的点转换到彩色相机坐标系,获取彩色图中像素点所对应的深度值;
第六步、根据第一步和第四步获得的相机标定参数与工件图像区域中心点像素坐标,结合三角定位原理计算工件在彩色相机坐标系下的三维坐标,实现工件三维坐标定位;
第七步、根据第一步至第六步,彩色相机根据捕捉到的图像能实时检测,框出目标工件并对目标三维坐标定位。
4.根据权利要求3所述的一种生产线上工件实时追踪与定位装置的定位方法,其特征在于:所述定位方法基于神经网络,并且用于训练神经网络的图像数据集包括彩色相机拍摄的工件图像和通过使用的双目红外相机在结构光照射下采集的各种场景和光线下的工件图像,所述工件图像自动进行标注和格式转换。
5.根据权利要求3所述的一种生产线上工件实时追踪与定位装置的定位方法,其特征在于:所述第二步中,所述网络模型采用延迟低、精度高的轻量级神经网络模型作为工件检测网络的基础网络。
6.根据权利要求5所述的一种生产线上工件实时追踪与定位装置的定位方法,其特征在于:所述网络模型采用Mobilenet作为基础模型来提取初步特征,并通过非极大值抑制算法获得最终检测结果。
7.根据权利要求3所述的一种生产线上工件实时追踪与定位装置的定位方法,其特征在于:所述第三步中,通过对所述彩色相机拍摄的视频流进行逐帧检测,按照置信度大小对每帧检测到的工件进行标号,并在显示屏幕上实时显示每个工件目标的类别与三维坐标信息。
8.根据权利要求3所述的一种生产线上工件实时追踪与定位装置的定位方法,其特征在于:所述第五步中,所述深度图从双目红外结相机获取取代表场景内物体深度信息,所述彩色图从彩色相机获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110638063.XA CN113538510A (zh) | 2021-06-08 | 2021-06-08 | 一种生产线上工件实时追踪与定位装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110638063.XA CN113538510A (zh) | 2021-06-08 | 2021-06-08 | 一种生产线上工件实时追踪与定位装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113538510A true CN113538510A (zh) | 2021-10-22 |
Family
ID=78124686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110638063.XA Pending CN113538510A (zh) | 2021-06-08 | 2021-06-08 | 一种生产线上工件实时追踪与定位装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538510A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114431005A (zh) * | 2022-02-11 | 2022-05-06 | 苏州书农科技有限公司 | 智能化农业果实采摘识别与定位方法、系统及装置 |
-
2021
- 2021-06-08 CN CN202110638063.XA patent/CN113538510A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114431005A (zh) * | 2022-02-11 | 2022-05-06 | 苏州书农科技有限公司 | 智能化农业果实采摘识别与定位方法、系统及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112894832B (zh) | 三维建模方法、装置、电子设备和存储介质 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
Fathi et al. | Automated as-built 3D reconstruction of civil infrastructure using computer vision: Achievements, opportunities, and challenges | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN112444242B (zh) | 一种位姿优化方法及装置 | |
US20170287166A1 (en) | Camera calibration method using a calibration target | |
Scaramuzza et al. | Extrinsic self calibration of a camera and a 3d laser range finder from natural scenes | |
WO2019127445A1 (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN107635129B (zh) | 一种三维三目摄像装置及深度融合方法 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
CN111060924A (zh) | 一种slam与目标跟踪方法 | |
CN206611521U (zh) | 一种基于多传感器的车载环境识别系统及全方位视觉模块 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
CN112184793B (zh) | 深度数据的处理方法、装置及可读存储介质 | |
CN114766042A (zh) | 目标检测方法、装置、终端设备及介质 | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
CN112884841A (zh) | 一种基于语义目标的双目视觉定位方法 | |
Nagy et al. | SFM and semantic information based online targetless camera-LIDAR self-calibration | |
CN110689572A (zh) | 一种三维空间中移动机器人定位系统及方法 | |
CN117036300A (zh) | 基于点云-rgb异源图像多级配准映射的路面裂缝识别方法 | |
CN102881040A (zh) | 一种数码相机移动拍摄三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211022 |
|
WD01 | Invention patent application deemed withdrawn after publication |