CN111127401B - 一种基于深度学习的机器人立体视觉机械零件检测方法 - Google Patents

一种基于深度学习的机器人立体视觉机械零件检测方法 Download PDF

Info

Publication number
CN111127401B
CN111127401B CN201911206221.3A CN201911206221A CN111127401B CN 111127401 B CN111127401 B CN 111127401B CN 201911206221 A CN201911206221 A CN 201911206221A CN 111127401 B CN111127401 B CN 111127401B
Authority
CN
China
Prior art keywords
binocular
image
characteristic
deep learning
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911206221.3A
Other languages
English (en)
Other versions
CN111127401A (zh
Inventor
管声启
任浪
刘宇程
常江
师红宇
陈永当
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN201911206221.3A priority Critical patent/CN111127401B/zh
Publication of CN111127401A publication Critical patent/CN111127401A/zh
Application granted granted Critical
Publication of CN111127401B publication Critical patent/CN111127401B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的机器人立体视觉机械零件检测方法,包括:获取待检测工件的双目立体图像,对双目立体图像进行处理后依次计算匹配代价C(x,y,d)、SAD代价;根据SAD代价得到视差图,将视差图转化为深度信息;对双目图像进行标定,对标定后的双目图像进行处理,分别得到双目图像的不同尺度特征图;将双目图像的不同尺度特征图融合后,与深度信息进行融合,完成三维的零件检测。增大图像分辨率,既可以增加图像清晰度,又可以防止网络过拟合造成的梯度消失或梯度爆炸问题;将双目图像的特征图与深度信息融合后,实现机械零件的三维立体检测,提高机器检测的准确率及工作效率。

Description

一种基于深度学习的机器人立体视觉机械零件检测方法
技术领域
本发明属于零件检测方法技术领域,涉及一种基于深度学习的机器人立体视觉机械零件检测方法。
背景技术
机器学习的发展,推动了包括视觉、语音、自动驾驶、机器人等多个领域的发展。传统机器学习在处理问题时需要相当多繁琐的过程,如语言转化为计算机所能理解的的内部数据、设计迭代器、特征提取器、优化器等,所以技术复杂且效果一般。而深度学习技术简单通用,泛化性强,可处理庞大的数据量,而且可以实现自主学习(参考文献[1]:Lecun Y,Bengio Y,Hinton G.Deep learning.[J].Nature,2015,521(7553):436.)。在其应用领域中,发展最好的当属计算机视觉领域。以计算机视觉为例,目前深度学习技术在工业机器人视觉领域发展迅速(参考文献[2]:李超波,李洪均,徐晨.深度学习在图像识别中的应用[J].南通大学学报(自然科学版),2018,v.17;No.64(01):5-13.),在机械工业行业,该技术在机械零件定位、检测识别及几何测量(参考文献[3]:Deng B,Wang Z,Jin Y,etal.Multi-pose system for geometric measurement of large-scale assembledrotational parts[J].Measurement Science and Technology,2017,28(5):055011.)等方面有了突破性进展。然而,仅仅针对普通二维平面图像进行定位、检测识别等工作而言,其所面对的仅为平面化的场景,以二维像素数组的方式表现,丢失了深度等方向的重要信息,因此不完全适用于真实场景。
现有的机械零件检测方法包括现场人工检测及机器检测识别方法,人工检测效率较低,机器检测识别方法为二维图像的检测识别方法,无法直接用于三维图像处理的问题,降低了检测准确率。
发明内容
本发明的目的是提供一种基于深度学习的机器人立体视觉机械零件检测方法,解决了现有技术中存在的二维图像检测识别方法或人工检测方法效率较低的问题。
本发明所采用的技术方案是,一种基于深度学习的机器人立体视觉机械零件检测方法,包括:
获取待检测工件的双目立体图像,对双目立体图像进行处理后依次计算匹配代价C(x,y,d)、SAD代价;根据SAD代价得到视差图,将视差图转化为深度信息;对双目图像进行标定,对标定后的双目图像进行处理,分别得到双目图像的不同尺度特征图;将双目图像的不同尺度特征图融合后,与深度信息进行融合,完成三维的零件检测。
本发明的特点还在于:
具体包括以下步骤:
步骤1、获取待检测工件的双目立体图像数据,并对双目立体图像数据进行映射处理,得到映射后的图像f1(x,y);
步骤2、计算图像f1(x,y)的匹配代价C(x,y,d):
Figure BDA0002296994470000021
上式中,L(x+i,y+i)表示表示梯度代价,R(x+d+i,y+j)表示SAD,d表示视差值;
步骤3、对匹配代价进行叠加得到SAD代价:
Figure BDA0002296994470000031
上式中,Lacc表示匹配代价聚合累加,P1和P2表示规划参数;
步骤4、选取SAD代价最小值对应的视差值作为视差像素点,得到视差图;
步骤5、将视差图转化为深度信息,公式如下:
Figure BDA0002296994470000032
其中,z表示深度值,单位为mm,f表示焦距,b表示基线距离,d表示视差值,单位为像素;
步骤6、对双目图像进行标定,将标定后的双目图像分别输入DarkNet-53网络模型,分别在DarkNet-53网络模型中的不同残差单元之后,进行五次卷积、正则化、激活,再进行特征拼接操作、卷积,分别输出双目图像的不同尺度特征图;
步骤7、通过深度置信网络对双目图像的不同尺度特征图进行融合,得到双目立体特征图;
步骤8、将双目立体特征图和深度信息输入深度置信网络进行融合,完成三维的零件检测。
步骤6具体包括:
步骤6.1、将对双目图像进行标定;
步骤6.2、将标定后的双目图像分别输入DarkNet-53网络中进行卷积、正则化、激活及残差单元操作后完成初步检测;
步骤6.3、对步骤6.2输出的特征图依次进行卷积、正则化、激活;
步骤6.4、重复步骤6.3五次后输出;
步骤6.5、将步骤6.4输出的特征图进行卷积后输出第一尺度特征图;
步骤6.6、将步骤6.4输出的特征图进行特征拼接操作,重复步骤2-3;
步骤6.7、将步骤6.6输出的特征图进行卷积后输出第二尺度特征图;
步骤6.8、对步骤6.6输出的特征图进行特征拼接操作,重复步骤2-3;
步骤6.9、对步骤6.8输出的特征图进行卷积后输出第三尺度特征图。
步骤6中的激活函数采用随机修正线性单元。
步骤7具体为:
先通过受限玻尔兹曼机对双目图像的六个特征图重新提取关联高级特征之后,融合输出三个双目立体特征图。
步骤8具体为:
将深度信息进行处理后与三个双目立体特征图输入深度置信网络进行信息融合,完成三维检测。
本发明的有益效果是:
本发明的基于深度学习的机器人立体视觉机械零件检测方法,激活函数使用随机修正线性单元RReLU将输入尺度从(416*416*3)扩展为(480*480*3)的图像;提取特征图时为保证中心点落入唯一框中,在DarkNet53网络之后进行五次卷积,使特征图尺寸满足奇数要求,获得不同尺度的特征预测;增大图像分辨率,既可以增加图像清晰度,又可以防止网络过拟合造成的梯度消失或梯度爆炸问题;将双目图像的特征图与深度信息融合后,实现机械零件的三维立体检测,提高机器检测的准确率及工作效率。
附图说明
图1是本发明一种基于深度学习的机器人立体视觉机械零件检测方法的流程图;
图2是本发明一种基于深度学习的机器人立体视觉机械零件检测方法的原理图;
图3是本发明一种基于深度学习的机器人立体视觉机械零件检测方法中单目网络模型训练的原理图;
图4是本发明一种基于深度学习的机器人立体视觉机械零件检测方法中深度置信网络融合的原理图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种基于深度学习的机器人立体视觉机械零件检测方法,如图1所示,包括:
获取待检测工件的双目立体图像,对双目立体图像进行处理后依次计算匹配代价C(x,y,d)、SAD代价;根据SAD代价得到视差图,将视差图转化为深度信息;对双目图像进行标定,对标定后的双目图像进行处理,分别得到双目图像的不同尺度特征图;将双目图像的不同尺度特征图融合后,与深度信息进行融合,完成三维的零件检测。
具体包括以下步骤:
步骤1、获取待检测工件的双目立体图像数据;
搭建双目机器人双目视觉系统,主要是采集机械零件的双目立体图像,主要组成部分有同型号的双目相机,其中像元尺寸6.0um*6.0um,分辨率640*480、帧率60fps及2.1mm焦距镜头、7*9棋盘格标定板,每个小格尺寸为39.5mm、铝型材若干等,如图2所示。其次标定校正双目立体相机,同步各采集40幅棋盘格图像,通过MATLAB立体标定工具箱标定获取内外参数、畸变系数等,进一步校正双目相机,得到双目图像对,进而获得双目立体图像数据;
并对双目立体图像数据进行映射处理,得到映射后的图像f1(x,y);
Figure BDA0002296994470000061
其中f表示映射前的图像f(x,y)上的像素值,f1(x,y)表示映射后的图像,c表示常数参量;
步骤2、计算图像f1(x,y)的匹配代价C(x,y,d):
Figure BDA0002296994470000062
上式中,C(x,y,d)表示像素值(x,y)在视差为d时的匹配代价,L(x+i,y+i)表示表示梯度代价,R(x+d+i,y+j)表示SAD,d表示视差值;
步骤3、对匹配代价进行叠加得到SAD代价:
Figure BDA0002296994470000063
上式中,Lacc表示匹配代价聚合累加,P1和P2表示规划参数,由图像通道和SAD窗口确定,r为分辨率,p表示映射后的图像f1(x,y)上的当前匹配的像素点;
步骤4、选取SAD代价最小值对应的视差值作为视差像素点,得到视差图;视差计算一般采用WAT(即赢家通吃)算法,在步骤3的代价聚合值结果中选取最小值所对应的视差值为该点像素的最终视差像素点。然后使用平滑、亚像素插值、左右一致性检查法等操作,进一步优化视差图,获得较高质量视差图;
步骤5、将视差图转化为深度信息,公式如下:
Figure BDA0002296994470000071
其中,z表示深度值,单位为mm,f表示焦距,b表示基线距离,d表示视差值,单位为像素;
步骤6、对双目图像对进行标定,将标定后的双目图像对分别输入DarkNet-53网络模型,分别在DarkNet-53网络模型中的不同残差单元之后,进行五次卷积、正则化、激活,再进行特征拼接操作、卷积,分别输出双目图像的不同尺度特征图;
DarkNet-53网络结构组合53个卷积层和池化层,即53=2+1*2+1+2*2+1+8*2+1+8*2+1+4*2+1,且主体(body)中包含五组重复的残差单元。卷积DarknetConv2D_BN_Leaky操作包含三个操作:一个2维卷积Conv2D层、一个批正则化项(Batch Normalization)和一个激活函数层。
具体的,步骤6.1、采用LabelImg分别对双目图像进行标定,得到XML标注文件,再将其转换为可识别的txt文件;
步骤6.2、将标定后的两个单目480*480*3图像分别输入DarkNet-53网络中进行卷积、正则化、激活及残差单元操作后完成初步粗检测;
步骤6.3、对步骤6.2输出的特征图依次进行卷积、正则化、激活;
步骤6.4、重复步骤6.3五次后输出;
步骤6.5、将步骤6.4输出的特征图进行卷积后输出第一尺度特征图15*15*3;
步骤6.6、将步骤6.4输出的特征图进行特征拼接操作,重复步骤2-3;
具体的,特征拼接操作包括卷积和上采样,卷积目的是提取特征,上采样的目的是增加特征图尺度;对第五次激活后的特征图重新提取特征,并增加特征图尺度,与残差单元输出的特征图进行拼接操作,即将残差输出的低级特征与上采样输出的高级特征进行融合,再重复进行五次卷积、正则化、激活后输出;
步骤6.7、将步骤6.6输出的特征图进行卷积后输出第二尺度特征图30*30*3;
步骤6.8、对步骤6.6输出的特征图进行特征拼接操作,重复步骤2-3;
步骤6.9、对步骤6.8输出的特征图进行卷积后输出第三尺度特征图。
双目图像包括左右两个单目图像,两个单目图像通过训练后均60*60*3得到第一尺度特征图、第二尺度特征图、第三尺度特征图,共六个特征图。
本发明在提取特征图时为保证中心点落入唯一框中,需在DarkNet53网络的步长为2的5次卷积中,考虑中心点落入四个框会造成歧义,特征图尺寸需满足奇数要求,经过五次卷积(2^5=32),获得不同尺度的特征预测;另一方面,分辨率r的增大,既可以增加图像清晰度,又可以防止网络过拟合造成的梯度消失或梯度爆炸问题。
步骤7、通过深度置信网络对双目图像的不同尺度特征图进行融合,得到双目立体特征图;
具体的,深度置信网络DBN的基本组成元件是受限玻尔兹曼机RBM,先通过受限玻尔兹曼机对双目图像的六个特征图重新提取关联高级特征之后,融合输出三个双目立体特征图。
步骤8、将双目立体特征图和深度信息输入深度置信网络进行融合,完成三维的零件检测;
具体的,将深度信息进行处理后与三个双目立体特征图输入深度置信网络进行信息融合,完成三维检测,处理过程为:提取通过立体匹配得到的所有z轴深度信息,以欧氏距离为标准,计算待检测零件表面最近点与最远点之间的绝对差值,取最大绝对差值作为当前图像深度值,以此保证零件被检测框包含在内,将所有图像的深度值保存至标定图像的转化文件CSV文件中,并将数据转化为tfrecord和txt等文件中,以此作为训练数据输入深度置信网络中。
深度置信网络的关联及融合过程为:
首先将深度信息、三个双目立体特征图输入受限玻尔兹曼机训练得到第一个受限玻尔兹曼机;以第一个受限玻尔兹曼机权重值和偏移量作为训练第二个RBM元件的输入向量;堆叠前两个训练的RBM;同理重复迭代数次,直至达到最优结果,生成输出数据;对输出数据进行归一化得到检测结果。
通过以上方式,本发明的基于深度学习的机器人立体视觉机械零件检测方法,激活函数使用随机修正线性单元RReLU将输入尺度从(416*416*3)扩展为(480*480*3)的图像;提取特征图时为保证中心点落入唯一框中,在DarkNet53网络之后进行五次卷积,使特征图尺寸满足奇数要求,获得不同尺度的特征预测;增大图像分辨率,既可以增加图像清晰度,又可以防止网络过拟合造成的梯度消失或梯度爆炸问题;将双目图像的特征图与深度信息融合后,实现机械零件的三维立体检测。

Claims (6)

1.一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,包括:
获取待检测工件的双目立体图像,对所述双目立体图像进行处理后依次计算匹配代价C(x,y,d)、SAD代价;根据所述SAD代价得到视差图,将所述视差图转化为深度信息;对双目图像进行标定,对标定后的所述双目图像进行处理,分别得到双目图像的不同尺度特征图;将所述双目图像的不同尺度特征图融合后,与所述深度信息进行融合,完成三维的零件检测。
2.如权利要求1所述的一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,具体包括以下步骤:
步骤1、获取待检测工件的双目立体图像数据,并对双目立体图像数据进行映射处理,得到映射后的图像f1(x,y);
步骤2、计算图像f1(x,y)的匹配代价C(x,y,d):
Figure FDA0002296994460000011
上式中,L(x+i,y+i)表示梯度代价,R(x+d+i,y+j)表示SAD,d表示视差值;
步骤3、对所述匹配代价进行叠加得到SAD代价:
Figure FDA0002296994460000012
上式中,Lacc表示匹配代价聚合累加,P1和P2表示规划参数;
步骤4、选取所述SAD代价最小值对应的视差值作为视差像素点,得到视差图;
步骤5、将所述视差图转化为深度信息,公式如下:
Figure FDA0002296994460000021
其中,z表示深度值,单位为mm,f表示焦距,b表示基线距离,d表示视差值,单位为像素;
步骤6、对所述双目图像进行标定,将标定后的双目图像分别输入DarkNet-53网络模型,分别在DarkNet-53网络模型中的不同残差单元之后,进行五次卷积、正则化、激活,再进行特征拼接操作、卷积,分别输出双目图像的不同尺度特征图;
步骤7、通过深度置信网络对所述双目图像的不同尺度特征图进行融合,得到双目立体特征图;
步骤8、将所述双目立体特征图和深度信息输入深度置信网络进行融合,完成三维的零件检测。
3.如权利要求1所述的一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,步骤6具体包括:
步骤6.1、将对所述双目图像进行标定;
步骤6.2、将标定后的所述双目图像分别输入DarkNet-53网络中进行卷积、正则化、激活及残差单元操作后完成初步检测;
步骤6.3、对步骤6.2输出的特征图依次进行卷积、正则化、激活;
步骤6.4、重复步骤6.3五次后输出;
步骤6.5、将步骤6.4输出的特征图进行卷积后输出第一尺度特征图;
步骤6.6、将步骤6.4输出的特征图进行特征拼接操作,重复步骤2-3;
步骤6.7、将步骤6.6输出的特征图进行卷积后输出第二尺度特征图;
步骤6.8、对步骤6.6输出的特征图进行特征拼接操作,重复步骤2-3;
步骤6.9、对步骤6.8输出的特征图进行卷积后输出第三尺度特征图。
4.如权利要求3所述的一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,步骤6中的激活函数采用随机修正线性单元。
5.如权利要求3所述的一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,步骤7具体为:
先通过受限玻尔兹曼机对所述双目图像的六个特征图重新提取关联高级特征之后,融合输出三个双目立体特征图。
6.如权利要求5所述的一种基于深度学习的机器人立体视觉机械零件检测方法,其特征在于,步骤8具体为:
将深度信息进行处理后与三个双目立体特征图输入深度置信网络进行信息融合,完成三维检测。
CN201911206221.3A 2019-11-29 2019-11-29 一种基于深度学习的机器人立体视觉机械零件检测方法 Active CN111127401B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911206221.3A CN111127401B (zh) 2019-11-29 2019-11-29 一种基于深度学习的机器人立体视觉机械零件检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911206221.3A CN111127401B (zh) 2019-11-29 2019-11-29 一种基于深度学习的机器人立体视觉机械零件检测方法

Publications (2)

Publication Number Publication Date
CN111127401A CN111127401A (zh) 2020-05-08
CN111127401B true CN111127401B (zh) 2023-04-07

Family

ID=70496334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911206221.3A Active CN111127401B (zh) 2019-11-29 2019-11-29 一种基于深度学习的机器人立体视觉机械零件检测方法

Country Status (1)

Country Link
CN (1) CN111127401B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229455A1 (en) 2020-05-11 2021-11-18 Niantic, Inc. Generating stereo image data from monocular images
CN112132864B (zh) * 2020-09-21 2024-04-09 大连遨游智能科技有限公司 基于视觉的机器人跟随方法及跟随机器人
CN112528841A (zh) * 2020-12-11 2021-03-19 中航贵州飞机有限责任公司 一种基于神经网络的无纸化生产用智能识别系统
CN113962961A (zh) * 2021-10-22 2022-01-21 常州市新创智能科技有限公司 一种基于高速机的螺丝松动检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013110615B3 (de) * 2013-09-26 2014-11-27 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
CN110009691B (zh) * 2019-03-28 2021-04-09 北京清微智能科技有限公司 基于双目立体视觉匹配的视差图像生成方法及系统
CN110310317A (zh) * 2019-06-28 2019-10-08 西北工业大学 一种基于深度学习的单目视觉场景深度估计的方法

Also Published As

Publication number Publication date
CN111127401A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
CN111127401B (zh) 一种基于深度学习的机器人立体视觉机械零件检测方法
CN110533712B (zh) 一种基于卷积神经网络的双目立体匹配方法
CN110009674B (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN108280858B (zh) 多视图重建中的一种线性全局相机运动参数估计方法
CN111402311B (zh) 一种基于知识蒸馏的轻量级立体视差估计方法
CN111507222B (zh) 一种基于多源数据知识迁移的三维物体检测框架
CN113592927B (zh) 一种结构信息引导的跨域图像几何配准方法
CN111783582A (zh) 一种基于深度学习的无监督单目深度估计算法
CN111160214A (zh) 一种基于数据融合的3d目标检测方法
CN103093479A (zh) 一种基于双目视觉的目标定位方法
CN110443849B (zh) 一种基于深度图像的双流卷积神经网络回归学习的目标定位方法
CN110264528A (zh) 一种鱼眼镜头双目像机快速自标定方法
CN114359509A (zh) 一种基于深度学习的多视图自然场景重建方法
CN114022542A (zh) 一种基于三维重建的3d数据库制作方法
CN111105451B (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN112509021A (zh) 一种基于注意力机制的视差优化方法
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
Huang et al. ES-Net: An efficient stereo matching network
Jia et al. Multi-scale cost volumes cascade network for stereo matching
CN112561947A (zh) 一种图像自适应运动估计方法及应用
CN115330935A (zh) 一种基于深度学习的三维重建方法及系统
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
CN112419387B (zh) 一种日光温室番茄植株图像无监督深度估计方法
CN115496859A (zh) 基于散乱点云交叉注意学习的三维场景运动趋势估计方法
CN114119704A (zh) 一种基于空间金字塔池化的光场图像深度估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant