CN115147411B - 一种基于人工智能的贴标机智能定位方法 - Google Patents
一种基于人工智能的贴标机智能定位方法 Download PDFInfo
- Publication number
- CN115147411B CN115147411B CN202211050757.2A CN202211050757A CN115147411B CN 115147411 B CN115147411 B CN 115147411B CN 202211050757 A CN202211050757 A CN 202211050757A CN 115147411 B CN115147411 B CN 115147411B
- Authority
- CN
- China
- Prior art keywords
- target object
- information
- image
- binocular
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 12
- 238000002372 labelling Methods 0.000 claims abstract description 55
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 44
- 238000012937 correction Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000007547 defect Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 11
- 230000008859 change Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及缺陷检测领域,具体涉及一种基于人工智能的贴标机智能定位方法。包括同时获取目标物双目视觉图像;获取目标物位置信息;构建单目图像生成网络输出双目生成图,分别获取双目生成图的角点坐标信息;对目标物位置信息进行修正;对双目视觉图像中目标物的阴影进行分析,获取阴影位姿信息的最大位姿置信度对修正后的目标物位置信息进行二次修正,得到目标物最终的位置信息;根据目标物的最终位置信息对贴标机角度进行调节,完成目标物的贴标。本发明有利于获取实时目标物的位姿信息,并根据定位信息进行后续的双目图像之间的标定参数误差的验证;根据真实的单目图像角点位置信息进行修正,提高后续目标物偏移量和偏移角度的精确计算。
Description
技术领域
本发明涉及缺陷检测领域,具体涉及一种基于人工智能的贴标机智能定位方法。
背景技术
在包装件和产品的领域中,自动化贴标机最为常用,特别在医药、食品等行业。贴标机的贴标精度决定了产品的美观,更有利于客户方便,因此,针对自动贴标机的精准定位智能调节方法,在贴标机行业至关重要。
但是在使用贴标机进行贴标的过程中,现有技术主要利用传感器获取目标物的位置,并进行贴标操作,传感器存在的弊端是无法进行高精度的贴标操作,很难获取目标物的位姿信息以及幅度较小的位姿变化。所以,在贴标机工作过程中,很难达到高精度贴标定位。
发明内容
本发明提供一种基于人工智能的贴标机智能定位方法,以解决现有的利用传感器获取目标物的位置,无法进行高精度的贴标操作的问题。
本发明的一种基于人工智能的贴标机智能定位方法,采用如下技术方案,包括以下步骤:
同时获取目标物双目视觉图像;
构建目标检测网络对目标物双目视觉图像进行目标检测,获取目标物位置信息;
构建单目图像生成网络,输入双目视觉图像,分别输出双目视觉图像对应的双目生成图,分别获取双目生成图的角点坐标信息;
利用双目生成图的角点坐标信息和双目视觉图像的角点坐标信息之间位置关系对目标物位置信息进行修正;
构建目标物阴影分析网络对双目视觉图像中目标物的阴影进行分析,得到阴影位姿信息;
获取阴影位姿信息的最大位姿置信度,利用该最大位姿置信度对修正后的目标物位置信息进行二次修正,得到目标物最终的位置信息;
利用目标物的最终位置信息得到目标物的偏移信息;
根据目标物的偏移信息对贴标机角度进行调节,完成目标物的贴标。
所述对修正后的目标物位置信息进行二次修正,得到目标物最终的位置信息的过程为:
根据获取的最大位姿置信度对目标物位置信息进行二次修正,得到目标物最终的位置信息,修正方法如下:
利用目标物的最终位置信息得到目标物的偏移信息的过程包括:
根据目标物的最终位置信息对单目图像生成网络进行修正,再利用修正后的网络得到连续目标物的双目生成图像的最终位置信息,根据连续目标物的双目生成图像的最终位置信息计算当前目标物较前序目标物的偏移信息。
获取当前目标物较前序目标物的偏移信息的方法如下:
利用修正后的单目图像生成网络获取经传送带传输的连续的目标物的双目生成图像,根据前序目标物的位置向量和当前目标物的位置向量进行位置向量作差和空间向量角度的计算,得到当前目标物相对前序目标物的偏移信息,偏移信息包括偏移角度和偏移量;
其中目标物的位置向量为双目生成图像的角点坐标信息序列构成的位置向量。
所述获取目标物位置信息的过程如下:
将同时获取的目标物双目视觉图像输入目标检测网络中进行目标物的检测,得到双目视觉图像的包围框信息,获取包围框信息中的四个角点坐标组成位置向量,得到的位置向量即为双目视觉图像中目标物的位置信息。
对目标物位置信息进行修正的方法为:
将利用单目生成网络得到双目生成图像的角点坐标信息与初始获取的目标物双目视觉图像的位置向量进行互验证,根据验证结果,对单目生成网络中的已知参数数据中存在的误差进行修正,通过修正后的单目生成网络重新输出双目生成图像的角点坐标信息,得到修正后的目标物位置信息;
其中目标物双目视觉图像是通过双目视觉相机获取,包含左单目图像和右单目图像,双目生成图像是将目标物双目视觉图像经过单目生成网络中的两个网络分支分别同时生成的,包含左单目生成图像和右单目生成图像。
获取阴影位姿信息的最大位姿置信度的过程如下:
获取光源经过不同位姿的目标物后产生的阴影图像,将不同位姿对应的阴影图像输入目标物阴影分析网络中,得到不同位姿对应的阴影位姿信息;
将得到的所有阴影位姿信息输入softmax函数输出双目视觉图像对应位姿的最大置信度,为第个位姿对应的置信度,即该双目视觉图像中第个位姿对应的置信度为最大的置信度,该置信度即为阴影位姿信息的最大位姿置信度。
本发明的有益效果是:能够根据目标物的位姿信息和位姿变化对贴标机的贴标角度和位置 进行调整,提高贴标效率和贴标位置的准确性。
(1)基于本申请所述通过获取目标物不同视角下的定位信息,相较于现有技术有益效果在于有利于获取实时目标物的位姿信息,并根据定位信息进行后续的双目图像之间的标定参数误差的验证。
(2)基于本申请所述利用构建的单目图像生成网络,结合不同单目图像和已知标定参数设定损失函数,进行单目图像互验证,相较于现有技术有益效果在于能够利用真实的单目图像角点位置信息,对已知标定参数信息进行修正,提高后续目标物偏移量和偏移角度的精确计算。
(3)基于本申请所述通过对对目标物定位信息的修正量进行二次修正的过程中,利用左右两张单目图像的目标物包围框的互验信息和双目视觉图像的目标物的阴影语义信息,能够更准确的获取当前目标物的最终位置向量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中实施例1的方法流程图。
图2为本发明中实施例2的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明的一种基于人工智能的贴标机智能定位方法的实施例,如图1所示,包括:
S101、获取目标物双目视觉图像
通过双目相机对目标物进行图像采集,获取目标物的双目视觉图像,并根据双目视觉图像对目标物进行定位。
S102、获取目标物定位信息
构建目标检测网络,利用目标检测网络对目标物进行目标检测,得到目标物的包围框信息,根据目标物中的包围框信息获取包围框角点信息,从而得到目标物的定位信息,进行下一步分析。
S103、获取单目生成图像的角点坐标信息
构建单目图像生成网络,通过单目图像中的角点坐标信息和单应矩阵等已知数据的映射关系,生成对应单目图像角点坐标数据,即单目生成图像的角点坐标信息,根据单目生成图像的角点坐标信息进行网络参数的修正。
其中单目生成图像包括左单目生成图像和右单目生成图像。
S104、对单目生成网络进行首次修正
通过单目生成网络中的两分支生成网络的输出值与网络的输入值进行互验证,利用真实图像中的角点信息对单目生成网络进行验证中,通过已知参数数据中存在的误差进行首次修正。
S105、获取单目生成图像中目标物的定位信息
利用修正后的网络得到目标物双目视觉图像对应的左单目生成图像和右单目生成图像,获取左单目生成图像和右单目生成图像的定位信息,即由四个角点坐标构成的位置向量。
S106、对目标物的定位信息进行二次修正
构建目标物阴影分析网络,通过对光源经过不同位姿的目标物后产生阴影的图像进行分析,得到不同位姿下的最大置信度对位置向量进行二次修正得到最终修正量,可以使结果更精确。
S107、根据最终修正量对位置向量进行修改
根据得到的最终修正量对位置向量做最终的修改,得到最终的位置向量,根据最终的位置向量计算目标物的偏移信息,从而进行位置调整。
S108、计算目标物当前的偏移角度和偏移量
获取前序目标物和当前目标物的位置向量,根据前序目标物对当前目标物的位姿信息进行分析,通过目标物的位姿变化对贴标机的角度进行调节。
S109、对当前目标物进行贴标机角度调节
根据当前目标物的位姿变化进行角度调节,通过修正后的定位信息完成精准贴标,能够保证贴标机的智能化贴标和智能化调节。
S110、根据调整后的贴标机完成目标物的贴标任务
根据调整后的贴标机进行目标物的贴标任务,对目标物进行贴标,不会影响贴标机自身的工作效率,在保证高精度的前提下,提高了贴标机的工作效率。
实施例2
本发明的一种基于人工智能的贴标机智能定位方法的实施例,如图2所示,具体内容包括:
S201、获取目标物双目视觉图像
通过双目相机对目标物进行图像采集,获取目标物的双目视觉图像,并根据双目视觉图像对目标物进行定位。
通过固定位置的双目相机对目标物进行图像采集,获取目标物双目视觉图像(左侧单目图像)和(右侧单目图像)。其中,双目相机之间的单应矩阵、投影变换矩阵、内参矩阵和物理变换矩阵已知,也即能够通过左侧单目图像中像素点的坐标位置,通过投影映射获取右侧单目图像中对应像素点的坐标位置。
利用双目的视觉图像能够提高目标物的定位精度。
S202、获取目标物定位信息
构建目标检测网络,利用目标检测网络对目标物进行目标检测,得到目标物的包围框信息,根据目标物中的包围框信息获取包围框角点信息,从而得到目标物的定位信息,进行下一步分析。
目标检测网络的网络结构为Encoder-FC,网络的输入为右单目图像或左单目图像,网络的输出为目标物包围框信息,包围框信息包括目标物中心点坐标和包围框的宽高,表示为,表示为目标物包围框中心点坐标,表示包围框的宽,表示包围框的高。
网络标注为人为标注,网络损失函数为交叉熵和均方误差损失函数。可借助现有的目标检测模型完成,例如:YOLO v5。
S203、构建单目图像生成网络
构建单目图像生成网络,网络结构为:Encoder-Decoder。
单目生成网络共有两个分支,一支为右单目图像生成左单目图像,另一支为左单目图像生成右单目图像,两个分支网络之间参数共享。
由于后续需要根据双目生成图像进行互验证,所以此处是利用右单目图像生成左单目图像,左单目图像生成右单目图像,这样生成图像的互验证效果会更好。
单目生成网络的损失函数设置为:,其中:表示对应的包围框角点坐标之间的欧氏距离,为左单目图像中第个角点的坐标信息,为为左单目生成图像中对应的第个角点的坐标信息,为右单目图像中第个角点的坐标信息,为右单目生成图像中对应的第个角点的坐标信息。
构建单目图像生成网络,通过单目图像中的角点坐标信息和单应矩阵等已知数据的映射关系,生成对应单目图像角点坐标数据,即单目生成图像的角点坐标信息。
S204、获取单目生成图像的角点坐标信息
在实际操作过程中,传统的双目视觉相机标定一般采用棋盘格,分别对两个单目相机进行标定,能够减小误差,因此对棋盘格中两个单目相机同源点进行标定,利用单目生成图像进行互相验证和修正。
构建单目图像生成网络,通过单目图像中的角点坐标信息和单应矩阵等已知数据的映射关系,生成对应单目图像角点坐标数据,即单目生成图像的角点坐标信息,根据单目生成图像的角点坐标信息进行网络参数的修正。
其中单目生成图像包括左单目生成图像和右单目生成图像。
S205、对单目生成网络进行首次修正
通过单目生成网络中的两分支生成网络的输出值与网络的输入值进行互验证,利用真实图像中的角点信息对单目生成网络进行验证中,通过已知参数数据中存在的误差进行首次修正。
将得到右单目生成图像和左单目生成图像的角点坐标信息与双目视觉图像中的右侧单目图像和左侧单目图像的真实角点坐标信息进行互验证,对单目生成网络中的已知参数数据中存在的误差进行修正。
利用修正后的单目生成网络,重新获取双目生成图像中的焦点信息坐标,得到修正后的位置信息。
S206、对目标物的定位信息进行二次修正
构建目标物阴影分析网络,通过对不同目标物在经过固定光源位置下贴标机时存在的不同角度偏移下的图像进行分析,得到不同位姿下的最大置信度对位置向量进行二次修正得到最终修正量,可以使结果更精确。
目标物阴影分析网络的结构为Encoder-FC,将目标物的双目视觉图像作为目标物阴影分析网络的输入,通过编码器对图像进行卷积、池化获取特征图(即用于训练目标物阴影分析网络的标签图像,所述标签图像包括不同目标物在经过固定光源位置下贴标机时存在的不同角度偏移下的标签图像),再利用全连接网络对特征图进行处理,经过softmax函数输出目标物的双目视觉图像对应位姿的最大置信度,为第个位姿对应的置信度,即该双目视觉图像中第个位姿对应的置信度为最大的置信度,将最终得到的双目视觉图像对应位姿的最大置信度为目标物阴影分析网络的输出;
其中网络的损失函数为:,其中,表示超参数,为了平衡对应位姿下标签图像和输入图像的样本量差异,表示网络输出同一位姿的双目图像数量和标签图像中对应位姿的数量的比值,是在网络训练过程中不断调节的参数,表示第个像素点的输出结果,表示输入图像中第个像素点的类别标签,表示图像像素点的总数。
S207、根据最终修正量对位置向量进行修改
根据得到的最终修正量对位置向量做最终的修改,得到最终的位置向量,根据最终的位置向量计算目标物的偏移信息,从而进行位置调整。
由于单目图像中本身存在视觉偏移,所以需要通过两个单目图像进行互验证才可以得到修正后的目标物的位置向量,但是,目标检测网络的输出仅包括目标物的包围框信息,并不包括目标物周围的背景语义信息,所以会受到网络训练效果的影响,造成包围框信息存在误差,影响最终目标物修正后的位置向量精度。
利用目标物阴影分析网络获取当前双目视觉图像的最大位姿置信度对修正后的修正量进行调整得到目标物的最终位置向量,调整方法如下:
S208、获取单目生成图像中目标物的定位信息
对网络进行修正后得到目标物双目视觉图像对应的左单目生成图像和右单目生成图像,根据修正后得到的图像,获取的定位信息更准确,以此对贴标机角度进行调节的结果也更精确。
S209、计算目标物当前的偏移角度和偏移量
获取前序目标物和当前目标物的最终位置向量,根据前序目标物对当前目标物的位姿信息进行分析,通过目标物的位姿变化对贴标机的角度进行调节。
由于目标物位于传送带上方,通过传送带进行传输完成连续不断的贴标过程,所以,通过连续的目标物经传送带传输,到贴标机下完成定位的过程,利用上述训练好的单目图像生成网络获取修正后的左单目生成图像和右单目生成图像,利用左右单目图像获取修正后的目标物的位置向量,然后,根据前序目标物的位置向量和当前目标物的位置向量进行位置向量作差和空间向量角度计算,获取当前目标物相对于前序目标物的偏移角度和偏移量。空间向量之间的角度和向量运算为常用技术,不再过多描述计算过程。
S210、对当前目标物进行贴标机角度调节
根据当前目标物的位姿变化进行角度调节,通过修正后的定位信息完成精准贴标,能够保证贴标机的智能化贴标和智能化调节。
根据修正后的定位信息获取当前目标物的偏移角度和偏移量,对当前目标物进行贴标机角度调节,然后控制调整后的贴标机完成目标物的贴标任务。
上述的双目相机通过生成网络进行互验证过程可为进行贴标前的预训练过程,在实际完成贴标任务的过程中,不会影响贴标机自身的工作效率。
S211、根据调整后的贴标机完成目标物的贴标任务
根据调整后的贴标机进行目标物的贴标任务,对目标物进行贴标,不会影响贴标机自身的工作效率,在保证高精度的前提下,提高了贴标机的工作效率,避免了贴标机因目标物自身的偏移和传感器精度不够等问题,造成目标物贴标存在偏差的现象。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于人工智能的贴标机智能定位方法,其特征在于:包括以下步骤:
同时获取目标物双目视觉图像;
构建目标检测网络对目标物双目视觉图像进行目标检测,获取目标物位置信息;
构建单目图像生成网络,输入双目视觉图像,分别输出双目视觉图像对应的双目生成图,分别获取双目生成图的角点坐标信息;
利用双目生成图的角点坐标信息和双目视觉图像的角点坐标信息之间位置关系对目标物位置信息进行修正;
所述对目标物位置信息进行修正的方法为:
将利用单目生成网络得到双目生成图像的角点坐标信息与初始获取的目标物双目视觉图像的位置向量进行互验证,根据验证结果,对单目生成网络中的已知参数数据中存在的误差进行修正,通过修正后的单目生成网络重新输出双目生成图像的角点坐标信息,得到修正后的目标物位置信息;
其中目标物双目视觉图像是通过双目视觉相机获取,包含左单目图像和右单目图像,双目生成图像是将目标物双目视觉图像经过单目生成网络中的两个网络分支分别同时生成的,包含左单目生成图像和右单目生成图像;
构建目标物阴影分析网络对双目视觉图像中目标物的阴影进行分析,得到阴影位姿信息;
获取阴影位姿信息的最大位姿置信度,利用该最大位姿置信度对修正后的目标物位置信息进行二次修正,得到目标物的最终位置信息,其中获取阴影位姿信息的最大位姿置信度的方法如下:
获取光源经过不同位姿的目标物后产生的阴影图像,将不同位姿对应的阴影图像输入目标物阴影分析网络中,得到不同位姿对应的阴影位姿信息;
将得到的所有阴影位姿信息输入softmax函数输出双目视觉图像对应位姿的最大置信度,该置信度即为阴影位姿信息的最大位姿置信度;
所述对修正后的目标物位置信息进行二次修正,得到目标物最终的位置信息的过程为:
根据获取的最大位姿置信度对目标物位置信息进行二次修正,得到目标物最终的位置信息,修正方法如下:
根据目标物的偏移信息对贴标机角度进行调节,完成目标物的贴标。
2.根据权利要求1所述的一种基于人工智能的贴标机智能定位方法,其特征在于:所述利用目标物的最终位置信息得到目标物的偏移信息的过程包括:
根据目标物的最终位置信息对单目图像生成网络进行修正,再利用修正后的网络得到连续目标物的双目生成图像的最终位置信息,根据连续目标物的双目生成图像的最终位置信息计算当前目标物较前序目标物的偏移信息。
3.根据权利要求2所述的一种基于人工智能的贴标机智能定位方法,其特征在于:所述当前目标物较前序目标物的偏移信息是按如下方法确定的:
利用修正后的单目图像生成网络获取经传送带传输的连续的目标物的双目生成图像,根据前序目标物的位置向量和当前目标物的位置向量进行位置向量作差和空间向量角度的计算,得到当前目标物相对前序目标物的偏移信息,偏移信息包括偏移角度和偏移量;
其中目标物的位置向量为双目生成图像的角点坐标信息序列构成的位置向量。
4.根据权利要求1所述的一种基于人工智能的贴标机智能定位方法,其特征在于:所述获取目标物位置信息的过程如下:
将同时获取的目标物双目视觉图像输入目标检测网络中进行目标物的检测,得到双目视觉图像的包围框信息,获取包围框信息中的四个角点坐标组成位置向量,得到的位置向量即为双目视觉图像中目标物的位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211050757.2A CN115147411B (zh) | 2022-08-30 | 2022-08-30 | 一种基于人工智能的贴标机智能定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211050757.2A CN115147411B (zh) | 2022-08-30 | 2022-08-30 | 一种基于人工智能的贴标机智能定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115147411A CN115147411A (zh) | 2022-10-04 |
CN115147411B true CN115147411B (zh) | 2022-11-22 |
Family
ID=83415850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211050757.2A Active CN115147411B (zh) | 2022-08-30 | 2022-08-30 | 一种基于人工智能的贴标机智能定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147411B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133983B (zh) * | 2017-05-09 | 2019-07-02 | 河北科技大学 | 成捆圆钢端面双目视觉系统与空间定位及计数方法 |
CN110428465A (zh) * | 2019-07-12 | 2019-11-08 | 中国科学院自动化研究所 | 基于视觉和触觉的机械臂抓取方法、系统、装置 |
CN110689579B (zh) * | 2019-10-18 | 2022-08-30 | 华中科技大学 | 基于合作目标的快速单目视觉位姿测量方法及测量系统 |
CN114554030B (zh) * | 2020-11-20 | 2023-04-07 | 空客(北京)工程技术中心有限公司 | 设备检测系统以及设备检测方法 |
-
2022
- 2022-08-30 CN CN202211050757.2A patent/CN115147411B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115147411A (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111505606B (zh) | 多相机与激光雷达系统相对位姿检校方法及装置 | |
CN104331896B (zh) | 一种基于深度信息的系统标定方法 | |
CN102175261B (zh) | 一种基于自适应标靶的视觉测量系统及其标定方法 | |
CN113077453A (zh) | 一种基于深度学习的电路板元器件缺陷检测方法 | |
CN110189382A (zh) | 一种基于无共视区域的多双目相机运动标定方法 | |
JPH10253322A (ja) | 空間内で物体を位置指定する方法および装置 | |
CN107270810A (zh) | 多方位投影的投影仪标定方法及装置 | |
CN108428251A (zh) | 一种基于机器视觉技术激光结构光自动标定方法 | |
CN115830103A (zh) | 一种基于单目彩色的透明物体定位方法、装置及存储介质 | |
CN108716890A (zh) | 一种基于机器视觉的高精度尺寸检测方法 | |
CN109345513A (zh) | 一种具有烟包姿态计算的卷烟包装缺陷检测方法 | |
CN114331995A (zh) | 一种基于改进2d-icp的多模板匹配实时定位方法 | |
CN208254424U (zh) | 一种激光盲孔深度检测系统 | |
CN115147411B (zh) | 一种基于人工智能的贴标机智能定位方法 | |
CN114708234B (zh) | 一种识别自动卡口编码一体机上雷管数量的方法及装置 | |
CN112734832A (zh) | 一种即时获得线上物体实际尺寸测量方法 | |
CN111738971B (zh) | 一种基于线激光双目立体视觉的电路板立体扫描检测方法 | |
CN117635603B (zh) | 基于目标检测的中空遮阳产品在线质量检测系统及方法 | |
CN113920191A (zh) | 一种基于深度相机的6d数据集构建方法 | |
CN114966238B (zh) | 一种天线相位中心的自动检测与对准方法 | |
CN112785647A (zh) | 一种三目立体图像检测方法和系统 | |
CN115423783A (zh) | 一种用于光伏组件边框及接线盒灌胶的质检方法和装置 | |
CN114331833A (zh) | 基于标定与精确几何结构的瓶体标签稳定高质量拼接方法 | |
CN114266822A (zh) | 基于双目机器人的工件质检方法、装置、机器人及介质 | |
CN107545587B (zh) | 基于主辅眼的圆钢端面双目视觉定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230830 Address after: Room 612, No. 668 Shangda Road, Baoshan District, Shanghai, 200444 Patentee after: Shanghai Lijian Information Technology Co.,Ltd. Address before: 226200 No.500, Linyang Road, Qidong Economic Development Zone, Nantong City, Jiangsu Province Patentee before: Qidong Yingwei data information technology Co.,Ltd. |