CN109523594A - 一种视觉托盒特征点坐标定位方法及系统 - Google Patents
一种视觉托盒特征点坐标定位方法及系统 Download PDFInfo
- Publication number
- CN109523594A CN109523594A CN201811361164.1A CN201811361164A CN109523594A CN 109523594 A CN109523594 A CN 109523594A CN 201811361164 A CN201811361164 A CN 201811361164A CN 109523594 A CN109523594 A CN 109523594A
- Authority
- CN
- China
- Prior art keywords
- tray
- vision
- image
- characteristic point
- point coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种视觉托盒特征点坐标定位方法及系统,所述视觉托盒特征点坐标定位系统包括托盒作业传送带:用于驱动托盒匀速运动;视觉装置:用于获取单位托盒视觉图像;处理器模块:用于对所述单位托盒视觉图像预处理、平滑滤波、边缘检测、相似匹配,求出特征点坐标。本发明实施例提供了一种视觉托盒特征点坐标定位方法及系统,通过对视觉装置获取的多张照片进行拼接和处理,准确的识别托盒的边界特征并求出托盒特征点,具有计算速度快、准确性高等特点。
Description
技术领域
本发明涉及到视觉领域,具体涉及到一种视觉托盒特征点坐标定位方法及系统。
背景技术
图像处理作为视觉控制的关键技术,可根据物体外部特征提取轮廓进行模板匹配,获取物体在图像中位置坐标信息。在视觉生产中,机器人想要准确确定运动位置并完成装盒作业动作,需要运动至托盒的特征点。
如何有效解决规则几何目标的识别问题且准确计算托盒的特征点坐标,是实现机器人装盒作业的关键。
发明内容
本发明实施例提供了一种视觉托盒特征点坐标定位方法及系统,具有计算速度快、准确性高等特点。
相应的,本发明实施例提供了一种视觉托盒特征点坐标定位方法,所述视觉托盒特征点坐标定位方法方法包括以下步骤:
基于视觉装置获取托盒作业传送带的单位托盒视觉图像并基于处理器模块合成所述单位托盒视觉图像;
基于处理器模块实时计算Delta机器人的工作区域的托盒视觉图像;
基于处理器模块预处理所述工作区域的托盒视觉图像,得到托盒视觉灰度图像;
基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像;
基于处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像;
基于处理器模块对托盒视觉边缘图像进行托盒边缘影像的相似匹配,得到托盒特征点坐标。
2、如权利要求1所述的视觉托盒特征点坐标定位方法,其特征在于,所述托盒作业传送带的运动速度为v0,所述视觉装置获取的单位托盒视觉图像宽度为l,所述视觉装置获取所述单位托盒视觉图像的间隔时间t1小于
所述基于处理器模块合成所述单位托盒视觉图像包括以下步骤:
基于所述单位托盒视觉图像的间隔时间t1和所述托盒作业传送带的运动速度v0,得出该相邻两幅单位托盒视觉图像交叠部分的影像;
将所述相邻两幅单位托盒视觉图像交叠部分的影像对应的像素点颜色信息取平均值;
将所述平均值作为所述单位托盒视觉图像对应的像素点颜色。
所述托盒视觉图像和托盒视觉灰度图像对应像素点的转换公式为:
Gray=0.11B+0.59G+0.3R
其中,Gray为所述托盒视觉灰度图像像素点的灰度值,R、G、B为所述托盒视觉图像对应像素点的颜色值。
所述基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像包括以下步骤:
以二维零均值离散高斯函数作平滑滤波器,对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像。
所述基于处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像包括以下步骤:
基于Canny算子对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像。
所述基于处理器模块对托盒视觉边缘图像进行托盒边缘影像的相似匹配,得到托盒特征点坐标包括以下步骤:
构建托盒预设的影像集合,将最理想状态的托盒影像、最低标准的托盒影像以及多幅处于最理想状态和最低标准之间的托盒边缘影像导入至影像集合中;
依次将影像集合中的托盒边缘影像作为模板,基于误差法,将所述模板在托盒视觉边缘图像中移动和旋转,匹配所述托盒视觉边缘图像中的实际托盒影像,直至遍历完毕;
确认所述托盒实际托盒影像的特征点坐标。
所述误差法计算公式为
其中,m,n为所述模板的宽和高。
E(i,j)越小,说明模板点灰度与重合点灰度匹配程度越高;
将误差阈值设为固定E0,当E(i,j)>E0时停止该次匹配,继续往下进行;
待全部图像匹配后,得到E(i,j)的最小值即为结果。
相应的,本发明实施例还提供了一种视觉托盒特征点坐标定位系统,所述视觉托盒特征点坐标定位系统包括
托盒作业传送带:用于驱动托盒匀速运动;
视觉装置:用于获取单位托盒视觉图像;
处理器模块:用于对所述单位托盒视觉图像预处理、平滑滤波、边缘检测、相似匹配,求出特征点坐标。
本发明实施例提供了一种视觉托盒特征点坐标定位方法及系统,通过对视觉装置获取的多张照片进行拼接和处理,准确的识别托盒的边界特征并求出托盒特征点,具有计算速度快、准确性高等特点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了本发明实施例的视觉托盒特征点坐标定位方法流程图;
图2示出了本发明实施例的视觉托盒特征点坐标定位系统结构图;
图3示出了本发明实施例的单位托盒作业传送带图像拼接原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了本发明实施例的视觉托盒特征点坐标定位方法流程图,图2示出了本发明实施例的视觉托盒特征点坐标定位系统结构图,图3示出了本发明实施例的单位托盒作业传送带图像拼接原理图。本发明实施例的视觉托盒特征点坐标定位方法包括以下步骤:
S101:基于视觉装置获取托盒作业传送带的单位托盒视觉图像并基于处理器模块合成所述单位托盒视觉图像;
正常情况下,如果通过视觉装置直接获取Delta机器人工作末端的工作区域图像,由于Delta机器人工作末端的阻挡,在具体实施中很难完全获取所需的工作区域图像,因此,可通过远端合成和即时计算的方式,基于软件计算的方式获取托盒作业传送带图像。
具体的,针对托盒作业传送带,所述托盒作业传送带的运动速度为v0,所述视觉装置获取的单位托盒视觉图像宽度为l,所述视觉装置获取所述单位托盒视觉图像的间隔时间t1小于
需要说明的是,视觉装置的获取单位托盒视觉图像的间隔时间t1小于主要是为了使相邻两幅单位托盒视觉图像具有交叠的部分,通过采用直接合成的方式对相邻两幅单位托盒视觉图像进行拼接,防止单位托盒视觉图像在合成时,由于边缘取值过于极限,在拼接时产生过明显的接缝,对托盒的边缘检测造成影响。
具体的,托盒作业传送带始终保持匀速v0进行运动,则相邻两幅单位托盒视觉图像的交叠位置宽度理论上总是相同的,本发明实施例所述的直接拼接方法,在计算机处理的过程中,首先根据托盒作业传送带的运动速度和视觉装置的单位托盒视觉图像获取频率,计算相邻两幅单位托盒视觉图像交叠部分的宽度,得出该相邻两幅单位托盒视觉图像交叠部分的影像;然后提取交叠部分中相对应的两个像素点颜色信息,然后将该两个像素点颜色信息求平均,并赋值在合成的托盒视觉图像中。
具体的,以上所述的将该两个像素点颜色信息求平均是根据所述视觉装置的像素点颜色格式决定的,常用的像素点颜色格式为RGB形式,具体的,分别将R、G、B三种颜色具体竖直相加后除以二,即可得到合成的托盒视觉图像的交叠部分的像素点颜色。
通过该处理方式,可尽量减少单位托盒视觉图像边缘对合成的托盒视觉图像的影响,降低托盒边缘检测的错误率。
S102:基于处理器模块实时计算Delta机器人的工作区域的托盒视觉图像;
当托盒作业传送带正常运行时,通过步骤S101可知,任意时刻的托盒作业传送带表面图像都是可知的。
当需要获取Delta机器人的工作区域的托盒视觉图像时,基于处理器模块,通过托盒作业传送带的运动速度,按照步骤S101所述的图片合成方式,获取托盒作业传送带的瞬间图像,然后按照预设的Delta机器人的工作区域对托盒视觉图像进行截取,得到Delta机器人的工作区域的托盒视觉图像,后文简称托盒视觉图像。
S103:基于处理器模块预处理所述工作区域的托盒视觉图像,得到托盒视觉灰度图像;
所述预处理是指将所述托盒视觉图像转变为数字信号,使每个像素都具备位置和颜色两个属性,这两个属性可构成整数矩阵,被计算机采样和量化处理,这样物理图像就转换成计算机可识别的数字化图像。
由于彩色图像包含的信息量较大,会增加本发明定位方法的工作量,因此,在进行托盒视觉图像的处理前,需要对彩色的托盒视觉图像进行灰度化处理,在本发明实施例中,托盒视觉图像具体的颜色属性即为灰度值。
一般的,彩色图像中,每个像素点都由红(R)绿(G)蓝(B)3个颜色分量组成,且每个分量都有255种值可取,其中0表示最暗黑色,255表示最亮白色。
本发明实施例采用加权平均法作为托盒视觉图像的预处理方法,该方法结合YUV的颜色空间,其中Y表示图像亮度等级(又称Gray灰阶值)。Y与R、G、B建立对应关系为Gray=0.11B+0.59G+0.3R,Gray即为用于替换RGB颜色的灰度值。
通过对工作区域的托盒视觉图像每一个像素点的灰度值计算,得到托盒视觉灰度图像;
S104:基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像;
在步骤S101至步骤S103中的图像处理环节往往会引入噪声。一方面可能是成像系统、传输过程或记录设备的不完善造成的;另一方面,输入对象未达预期效果也会引入噪声。噪声信号以无用信息的形式,对图像可观测信息进行扰乱。产生的亮暗干扰,对后续的图像特征处理过程亦会有影响。图像滤波可抑制目标图像噪声,同时又能够尽量保留图像的细节特征;去除目标和背景中的噪声影响,同时尽量保证目标的形状、大小和特定的几何结构特征,是图像滤波必须考虑的问题。
本发明所提供的坐标定位方法主要用于获取托盒特征点坐标,是为了实现机器人的抓取,且对抓取速度有一定的要求。中值滤波虽然在图像处理方面具有较大优势,但其耗时较长。高斯滤波法是线性平滑滤波,具有可控性,且能有效保存物体的图像信息,虽然部分细节会出现模糊,但是对目标物体整体边缘影响不大,故本发明实施例采用高斯滤波对图像进行滤波处理。
图像滤波常用二维零均值离散高斯函数作平滑滤波器。二维高斯函数为,
其中,A是规范化系数,ux,uy为半高斯梯度,σ表示高斯曲线的平滑程度。
基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像;一般的,经过滤波的滤波托盒视觉灰度图像虽然变模糊,但其边缘特征更为明显,噪声图像被托盒作业传送带的大面积抹除,符合本发明实施例所需要的结果需求。
S105:基于处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像;
图像信息有很大一部分都集中于边缘,边缘的确定,对整个图像场景的识别和理解尤为重要。边缘是灰度不断连续的结果,边缘处理就是求出每个像素在其领域内的灰度变化。边缘存在于图像中的不同灰度邻域之间,该变化是通过计算一阶倒数或二阶导数得到的。常见的边缘可分为阶跃型、斜坡型、线状型和屋顶型。最理想的边缘类型是阶跃型,这种边缘最容易识别,但是采样过程会存在一些误差,从而使边缘发生灰度渐变,出现斜坡,成为斜坡型边缘。线状型边缘因其本身就有灰度突变,所以在成像时会出现一条细线;屋顶边缘是中间向两侧渐变,其灰度斜坡改变较为缓慢,因此会呈现粗边缘。
具体的,在本发明实施例中,边缘检测方法主要基于Canny算子。Canny算子检测精度较高,具有平滑作用,去噪能力强,检测效果较好。
具体的,Canny算子边缘检测的步骤如下:
消除噪声:利用高斯平滑滤波器,通过卷积运算对系统进行降噪处理,高斯内核选取为
size=5,
计算图像的梯度值大小和方向:运用卷积阵列,像素点在x,y方向的梯度值表示为
梯度的幅值的大小和方向可表示为
非极大值抑制:非极大值抑制主要目的剔除不是边缘的因素,留下一部分细线条作为候选的边缘像素;
滞后阈值:滞后阈值由高阈值和低阈值组成,梯度值大于高阈值的部分作为像素边缘保留;梯度值小于低阈值的部分像素直接删除;介于两阈值间且与边缘点邻接的点作为边缘保留,否则删除。
经过该步骤后,处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像,此时,托盒视觉边缘图像包括有托盒的轮廓像素点、托盒的内部花纹像素点的坐标以及相对应的颜色信息。
S106:基于处理器模块对托盒视觉边缘图像进行托盒边缘影像的相似匹配,得到托盒的特征点坐标。
在得到托盒视觉边缘图像后,需将这些托盒视觉边缘图像中的图像内容,及像素点信息、像素点的灰度信息以及图案的特征信息等因素与内部表达式之间相关联,进行相似性和一致性分析,进行托盒边缘影像的目标匹配,从而实现托盒特征点坐标的定位。
具体的,本发明实施例采用模板匹配法来实现图像匹配。模板相当于一个已知图像的集合,在本发明实施例中,模板即为托盒预设的影像集合,该影像集合拥有跟托盒视觉边缘图像中的托盒图像相同的图像元素,即具有一样的大小、方向、形状。通过在该影像集合中的托盒边缘影像对托盒视觉边缘图像中进行拟合,可获取实际的托盒位置。
在本发明实施例中,由于误差法具有较高的精度,匹配速度快,本发明实施例选用误差法进行匹配。
具体的,误差法即衡量模板点灰度Sij和图像重合点灰度T之间的误差,其公式为
其中,m,n为模板的宽和高。
E(i,j)越小,说明模板点灰度与重合点灰度匹配程度越高。当模板较大时,数据量也较大,影响传输速度,匹配的时间会变长。为了减少运算量,本发明实施例对该方法进行改进,将误差阈值设为固定E0,当E(i,j)>E0时停止该次匹配的计算,继续往下进行。待全部图像匹配后,得到E(i,j)的最小值即为结果。
一般的,在方法执行前,使用者需要构建托盒预设的影像集合,将最理想状态的托盒影像、最低标准的托盒影像以及多幅处于最理想状态和最低标准之间的托盒边缘影像导入至影像集合中;然后依次以影像集合中的托盒边缘影像作为模板,结合误差法,将选择的模板在原图中移动、旋转、匹配到与之相吻合的托盒边缘影像中,直至遍历完毕,确认托盒视觉边缘图像中托盒的所处位置,并确认托盒的特征点坐标。
需要说明的是,影像集合中的托盒边缘影像在设置初期即在托盒边缘影像上设置有相对应的特征点,当托盒边缘影像在托盒视觉边缘图像完成匹配时,与之相匹配的托盒的特征点坐标也相应确定。
相应的,本发明实施例还提供了一种视觉托盒特征点坐标定位系统,包括
托盒作业传送带:用于驱动托盒匀速运动;
视觉装置:用于获取单位托盒视觉图像;
处理器模块:用于对所述单位托盒视觉图像预处理、平滑滤波、边缘检测、相似匹配,求出特征点坐标。
本发明实施例提供了一种视觉托盒特征点坐标定位方法及系统,通过对视觉装置获取的多张照片进行拼接和处理,准确的识别托盒的边界特征并求出托盒特征点,具有计算速度快、准确性高等特点。
以上对本发明实施例所提供的一种视觉托盒特征点坐标定位方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种视觉托盒特征点坐标定位方法,其特征在于,所述视觉托盒特征点坐标定位方法包括以下步骤:
基于视觉装置获取托盒作业传送带的单位托盒视觉图像并基于处理器模块合成所述单位托盒视觉图像;
基于处理器模块实时计算Delta机器人的工作区域的托盒视觉图像;
基于处理器模块预处理所述工作区域的托盒视觉图像,得到托盒视觉灰度图像;
基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像;
基于处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像;
基于处理器模块对托盒视觉边缘图像进行托盒边缘影像的相似匹配,得到托盒特征点坐标。
2.如权利要求1所述的视觉托盒特征点坐标定位方法,其特征在于,所述托盒作业传送带的运动速度为v0,所述视觉装置获取的单位托盒视觉图像宽度为l,所述视觉装置获取所述单位托盒视觉图像的间隔时间t1小于
3.如权利要求2所述的视觉托盒特征点坐标定位方法,其特征在于,所述基于处理器模块合成所述单位托盒视觉图像包括以下步骤:
基于所述单位托盒视觉图像的间隔时间t1和所述托盒作业传送带的运动速度v0,得出该相邻两幅单位托盒视觉图像交叠部分的影像;
将所述相邻两幅单位托盒视觉图像交叠部分的影像对应的像素点颜色信息取平均值;
将所述平均值作为所述单位托盒视觉图像对应的像素点颜色。
4.如权利要求3所述的视觉托盒特征点坐标定位方法,其特征在于,所述托盒视觉图像和托盒视觉灰度图像对应像素点的转换公式为:
Gray=0.11B+0.59G+0.3R
其中,Gray为所述托盒视觉灰度图像像素点的灰度值,R、G、B为所述托盒视觉图像对应像素点的颜色值。
5.如权利要求4所述的视觉托盒特征点坐标定位方法,其特征在于,所述基于处理器模块对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像包括以下步骤:
以二维零均值离散高斯函数作平滑滤波器,对所述托盒视觉灰度图像进行平滑滤波,得到滤波托盒视觉灰度图像。
6.如权利要求5所述的视觉托盒特征点坐标定位方法,其特征在于,所述基于处理器模块对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像包括以下步骤:
基于Canny算子对所述滤波托盒视觉灰度图像进行边缘检测,得到托盒视觉边缘图像。
7.如权利要求6所述的视觉托盒特征点坐标定位方法,其特征在于,所述基于处理器模块对托盒视觉边缘图像进行托盒边缘影像的相似匹配,得到托盒特征点坐标包括以下步骤:
构建托盒预设的影像集合,将最理想状态的托盒影像、最低标准的托盒影像以及多幅处于最理想状态和最低标准之间的托盒边缘影像导入至影像集合中;
依次将影像集合中的托盒边缘影像作为模板,基于误差法,将所述模板在托盒视觉边缘图像中移动和旋转,匹配所述托盒视觉边缘图像中的实际托盒影像,直至遍历完毕;
确认所述托盒实际托盒影像的特征点坐标。
8.如权利要求7所述的视觉托盒特征点坐标定位方法,其特征在于,所述误差法计算公式为
其中,m,n为所述模板的宽和高。
E(i,j)越小,说明模板点灰度与重合点灰度匹配程度越高;
将误差阈值设为固定E0,当E(i,j)>E0时停止该次匹配,继续往下进行;
待全部图像匹配后,得到E(i,j)的最小值即为结果。
9.一种视觉托盒特征点坐标定位系统,其特征在于,所述视觉托盒特征点坐标定位系统包括
托盒作业传送带:用于驱动托盒匀速运动;
视觉装置:用于获取单位托盒视觉图像;
处理器模块:用于对所述单位托盒视觉图像进行预处理、平滑滤波、边缘检测、相似匹配并求出特征点坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811361164.1A CN109523594A (zh) | 2018-11-15 | 2018-11-15 | 一种视觉托盒特征点坐标定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811361164.1A CN109523594A (zh) | 2018-11-15 | 2018-11-15 | 一种视觉托盒特征点坐标定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109523594A true CN109523594A (zh) | 2019-03-26 |
Family
ID=65778020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811361164.1A Pending CN109523594A (zh) | 2018-11-15 | 2018-11-15 | 一种视觉托盒特征点坐标定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523594A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008968A (zh) * | 2019-04-09 | 2019-07-12 | 哈尔滨新中新电子股份有限公司 | 一种基于图像视觉的机器人结算自动触发方法 |
CN113012048A (zh) * | 2021-03-26 | 2021-06-22 | 电子科技大学 | 一种基于sift特征的传送带表面物体图像拼接方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130044958A1 (en) * | 2011-08-19 | 2013-02-21 | Jonathan W. Brandt | Methods and Apparatus for Automated Facial Feature Localization |
US20130243337A1 (en) * | 2012-03-19 | 2013-09-19 | Samsung Electronics Co., Ltd. | Image processing apparatus and method thereof |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
-
2018
- 2018-11-15 CN CN201811361164.1A patent/CN109523594A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130044958A1 (en) * | 2011-08-19 | 2013-02-21 | Jonathan W. Brandt | Methods and Apparatus for Automated Facial Feature Localization |
US20130243337A1 (en) * | 2012-03-19 | 2013-09-19 | Samsung Electronics Co., Ltd. | Image processing apparatus and method thereof |
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
Non-Patent Citations (3)
Title |
---|
TOSHIYUKI ADACHI等: "SELF-LOCATION ESTIMATION OF A MOVING CAMERA USING THE MAP OF FEATURE POINTS AND EDGES OF ENVIRONMENT", 《IEEE》 * |
梁佳楠等: "基于图像处理的位置坐标获取方法应用", 《自动化与信息工程》 * |
韩晓微等: "《数字图像融合技术》", 31 December 2010, 沈阳:东北大学出版社 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008968A (zh) * | 2019-04-09 | 2019-07-12 | 哈尔滨新中新电子股份有限公司 | 一种基于图像视觉的机器人结算自动触发方法 |
CN110008968B (zh) * | 2019-04-09 | 2023-08-08 | 哈尔滨新中新电子股份有限公司 | 一种基于图像视觉的机器人结算自动触发方法 |
CN113012048A (zh) * | 2021-03-26 | 2021-06-22 | 电子科技大学 | 一种基于sift特征的传送带表面物体图像拼接方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102426649B (zh) | 一种简单的高准确率的钢印数字自动识别方法 | |
EP0849697B1 (en) | A hand gesture recognition system and method | |
CN104318548B (zh) | 一种基于空间稀疏度和sift特征提取的快速图像配准实现方法 | |
JP5699788B2 (ja) | スクリーン領域検知方法及びシステム | |
JP4194025B2 (ja) | 照明不変の客体追跡方法及びこれを用いた映像編集装置 | |
US6768509B1 (en) | Method and apparatus for determining points of interest on an image of a camera calibration object | |
Mlsna et al. | Gradient and Laplacian edge detection | |
CN107967482A (zh) | 图标识别方法及装置 | |
CN109523551B (zh) | 一种获取机器人行走姿态的方法及系统 | |
CN102737370B (zh) | 检测图像前景的方法及设备 | |
JP2001524228A (ja) | 機械視覚較正標的並びに画像内で標的の位置及び方向を決定する方法 | |
JP2003511651A (ja) | 光学検査システム | |
CN104835175A (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN105678318B (zh) | 交通标牌的匹配方法及装置 | |
CN104392210A (zh) | 一种手势识别方法 | |
CN110021029A (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN105787870A (zh) | 一种图形图像拼接融合系统 | |
CN109523594A (zh) | 一种视觉托盒特征点坐标定位方法及系统 | |
AU784406B2 (en) | Object recognition method | |
CN108717699B (zh) | 一种基于连续最小割的超声波图像分割方法 | |
US6304672B1 (en) | Edge detecting method and edge detecting device which detects edges for each individual primary color and employs individual color weighting coefficients | |
CN109592342A (zh) | 一种视觉圆柱形物料输料方法及系统 | |
JP3372419B2 (ja) | 物体認識方法 | |
CN108197540A (zh) | 一种基于surf的火灾图像特征提取与识别方法 | |
Zhang et al. | A combined approach to single-camera-based lane detection in driverless navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190326 |
|
RJ01 | Rejection of invention patent application after publication |