CN107729893B - 一种合模机的视觉定位方法、系统和存储介质 - Google Patents
一种合模机的视觉定位方法、系统和存储介质 Download PDFInfo
- Publication number
- CN107729893B CN107729893B CN201710947622.9A CN201710947622A CN107729893B CN 107729893 B CN107729893 B CN 107729893B CN 201710947622 A CN201710947622 A CN 201710947622A CN 107729893 B CN107729893 B CN 107729893B
- Authority
- CN
- China
- Prior art keywords
- image
- parallax
- target
- roi
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Abstract
一种合模机的视觉定位方法、系统和存储介质,该方法包括步骤:对双目相机进行标定,获得相机的内外参数;利用所述双目相机拍摄一组数字灰度图像对Il和Ir;对图像Il和Ir进行校正,边缘检测后得到边缘图像I′l和I′r;获得目标的投影图像,利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr),两横坐标之差记为视差d,d=xl‑xr;对像素级视差d补偿从而获得高精度的亚像素视差d′;将相机标定得到的坐标映射矩阵K以及亚像素视差d′,得到目标物体的笛卡尔坐标。本发明的方法具有识别率高、计算精度高、计算速度快以及环境影响小的优点。
Description
技术领域
本发明涉及图像及视频数据处理领域,涉及图像中特定目标的识别与定位,特别涉及一种合模机的视觉定位方法、系统和存储介质。
背景技术
目标识别与定位是计算机视觉中的重要问题。其目的是测量目标物体的三维空间坐标,提供被测物体的相对位置信息。目标识别定位在工业自动化、机器人、无人驾驶等领域应用广泛,是计算机视觉,尤其是图像理解中的一个重要研究领域。
目标识别与定位能够在复杂场景中有效提取目标的深度信息,为机械智能化提供了坚实的保障。目前有许多方法用于实现目标识别定位,它们的绝大部分可以划分为两类:基于主动视觉和基于被动视觉。
基于主动视觉的识别定位方法又分为基于激光扫描、基于结构光、基于红外线三种定位技术。基于激光扫描的定位技术通过激光发射器定时发射激光束,分别在水平与垂直方向轮流对定位空间进行扫描,光敏传感器通过接收激光的时间、角度等信息确定被测物体的空间位置与姿态。基于结构光的定位技术通过激光发射器将已编码结构化的激光投影到待测物体表面,由摄像系统采集经物体表面高度调制的结构光,并传送至计算机分析计算,从而获得物体的空间信息。基于红外线的定位技术首先在待测物体上安装红外灯,作为标记点,并用两台红外相机采集红外图像。计算机分析不同角度采集的红外图像,提取目标物体的三维空间坐标。
基于被动视觉的定位技术分为基于单目相机和基于双目相机两种定位技术。单目视觉定位的方法主要有两种:给予单帧图像的定位方法和基于两帧或多帧的定位方法。目前较为常见的基于单帧图像的定位方法是在标定距离利用投影矩阵获得相机x、y方向的坐标信息。基于两帧或多帧的定位方法的关键在于实现多帧投影图像之间的对应特征元素匹配,如SLAM。双目相机拥有两个相对位置已知的摄像头,单帧图像即可获得同一物体不同视角的两幅图像,通过对目标特征的提取与匹配得到目标的视差信息,从而利用三角测量方法获得被测物体的三维空间信息。
相对其它定位方法,基于双目相机的定位技术操作方便,实现原理简单可行,同时设备成本较低。但目前基于双目相机的定位技术应用仍然非常有限,主要存在两个方面的缺陷。一、精度不高。测量精度不仅受到相机安装误差、标定误差、像素误差等内外参数误差,更受到目标特征匹配算法精度影响。目前匹配算法精度多为像素级,亚像素级匹配结果则通过像素级匹配结果插值得到。匹配精度直接影响着被测目标的深度信息精度。二、对噪声敏感。双目定位技术是通过图像来实现定位的技术。工作环境、光照变化等因素影响采集图像的质量,图像的质量以及场景中干扰结构会直接导致目标物体的误识别、漏识别。
发明内容
(一)要解决的技术问题
为了克服现有技术中存在的缺陷,本发明提出了一种合模机的定位方法和系统,以及一种存储介质。
(二)技术方案
根据本发明的一方面,提出一种合模机的视觉定位方法,该方法包括步骤:步骤100,对双目相机进行标定,获得相机的内外参数以及相机投影矩阵K;步骤200,利用所述双目相机拍摄一组数字灰度图像对Il和Ir;步骤300,对图像Il和Ir进行校正,边缘检测后得到边缘图像I′l和I′r;步骤400,获得目标的投影图像,利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr),两横坐标之差记为视差d,d=xl-xr;步骤500,对像素级视差d补偿从而获得高精度的亚像素视差d′;步骤600,将相机标定得到的坐标映射矩阵K以及亚像素视差d′,得到目标物体的笛卡尔坐标。
根据本发明的另一方面,提出一种合模机的视觉定位系统,该系统包括:标定单元,用于对双目相机进行标定,获得相机的内外参数;图像获取单元,用于利用所述双目相机拍摄一组数字灰度图像对Il和Ir;图像校正单元,用于对图像Il和Ir进行校正,边缘检测后得到边缘图像I′l和I′r;目标投影图像和视差确定单元(,用于获得目标的投影图像,利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr),两横坐标之差记为视差d,d=xl-xr;亚像素视差计算单元,用于对像素级视差d补偿从而获得高精度的亚像素视差d′;坐标转换单元,用于将相机标定得到的坐标映射矩阵K以及亚像素视差d′,得到目标物体的笛卡尔坐标。
根据本发明的再一方面,提出一种合模机的定位系统,该系统包括处理器和存储器,存储器上存储有计算机程序,通过处理器执行上述的合模机的视觉定位方法。
根据本发明的再一方面,提出一种存储介质,其上存储有计算机程序,通过处理器执行该计算机程序以实现上述的合模机的视觉定位方法。
(三)有益效果
本发明的合模机视觉定位系统和方法具备如下优点:
1、识别率高。本发明利用多帧图像间的内在联系,对目标位置进行概率预测,提高了识别正确率。
2、计算精度高。图像的空间谱是一个有限带宽的信号。根据Nyquist采样定理,我们可以从采样值,也就是数字图像出发,精确复原目标物体的亮度特征。由此,我们可以准确计算亚像素级匹配代价。现有的匹配代价算法都是模板在空间域内以像素为单位滑动匹配,而亚像素级匹配代价则通过插值拟合得到,故精度比较差。
3、计算速度快。传统的空间域匹配代价的计算复杂度为O(N2),而快速傅里叶变换的计算复杂度为O(N log N),计算量远小于其它边缘检测方法。特别有利于高分辨率、大尺寸数字图像以及视频数据的快速处理。
4、环境影响小。本发明通过目标的真实形貌建立三维空间模型进而得到二维投影图像。二维投影图像无噪点、结构清晰,能够大大降低图像噪点对识别匹配的影响。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1、2和3是本发明合模机的视觉定位系统的算法流程图。
图4是以举例的方式示出的用于目标识别的实物示例“U型孔”。
图5是图4的U型孔的三维空间模型。
图6是图4的U型孔的二维投影图像。
图7是真实场景中U型孔识别。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
根据本发明的一实施例,提出一种合模机的视觉定位方法,如图1所示,该方法包括以下步骤:
步骤100,对双目相机进行标定,获得相机的内外参数。
双目相机标定是指分别获取左右相机的内外参数,通过立体标定对左右两幅图像进行立体校准和对齐,确定两个相机的相对位置关系,即中心距。
根据本发明,标定方法可以采用现有的方法。例如可以参考张政友教授提出的张氏标定法,或可以利用已开发成熟的工具箱。在本实施例中,采用Jean-Yves Bouguet开发的Camera Calibration Toolbox for Matlab工具箱进行标定,获得相机内外参数,并得到投影矩阵K。
步骤200,利用所述双目相机拍摄一组数字灰度图像对Il和Ir。
在该步骤,所获取的数字灰度图像对Il和Ir可以直接使用黑白相机或将彩色图像转换为灰度图像。
步骤300,利用标定参数对图像Il和Ir进行畸变矫正和立体校正,边缘检测后得到边缘图像I′l和I′r,将视觉模型修正为平行双目视觉模型。。
在该步骤,利用步骤100的标定参数矫正和校正数字图像Il和Ir,获得校正后的图像I′l和I′r。该步骤可以使用现有技术中的极线校正方法,在本实施例中,利用OpenCV库函数stereoRectify与remap实现图像校正,同时可获得投影矩阵K。步骤400,根据目标的真实形貌建立相应的三维模型,获得目标的投影图像。利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr)。两横坐标之差记为视差d,d=xl-xr。。
图4以举例的方式示出了用于目标识别的实物示例,是一U型孔。
如图2所示,步骤400进一步包括:
步骤401:建立目标物体三维空间模型并利用光学几何原理获得相应的投影图像。
在该步骤,测量目标物体三维尺寸,建立三维模型。实地测量相机安装位置与目标物的空间距离,利用光学几何原理构建目标二维投影图像。认为该投影图像是理想状态下目标物的边缘图像。图5示出了U型孔的三维空间模型。图6为U型孔的二维投影图像。图7为真实场景中U型孔的识别。
步骤402:以投影图像为模板,在图像I′l和I′r中进行归一化相关匹配得到匹配代价矩阵,分别搜索两个匹配代价矩阵的最大值位置,分别记为(xl,yl)和(xr,yr),记两横坐标之差为视差d,d=xl-xr。
在本实施例中,以所述二维投影图像作为模板,使用OpenCV库函数matchTemplate实现搜索匹配。分别记(xl,yl)和(xr,yr)为图像I′l和I′r中目标的像素坐标。记两横坐标之差为视差d,d=xl-xr。
步骤500,在校正后的图像对I′l和I′r中截取包含目标工件的特征区域。利用傅里叶变换实现亚像素级相关匹配,对像素级视差d补偿从而获得高精度的亚像素视差d′。如图3所示,该步骤进一步包括:
步骤501:截取图像I′l和I′r中的特征区域Roil和Roir。旋转Roil180度,分别建立两个尺寸为(2M-1,2N-1)的零矩阵Roi′l和Roi′r,特征区域Roil和Roir位于矩阵Roi′l和Roi′r的左上角。利用快速傅里叶变换转换至频域,得到频谱图像Fl和Fr。
步骤502:将频谱图像Fr中每个频谱成分Fr(km,kn)乘以一个相移因子得到新的频谱成分F′n(km,kn),其中km=0,1,...,M-1和kn=0,1,...,N-1分别为X和Y方向的波数,M和N分别为特征区域在X和Y方向上的尺寸,x0,y0分别为在X和Y方向的偏移量,-1<x0<1,-1<y0<1。
步骤503:使Fl、Fr相乘得到相关矩阵C0的频谱,使Fl、F′r相乘得到相关矩阵C1的频谱,利用傅里叶反变换得到相关矩阵C0、C1,对比两矩阵中最小值的位置(Cx,Cy)。若坐标(Cx,Cy)在矩阵C0中,记视差补偿量为(dx,dy)=(Cx-M+1,Cy-N+1);坐标(Cx,Cy)在矩阵C1中,则记视差补偿量为(dx,dy)=(Cx-x0-M+1,Cy-y0-N+1)。对像素级视差d进行补偿修正,得到亚像素视差d′,d′=d+dx。
步骤600,将相机标定得到的坐标映射矩阵K,乘以齐次坐标向量(xl,yl,d′,1)T,得到目标齐次坐标(X,Y,Z,W)T,转换后得到目标物体的笛卡尔坐标(x,y,z)T=(X/W,Y/W,Z/W)T。
根据本发明的另一实施例,提出了一种合模机的定位系统,该系统包括:
标定单元,用于对双目相机进行标定,获得相机的内外参数。
双目相机标定是指分别获取左右相机的内外参数,通过立体标定对左右两幅图像进行立体校准和对齐,确定两个相机的相对位置关系,即中心距。
根据本发明,标定方法可以采用现有的方法。例如可以参考张政友教授提出的张氏标定法,或可以利用已开发成熟的工具箱。在本实施例中,采用Jean-Yves Bouguet开发的Camera Calibration Toolbox for Matlab工具箱进行标定,并获得相机内外参数。
图像获取单元,用于获取一组数字灰度图像对Il和Ir。
所获取的数字灰度图像对Il和Ir可以直接使用黑白相机或将彩色图像转换为灰度图像。
图像校正单元,利用标定参数对图像Il和Ir进行畸变矫正和立体校正,边缘检测后得到边缘图像I′l和I′r,将视觉模型修正为平行双目视觉模型。。
图像校正单元利用标定参数矫正和校正数字图像Il和Ir,获得校正后的图像I′l和I′r。图像校正单元可以使用现有技术中的极线校正方法,在本实施例中,利用OpenCV库函数stereoRectify与remap实现图像校正,并得到投影矩阵K。
目标投影图像和视差确定单元,用于目标的真实形貌建立相应的三维模型,获得目标的投影图像。利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr)。两横坐标之差记为视差d,d=xl-xr。
目标投影图像和视差确定单元进一步包括:
目标投影图像确定单元,用于建立目标物体三维空间模型并利用光学几何原理获得相应的投影图像。标投影图像确定单元测量目标物体三维尺寸,建立三维模型。实地测量相机安装位置与目标物的空间距离,利用光学几何原理构建目标二维投影图像。认为该投影图像是理想状态下目标物的边缘图像。
视差计算单元,用于以投影图像为模板,在图像I′l和I′r中进行归一化相关匹配得到匹配代价矩阵,分别搜索两个匹配代价矩阵的最大值位置,分别记为(xl,yl)和(xr,yr),记两横坐标之差为视差d,d=xl-xr。
在本实施例中,以所述二维投影图像作为模板,使用OpenCV库函数matchTemplate实现搜索匹配。分别记(xl,yl)和(xr,yr)为图像I′l和I′r中目标的像素坐标。记两横坐标之差为视差d,d=xl-xr。
亚像素视差计算单元,在校正后的图像对I′l和I′r中截取包含目标工件的特征区域。利用傅里叶变换实现亚像素级相关匹配,对像素级视差d补偿从而获得高精度的亚像素视差d′。
具体地,亚像素视差计算单元截取图像I′l和I′r中的特征区域Roil和Roir。旋转Roil180度,分别建立两个尺寸为(2M-1,2N-1)的零矩阵Roi′l和Roi′r,特征区域Roil和Roir位于矩阵Roi′l和Roi′r的左上角。利用快速傅里叶变换转换至频域,得到频谱图像Fl和Fr。
然后,将频谱图像Fr中每个频谱成分Fr(km,kn)乘以一个相移因子得到新的频谱成分F′r(km,kn),其中km=0,1,...,M-1和kn=0,1,...,N-1分别为X和Y方向的波数,M和N分别为特征区域在X和Y方向上的尺寸,x0,y0分别为在X和Y方向的偏移量,-1<x0<1,-1<y0<1。
然后,使Fl、Fr相乘得到相关矩阵C0的频谱,使Fl、F′r相乘得到相关矩阵C1的频谱,利用傅里叶反变换得到相关矩阵C0、C1,对比两矩阵中最小值的位置(Cx,Cy)。若坐标(Cx,Cy)在矩阵C0中,记视差补偿量为(dx,dy)=(Cx-M+1,Cy-N+1);坐标(Cx,Cy)在矩阵C1中,则记视差补偿量为(dx,dy)=(Cx-x0-M+1,Cy-y0-N+1)。对像素级视差d进行补偿修正,得到亚像素视差d′,d′=d+dx。
坐标转换单元,将相机标定得到的坐标映射矩阵K,乘以齐次坐标向量(xl,yl,d′,1)T,得到目标齐次坐标(X,Y,Z,W)T,转换后得到目标物体的笛卡尔坐标(x,y,z)T=(X/W,Y/W,Z/W)T。
根据本发明的再一实施例,提出了一种合模机的定位系统,该系统包括处理器和存储器,存储器上存储有计算机程序,通过处理器执行该计算机程序以实现如上述实施例所描述的合模机的视觉定位方法。
根据本发明的再一实施例,提出了一种存储介质,其上存储有计算机程序,通过处理器执行该计算机程序以实现如上述实施例所描述的合模机的视觉定位方法。以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种合模机的视觉定位方法,其特征在于,该方法包括步骤:
步骤100,对双目相机进行标定,获得相机的内外参数;
步骤200,利用所述双目相机拍摄一组数字灰度图像对Il和Ir;
步骤300,对图像Il和Ir进行校正,并进行边缘检测,得到边缘图像I′l和I′r;
步骤400,获得目标的投影图像,利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr),两横坐标之差记为视差d,d=xl-xr;
步骤500,对像素级视差d补偿从而获得高精度的亚像素视差d′;
步骤600,利用相机标定得到的坐标映射矩阵K以及亚像素视差d′,得到目标物体的笛卡尔坐标;
所述步骤400进一步包括:
步骤401,建立目标物体三维空间模型并利用光学几何原理获得相应的投影图像;
步骤402,以投影图像为模板,在图像I′l和I′r中进行归一化相关匹配得到匹配代价矩阵,分别搜索两个匹配代价矩阵的最大值位置,分别记为(xl,yl)和(xr,yr),记两横坐标之差为视差d,d=xl-xr;
所述步骤500进一步包括:
步骤501,截取图像I′l和I′r中的特征区域Roil和Roir,旋转Roil180度,分别建立两个尺寸为(2M-1,2N-1)的零矩阵Roi′l和Roi′r,特征区域Roil和Roir位于矩阵Roi′l和Roi′r的左上角,利用快速傅里叶变换转换至频域,得到频谱图像Fl和Fr;
步骤502,将频谱图像Fr中每个频谱成分Fr(km,kn)乘以一个相移因子得到新的频谱成分F′r(km,kn),其中km=0,1,...,M-1和kn=0,1,...,N-1分别为X和Y方向的波数,M和N分别为特征区域在X和Y方向上的尺寸,x0,y0分别为在X和Y方向的偏移量,-1<x0<1,-1<y0<1;
步骤503,使Fl、Fr相乘得到相关矩阵C0的频谱,使Fl、Fr′相乘得到相关矩阵C1的频谱,利用傅里叶反变换得到相关矩阵C0、C1,对比两矩阵中最小值的位置(Cx,Cy),若坐标(Cx,Cy)在矩阵C0中,记视差补偿量为(dx,dy)=(Cx-M+1,Cy-N+1),坐标(Cx,Cy)在矩阵C1中,则记视差补偿量为(dx,dy)=(Cx-x0-M+1,Cy-y0-N+1),对像素级视差d进行补偿修正,得到亚像素视差d′,d′=d+dx;
所述步骤600进一步包括:
将相机标定得到的坐标映射矩阵K,乘以齐次坐标向量(xl,yl,d′,1)T,得到目标齐次坐标(X,Y,Z,W)T,转换后得到目标物体的笛卡尔坐标(x,y,z)T=(X/W,Y/W,Z/W)T。
2.一种合模机的视觉定位系统,其特征在于,该系统包括:
标定单元,用于对双目相机进行标定,获得相机的内外参数;
图像获取单元,用于利用所述双目相机拍摄一组数字灰度图像对Il和Ir;
图像校正单元,用于对图像Il和Ir进行校正,边缘检测后得到边缘图像I′l和I′r;
目标投影图像和视差确定单元,用于获得目标的投影图像,利用投影图像匹配识别场景中的目标,得到图像I′l和I′r中目标的像素坐标,分别记为(xl,yl)和(xr,yr),两横坐标之差记为视差d,d=xl-xr;
亚像素视差计算单元,用于对像素级视差d补偿从而获得高精度的亚像素视差d′;
坐标转换单元,用于将相机标定得到的坐标映射矩阵K以及亚像素视差d′,得到目标物体的笛卡尔坐标;
所述目标投影图像和视差确定单元进一步包括:
目标投影图像确定单元,用于建立目标物体三维空间模型并利用光学几何原理获得相应的投影图像;
视差计算单元,用于以投影图像为模板,在图像I′l和I′r中进行归一化相关匹配得到匹配代价矩阵,分别搜索两个匹配代价矩阵的最大值位置,分别记为(xl,yl)和(xr,yr),记两横坐标之差为视差d,d=xl-xr;
所述亚像素视差计算单元进一步用于截取图像I′l和I′r中的特征区域Roil和Roir,旋转Roil180度,分别建立两个尺寸为(2M-1,2N-1)的零矩阵Roi′l和Roi′r,特征区域Roil和Roir位于矩阵Roi′l和Roi′r的左上角,利用快速傅里叶变换转换至频域,得到频谱图像Fl和Fr;将频谱图像Fr中每个频谱成份Fr(km,kn)乘以一个相移因子得到新的频谱成份F′r(km,kn),其中km=0,1,...,M-1和kn=0,1,...,N-1分别为X和Y方向的波数,M和N分别为特征区域在X和Y方向上的尺寸,x0,y0分别为在X和Y方向的偏移量,-1<x0<1,-1<y0<1;使Fl、Fr相乘得到相关矩阵C0的频谱,使Fl、F′r相乘得到相关矩阵C1的频谱,利用傅里叶反变换得到相关矩阵C0、C1,对比两矩阵中最大值的位置(Cx,Cy),若坐标(Cx,Cy)在矩阵C0中,记视差补偿量为(dx,dy)=(Cx-M+1,Cy-N+1),坐标(Cx,Cy)在矩阵C1中,则记视差补偿量为(dx,dy)=(Cx-x0-M+1,Cy-y0-N+1),对像素级视差d进行补偿修正,得到亚像素视差d′,d′=d+dx;
所述坐标转换单元进一步将相机标定得到的坐标映射矩阵K,乘以齐次坐标向量(xl,yl,d′,1)T,得到目标齐次坐标(X,Y,Z,W)T,转换后得到目标物体的笛卡尔坐标(x,y,z)T=(X/W,Y/W,Z/W)T。
3.一种合模机的视觉定位系统,该系统包括处理器和存储器,存储器上存储有计算机程序,通过处理器执行如权利要求1所述的合模机的视觉定位方法。
4.一种存储介质,其特征在于,其上存储有计算机程序,通过处理器执行该计算机程序以实现如权利要求1所述的合模机的视觉定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710947622.9A CN107729893B (zh) | 2017-10-12 | 2017-10-12 | 一种合模机的视觉定位方法、系统和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710947622.9A CN107729893B (zh) | 2017-10-12 | 2017-10-12 | 一种合模机的视觉定位方法、系统和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107729893A CN107729893A (zh) | 2018-02-23 |
CN107729893B true CN107729893B (zh) | 2020-06-30 |
Family
ID=61210859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710947622.9A Active CN107729893B (zh) | 2017-10-12 | 2017-10-12 | 一种合模机的视觉定位方法、系统和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107729893B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109300157B (zh) * | 2018-09-14 | 2021-08-24 | 威准(厦门)自动化科技有限公司 | 一种视觉机器的机械位置确定方法、终端设备及存储介质 |
CN109341537A (zh) * | 2018-09-27 | 2019-02-15 | 北京伟景智能科技有限公司 | 基于双目视觉的尺寸测量方法和装置 |
CN111199546B (zh) * | 2018-11-20 | 2023-01-17 | 唯思科技(北京)有限公司 | 一种基于角点检测和灰度投影的安检图像截取方法 |
US11389965B2 (en) | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
CN111783529B (zh) * | 2019-07-26 | 2021-07-09 | 牧今科技 | 基于边缘和多维拐角的检测后改善 |
CN111415314B (zh) * | 2020-04-14 | 2023-06-20 | 北京神工科技有限公司 | 一种基于亚像素级视觉定位技术的分辨率修正方法及装置 |
CN112347973A (zh) * | 2020-11-19 | 2021-02-09 | 武汉光庭信息技术股份有限公司 | 一种基于双目高速相机的前车状态估算方法及系统 |
CN112700502B (zh) * | 2020-12-29 | 2023-08-01 | 西安电子科技大学 | 双目相机系统和双目相机空间标定方法 |
CN112748132A (zh) * | 2020-12-29 | 2021-05-04 | 四川赛康智能科技股份有限公司 | 一种铝护套在x射线检测电缆成像中的干扰去除方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN102113013A (zh) * | 2009-07-22 | 2011-06-29 | 松下电器产业株式会社 | 视差检测装置、测距装置及视差检测方法 |
CN104933718A (zh) * | 2015-06-23 | 2015-09-23 | 广东省自动化研究所 | 一种基于双目视觉的物理坐标定位方法 |
CN107192331A (zh) * | 2017-06-20 | 2017-09-22 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于双目视觉的工件抓取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10063840B2 (en) * | 2014-12-31 | 2018-08-28 | Intel Corporation | Method and system of sub pixel accuracy 3D measurement using multiple images |
-
2017
- 2017-10-12 CN CN201710947622.9A patent/CN107729893B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102113013A (zh) * | 2009-07-22 | 2011-06-29 | 松下电器产业株式会社 | 视差检测装置、测距装置及视差检测方法 |
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN104933718A (zh) * | 2015-06-23 | 2015-09-23 | 广东省自动化研究所 | 一种基于双目视觉的物理坐标定位方法 |
CN107192331A (zh) * | 2017-06-20 | 2017-09-22 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于双目视觉的工件抓取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107729893A (zh) | 2018-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107729893B (zh) | 一种合模机的视觉定位方法、系统和存储介质 | |
US10529076B2 (en) | Image processing apparatus and image processing method | |
US11763518B2 (en) | Method and system for generating a three-dimensional image of an object | |
EP2194725B1 (en) | Method and apparatus for correcting a depth image | |
Lébraly et al. | Flexible extrinsic calibration of non-overlapping cameras using a planar mirror: Application to vision-based robotics | |
CN107516322B (zh) | 一种基于对数极空间的图像物体大小和旋转估计计算方法 | |
US9025862B2 (en) | Range image pixel matching method | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN112184811B (zh) | 单目空间结构光系统结构校准方法及装置 | |
CN113034612B (zh) | 一种标定装置、方法及深度相机 | |
CN108362205B (zh) | 基于条纹投影的空间测距方法 | |
WO2022088881A1 (en) | Method, apparatus and system for generating a three-dimensional model of a scene | |
CN112164117A (zh) | 一种基于Kinect相机的V-SLAM位姿估算方法 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
Jung et al. | A novel 2.5 D pattern for extrinsic calibration of tof and camera fusion system | |
US10134136B2 (en) | Image processing apparatus and image processing method | |
CN111462246A (zh) | 一种结构光测量系统的设备标定方法 | |
TWI571099B (zh) | 深度估測裝置及方法 | |
CN112419427A (zh) | 用于提高飞行时间相机精度的方法 | |
CN116704048B (zh) | 一种双光配准方法 | |
CN112819935A (zh) | 基于双目立体视觉实现工件三维重建的方法 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
Vaida et al. | Automatic extrinsic calibration of LIDAR and monocular camera images | |
CN113674353B (zh) | 一种空间非合作目标精确位姿测量方法 | |
CN115205346A (zh) | 事件相机到帧相机的逐像素配准的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |