CN111652069B - 移动机器人的目标识别与定位方法 - Google Patents

移动机器人的目标识别与定位方法 Download PDF

Info

Publication number
CN111652069B
CN111652069B CN202010371710.0A CN202010371710A CN111652069B CN 111652069 B CN111652069 B CN 111652069B CN 202010371710 A CN202010371710 A CN 202010371710A CN 111652069 B CN111652069 B CN 111652069B
Authority
CN
China
Prior art keywords
image
camera
mobile robot
target
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010371710.0A
Other languages
English (en)
Other versions
CN111652069A (zh
Inventor
邓三鹏
张香玲
权利红
薛强
王振
冯玉飞
赵丹丹
张睿
王帅
韩浩
刘培凯
周旺发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Bo Wan Robot Co ltd
Hubei Bono Robot Co ltd
Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd
Original Assignee
Anhui Bo Wan Robot Co ltd
Hubei Bono Robot Co ltd
Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Bo Wan Robot Co ltd, Hubei Bono Robot Co ltd, Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd filed Critical Anhui Bo Wan Robot Co ltd
Priority to CN202010371710.0A priority Critical patent/CN111652069B/zh
Publication of CN111652069A publication Critical patent/CN111652069A/zh
Application granted granted Critical
Publication of CN111652069B publication Critical patent/CN111652069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤。其有益效果是:改善了机器人对目标定位不准,时效性差的问题,提高了计算效率及定位精度,实时性好。

Description

移动机器人的目标识别与定位方法
技术领域
本发明涉及机器人领域,特别是一种移动机器人的目标识别与定位方法。
背景技术
近年来视觉传感器广泛应用在移动机器人中,单目视觉具有安装空间小,时效性高的优点的特点,因此基于单目视觉的目标定位算法逐渐成为研究的热点。现有的视觉传感技术,针对射频识别室内定位的VIRE算法对边界处目标定位精度低,引入边界虚拟参考标签,提出了改进的CVIRE算法,虽然该系统定位精度较高,但系统设计复杂,导致计算量较大,时效性差。同时现有的视觉传感技术将单目测距应用到即时定位与地图构建中,降低了系统运行消耗,但测量范围窄、视野较小。
发明内容
本发明的目的是为了解决上述问题,设计了一种移动机器人的目标识别与定位方法。具体设计方案为:
一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤中对图像进行采集识别处理,所述计算步骤中对处理后的图像进行计算以确定目标位置,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波,以降低图像噪声及图像畸变;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算;
所述中值滤波属于非线性去噪,能在保留信号边缘的同时,去除大部分的斑点、椒盐噪声,具体的,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板,i和j分别为该模板的行列序列号。
边缘检测主要是用图像强度导数来计算梯度幅值,方便目标的识别定位,具体的,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度,T为转置,为f对x的偏导数,/>为f对y的偏导数。
随机霍夫变换方法首先在边缘上随机寻找三个不共线的点,然后通过映射关系判断是否可以确定为圆;最后通过累加法检测是否为圆,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
其中,空间坐标系为OW-XWYWZW,相机坐标系为OC-XCYCZC,图像坐标系为O-XY,像素坐标系为uv。
fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵。
球心为C,OCA与OCB为相切于球的光线,CA⊥OCA,CB⊥OCB,OE为由图像测得的球在图像中的半径,AC为球的实际半径,为光线OCA与光轴ZC的夹角。
在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
同时:
摄像机与小球的距离COC的大小为:
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高。为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上。当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
球心与光轴在图像上的大小d:
以及机器人调整距离D:
其中,H为图像的高度,2β为摄像机的垂直视野角。
所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
YW=h·tan(π/2-θ-γ)。
单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
通过本发明的上述技术方案得到的移动机器人的目标识别与定位方法,其有益效果是:
改善了机器人对目标定位不准,时效性差的问题,提高了计算效率及定位精度,实时性好。
附图说明
图1是本发明所述图像采集步骤中采集到的图像;
图2是本发明所述灰度化中通过灰度处理后的图像;
图3是本发明所述边缘检测后的图像;
图4是本发明所述霍夫变换后的图像;
图5是单目视觉模型示意图;
图6是单目视觉投影图;
图7是定位算法逻辑流程图;
图8为移动机器人的四以图;。
具体实施方式
下面结合附图对本发明进行具体描述。
一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤中对图像进行采集识别处理,所述计算步骤中对处理后的图像进行计算以确定目标位置,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波,以降低图像噪声及图像畸变;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算;
所述中值滤波属于非线性去噪,能在保留信号边缘的同时,去除大部分的斑点、椒盐噪声,具体的,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板,i和j分别为该模板的行列序列号。
边缘检测主要是用图像强度导数来计算梯度幅值,方便目标的识别定位,具体的,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度,T为转置,为f对x的偏导数,/>为f对y的偏导数。
随机霍夫变换方法首先在边缘上随机寻找三个不共线的点,然后通过映射关系判断是否可以确定为圆;最后通过累加法检测是否为圆,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
其中,空间坐标系为OW-XWYWZW,相机坐标系为OC-XCYCZC,图像坐标系为O-XY,像素坐标系为uv。
fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵。
球心为C,OCA与OCB为相切于球的光线,CA⊥OCA,CB⊥OCB,OE为由图像测得的球在图像中的半径,AC为球的实际半径,为光线OCA与光轴ZC的夹角。
在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
同时:
摄像机与小球的距离COC的大小为:
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高。为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上。当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
球心与光轴在图像上的大小d:
以及机器人调整距离D:
其中,H为图像的高度,2β为摄像机的垂直视野角。
所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
YW=h·tan(π/2-θ-γ)。
单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
实施例1
图7是定位算法逻辑流程图,如图7所示,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上,再进行定位计算,能有效地消除畸变引起的定位误差,提高定位精度。
实施例2
搭建如图8所示的三轮全向移动机器人平台,控制器使用美国NI公司生产的MyRIO-1900以及LabVIEW图形化程序编译平台。视觉系统采用的摄像头为罗技c270,像素为500万,最大分辨率为720p/30fps,在室内进行实验,实验光照为LED灯,地板颜色为白色,实验所用的球为标准高尔夫球,球的颜色为蓝色和红色。
实施例3
在实施例2的基础上,使用文中所用识别定位算法,在上述实验环境中进行了200次实验并进行分析。经过200次实验验证得知畸变纠正前的误差率在2%以下,畸变纠正后的误差率在0.6%以下。表1和表2为随机给出的11次实验样例,对纠正畸变前后的定位结果进行比对,表1为畸变纠正前的测距算法进行实验所得的实验数据,表2为畸变纠正后的测距算法进行实验所得的实验数据。
表1畸变纠正前的实验样例数据比对表
表2畸变纠正后的实验样例数据比对表
对比例:
将表1与表2进行对比,
对比结果表明,测量数据与实际数据存在一定的误差,从表1可以看出,纠正畸变前误差较大,目标距离与误差率呈线性关系,且距离越远,误差越大,说明摄像头光轴与被测目标平面不垂直,因光轴发生了倾斜造成了畸变误差,距离越远,光轴倾斜越大。表2为纠正后的数据,计算光轴偏角及偏移距离,通过移动机器人位姿变换来纠正光轴倾斜造成的误差,误差率由原来的2%降低到了0.6%,定位精度有明显的提高。此外,经过200次实验发现:
a)当移动机器人与目标的距离在1米到2米范围内时,小球图像清晰,识别精度高,定位误差小,误差率在0.3%以下;
b)当距离小于1米时,图像存在失真现象,误差较大,误差率在0.6%以下;
c)当距离大于2米时,小球图像过小,边缘检测难度大,识别准确度差,误差大,误差率在0.6%以下。
改善了机器人对目标定位不准,时效性差的问题。通过Sobel边缘检测及霍夫变换检测圆形目标,建立单目视觉模型进行定位计算,提出了纠正光轴倾斜的算法,并通过机器人位姿调整简化计算过程,提高了计算效率及定位精度。实验结果表明,该算法实时性好、准确度高,经过畸变纠正算法计算,移动机器人对小球的定位误差率由原来的2%减小到0.6%。从表2纠正之后的数据来看,测量结果该算法相对误差小,可靠性高。
上述技术方案仅体现了本发明技术方案的优选技术方案,本技术领域的技术人员对其中某些部分所可能做出的一些变动均体现了本发明的原理,属于本发明的保护范围之内。

Claims (8)

1.一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算。
2.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板。
3.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度。
4.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
5.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
6.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
同时:
摄像机与小球的距离COC的大小为:
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高,为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上,当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
球心与光轴在图像上的大小d:
以及机器人调整距离D:
7.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
YW=h·tan(π/2-θ-γ)。
8.根据权利要求5中所述的移动机器人的目标识别与定位方法,其特征在于,单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
CN202010371710.0A 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法 Active CN111652069B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010371710.0A CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010371710.0A CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Publications (2)

Publication Number Publication Date
CN111652069A CN111652069A (zh) 2020-09-11
CN111652069B true CN111652069B (zh) 2024-02-09

Family

ID=72346574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010371710.0A Active CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Country Status (1)

Country Link
CN (1) CN111652069B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114971948A (zh) * 2021-02-20 2022-08-30 广东博智林机器人有限公司 位置调整方法、装置、设备及介质
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人
CN115302541A (zh) * 2022-07-11 2022-11-08 芜湖赛宝机器人产业技术研究院有限公司 一种机器人抓取精度测量装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310622A (ja) * 2007-06-15 2008-12-25 Mitsubishi Heavy Ind Ltd 車両番号認識装置、及び車両番号認識方法
CN102252661A (zh) * 2011-04-02 2011-11-23 华南理工大学 一种应用于机器视觉的球状体三维定位方法
CN104050668A (zh) * 2014-06-17 2014-09-17 安徽农业大学 一种基于双目视觉技术的绿茶嫩芽的目标识别方法
JP2016219502A (ja) * 2015-05-15 2016-12-22 キヤノンマシナリー株式会社 画像認識装置および画像認識方法
CN106504262A (zh) * 2016-10-21 2017-03-15 泉州装备制造研究所 一种多特征融合的小瓷砖智能定位方法
CN107239748A (zh) * 2017-05-16 2017-10-10 南京邮电大学 基于棋盘格标定技术的机器人目标识别与定位方法
WO2018042501A1 (ja) * 2016-08-29 2018-03-08 株式会社三次元メディア 3次元物体認識装置
CN109308447A (zh) * 2018-07-29 2019-02-05 国网上海市电力公司 在电力远程监控中自动提取设备运行参数和运行状态的方法
CN111047643A (zh) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 单目测距装置
CN111062940A (zh) * 2019-12-31 2020-04-24 西南交通大学 一种基于机器视觉的螺钉定位与识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5214811B2 (ja) * 2009-11-13 2013-06-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310622A (ja) * 2007-06-15 2008-12-25 Mitsubishi Heavy Ind Ltd 車両番号認識装置、及び車両番号認識方法
CN102252661A (zh) * 2011-04-02 2011-11-23 华南理工大学 一种应用于机器视觉的球状体三维定位方法
CN104050668A (zh) * 2014-06-17 2014-09-17 安徽农业大学 一种基于双目视觉技术的绿茶嫩芽的目标识别方法
JP2016219502A (ja) * 2015-05-15 2016-12-22 キヤノンマシナリー株式会社 画像認識装置および画像認識方法
WO2018042501A1 (ja) * 2016-08-29 2018-03-08 株式会社三次元メディア 3次元物体認識装置
CN106504262A (zh) * 2016-10-21 2017-03-15 泉州装备制造研究所 一种多特征融合的小瓷砖智能定位方法
CN107239748A (zh) * 2017-05-16 2017-10-10 南京邮电大学 基于棋盘格标定技术的机器人目标识别与定位方法
CN109308447A (zh) * 2018-07-29 2019-02-05 国网上海市电力公司 在电力远程监控中自动提取设备运行参数和运行状态的方法
CN111047643A (zh) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 单目测距装置
CN111062940A (zh) * 2019-12-31 2020-04-24 西南交通大学 一种基于机器视觉的螺钉定位与识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于单目显微视觉的微球姿态测量方法;李迎等;自动化学报;第45卷(第7期);1281-1289 *

Also Published As

Publication number Publication date
CN111652069A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
CN111652069B (zh) 移动机器人的目标识别与定位方法
US20220198712A1 (en) Method for adaptively detecting chessboard sub-pixel level corner points
CN111474184B (zh) 基于工业机器视觉的aoi字符缺陷检测方法和装置
CN110332887B (zh) 一种基于特征光标点的单目视觉位姿测量系统及方法
CN107203973B (zh) 一种三维激光扫描系统中线激光中心的亚像素定位方法
CN110189314B (zh) 基于机器视觉的汽车仪表盘图像定位方法
CN105957041B (zh) 一种广角镜头红外图像畸变校正方法
CN105488501B (zh) 基于旋转投影的车牌倾斜矫正的方法
CN106529587B (zh) 基于目标点识别的视觉航向识别方法
CN104899609B (zh) 一种基于图像配准的机械式表计识别方法
CN105261022B (zh) 一种基于外轮廓的pcb板卡匹配方法及装置
CN107561087A (zh) 一种基于机器视觉的鼠标logo定位及缺陷检测方法
CN108007388A (zh) 一种基于机器视觉的转盘角度高精度在线测量方法
CN113884002B (zh) 基于二三维信息融合的受电弓滑板上表面检测系统及方法
CN107239743B (zh) 一种基于投影法的刻度线读数自动检测方法
CN112304954A (zh) 一种基于线激光扫描及机器视觉的零件表面缺陷检测方法
CN111598952A (zh) 一种多尺度合作靶标设计与在线检测识别方法及系统
CN108288065A (zh) 一种基于图像分析的四轮定位仪检测方法
CN104966302B (zh) 一种任意角度激光十字的检测定位方法
CN115841517A (zh) 一种基于dic双圆交比的结构光标定方法和装置
CN111881878B (zh) 一种环视复用的车道线识别方法
CN115205825B (zh) 基于改进yolov5的行车视频序列图像检测识别交通标志方法
CN116433731A (zh) 一种基于广角相机模型的图像特征配准方法及系统
CN116403085A (zh) 一种基于多任务的变电站多指针仪表识别方法及装置
CN111091086B (zh) 一种利用机器视觉技术提高物流面单特征信息识别率的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant