CN111652069A - 移动机器人的目标识别与定位方法 - Google Patents

移动机器人的目标识别与定位方法 Download PDF

Info

Publication number
CN111652069A
CN111652069A CN202010371710.0A CN202010371710A CN111652069A CN 111652069 A CN111652069 A CN 111652069A CN 202010371710 A CN202010371710 A CN 202010371710A CN 111652069 A CN111652069 A CN 111652069A
Authority
CN
China
Prior art keywords
image
camera
positioning
distortion
optical axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010371710.0A
Other languages
English (en)
Other versions
CN111652069B (zh
Inventor
邓三鹏
张香玲
权利红
薛强
王振
冯玉飞
赵丹丹
张睿
王帅
韩浩
刘培凯
周旺发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Bo Wan Robot Co ltd
Hubei Bono Robot Co ltd
Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd
Original Assignee
Anhui Bo Wan Robot Co ltd
Hubei Bono Robot Co ltd
Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Bo Wan Robot Co ltd, Hubei Bono Robot Co ltd, Tianjin Bonuo Intelligent Creative Robotics Technology Co ltd filed Critical Anhui Bo Wan Robot Co ltd
Priority to CN202010371710.0A priority Critical patent/CN111652069B/zh
Publication of CN111652069A publication Critical patent/CN111652069A/zh
Application granted granted Critical
Publication of CN111652069B publication Critical patent/CN111652069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤。其有益效果是:改善了机器人对目标定位不准,时效性差的问题,提高了计算效率及定位精度,实时性好。

Description

移动机器人的目标识别与定位方法
技术领域
本发明涉及机器人领域,特别是一种移动机器人的目标识别与定位方法。
背景技术
近年来视觉传感器广泛应用在移动机器人中,单目视觉具有安装空间小,时效性高的优点的特点,因此基于单目视觉的目标定位算法逐渐成为研究的热点。现有的视觉传感技术,针对射频识别室内定位的VIRE算法对边界处目标定位精度低,引入边界虚拟参考标签,提出了改进的CVIRE算法,虽然该系统定位精度较高,但系统设计复杂,导致计算量较大,时效性差。同时现有的视觉传感技术将单目测距应用到即时定位与地图构建中,降低了系统运行消耗,但测量范围窄、视野较小。
发明内容
本发明的目的是为了解决上述问题,设计了一种移动机器人的目标识别与定位方法。具体设计方案为:
一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤中对图像进行采集识别处理,所述计算步骤中对处理后的图像进行计算以确定目标位置,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波,以降低图像噪声及图像畸变;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算;
所述中值滤波属于非线性去噪,能在保留信号边缘的同时,去除大部分的斑点、椒盐噪声,具体的,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板,i和j分别为该模板的行列序列号。
边缘检测主要是用图像强度导数来计算梯度幅值,方便目标的识别定位,具体的,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
Figure BDA0002478372390000021
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度,T为转置,
Figure BDA0002478372390000022
为f对x的偏导数,
Figure BDA0002478372390000023
为f对y的偏导数。
随机霍夫变换方法首先在边缘上随机寻找三个不共线的点,然后通过映射关系判断是否可以确定为圆;最后通过累加法检测是否为圆,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
Figure BDA0002478372390000031
其中,空间坐标系为OW-XWYWZW,相机坐标系为OC-XCYCZC,图像坐标系为O-XY,像素坐标系为uv。
fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵。
球心为C,OCA与OCB为相切于球的光线,CA⊥OCA,CB⊥OCB,OE为由图像测得的球在图像中的半径,AC为球的实际半径,
Figure BDA0002478372390000032
为光线OCA与光轴ZC的夹角。
在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
Figure BDA0002478372390000033
同时:
Figure BDA0002478372390000034
摄像机与小球的距离COC的大小为:
Figure BDA0002478372390000035
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高。为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上。当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
Figure BDA0002478372390000041
球心与光轴在图像上的大小d:
Figure BDA0002478372390000042
以及机器人调整距离D:
Figure BDA0002478372390000043
其中,H为图像的高度,2β为摄像机的垂直视野角。
所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
Figure BDA0002478372390000044
Figure BDA0002478372390000045
YW=h·tan(π/2-θ-γ)。
单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
Figure BDA0002478372390000046
通过本发明的上述技术方案得到的移动机器人的目标识别与定位方法,其有益效果是:
改善了机器人对目标定位不准,时效性差的问题,提高了计算效率及定位精度,实时性好。
附图说明
图1是本发明所述图像采集步骤中采集到的图像;
图2是本发明所述灰度化中通过灰度处理后的图像;
图3是本发明所述边缘检测后的图像;
图4是本发明所述霍夫变换后的图像;
图5是单目视觉模型示意图;
图6是单目视觉投影图;
图7是定位算法逻辑流程图;
图8为移动机器人的四以图;。
具体实施方式
下面结合附图对本发明进行具体描述。
一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,所述识别步骤中对图像进行采集识别处理,所述计算步骤中对处理后的图像进行计算以确定目标位置,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波,以降低图像噪声及图像畸变;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算;
所述中值滤波属于非线性去噪,能在保留信号边缘的同时,去除大部分的斑点、椒盐噪声,具体的,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板,i和j分别为该模板的行列序列号。
边缘检测主要是用图像强度导数来计算梯度幅值,方便目标的识别定位,具体的,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
Figure BDA0002478372390000061
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度,T为转置,
Figure BDA0002478372390000062
为f对x的偏导数,
Figure BDA0002478372390000063
为f对y的偏导数。
随机霍夫变换方法首先在边缘上随机寻找三个不共线的点,然后通过映射关系判断是否可以确定为圆;最后通过累加法检测是否为圆,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
Figure BDA0002478372390000071
其中,空间坐标系为OW-XWYWZW,相机坐标系为OC-XCYCZC,图像坐标系为O-XY,像素坐标系为uv。
fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵。
球心为C,OCA与OCB为相切于球的光线,CA⊥OCA,CB⊥OCB,OE为由图像测得的球在图像中的半径,AC为球的实际半径,
Figure BDA0002478372390000075
为光线OCA与光轴ZC的夹角。
在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
Figure BDA0002478372390000072
同时:
Figure BDA0002478372390000073
摄像机与小球的距离COC的大小为:
Figure BDA0002478372390000074
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高。为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上。当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
Figure BDA0002478372390000081
球心与光轴在图像上的大小d:
Figure BDA0002478372390000082
以及机器人调整距离D:
Figure BDA0002478372390000083
其中,H为图像的高度,2β为摄像机的垂直视野角。
所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
Figure BDA0002478372390000084
Figure BDA0002478372390000085
YW=h·tan(π/2-θ-γ)。
单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
Figure BDA0002478372390000086
实施例1
图7是定位算法逻辑流程图,如图7所示,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上,再进行定位计算,能有效地消除畸变引起的定位误差,提高定位精度。
实施例2
搭建如图8所示的三轮全向移动机器人平台,控制器使用美国NI公司生产的MyRIO-1900以及LabVIEW图形化程序编译平台。视觉系统采用的摄像头为罗技c270,像素为500万,最大分辨率为720p/30fps,在室内进行实验,实验光照为LED灯,地板颜色为白色,实验所用的球为标准高尔夫球,球的颜色为蓝色和红色。
实施例3
在实施例2的基础上,使用文中所用识别定位算法,在上述实验环境中进行了200次实验并进行分析。经过200次实验验证得知畸变纠正前的误差率在2%以下,畸变纠正后的误差率在0.6%以下。表1和表2为随机给出的11次实验样例,对纠正畸变前后的定位结果进行比对,表1为畸变纠正前的测距算法进行实验所得的实验数据,表2为畸变纠正后的测距算法进行实验所得的实验数据。
Figure BDA0002478372390000091
表1畸变纠正前的实验样例数据比对表
Figure BDA0002478372390000101
表2畸变纠正后的实验样例数据比对表
对比例:
将表1与表2进行对比,
对比结果表明,测量数据与实际数据存在一定的误差,从表1可以看出,纠正畸变前误差较大,目标距离与误差率呈线性关系,且距离越远,误差越大,说明摄像头光轴与被测目标平面不垂直,因光轴发生了倾斜造成了畸变误差,距离越远,光轴倾斜越大。表2为纠正后的数据,计算光轴偏角及偏移距离,通过移动机器人位姿变换来纠正光轴倾斜造成的误差,误差率由原来的2%降低到了0.6%,定位精度有明显的提高。此外,经过200次实验发现:
a)当移动机器人与目标的距离在1米到2米范围内时,小球图像清晰,识别精度高,定位误差小,误差率在0.3%以下;
b)当距离小于1米时,图像存在失真现象,误差较大,误差率在0.6%以下;
c)当距离大于2米时,小球图像过小,边缘检测难度大,识别准确度差,误差大,误差率在0.6%以下。
改善了机器人对目标定位不准,时效性差的问题。通过Sobel边缘检测及霍夫变换检测圆形目标,建立单目视觉模型进行定位计算,提出了纠正光轴倾斜的算法,并通过机器人位姿调整简化计算过程,提高了计算效率及定位精度。实验结果表明,该算法实时性好、准确度高,经过畸变纠正算法计算,移动机器人对小球的定位误差率由原来的2%减小到0.6%。从表2纠正之后的数据来看,测量结果该算法相对误差小,可靠性高。
上述技术方案仅体现了本发明技术方案的优选技术方案,本技术领域的技术人员对其中某些部分所可能做出的一些变动均体现了本发明的原理,属于本发明的保护范围之内。

Claims (8)

1.一种移动机器人的目标识别与定位方法,包括识别步骤、定位步骤,其特征在于,所述识别步骤的子步骤包括图像采集步骤、滤波步骤、边缘检测步骤、特征提取步骤,所述定位步骤的子步骤包括成像建模步骤、畸变纠正步骤、重新定位步骤、计算步骤,
上述所述识别步骤的子步骤、定位步骤的子步骤依次进行,其中:
所述图像采集步骤中,首先使用单目摄像头采集图像;
所述滤波步骤中,对图像进行灰度化处理、中值滤波;
所述边缘检测步骤中,对滤波后的图像进行Sobel算子边缘检测;
所述特征提取步骤中,利用霍夫变换提取圆形边缘特征,检测圆形输出圆心坐标及半径信息,并在图像中绘出圆形边缘轮廓;
所述成像建模步骤中,根据单目视觉测量原理,在不考虑相机畸变的情况下,建立单目视觉模型;
所述畸变纠正步骤中,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上;
所述重新定位步骤中,机器人在运动过程中,摄像机以每秒15帧的速度拍摄目标,移动机器人根据计算结果不断调整角度及距离,直到球心在光轴上;
所述计算步骤中利用单目视觉模型进行计算。
2.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述中值滤波中,按大小生成相应的数据序列,将滑动模板内的像素排序,其公式为:
f(x,y)=med{F(x-i,y-j),(i,j∈W)}
其中,F(x,y)为原始采集图像函数,f(x,y)为中值滤波处理后的图像函数,W为二维3*3滑动模板。
3.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述边缘检测步骤中,Sobel算子边缘检测的公式为:
Figure FDA0002478372380000021
其中,Δf(x,y)为图像上一点的梯度,Gx为水平方向梯度,Gy为垂直方向梯度。
4.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述特征提取步骤中,圆心坐标公式为:
(x-a)2+(y-b)2=r2
其中,a为圆心x轴坐标,b为圆心y轴坐标,r为圆的半径。
5.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,单目视觉模型中,空间中一点转化成像素坐标系的映射关系公式为:
Figure FDA0002478372380000022
6.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,在不考虑畸变的情况下,
小球在图像坐标系下的半径OE大小为:
Figure FDA0002478372380000023
同时:
Figure FDA0002478372380000024
摄像机与小球的距离COC的大小为:
Figure FDA0002478372380000025
最常见的畸变类型是桶形失真和枕形失真,且越靠近光轴,畸变越小,测量精度越高。为减小图像畸变导致的测距误差,根据图像处理得到的目标球的当前位置信息,调整机器人的位姿,使摄像头光轴与球心在同一条直线上。当球心不在摄像机光轴上时,通过已有数据可以推导:
机器人转角度ψ:
Figure FDA0002478372380000031
球心与光轴在图像上的大小d:
Figure FDA0002478372380000032
以及机器人调整距离D:
Figure FDA0002478372380000033
7.根据权利要求1中所述的移动机器人的目标识别与定位方法,其特征在于,所述计算步骤中,
摄像头安装在移动机器人上,距离地面高度为h,θ为俯仰角,2α为摄像机的水平视野角,2β为摄像机的垂直视野角,γ为光轴与球心C的夹角;fx=f/dx,fy=f/dy,f为摄像机的焦距,dx,dy表示单位像素在像平面中分别对应的x轴,y轴上的大小;(u0,v0)为光轴在图像坐标系中对应的坐标点;R3×3,T3×1分别为世界坐标系向相机坐标系转换的旋转矩阵和平移矩阵,球的实际半径为R,可得出球在像素坐标系下的半径r及球心坐标,
单目视觉定位公式为:
Figure FDA0002478372380000034
Figure FDA0002478372380000035
YW=h·tan(π/2-θ-γ)。
8.根据权利要求5中所述的移动机器人的目标识别与定位方法,其特征在于,单目视觉模型中,通过相机标定建立图像像素坐标和空间位置坐标之间的对应关系,利用张氏标定法求解单目相机内参矩阵M公式为:
Figure FDA0002478372380000041
CN202010371710.0A 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法 Active CN111652069B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010371710.0A CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010371710.0A CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Publications (2)

Publication Number Publication Date
CN111652069A true CN111652069A (zh) 2020-09-11
CN111652069B CN111652069B (zh) 2024-02-09

Family

ID=72346574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010371710.0A Active CN111652069B (zh) 2020-05-06 2020-05-06 移动机器人的目标识别与定位方法

Country Status (1)

Country Link
CN (1) CN111652069B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人
CN114971948A (zh) * 2021-02-20 2022-08-30 广东博智林机器人有限公司 位置调整方法、装置、设备及介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310622A (ja) * 2007-06-15 2008-12-25 Mitsubishi Heavy Ind Ltd 車両番号認識装置、及び車両番号認識方法
CN102252661A (zh) * 2011-04-02 2011-11-23 华南理工大学 一种应用于机器视觉的球状体三维定位方法
US20120229628A1 (en) * 2009-11-13 2012-09-13 Eiji Ishiyama Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
CN104050668A (zh) * 2014-06-17 2014-09-17 安徽农业大学 一种基于双目视觉技术的绿茶嫩芽的目标识别方法
JP2016219502A (ja) * 2015-05-15 2016-12-22 キヤノンマシナリー株式会社 画像認識装置および画像認識方法
CN106504262A (zh) * 2016-10-21 2017-03-15 泉州装备制造研究所 一种多特征融合的小瓷砖智能定位方法
CN107239748A (zh) * 2017-05-16 2017-10-10 南京邮电大学 基于棋盘格标定技术的机器人目标识别与定位方法
WO2018042501A1 (ja) * 2016-08-29 2018-03-08 株式会社三次元メディア 3次元物体認識装置
CN109308447A (zh) * 2018-07-29 2019-02-05 国网上海市电力公司 在电力远程监控中自动提取设备运行参数和运行状态的方法
CN111047643A (zh) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 单目测距装置
CN111062940A (zh) * 2019-12-31 2020-04-24 西南交通大学 一种基于机器视觉的螺钉定位与识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310622A (ja) * 2007-06-15 2008-12-25 Mitsubishi Heavy Ind Ltd 車両番号認識装置、及び車両番号認識方法
US20120229628A1 (en) * 2009-11-13 2012-09-13 Eiji Ishiyama Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
CN102252661A (zh) * 2011-04-02 2011-11-23 华南理工大学 一种应用于机器视觉的球状体三维定位方法
CN104050668A (zh) * 2014-06-17 2014-09-17 安徽农业大学 一种基于双目视觉技术的绿茶嫩芽的目标识别方法
JP2016219502A (ja) * 2015-05-15 2016-12-22 キヤノンマシナリー株式会社 画像認識装置および画像認識方法
WO2018042501A1 (ja) * 2016-08-29 2018-03-08 株式会社三次元メディア 3次元物体認識装置
CN106504262A (zh) * 2016-10-21 2017-03-15 泉州装备制造研究所 一种多特征融合的小瓷砖智能定位方法
CN107239748A (zh) * 2017-05-16 2017-10-10 南京邮电大学 基于棋盘格标定技术的机器人目标识别与定位方法
CN109308447A (zh) * 2018-07-29 2019-02-05 国网上海市电力公司 在电力远程监控中自动提取设备运行参数和运行状态的方法
CN111047643A (zh) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 单目测距装置
CN111062940A (zh) * 2019-12-31 2020-04-24 西南交通大学 一种基于机器视觉的螺钉定位与识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李迎等: "基于单目显微视觉的微球姿态测量方法", 自动化学报 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114971948A (zh) * 2021-02-20 2022-08-30 广东博智林机器人有限公司 位置调整方法、装置、设备及介质
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人

Also Published As

Publication number Publication date
CN111652069B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
AU2018370629B2 (en) RGB-D camera-based object symmetry axis detection method
US20220148213A1 (en) Method for fully automatically detecting chessboard corner points
CN109269430B (zh) 基于深度提取模型的多株立木胸径被动测量方法
WO2021138990A1 (zh) 一种棋盘格亚像素级角点自适应检测的方法
CN107203973B (zh) 一种三维激光扫描系统中线激光中心的亚像素定位方法
CN109211207B (zh) 一种基于机器视觉的螺钉识别与定位装置
CN105957041B (zh) 一种广角镜头红外图像畸变校正方法
CN110189375B (zh) 一种基于单目视觉测量的图像目标识别方法
CN111754583A (zh) 一种车载三维激光雷达和相机外参联合标定的自动化方法
CN108133216B (zh) 基于机器视觉的可实现小数点读取的数码管读数识别方法
CN110033407B (zh) 一种盾构隧道表面图像标定方法、拼接方法及拼接系统
CN1584729A (zh) 图像投影方法和设备
CN111652069B (zh) 移动机器人的目标识别与定位方法
CN113884002B (zh) 基于二三维信息融合的受电弓滑板上表面检测系统及方法
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN108133471B (zh) 一种基于人工蜂群算法的机器人导航路径提取方法及装置
CN112304954A (zh) 一种基于线激光扫描及机器视觉的零件表面缺陷检测方法
CN109978940A (zh) 一种sab安全气囊尺寸视觉测量方法
CN108154536A (zh) 二维平面迭代的相机标定法
CN109801336B (zh) 基于可见光及红外光视觉的机载目标定位系统及方法
CN104966302B (zh) 一种任意角度激光十字的检测定位方法
CN111881878B (zh) 一种环视复用的车道线识别方法
CN108180825B (zh) 一种基于线结构光的长方体形物体三维识别与定位方法
CN115841517A (zh) 一种基于dic双圆交比的结构光标定方法和装置
CN113554672B (zh) 一种基于机器视觉的气密性检测中相机位姿检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant