CN104268551B - 基于视觉特征点的转向角度控制方法 - Google Patents

基于视觉特征点的转向角度控制方法 Download PDF

Info

Publication number
CN104268551B
CN104268551B CN201410512457.0A CN201410512457A CN104268551B CN 104268551 B CN104268551 B CN 104268551B CN 201410512457 A CN201410512457 A CN 201410512457A CN 104268551 B CN104268551 B CN 104268551B
Authority
CN
China
Prior art keywords
steering angle
characteristic point
point
access control
control model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410512457.0A
Other languages
English (en)
Other versions
CN104268551A (zh
Inventor
刘瑜
何谦
杜慧江
陆溪
胡轩
章思恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201410512457.0A priority Critical patent/CN104268551B/zh
Publication of CN104268551A publication Critical patent/CN104268551A/zh
Application granted granted Critical
Publication of CN104268551B publication Critical patent/CN104268551B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于视觉特征点的转向角度控制方法,包括智能机器人等装置:智能机器人的摄像头将实时采集的图像信息传输到微处理器,微处理器通过内置转向角度计算方法对机器人进行转向角度的计算;基于视觉特征点的转向角度控制方法包括以下步骤:①设定转向角度阈值;②根据SURF算法获取特征点;③将特征点进行匹配,获取匹配特征点;④求取匹配特征点之间水平移动的距离;⑤计算转向角度,将计算的角度与转向角度阈值比较,若达到阈值范围,就停止转向,若还没达到阈值,就进行下一步骤;⑥提取新的图像,重复步骤③至步骤⑤;⑦将每次计算的角度值相互累加,再与转向角度阈值进行比较。

Description

基于视觉特征点的转向角度控制方法
技术领域
本发明涉及图像处理领域与自动设备领域,尤其是一种能够根据环境图像信息、基于视觉特征点的转向角度控制的自动行走设备。
背景技术
随着计算机技术和人工智能技术的不断进步,类似于智能机器人的自动行走设备已经开始慢慢的走进人们的生活。
现有的智能机器人,仅依靠先验知识、自绘电子地图以及传感器进行行走避障,其简单的转弯和避障动作,缺乏自我的运动状态检测能力,存在一定的风险性,容易被困死区,很难适应于各种复杂的环境。复杂的环境需要更加智能的动作加以配合,因而转向控制和角度反馈变得尤为重要。如果不进行角度信息反馈,其开环的运动,容易产生偏差。传统的光电编码器由于在运动时容易打滑存在一定误差,而电子罗盘由于机器人本生电机磁场和周围地磁线的干扰不能工作。
基于视觉特征点的转弯角度控制方法,利用反馈的转向角度信息对智能机器人的转向角度进行纠正,使其能够更加准确的控制路径规划、避障时转向的角度。
发明内容
本发明要解决的技术问题是提供一种基于视觉特征点的转向角度控制方法。
为了解决上述技术问题,本发明提供一种基于视觉特征点的转向角度控制方法,包括智能机器人,所述的智能机器人内部设置进行集中控制的微处理器,所述的智能机器人前端设置进行图像采集的摄像头;所述的微处理器分别与摄像头和智能机器人的运动控制系统信号连接;所述摄像头将实时采集的图像信息传输到微处理器,所述微处理器通过内置转向角度计算方法对机器人进行转向角度的计算;所述的基于视觉特征点的转向角度控制方法包括以下步骤:①根据需要设定一个转向角度阈值;②采集连续两帧图像,并根据SURF算法对两帧图像进行特征点检测,获取两帧图像的特征点;③选择两帧图像的特征点进行匹配,获取匹配特征点;④绘制匹配特征点,并且求取匹配特征点之间水平移动的距离;⑤利用转向角度计算公式计算转向角度,将计算的角度与转向角度阈值比较,若达到阈值范围,就停止转向,若还没达到阈值,就进行下一步骤;⑥提取下一帧图像与前一帧图像,并重复步骤③至步骤⑤的过程;⑦将步骤⑥中每次计算的角度值相互累加后,再与转向角度阈值进行比较,若达到阈值范围,就停止转向,若还没达到阈值,转到步骤⑥,直到角度相加的值达到事先设定的阈值。
作为对本发明所述的基于视觉特征点的转向角度控制方法的改进:在步骤①中,所述的转向角度阈值根据不同智能机器人的工作需要进行设定。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤②中,所述的SURF算法通过如下步骤实现:首先、选择连续两帧图像内不同大小的盒子型滤波器建立图像的尺度空间;其次、使用Hession矩阵检测出各层图像上的极值点;最后、对与极值点相相邻的26个像素点进行比较,获取极大值点和极小值点,并对极大值点和极小值点精确定位后获取稳定的特征点。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:26个像素点为极值点同层相邻的8个像素点、极值点上层的9个像素点以及极值点下层的9个像素点。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤③中,匹配特征点的选择步骤如下:首先、选取两帧图像中心区域的特征点进行欧氏距离计算;其次、选择其中一帧图像中的一个特征点,计算该特征点到另一帧图像中心区域所有特征点之间的欧氏距离,当该特征点的最近欧氏距离和次近距离小于0.6时,确定该点为匹配特征点;最后、确定中心区域中所有的匹配特征点。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤④中,将步骤③的匹配特征点所求的最小欧氏距离从小到大排序;取距离的中位数作为图像水平移动的距离,即匹配特征点视角在横坐标x上的移动偏差dx
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤⑤中,通过线性算法公式进行角度检测;式中,dx为步骤④中特征点视角在横坐标X上的移动偏差,W为采集图像的显示宽度,为摄像头镜头的视野宽度,η为修正系数。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤⑥中,当转向角度还未达到步骤①设定的转向角度阈值时,再提取下一帧的图像,对下一帧图像进行特征点的提取,并将下一帧图像与其上一帧图像进行匹配特征点的提取,再进行匹配特征点水平移动距离的计算,最后再计算这两帧图像的转向角度。
作为对本发明所述的基于视觉特征点的转向角度控制方法的进一步改进:在步骤⑦中,将每次计算的转向角度相加,再与转向角度阈值进行比较,若达到阈值范围,智能机器人就停止转向,若还没达到阈值,智能机器人继续转向,直到转向角度达到事先设定的阈值。
本发明的基于视觉特征点的转向角度控制方法中,不断的利用图像信息进行转向角度的计算与反馈,直到转向角度到达设定的阈值。再一个,由于本发明中的基于视觉特征点的转向角度控制方法能较好的控制智能机器人的转向角度,可以将该算法用于实际智能机器人上,用来控制机器人转向,使得智能机器人完成各种预设定动作并利用反馈转向角度信息进行纠正,使其能够更加智能的完成路径规划、避障等工作。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细说明。
图1是智能机器人的结构示意图。
图2是视觉特征点的转向角度控制方法的流程图。
具体实施方式
实施例1、图1~图2给出了一种基于视觉特征点的转向角度控制方法,包括智能机器人1、单片机2以及摄像头3;智能机器人1的内部设置单片机2,智能机器人1的前端设置摄像头3;单片机2分别与摄像头3和智能机器人1的运动控制系统信号连接;在使用的过程中,通过摄像头3实时采集智能机器人1周围环境的图像信息,并将采集到的图像信息传输给机器人内部的单片机2;单片机2通过内置的基于视觉特征点的转向角度计算方法对最新获取的图像信息进行角度的计算及反馈,再通过单片机2经运动控制系统进行智能机器人1的转向控制。
本发明的基于视觉特征点的转向角度控制方法的主要实现步骤包括为转向角度阈值设定、图像的采集、图像数据处理及转向角度的控制,具体如下:
一、转向角度阈值设定:
1、当智能机器人在进行转弯或避障动作时,需要进行一定角度的转向,设定该转向角度的阈值为θ,不同的智能机器人根据其体型大小等因素可以设定一个不同转向角度阈值θ,使其能够更加智能的完成路径规划、避障等工作。
二、图像的采集:
2、摄像头3实时采集智能机器人1周围环境(主要是指机器人的正前方)的图像信息,并将图像信息实时的传输到单片机2;单片机2提取每一帧的图像进行转换角度的计算;
三、图像数据处理:
3、特征点检测:
采集连续的两帧图像(如前一帧为图像Ⅰ,后一帧为图像Ⅱ),并根据SURF算法对两帧图像进行特征点检测,生成特征描述。具体步骤如下:
选择不同大小的盒子型滤波器(box filter)快速高效的建立图像的尺度空间,再使用快速的Hession矩阵检测出各层图像上的极值点。尺度为σ的图像在某一点处的Hession矩阵为
其中Lxx、Lxy、Lyy为卷积操作,以Lxx(X,σ)为例,其是高斯滤波二阶导数与图像卷积的结果,Gauss(σ)则为高斯函数。用方框状滤波器的图像卷积Dxx、Dxy、Dyy代替Lxx、Lxy、Lyy,则Hession的矩阵行列式简化为
det(H)=DxxDyy-(ωDxy)2 (2)
其中ω为权重系数,s为模板尺寸,当s=9时,模板大小为9×9。
对极值点同层相邻8个像素点以及上下层的各9个像素点,共26个像素点进行比较,从而获取极大值点和极小值点,精确定位后可以获取稳定的特征点(SURF特征点)。
以特征点(SURF特征点)为圆心,计算半径为6σ圆形邻域内的点在x、y方向的Harr小波响应,按距离赋予特征点(SURF特征点)不同高斯权重系数,进行加权统计,并按π/3角度扇形滑动窗口求和Harr小波响应产生一个新的矢量,选择最长的矢量的方向作为特征点(SURF特征点)的主方向。
以特征点(SURF特征点)为中心将坐标轴旋转到主方向,按主方向选取20σ×20σ的正方形窗口区域,并将该窗口区域划分为4×4个子区域,同时计算每个子区域内的Harr小波在x、y方向的响应dx、dy,对其求和得到:
V=[∑dx,∑dy,∑|dx|,∑|dy|] (3)
其为一个四维向量,这样每个特征点(SURF特征点)将拥有4×4×4=64维的描述向量,作为其特征点(SURF特征点)的描述算子。
4、获取匹配特征点:
将每帧图像平均分成3*3为标准的9个区域,每帧图像最中间的区域为中心区域,选取两帧(连续的两帧)图像中心区域的特征点进行欧氏距离计算。选择其中一帧图像中的一个特征点(SURF特征点),计算该特征点(SURF特征点)到另一帧图像中心区域所有特征点(SURF特征点)之间的欧氏距离,当该特征点(SURF特征点)的最小欧氏距离和次近距离小于0.6时,确定该点为匹配特征点。
按照上述方法,确定中心区域中所有的匹配特征点。若所有特征点(SURF特征点)都无法满足匹配条件,则提取下一帧图像(两帧图像中后一帧的下一帧图像,如两帧图像依次为前一帧为图像Ⅱ和后一帧为图像Ⅲ,那该下一帧图像为图像Ⅳ)并进行特征点(SURF特征点)计算,将几帧图像(如以上所述的三帧图像)在时间上最早的图像与最末的图像进行中心区域的特征点匹配,直到找到匹配特征点为止。
5、匹配特征点水平移动距离:
智能机器人在转向过程中,由于实际距离变化,从而使得特征点(SURF特征点)在平面图像上近似在水平线上运动。将匹配特征点所求的最小欧氏距离从小到大排序,取距离的中位数作为图像水平移动的距离,即特征点视角在横坐标x上的移动偏差dx
四、转向角度的控制
6、转向角度的计算:
根据转向角度计算公式进行转向角度计算,式中dx为特征点视角在横坐标x上的移动偏差,W为采集图像的显示宽度,为摄像头镜头的视野宽度,η为修正系数,η根据不同的摄像头设定。将α与设定的转向角度阈值θ进行比较,当α达到阈值θ时,则智能机器人完成转向。当α未达到阈值θ时,则进行下一步的计算。
7、当智能机器人的转向角度还未达到设定的阈值θ时,再提取下一帧(前面两帧图像后面一帧的下一帧,如两帧图像依次为前一帧为图像Ⅱ和后一帧为图像Ⅲ,那该下一帧图像为图像Ⅳ)的图像,对下一帧图像进行特征点(SURF特征点)的提取,并将下一帧图像与其上一帧图像进行匹配特征点的提取,再进行匹配特征点水平移动距离的计算,最后再计算这两帧的转向角度。
8、将步骤7中每次计算的转向角度累加,再与转向角度阈值θ进行比较,若达到阈值范围,智能机器人就停止转向,若还没达到阈值,智能机器人继续转向,直到转向角度达到事先设定的阈值。
以上所述中,根据视觉特征点的转向角度控制方法可以直接利用摄像头3传人的实时图像对机器人的转向角度进行计算与反馈,根据反馈的结果,单片机2通过运动控制系统直接控制智能机器人1的转向,使其达到预先设定的转向角度。
最后,还需要注意的是,以上列举的仅是本发明的一个具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (9)

1.一种基于视觉特征点的转向角度控制方法,包括智能机器人(1),所述的智能机器人(1)内部设置进行集中控制的微处理器(2),所述的智能机器人前端设置进行图像采集的摄像头(3);所述的微处理器(2)分别与摄像头(3)和智能机器人(1)的运动控制系统信号连接;其特征是:所述摄像头(3)将实时采集的图像信息传输到微处理器(2),所述微处理器(2)通过内置转向角度计算方法对机器人进行转向角度的计算;
所述的基于视觉特征点的转向角度控制方法包括以下步骤:
①根据需要设定一个转向角度阈值;
②采集连续两帧图像,并根据SURF算法对两帧图像进行特征点检测,获取两帧图像的特征点;
③选择两帧图像的特征点进行匹配,获取匹配特征点;
④绘制匹配特征点,并且求取匹配特征点之间水平移动的距离;
⑤利用转向角度计算公式计算转向角度,将计算的角度与转向角度阈值比较,若达到阈值范围,就停止转向,若还没达到阈值,就进行下一步骤;
⑥提取下一帧图像与前一帧图像,并重复步骤③至步骤⑤的过程;
⑦将步骤⑥中每次计算的角度值相互累加后,再与转向角度阈值进行比较,若达到阈值范围,就停止转向,若还没达到阈值,转到步骤⑥,直到角度相加的值达到事先设定的阈值。
2.根据权利要求1所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤①中,所述的转向角度阈值根据不同智能机器人的工作需要进行设定。
3.根据权利要求1所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤②中,所述的SURF算法通过如下步骤实现:
首先、选择连续两帧图像内不同大小的盒子型滤波器建立图像的尺度空间;
其次、使用Hession矩阵检测出各层图像上的极值点;
最后、对与极值点相相邻的26个像素点进行比较,获取极大值点和极小值点,并对极大值点和极小值点精确定位后获取稳定的特征点。
4.根据权利要求3所述的基于视觉特征点的转向角度控制方法,其特征是:26个像素点为极值点同层相邻的8个像素点、极值点上层的9个像素点以及极值点下层的9个像素点。
5.根据权利要求1所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤③中,匹配特征点的选择步骤如下:
首先、选取两帧图像中心区域的特征点进行欧氏距离计算;
其次、选择其中一帧图像中的一个特征点,计算该特征点到另一帧图像中心区域所有特征点之间的欧氏距离,当该特征点的最近欧氏距离和次近距离小于0.6时,确定该特征点为匹配特征点;
最后、确定中心区域中所有的匹配特征点。
6.根据权利要求5所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤④中,将步骤③的匹配特征点所求的欧氏距离从小到大排序;
取距离的中位数作为图像水平移动的距离,即匹配特征点视角在横坐标x上的移动偏差dx
7.根据权利要求6所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤⑤中,通过线性算法公式进行角度检测;
式中,dx为步骤④中特征点视角在横坐标X上的移动偏差,W为采集图像的显示宽度,为摄像头镜头的视野宽度,η为修正系数。
8.根据权利要求1所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤⑥中,当转向角度还未达到步骤①设定的转向角度阈值时,再提取下一帧的图像,对下一帧图像进行特征点的提取,并将下一帧图像与其上一帧图像进行匹配特征点的提取,再进行匹配特征点水平移动距离的计算,最后再计算这两帧图像的转向角度。
9.根据权利要求1所述的基于视觉特征点的转向角度控制方法,其特征是:在步骤⑦中,将每次计算的转向角度相加,再与转向角度阈值进行比较,若达到阈值范围,智能机器人就停止转向,若还没达到阈值,智能机器人继续转向,直到转向角度达到事先设定的阈值。
CN201410512457.0A 2014-09-29 2014-09-29 基于视觉特征点的转向角度控制方法 Expired - Fee Related CN104268551B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410512457.0A CN104268551B (zh) 2014-09-29 2014-09-29 基于视觉特征点的转向角度控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410512457.0A CN104268551B (zh) 2014-09-29 2014-09-29 基于视觉特征点的转向角度控制方法

Publications (2)

Publication Number Publication Date
CN104268551A CN104268551A (zh) 2015-01-07
CN104268551B true CN104268551B (zh) 2017-08-08

Family

ID=52160071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410512457.0A Expired - Fee Related CN104268551B (zh) 2014-09-29 2014-09-29 基于视觉特征点的转向角度控制方法

Country Status (1)

Country Link
CN (1) CN104268551B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570861A (zh) * 2016-10-25 2017-04-19 深圳市高巨创新科技开发有限公司 一种无人机的光流测速方法及系统
CN107498559B (zh) * 2017-09-26 2020-12-29 珠海市一微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
SE542067C2 (en) 2017-12-08 2020-02-18 Toyota Mat Handling Manufacturing Sweden Ab System and method for determining a first steering angle of a forklift truck
CN108873892B (zh) * 2018-05-31 2022-02-01 广东乐生智能科技有限公司 一种基于路径密度分析的自动吸尘机器人最优路径规划方法
CN111680628B (zh) * 2020-06-09 2023-04-28 北京百度网讯科技有限公司 文字框融合方法、装置、设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101038152A (zh) * 2006-03-02 2007-09-19 株式会社东海理化电机制作所 旋转角度检测装置及其初始设定方法
CN101691037A (zh) * 2009-10-09 2010-04-07 南京航空航天大学 一种基于主动视觉感知和混沌演化的移动机器人定位方法
CN101868812A (zh) * 2007-11-20 2010-10-20 三洋电机株式会社 驾驶辅助系统、车辆及立体物区域推定方法
CN101907891A (zh) * 2010-06-02 2010-12-08 武汉普尔惠科技有限公司 机器人巡逻路径控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101038152A (zh) * 2006-03-02 2007-09-19 株式会社东海理化电机制作所 旋转角度检测装置及其初始设定方法
CN101868812A (zh) * 2007-11-20 2010-10-20 三洋电机株式会社 驾驶辅助系统、车辆及立体物区域推定方法
CN101691037A (zh) * 2009-10-09 2010-04-07 南京航空航天大学 一种基于主动视觉感知和混沌演化的移动机器人定位方法
CN101907891A (zh) * 2010-06-02 2010-12-08 武汉普尔惠科技有限公司 机器人巡逻路径控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"一种室内环境下仿人机器人路径规划方法";许宪东 等;《哈尔滨师范大学自然科学学报》;20130430;第29卷(第4期);全文 *
"复杂环境下尺度不变特征的检测";郑玉龙;《科学技术与工程》;20110831;第11卷(第23期);全文 *

Also Published As

Publication number Publication date
CN104268551A (zh) 2015-01-07

Similar Documents

Publication Publication Date Title
CN104268551B (zh) 基于视觉特征点的转向角度控制方法
CN102929288B (zh) 基于视觉伺服的输电线路无人机巡检云台控制方法
Sun et al. Accurate garment surface analysis using an active stereo robot head with application to dual-arm flattening
CN104778690B (zh) 一种基于摄像机网络的多目标定位方法
CN107813310B (zh) 一种基于双目视觉多手势机器人控制方法
CN102638653B (zh) 一种基于Kinect的自动面部追踪方法
CN108171748A (zh) 一种面向机器人智能抓取应用的视觉识别与定位方法
CN108764048A (zh) 人脸关键点检测方法及装置
CN109074083A (zh) 移动控制方法、移动机器人及计算机存储介质
WO2021228181A1 (zh) 一种3d打印方法和装置
CN106874914A (zh) 一种基于深度卷积神经网络的工业机械臂视觉控制方法
CN111251294A (zh) 一种基于视觉位姿感知和深度强化学习的机器人抓取方法
CN105279769B (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN107016646A (zh) 一种基于改进的逼近投影变换图像拼接方法
CN106355147A (zh) 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN108098134A (zh) 一种新型激光视觉焊缝跟踪系统及方法
CN110796700B (zh) 基于卷积神经网络的多物体抓取区域定位方法
CN106960454A (zh) 景深避障方法、设备及无人飞行器
CN112372641B (zh) 一种基于视觉前馈与视觉反馈的家庭服务机器人物品抓取方法
CN107860390A (zh) 基于视觉ros系统的非完整机器人远程定点自导航方法
CN107009357A (zh) 一种基于nao机器人抓取物体的方法
CN103886324B (zh) 一种基于对数似然图像的尺度自适应目标跟踪方法
CN109241822A (zh) 一种基于mtcnn的多方位人脸检测方法及系统
CN108170160A (zh) 一种利用单目视觉和机载传感器旋翼无人机自主抓取方法
CN106934395A (zh) 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Liu Yu

Inventor after: He Qian

Inventor after: Du Huijiang

Inventor after: Lu Xi

Inventor after: Hu Xuan

Inventor after: Zhang Sien

Inventor before: Du Huijiang

Inventor before: Lu Xi

Inventor before: Liu Yu

Inventor before: Hu Xuan

Inventor before: Zhang Sien

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170808

Termination date: 20180929