CN107009357A - 一种基于nao机器人抓取物体的方法 - Google Patents

一种基于nao机器人抓取物体的方法 Download PDF

Info

Publication number
CN107009357A
CN107009357A CN201710218153.7A CN201710218153A CN107009357A CN 107009357 A CN107009357 A CN 107009357A CN 201710218153 A CN201710218153 A CN 201710218153A CN 107009357 A CN107009357 A CN 107009357A
Authority
CN
China
Prior art keywords
target object
nao
angle
image
robots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710218153.7A
Other languages
English (en)
Other versions
CN107009357B (zh
Inventor
邹谜
伍世虔
王欣
张俊勇
陈鹏
徐正勤
余杭
韩浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Wuhan University of Science and Technology WHUST
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN201710218153.7A priority Critical patent/CN107009357B/zh
Publication of CN107009357A publication Critical patent/CN107009357A/zh
Application granted granted Critical
Publication of CN107009357B publication Critical patent/CN107009357B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Abstract

本发明公开了一种基于NAO机器人抓取物体的方法,所述方法包括:利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系;获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系,获取所述图像的第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,获得所述目标物体到所述NAO机器人的距离;获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体,解决了现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。

Description

一种基于NAO机器人抓取物体的方法
技术领域
本发明涉及智能机器人技术领域,尤其涉及一种基于NAO机器人抓取物体的方法。
背景技术
随着人工智能技术的发展,由于NAO机器人高度融合了自动化、机械、传感术、计算机、人工智能等多学科知识和研究成果,被广泛应用于日常生活和生产中。
现有技术中,在利用NAO机器人来抓取物品方法中,通常需要对物体相对于机器人的位置进行定位,一般采用单目视觉定位方法。
本申请发明人在实现本发明的技术方案时,发现现有技术中至少存在如下问题:
现有采用单目视觉定位方法,对物体的定位并不精确,误差比较大,此外,机器人如果未成功抓取到物品,也无法得到反馈。
可见,现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
发明内容
本发明实施例提供一种基于NAO机器人抓取物体的方法,用以解决现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
本发明公开了一种基于NAO机器人抓取物体的方法,所述方法包括:
利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;
获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系其中,Δh为NAO机器人的头部高度变化值,β为NAO机器人的头部俯仰角, 为固定值;
根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系其中,s为目标物体到所述NAO机器人的距离,α为NAO机器人视觉中心轴与水平线的夹角,为一固定值,h为NAO机器人处于初始状态时摄像头距地面的高度,r为目标物体中心点距地面的高度;
获取所述图像的第二中心像素点坐标,其中所述第二中心像素点坐标为所述图像的中心像素坐标值;
根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,其中所述垂直偏角为所述NAO机器人的俯仰角;
根据所述垂直偏角和所述第二函数关系,获得所述目标物体到所述NAO机器人的距离;
根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。
可选地,所述利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标,包括:
利用机器人摄像头获取一帧图像并将其转化为HSV颜色空间的图像;
从所述HSV颜色空间的图像中获得所述目标物体图像,
根据所述目标物体图像,获得灰度图像;
对所述灰度图像进行优化处理和二值化处理,获得保留原有信息的图像;
根据保留原有信息的图像,获得所述目标物体的图像的第一中心点像素坐标。
可选地,所述根据保留原有信息的图像,获得所述目标物体的图像的第一中心点像素坐标,包括:
采用最小外接矩形框获得所述第一中心点像素坐标。
可选地,在根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系之后,还包括:
采用同一距离进行多次测量求取平均值的方法,构建距离与俯仰角度相对应的离线查询表。
可选地,所述离线查询表中包含根据距离设置的不同间隔范围的数据。
可选地,所述根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,包括:
根据公式获得水平偏角,其中,x为所述第一中心像素坐标的横坐标,320为第二中心像素的横坐标;
根据公式获得垂直偏角,其中,y为所述第一中心像素坐标的纵坐标,240为第二中心像素的纵坐标。
可选地,所述根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,包括:
根据所述水平偏角,获得NAO机器人的水平转动方向;
根据所述距离,获得所述NAO机器人的行走距离;
根据所述水平转动方向和所述行走距离,获取所述NAO机器人行走路线。
可选地,所述NAO机器人基于所述行走路线抓取所述目标物体,包括:
所述NAO机器人运动至所述目标物体的位置;
获得所述NAO机器人手臂的抓取轨迹;
在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体。
可选地,在所述在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体之后,还包括:
获得所述NAO机器人的手部电机值;
判断所述手部电机值是否大于预设值;
若大于,则通过语音反馈成功抓取物体;
否则,所述NAO机器人进行重新定位抓取,以进行抓取反馈。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种基于NAO机器人抓取物体的方法,由于实时获得了所述NAO机器人的头部高度变化值与俯仰角的第一函数关系,并根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系,根据所述垂直偏角和所述第二函数关系,可以获得所述目标物体到所述NAO机器人的距离;并根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。由于可以根据垂直偏角和所述目标物体到所述NAO机器人的距离与所述俯仰角第二函数关系,可以实时获取机器人的获得所述目标物体到所述NAO机器人的距离。解决了现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种基于NAO机器人抓取物体的方法的流程图;
图2为本发明实施例中提供的方法中定位算法的计算原理示意图。
具体实施方式
本发明实施例提供一种基于NAO机器人抓取物体的方法,用以解决现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。实现了提高物体的定位精度和实时性技术效果。
本申请实施例中的技术方案,总体思路如下:
一种基于NAO机器人抓取物体的方法,所述方法包括:利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系其中,Δh为NAO机器人的头部高度变化值,β为NAO机器人的头部俯仰角, 为固定值;根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系其中,s为目标物体到所述NAO机器人的距离,α为NAO机器人视觉中心轴与水平线的夹角,为一固定值,h为NAO机器人处于初始状态时摄像头距地面的高度,r为目标物体中心点距地面的高度;获取所述图像的第二中心像素点坐标,其中所述第二中心像素点坐标为所述图像的中心像素坐标值;根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,其中所述垂直偏角为所述NAO机器人的俯仰角;根据所述垂直偏角和所述第二函数关系,获得所述目标物体到所述NAO机器人的距离;根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。
上述方法中,由于可以根据垂直偏角和所述目标物体到所述NAO机器人的距离与所述俯仰角第二函数关系,可以实时获取机器人的获得所述目标物体到所述NAO机器人的距离。解决了现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本实施例提供一种基于NAO机器人抓取物体的方法,请参见图1,所述方法包括:
步骤S101:利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;
步骤S102:获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系其中,Δh为NAO机器人的头部高度变化值,β为NAO机器人的头部俯仰角, 为固定值;
步骤S103:根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系其中,s为目标物体到所述NAO机器人的距离,α为NAO机器人视觉中心轴与水平线的夹角,为一固定值,h为NAO机器人处于初始状态时摄像头距地面的高度,r为目标物体中心点距地面的高度;
步骤S104:获取所述图像的第二中心像素点坐标,其中所述第二中心像素点坐标为所述图像的中心像素坐标值;
步骤S105:根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,其中所述垂直偏角为所述NAO机器人的俯仰角;
步骤S106:根据所述垂直偏角和所述第二函数关系,获得所述目标物体到所述NAO机器人的距离;
步骤S107:根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。
上述方法中,由于可以根据垂直偏角和所述目标物体到所述NAO机器人的距离与所述俯仰角第二函数关系,可以实时获取机器人的获得所述目标物体到所述NAO机器人的距离。解决了现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
需要说明的是,本申请中,所述步骤S101和步骤S102的顺序不分先后,可以先执行步骤S101,也可以先执行步骤S102,在此不做限制。
下面,结合图1对本申请提供的抓取物品的方法进行详细介绍:
首先,执行步骤S101,利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;
在本申请实施例中,具体为:
利用机器人摄像头获取一帧图像并将其转化为HSV颜色空间的图像;
从所述HSV颜色空间的图像中获得所述目标物体图像,
根据所述目标物体图像,获得灰度图像;
对所述灰度图像进行优化处理和二值化处理,获得保留原有信息的图像;
根据保留原有信息的图像,获得所述目标物体的图像的第一中心点像素坐标。
具体地,采用最小外接矩形框获得所述第一中心点像素坐标。
具体来说,上述优化处理可以为对获得的灰度图像先进行直方图均衡化处理,以提高图像的对比度和清晰度、对图像进行双边滤波处理,去除噪声点的干扰等等,对二值化图像进行腐蚀、膨胀,可以进一步有效去除噪声点,保留图像中原有信息。
接下来,执行步骤S102:获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系其中,Δh为NAO机器人的头部高度变化值,β为NAO机器人的头部俯仰角, 为固定值。
然后,执行步骤S103:根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系其中,s为目标物体到所述NAO机器人的距离,α为NAO机器人视觉中心轴与水平线的夹角,为一固定值,h为NAO机器人处于初始状态时摄像头距地面的高度,r为目标物体中心点距地面的高度;
具体地,目标定位时采用目标物体始终保持在视野中央,方便机器人实时定位物体,也符合人类抓取物体的习惯。考虑到机器人头部的俯仰角发生变化时,其机器人头部摄像头的高度也在不断的变化。本发明实施例根据机器人头部的硬件结构,参见图2推导出其高度变化值与俯仰角度的关系;将头部摄像头的高度表示成关于俯仰角的一个函数(即第一函数关系),并采用勾股定位算法中,可以得到的物体的定位算法(即第二函数关系),有效地提高了定位精度。
然后,执行步骤S104:获取所述图像的第二中心像素点坐标,其中所述第二中心像素点坐标为所述图像的中心像素坐标值。
具体来说,所述图像即为利用机器人摄像头获取的图像,所述图像包括物体和其他背景。
接着,执行步骤S105:根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,其中所述垂直偏角为所述NAO机器人的俯仰角。
具体地,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角的步骤如下:
根据公式获得水平偏角,其中,x为所述第一中心像素坐标的横坐标,320为第二中心像素的横坐标;
根据公式获得垂直偏角,其中,y为所述第一中心像素坐标的纵坐标,240为第二中心像素的纵坐标。
具体来说,(x,y)为所述第一中心像素坐标,(320,240)为所述第二中心像素坐标,图像的像素为640*480,角度60.9°、47.64°均为机器人摄像头的硬件值。
接着,执行步骤S106:根据所述垂直偏角和所述第二函数关系,获得所述目标物体到所述NAO机器人的距离;
具体地,所述根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,包括:
根据所述水平偏角,获得NAO机器人的水平转动方向;
根据所述距离,获得所述NAO机器人的行走距离;
根据所述水平转动方向和所述行走距离,获取所述NAO机器人行走路线。
最后,执行步骤S107:根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。
具体地,所述NAO机器人基于所述行走路线抓取所述目标物体,包括:
所述NAO机器人运动至所述目标物体的位置;
获得所述NAO机器人手臂的抓取轨迹;
在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体。
可选地,本发明实施例提供的基于NAO机器人抓取物体的方法中,在根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系之后,还包括:
采用同一距离进行多次测量求取平均值的方法,构建距离与俯仰角度相对应的离线查询表。
可选地,本发明实施例提供的基于NAO机器人抓取物体的方法中,所述离线查询表中包含根据距离设置的不同间隔范围的数据。
具体来说,利用第二函数关系,并通过对同一距离进行多次测量求取平均值的方法,可以构建一个距离与角度相对应的离线查询表。由于因距离远近不同而识别定位精度也不同,查询表中物体距离可以从机器人脚中心位置前方20cm所对应的角度开始建表,表中20cm-70cm范围内间隔为1cm,70cm-150cm间隔为2cm,150cm-450cm范围内间隔为5cm,450cm外的物体机器人无法准确识别。具体的间隔范围可以根据实际情况设置,从而进一步提高定位精度。
可选地,在所述在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体之后,还包括:
获得所述NAO机器人的手部电机值;
判断所述手部电机值是否大于预设值;
若大于,则通过语音反馈成功抓取物体;
否则,所述NAO机器人进行重新定位抓取,以进行抓取反馈。
申请人通过大量的实验发现,不同的地面相对于机器人脚的摩擦因数不同,机器人在走向目标物体实施抓取的过程中常会出现脚步打滑而导致行走距离未能到达指定抓取点,最终导致抓取失败的现象。针对这一不定因素的影响,本发明实施例在不借助外界辅助设备的情况下,提出一种通过传感器获取手部电机角度值与预设值(例如取值为0.25)相比较的简单方法,来让机器人自主判断是否成功抓取到了物体。如果成功抓取,则机器人会通过扬声器说出“I grasp it”;若因行走过程中机器人脚与地面的微小滑动等不定因素影响而导致机器人抓取失败,则机器人会反馈没有抓到并自主进行再次的定位抓取,直到抓取成功。
在具体的实施过程中,可以根据机器人末端执行器起始点位置和终点位置(即物体位置)插入四个关键帧,用于规划机器人手臂抓取的轨迹,上述步骤离线完成,然后通过NAO机器人内置的函数positionInterpolation能够把末端执行器送到机器人坐标系下的指定位置,然后通过控制机器人的手部电机实施抓取,在此过程中,可以通过传感器获取手部电机的值,与预设值进行比较,若获取的值大于预设值,则机器人通过语音反馈抓到了物体。否则,机器人重新进行识别、定位、抓取。
需要说明的是,现有的基于NAO机器人的单目定位方法无法获得物体的空间三维坐标,故本发明实施例中所抓取的物体高度为已知值,即物体Z坐标已知;在上一步物体测距的同时我们可以测出物体相对于机器人正前方向上的偏移角,然后机器人通过旋转这个角度可以保证物体处于机器人正前方,即物体在机器人坐标系中Y轴方向上的坐标为0;这样通过测得的物体的深度坐标X就可以确定物体相对于机器人坐标系的空间位置(X,0,Z)。由NAO机器人内置的函数positionInterpolation能够把末端执行器送到机器人坐标系下的指定位置,对目标点实施抓取操作。附:闭环反馈部分程序如下
进行再次抓取。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种基于NAO机器人抓取物体的方法,由于实时获得了所述NAO机器人的头部高度变化值与俯仰角的第一函数关系,并根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系,根据所述垂直偏角和所述第二函数关系,可以获得所述目标物体到所述NAO机器人的距离;并根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。由于可以根据垂直偏角和所述目标物体到所述NAO机器人的距离与所述俯仰角第二函数关系,可以实时获取机器人的获得所述目标物体到所述NAO机器人的距离。解决了现有技术中采用单目视觉定位的方法存在精度不高、实时性差的技术问题。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种基于NAO机器人抓取物体的方法,其特征在于,所述方法包括:
利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标;
获得所述NAO机器人的头部高度变化值与俯仰角的第一函数关系其中,Δh为NAO机器人的头部高度变化值,β为NAO机器人的头部俯仰角, 为固定值;
根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系其中,s为目标物体到所述NAO机器人的距离,α为NAO机器人视觉中心轴与水平线的夹角,为一固定值,h为NAO机器人处于初始状态时摄像头距地面的高度,r为目标物体中心点距地面的高度;
获取所述图像的第二中心像素点坐标,其中所述第二中心像素点坐标为所述图像的中心像素坐标值;
根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,其中所述垂直偏角为所述NAO机器人的俯仰角;
根据所述垂直偏角和所述第二函数关系,获得所述目标物体到所述NAO机器人的距离;
根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,以使所述NAO机器人基于所述行走路线抓取所述目标物体。
2.如权利要求1所述的方法,其特征在于,所述利用预先设定的搜索路径基于颜色分割的方法找到并识别目标物体,获得包含所述目标物体的图像和所述目标物体的第一中心点像素坐标,包括:
利用机器人摄像头获取一帧图像并将其转化为HSV颜色空间的图像;
从所述HSV颜色空间的图像中获得所述目标物体图像,
根据所述目标物体图像,获得灰度图像;
对所述灰度图像进行优化处理和二值化处理,获得保留原有信息的图像;
根据保留原有信息的图像,获得所述目标物体的图像的第一中心点像素坐标。
3.如权利要求2所述的方法,其特征在于,所述根据保留原有信息的图像,获得所述目标物体的图像的第一中心点像素坐标,包括:
采用最小外接矩形框获得所述第一中心点像素坐标。
4.如权利要求1所述的方法,其特征在于,在根据所述第一函数关系,获得所述目标物体到所述NAO机器人的距离与所述俯仰角的第二函数关系之后,还包括:
采用同一距离进行多次测量求取平均值的方法,构建距离与俯仰角度相对应的离线查询表。
5.如权利要求4所述的方法,其特征在于,所述离线查询表中包含根据距离设置的不同间隔范围的数据。
6.如权利要求1所述的方法,其特征在于,所述根据所述第一中心点像素坐标和所述第二中心像素点坐标,获得所述目标物体相对于所述NAO机器人的水平偏角和垂直偏角,包括:
根据公式获得水平偏角,其中,x为所述第一中心像素坐标的横坐标,320为第二中心像素的横坐标;
根据公式获得垂直偏角,其中,y为所述第一中心像素坐标的纵坐标,240为第二中心像素的纵坐标。
7.如权利要求1所述的方法,其特征在于,所述根据所述距离和所述水平偏角,获取所述NAO机器人行走路线,包括:
根据所述水平偏角,获得NAO机器人的水平转动方向;
根据所述距离,获得所述NAO机器人的行走距离;
根据所述水平转动方向和所述行走距离,获取所述NAO机器人行走路线。
8.如权利要求1所述的方法,其特征在于,所述NAO机器人基于所述行走路线抓取所述目标物体,包括:
所述NAO机器人运动至所述目标物体的位置;
获得所述NAO机器人手臂的抓取轨迹;
在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体。
9.如权利要求8所述的方法,其特征在于,在所述目标物体的位置,根据所述抓取轨迹抓取所述目标物体之后,还包括:
获得所述NAO机器人的手部电机值;
判断所述手部电机值是否大于预设值;
若大于,则通过语音反馈成功抓取物体;
否则,所述NAO机器人进行重新定位抓取,以构成抓取反馈。
CN201710218153.7A 2017-04-05 2017-04-05 一种基于nao机器人抓取物体的方法 Expired - Fee Related CN107009357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710218153.7A CN107009357B (zh) 2017-04-05 2017-04-05 一种基于nao机器人抓取物体的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710218153.7A CN107009357B (zh) 2017-04-05 2017-04-05 一种基于nao机器人抓取物体的方法

Publications (2)

Publication Number Publication Date
CN107009357A true CN107009357A (zh) 2017-08-04
CN107009357B CN107009357B (zh) 2019-03-26

Family

ID=59446650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710218153.7A Expired - Fee Related CN107009357B (zh) 2017-04-05 2017-04-05 一种基于nao机器人抓取物体的方法

Country Status (1)

Country Link
CN (1) CN107009357B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109764807A (zh) * 2019-01-14 2019-05-17 广东原点智能技术有限公司 发动机缸体位置标定的2d视觉检测方法及检测系统
CN110315525A (zh) * 2018-03-29 2019-10-11 天津工业大学 一种基于视觉引导的机器人工件抓取方法
CN110956218A (zh) * 2019-12-10 2020-04-03 同济人工智能研究院(苏州)有限公司 基于Heatmap的Nao机器人目标检测足球候选点的生成方法
CN111506074A (zh) * 2020-05-08 2020-08-07 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN113255455A (zh) * 2021-04-28 2021-08-13 速度时空信息科技股份有限公司 基于矢量去光照影响算法的单目相机物体识别与定位方法
CN114770461A (zh) * 2022-04-14 2022-07-22 深圳技术大学 一种基于单目视觉的移动机器人及其自动抓取方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4565196B2 (ja) * 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US20120158183A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and control method thereof
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
CN105773618A (zh) * 2016-04-21 2016-07-20 奇弩(北京)科技有限公司 一种六足机器人行走的实现方法
CN106407882A (zh) * 2016-07-26 2017-02-15 河源市勇艺达科技股份有限公司 机器人通过人脸检测实现头部转动的方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4565196B2 (ja) * 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US20120158183A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Walking robot and control method thereof
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
CN105773618A (zh) * 2016-04-21 2016-07-20 奇弩(北京)科技有限公司 一种六足机器人行走的实现方法
CN106407882A (zh) * 2016-07-26 2017-02-15 河源市勇艺达科技股份有限公司 机器人通过人脸检测实现头部转动的方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110315525A (zh) * 2018-03-29 2019-10-11 天津工业大学 一种基于视觉引导的机器人工件抓取方法
CN109764807A (zh) * 2019-01-14 2019-05-17 广东原点智能技术有限公司 发动机缸体位置标定的2d视觉检测方法及检测系统
CN110956218A (zh) * 2019-12-10 2020-04-03 同济人工智能研究院(苏州)有限公司 基于Heatmap的Nao机器人目标检测足球候选点的生成方法
CN111506074A (zh) * 2020-05-08 2020-08-07 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN111506074B (zh) * 2020-05-08 2022-08-26 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN113255455A (zh) * 2021-04-28 2021-08-13 速度时空信息科技股份有限公司 基于矢量去光照影响算法的单目相机物体识别与定位方法
CN113255455B (zh) * 2021-04-28 2021-10-22 速度时空信息科技股份有限公司 基于矢量去光照影响算法的单目相机物体识别与定位方法
CN114770461A (zh) * 2022-04-14 2022-07-22 深圳技术大学 一种基于单目视觉的移动机器人及其自动抓取方法
CN114770461B (zh) * 2022-04-14 2023-12-01 深圳技术大学 一种基于单目视觉的移动机器人及其自动抓取方法

Also Published As

Publication number Publication date
CN107009357B (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN107009357A (zh) 一种基于nao机器人抓取物体的方法
CN107901041B (zh) 一种基于图像混合矩的机器人视觉伺服控制方法
CN108942923A (zh) 一种机械臂抓取控制方法
CN107392964B (zh) 基于室内特征点和结构线结合的室内slam方法
CN108637435A (zh) 一种基于视觉与弧压传感的三维焊缝跟踪系统及方法
CN107618030B (zh) 基于视觉的机器人动态跟踪抓取方法及系统
CN103529855B (zh) 一种旋转可调式双目视觉的目标识别定位装置及其在农业果实采摘机械的应用
CN110509281A (zh) 基于双目视觉的位姿识别与抓取的装置与方法
CN103271784A (zh) 基于双目视觉的人机交互式机械手控制系统和控制方法
CN108182689A (zh) 应用于机器人搬运打磨领域的板状工件三维识别定位方法
CN113911728B (zh) 一种基于视觉的电动牙刷刷头动态上料系统及上料方法
CN108080289A (zh) 机器人分拣系统、机器人分拣控制方法及装置
CN110293559A (zh) 一种自动识别定位对准的安装方法
CN108803591A (zh) 一种地图生成方法及机器人
CN109146939A (zh) 一种工件抓取模板的生成方法及系统
CN115816471B (zh) 多视角3d视觉引导机器人的无序抓取方法、设备及介质
CN108098134A (zh) 一种新型激光视觉焊缝跟踪系统及方法
CN109164802A (zh) 一种机器人迷宫行走方法、装置及机器人
CN109087343A (zh) 一种工件抓取模板的生成方法及系统
CN109625922A (zh) 一种用于智能制造的自动上下料系统及方法
CN104268551B (zh) 基于视觉特征点的转向角度控制方法
CN102156994B (zh) 一种单视角无标记人体运动跟踪的关节定位方法
CN107729906A (zh) 一种基于智能机器人的巡检点电表数值识别方法
CN107030690A (zh) 一种基于视觉的机械臂避障方法
CN116749198A (zh) 一种基于双目立体视觉引导机械臂抓取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190326

Termination date: 20200405