CN106956276B - 一种机器人、Kinect红外设备及抓取物品的系统 - Google Patents

一种机器人、Kinect红外设备及抓取物品的系统 Download PDF

Info

Publication number
CN106956276B
CN106956276B CN201710218458.8A CN201710218458A CN106956276B CN 106956276 B CN106956276 B CN 106956276B CN 201710218458 A CN201710218458 A CN 201710218458A CN 106956276 B CN106956276 B CN 106956276B
Authority
CN
China
Prior art keywords
robot
article
target position
motion
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710218458.8A
Other languages
English (en)
Other versions
CN106956276A (zh
Inventor
王欣
伍世虔
韩浩
邹谜
王建勋
张俊勇
陈鹏
杨超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WUHAN RIHAN PRECISION MACHINERY Co.,Ltd.
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN201710218458.8A priority Critical patent/CN106956276B/zh
Publication of CN106956276A publication Critical patent/CN106956276A/zh
Application granted granted Critical
Publication of CN106956276B publication Critical patent/CN106956276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks

Abstract

本发明公开了一种机器人,所述机器人包括:第一获取模块,用于获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;第一获得模块,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;第二获得模块,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。本发明提供的机器人,实现了提高物品定位的准确性,从而更为准确地抓取物品、扩大机器人使用的场景和范围的技术效果,解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。

Description

一种机器人、Kinect红外设备及抓取物品的系统
技术领域
本发明涉及智能服务机器人技术领域,尤其涉及一种机器人、Kinect红外设备及抓取物品的系统。
背景技术
随着人工智能技术的发展,智能服务机器人被广泛应用于各种家庭服务中,在智能家居的环境下,机器人可以接收人发出的指令,对需要的物品进行抓取和传送。
现有技术中,机器人在抓取物品时,一般都是通过机器人本体的摄像机,或者外接摄像头来对物品进行定位,从而实现物品的抓取。
本申请发明人在实现本发明的技术方案时,发现现有技术中至少存在如下问题:
现有通过机器人本体的摄像机来对物品进行定位的方法,对于光线的要求比较高,仅适用于白天或者光线适宜的地方,对于夜晚或者光线较暗时,无法进行定位,例如对于没有生活自理能力的残疾人来说,在夜晚喝水或者取药品极不方便。并且机器人本身自带的摄像机一般是依靠自身视觉进行定位,精度比较低,对物体的定位并不精确,误差比较大。
可见,现有技术中的机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题,因此,如何提高定位精度实现更加准确地抓取物品,真正实现智能家居,是重要的课题。
发明内容
本发明实施例提供一种机器人、Kinect红外设备及抓取物品的系统,用以解决现有技术中机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。
第一方面,本发明公开了一种机器人,所述机器人包括:
第一获取模块,用于获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
第一获得模块,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
第二获得模块,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
可选地,所述机器人还包括第三获得模块,所述第三获得模块用于:在所述根据所述第一运动轨迹,获得目标位置之前,
根据所述第一运动轨迹,获得第三位置,其中,第三位置与目标位置可以为不同的位置。
可选地,所述所述机器人还包括第一判断模块,所述第一判断模块用于:
判断所述第一运动轨迹上是否存在障碍物;
如果存在,则进行重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
可选地,所述机器人还包括第二判断模块,所述第二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则重新规划得到第三运动轨迹以使所述机器人到达所述相应的目标位置。
可选地,所述机器人还包括还包括第二判断模块,所述第二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
可选地,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
可选地,所述第一运动轨迹包括机器人的行走方向和距离。
基于同样的发明构思,本发明还提供了一种Kinect红外设备,包括:
第二获取模块,用于获取所述机器人的第一位置和所述物品的第二位置;
发送模块,用于将所述第一位置和所述第二位置发送至所述机器人,以使所述机器人根据所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
可选地,所述第一获取模块还用于:
获取空间深度图像;
根据所述空间深度图像,获取像素坐标和深度坐标;
根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置。
基于同样的发明构思,本发明还提供了一种抓取物品的系统,所述系统包括如权利要求1-7任一项所述的机器人、权利要求8-9任一项所述的Kinect红外设备以及物品,其中,所述Kinect红外设备用于获取所述机器人的第一位置和所述物品的第二位置,并将所述第一位置和所述第二位置发送给所述机器人,使所述机器人能够基于所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种机器人,所述机器人通过第一获取模块获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;并通过第一获得模块,根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后通过第二获得模块,根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。由于机器人可以与Kinect红外设备建立数据连接,并获得Kinect红外设备发送的机器人的第一位置和所述物品的第二位置,从而可以准确对物品进行定位,此外,Kinect红外设备适用于各种光线环境,因此机器人可以在各种环境下使用,可以扩大机器人的使用范围和场景,解决了现有技术中的机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中提供的机器人的逻辑模块图;
图2为本发明实施例中提供的Kinect红外设备的逻辑模块图;
图3为本发明实施例中提供的抓取物品的系统的逻辑模块图;
图4为本发明实施例中提供的抓取物品的系统的结构图。
具体实施方式
本发明实施例提供提供了一种机器人、Kinect红外设备及抓取物品的系统,用以解决现有技术中机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。实现了提高及定位精度以及扩大使用场景的技术效果。
本申请实施例中的技术方案,总体思路如下:
一种机器人,所述机器人包括:第一获取模块,用于获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;第一获得模块,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;第二获得模块,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
上述机器人,通过第一获取模块获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;并通过第一获得模块,根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后通过第二获得模块,根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。由于机器人可以与Kinect红外设备建立数据连接,并获得Kinect红外设备发送的机器人的第一位置和所述物品的第二位置,从而可以准确对物品进行定位,此外,Kinect红外设备适用于各种光线环境,因此机器人可以在各种环境下使用,可以扩大机器人的使用范围和场景,解决了现有技术中的机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本实施例提供一种机器人,请参见图1,所述机器人包括:
第一获取模块101,用于获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
第一获得模块102,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
第二获得模块103,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
本申请提供的机器人可以通过第一获取模块101获取由Kinect红外设备发送的机器人的第一位置和物品的第二位置;并通过第一获得模块102根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹,最后通过第二获得模块103根据所述第一运动轨迹,获得目标位置,从而机器人可以运动至所述目标位置来抓取所述物品。由于机器人可以与Kinect红外设备建立数据连接,并获得Kinect红外设备发送的机器人的第一位置和所述物品的第二位置,从而可以准确对物品进行定位,此外,Kinect红外设备适用于各种光线环境,因此机器人可以在各种环境下使用,可以扩大机器人的使用范围和场景,解决了现有技术中的机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。
下面,结合图1对本申请提供的机器人进行详细介绍:
本申请实施例提供的机器人包括:
第一获取模块101,用于获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
第一获得模块102,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
第二获得模块103,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
在本申请实施例中,机器人可以为NAO机器人或者其他可以机器人,Kinect红外设备可以为Kinect V2设备,机器人与Kinect红外设备建立通信连接,可以实时进行数据交换和处理,在具体的实施过程中,当需要利用机器人抓取物品时,可以由机器人向Kinect红外设备发出请求信息,Kinect红外设备根据机器人的请求信息获取机器人的第一位置和物品的第二位置,然后将上述第一位置和第二位置发送给机器人,机器人接收上述第一位置和第二位置,并通过第一获得模块102获得所述机器人到所述物品的第一运动轨迹;最后通过第二获得模块103,获得目标位置,从而所述机器人运动至所述目标位置以抓取所述物品,其中,机器人的第一位置和所述物品的第二位置,可以包括机器人和物品的三维坐标或其他可以对机器人和物品进行定位的数据,在此不做具体限定。
可选地,本实施例提供的机器人,还包括第三获得模块,所述第三获得模块用于:在所述根据所述第一运动轨迹,获得目标位置之前,
根据所述第一运动轨迹,获得第三位置,其中,第三位置与目标位置可以为不同的位置。
具体地,本实施例提供的机器人中,还包括第一判断模块,所述第一判断模块用于:
判断所述第一轨迹上是否存在障碍物;
如果存在,则进行重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
具体地,所述第一运动轨迹包括机器人的行走方向和距离。
在具体的实现过程中,根据第一运动轨迹,机器人可以结合自身的位置姿态和物体的位置信息,先走到离物体具有一定距离的位置处,即第三位置,该第三位置可以为与目标位置不同,在运动到第三位置的过程中,需要避免与物体发生碰撞,因此需要通过第一判断模块判断所述第一运动轨迹上是否存在障碍物,使得机器人在抓取物品的过程中避开障碍物,提高抓物品的准确性。
具体地,本实施例提供的机器人中,还包括第二判断模块,所述第二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则重新规划得到第三运动轨迹以使所述机器人到达所述相应的目标位置。
由于机器人的位置发生了改变,此时,需要通过Kinect红外设备重新获取机器人的位置,并发送给机器人,机器人的第二判断模块接收到更新后的位置信后,判断此时所述的位置是否在误差所允许的范围内,如果是,则进行抓取物品,如果超出范围时,机器人根据自身位置进行调整,当机器人到达目标位置时,会判断是自身是离左手比较近还是右手比较近,若离左手近,则用左手抓取物品,离右手近,则用右手抓取物品。机器人抓取到物品之后,将物品放置到固定位置并放下。
具体地,本实施例提供的机器人中还包括第二判断模块,所述二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
具体地,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
具体地,所述第一运动轨迹包括机器人的行走方向和距离。
实施例二
基于同样的发明构思,本实施例二还提供了一种Kinect红外设备,请参见图2,所述设备包括:
第二获取模块201,用于获取所述机器人的第一位置和所述物品的第二位置;
发送模块202,用于将所述第一位置和所述第二位置发送至所述机器人,以使所述机器人根据所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
上述Kinect红外设备中,所述第一获取模块还用于:
获取空间深度图像;
根据所述空间深度图像,获取像素坐标和深度坐标;
根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置。
具体来说,本申请实施例采用的Kinect红外设备可以为Kinect V2设备,在具体的实现过程中,上述设备放置在水平位置上,并KinectV2搭载了「Time of Flight(ToF)」方式的Depth传感器,投射出红外线脉冲,可以获取空间的深度图像,然后从空间深度图像中获取像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置,在实施过程中,可以对Kinect设备进行标定获取相机的内部参数和外部参数,并由位运算得到像素点深度值,进而结合相机参数和像素点深度值,然后由相机的成像模型得出像素点的三维坐标。。具体来说,可以通过将Depth传感器获得的深度信息用图像的形式表现出来,对于不同的深度值分别用RGB表示,采用过渡颜色来表示不同的深度。
实施例三
基于同样的发明构思,本实施例三还提供了一种抓取物品的系统,具体参见图3-4,所述系统包括如权利要求1-7任一项所述的机器人1、权利要求8-9任一项所述的Kinect红外设备1以及物品2,其中,所述Kinect红外设备用于获取所述机器人的第一位置和所述物品的第二位置,并将所述第一位置和所述第二位置发送给所述机器人,使所述机器人能够基于所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
具体来说,Kinect红外设备通过获取空间的深度图像,并对深度图像进行优化,对从上述深度图像获取像素坐标和深度坐标;然后根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置,所述第一位置和第二位置包含了机器人和物品的三维坐标,然后Kinect红外设备将第一位置和第二位置发送给机器人,机器人根据上述第一位置和第二位置,获得所述机器人到所述物品的第一运动轨迹;最后基于上述第一运动轨迹获得目标位置,机器人运动至所述目标位置以抓取所述物品。
上述系统中,由于Kinect红外设备获取的深度图像精确度高,图像清晰,能准确的获得像素坐标以及深度,相比较传统的机器人自身的摄像机精度高,获得的三维坐标准确,对机器人自身的坐标以及物体坐标的定位非常精准。并且kinect红外设备对光线没有要求,即使在黑暗的环境中依然可以使用,扩大了机器人使用的范围,使得机器人可以真正做到24小时为人类服务。机器人和Kinect红外设备成功实现了简单的交互,Kinect将测得的机器人以及物体的数据成功的传递给了机器人,机器人根据Kinect红外设备传输的数据进行运动。
由于实施例二、三与实施例一的发明构思相同,对于实施一的各种变形均适用于实施例二和实施例三。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种机器人,所述机器人通过第一获取模块获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;并通过第一获得模块,根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后通过第二获得模块,根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。由于机器人可以与Kinect红外设备建立数据连接,并获得Kinect红外设备发送的机器人的第一位置和所述物品的第二位置,从而可以准确对物品进行定位,此外,Kinect红外设备适用于各种光线环境,因此机器人可以在各种环境下使用,可以扩大机器人的使用范围和场景,解决了现有技术中的机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种机器人,其特征在于,所述机器人包括:
第一获取模块,用于获取所述机器人的第一位置和物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
第一获得模块,用于根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
第二获得模块,用于根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品;
还包括:第三获得模块,所述第三获得模块用于:在所述根据所述第一运动轨迹,获得目标位置之前,
根据所述第一运动轨迹,获得第三位置,其中,第三位置与目标位置为不同的位置;
还包括第二判断模块,所述第二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则重新规划得到第三运动轨迹以使所述机器人到达相应的目标位置。
2.如权利要求1所述的机器人,其特征在于,还包括第一判断模块,所述第一判断模块用于:
判断所述第一运动轨迹上是否存在障碍物;
如果存在,则进行重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
3.如权利要求1所述的机器人,其特征在于,还包括第二判断模块,所述第二判断模块用于:在根据所述第一运动轨迹,获得目标位置之后,
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
4.如权利要求1所述的机器人,其特征在于,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
5.如权利要求1所述的机器人,其特征在于,所述第一运动轨迹包括机器人的行走方向和距离。
6.一种抓取物品的系统,其特征在于,所述系统包括如权利要求1-5任一项所述的机器人、Kinect红外设备以及物品,其中,所述Kinect红外设备用于获取所述机器人的第一位置和所述物品的第二位置,并将所述第一位置和所述第二位置发送给所述机器人,使所述机器人能够基于所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
CN201710218458.8A 2017-04-05 2017-04-05 一种机器人、Kinect红外设备及抓取物品的系统 Active CN106956276B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710218458.8A CN106956276B (zh) 2017-04-05 2017-04-05 一种机器人、Kinect红外设备及抓取物品的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710218458.8A CN106956276B (zh) 2017-04-05 2017-04-05 一种机器人、Kinect红外设备及抓取物品的系统

Publications (2)

Publication Number Publication Date
CN106956276A CN106956276A (zh) 2017-07-18
CN106956276B true CN106956276B (zh) 2020-04-17

Family

ID=59484859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710218458.8A Active CN106956276B (zh) 2017-04-05 2017-04-05 一种机器人、Kinect红外设备及抓取物品的系统

Country Status (1)

Country Link
CN (1) CN106956276B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036931A1 (zh) * 2017-08-23 2019-02-28 深圳蓝胖子机器人有限公司 货物摆放方法、装置、系统以及电子设备和可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010096850A1 (de) * 2009-02-26 2010-09-02 Ih Tech Sondermaschinenbau U. Instandhaltung Gmbh Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten
CN105652873A (zh) * 2016-03-04 2016-06-08 中山大学 一种基于Kinect的移动机器人避障方法
CN106272427A (zh) * 2016-09-12 2017-01-04 安徽理工大学 一种工业机器人智能拾取系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010096850A1 (de) * 2009-02-26 2010-09-02 Ih Tech Sondermaschinenbau U. Instandhaltung Gmbh Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten
CN105652873A (zh) * 2016-03-04 2016-06-08 中山大学 一种基于Kinect的移动机器人避障方法
CN106272427A (zh) * 2016-09-12 2017-01-04 安徽理工大学 一种工业机器人智能拾取系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Kinect的机械臂目标抓取;韩峥 等;《智能系统学报》;20130430;第8卷(第2期);第1节 机械人系统的构建 至 第3节 轨迹优化 *

Also Published As

Publication number Publication date
CN106956276A (zh) 2017-07-18

Similar Documents

Publication Publication Date Title
US8214082B2 (en) Nursing system
KR100669250B1 (ko) 인공표식 기반의 실시간 위치산출 시스템 및 방법
Guan et al. Robot localization and navigation using visible light positioning and SLAM fusion
CN108549410A (zh) 主动跟随方法、装置、电子设备及计算机可读存储介质
Droeschel et al. Towards joint attention for a domestic service robot-person awareness and gesture recognition using time-of-flight cameras
RU2662913C2 (ru) Способ локализации робота в плоскости локализации
WO2012027845A2 (en) System and method for tracking
CN106197427A (zh) 一种室内定位导航的方法、装置以及机器人
CN111413970A (zh) 超宽带与视觉融合的室内机器人定位与自主导航方法
WO2023143408A1 (zh) 机器人物品抓取方法、装置、机器人、程序及存储介质
CN106647738A (zh) 一种无人搬运车的对接路径确定方法及系统及无人搬运车
CN107009357B (zh) 一种基于nao机器人抓取物体的方法
Mekonnen et al. Wireless hybrid visual servoing of omnidirectional wheeled mobile robots
GB2509814A (en) Method of Operating a Mobile Robot
CN106956276B (zh) 一种机器人、Kinect红外设备及抓取物品的系统
CN105373130A (zh) 基于立体建模的特种设备事故现场信息探测系统
CN111258311A (zh) 一种基于智能视觉的井下移动机器人避障方法
JP7166446B2 (ja) ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体
CN110070039A (zh) 基于深度学习的机房机柜及主控板感知与坐标测量方法及装置
Moon et al. A multi-robot positioning system using a multi-code ultrasonic sensor network and a Kalman filter
JP2002135641A (ja) 視点・視線自由移動カメラシステム
CN113610932A (zh) 双目相机外参标定方法和装置
CN107127773A (zh) 一种机器人抓取物品的方法
WO2024082558A1 (zh) 基于电磁定位的移动机器人跟随方法、装置及可读介质
CN116000932B (zh) 运动设备控制方法、系统、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201029

Address after: 430000 Chang Fu Road, Chang Fu Industrial Demonstration Park, Caidian District, Wuhan City, Hubei

Patentee after: WUHAN RIHAN PRECISION MACHINERY Co.,Ltd.

Address before: 430080 No. 947 Heping Avenue, Qingshan District, Hubei, Wuhan

Patentee before: WUHAN University OF SCIENCE AND TECHNOLOGY