CN107139179B - 一种智能服务机器人及工作方法 - Google Patents

一种智能服务机器人及工作方法 Download PDF

Info

Publication number
CN107139179B
CN107139179B CN201710386413.1A CN201710386413A CN107139179B CN 107139179 B CN107139179 B CN 107139179B CN 201710386413 A CN201710386413 A CN 201710386413A CN 107139179 B CN107139179 B CN 107139179B
Authority
CN
China
Prior art keywords
robot
image
grabbing
module
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710386413.1A
Other languages
English (en)
Other versions
CN107139179A (zh
Inventor
焦李成
黄钟健
孙其功
舒凯
刘畅
黄昊明
田小林
徐铭晟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian Univ
Original Assignee
Xidian Univ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian Univ filed Critical Xidian Univ
Priority to CN201710386413.1A priority Critical patent/CN107139179B/zh
Publication of CN107139179A publication Critical patent/CN107139179A/zh
Application granted granted Critical
Publication of CN107139179B publication Critical patent/CN107139179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control

Abstract

本发明公开了一种智能服务机器人及工作方法,本发明将深度学习与机器人的实体进行结合。在使用机器人之前,先通过大量数据训练深度学习网络,从而使其能够识别物体。然后结合机器人实体。先通过摄像头获取到当前环境图像,经由深度学习网络可以得出检测目标的位置以及类标,再融合深度图的信息,从而得到物体与机器人在空间中的相互关系。在跟踪过程中,机器人根据距离,动态调整跟踪时候的速度。机器人在抓取过程中,算法将物体与机器人的相互关系经过投影变换为机械臂的坐标系,指导机械臂进行抓取。

Description

一种智能服务机器人及工作方法
技术领域
本发明属于信息技术、机器人技术交叉技术领域,具体涉及一种智能服务机器人及工作方法。
背景技术
现今,绝大多数人的生活水平蒸蒸日上,但往往代价是工作的时间越来越多,休息的时间越来越少。每个都希望在有限的休息时间里面,能够充分休息,得到最好的服务。然而,如果通过雇佣管家或者保姆的方式,不仅会带来很大的花费,而且往往安全性得不到保证。从另一角度,未来几十年,我国人口老年化的状况将会日益凸显。老人的起居各方面都需要一定的照顾和辅助。而我们日益繁忙的生活往往使我们忽略了对老人的照顾。从这两方面考虑,未来使用机器人服务人类,将是一个必然趋势。所以机器人将在未来的几十年内扮演这个角色,来服务大众。
然而现在市面上并没有多少比较智能的机器人,可能是科幻电影拉高了大众的期望。与其说是机器人,更准确地说应该叫机械人,没有认知能力,基于规则的人工智能使得它们比较机械地去为人们进行工作。或者一个小巧的语音助理,缺乏对物理世界的控制。
现在,时代在进步,深度学习技术的兴起,“智能”一词得以真正与机器人挂钩。什么是弱人工智能?图像占人所接收信息的80%左右,我们用行动做到了对图像的感知理解,让计算机学会识别问题,并在空间中找到位置进行抓取。
发明内容
本发明的目的在于克服上述不足,提供一种智能服务机器人及工作方法,通过Faster-RCNN(更快的识别卷积神经网络)强大识别能力,能够很精确地在环境中快速找到感兴趣的物体,然后通过机械臂进行抓取。这种自识别的方式提高了机器人的自主性,能够更为智能地服务我们。
为了达到上述目的,一种智能服务机器人,包括底盘控制器,底盘控制器上固定有舵机旋转平台,舵机旋转平台上设置有数据采集模块,底盘控制器上设置有机械臂,数据采集模块、舵机旋转平台、底盘控制器和机械臂均与中央处理器相连;
所述数据采集模块包括摄像头和麦克风,摄像头用于采集彩色图和深度图,并将数据传至中央处理器;
所述中央处理器用于接收数据,进行物体识别并控制舵机旋转平台、底盘控制器和机械臂。
所述中央处理器包括以下模块:
BgController模块,用于接收来自GUI以及摄像头的信息及数据,根据实际情况,向BgSerial模块发布任务信息,从而使机器人实施工作;
BgObjReg模块,用于通过Openni驱动Xtion深度摄像头,获取RGB图像以及深度信息图像并发送给BgController模块,同时将图像信息发送给Darknet深度学习模块进程进行物体识别;
Darknet yolo深度学习模块,通过将采集的视频流载入程序框架中,经过自主运算后提取到该图片的特征,将图片分成几个块,经过softmax计算,确定各个模块是该类别的概率,选择最大概率的图块,进行扩展区域识别,分类完成后,再次运行另一个分类器,输出结果为x、y、w、h四类,即可确定闭合框位置,然后标记出所需物体;
第一BgGUI模块,用于启动机器人系统;
第二BgGUI模块,集成了语音识别、语音转文字功能以及语义理解功能,并与第一BgGUI模块代码耦合,用于语音控制机器人。
一种智能服务机器人的工作方法,包括以下步骤:
步骤一,通过大量数据训练深度学习网络,从而使机器人能够识别物体,并结合机器人实体;
步骤二,通过摄像头获取到当前环境图像,经由深度学习网络可以得出检测目标的位置以及类标,再融合深度图的信息,从而得到物体与机器人在空间中的相互关系;
步骤三,在跟踪过程中,机器人根据距离,动态调整跟踪时候的速度;
步骤四,机器人在抓取过程中,中央处理器将物体与机器人的相互关系经过投影变换为机械臂的坐标系,指导机械臂进行抓取。
所述跟踪过程的控制流程如下:
第一步,启动系统,打开麦克风,接收到任何人声后,主机处理,若从中找到“跟踪”含义的命令,机器人会进入跟踪状态,摄像头调整至水平状态,获取到图像后,卷积神经网络将会识别出需要跟踪的对象,并将其在图像中的对应位置进行发布;
第二步,根据第一步中获取的跟踪对象在图中的位置,根据从图像采集装置得到的深度图像进行匹配,能够得到机器人与跟踪对象之间的距离;
第三步,根据第一步中获取的跟踪对象在图中的位置,计算出对象的中心点在图中的位置,根据近大远小的常理,并且根据第二步中获知的距离,计算转向的阈值,阈值随对象距离变化而变化,当对象中心超出阈值范围,机器人执行左右转动,直到对象位于机器人正前方;
第四步,根据对象距离,进行变速运动,较远时,机器人加速前进;较近时,机器人减速前进,速度与距离呈负相关;
第五步,当检测到距离达到指定距离后,机器人停止移动,原地等待直到对象状态发生变化,执行第一步继续跟踪。
所述抓取过程的控制流程如下:
第一步,启动系统,打开麦克风,接收到任何人声后,若从中找到“识别抓取”类似含义的命令,当接收到抓取指令后,机器人会进入抓取状态,摄像头调整至朝下45度状态,获取到图像后,20层卷积神经网络识别出需抓取的对象,并将其在图像中的对应像素位置进行发布到系统中;
第二步,通过第一步获取到抓取对象在RGB三通道图像中的坐标后,结合深度图中距离信息,将对象的坐标根逻辑回归模型计算,映射到机械臂对应的三维笛卡尔坐标系中;
第三步,检测程序进行抓取坐标检测,判断该坐标是否在合理可行集合中;若超出范围,则执行第四步;若未超出范围,则执行第五步;
第四步,根据物体位置,以及抓取坐标,使用K最近邻算法得到机器人调整位置的初步策略;第一次策略包括向前、向后、向左、向右移动四种,移动以后执行第一步,重新进行抓取工作;
第五步,根据抓取坐标,机械臂移动到相应位置,下压吸嘴,打开气泵,进行低压抓取,抓取完成以后,机械臂带着物体回到机械臂初始位置,即完成一次抓取工作。
与现有技术相比,本发明通过摄像头获取到当前环境图像,经由深度学习网络可以得出检测目标的位置以及类标,再融合深度图的信息,从而得到物体与机器人在空间中的相互关系。在跟踪过程中,机器人根据距离,动态调整跟踪时候的速度。机器人在抓取过程中,算法将物体与机器人的相互关系经过投影变换为机械臂的坐标系,指导机械臂进行抓取。能够很精确地在环境中快速找到感兴趣的物体,然后通过机械臂进行抓取。
本发明将深度学习与机器人的实体进行结合。在使用机器人之前,先通过大量数据训练深度学习网络,从而使其能够识别物体。然后结合机器人实体。先通过摄像头获取到当前环境图像,经由深度学习网络可以得出检测目标的位置以及类标,再融合深度图的信息,从而得到物体与机器人在空间中的相互关系。在跟踪过程中,机器人根据距离,动态调整跟踪时候的速度。机器人在抓取过程中,算法将物体与机器人的相互关系经过投影变换为机械臂的坐标系,指导机械臂进行抓取。
附图说明
图1是本发明的硬件结构图;
图2是本发明的系统结构框图;
图3是本发明进行跟踪工作流程图;
图4是本发明进行识别抓取工作流程图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1,本发明的硬件结构图为Nvidia Jetson TX1嵌入式开发板,它体积较小,功率也较小,性能相对于当前上市的开发板,在并行运算上强悍,作为本款机器人的中央控制器。主要负责把传感器传送回来的信号,包括电机编码器的每秒脉冲数,摄像头的图像信号,麦克风的声音信号,机器臂的舵机信号进行实时处理。并将处理后的结果如车速,机器臂的坐标等信息实时发出。
底盘控制器使用Arduino,Arduino用来控制车速。Arduino读取电机编码器的脉冲数,并对其进行相应的处理,再通过串口发送给中央处理器。同时,它还将通过串口从中央处理器获取目标速度,并根据实际速度进行PID控制。
机器臂,用来抓取物体。首先,中央处理器先对摄像头获取的图像进行目标检测后,进行相应的处理。接着,中央处理器根据处理结果算出机器臂抓取的相应的坐标。然后中央处理器把坐标发给机器臂。然后机器臂根据相应的坐标,转动舵机到相应的角度。接着根据应用场景完成气泵抓放操作。
Xtion pro live摄像头数据采集模块,放在车的最高处。当小车在移动时,摄像头将平视,用来获取道路前方的景象,并把相应的数据发给中央处理器进行处理。
当小车停止移动,且要完成抓取操作时,摄像头将45度向下,获取地面上的景象,并把相应的数据发给中央处理器进行处理。
带有编码盘的电机,用来控制小车的运动。
20AH 12V锂电池,用来给电机,中央处理器,Arduino,机器臂,以及其他元件供电。
扬声器与麦克风阵列。收发声音,用于人机交互。
机器人底盘和机器人车壳。用来固定各种器件,包括中央处理器,机器臂,Arduino,小喇叭,摄像头,同时具有一定的观赏性。
参照图2,本发明的BeltaGo服务机器人的整体系统框架为
BgController模块:整个系统的主要控制模块,本机器人的核心控制中心。其负责接收来自GUI以及摄像头的信息及数据,根据实际情况,向BgSerial模块发布任务信息,从而使机器人实施工作。
BgObjReg模块:通过Openni驱动Xtion深度摄像头,获取RGB图像以及深度信息图像并发送给BgController。同时将图像信息发送给Darknet深度学习模块进程进行物体识别。
Darknet yolo深度学习模块:机器人主要的智能视觉处理方案。现有的检测系统为了进行检测赋予分类和定位方法新用途。他们在多个位置和尺度把模型应用于这张图像。高得分区域的图像被认为是检测出的物体。我们使用一个完全不同的方法。我们把一个单一的神经网络应用于完整图像。图像被该网络分割成区域,并预测边界框和每个区域的概率。这些小的包围框以预测概率加权,最终合成完整大框。我们的模型有超越传统分类系统的几个优势。计算分成两步。它首先使用了RPN,RPN(Region ProposalNetwork)的核心思想是使用卷积神经网络直接产生region proposal,使用的方法本质上就是滑动窗口,就是先猜框在哪。然后接入到两个全连接层,即cls layer和reglayer分别用于分类和边框回归。clslayer包含2个元素,用于判别目标和非目标的估计概率。reglayer包含4个坐标元素(x,y,w,h),用于确定目标位置。cls:正样本,与真实区域重叠大于0.7,负样本,与真实区域重叠小于0.3。(reg:返回区域位置。)最后根据region proposal得分高低,选取前300个region proposal,作为Fast R-CNN的输入进行目标检测,接下来就是一个普通的CNN分类问题,技术成熟。这也使得用一个单一的网络评价预测不像r-cnn需要给一张图像同时运算成千上万个参数。这使得它非常快,比r-cnn和快1000倍,比fast r-cnn更快100倍。
通俗地解释,通过将采集的视频流载入到我们预先搭建好的程序框架中,经过数万参数的自主运算,我们将提取到该图片的特征,将图片分成几个块,经过最后一层softmax计算,确定各个模块是该类别的概率,选择最大概率的图块,进行扩展区域识别,大大提高了检测效率,分类完成后,再次运行另一个分类器,输出结果为(x,y,w,h)四类,即可确定闭合框位置。然后标记出我们感兴趣的物体。并且能够通过更换参数文件,实现了多种物体的识别,具有极强的通用性以及可扩展性。
BgGUI模块1:此模块作为与用户交互部分。其上具有开机按键,能够一键开启机器人系统。还有一系列控制按键方便用户使用。
BgGUI模块2:该模块与上个模块代码高度耦合,集成了语音识别、语音转文字功能以及语义理解功能,以上三个功能为人工智能下自然语言处理(NLP)方向,这使得我们的BeltaGo更智能机器人能够跟用户使用语音交流,用户可以使用语音控制机器人。
BgSerial模块:此模块下包含BgCarSerial和BgArmSerial,作为主控制板专门与底盘和机械臂通信的接口,与底盘和机械臂接收与发送控制信息。
参照图3,本发明利用上述系统进行跟踪工作流程步骤如下:
步骤1,识别跟踪对象
首先,系统开启各项进程(即上述各个模块的程序开始运行),然后打开麦克风,接收到任何人声后,主机处理,若从中找到“跟踪”类似含义的命令,机器人会进入跟踪状态,摄像头调整至水平状态,以便跟踪工作。获取到图像后,卷积神经网络将会识别出需要跟踪的对象,并将其在图像中的对应位置进行发布。
步骤2,跟踪对象匹配深度图,获知与对象距离
通过步骤1能够获知所需跟踪对象在图中的位置,然后根据从图像采集装置得到的深度图像进行匹配,能够大致得到机器人与跟踪对象之间的距离。
步骤3,根据对象位置确定移动方式
通过步骤1,获知跟踪对象在图中的位置,计算出对象的中心点在图中的位置。根据近大远小的常理,并且根据步骤2中获知的距离,计算转向的阈值。阈值随对象距离变化而变化。当对象中心超出阈值范围,机器人执行左右转动,直到对象位于机器人正前方。
步骤4,根据对象距离确定移动速度
通过步骤3使机器人正对对象,然后根据对象距离,进行变速运动。较远时,机器人加速前进;较近时,机器人减速前进。速度与距离呈负相关。
步骤5,确认是否到达指定距离
当检测到距离达到指定距离后,机器人停止移动,原地等待直到对象状态发生变化,继续执行步骤1继续跟踪。
参照图4,本发明利用上述系统进行识别抓取工作,包括以下步骤:
步骤1,识别物体
首先,系统开启各项进程(即上述各个模块的程序开始运行),然后打开麦克风,接收到任何人声后,主机处理,若从中找到“识别抓取”类似含义的命令,当接收到抓取指令后,机器人会进入抓取状态,摄像头调整至朝下45度状态,以便识别放在地面上的物体。获取到图像后,20层卷积神经网络将会在GPU上以飞秒级别运算,大约0.07秒后,识别出需抓取的对象,并将其在图像中的对应像素位置进行发布到系统中。
步骤2,抓取坐标映射
通过步骤1获取到抓取对象在RGB三通道图像中的坐标后,结合深度图中距离信息,将对象的坐标根逻辑回归模型计算,映射到机械臂对应的三维笛卡尔坐标系中。
步骤3,抓取点检测
因为机械臂抓取范围有一定限制,所以在步骤2得到映射后的抓取坐标后,另一个检测程序进行抓取坐标检测,判断该坐标是否在合理可行集合中。若超出范围,执行步骤4;若可以执行步骤5.
步骤4,调整机器人位置
根据物体位置,以及抓取坐标,使用K最近邻(KNN)算法得到机器人调整位置的初步策略。第一次策略包括向前、向后、向左、向右移动四种,移动以后执行步骤1,重新进行抓取工作。
步骤5,实施抓取
根据抓取坐标,机械臂移动到相应位置,下压吸嘴,打开气泵,进行低压抓取。抓取完成以后,机械臂带着物体回到机械臂初始位置。一次抓取任务圆满结束。
本发明对于跟踪对象和抓取物体具有一定的通用性。只要提供相应的数据,即可实现对于不同对象进行跟踪和不同物体进行抓取。
本发明在Linux-arm嵌入式平台下运行,功耗,体积相对于其他平台更小,具有可移动的优势,对其它智能机器人的发明有一定借鉴意义。
本发明采用的图像理解——目标检测算法,与传统手工特征提取的方式完全不同。不仅在运行速度上远远超过其它DNN(深层神经网络)目标检测算法(除SDD外),具有较强的实时性,而且拥有当前环境下0.95左右的置信度。此外,该算法纯C编码,具有良好的可移植性。最关键的是,检测准确度极高。
本发明采用的软件架构是基于ROS机器人操作的。其在处理进程时,耦合性较弱,当一部分进程因意外而终止时,其余进程不受影响,从而大大提高了整个系统的鲁棒性和稳定性。

Claims (4)

1.一种智能服务机器人,其特征在于,包括底盘控制器(4),底盘控制器(4)上固定有舵机旋转平台(2),舵机旋转平台(2)上设置有数据采集模块(1),底盘控制器(4)上设置有机械臂(5),数据采集模块(1)、舵机旋转平台(2)、底盘控制器(4)和机械臂(5)均与中央处理器(3)相连;
所述数据采集模块(1)包括摄像头和麦克风,摄像头用于采集彩色图和深度图,并将数据传至中央处理器(3);
所述中央处理器(3)用于接收数据,进行物体识别并控制舵机旋转平台(2)、底盘控制器(4)和机械臂(5);
所述中央处理器(3)包括以下模块:
BgController模块,用于接收来自GUI以及摄像头的信息及数据,根据实际情况,向BgSerial模块发布任务信息,从而使机器人实施工作;
BgObjReg模块,用于通过Openni驱动Xtion深度摄像头,获取RGB图像以及深度信息图像并发送给BgController模块,同时将图像信息发送给Darknet深度学习模块进程进行物体识别;
Darknet yolo深度学习模块,通过将采集的视频流载入程序框架中,经过自主运算后提取到图片的特征,将图片分成几个块,经过softmax计算,确定各个模块是类别的概率,选择最大概率的图块,进行扩展区域识别,分类完成后,再次运行另一个分类器,输出结果为x、y、w、h四类,即可确定闭合框位置,然后标记出所需物体;
第一BgGUI模块,用于启动机器人系统;
第二BgGUI模块,集成了语音识别、语音转文字功能以及语义理解功能,并与第一BgGUI模块代码耦合,用于语音控制机器人。
2.适用于权利要求1所述的一种智能服务机器人的工作方法,其特征在于,包括以下步骤:
步骤一,通过大量数据训练深度学习网络,从而使机器人能够识别物体;
步骤二,通过摄像头获取到当前环境图像,经由深度学习网络可以得出检测目标的位置以及类标,再融合深度图的信息,从而得到物体与机器人在空间中的相互关系;
步骤三,在跟踪过程中,机器人根据距离,动态调整跟踪时候的速度;
步骤四,机器人在抓取过程中,中央处理器将物体与机器人的相互关系经过投影变换为机械臂的坐标系,指导机械臂进行抓取。
3.根据权利要求2所述的一种智能服务机器人的工作方法,其特征在于,所述跟踪过程的控制流程如下:
第一步,启动系统,打开麦克风,接收到任何人声后,主机处理,若从中找到“跟踪”含义的命令,机器人会进入跟踪状态,摄像头调整至水平状态,获取到图像后,卷积神经网络将会识别出需要跟踪的对象,并将其在图像中的对应位置进行发布;
第二步,根据第一步中获取的跟踪对象在图中的位置,根据从图像采集装置得到的深度图像进行匹配,能够得到机器人与跟踪对象之间的距离;
第三步,根据第一步中获取的跟踪对象在图中的位置,计算出对象的中心点在图中的位置,根据近大远小的常理,并且根据第二步中获知的距离,计算转向的阈值,阈值随对象距离变化而变化,当对象中心超出阈值范围,机器人执行左右转动,直到对象位于机器人正前方;
第四步,根据对象距离,进行变速运动,较远时,机器人加速前进;较近时,机器人减速前进,速度与距离呈负相关;
第五步,当检测到距离达到指定距离后,机器人停止移动,原地等待直到对象状态发生变化,执行第一步继续跟踪。
4.根据权利要求2所述的一种智能服务机器人的工作方法,其特征在于,所述抓取过程的控制流程如下:
第一步,启动系统,打开麦克风,接收到任何人声后,若从中找到“识别抓取”类似含义的命令,当接收到抓取指令后,机器人会进入抓取状态,摄像头调整至朝下45度状态,获取到图像后,20层卷积神经网络识别出需抓取的对象,并将其在图像中的对应像素位置进行发布到系统中;
第二步,通过第一步获取到抓取对象在RGB三通道图像中的坐标后,结合深度图中距离信息,将对象的坐标根逻辑回归模型计算,映射到机械臂对应的三维笛卡尔坐标系中;
第三步,检测程序进行抓取坐标检测,判断该坐标是否在合理可行集合中;若超出范围,则执行第四步;若未超出范围,则执行第五步;
第四步,根据物体位置,以及抓取坐标,使用K最近邻算法得到机器人调整位置的初步策略;第一次策略包括向前、向后、向左、向右移动四种,移动以后执行第一步,重新进行抓取工作;
第五步,根据抓取坐标,机械臂移动到相应位置,下压吸嘴,打开气泵,进行低压抓取,抓取完成以后,机械臂带着物体回到机械臂初始位置,即完成一次抓取工作。
CN201710386413.1A 2017-05-26 2017-05-26 一种智能服务机器人及工作方法 Active CN107139179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710386413.1A CN107139179B (zh) 2017-05-26 2017-05-26 一种智能服务机器人及工作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710386413.1A CN107139179B (zh) 2017-05-26 2017-05-26 一种智能服务机器人及工作方法

Publications (2)

Publication Number Publication Date
CN107139179A CN107139179A (zh) 2017-09-08
CN107139179B true CN107139179B (zh) 2020-05-29

Family

ID=59779121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710386413.1A Active CN107139179B (zh) 2017-05-26 2017-05-26 一种智能服务机器人及工作方法

Country Status (1)

Country Link
CN (1) CN107139179B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154098A (zh) * 2017-12-20 2018-06-12 歌尔股份有限公司 一种机器人的目标识别方法、装置和机器人
CN108247601A (zh) * 2018-02-09 2018-07-06 中国科学院电子学研究所 基于深度学习的语义抓取机器人
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN108805004A (zh) * 2018-04-12 2018-11-13 深圳市商汤科技有限公司 功能区域检测方法和装置、电子设备、存储介质、程序
CN108888204A (zh) * 2018-06-29 2018-11-27 炬大科技有限公司 一种扫地机器人呼唤装置及呼唤方法
CN108908334A (zh) * 2018-07-20 2018-11-30 汕头大学 一种基于深度学习的智能抓取系统及方法
CN109066861A (zh) * 2018-08-20 2018-12-21 四川超影科技有限公司 基于机器视觉的智能巡检机器人自动充电控制方法
CN109635648A (zh) * 2018-11-05 2019-04-16 上海鲸鱼机器人科技有限公司 机器人及其控制方法
CN109584298B (zh) * 2018-11-07 2020-07-28 上海交通大学 面向机器人自主物体拾取任务的在线自学习方法
CN109531584A (zh) * 2019-01-31 2019-03-29 北京无线电测量研究所 一种基于深度学习的机械臂控制方法和装置
CN109895095A (zh) * 2019-02-11 2019-06-18 赋之科技(深圳)有限公司 一种训练样本的获取方法、装置和机器人
CN109840508A (zh) * 2019-02-17 2019-06-04 李梓佳 一个基于深度网络架构自动搜索的机器人视觉控制方法,设备及存储介质
CN110216688B (zh) * 2019-05-23 2021-04-09 浙江工业大学 一种办公区送件服务机器人及其控制方法
CN110298886B (zh) * 2019-07-01 2020-12-25 中国科学技术大学 一种基于四级卷积神经网络的灵巧手抓取规划方法
CN111360851B (zh) * 2020-02-19 2021-01-15 哈尔滨工业大学 一种融合触觉和视觉的机器人混合伺服控制装置及方法
CN111823228A (zh) * 2020-06-08 2020-10-27 中国人民解放军战略支援部队航天工程大学 一种室内跟随机器人系统和运行方法
CN112223288A (zh) * 2020-10-09 2021-01-15 南开大学 一种视觉融合的服务机器人控制方法
CN112454369A (zh) * 2021-01-27 2021-03-09 苏州盈科电子有限公司 一种机器人的控制方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102323817A (zh) * 2011-06-07 2012-01-18 上海大学 一种服务机器人控制平台系统及其多模式智能交互与智能行为的实现方法
CN105654067A (zh) * 2016-02-02 2016-06-08 北京格灵深瞳信息技术有限公司 一种车辆检测方法及装置
CN106094516A (zh) * 2016-06-08 2016-11-09 南京大学 一种基于深度强化学习的机器人自适应抓取方法
CN106504233A (zh) * 2016-10-18 2017-03-15 国网山东省电力公司电力科学研究院 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统
CN206170098U (zh) * 2016-11-23 2017-05-17 长沙学院 一种可室内跟随目标的自动取物机器人

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US9792531B2 (en) * 2015-09-16 2017-10-17 Siemens Healthcare Gmbh Intelligent multi-scale medical image landmark detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102323817A (zh) * 2011-06-07 2012-01-18 上海大学 一种服务机器人控制平台系统及其多模式智能交互与智能行为的实现方法
CN105654067A (zh) * 2016-02-02 2016-06-08 北京格灵深瞳信息技术有限公司 一种车辆检测方法及装置
CN106094516A (zh) * 2016-06-08 2016-11-09 南京大学 一种基于深度强化学习的机器人自适应抓取方法
CN106504233A (zh) * 2016-10-18 2017-03-15 国网山东省电力公司电力科学研究院 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统
CN206170098U (zh) * 2016-11-23 2017-05-17 长沙学院 一种可室内跟随目标的自动取物机器人

Also Published As

Publication number Publication date
CN107139179A (zh) 2017-09-08

Similar Documents

Publication Publication Date Title
CN107139179B (zh) 一种智能服务机器人及工作方法
CN108496127B (zh) 集中于对象的有效三维重构
CN103353935B (zh) 一种用于智能家居系统的3d动态手势识别方法
US20180186452A1 (en) Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation
US6804396B2 (en) Gesture recognition system
CN105867630A (zh) 机器人的手势识别方法及装置及机器人系统
US20160154996A1 (en) Robot cleaner and method for controlling a robot cleaner
Xu et al. Real-time dynamic gesture recognition system based on depth perception for robot navigation
CN1730135A (zh) 基于多处理器协作的智能表演机器人的控制系统
CN103679203A (zh) 机器人的人脸检测与情感识别系统及方法
US20050271279A1 (en) Sign based human-machine interaction
CN107336243B (zh) 基于智能移动终端的机器人控制系统及控制方法
AU2018311661B2 (en) Method and apparatus for distributed edge learning
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
Wachs et al. Real-time hand gesture telerobotic system using fuzzy c-means clustering
CN109933061A (zh) 基于人工智能的机器人及控制方法
CN102759953A (zh) 一种自动摄像头
WO2016169096A1 (zh) 一种终端的控制方法及装置
Wang et al. A novel multi-cue integration system for efficient human fall detection
EP3709134A1 (en) Tool and method for annotating a human pose in 3d point cloud data
CN111055281B (zh) 一种基于ros的自主移动抓取系统与方法
US10971152B2 (en) Imaging control method and apparatus, control device, and imaging device
CN212170421U (zh) 一种能够手语识别交互的公共服务机器人
Tzafestas et al. Gestural teleoperation of a mobile robot based on visual recognition of sign language static handshapes
KR20210048271A (ko) 복수 객체에 대한 자동 오디오 포커싱 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant