CN105773619A - 用于实现人形机器人抓取行为的电控系统和人形机器人 - Google Patents
用于实现人形机器人抓取行为的电控系统和人形机器人 Download PDFInfo
- Publication number
- CN105773619A CN105773619A CN201610264431.8A CN201610264431A CN105773619A CN 105773619 A CN105773619 A CN 105773619A CN 201610264431 A CN201610264431 A CN 201610264431A CN 105773619 A CN105773619 A CN 105773619A
- Authority
- CN
- China
- Prior art keywords
- instruction
- action
- robot
- crawl
- action command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种用于实现人形机器人抓取行为的电控系统,包括主机、从机以及动作执行机构,其中:所述主机配置为:获取并分析多模态输入数据生成交互指令,当所述交互指令为抓取指令和/或放置指令时,根据所述抓取指令或放置指令生成相应的动作指令并输出至从机;所述从机配置为:解析所述动作指令以及所述动作执行机构反馈的动作状态,生成驱动指令并发送给所述动作执行机构,直至所述动作执行机构的动作状态与所述动作指令匹配;所述动作执行机构配置为:根据所述驱动指令执行相应动作,并在设定时间内获取动作状态反馈给所述从机。与现有技术相比,本发明的系统不仅可以实现高成功率、高准确率的抓取放置行为,而且结构简单,硬件成本低。
Description
技术领域
本发明涉及机器人领域,具体说涉及一种用于实现人形机器人抓取行为的电控系统和人形机器人。
背景技术
随着计算机技术的不断发展以及人工智能技术的不断进步,在家用领域小型人形机器人的应用也越来越广泛,面向家用的小型人形机器人,尤其人形机器人正在迅猛发展,其拟人化程度不断提高。
在现有技术中,面向家用的机器人无法实现指定物品的抓取放置行为。这不仅限制了机器人的应用范围,降低了人形机器人的拟人化程度,而且大大降低了机器人的用户体验。
因此,为了提高人形机器人的用户体验,拓展人形机器人的应用范围,亟需一种用于实现人形机器人抓取放置行为的电控系统。
发明内容
为了提高机器人的用户体验,拓展机器人的应用范围,本发明提供了一种用于实现人形机器人抓取行为的电控系统,所述系统包括主机、从机以及动作执行机构,其中:
所述主机配置为:获取并分析多模态输入数据生成交互指令,当所述交互指令为抓取指令和/或放置指令时,根据所述抓取指令或放置指令生成相应的动作指令并输出至从机;
所述从机配置为:解析所述动作指令以及所述动作执行机构反馈的动作状态,生成驱动指令并发送给所述动作执行机构,直至所述动作执行机构的动作状态与所述动作指令匹配;
所述动作执行机构配置为:根据所述驱动指令执行相应动作,并在设定时间内获取动作状态反馈给所述从机。
在一实施例中,所述根据所述抓取指令或放置指令生成相应的动作指令,包括:
采集外界图像信息并根据所述外界图像信息解析抓取对象或放置地点;
根据所述抓取对象或所述放置地点的解析结果生成所述动作指令。
在一实施例中,所述主机配置为根据所述抓取对象或所述放置地点的解析结果生成所述动作指令,其中:
根据所述抓取对象或所述放置地点的解析结果规划路径信息;
根据当前的所述路径信息确定机器人动作并生成与所述动作匹配的动作指令。
在一实施例中,所述主机配置为根据所述位置信息规划路径信息,所述路径信息包括位移路径和抓取/放置路径,其中:
所述位移路径为所述机器人从当前位置到所述抓取对象或所述放置地点附近的第一位置点的移动轨迹;
所述主机配置为当所述机器人处于所述位移路径上时生成并输出匹配所述位移路径的动作指令;
所述抓取/放置路径为所述机器人位于所述第一位置点处时其抓取部件移动到所述抓取对象或所述放置地点上的移动轨迹;
所述主机配置为当所述机器人位于所述第一位置点处时生成并输出匹配所述抓取/放置路径的动作指令。
在一实施例中,所述主机还配置为:
记录在先生成的所述动作指令以训练预设路径规划模型。
在一实施例中,所述主机还配置为:
在机器人执行所述动作指令的过程中采集变化的外界图像信息并根据所述外界图像信息解析抓取对象或放置地点;
根据所述抓取对象或所述放置地点的新的解析结果更新所述动作指令。
在一实施例中,所述主机还配置为:
输出语音信息反馈当前动作指令的关联信息。
在一实施例中,所述动作执行机构包含多个自反馈舵机,多个所述自反馈舵机包括腿部舵机以及手部舵机。
本发明实施例还提供一种人形机器人,包括本发明实施例提供的用于实现人形机器人抓取行为的电控系统。
根据本发明的系统,人形机器人可以实现指定物品的抓取并将物品放置到指定地点。与现有技术相比,本发明的系统不仅可以实现高成功率、高准确率的抓取放置行为,而且结构简单,硬件成本低。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一实施例的系统结构简图;
图2是根据本发明一实施例的系统部分结构简图;
图3是根据本发明一实施例的系统硬件接口示意图;
图4是根据本发明一实施例的抓取操作执行流程图;
图5是根据本发明一实施例的放置操作执行流程图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
为了提高机器人的用户体验,拓展机器人的应用范围,本发明提出了一种用于实现人形机器人抓取行为的电控系统。为了实现抓取行为,首先对人类的抓取行为进行简单的分析。
抓取行为可以简单的分为抓取过程(将指定的目标物抓起来)以及放置过程(将抓取到的目标物放置到指定地点)两个部分。人类实行抓取行为的过程可以概括为:根据具体的行为目的(抓取目标或放置目标)规划过程细节;控制躯体作出具体行为以实现上述过程细节从而最终完成行为目的。
基于上述逻辑过程的分析,在本发明一实施例中,电控系统的基本结构包括主机、从机以及动作执行机构。其中,主机用于规划抓取过程或放置过程的过程细节,从机以及动作执行机构用于具体执行主机规划好的过程细节。
如图1所示,主机100配置为:获取并分析多模态输入数据生成交互指令,当交互指令为抓取指令和/或放置指令时,根据抓取指令或放置指令生成相应的动作指令并输出至从机。从机110配置为:解析动作指令以及动作执行机构反馈的动作状态,生成驱动指令并发送给动作执行机构,直至动作执行机构的动作状态与动作指令匹配。动作执行机构配置为:根据驱动指令执行相应动作,并在设定时间内获取动作状态反馈给从机110。
具体的,在本实施例中,机器人为仿人形机器人,动作执行机构包括腿部舵机121(用于行走,整体移动机器人)、手部舵机122(用于移动手臂,精确到达拾取/放置位置)以及电磁铁123(位于手臂的手指处,用于吸取物品以实现抓取动作)。
这里需要说明的是,本发明的系统的人形机器人的结构并不限于图1以及本说明书描述的其他具体实施例所示的结构(人形机器人可以仅有一部分结构是仿人形的)。可以根据机器人的实际功能结构需求构造系统的舵机数量以及传感器类型。例如,在本发明一实施例中,机器人并未采用完全的仿人形,其腿部为车轮移动结构。那么系统就可以取消腿部舵机的设置改为增加用于驱动车轮的电机。进一步的,图1所示实施例采用电磁铁作为抓取机构,其只能抓取铁质物品。在本发明一实施例中,可以构造夹持部件作为抓取机构。例如,在机器人手部构造可以自主活动的手指结构(增添新的手指舵机),利用手指的夹持实现物品的抓取。
这里需要说明的是,由于本发明的主要技术效果之一是实现机器人的抓取行为,因此在本说明书中主要围绕抓取行为的实现进行阐述,其他用于辅助抓取功能实现的相关的机器人功能就不详细描述。进一步的,在实际应用中,本发明的系统的各个模块所能够实现的功能并不仅限于抓取行为的实现(例如系统的主机并不仅限于根据抓取指令或放置指令生成相应的动作指令,也可以根据其他指令生成相应的动作指令以实现其他的功能)。
进一步的,本发明的系统对机器人的硬件结构(运动部件的结构)并没有严格限定。根据具体应用环境,本发明所涉及的机器人可以具备多种不同的硬件结构(舵机数目以及具体的舵机关节结构设置)。在本实施例中,机器人为人形机器人,其硬件结构包含双腿、手臂以及手指。对应的舵机包含双腿舵机、手臂舵机以及手指舵机。
基于主机、从机以及舵机的结构,本发明的电控系统可以实现机器人的抓取行为。上述系统功能的实现,其关键过程之一在于主机100根据抓取指令或放置指令生成相应的动作指令(规划过程细节)。为了能够简单准确的实现上述功能,进一步分析人类实行抓取行为的详细过程。
在本实施例中,采用图像分析的方法对抓取目标/放置地点进行定位。如图1所示,主机100配置为:采集外界图像信息并根据外界图像信息解析抓取对象101(或放置地点);根据抓取对象101(或放置地点)的解析结果生成动作指令。
对应的,主机100的结构如图2所示。主机100包含交互指令获取装置211、交互指令分析装置212、图像采集装置210以及图像解析装置220。交互指令获取装置配置为获取并分析多模态输入数据生成交互指令;当交互指令为抓取指令和/或放置指令时,交互指令分析装置212从抓取指令或放置指令中提取抓取对象或放置地点的特征描述;图像采集装置210配置为采集外界图像信息;图像解析装置220配置为根据特征描述解析外界图像信息,获取抓取对象或放置地点的当前位置和体积信息。
这里需要说明的是,图2所示为本发明一实施例的主机的功能性模块结构简图。本发明的系统的结构并不仅限于图2所示的结构。在本发明其他实施例中,可以根据具体情况对图2所示结构进行变形。
当抓取对象或放置地点的位置确定后,就可以进一步规划抓取/放置的具体过程细节。抓取/放置过程包括一个位移过程(将手移动到主区目标上或将手中抓取的物品移动到放置地点上)。如果想要令机器人顺利的从A点移动到B点必须给其指明每一步的具体路径;进一步的,实现每一步具体路径的动作。因此,在本实施例中,主机100配置为首先根据抓取对象或放置地点位置信息规划路径信息;然后根据路径信息确定机器人动作并生成与动作匹配的动作指令。
如图2所示,主机100包含路径规划装置230以及动作指令生成装置240。路径规划装置230配置为根据抓取对象或放置地点位置信息规划路径信息;动作指令生成装置240配置为根据路径信息确定机器人动作并生成与动作匹配的动作指令。
进一步细化分析人类实行抓取行为的过程,抓取过程或放置过程的移动行为可以分为两个部分。首先是整体位移,躯体移动到抓取对象或放置地点附近(手随躯体整体移动);然后是手部移动,需要抓取物品的手或抓取着物品的手移动到抓取对象或放置地点上(躯体位置基本保持不变)。
基于上述分析,在本实施例中,主机100(路径规划装置230)规划的路径信息首先包括位移路径,其中:位移路径为机器人从当前位置到抓取对象或放置地点附近的第一位置点的移动轨迹;主机100(动作指令生成装置240)配置为当机器人处于位移路径上时生成并输出匹配位移路径的动作指令。
即,路径规划装置230首先规划位移路径,动作指令生成装置240生成匹配位移路径的动作指令使得机器人位移到抓取对象或放置地点附近的第一位置点。
然后,主机100(路径规划装置230)规划的路径信息还包括抓取/放置路径,其中:抓取/放置路径为机器人位于第一位置点处时其抓取部件(相当于人类的手部)移动到抓取对象或所述放置地点上的移动轨迹;主机100(动作指令生成装置240)配置为当机器人位于第一位置点处时生成并输出匹配抓取/放置路径的动作指令。
即,路径规划装置230规划抓取/放置路径,动作指令生成装置240生成匹配抓取/放置路径的动作指令使得机器人的抓取部件位移到抓取对象或放置地点上。
进一步的,在本实施例中,路径规划装置230基于图像解析装置的解析结果进行路径规划。由于图像采集、图像分析、路径规划、动作指令生成以及随后的动作指令执行过程中均可能存在误差,机器人基于最初规划的路径信息并不能保证完美的移动到预定位置上。
针对上述问题,为了提高抓取行为的执行成功率,在本实施例中,主机100还配置为:在机器人执行动作指令的过程中采集变化的外界图像信息并根据外界图像信息解析抓取对象或放置地点;根据抓取对象或放置地点的新的解析结果更新动作指令。即,随着机器人躯体/抓取部件的位移采集变化的外界图像信息,根据变化的外界图像信息生成新的更加匹配实际情况的路径信息,根据新的路径信息调整并输出新的动作指令。
在本实施例中,舵机均配置为自反馈舵机。在机器人动作过程中,自反馈舵机的控制角度和回读实时角度值构成闭环自动控制。进一步的,主机采集变化的外界图像信息(生成新的路径信息、新的动作指令)与机器人在动作指令下的动作控制构成闭环自动控制。在双闭环自动控制下,机器人动作的执行成功率大大提高。
为了方便用户验证机器人抓取行为的正确程度,在本实施例中,主机100还配置为输出语音信息反馈当前动作指令的关联信息。这样,在机器人执行具体动作之前或执行具体动作的过程中用户就可以通过机器人的语音信息反馈判断机器人的抓取行为是否正确。
如图2所示,主机100还包含语音反馈装置270。语音反馈装置270配置为输出当前动作指令的关联信息,具体包含以下信息中一个或多个的组合:抓取对象的特征描述、抓取对象位置信息、放置地点特征描述、放置地点位置信息以及路径信息。进一步的,在本实施例中,语音反馈装置270仅在最初进行图像采集、图像分析以及路径规划时反馈信息,在即时闭环调整动作指令的过程中并不一直输出关联信息,只有当动作指令的调整程度大于预设的阈值时才进行反馈提醒。
进一步的,在本实施例中,路径规划装置230配置为基于预设的路径规划模型规划路径信息(位移路径和抓取/放置路径)。然而在实际运行过程中,由于现实环境的多变性,预设的路径规划模型并不能与现实情况完美匹配,这就导致规划出的路径信息并不能很好的匹配现实情况(例如出现路线偏移、绕弯路线或路线设定失败)。为了提高机器人的适应性,在本实施例中,主机100还配置为记录在先生成的动作指令以训练预设路径规划模型。
如图2所示,主机100还包含路径规划模型优化装置260,其配置为记录在先生成的动作指令并根据动作指令的执行效果优化预设的路径规划模型,以便根据路径规划模型生成更合理的路径。
当机器人的抓取部件位移到抓取对象或放置地点上时就可以抓取物品或将物品放置,然而在实际环境中,针对不同的抓取对象,其抓取方式是不同的。例如有的物品适合侧面受力以夹持的方式抓取,有的物品适合底部受力托举,有的物品拥有特定的抓取机构(例如把手)。基于上述分析,在本实施例中,主机100还配置为:根据抓取对象或放置地点的图像解析抓取对象或放置地点的状态信息;根据状态信息规划抓取/放置方式;根据抓取/放置方式生成匹配的动作指令。
如图2所示,主机100还包含抓取/放置方式确定装置250,其配置为根据抓取对象或放置地点的图像解析抓取对象或放置地点的状态信息并根据状态信息规划抓取/放置方式。动作指令生成装置240生成匹配抓取/放置方式的动作指令。
进一步的,考虑到在放置过程中,机器人是在保持物品处于被抓取状态下进行位移(躯体位移以及抓取机构位移)的。在本发明一实施例中,在整个位移过程中监控被抓取的物品的当前状态(是否倾斜、滑动等)并根据物品的状态规划调整路径信息以及放置方式从而避免位移过程中物品滑落。
综上,本发明的系统不仅可以使得机器人实现抓取行为,而且还可以有效保证抓取行为实施的顺利性以及准确程度。进一步的,本发明的系统基于图像采集定位抓取对象以及放置地点,其硬件构造简单、硬件成本低,这使得本发明的系统具有很高的实用价值以及推广价值。
接下来具体描述本发明一实施例的系统的硬件电路接口结构。如图3所示,在本发明一实施例中,主机310为基于MTK8163处理器的主控板。MTK8163是是联发科主推的一款移动应用处理器,主要应用于嵌入式的开发。主机310提供串口通信接口321、扬声器接口313以及314、麦克接口311以及312、摄像头接口315以及电源接口319。
从机为基于STM32处理器的主控板。STM32处理器是意法半导体公司(ST)推出的微控制器类产品,基于ARM公司推出的32位Cortex-M系列内核。从机330集成有电源管理模块345、锂电池349、物理开关348、软开关347。从机330还提供充电口346、串口通信接口331、测距接口341、姿态传感器接口342、舵机接口361~377(18个舵机接口)以及抓取机构接口350。
具体的,串口通信接口321为三线接口,线序为接地(GND)上行(RX)下行(TX),其连接到从机330的串口通信接口331。串口通信接口331,三线接口,线序为GNDRXTX,主机310以及从机330之间通过串口通信实现数据传输。
扬声器接口313以及314,每个接口为两线接口,线序为音频信号正(Speaker+)音频信号负(Speaker-),其分别连接到扬声器303以及304(在本实施例中,具有2个扬声器接口(左右声道),在本发明其他实施例中,可以依照具体需要构造不同数目的扬声器接口)。系统通过扬声器303以及304输出语音实现语音反馈。
麦克接口311以及312,每个接口为两线接口,线序为麦克风信号正(Mic+)麦克风信号负(Mic-),其分别连接到麦克风301以及302(在本实施例中,具有2个麦克接口(以确定音源方向以及位置距离),在本发明其他实施例中,可以依照具体需要构造不同数目的麦克接口)。
摄像头接口215,其连接到摄像头205。系统通过摄像头205、麦克风301以及302采集外部多模态的输入信息(采集用户交互输入、外界图像信息)。本实施例采用语音采集与图像采集结合的方式获取用户交互输入,在本发明其他实施例中,可以根据实际需要采用其他传感器。
测距接口341连接到激光雷达装置343,用于辅助定位抓取对象/放置地点。
充电口346,两线接口,线序为供电(VCC)接地(GND),其连接到电源管理模块345并连接锂电池349。电源接口319连接到从机330上的电源管理模块345。电源管理模块345以及锂电池349为从机330以及主机310供电,物理开关348控制系统是否接通电源,软开关347控制系统是否开始运行。
舵机接口361~377(18个舵机接口)分别连接到舵机381~397。在本实施例中,18个舵机分别为左右腿各5个舵机、左右手各3个舵机以及头部2个舵机。基于18个舵机,图2所示系统可以支持18个自由度的关节运动。本实施例的机器人结构采用了仿人形的结构,其通过左右腿的舵机驱动机器人行走(行走过程中左右手舵机配合),从而实现机器人躯体的移动(位移路径的实现);通过左/右手的舵机驱动机器人左/右手位移,从而实现机器人手部的移动(抓取/放置路径的实现)。
进一步的,抓取机构接口350连接到电磁铁351。当机器人左/右手移动到抓取对象上时,电磁铁351通电,吸取抓取对象;当机器人左/右手移动到放置地点上时,电磁铁351断电,放下当前吸取到的对象。
接下来基于具体的应用实例来说明本发明一实施例的系统主机部分的具体运行方式。首先以抓取过程为例。结合图2所示的主机结构,如图4所示:
交互指令获取装置211获取并转发抓取指令(步骤S400);
交互指令分析装置212解析抓取指令获取抓取对象特征描述(步骤S401);
图像采集装置210采集并发送外界图像信息(步骤S410);
图像解析装置220解析外界图像信息分离出抓取对象图像(步骤S411),并且进一步的确定抓取对象状态信息以及位置信息(在此步骤中,确定的抓取对象状态信息包括抓取对象体积);
进一步的,在本实施例中,为了确保机器人抓取动作的执行成功率,机器人在具体动作执行之前还会对抓取行为的执行可能性做预判,确定抓取对象是否可被抓取(步骤S421),当机器人判断抓取对象无法被抓取(例如,抓取对象体积过大、位置过远/过高等)时语音反馈装置270输出语音反馈提醒(步骤S402)。
当机器人判断抓取对象可以被抓取或机器人基于现有数据无法判断抓取对象是否可以被抓取时机器人进行位置判断,确定当前位置是否可以执行抓取动作(步骤S431)(是否需要位移,考虑到在某些情景下,机器人的抓取机构当前就位于抓取对象上,不需要进行任何位移)。当当前的位置就可以执行抓取动作时,抓取/放置方式确定装置250确定抓取方式(步骤S460),动作指令生成装置240生成并输出匹配抓取方式的动作指令(步骤S470)。
当当前的位置就不可以执行抓取动作时(需要移动),机器人首先判断是否需要整体位移(步骤S432)。当需要整体位移时,路径规划装置230规划位移路径(步骤S441),动作指令生成装置240生成并输出匹配位移路径的动作指令(步骤S450)。当不需要整体位移时(抓取对象就在旁边,机器人只需移动抓取机构),路径规划装置230规划抓取路径(步骤S442),动作指令生成装置240生成并输出匹配抓取路径的动作指令(步骤S450)。
动作指令输出(步骤S450)后,语音反馈装置270进行语音反馈(步骤S403),输出动作指令的关联信息。机器人在动作指令的控制下进行动作,并且与此同时,主机返回继续执行图像信息采集工作,采集变化的外界图像信息(机器人动作,外界图像信息相应变化),并进行下一轮动作指令的生成以及输出。
接下来以放置过程为例。结合图2所示的主机结构,如图5所示:
交互指令获取装置211获取并转发放置指令(步骤S500);
交互指令分析装置212解析放置指令获取放置地点特征描述(步骤S501);
图像采集装置210采集并发送外界图像信息(步骤S410);
图像解析装置220解析外界图像信息分离出放置地点图像(步骤S411),并且进一步的确定放置地点状态信息以及位置信息(在此步骤中,确定的放置地点状态信息包括放置地点是否被覆盖);
进一步的,在本实施例中,为了确保机器人放置动作的执行成功率,机器人在具体动作执行之前还会对放置行为的执行可能性做预判,确定放置地点是否可放置物品(步骤S521),当机器人判断放置地点无法放置物品(例如,放置地点位置过远/过高、放置地点被覆盖等)时语音反馈装置270输出语音反馈提醒(步骤S502)。
当机器人判断放置地点可以放置物品或机器人基于现有数据无法判断放置地点是否可以放置物品时机器人进行位置判断,确定当前位置是否可以执行放置动作(步骤S522)(是否需要位移,考虑到在某些情景下,机器人的抓取机构当前就位于放置地点上,不需要进行任何位移)。当当前的位置就可以执行放置动作时,抓取/放置方式确定装置250确定放置方式(步骤S533),动作指令生成装置240生成并输出匹配抓取方式的动作指令(步骤S541)。
当当前的位置就不可以执行放置动作时(需要移动),机器人首先判断是否需要整体位移(步骤S523)。当需要整体位移时,路径规划装置230规划位移路径(步骤S531),动作指令生成装置240生成并输出匹配位移路径的动作指令(步骤S560)。当不需要整体位移时(抓取对象就在旁边,机器人只需移动抓取机构),路径规划装置230规划放置路径(步骤S532),动作指令生成装置240生成并输出匹配放置路径的动作指令(步骤S560)。
进一步的,在确定需要移动后(步骤S522之后),机器人还确定待放置物体当前状态(步骤S550)。这样在规划路径信息以及生成动作指令时就可以参考待放置物当前的状态从而避免物品滑落。
动作指令输出(步骤S450)后,语音反馈装置270进行语音反馈(步骤S403),输出动作指令的关联信息。机器人在动作指令的控制下进行动作,并且与此同时,主机返回继续执行图像信息采集工作,采集变化的外界图像信息(机器人动作,外界图像信息相应变化),并进行下一轮动作指令的生成以及输出。
综上,根据本发明的系统,机器人可以实现指定物品的抓取并将物品放置到指定地点。与现有技术相比,本发明的系统不仅可以实现高成功率、高准确率的抓取放置行为,而且结构简单,硬件成本低。
进一步,本发明实施例还提供一种人形机器人,包括本发明实施例中的用于实现人形机器人抓取行为的电控系统
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的系统还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。
Claims (9)
1.一种用于实现人形机器人抓取行为的电控系统,其特征在于,所述系统包括主机、从机以及动作执行机构,其中:
所述主机配置为:获取并分析多模态输入数据生成交互指令,当所述交互指令为抓取指令和/或放置指令时,根据所述抓取指令或放置指令生成相应的动作指令并输出至从机;
所述从机配置为:解析所述动作指令以及所述动作执行机构反馈的动作状态,生成驱动指令并发送给所述动作执行机构,直至所述动作执行机构的动作状态与所述动作指令匹配;
所述动作执行机构配置为:根据所述驱动指令执行相应动作,并在设定时间内获取动作状态反馈给所述从机。
2.根据权利要求1所述的系统,其特征在于,所述根据所述抓取指令或放置指令生成相应的动作指令,包括:
采集外界图像信息并根据所述外界图像信息解析抓取对象或放置地点;
根据所述抓取对象或所述放置地点的解析结果生成所述动作指令。
3.根据权利要求2所述的系统,其特征在于,所述根据所述抓取对象或所述放置地点的解析结果生成所述动作指令,包括:
根据所述抓取对象或所述放置地点的解析结果规划路径信息;
根据当前的所述路径信息确定机器人动作并生成与所述动作匹配的动作指令。
4.根据权利要求3所述的系统,其特征在于,所述主机配置为根据所述位置信息规划路径信息,所述路径信息包括位移路径和抓取/放置路径,其中:
所述位移路径为所述机器人从当前位置到所述抓取对象或所述放置地点附近的第一位置点的移动轨迹;
所述主机配置为当所述机器人处于所述位移路径上时生成并输出匹配所述位移路径的动作指令;
所述抓取/放置路径为所述机器人位于所述第一位置点处时其抓取部件移动到所述抓取对象或所述放置地点上的移动轨迹;
所述主机配置为当所述机器人位于所述第一位置点处时生成并输出匹配所述抓取/放置路径的动作指令。
5.根据权利要求3中所述的系统,其特征在于,所述主机还配置为:
记录在先生成的所述动作指令以训练预设路径规划模型。
6.根据权利要求1所述的系统,其特征在于,所述主机还配置为:
在机器人执行所述动作指令的过程中采集变化的外界图像信息并根据所述外界图像信息解析抓取对象或放置地点;
根据所述抓取对象或所述放置地点的新的解析结果更新所述动作指令。
7.根据权利要求1所述的系统,其特征在于,所述主机还配置为:
输出语音信息反馈当前动作指令的关联信息。
8.根据权利要求1所述的系统,其特征在于,所述动作执行机构包含多个自反馈舵机,多个所述自反馈舵机包括腿部舵机以及手部舵机。
9.一种人形机器人,其特征在于,包括如权利要求1-8任一所述的用于实现人形机器人抓取行为的电控系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610264431.8A CN105773619A (zh) | 2016-04-26 | 2016-04-26 | 用于实现人形机器人抓取行为的电控系统和人形机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610264431.8A CN105773619A (zh) | 2016-04-26 | 2016-04-26 | 用于实现人形机器人抓取行为的电控系统和人形机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105773619A true CN105773619A (zh) | 2016-07-20 |
Family
ID=56398452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610264431.8A Pending CN105773619A (zh) | 2016-04-26 | 2016-04-26 | 用于实现人形机器人抓取行为的电控系统和人形机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105773619A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106527222A (zh) * | 2016-10-25 | 2017-03-22 | 北京光年无限科技有限公司 | 一种用于机器人的输出控制方法及机器人 |
CN106845625A (zh) * | 2016-12-22 | 2017-06-13 | 北京光年无限科技有限公司 | 一种用于机器人的交互输出方法以及机器人 |
CN107767760A (zh) * | 2016-08-23 | 2018-03-06 | 发那科株式会社 | 机械学习器、机器人系统以及机械学习方法 |
WO2019018964A1 (zh) * | 2017-07-22 | 2019-01-31 | 深圳市萨斯智能科技有限公司 | 一种机器人执行远程指令的方法和机器人 |
CN109531567A (zh) * | 2018-11-23 | 2019-03-29 | 南京工程学院 | 基于ros的遥操作欠驱动机械手控制系统 |
CN109709951A (zh) * | 2018-11-23 | 2019-05-03 | 华南师范大学 | 一种基于机器学习的智能收纳小车系统 |
CN111571588A (zh) * | 2020-05-15 | 2020-08-25 | 深圳国信泰富科技有限公司 | 一种机器人全身动作规划方法及系统 |
CN111890336A (zh) * | 2020-06-15 | 2020-11-06 | 成都飞机工业(集团)有限责任公司 | 一种机器人多目标点示教方法、系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060072809A1 (en) * | 2004-10-05 | 2006-04-06 | Fanuc Ltd | Robot system with vision sensor |
CN101402199A (zh) * | 2008-10-20 | 2009-04-08 | 北京理工大学 | 基于视觉的手眼式低伺服精度机器人移动目标抓取方法 |
CN101733746A (zh) * | 2009-12-22 | 2010-06-16 | 哈尔滨工业大学 | 空间机器人非合作目标自主识别与捕获方法 |
CN101842195A (zh) * | 2007-10-29 | 2010-09-22 | 佳能株式会社 | 把持设备和把持设备控制方法 |
CN101913076A (zh) * | 2010-06-23 | 2010-12-15 | 中国科学院自动化研究所 | 基于工业机器人的活塞、活塞销和连杆装配方法及装置 |
CN102300680A (zh) * | 2008-12-05 | 2011-12-28 | 本田技研工业株式会社 | 机器人手臂的控制方法 |
CN102581745A (zh) * | 2012-02-29 | 2012-07-18 | 清华大学 | 一种化学机械抛光传输机器人系统 |
US20120323357A1 (en) * | 2011-06-20 | 2012-12-20 | Kabushiki Kaisha Yaskawa Denki | Picking system |
CN103252790A (zh) * | 2013-05-23 | 2013-08-21 | 四川农业大学 | 西瓜采摘机械手的控制系统 |
CN206105862U (zh) * | 2016-04-26 | 2017-04-19 | 北京光年无限科技有限公司 | 用于实现人形机器人抓取行为的电控系统和人形机器人 |
-
2016
- 2016-04-26 CN CN201610264431.8A patent/CN105773619A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060072809A1 (en) * | 2004-10-05 | 2006-04-06 | Fanuc Ltd | Robot system with vision sensor |
CN101842195A (zh) * | 2007-10-29 | 2010-09-22 | 佳能株式会社 | 把持设备和把持设备控制方法 |
CN101402199A (zh) * | 2008-10-20 | 2009-04-08 | 北京理工大学 | 基于视觉的手眼式低伺服精度机器人移动目标抓取方法 |
CN102300680A (zh) * | 2008-12-05 | 2011-12-28 | 本田技研工业株式会社 | 机器人手臂的控制方法 |
CN101733746A (zh) * | 2009-12-22 | 2010-06-16 | 哈尔滨工业大学 | 空间机器人非合作目标自主识别与捕获方法 |
CN101913076A (zh) * | 2010-06-23 | 2010-12-15 | 中国科学院自动化研究所 | 基于工业机器人的活塞、活塞销和连杆装配方法及装置 |
US20120323357A1 (en) * | 2011-06-20 | 2012-12-20 | Kabushiki Kaisha Yaskawa Denki | Picking system |
CN102581745A (zh) * | 2012-02-29 | 2012-07-18 | 清华大学 | 一种化学机械抛光传输机器人系统 |
CN103252790A (zh) * | 2013-05-23 | 2013-08-21 | 四川农业大学 | 西瓜采摘机械手的控制系统 |
CN206105862U (zh) * | 2016-04-26 | 2017-04-19 | 北京光年无限科技有限公司 | 用于实现人形机器人抓取行为的电控系统和人形机器人 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767760A (zh) * | 2016-08-23 | 2018-03-06 | 发那科株式会社 | 机械学习器、机器人系统以及机械学习方法 |
CN107767760B (zh) * | 2016-08-23 | 2020-01-07 | 发那科株式会社 | 机械学习器、机器人系统以及机械学习方法 |
US10603797B2 (en) | 2016-08-23 | 2020-03-31 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning motion of robot engaged in task performed by human and robot in cooperate with each other |
CN106527222A (zh) * | 2016-10-25 | 2017-03-22 | 北京光年无限科技有限公司 | 一种用于机器人的输出控制方法及机器人 |
CN106527222B (zh) * | 2016-10-25 | 2019-08-02 | 北京光年无限科技有限公司 | 一种用于机器人的输出控制方法及机器人 |
CN106845625A (zh) * | 2016-12-22 | 2017-06-13 | 北京光年无限科技有限公司 | 一种用于机器人的交互输出方法以及机器人 |
WO2019018964A1 (zh) * | 2017-07-22 | 2019-01-31 | 深圳市萨斯智能科技有限公司 | 一种机器人执行远程指令的方法和机器人 |
CN109531567A (zh) * | 2018-11-23 | 2019-03-29 | 南京工程学院 | 基于ros的遥操作欠驱动机械手控制系统 |
CN109709951A (zh) * | 2018-11-23 | 2019-05-03 | 华南师范大学 | 一种基于机器学习的智能收纳小车系统 |
CN111571588A (zh) * | 2020-05-15 | 2020-08-25 | 深圳国信泰富科技有限公司 | 一种机器人全身动作规划方法及系统 |
CN111571588B (zh) * | 2020-05-15 | 2021-05-18 | 深圳国信泰富科技有限公司 | 一种机器人全身动作规划方法及系统 |
CN111890336A (zh) * | 2020-06-15 | 2020-11-06 | 成都飞机工业(集团)有限责任公司 | 一种机器人多目标点示教方法、系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105773619A (zh) | 用于实现人形机器人抓取行为的电控系统和人形机器人 | |
US6556892B2 (en) | Control device and control method for robot | |
US20170106542A1 (en) | Robot and method of controlling thereof | |
US20170348858A1 (en) | Multiaxial motion control device and method, in particular control device and method for a robot arm | |
Aggarwal et al. | Design and implementation of a wireless gesture controlled robotic arm with vision | |
WO2016119486A1 (zh) | 可定制割草区域的机器人割草系统及其控制方法 | |
Kornuta et al. | Robot control system design exemplified by multi-camera visual servoing | |
CN105058389A (zh) | 一种机器人系统、机器人控制方法及机器人 | |
US20200171667A1 (en) | Vision-based robot control system | |
CN105578058A (zh) | 一种面向智能机器人的拍摄控制方法、装置及机器人 | |
CN111085996B (zh) | 带电作业机器人的控制方法、装置及系统 | |
CN108828996A (zh) | 一种基于视觉信息的机械臂遥操作系统及方法 | |
CN112775964B (zh) | 一种力感知阻抗控制方法 | |
CN105700438A (zh) | 一种多关节小型机器人电控系统 | |
US20230195401A1 (en) | Information processing apparatus and information processing method | |
KR20160111281A (ko) | 모션슈트를 이용한 모듈러 로봇의 무선 제어시스템 | |
CN205750377U (zh) | 一种多关节小型机器人电控系统 | |
CN206105862U (zh) | 用于实现人形机器人抓取行为的电控系统和人形机器人 | |
US20220130066A1 (en) | Robot controlling system | |
JP7480706B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240149458A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
JP2011235380A (ja) | 制御装置 | |
JP7565848B2 (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
Vaidyanathan et al. | A dual mode human-robot teleoperation interface based on airflow in the aural cavity | |
JP7565849B2 (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160720 |