CN106335063B - 一种用于机器人的动作输出控制方法及机器人 - Google Patents

一种用于机器人的动作输出控制方法及机器人 Download PDF

Info

Publication number
CN106335063B
CN106335063B CN201611027844.0A CN201611027844A CN106335063B CN 106335063 B CN106335063 B CN 106335063B CN 201611027844 A CN201611027844 A CN 201611027844A CN 106335063 B CN106335063 B CN 106335063B
Authority
CN
China
Prior art keywords
robot
output
user behavior
modal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611027844.0A
Other languages
English (en)
Other versions
CN106335063A (zh
Inventor
石琰
郭家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Guangnian Wuxian Technology Co Ltd
Original Assignee
Beijing Guangnian Wuxian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Guangnian Wuxian Technology Co Ltd filed Critical Beijing Guangnian Wuxian Technology Co Ltd
Priority to CN201611027844.0A priority Critical patent/CN106335063B/zh
Publication of CN106335063A publication Critical patent/CN106335063A/zh
Application granted granted Critical
Publication of CN106335063B publication Critical patent/CN106335063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones

Abstract

本发明公开了一种用于机器人的动作输出控制方法以及机器人。本发明的方法包括:获取要输出的多模态输出数据;当判断所述多模态输出数据中包括运动类数据时,检测当前的用户行为;结合所述多模态输出数据及所述用户行为判断所述当前的用户行为是否会导致机器人的不安全运动;当判断所述当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据。根据本发明的方法,可以有效防止机器人在进行交互输出时意外伤害到用户,从而保证机器人的应用安全,提高机器人的用户体验。

Description

一种用于机器人的动作输出控制方法及机器人
技术领域
本发明涉及机器人领域,具体涉及一种用于机器人的动作输出控制方法及机器人。
背景技术
随着机器人技术的不断发展,智能机器人越来越多的被应用与人类的家庭生活中。
当前,大多智能机器人具备动作输出功能,在智能机器人与用户的人机交互过程中,机器人会基于用户的交互输入做出相应的动作回应。由于人机交互往往是面对面进行的,在机器人输出动作回应的过程中机器人的活动部件在有动作的时候就有可能会伤害到用户,比如夹伤或碰伤。
在现有技术中,常见通用的解决方式主要依赖于外观和结构设计,使得机器人外型尽可能圆润,缝隙尽可能小,但这种解决方式依然存在误伤用户的风险。
因此,为了避免机器人输出动作回应的过程中伤害到用户,需要一种用于机器人的动作输出控制方法。
发明内容
本发明提供了一种用于机器人的动作输出控制方法,所述方法包括:
获取要输出的多模态输出数据;
当判断所述多模态输出数据中包括运动类数据时,检测当前的用户行为;
结合所述多模态输出数据及所述用户行为判断所述当前的用户行为是否会导致机器人的不安全运动;
当判断所述当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据。
在一实施例中,所述方法还包括:
当判断所述当前的用户行为不会导致机器人的不安全运动时执行所述多模态输出数据的输出。
在一实施例中,当判断所述用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据,其中:
停止所述多模态输出数据的输出;
输出规避干扰多模态输出以消除所述用户行为对所述机器人动作的干扰。
在一实施例中,当所述用户行为对所述机器人动作输出的干扰被消除后:
继续执行所述多模态输出数据的输出。
在一实施例中,输出规避干扰多模态输出以消除所述用户行为对所述机器人动作输出的干扰,其中:
提醒所述用户停止所述当前的用户行为;
和/或
输出用于规避干扰的机器人动作。
本发明还提出了一种智能机器人,所述机器人包括:
输出获取模块,其配置为获取要输出的多模态输出数据;
运动类数据判定模块,其配置为判断所述多模态输出数据中是否包括运动类数据;
用户行为检测模块,其配置为当所述多模态输出数据中包括运动类数据时检测当前的用户行为;
安全判定模块,其配置为结合所述多模态输出数据及所述用户行为判断所述当前的用户行为是否会导致机器人的不安全运动;
输出模块,其配置为当判断所述当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据。
在一实施例中,所述输出模块还配置为:
当判断所述当前的用户行为不会导致机器人的不安全运动时执行所述多模态输出数据的输出。
在一实施例中,所述输出模块配置为当判断所述当前的用户行为会导致机器人的不安全运动时:
停止所述多模态输出数据的输出;
输出规避干扰多模态输出以消除所述用户行为对所述机器人动作的干扰。
在一实施例中,所述输出模块还配置为:当所述用户行为对所述机器人动作输出的干扰被消除后继续执行所述多模态输出数据的输出。
在一实施例中,所述输出模块配置为输出规避干扰多模态输出以消除所述用户行为对所述机器人动作输出的干扰,其中,所述输出模块配置为:
提醒所述用户停止所述当前的用户行为;
和/或
输出用于规避干扰的机器人动作。
根据本发明的方法,可以有效防止机器人在进行交互输出时意外伤害到用户,从而保证机器人的应用安全,提高机器人的用户体验。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一实施例的方法流程图;
图2~图4是根据本发明实施例的方法的部分流程图;
图5是根据本发明一实施例的机器人系统结构简图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
当前,大多智能机器人具备动作输出功能,在智能机器人与用户的人机交互过程中,机器人会基于用户的交互输入做出相应的动作回应。由于人机交互往往是面对面进行的,在机器人输出动作回应的过程中机器人的活动部件在有动作的时候就有可能会伤害到用户,比如夹伤或碰伤。
在现有技术中,常见通用的解决方式主要依赖于外观和结构设计,使得机器人外型尽可能圆润,缝隙尽可能小,但这种解决方式依然存在误伤用户的风险。
因此,为了避免机器人输出动作回应的过程中伤害到用户,本发明提出了一种用于机器人的动作输出控制方法。在本发明的方法中,在机器人进行动作输出前判断要输出的动作是否会伤害到用户,如果存在伤害到用户的可能,则采取对应的应对措施。进一步的,在判断要输出的动作是否会伤害到用户时,不仅对机器人自身要输出的动作进行分析,而且还要对用户当前的行为进行分析。
接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机系统中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
如图1所示,在一实施例中,机器人首先获取要输出的多模态数据(步骤S110)。在本实施例中,“要输出的多模态数据”指机器人当前需要执行的交互输出,即,针对用户的当前的交互输入/交互命令生成的、需要马上输出但还并未输出的交互回应。
在具体的执行环境中,机器人要输出的多模态数据包含多种不同类型的输出,例如,语音输出、动作输出、图像显示等。其中,在某些应用场合下,存在伤害用户的可能的输出主要为机器人的动作输出(例如,在一般情况下,语音输出以及图像显示并不存在伤害用户的可能)。因此,在本实施例中,在步骤S110之后判断需要输出的多模态数据中是否包括运动类数据(步骤S120)。如果不存在运动类数据(机器人接下来不需要进行动作输出),那么机器人接下来的输出也就不会伤害到用户,此时直接执行步骤S160,输出要输出的多模态数据。
如果要输出的多模态数据包括运动类数据(机器人接下来需要执行动作输出),那么机器人接下来的输出就存在伤害用户的可能,需要做进一步判断。在本实施例中,接下来检测当前的用户行为(步骤S130),并结合多模态输出数据及用户行为判断当前的用户行为是否会导致机器人的不安全动作(步骤S140)。当当前的用户行为不会导致机器人的不安全动作(机器人接下来的动作输出不会伤害用户)时,直接执行步骤S160,输出要输出的多模态数据。
进一步的,在一实施例中,机器人可以根据对安全程度的要求设置不同级别的安全判定。具体的,在不同级别的安全判定中,运动类数据具有不同的包括范围。在一实施例中,运动类数据不包含机器人的语音输出,即在机器人不进行动作输出而进行语音输出(例如唱歌)时是不需要对用户行为进行采集判定的。但是,在另一实施例中,采用更为严格的安全防范,在机器人不进行动作输出而进行语音输出(例如唱歌)时也需要对用户行为进行采集判定。
当当前的用户行为会导致机器人的不安全动作(机器人接下来的动作输出可能会伤害用户)时,机器人输出预设的应用打断多模态数据(步骤S150),保证用户的安全。
具体的,在一实施例中,当判断用户行为会导致机器人的不安全运动时,机器人停止输出存在伤害用户可能的多模态输出数据,并输出规避干扰多模态输出以消除所述用户行为对机器人动作的干扰。
如图2所示,在一实施例中,在步骤S240中判断用户行为是否会导致机器人不安全动作。当用户行为不会导致机器人的不安全动作时,直接执行步骤S260,输出要输出的多模态数据。当用户行为会导致机器人的不安全动作时,机器人停止输出存在伤害用户可能的多模态输出数据(步骤S251);输出规避干扰多模态输出(步骤S252)。
在上述流程中,关键步骤之一在于如何判断用户行为是否会导致机器人不安全动作。在本发明一实施例中,为了判断当前用户行为是否会导致机器人不安全动作,对机器人的不同的不安全动作从产生根源上进行上位分析。
在通常的应用环境中,机器人的不安全动作主要是机器人动作输出时肢体对用户的碰撞,例如机器人位移时躯体撞到用户,或者机器人改变姿势时部分肢体撞到用户/夹到用户。针对机器人位移时躯体撞到用户的情况,其产生原因主要是用户阻挡在机器人的前进路线上并且距离机器人过近;针对机器人改变姿势时部分肢体撞到用户/夹到用户的情况,其产生原因主要是用户阻挡在机器人肢体的运动路线上。
因此,如果用户位于机器人前进方向和/或用户距离机器人过近时,机器人的动作输出就存在较大的可能性伤害到用户。具体的,机器人位移时用户位于机器人前进方向且距离机器人过近,机器人就有很大可能撞到用户;机器人改变姿势时用户距离机器人过近,机器人肢体就有很大可能碰撞/夹到用户。
因此,在一实施例中,机器人通过定位用户,分析用户的位置、与机器人间的距离来判断用户行为是否会导致机器人不安全动作。具体的,机器人通过距离检测(用超声波雷达(或激光雷达,或红外雷达)判断前方障碍物与自身的距离)来判断用户行为是否会导致机器人不安全动作。
进一步的,机器人与用户距离过近时,存在一个极限情况,即用户当前与机器人是接触状态、零距离(尤其的,用户当前持有机器人,例如儿童用户抱起机器人),由于机器人自身距离检测装置硬件上的限制(距离检测装置通常具有固定朝向,机器人无法对自身周边360度范围进行详细检测),机器人有时会无法检测到身边的用户(尤其的,当儿童抱起机器人时,儿童很容易位于机器人距离检测装置的死角并且机器人无法通过转动躯体,改变距离检测装置的朝向来消除死角)。与此同时,用户持有机器人时,机器人的动作输出几乎都会碰撞/夹到用户。
针对上述情况分析,在本发明一实施例中,针对用户持有机器人这一情况做针对性的检测。具体的,机器人判断自身是否被施力,即机器人当前的位置\姿势是否被动地被改变。如果机器人当前的位置\姿势被动地被改变,则说明有物体对机器人施力,由于施力方有较高的可能是用户,因此此时可以判定机器人的动作输出具有很大可能会伤害到用户。
具体的,在一实施例中,机器人运用内置陀螺仪检测倾斜程度,判断自身是否处于被摇晃的状态。如果机器人处在被摇晃的状态,则说明有其他物体摇晃机器人(可能是用户在摇晃机器人),机器人就有可能与用户为接触状态。由于机器人被用户摇晃的可能占很大几率,
在一实施例中,机器人通过摄像头拍摄的图像检测判断自身是否发生位移,以及位移方向。从而判断自身是否产生被动位移(主动位移是机器人自身动作带来的位移,被动位移则是机器人在其他物体施力下产生位移)。如果机器人自身产生被动位移,则说明有其他物体对机器人施力(可能是用户在移动机器人),机器人就有可能与用户为接触状态。由于机器人被用户移动的可能占很大几率,因此此时可以判定机器人的动作输出具有很大可能会伤害到用户。
如图3所示,在一实施例中,机器人首先运用内置陀螺仪检测倾斜程度变化(步骤S310),判断自身是否处于被摇晃状态(步骤S311)。当机器人自身不处于被摇晃状态时检测摄像头拍摄的图像变化(步骤S320),判断自身是否处于被移动状态(步骤S321)。当机器人自身不处于被移动状态时启动距离检测(步骤S330),用超声波雷达(或激光雷达,或红外雷达)判断前方障碍物与自身的距离,判断前方以及近距离范围内是否存在障碍物(步骤S331)。
当上述三个判定的结果均为否,则说明机器人当前不被用户持有且近距离范围内不存在用户,机器人可以判定当前用户行为不会导致不安全动作(步骤S340)。在上述三个判定中,任何一个判定结果为是,则说明机器人的动作输出有可能会伤害到用户,机器人则判定当前用户行为会导致不安全动作(步骤S350)。
进一步的,在一实施例中,机器人在判断用户行为是否会导致不安全动作时还结合机器人自身的输出状态。具体的,在一实施例中,当机器人判断前方第一距离外存在障碍物,如果在机器人需要输出的动作中机器人的肢体不会伸长到第一距离范围外,那么则判定当前用户行为不会导致不安全动作。以具体应用场景为例,机器人需要伸手打招呼(不需要位移),在伸手打招呼前或伸手打招呼过程中,只要用户不进入机器人伸手的范围内机器人就不会停下动作输出规避干扰多模态输出。
进一步的,用户行为导致机器人不安全动作这一情况的产生具体来说是用户行为和机器人动作相互间产生干扰。针对性的改变当前的用户行为和/或改变机器人将要输出的动作均可以消除这种相互间的干扰。因此,在一实施例中,为了消除用户行为对机器人需要输出的动作输出的干扰,机器人输出规避干扰多模态输出,具体的,在一实施例中,机器人针对不同的用户行为和/或机器人将要输出的动作采用不同的规避干扰多模态输出。
在一实施例中,规避干扰多模态输出包含:提醒用户停止当前的用户行为。
例如,当机器人检测到自身处于被摇晃/被移动状态时,输出提示,提示用户放下机器人。具体的,在一应用场景中,机器人需要伸手打招呼,机器人检测到用户正在摇晃机器人,机器人暂时不进行伸手打招呼,而是向用户输出“请放下我”。在另一应用场景中,机器人正在伸手打招呼(正在伸手),此时机器人检测到用户摇晃机器人,机器人停止手臂动作,向用户输出“请放下我”。进一步的,在一较严格的安全设定环境中,机器人正在唱歌,儿童用户抱起机器人(导致机器人被摇晃以及被移动),机器人停止唱歌,输出“请放下我”。
又例如,当机器人检测到用户距离自身过近时,输出提示,提示用户保持距离。具体的,在一应用场景中,机器人需要伸手打招呼,机器人检测到用户进入机器人伸手范围内,机器人暂时不进行伸手打招呼,而是向用户输出“请保持距离”。在另一应用场景中,机器人正在伸手打招呼(正在伸手),此时机器人检测到用户进入机器人伸手范围内,机器人停止手臂动作,向用户输出“请保持距离”。
在另一实施例中,规避干扰多模态输出包含:输出用于规避干扰的机器人动作。
例如,机器人检测到用户阻挡在行进路线上时输出躲避动作,绕过用户。具体的,在一实施例中,机器人需要一直往前走,机器人检测到用户位于前方行进路线上,机器人停止前进,输出躲避动作(拐弯绕过用户)。
进一步的,在一实施例中,机器人还可以保存和恢复被打断的应用现场。具体的,在机器人输出规避干扰多模态输出后,当用户行为对机器人动作输出的干扰被消除后(即,机器人的动作不在存在伤害用户的可能),机器人继续执行需要输出的多模态输出数据的输出。即,机器人输出最初需要输出的多模态数据,不同的是,在之前的交互环境中,需要输出的多模态数据存在伤害用户的可能,在规避干扰多模态输出的调节影响下,在现在的交互环境中,需要输出的多模态数据不存在伤害用户的可能。
如图4所示,在一实施例中,在步骤S440中判断用户行为是否会导致机器人不安全动作。当用户行为不会导致机器人的不安全动作时,直接执行步骤S460,输出要输出的多模态数据。当用户行为会导致机器人的不安全动作时,机器人停止输出存在伤害用户可能的多模态输出数据(步骤S451);输出规避干扰多模态输出(步骤S452)。
在步骤S452之后,机器人判断用户行为对机器人动作输出的干扰是否消失(步骤S453)。当用户行为对机器人动作输出的干扰并没有消失(当前用户行为仍然会导致机器人不安全动作)时,继续进行规避干扰多模态输出(步骤S452)。当用户行为对机器人动作输出的干扰消失(当前用户行为不会导致机器人不安全动作)时,执行步骤S460,输出要输出的多模态数据。
以一具体的应用为例,机器人需要伸手打招呼,此时机器人检测到用户正在摇晃机器人,机器人暂时不进行伸手打招呼,而是向用户输出“请放下我”。如果用户放下机器人,机器人检测到自身不被摇晃,则进行伸手打招呼的输出。以另一具体的应用为例,机器人需要前进,用户位于前方行进路线上,机器人暂时不前进,而是拐弯绕过用户。在机器人绕过用户(用户不在位于前进路线上)后再执行前进输出。
进一步的,在一实施例中,机器人在执行动作输出的过程中由于用户行为的干扰执行了停止操作(停止输出)。当用户行为的干扰消失后,机器人从之前动作输出的中断处开始继续进行输出。以一具体的应用为例,机器人正在唱歌,的时候被用户抱起来,机器人就会停止唱歌提醒用户把自己放下,当用户把机器人放下后,机器人继续唱歌。
综上,根据本发明的方法,可以有效防止机器人在进行交互输出时意外伤害到用户,从而保证机器人的应用安全,提高机器人的用户体验。
基于本发明的方法,本发明还提出了一种智能机器人。如图5所示,机器人包括:
输出获取模块510,其配置为获取要输出的多模态输出数据;
运动类数据判定模块511,其配置为判断输出获取模块510获取到的多模态输出数据中是否包括运动类数据;
用户行为检测模块520,其配置为当运动类数据判定模块511判定多模态输出数据中包括运动类数据时检测当前的用户行为;
安全判定模块530,其配置为结合多模态输出数据及用户行为判断当前的用户行为是否会导致机器人的不安全运动;
输出模块540,其配置为当安全判定模块530判断当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据。
进一步的,在一实施例中,输出模块540还配置为:
当安全判定模块530判断当前的用户行为不会导致机器人的不安全运动时执行输出获取模块510获取到的多模态输出数据的输出。
进一步的,在一实施例中,输出模块540配置为当判断当前的用户行为会导致机器人的不安全运动时:
停止输出输出获取模块510获取到的多模态输出数据;
输出规避干扰多模态输出以消除用户行为对机器人动作的干扰。
进一步的,在一实施例中,输出模块540还配置为:当用户行为对机器人动作输出的干扰被消除后继续输出输出获取模块510获取到的多模态输出数据。
进一步的,在一实施例中,输出模块540配置为输出规避干扰多模态输出以消除用户行为对所述机器人动作输出的干扰,其中,输出模块540配置为:
提醒用户停止当前的用户行为;
和/或
输出用于规避干扰的机器人动作。
综上,本发明的机器人在进行交互输出时可以有效防止对用户的意外伤害。相较于现有技术,机器人的应用安全性得到显著提高,机器人的用户体验得到大大改善。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。

Claims (8)

1.一种用于机器人的动作输出控制方法,其特征在于,所述方法包括:
获取要输出的多模态输出数据;
确定运动类数据的包括范围,当判断所述多模态输出数据中包括所述运动类数据时,检测当前的用户行为;
结合所述多模态输出数据及所述用户行为判断所述当前的用户行为是否会导致机器人的不安全运动;
当判断所述当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据,其中,当判断所述用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据,包括:停止所述多模态输出数据的输出;并输出规避干扰多模态输出以消除所述用户行为对所述机器人动作的干扰。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当判断所述当前的用户行为不会导致机器人的不安全运动时执行所述多模态输出数据的输出。
3.根据权利要求1所述的方法,其特征在于,当所述用户行为对所述机器人动作输出的干扰被消除后:
继续执行所述多模态输出数据的输出。
4.根据权利要求1所述的方法,其特征在于,输出规避干扰多模态输出以消除所述用户行为对所述机器人动作输出的干扰,其中:
提醒所述用户停止所述当前的用户行为;
和/或
输出用于规避干扰的机器人动作。
5.一种智能机器人,其特征在于,所述机器人包括:
输出获取模块,其配置为获取要输出的多模态输出数据;
运动类数据判定模块,其配置为确定运动类数据的包括范围,判断所述多模态输出数据中是否包括所述运动类数据;
用户行为检测模块,其配置为当所述多模态输出数据中包括运动类数据时检测当前的用户行为;
安全判定模块,其配置为结合所述多模态输出数据及所述用户行为判断所述当前的用户行为是否会导致机器人的不安全运动;
输出模块,其配置为当判断所述当前的用户行为会导致机器人的不安全运动时输出预设的应用打断多模态数据,所述输出模块配置为当判断所述当前的用户行为会导致机器人的不安全运动时:停止所述多模态输出数据的输出;并输出规避干扰多模态输出以消除所述用户行为对所述机器人动作的干扰。
6.根据权利要求5所述的机器人,其特征在于,所述输出模块还配置为:
当判断所述当前的用户行为不会导致机器人的不安全运动时执行所述多模态输出数据的输出。
7.根据权利要求5所述的机器人,其特征在于,所述输出模块还配置为:当所述用户行为对所述机器人动作输出的干扰被消除后继续执行所述多模态输出数据的输出。
8.根据权利要求5所述的机器人,其特征在于,所述输出模块配置为输出规避干扰多模态输出以消除所述用户行为对所述机器人动作输出的干扰,其中,所述输出模块配置为:
提醒所述用户停止所述当前的用户行为;
和/或
输出用于规避干扰的机器人动作。
CN201611027844.0A 2016-11-18 2016-11-18 一种用于机器人的动作输出控制方法及机器人 Active CN106335063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611027844.0A CN106335063B (zh) 2016-11-18 2016-11-18 一种用于机器人的动作输出控制方法及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611027844.0A CN106335063B (zh) 2016-11-18 2016-11-18 一种用于机器人的动作输出控制方法及机器人

Publications (2)

Publication Number Publication Date
CN106335063A CN106335063A (zh) 2017-01-18
CN106335063B true CN106335063B (zh) 2019-09-27

Family

ID=57841483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611027844.0A Active CN106335063B (zh) 2016-11-18 2016-11-18 一种用于机器人的动作输出控制方法及机器人

Country Status (1)

Country Link
CN (1) CN106335063B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107398912B (zh) * 2017-06-28 2019-08-09 重庆柚瓣家科技有限公司 家庭机器人用户行为统计系统
CN110253630B (zh) * 2019-06-19 2021-06-18 北京猎户星空科技有限公司 机器人及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3927994B2 (ja) * 2004-10-19 2007-06-13 松下電器産業株式会社 ロボット装置
CN104723350A (zh) * 2015-03-16 2015-06-24 珠海格力电器股份有限公司 工业机器人安全防护智能控制方法及系统
CN104870147A (zh) * 2012-08-31 2015-08-26 睿信科机器人有限公司 机器人安全工作的系统和方法
CN105945971A (zh) * 2016-07-23 2016-09-21 刘振宁 高铁车厢服务机器人
CN106003043A (zh) * 2016-06-20 2016-10-12 先驱智能机械(深圳)有限公司 机械臂的避障方法及避障系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3927994B2 (ja) * 2004-10-19 2007-06-13 松下電器産業株式会社 ロボット装置
CN104870147A (zh) * 2012-08-31 2015-08-26 睿信科机器人有限公司 机器人安全工作的系统和方法
CN104723350A (zh) * 2015-03-16 2015-06-24 珠海格力电器股份有限公司 工业机器人安全防护智能控制方法及系统
CN106003043A (zh) * 2016-06-20 2016-10-12 先驱智能机械(深圳)有限公司 机械臂的避障方法及避障系统
CN105945971A (zh) * 2016-07-23 2016-09-21 刘振宁 高铁车厢服务机器人

Also Published As

Publication number Publication date
CN106335063A (zh) 2017-01-18

Similar Documents

Publication Publication Date Title
Popov et al. Collision detection, localization & classification for industrial robots with joint torque sensors
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP6495331B2 (ja) 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト
US20160260027A1 (en) Robot controlling apparatus and robot controlling method
CN106335063B (zh) 一种用于机器人的动作输出控制方法及机器人
KR102433931B1 (ko) 움직임 인식 방법 및 움직임 인식 장치
CN103529944B (zh) 一种基于Kinect的人体动作识别方法
JP6462008B2 (ja) 衝突検出
US11154991B2 (en) Interactive autonomous robot configured for programmatic interpretation of social cues
JP6926636B2 (ja) 状態推定装置
CN111164544B (zh) 运动感测
US10855979B2 (en) Interpreting eye gaze direction as user input to near-eye-display (NED) devices for enabling hands free positioning of virtual items
US20190084158A1 (en) Modifying robot dynamics in response to human presence
Bdiwi Integrated sensors system for human safety during cooperating with industrial robots for handing-over and assembling tasks
US20190152047A1 (en) Biomechanical assistive device
Nomm et al. Monitoring of the human motor functions rehabilitation by neural networks based system with kinect sensor
WO2017029555A3 (en) Device, system, and methods for entering commands or characters using a touch screen
CN106426203A (zh) 一种主动触发机器人交流的系统及方法
Li et al. Real-time human-robot interaction for a service robot based on 3D human activity recognition and human-mimicking decision mechanism
Erdoğan et al. Intention recognition using leap motion controller and Artificial Neural Networks
Maragkos et al. Virtual reality assisted robot programming for human collaboration
Zhang et al. Research on multi-modal interactive control for quadrotor uav
Thota et al. Prototyping an autonomous eye-controlled system (AECS) using raspberry-pi on wheelchairs
CN106863296B (zh) 一种用于机器人的安全输出方法以及机器人
US11691291B2 (en) Apparatus and method for generating robot interaction behavior

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant