CN110039535B - 机器人交互方法及机器人 - Google Patents
机器人交互方法及机器人 Download PDFInfo
- Publication number
- CN110039535B CN110039535B CN201810046215.5A CN201810046215A CN110039535B CN 110039535 B CN110039535 B CN 110039535B CN 201810046215 A CN201810046215 A CN 201810046215A CN 110039535 B CN110039535 B CN 110039535B
- Authority
- CN
- China
- Prior art keywords
- robot
- light
- interaction
- visible light
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 176
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000000694 effects Effects 0.000 claims abstract description 57
- 230000002452 interceptive effect Effects 0.000 claims description 111
- 230000000007 visual effect Effects 0.000 claims description 88
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 14
- 238000012544 monitoring process Methods 0.000 claims description 12
- 230000001678 irradiating effect Effects 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 abstract description 22
- 238000010586 diagram Methods 0.000 description 27
- 230000008447 perception Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003760 hair shine Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000010408 sweeping Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本申请实施例提供一种机器人交互方法及机器人。在本申请实施例中,在机器人上增设发光模块,使得机器人支持灯光交互模式,当监听到相应触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域,用来直观、方便地引导机器人的交互对象进入、避免进入或退出该区域,解决机器人与交互对象的活动空间不合理交叉的问题,避免因活动空间不合理交叉可能引起的人机碰撞或人机交互效果不佳等问题,提高人机交互效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种机器人交互方法及机器人。
背景技术
机器人是集环境感知、动态决策与规划、行为控制与执行等多功能于一体的综合系统。机器人能够在地面、桌面等平面上,按照人们的指令进行前后左右移动。
随着机器人技术的发展,机器人的应用场景越来越多,例如商场导购、酒店服务等。在这些应用场景中,机器人的活动空间可能会与人的活动空间发生交叉,这种活动空间之间的交叉若不合理,可能引起人机碰撞或人机交互效果不佳等问题。
当机器人与人的活动空间存在不合理交叉时,有的机器人会重新规划自己的活动空间,有的机器人会通过语音方式提示用户调整活动空间,从而解决活动空间不合理交叉的问题。但是,现有方式的效果不是很理想,有时需要机器人和用户进行多次调整,导致人机交互效率较低。
发明内容
本申请的多个方面提供一种人机交互方法及机器人,用以更加直观、方便的解决人机活动空间不合理交叉的问题,提高人机交互效率。
本申请实施例提供一种机器人交互方法,包括:
监听触发事件,所述触发事件是触发机器人启动灯光交互模式的事件;
当监听到所述触发事件时,通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域;
其中,所述可视灯光区域用于引导所述机器人的交互对象进入、避免进入或退出所述可视灯光区域。
本申请实施例还提供一种机器人,包括:机械本体;所述机械本体上设有主控板,所述主控板上集成有处理器;所述机械本体上还安装有至少一个发光模块;
所述处理器与所述至少一个发光模块电连接,用于在监听到触发事件时,控制所述至少一个发光模块在所述机器人周围照射出一可视灯光区域;
其中,所述触发事件是触发所述机器人启动灯光交互模式的事件;所述可视灯光区域用于引导所述机器人的交互对象进入、避免进入或退出所述可视灯光区域。
本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,所述计算机程序被计算机执行时能够实现上述方法实施例中的步骤。
在本申请实施例中,在机器人上增设发光模块,使得机器人支持灯光交互模式,当监听到相应触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域,用来直观、方便地引导机器人的交互对象进入、避免进入或退出该区域,解决机器人与交互对象的活动空间不合理交叉的问题,避免因活动空间不合理交叉可能引起的人机碰撞或人机交互效果不佳等问题,提高人机交互效率。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1a为本申请一示例性实施例提供的一种机器人的整体结构示意图;
图1b为本申请一示例性实施例提供的一种复杂形态的人形机器人的整体结构示意图;
图1c为本申请一示例性实施例提供的一种简单形态的非人形机器人的整体结构示意图;
图1d为本申请一示例性实施例提供的一种机器人的硬件结构的框图;
图1e为本申请一示例性实施例提供的将投射型光源设置于一半球形镜面反射结构的局部示意图;
图2a为本申请一示例性实施例提供的机器人附近各种区域范围的关系示意图;
图2b为本申请另一示例性实施例提供的一种机器人行走方向以及沿行走方向照射的可视灯光区域的示意图;
图2c-图2e为本申请另一示例性实施例提供的另一种机器人行走方向以及沿行走方向照射的可视灯光区域的示意图;
图2f为本申请另一示例性实施例提供的机器人进入电梯时照射出可视灯光区域的示意图;
图2g为本申请又一示例性实施例提供的在可视灯光区域的外边缘显示时间数字的示意图;
图2h为本申请又一示例性实施例提供的在可视灯光区域的内部显示时间数字的示意图;
图2i为本申请又一示例性实施例提供的在乘客方向上照射出的表示机器人工作时的安全空间范围的可视灯光区域的示意图;
图2j为本申请又一示例性实施例提供的在用户方向上照射出的表示人机交互时最佳空间范围的可视灯光区域的示意图;
图2k为本申请又一示例性实施例提供的在用户进入表示人机交互时最佳空间范围的可视灯光区域的示意图;
图3a为本申请又一示例性实施例提供的一种机器人交互方法的流程示意图;
图3b为本申请又一示例性实施例提供的另一种机器人交互方法的流程示意图;
图3c为本申请又一示例性实施例提供的又一种机器人交互方法的流程示意图;
图4a为本申请又一示例性实施例提供的一种人机交互方法的流程示意图;
图4b为本申请又一示例性实施例提供的引导用户远离机器人工作时的安全空间范围的方法的流程示意图;
图4c为本申请又一示例性实施例提供的引导用户避让机器人的方法的流程示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
针对现有技术在解决活动空间不合理交叉的问题时存在的人机交互效率较低等问题,本申请实施例提供一种解决方案,基本思路是:在机器人上增设发光模块,使得机器人支持灯光交互模式,当监听到相应触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域,用来直观、方便地引导机器人的交互对象进入、避免进入或退出该区域,解决机器人与交互对象的活动空间不合理交叉的问题,避免因活动空间不合理交叉可能引起的人机碰撞或人机交互效果不佳等问题,提高人机交互效率。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1a为本申请一示例性实施例提供的一种机器人的整体结构示意图。如图 1a所示,该机器人100包括:机械本体101、处理器102、存储器103以及至少一个发光模块104。
在本实施例中,机械本体101上设有主控板,存储器103和处理器102集成于主控板上。如图1a所示,若主控板设置于机械本体101内部实现,则存储器103和处理器102位于机械本体101内部实现(图1a中以虚线示出),但不限于此。除此之外,主控板也可以设置于机械本体101的表面,则存储器103 和处理器102会位于机械本体101的表面。
其中,机械本体101是机器人100赖以完成作业任务的执行机构,可以在确定的环境中执行处理器102指定的操作。根据机器人100的功能和整体实现形态的不同,机械本体101可以有不同的实现结构。对于形态相对复杂一些的机器人,以图1b所示复杂形态的人形机器人为例,机械本体101主要包括但不限于:机器人100的头部、手部、腕部、臂部、腰部和基座等机械结构;一般机械本体101可采用关节式机械结构,可以有6个自由度,其中3个用来确定该结构末端执行装置的位置,另外3个自由度则用来确定该机械结构末端执行装置的方向。对于形态相对简单一些的机器人,以图1c所示简单形态的非人形机器人为例,机械本体101主要是指机器人100的机身。
存储器103,主要用于存储计算机程序以及与机器人100完成作业任务相关的数据。其中,根据应用场景的不同,机器人100需要完成的作业任务会有所不同,则与机器人100完成作业任务相关的数据也会有所不同。例如,对学习机器人而言,需要根据用户的学习指令向用户输出知识内容,则机器人100内部存储的知识内容或知识内容的链接等数据即为与机器人100完成作业任务相关的数据。又例如,对于扫地机器人而言,需要根据用户的扫地指令识别待清洁地面并完成清洁任务,则机器人100内部存储的空间地图、清扫时间等数据即为与机器人100完成作业任务相关的数据。又例如,对于工作于酒店、商场的运输机器人而言,需要根据设定的源地址和目的地址完成相应货物的运输,则机器人100内部存储的从源地址到目的地址的线路图、运输时间、次数、需要运输的货物信息等数据即为与机器人100完成作业任务相关的数据。
处理器102,可以看作是机器人100的控制系统,主要用于执行存储器103 中存储的计算机程序,从而对作业指令信息、内外环境信息进行处理,并依据预定的本体模型、环境模型和控制程序做出决策,产生相应的控制信号,并驱动机械本体101的各个关节式机械结构按所需的顺序、沿确定的位置或轨迹运动,完成特定的作业任务。
在机器人100完成作业任务的过程中以及其它一些场景中,机器人100的活动空间可能会与用户的活动空间发生交叉。机器人与用户的活动空间交叉产生的空间矛盾,经常导致机器人无法处于最佳工作状态,甚至无法工作。
例如,在人机交互场景中,用户有实际交互需求或者被机器人100吸引产生交互欲望时会与机器人100进行交互。如果用户距离机器人100过近,可能会影响机器人100上部分传感器正常工作;如果用户距离机器人100过远,可能会超出机器人100上部分传感器的有效工作范围,造成交互无效或者造成机器人100做出错误判断。由此可见,在用户与机器人100进行交互时,需要用户与机器人100保持有效距离,即需要机器人100与用户的活动空间合理交叉,以便提高交互效果和用户体验。
又例如,在机器人100行进或作业过程中,经常需要用户对机器人100进行避让。如果用户不避让,机器人100将无法行进导致无法正常工作,或者机器人100强行行进会给用户带来人身伤害。由此可见,在用户与机器人100可能发生碰撞时,需要用户与机器人100进行避让,即需要机器人100与用户的活动空间合理交叉,以便机器人100能够正常工作,保证用户人身安全。
由上述可知,在机器人100的活动空间与用户的活动空间发生交叉的情况下,需要活动空间保持合理的交叉范围。但是,由于机器人100的传感器位置和感知范围与人类不同,而且机器人100的形态也会有所不同,导致用户很难以人类的感知习惯判断出与机器人100之间的有效距离。或者,对用户来说,因为无法感知机器人100下一步的行进方向、速度等信息,所以对避让多远、向哪个方向避让等无所适从,导致用户很难判断出应该如何对机器人100做出避让。也就是说,在不同应用场景中,可能因为各种不同因素,导致用户无法准确、快速地判断如何将自己的活动空间与机器人100的活动空间保持合理交叉范围。
在本实施例中,在机器人100的机械本体101上增设至少一个发光模块104。发光模块104可以直接安装于机械本体101的表面。或者,发光模块104可镶嵌于一块板上,通过该板固定于械本体101的表面。或者,发光模块104也可以安装于机械本体101的内部,但在对应位置设置开孔,便于发光模块104发出的光线照射出来。
其中,发光模块104的数量可根据应用需求灵活设定。另外,发光模块104 在机械本体101上的设置位置也可以结合应用需求和发光模块的具体实现方式 (例如是投射型光源或激光器等)灵活设定。可选地,至少一个发光模块104 可以集中安装于机械本体101的某个位置。例如,至少一个发光模块104集中安装于机械本体101的前胸腔处,或者至少一个发光模块104集中安装于机械本体101的后胸腔(简称为后背)处,或者至少一个发光模块104集中安装于机械本体101的手臂表面,或者至少一个发光模块104集中安装于机械本体101 的朝向前方的底部位置,等等。例如,在图1b所示负载形态的人形机器人中,或者在图1c所示简单形态的非人形机器人中,发光模块104集中设置于机械本体101的底部位置,便于在机器人前方或周围地面上投射出灯光区域。
除了集中安装方式之外,也可以采用分散安装方式,即将至少一个发光模块104分散安装于机械本体101的不同位置。例如,部分发光模块104安装于机械本体101的前胸腔处,部分发光模块104安装于机械本体101的后胸腔处,部分发光模块104安装于机械本体101的底部位置,等等。
发光模块104主要用于发射灯光,在机器人100周围照射出灯光区域。基于此,机器人100可以采用灯光交互模式与用户进行交互,使得用户了解机器人100所需的活动空间,进而避免活动空间的不合理交叉。例如,机器人100 可以通过发光模块104将机器人100需要的活动空间照射出来,使得用户可以直观、快速地了解机器人100的活动空间,进而准确、快速地判断出应该如何将自己的活动空间与机器人100的活动空间保持合理交叉,进而与机器人100 保持最佳的距离范围,以便于机器人100处于最佳工作状态。
在本实施例中,预先为该灯光交互模式绑定一些事件,这些事件可以触发机器人100启动灯光交互模式。为便于描述和区分,将这些可以触发机器人100 启动灯光交互模式的事件称为触发事件。则在机器人100运行过程中,处理器 102可以实时监听触发事件,当监听到触发事件时,确定机器人100需要启动灯光交互模式,于是通过机器人100的机械本体101上的发光模块104在机器人 100周围照射出一可视灯光区域。该可视灯光区域主要反映机器人100所需的空间范围。根据应用场景和应用需求的不同,该可视灯光区域用于引导机器人100 的交互对象进入、避免进入或退出该可视灯光区域,使得用户的活动空间与机器人100的活动空间保持合理交叉。对机器人100的交互对象而言,可以根据发光模块104在机器人100周围照射出的可视灯光区域了解机器人100的活动空间,进而可根据应用需求将自己的活动空间与该活动空间进行合理交叉,例如进入该可视灯光区域,或者避免进入该可视灯光区域,或者退出该可视灯光区域。
值得说明的是,可能与机器人100的活动空间存在交叉的除了用户之外,也可能是其它机器人或物体。本实施例中的交互对象是指可能与机器人100的活动空间发生交互的用户、其它机器人或物体的统称。根据应用场景的不同,机器人100的交互对象也会有所不同。例如,可以是需要与机器人100进行交互的用户,也可以是需要对机器人100进行避让的用户等。
由此可见,在本实施例中,在机器人上增设发光模块,使得机器人支持灯光交互模式,当监听到相应触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域,用来直观、方便地引导机器人的交互对象进入、避免进入或退出该区域,解决机器人与交互对象的活动空间不合理交叉的问题,避免因活动空间不合理交叉可能引起的人机碰撞或人机交互效果不佳等问题,可提高人机交互效率。
在本申请各实施例中,并不限定用来实现发光模块104的器件形式,凡是可以发光的元器件均可用来实现本申请实施例中的发光模块104。参见图1b和图1c,至少一个发光模块104包括若干个激光器3和若干个投射型光源4,但不限于此。其中,激光器是利用受激辐射原理使光在某些受激发的物质中放大或振荡发射的器件。投射型光源是一种利用光学投射原理可以将光成像到任何不透光的介质(例如天花板、地板、地面)上的器件。投射型光源4可以采用 LED投射灯或者采用投影或者带反射投射功能的其他光源形式。其中,LED投射灯可以是LED幻彩灯条、灯环或单个LED灯。值得说明的是,发光模块104 也可以单独包括若干个激光器3,或者单独包括若干个投射型光源4。另外,除了激光器3、投射型光源4之外,发光模块104也可以采用投影仪等投影设备来实现。
在至少一个发光模块104包括若干个激光器3和若干个投射型光源4的应用场景中,投射型光源4主要用于在机器人100周围投射出一片光区,形成可视灯光区域的内部区域,而激光器3可主要用于在投射型光源4照射出的光区的边缘发射出激光形成可视灯光区域的边界。在该方式中,可利用激光具有射程远、颜色鲜亮、亮度高、指向性好以及光分散度较小等特点,将可视灯光区域的边缘高亮突出显示,使得该可视灯光区域的范围更加明确,也更具有提示意义。
进一步可选地,若干个激光器3和若干个投射型光源4的安装位置,可结合机器人的形态、需要照射出的可视灯光区域的范围、角度以及激光器3的发射角、投射型光源4的投射角等灵活设置,凡是可以照射出符合需求的可视灯光区域的安装位置均适用于本申请实施例。从便于布局或美观的角度,本申请实施例提供几种安装方式,但不限于此:
在方式1中,若干个激光器3安装于若干个投射型光源4上方,且沿着若干个投射型光源4的排布方向间隔设置,如图1b和图1c所示。
在方式2中,若干个激光器3安装于若干个投射型光源4的左右两侧,且间隔设置。若干个投射型光源4安装方式不做限定,例如以机械本体101为基准,可以自上而下或自左而右依次安装若干个投射型光源4,或者,也可以按照矩阵布局样式安装若干个投射型光源4。
在方式3中,若干个激光器3安装于若干个投射型光源4的上下两侧,且间隔设置。同理,若干个投射型光源4安装方式不做限定,参见方式2中的说明。
在方式4中,若干个激光器3环绕若干个投射型光源4间隔设置,即若干个激光器3安装于若干个投射型光源4外围,对若干个投射型光源4形成包围趋势,且间隔设置。同理,若干个投射型光源4安装方式不做限定,参见方式2 中的说明。
在一些示例性实施例中,为了提高投射型光源4的聚光性,可以将投射型光源4设置于一半球形镜面反射结构内,并在该半球形反射结构的开口处设有凸透镜结构。在该结构中,投射型光源4发出的垂直射入凸透镜结构的光会直接射出,而投射型光源4发出的大部分未能垂直射入凸透镜的光会经过该半球形反射结构的反射进入凸透镜结构,再由凸透镜折射出去,利用凸透镜的折射原理可以提高光的汇聚性,有利于在机器人100周围相应区域上投射出更高质量的可视灯光区域。其中,将投射型光源4设置于一半球形镜面反射结构的局部示意图如图1e所示。
在本申请实施例中,机器人100除了具有图1a-图1c所示整体结构以及存储器103、处理器102和发光模块104之外,还可以包括一些其它硬件结构。当然,对具有不同功能和不同实现形态的机器人而言,其所包括的硬件结构以及硬件结构的连接关系可能有所不同。如图1d所示,为本申请一示例性实施例给出的一种机器人100的硬件结构框图。如图1d所示,本申请实施例中的机器人 100主要包括:主控板10、电源板20、硬件控制模块30、传感器模块40、交互模块50以及发光模块104等几大硬件结构。其中,电源板20、硬件控制模块 30、传感器模块40、交互模块50以及发光模块104分别与主控板10连接。这些硬件结构设置于机械本体101内部或者设置于机械本体101表面实现。
在机器人100的主控板10上集成有存储器103和处理器102,主控板10主要负责机器人100的控制逻辑,该控制逻辑主要是由处理器102实现。电源板 20与电池21连接,主要用于为机器人100供电。
硬件控制模块30与机械本体101的实现形态有关,例如可以包括但不限于:底盘运动控制模块、舱门控制模块以及其它硬件运动控制模块等,主要负责控制机器人100的机械本体101进行机械运动。
传感器模块40可以包括但不限于:超声传感器、激光传感器、视觉传感器、红外传感器、碰撞传感器、光电传感器、人体传感器等中的一种或多种,是机器人100的重要硬件结构,是使机器人100具有类似人类的知觉功能和反应能力的基础。在本实施例中,传感器模块40可在机器人的第二预设范围内或可视灯光区域内监测交互对象或交互对象发出的操作,并将监测结果提供给处理器 102,以供处理器102基于监测结果进行相应操作。
交互模块50可以包括但不限于:屏幕、麦克风、扬声器、摄像头等中的一种或多种,是用户与机器人100进行交互的硬件基础。在本实施例中,交互模块50可以向交互对象提供灯光交互模式之外的其它交互模式,简称为非灯光交互模式。例如,交互模块50可以向交互对象提供基于屏幕的交互模式,或者可以向交互对象提供基于扬声器和麦克风的语音交互模式,或者,可以向交互对象提供基于摄像头的体动交互模式,等等。进一步,当传感器模块40在机器人 100的第二预设范围内或可视灯光区域内监测到交互对象或交互对象发出的操作时,交互模块50可以在处理器102的控制下以非灯光交互模式向交互对象发出提示信息。关于传感器模块40在机器人100的第二预设范围内或可视灯光区域内监测交互对象或交互对象发出的操作,以及交互模块50以非灯光交互模式向交互对象发出提示信息等操作可参见后续实施例的描述。
关于发光模块104可以参见前面实施例中的描述,在此不再赘述。
值得说明的是,机器人100除了包括图1d所示硬件结构之外,还可以包括通信模块、硬件开关等其它硬件结构。
在本申请各实施例中,关于触发机器人100启动灯光交互模式的触发事件,可视应用需求的不同而灵活设置。下面举例说明:
在示例1中,可以设定一旦机器人100启动就启动灯光交互模式,则可以将开启机器人100的事件,设定为触发事件。基于此,处理器102可以监听机器人100是否开启,当监听到开启机器人100的事件时,启动灯光交互模式,即控制发光模块104在机器人100周围照射出可视灯光区域。
例如,对于设有开机物理按钮的机器人100,用户通过长按开机物理按钮,可以开启机器人100。对此,处理器102可以监听该开机物理按钮,当监听到该开机物理按钮的长按事件时,确定机器人100被开启,于是启动灯光交互模式。
又例如,对于支持声控启动模式的机器人100,用户可以发出符合要求的声音信号从而开启机器人100。对此,处理器102可以通过机器人100的音频模块监听符合要求的声音信号,当监听到符合要求的声音信号时,确定机器人100 被开启,于是启动灯光交互模式。
在示例2中,可以设定在机器人100处于唤醒状态时,启动灯光交互模式。基于此,处理器102可以监听机器人100是否处于唤醒状态,当监听到将机器人100从待机状态唤醒的事件时,启动灯光交互模式,即控制发光模块104在机器人100周围照射出可视灯光区域。
例如,对于支持触摸唤醒的机器人100,用户可以通过触摸机器人100的屏幕将机器人100唤醒。对此,处理器102可以在机器人100处于待机状态时监听机器人100的屏幕上是否出现触控事件,当监听到屏幕上出现触控事件时,确定机器人100被唤醒,于是启动灯光交互模式。
又例如,对于支持声控唤醒模式的机器人100,用户可以发出符合要求的声音信号从而将机器人100从待机状态唤醒。对此,处理器102可以通过机器人 100的音频模块监听符合要求的声音信号,当监听到符合要求的声音信号时,确定机器人100被唤醒,于是启动灯光交互模式。
在示例3中,可以设定当有交互对象靠近机器人100时,启动灯光交互模式。其中,将“靠近”定义为交互对象出现在机器人100的第一预设范围内,第一预设范围是包含可视灯光区域的区域范围。其中,第一预设范围与可视灯光区域的关系如图2a所示。基于此,处理器102可以通过有关传感器监听是否有交互对象靠近机器人100,即监听在机器人100的第一预设范围内是否监测到交互对象的事件,当监听到在机器人100的第一预设范围内监测到交互对象的事件时,控制发光模块104在机器人100周围照射出可视灯光区域。
例如,机器人100上设有人体传感器,该人体传感器可以感知人体靠近并会在感知到人体时向处理器102上报感知事件。基于此,处理器102可以监听人体传感器上报的感知事件,当监听到人体传感器上报的感知事件时,确定监听到人体传感器在机器人100的第一预设范围内监测到交互对象的事件,于是启动灯光交互模式。值得说明的是,机器人100上除了设置人体传感器之外,还可以设置红外传感器、摄像头等设备,这些设备也可以识别机器人100的第一预设范围内是否出现交互对象并在识别到交互对象出现时向处理器102上报。
在一些示例性实施例中,除了触发事件之外,还可以结合机器人100的工作模式和/或工作环境,考虑是否启动灯光交互模式。基于此,当监听到触发事件时,可以进一步根据机器人100的工作模式和/或工作环境,确定是否启动灯光交互模式;当确定启动灯光交互模式时,再通过机器人100上的发光模块104 在机器人100周围照射出可视灯光区域。反之,当确定不启动灯光交互模式时,则不会通过发光模块104在机器人100周围照射出可视灯光区域。
其中,可以根据应用需求灵活设置哪些工作模式和/或工作环境可以启动灯光交互模式。下面举例说明:
示例a:当机器人处于交互模式时,可以启动灯光交互模式。在该示例中,当机器人开机或被唤醒或有交互对象靠近时,进一步判断机器人当前是否处于交互模式;当机器人处于交互模式时,才能启动灯光交互模式,进而可通过发光模块在机器人前方照射出交互对象与机器人交互时需要所处的最佳交互空间范围。这里的交互模式主要是指机器人响应于用户操作向用户提供有关信息的人机交互模式。
示例b:当机器人处于安全作业模式时,可以启动灯光交互模式。在该示例中,当机器人开机或被唤醒或有交互对象靠近时,进一步判断机器人当前是否处于安全作业模式;当机器人处于安全作业模式时,才能启动灯光交互模式,进而可通过发光模块在机器人前方照射出机器人作业所需的安全空间范围。这里的安全作业模式主要是指为保证用户安全,机器人需要一定空间范围的工作模式。
示例c:当机器人处于行走模式时,可以启动灯光交互模式。在该示例中,当机器人开机或被唤醒或有交互对象靠近时,进一步判断机器人当前是否处于行走模式;当机器人处于行走模式时,才能启动灯光交互模式,进而可通过发光模块在机器人前方照射出机器人正常行走所需的空间范围。
示例d:当机器人处于狭小空间时,可以启动灯光交互模式。在该示例中,当机器人开机或被唤醒或有交互对象靠近时,进一步判断机器人当前是否处于狭小空间内;当机器人处于狭小空间内时,才能启动灯光交互模式,进而可通过发光模块在机器人前方照射出机器人正常工作所需的空间范围,避免与该狭小空间内的用户或其它物体发生碰撞。狭小空间可以是一些特定空间,例如走廊、楼梯、垫体或楼道等空间。
上述仅是一些示例,并不限于这些示例。另外,上述示例可以单独应用,也可以相互结合应用。
在一些示例性实施例中,机器人100上可以设置多个发光模块104,不同发光模块104的设置位置不同,不同的发光模块104对应不同的方向范围,并预先建立各发光模块104与各方向范围之间的映射关系。这样可以根据应用需求,通过不同位置的发光模块104在不同方向范围上照射出可视灯光区域,提高灯光交互模式的灵活性。基于此,当确定要启动灯光交互模式时,可以根据机器人的工作模式,确定需要照射出可视灯光区域的方向范围,然后通过机器人上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。
其中,机器人的工作模式不同,可能需要的方向范围也会有所不同。下面举例说明:
当机器人100处于交互模式时,可以在交互对象所在的方向上展示最佳交互空间范围,因此,可以识别需要与机器人100进行交互的对象(简称为交互对象)相对于机器人100的方向,根据该方向确定需要照射出可视灯光区域的方向范围,然后通过机器人100上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将交互对象相对于机器人100的方向作为需要照射出可视灯光区域的方向范围,或者可以以交互对象相对于机器人100的方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
当机器人100处于安全作业模式时,可以面向靠近机器人100的交互对象展示机器人100的安全空间范围,因此,可以识别出现在机器人100的第一预设范围内的交互对象相对于机器人100的方向,根据该方向确定需要照射出可视灯光区域的方向范围,然后通过机器人100上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将交互对象相对于机器人100的方向作为需要照射出可视灯光区域的方向范围,或者可以以交互对象相对于机器人100的方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
当机器人100处于行走模式,可以展示机器人100正常行走所需的空间范围,因此可以根据所述机器人100所处环境的地图和机器人100的当前任务规划机器人100的行走方向,根据机器人100的行走方向确定需要照射出可视灯光区域的方向范围,然后通过机器人100上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将机器人100 的行走方向作为需要照射出可视灯光区域的方向范围,或者可以以机器人100的行走方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
在本申请各示例性实施例中,并不限定可视灯光区域的样式、状态、宽度等,可视灯光区域的样式、状态、宽度等可视具体应用需求而定。例如,在机器人处于安全作业模式或行走模式时,可视灯光区域的宽度可以大于或等于机器人的最大宽度。其中,机器人的最大宽度是指机器人所有部件处于最大伸展状态时的最大宽度。例如,对于带有手臂的人形机器人,其最大宽度是指该机器人的手臂处于完全伸展状态时的宽度。
在一些应用场景中,在机器人周围照射出可视灯光区域之后,交互对象可能会进一步靠近机器人,则除了通过该可视灯光区域对用户进行警示之外,还可以结合其它方式对交互对象做进一步提示或警示。
例如,当机器人上的传感器模块监测到交互对象出现在机器人的第二预设范围内时,可以将相关事件上报给处理器,则除了显示该可视灯光区域之外,处理器还可以控制机器人上的交互模块以非灯光交互模式发出提示信息,以进一步提醒交互对象进入或避免进入该可视灯光区域。其中,第二预设范围包含该可视灯光区域但小于第一预设范围。第一预设范围是可以触发机器人启动灯光交互模式的最大区域范围。其中,第一预设范围、第二预设范围以及可视灯光区域之间的关系如图2a所示。在图2a中,实线圈表示第一预设范围,虚线圈表示第二预设范围,灰色区域表示可视灯光区域。值得说明的是,图2a所示预设范围的样式仅为示例,但并不限于此。
又例如,当机器人上的传感器模块监测到交互对象出现在可视灯光区域内,或者监测到交互对象发出的交互操作时,可以将相关事件上报给处理器,则除了显示该可视灯光区域之外,处理器还可以控制至少一个发光模块104改变可视灯光区域的可视化属性,并控制机器人上的交互模块以非灯光交互模式发出提示信息,从而向交互对象发出进一步提示。
其中,非灯光交互模式可以是基于机器人的扬声器和麦克风的语音交互模式,或者基于机器人的屏幕进行信息展示的交互模式。对此,机器人除了通过发光模块照射出可视灯光区域之外,还可以以语音方式播放提示信息,和/或在机器人的屏幕上展示提示信息。
值得说明的是,对于交互对象进入可视灯光区域内的情况,根据机器人所处工作模式的不同,提示信息的含义会有所不同。例如,若机器人处于行走模式,则在交互对象进入该可视灯光区域的情况下,改变可视灯光区域的可视化属性以及以非灯光交互模式发出提示信息,主要目的是提醒交互对象退出该可视灯光区域。又例如,机器人处于交互模式,则在交互对象处于该可视灯光区域的情况下,改变可视灯光区域的可视化属性以及以非灯光交互模式发出提示信息,主要目的是告诉交互对象机器人正在识别其发出的操作指令,提高交互体验。
其中,可视灯光区域的可视化属性包括但不限于:可视灯光区域的形状、灯光颜色、灯光亮度以及动效。例如,可以改变可视灯光区域的形状,例如由圆形或椭圆形变成三角形、菱形或锯齿形等等,以增强视觉效果。又例如,可以改变可视灯光区域的灯光颜色,例如可以按照人类对颜色的安全感知度将灯光颜色由弱到强进行变化。又例如,可以概念可视灯光区域的动态效果,例如改变灯光闪烁的频率、由闪烁改变为旋转等。
值得说明的是,上述可视化属性可以单独改变,也可以结合改变。以机器人处于安全作业模式为例,当交互对象进入机器人的第一预设范围但未进入第二预设范围的情况下,可以将可视灯光区域的灯光颜色定义为人类普遍感知中的安全颜色,例如绿色但不限于绿色,并定义可视灯光区域的状态稳定,柔和明确,以此方式照射出可视灯光区域;当交互对象进入第二预设范围但未进入可视灯光区域的情况下,可以将可视灯光区域的灯光颜色定义为人类普遍感知中的明快颜色,例如黄色、橙色,并调整可视灯光区域为动态转动;进一步,在交互对象进入可视灯光区域的情况下,机器人的安全范围遭到交互对象的侵犯,此时可以将可视灯光区域的灯光颜色定义为人来普遍感知中的警示颜色,例如红色但不限于红色,并控制可视灯光区域进行闪烁,提高可视灯光区域的亮度,与此同时还可以配合语音提示,例如请您退出闪烁区域,保证人身安全等语音信息。
下面结合机器人在一些应用场景中的工作模式,对本申请技术方案做详细说明。
在酒店、商场等一些服务场景中,机器人用来完成运送物品的任务,例如从餐厅到客房的送餐服务,从布草间到客房的物品运送服务等。在该场景中,机器人的运动空间可能比较狭窄,例如可能是走廊、电梯、通道等,在这些空间中,机器人的运动路径很可能与周围用户的运动路径交叉从而产生矛盾。此时,为了便于机器人正常工作,用户可以适当避让。为了便于用户感知如何避让,机器人可以根据自身所处环境的地图以及机器人的当前任务规划机器人的行走方向,根据机器人的行走方向确定需要照射出可视灯光区域的方向范围,进而控制发光模块在机器人前方投射出沿行走方向的可视灯光区域。在该应用场景中,可视灯光区域展示了机器人的行走路径,基于此,用户可以清楚地感知机器人行进所需的空间范围,使得用户可以按照该可视灯光区域进行避让,即用户躲避到该可视灯光区域之外。其中,机器人所处环境的地图可以预先设置于机器人内,或者,也可以由机器人通过其摄像头实时拍摄获得。
一种机器人的行走方向如图2b所示,先向左再向前。在图2b中,虚线为行走方向,灰色区域为照射出的可视灯光区域。如图2b所示,该可视灯光区域的形态是一光带,但不限于此。例如,在机器人的行走方向上照射出的可视灯光区域的样式还可以如图2c-图2e所示。另外,如图2f所示,为机器人在进入电梯时照射出的可视灯光区域的样式示意图。其中,为了机器人硬件可以正常通过,可视灯光区域的宽度可以大于或等于机器人的最大宽度。如图2b所示,该可视灯光区域与机器人等宽。如图2c-2f所示,该可视灯光区域的宽度大于机器人的宽度。
可选地,可视灯光区域的投射距离可根据实际使用场景和机器人的通常速度而定,例如机器人以0.5m/s的速度,要进入深1.75m的电梯,光线所需投射距离可以在2.5-3m。
在一种示例性实施方式中,至少一个发光模块包括若干个激光器,若干个激光器中可以包括图案型激光器,图案性激光器是指一个或一组可以照射出各种图案的激光器。基于此,处理器除了控制其他发光模块(例如非图案型激光器,或者投射型光源)在机器人周围照射出可视灯光区域之外,还可以控制图案型激光器在可视灯光区域的外边缘或内部照射出时间数字,该时间数字表示机器人从当前位置行走至时间数字对应位置处所需的时长。
其中,除了图案型激光器可以照射出时间数字之外,也可以采用投射型光源投射出时间数字。例如,至少一个发光模块包括若干个投射型光源,若干个投射型光源包括图案型LED投射灯,图案型LED投射灯是指一个或一组可以照射出各种图案的LED投射灯。基于此,处理器除了控制其他发光模块(例如激光器,或者除图案型LED投射灯之外的其它投射型光源)在机器人周围照射出可视灯光区域之外,还可以控制图案型LED投射灯在可视灯光区域的外边缘或内部照射出时间数字。
其中,在可视灯光区域的外边缘显示时间数字的示意图如图2g所示;在可视灯光区域的内部显示时间数字的示意图如图2h所示。值得说明的是,在图2g 和图2h中,除了示出了时间数字之外,还示出了时间单位“s(秒)”,该单位可以示出也可以不示出。另外,图2g和图2h所示示出时间数字的位置仅为一种示例,并不限于此。
可选地,可以预先设定机器人行进路径上需要标注时间数字的位置,例如这些位置可以是可视灯光区域的中间位置或最远端。基于此,处理器在监测到触发事件时,一方面可以控制其他发光模块在机器人周围照射出可视灯光区域,另一方面可以结合机器人的行进速度以及机器人当前位置到其行进路径上需要标注时间数字的位置之间的距离,计算出时间数字,并控制图案性激光器或图案型LED投射灯在可视灯光区域的外边缘或内部照射出该时间数字。
在上述在可视灯光区域的外边缘或内部显示时间数字的实施方式中,交互对象可以根据可视灯光区域判断避让范围,并可进一步结合时间数字判断避让时间,有利于交互对象更加准确、及时地、合理地对机器人进行避让。
在机场、商场等应用场景中,机器人用来完成乘客引流,需要向乘客指路。在该场景中,机器人通常带有人形手臂,时不时需要抬起手臂为乘客指路。为了避免伤到乘客,乘客需要与机器人保持一定距离,这需要用户感知与机器人的安全距离。为了便于用户与机器人保持一定的安全距离,机器人可以通过各种传感器感知乘客所在的方向,根据预先建立的发光模块与方向范围之间的映射关系,确定与乘客所在的方向对应的发光模块,控制该发光模块在机器人前方朝乘客所在方向上投射出宽度大于或等于机器人最大宽度的可视灯光区域,如图2i所示灰色圆形区域。根据机器人形态的不同,机器人最大宽度的定义会有所不同。例如,以图1b所示复杂形态的人形机器人为例,机器人最大宽度可以定义为机器人伸开手臂时的宽度,如图1b中所示宽度w;相应地,发光模块可以在机器人前方照射出宽度为L(图1b中两条箭头指示线之间的距离)的可视灯光区域,宽度L等于机器人最大宽度W。又例如,以图1c所示简单形态的非人形机器人为例,机器人最大宽度可以定义为自身宽度加上一定余量,如图 1c中所示宽度w;相应地,发光模块可以在机器人前方照射出宽度为L(图1c 中两条箭头指示线之间的距离)的可视灯光区域,宽度L等于机器人最大宽度 W。在该应用场景中,可视灯光区域展示了机器人工作时的安全空间范围,基于此,用户可以清楚地感知机器人所需的空间范围,避免进入机器人的空间范围内,从而与机器人保持合理的距离,以便于在保证人体安全的情况下使机器人处于最佳工作状态。
在酒店、展厅、医院等应用场景中,机器人用来完成人机交互,解答用户的有关问题。在该场景中,如果用户与机器人之间的距离过近,会影响机器人的各种传感器工作;如果用户与机器人之间的距离过远,则超出了机器人部分传感器的有效工作范围,造成交互无效或机器人做出错误判断。为便于用户与机器人保持有效距离,机器人可以通过各种传感器感知用户所在的方向,根据预先建立的发光模块与方向范围之间的映射关系,确定与用户所在的方向对应的发光模块,控制该发光模块在机器人前方朝该用户所在的方向上投射出一可视灯光区域,如图2j所示灰色扇形区域。在该应用场景中,可视灯光区域展示了用户与机器人交互时的最佳交互空间范围,用户可以清楚地感知自己需要所处的空间范围,于是可以进入该可视灯光区域内,保证最佳交互效果。
进一步,如图2k所示,当用户进入该可视灯光区域内,用户可以向机器人发起交互操作,机器人可以通过语音识别、视觉传感器、触控屏幕、摄像头等各种方式感知用户发起的交互操作,并通过改变可视灯光区域的可视化属性,例如改变灯光颜色、灯光运动方式等提示用户机器人正在识别用户的交互操作,进一步还可以通过语音方式发出提示信息,例如正在识别等语音信息,使用户感知交互过程。
由此可见,本申请实施例通过灯光指示一定区域,便于用户与机器人保持合理距离范围,使得机器人可以处于最佳工作状态,而且也不至于伤到用户。这种方式更加直观明确,易于用户感知和理解,并且信息传递效率较高,可以极大的降低交互对象与机器人因活动空间交叉而引发各种问题的概率。
图3a为本申请又一示例性实施例提供的一种机器人交互方法的流程示意图。如图3a所示,该方法包括:
31a、监听触发事件,这里的触发事件是触发机器人启动灯光交互模式的事件。
32a、当监听到触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域;其中,可视灯光区域用于引导机器人的交互对象进入、避免进入或退出可视灯光区域。
在本实施例中,机器人上设置有发光模块。发光模块主要用于发射灯光,在机器人周围照射出灯光区域。基于该发光模块,机器人可以采用灯光交互模式与用户进行交互,使得用户了解机器人所需的活动空间,进而避免活动空间的不合理交叉。
在本实施例中,预先为该灯光交互模式绑定一些事件,这些事件可以触发机器人启动灯光交互模式。为便于描述和区分,将这些可以触发机器人启动灯光交互模式的事件称为触发事件。则在机器人运行过程中,可以实时监听触发事件,当监听到触发事件时,确定机器人需要启动灯光交互模式,于是通过机器人上的发光模块在机器人周围照射出一可视灯光区域。该可视灯光区域主要反映机器人所需的空间范围。根据应用场景和应用需求的不同,该可视灯光区域用于引导机器人的交互对象进入、避免进入或退出该可视灯光区域,使得用户的活动空间与机器人的活动空间保持合理交叉。对机器人的交互对象而言,可以根据发光模块在机器人周围照射出的可视灯光区域了解机器人的活动空间,进而可根据应用需求将自己的活动空间与该活动空间进行合理交叉,例如进入该可视灯光区域,或者避免进入该可视灯光区域,或者退出该可视灯光区域。
值得说明的是,可能与机器人的活动空间存在交叉的除了用户之外,也可能是其它机器人或物体。本实施例中的交互对象是指可能与机器人的活动空间发生交互的用户、其它机器人或物体的统称。根据应用场景的不同,机器人的交互对象也会有所不同。例如,可以是需要与机器人进行交互的用户,也可以是需要对机器人进行避让的用户等。
由此可见,在本实施例中,在机器人上增设发光模块,使得机器人支持灯光交互模式,当监听到相应触发事件时,通过机器人上的发光模块在机器人周围照射出一可视灯光区域,用来直观、方便地引导机器人的交互对象进入、避免进入或退出该区域,解决机器人与交互对象的活动空间不合理交叉的问题,避免因活动空间不合理交叉可能引起的人机碰撞或人机交互效果不佳等问题,可提高人机交互效率。
其中,关于触发机器人启动灯光交互模式的触发事件,可视应用需求的不同而灵活设置。例如,可以监听机器人是否开启,当监听到开启机器人的事件时,控制发光模块在机器人周围照射出可视灯光区域。又例如,可以监听机器人是否处于唤醒状态,当监听到将机器人从待机状态唤醒的事件时,控制发光模块在机器人周围照射出可视灯光区域。又例如,可以通过有关传感器监听是否有交互对象靠近机器人,即监听在机器人的第一预设范围内是否监测到交互对象的事件,当监听到在机器人的第一预设范围内监测到交互对象的事件时,控制发光模块在机器人周围照射出可视灯光区域。第一预设范围是包含可视灯光区域的区域范围。其中,第一预设范围与可视灯光区域的关系如图2a所示。
在一些示例性实施例中,除了触发事件之外,还可以结合机器人的工作模式和/或工作环境,考虑是否启动灯光交互模式。基于此,如图3b所示,本申请又一示例性实施例提供的另一种机器人交互方法包括以下步骤:
31b、监听触发事件,这里的触发事件是触发机器人启动灯光交互模式的事件。
32b、当监听到触发事件时,根据机器人的工作模式和/或工作环境,确定是否启动灯光交互模式。当判断结果为是,执行步骤33b;当判断结果为否时,结束此次操作。
33b、通过机器人上的发光模块在机器人周围照射出一可视灯光区域;其中,可视灯光区域用于引导机器人的交互对象进入、避免进入或退出可视灯光区域。
其中,可以根据应用需求灵活设置哪些工作模式和/或工作环境可以启动灯光交互模式。例如,当机器人处于交互模式时,可以启动灯光交互模式。又例如,当机器人处于安全作业模式时,可以启动灯光交互模式。又例如,当机器人处于行走模式时,可以启动灯光交互模式。又例如,当机器人处于狭小空间时,可以启动灯光交互模式。这些示例的详细描述可参见前述实施例,在此不再赘述。
上述仅是一些示例,并不限于这些示例。另外,上述示例可以单独应用,也可以相互结合应用。
在一些示例性实施例中,机器人上可以设置多个发光模块,不同发光模块的设置位置不同,不同的发光模块对应不同的方向范围,并预先建立各发光模块与各方向范围之间的映射关系。这样可以根据应用需求,通过不同位置的发光模块在不同方向范围上照射出可视灯光区域,提高灯光交互模式的灵活性。基于此,如图3c所示,本申请又一示例性实施例提供的又一种机器人交互方法包括以下步骤:
31c、监听触发事件,这里的触发事件是触发机器人启动灯光交互模式的事件。
32c、当监听到触发事件时,根据机器人的工作模式,确定需要照射出可视灯光区域的方向范围。
33c、通过机器人上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域;其中,可视灯光区域用于引导机器人的交互对象进入、避免进入或退出可视灯光区域。
其中,机器人的工作模式不同,可能需要的方向范围也会有所不同。下面举例说明:
当机器人处于交互模式时,可以在交互对象所在的方向上展示最佳交互空间范围,因此,可以识别需要与机器人进行交互的对象(简称为交互对象) 相对于机器人的方向,根据该方向确定需要照射出可视灯光区域的方向范围,然后通过机器人上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将交互对象相对于机器人的方向作为需要照射出可视灯光区域的方向范围,或者可以以交互对象相对于机器人的方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
当机器人处于安全作业模式时,可以面向靠近机器人的交互对象展示机器人的安全空间范围,因此,可以识别出现在机器人的第一预设范围内的交互对象相对于机器人的方向,根据该方向确定需要照射出可视灯光区域的方向范围,然后通过机器人上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将交互对象相对于机器人的方向作为需要照射出可视灯光区域的方向范围,或者可以以交互对象相对于机器人的方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
当机器人处于行走模式,可以展示机器人正常行走所需的空间范围,因此可以根据所述机器人所处环境的地图和机器人的当前任务规划机器人的行走方向,根据机器人的行走方向确定需要照射出可视灯光区域的方向范围,然后通过机器人上与该方向范围对应的发光模块,在该方向范围内照射出可视灯光区域。例如,可以直接将机器人的行走方向作为需要照射出可视灯光区域的方向范围,或者可以以机器人的行走方向为中心左右扩展一定角度形成需要照射出可视灯光区域的方向范围,等等。
在本申请各示例性实施例中,并不限定可视灯光区域的样式、状态、宽度等,可视灯光区域的样式、状态、宽度等可视具体应用需求而定。例如,在机器人处于安全作业模式或行走模式时,可视灯光区域的宽度可以大于或等于机器人的最大宽度。其中,机器人的最大宽度是指机器人所有部件处于最大伸展状态时的最大宽度。例如,对于带有手臂的人形机器人,其最大宽度是指该机器人的手臂处于完全伸展状态时的宽度。
在一些应用场景中,在机器人周围照射出可视灯光区域之后,交互对象可能会进一步靠近机器人,则除了通过该可视灯光区域对用户进行警示之外,还可以结合其它方式对交互对象做进一步提示或警示。
例如,当监测到交互对象出现在机器人的第二预设范围内时,除了显示该可视灯光区域之外,还可以以非灯光交互模式发出提示信息,以进一步提醒用户进入或避免进入该可视灯光区域。其中,第二预设范围包含该可视灯光区域但小于第一预设范围。第一预设范围是可以触发机器人启动灯光交互模式的最大区域范围。其中,第一预设范围、第二预设范围以及可视灯光区域之间的关系如图2a所示。
又例如,当监测到交互对象出现在可视灯光区域内,或者监测到交互对象发出的交互操作时,则除了显示该可视灯光区域之外,还可以改变可视灯光区域的可视化属性,并以非灯光交互模式发出提示信息,从而向交互对象发出进一步提示。
其中,关于非灯光交互模式以及其他相关内容可参见前述实施例中的描述,在此不再赘述。
进一步,在一些需要针对机器人进行避让的场景中,机器人上的发光模块可以包括图案性激光器或图案型LED投射灯,用于在可视灯光区域的外边缘或内部照射出时间数字。基于此,在监测到触发事件时,一方面可以控制其他发光模块在机器人周围照射出可视灯光区域,另一方面可以结合机器人的行进速度以及机器人当前位置到其行进路径上需要标注时间数字的位置之间的距离,计算出时间数字,并控制图案性激光器或图案型LED投射灯在可视灯光区域的外边缘或内部照射出该时间数字。此时,可视灯光区域的外边缘或内部显示有时间数字,如图2g和图2h所示。这里的时间数字表示表示机器人从当前位置行走至时间数字对应位置处所需的时长。对交互对象来说,可以根据可视灯光区域判断避让范围,并可进一步结合时间数字判断避让时间,有利于交互对象更加准确、及时地、合理地对机器人进行避让。
图4a为本申请又一示例性实施例提供的一种人机交互方法的流程示意图。如图4a所示,该方法包括以下步骤:
41a、机器人处于正常交互状态,通过发光模块在机器人前方照射出具有第一可视状态的可视灯光区域,该可视灯光区域指示用户与机器人交互时用户的最佳空间位置,用于引导用户进入该可视灯光区域内,并通过语音方式询问或提示用户进入该可视灯光区域内。
42a、当监测到用户进入该可视灯光区域后,机器人继续通过语音、视觉、触摸和/或手势传感器监测用户发出的交互操作。
43a、当监测到用户发出交互操作时,改变可视灯光区域的可视化属性形成具有第二可视状态的可视灯光区域,并通过语音方式提示用户机器人正在对交互操作进行识别。
44a、机器人判断用户发出的交互操作是否有效;当判断结果为是时,执行步骤45a;反之,返回步骤41a。
45a、机器人开始与用户进行正常的人机交互流程,直到本次人机交互过程结束。
其中,第一可视状态与第二可视状态的灯光颜色、灯光亮度、区域形状以及动效中的至少一种不同。
在本实施例中,机器人处于人机交互模式,当处于正常交互状态时,通过可视灯光区域和语音提示引导用户处于最佳空间位置与机器人进行人机交互,可使人机交互达到最佳效果;在开启人机交互时,通过改变可视灯光区域的可视化属性并结合语音方式对用户进行提示,让用户获知机器人已经开始进行交互处理,有利于提高用户感受,便于用户继续进行人机交互。
图4b为本申请又一示例性实施例提供的引导用户远离机器人工作时的安全空间范围的方法的流程示意图。如图4b所示,该方法包括以下步骤:
41b、机器人开机。
42b、机器人通过发光模块在机器人前方照射出具有第一可视状态的可视灯光区域,该可视灯光区域指示机器人工作时的安全空间范围,用于引导用户避免进入该可视灯光区域。
43b、机器人通过传感器感知是否有用户进入可视灯光区域;当感知结果为是时,进入步骤44b;当感知结果为否时,继续执行步骤43b。
其中,机器人用来感知是否有用户进入可视灯光区域的传感器可以是摄像头、红外传感器、超声传感器和/或激光雷达等任何类型的传感器。
44b、机器人改变可视灯光区域的可视化属性形成具有第二可视状态的可视灯光区域,并发出语音提示信息,提示用户退出该可视灯光区域。
其中,第二可视状态和第一可视状态的灯光颜色、灯光亮度、区域形状以及动效中的至少一种不同。例如,第一可视状态的灯光颜色是人类普遍感知中的安全颜色,例如绿色;第二可视状态的灯光颜色是人类普遍感知中的明快颜色,例如黄色、橙色。
45b、机器人在设定时间内重新规划机器人的位置或者等待用户退出该可视灯光区域。
其中,设定时间可以根据应用需求适应性设置,例如可以是3秒钟、5秒钟或1分钟等。
46b、当设定时间结束后,机器人通过传感器感知该可视灯光区域内是否还有用户;当感知结果为是时,进入步骤47b;当感知结果为否时,返回步骤42b。
其中,机器人用来感知该可视灯光区域内是否还有用户的传感器可以是摄像头、红外传感器、超声传感器和/或激光雷达等任何类型的传感器。
47b、机器人改变可视灯光区域的可视化属性形成具有第三可视状态的可视灯光区域,并发出语音提示信息,提示用户退出该可视灯光区域,并返回步骤 45b。
其中,第三可视状态与第二可视状态和第一可视状态的灯光颜色、灯光亮度、区域形状以及动效中的至少一种不同。例如,第一可视状态的灯光颜色是人类普遍感知中的安全颜色,例如绿色,灯光静态;第二可视状态的灯光颜色是人类普遍感知中的明快颜色,例如黄色、橙色,灯光静态;第三可视状态的灯光颜色是人来普遍感知中的警示颜色,例如红色,且灯光闪烁,加强警示作用。
在本实施例中,在机器人工作时,通过可视灯光区域引导用户避免进入机器人工作时的安全空间范围,有利于保证用户的人身安全,保证机器人正常工作;当用户进入机器人工作时的安全空间范围时,通过逐渐改变可视灯光区域的可视化属性逐渐加强警示作用,并结合语音提示方式提示用户退出该区域,有利于引导用户及时退出到安全范围之外,保证机器人能够正常工作。
图4c为本申请又一示例性实施例提供的引导用户避让机器人的方法的流程示意图。如图4c所示,该方法包括以下步骤:
41c、机器人处于行走状态。
42c、机器人基于工作线路图判断机器人是否进入电梯或走廊等狭小空间;当判断结果为是时,进入步骤43c;当判断结果为否时,继续执行步骤42c。
可选地,除了基于工作线路图判断机器人是否进入电梯或走廊等狭小空间之外,机器人还可以通过摄像头、红外传感器、超声传感器、激光雷达等各种传感器感知机器人是否进入电梯或走廊等狭小空间。
43c、机器人结合机器人所处环境的地图和机器人的当前任务,计算出机器人在狭小空间内的行走路径。
44c、机器人通过相应发光模块在该行走路径上照射出具有第一可视状态的可视灯光区域,该可视灯光区域表示机器人通过所需的最小空间范围,并发出语音提示信息,提示狭小空间内的人员退出到该可视灯光区域之外。
45c、机器人通过传感器感知该可视灯光区域内是否有人员存在;当感知结果为是时,进入步骤46c;当感知结果为否时,进入步骤47c。
其中,机器人用来感知该可视灯光区域内是否有人员存在的传感器可以是摄像头、红外传感器、超声传感器和/或激光雷达等任何类型的传感器。
46c、机器人改变可视灯光区域的可视化属性形成具有第二可视状态的可视灯光区域,并继续发出语音提示信息,提示相关人员退出到该可视灯光区域之外,并返回步骤45c。
47c、机器人沿可视灯光区域照射的行走路径继续行走,直到到达目的地为止。
在本实施例中,机器人在行走过程中,通过可视灯光区域引导周围人员进行避让,有利于避免人机碰撞,保证用户的人身安全,也可以使机器人正常行走。
需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤31a至步骤32a 的执行主体可以为设备A;又比如,步骤31a的执行主体可以为设备A,步骤 32a的执行主体可以为设备B;等等。
另外,本申请实施例除了提供上述机器人以及相关机器人交互方法之外,还提供一种存储有计算机程序的计算机可读存储介质,其中,计算机程序被计算机执行时能够实现上述各实施例中的方法步骤或相关操作。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/ 或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (20)
1.一种机器人交互方法,其特征在于,包括:
监听触发事件,所述触发事件是触发机器人启动灯光交互模式的事件;
当监听到所述触发事件时,通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域;
其中,所述可视灯光区域用于引导所述机器人的交互对象进入、避免进入或退出所述可视灯光区域;
所述通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域,包括:
结合所述机器人的工作模式,确定需要照射出所述可视灯光区域的方向范围;所述机器人的工作模式至少包括交互模式、安全作业模式和行走模式中的一种;
通过所述机器人上与所述方向范围对应的发光模块,在所述方向范围内照射出所述可视灯光区域。
2.根据权利要求1所述的方法,其特征在于,所述触发事件包括以下至少一种:
开启所述机器人的事件;
将所述机器人从待机状态唤醒的事件;
在所述机器人的第一预设范围内监测到所述交互对象的事件,所述第一预设范围包含所述可视灯光区域。
3.根据权利要求1所述的方法,其特征在于,在通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域之前,所述方法还包括:
根据所述机器人的工作模式和/或工作环境,确定是否启动所述灯光交互模式;
当确定启动所述灯光交互模式时,执行通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域的操作。
4.根据权利要求1所述的方法,其特征在于,所述结合所述机器人的工作模式,确定需要照射出所述可视灯光区域的方向范围,包括:
若所述机器人处于交互模式或安全作业模式,则识别所述交互对象相对于所述机器人的方向,根据所述交互对象相对于所述机器人的方向确定所述方向范围;或者
若所述机器人处于行走模式,则根据所述机器人所处环境的地图和所述机器人的当前任务规划所述机器人的行走方向,根据所述机器人的行走方向确定所述方向范围。
5.根据权利要求1-4任一项所述的方法,其特征在于,在通过所述机器人上的发光模块在所述机器人周围照射出一可视灯光区域之后,所述方法还包括:
当监测到所述交互对象出现在所述机器人的第二预设范围内时,以非灯光交互模式发出提示信息,所述第二预设范围包含所述可视灯光区域但小于第一预设范围;或者
当监测到所述交互对象出现在所述可视灯光区域内或监测到所述交互对象发出的交互操作时,改变所述可视灯光区域的可视化属性,并以非灯光交互模式发出提示信息。
6.根据权利要求5所述的方法,其特征在于,所述以非灯光交互模式发出提示信息,包括:
以语音方式播放所述提示信息;和/或
在所述机器人的屏幕上展示所述提示信息。
7.根据权利要求5所述的方法,其特征在于,所述可视灯光区域的可视化属性包括以下至少一种:所述可视灯光区域的形状、灯光颜色、灯光亮度以及动效。
8.根据权利要求1-4任一项所述的方法,其特征在于,所述可视灯光区域的宽度大于或等于所述机器人的最大宽度。
9.根据权利要求1-4任一项所述的方法,其特征在于,所述可视灯光区域是连续光点区域或光带区域。
10.根据权利要求1-4任一项所述的方法,其特征在于,所述可视灯光区域的外边缘或内部显示有时间数字,所述时间数字表示所述机器人从当前位置行走至所述时间数字对应位置处所需的时长。
11.一种机器人,其特征在于,包括:机械本体;所述机械本体上设有主控板,所述主控板上集成有处理器;所述机械本体上还安装有至少一个发光模块;
所述处理器与所述至少一个发光模块电连接,用于在监听到触发事件时,控制所述至少一个发光模块在所述机器人周围照射出一可视灯光区域;
其中,所述触发事件是触发所述机器人启动灯光交互模式的事件;所述可视灯光区域用于引导所述机器人的交互对象进入、避免进入或退出所述可视灯光区域;
所述处理器具体用于:
结合所述机器人的工作模式,确定需要照射出所述可视灯光区域的方向范围;所述机器人的工作模式至少包括交互模式、安全作业模式和行走模式中的一种;
控制所述机器人上与所述方向范围对应的发光模块,在所述方向范围内照射出所述可视灯光区域。
12.根据权利要求11所述的机器人,其特征在于,所述处理器具体用于:
若所述机器人处于交互模式或安全作业模式,则识别所述交互对象相对于所述机器人的方向,根据所述交互对象相对于所述机器人的方向确定所述方向范围;或者
若所述机器人处于行走模式,则根据所述机器人所处环境的地图和所述机器人的当前任务规划所述机器人的行走方向,根据所述机器人的行走方向确定所述方向范围。
13.根据权利要求11所述的机器人,其特征在于,所述机械本体上还设置有用于在所述机器人的第二预设范围内或所述可视灯光区域内监测所述交互对象或所述交互对象发出的操作的传感器模块,以及可在所述传感器模块监测到所述交互对象或所述交互对象发出的操作时,以非灯光交互模式向所述交互对象发出提示信息的交互模块;
其中,所述传感器模块和所述交互模块分别与所述处理器电连接;所述传感器模块包括超声传感器、激光传感器、视觉传感器、红外传感器、碰撞传感器、光电传感器和/或人体传感器;所述非灯光式交互模块包括屏幕、摄像头、麦克风和/或扬声器。
14.根据权利要求11-13任一项所述的机器人,其特征在于,所述至少一个发光模块集中安装于所述机械本体的前胸腔处、后胸腔处、手臂表面或朝向前方的底部位置;或者所述至少一个发光模块分散安装于所述机械本体的不同位置。
15.根据权利要求11-13任一项所述的机器人,其特征在于,所述至少一个发光模块包括若干个激光器和/或若干个投射型光源。
16.根据权利要求15所述的机器人,其特征在于,所述若干个激光器安装于所述若干个投射型光源上方,且沿着所述若干个投射型光源的排布方向间隔设置;或者
所述若干个激光器安装于所述若干个投射型光源的左右两侧,且间隔设置;或者
所述若干个激光器安装于所述若干个投射型光源的上下两侧,且间隔设置;或者
所述若干个激光器环绕所述若干个投射型光源间隔设置。
17.根据权利要求15所述的机器人,其特征在于,所述投射型光源设置于半球形镜面反射结构内,且所述半球形反射结构的开口处设有凸透镜结构。
18.根据权利要求15所述的机器人,其特征在于,所述若干个激光器包括可在所述可视灯光区域的外边缘或内部照射出时间数字的图案型激光器;或者,
所述若干个投射型光源包括可在所述可视灯光区域的外边缘或内部照射出时间数字的图案型LED投射灯;
其中,所述时间数字表示所述机器人从当前位置行走至所述时间数字对应位置处所需的时长。
19.根据权利要求11-13任一项所述的机器人,其特征在于,所述可视灯光区域的宽度大于或等于所述机器人的最大宽度。
20.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被计算机执行时能够实现权利要求1-10任一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810046215.5A CN110039535B (zh) | 2018-01-17 | 2018-01-17 | 机器人交互方法及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810046215.5A CN110039535B (zh) | 2018-01-17 | 2018-01-17 | 机器人交互方法及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110039535A CN110039535A (zh) | 2019-07-23 |
CN110039535B true CN110039535B (zh) | 2022-12-16 |
Family
ID=67273111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810046215.5A Active CN110039535B (zh) | 2018-01-17 | 2018-01-17 | 机器人交互方法及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110039535B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113110499B (zh) * | 2021-05-08 | 2024-02-23 | 珠海一微半导体股份有限公司 | 一种通行区域的判定方法、路线搜索方法、机器人及芯片 |
CN113400309B (zh) * | 2021-06-23 | 2022-07-29 | 西北工业大学 | 一种上肢助力外骨骼机器人的运动状态识别方法 |
EP4350461A1 (en) * | 2021-11-16 | 2024-04-10 | Shenzhen Pudu Technology Co., Ltd. | Interaction method and apparatus for mobile robot, and mobile robot and storage medium |
WO2023088311A1 (zh) * | 2021-11-16 | 2023-05-25 | 深圳市普渡科技有限公司 | 机器人系统、方法、计算机设备及存储介质 |
CN114683284B (zh) * | 2022-03-24 | 2024-05-17 | 上海擎朗智能科技有限公司 | 一种控制方法、装置、自主移动设备和存储介质 |
CN116311860A (zh) * | 2023-03-17 | 2023-06-23 | 麦岩智能科技(北京)有限公司 | 一种数据处理方法、装置、电子设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011146259A2 (en) * | 2010-05-20 | 2011-11-24 | Irobot Corporation | Mobile human interface robot |
CN202368719U (zh) * | 2011-12-27 | 2012-08-08 | 东莞市玄天电子有限公司 | 自行车激光警示灯 |
CN103164987A (zh) * | 2011-12-14 | 2013-06-19 | 现代自动车株式会社 | 使用激光束向行人提供警告的系统和方法 |
CN205334234U (zh) * | 2016-01-27 | 2016-06-22 | 山东科技大学 | 轮式机器人转向内轮差盲区警示系统 |
CN106406312A (zh) * | 2016-10-14 | 2017-02-15 | 平安科技(深圳)有限公司 | 导览机器人及其移动区域标定方法 |
CN108303972A (zh) * | 2017-10-31 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 移动机器人的交互方法及装置 |
CN208133009U (zh) * | 2018-01-17 | 2018-11-23 | 阿里巴巴集团控股有限公司 | 机器人 |
-
2018
- 2018-01-17 CN CN201810046215.5A patent/CN110039535B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011146259A2 (en) * | 2010-05-20 | 2011-11-24 | Irobot Corporation | Mobile human interface robot |
CN103164987A (zh) * | 2011-12-14 | 2013-06-19 | 现代自动车株式会社 | 使用激光束向行人提供警告的系统和方法 |
CN202368719U (zh) * | 2011-12-27 | 2012-08-08 | 东莞市玄天电子有限公司 | 自行车激光警示灯 |
CN205334234U (zh) * | 2016-01-27 | 2016-06-22 | 山东科技大学 | 轮式机器人转向内轮差盲区警示系统 |
CN106406312A (zh) * | 2016-10-14 | 2017-02-15 | 平安科技(深圳)有限公司 | 导览机器人及其移动区域标定方法 |
CN108303972A (zh) * | 2017-10-31 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 移动机器人的交互方法及装置 |
CN208133009U (zh) * | 2018-01-17 | 2018-11-23 | 阿里巴巴集团控股有限公司 | 机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN110039535A (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110039535B (zh) | 机器人交互方法及机器人 | |
TWI659284B (zh) | 導覽機器人及其移動區域標定方法 | |
US10358858B2 (en) | Methods and systems to indicate the status of door operations | |
US9508235B2 (en) | Projection unit for a self-directing mobile platform, transport robot and method for operating a self-directing mobile platform | |
US11957807B2 (en) | Cleaning robot | |
JP4972084B2 (ja) | 照明を制御するための方法およびシステム | |
JP6105075B2 (ja) | 投射型映像表示装置、操作検出装置及び投射型映像表示方法 | |
WO2018028200A1 (zh) | 电子机器设备 | |
JP2003043412A (ja) | レーザポインタを用いたプレゼンテーションシステム | |
JP5755011B2 (ja) | ロボット群制御装置および方法 | |
JP2020181434A (ja) | 自律走行作業装置および自律走行作業システム | |
JP2009113190A (ja) | 自律動作型ロボットおよび自律動作型ロボットの動作制御方法 | |
US11474499B2 (en) | Communication robot and control program of communication robot | |
CN208133009U (zh) | 机器人 | |
JP2021157203A (ja) | 移動体制御装置および移動体制御方法、並びにプログラム | |
US11474527B2 (en) | Moving apparatus, information processing apparatus, and method | |
US11720109B2 (en) | Moving apparatus, information processing apparatus, and method | |
US20220234594A1 (en) | Monitoring system and non-transitory storage medium | |
JP4411503B2 (ja) | ロボット装置及びその制御方法 | |
TWI677330B (zh) | 輪椅移行警示系統 | |
JP7084101B1 (ja) | フォークリフトおよび荷役システム | |
JP2003044076A (ja) | プレゼンテーションシステム | |
JP7379814B2 (ja) | 自律移動装置およびプログラム | |
JP2010205585A (ja) | 照明装置 | |
JP2022109160A (ja) | 自律走行型ロボット、探索物品指示システム及び探索物品指示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |