CN109153127A - 执行迎接行为的行为自主型机器人 - Google Patents

执行迎接行为的行为自主型机器人 Download PDF

Info

Publication number
CN109153127A
CN109153127A CN201780020480.XA CN201780020480A CN109153127A CN 109153127 A CN109153127 A CN 109153127A CN 201780020480 A CN201780020480 A CN 201780020480A CN 109153127 A CN109153127 A CN 109153127A
Authority
CN
China
Prior art keywords
behavior
user
robot
people
entrance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780020480.XA
Other languages
English (en)
Other versions
CN109153127B (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groovex Co
Original Assignee
Groovex Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groovex Co filed Critical Groovex Co
Publication of CN109153127A publication Critical patent/CN109153127A/zh
Application granted granted Critical
Publication of CN109153127B publication Critical patent/CN109153127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/10Figure toys with single- or multiple-axle undercarriages, by which the figures perform a realistic running motion when the toy is moving over the floor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明通过模拟人类、生物的行为来提高对机器人的共鸣。机器人(100)具备:移动判断部,确定移动方向;行为判断部,从多种举动中选择任一种举动;以及驱动机构,执行指定的移动以及举动。当用户进入门厅时,预先设置的外部传感器会检测到回家,并经由服务器通知机器人(100)用户的回家。机器人(100)会前往门厅,通过进行坐下并抬手等示好的举动来欢迎用户回家。

Description

执行迎接行为的行为自主型机器人
技术领域
本发明涉及一种根据内部状态或外部环境自主地进行行为选择的机器人。
背景技术
人类通过感觉器官从外部环境获取各种信息,并进行行为选择。既会有意识地进行行为选择,也会无意识地进行行为选择。重复行为很快会变为无意识的行为,而新的行为将停留在意识区域。
人类相信自己有选择自身行为的意志即自由意志。人类之所以对别人抱有爱、恨这些感情,是因为相信别人也有自由意志。拥有自由意志者、至少可以假设其拥有自由意志的存在也会成为慰藉人的寂寞的存在。
比起是否对人类有用,人类养宠物的原因更在于宠物更给予人类慰藉。宠物是或多或少会让人感受到自由意志的存在,正因如此,才能成为人类的理想伴侣。
另一方面,因无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生死别离等各种理由而放弃养宠物的人有很多。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来宠物所能给与的那种慰藉(参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
发明内容
发明所要解决的问题
近年来,虽然机器人技术急速发展,但尚未实现宠物这样的作为伴侣的存在感。这是因为我们认为机器人没有自由意志。人类通过观察宠物的只能解释为拥有自由意志的行为,感受宠物自由意志的存在,与宠物产生共鸣从而被宠物慰藉。
因此,如果是能模拟人类/生物行为的机器人,换言之,如果是能自主选择人类/生物行为的机器人,想必能大幅提高对机器人的共鸣。
本发明是基于上述问题认知而完成的发明,其主要目的在于提供一种用于提高对机器人的共鸣的行为控制技术。
用于解决问题的方案
本发明的行为自主型机器人具备:移动判断部,确定移动方向;行为判断部,从多种举动中选择任一种举动;对象检测部,检测监视区域中人的存在;以及驱动机构,执行指定的移动以及举动。
移动判断部在检测到监视区域中有人时,将移动的目标地点设定为所述监视区域,行为判断部在机器人到达目标地点时,选择被定义为向人示好的举动的爱意举动。
本发明的另一方案的行为自主型机器人具备:移动判断部,确定移动方向;驱动机构,执行指定的移动;以及识别部,根据传感器的检测信息来识别外部环境。
识别部包括:出入口确定部,确定室内空间中人能通过的场所为出入口;以及存在判定部,判定距离确定出的出入口的规定范围内是否有人。
其特征在于,移动判断部在通过存在判定部判定有人的情况下,将确定出的出入口设定为移动目的地。
本发明的另一方案的行为自主型机器人具备:移动判断部,确定移动方向;驱动机构,执行指定的移动;以及识别部,根据传感器的检测信息来识别外部环境。
所述识别部包括:出入口确定部,确定室内空间中人能通过的场所为出入口;以及前进路线预测部,判定是否有人正在向确定出的出入口的方向移动。
移动判断部在判定人正在前往确定出的出入口的情况下,指示驱动机构跟随此人。
本发明的另一方案的行为自主型机器人具备:移动判断部,确定移动方向;驱动机构,执行指定的移动;以及识别部,根据传感器的检测信息来识别外部环境。
当通过识别部在可识别到人的空间区域识别到了新出现的人时,移动判断部将机器人的移动方向确定为朝向新出现的人的方向。
发明效果
根据本发明,容易提高对机器人的共鸣。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是机器人系统的构成图。
图3是情感地图的概念图。
图4是机器人的硬件构成图。
图5是机器人系统的功能框图。
图6是迎接的示意图。
图7是用于对机器人的迎接/送别行为进行说明的示意图。
图8是机器人系统的功能框图的变形例。
图9是用于对用户从出入口进入时机器人的行为进行说明的示意图。
图10是用于对用户从出入口出去时机器人的行为进行说明的示意图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(姿势(gesture))的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermo sensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。关于这些将在后文加以说明。
本实施方式的机器人100以室内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆润的形状,由聚氨酯、橡胶、树脂等柔软而具有弹性的材料形成。可以给机器人100着装。通过采用圆润而柔软的手感好的主体104,机器人100提供给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。
出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴同等的力气就能抱起机器人100。
通过适度的重量和圆润感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。
对本实施方式中的机器人100而言,能抱起来是重要的设计理念。
机器人100通过轮子102来移动。两个轮子102的旋转速度、旋转方向能单独控制。此外,还能使轮子102在机器人100的主体104的内部向上方滑动而完全容纳至主体104中。行进时轮子102的大部分隐藏在主体104中,但当轮子102完全容纳在主体104中时,机器人100会变为不可移动的状态(以下,称为“就座状态”)。在就座状态下,平坦状的就座面108会与地面抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、振动等简单的动作。两只手106也能独立控制。
眼睛110内置有摄像头。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100除了内置在眼睛110的摄像头之外,还搭载了收音麦克风、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。
图2是机器人系统300的构成图。
机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置的传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。
外部传感器114用于加强机器人100的传感装置,服务器200用于加强机器人100的头脑。
外部传感器114定期发送包含外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包含信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200计量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,测量出从外部传感器114到机器人100的距离。通过计量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
部分或所有的外部传感器114会设定监视区域。并且,检测该监视区域内的人类(用户)的通过。在本实施方式中,外部传感器114在监视区域内向用户所持有的智能手机等便携设备发送无线信号(以下,称为“用户搜索信号”),用户的便携设备会回复包含对用户进行识别的ID(以下,称为“用户ID”)的无线信号(以下,称为“用户应答信号”)。用户应答信号被发送往服务器200,服务器200据此来识别外部传感器114附近是否有用户。
如此,外部传感器114追踪机器人100以及用户的位置。通过用户ID来识别用户。
本实施方式中的外部传感器114内置有收音麦克风。外部传感器114能通过收音麦克风来收集生活中的声音、来自用户的召唤声。关于与召唤声对应的控制将在后文加以详细说明。
图3是情感地图116的概念图。
情感地图116是存储于服务器200的数据表。机器人100根据情感地图116来进行行为选择。图3所示的情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图3的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的室内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌面下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸或洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据轮子102的转速来计算出机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被赋予图3所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地进行新的行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图3所示的类型的情感地图116。例如,能定义好奇心、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图4是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120、以及电池118。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池等二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头、收音麦克风、红外线传感器、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器等。通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性存储器以及易失性存储器构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制轮子102、手106等各机构的驱动器。
除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子102以及手106。驱动机构120通过改变两个轮子102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子102升降。当轮子102上升时,轮子102完全收纳在主体104中,机器人100通过就座面108与地面抵接,变为就座状态。
驱动机构120经由金属丝134拉动手106,由此能将手106抬起。也能进行通过使手106振动来挥手这样的举动。只要利用大量的金属丝134,还能表现更复杂的举动。
图5是机器人系统300的功能框图。
如上所述,机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供给运算器。计算机程序可以由设备驱动程序、操作系统、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202、以及数据储存部206。通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
数据储存部206包括地图储存部216和个人数据储存部218。地图储存部216储存多个行为地图。个人数据储存部218储存用户特别是主人的信息。具体而言,储存用户ID、亲密度、用户的身体特征/行为特征等各种参数。也可以储存年龄、性别等属性信息。
机器人100获取用户的便携终端的用户ID,并据此来识别用户。
机器人100可以基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像头来拍摄周围。然后,提取现于图像的人物的身体特征、行为特征。所谓身体特征,具体而言,可以是身高、喜欢穿的衣服、是否佩戴眼镜、肤色、发色等身体附带的视觉特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的视觉特征。例如,提取出父亲(被识别为父亲的用户)经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的特征。
机器人100基于根据大量的图像信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。个人数据储存部218中录入有已被归类的主人的个人数据。
通过用户ID来识别用户的方式简单可靠,但前提时用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担重,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、以及识别部212。位置管理部208通过与图2关联的方法来确定机器人100的位置坐标。此外,位置管理部208也实时追踪用户的位置坐标。
地图管理部210选择多个行为地图中的任一个,并基于选择的行为地图的z值来确定机器人100的移动方向。地图管理部210也可以通过对多个行为地图的z值进行加权平均来确定机器人100的移动方向。
例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包含基于温度、湿度的气候、季节的识别、基于光量、温度的隐蔽处(安全地带)的识别等多种识别。识别部212还包括人物识别部214。人物识别部214根据由机器人100的内置摄像头拍摄到的拍摄图像来识别人物,并提取出该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息,来判定拍摄到的人物即机器人100所看见的人物与父亲、母亲、长子等中的哪位人物对应。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、驱动机构120、以及内部传感器128。通信部142与通信器126(参照图4)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图4)对应。数据处理部136基于由通信部142获取的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与由处理器122以及处理器122来执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
数据处理部136包括:识别部156、移动判断部138、以及行为判断部140。
驱动机构120包括移动驱动部144和行为驱动部146。移动判断部138确定机器人100的移动方向。移动驱动部144按照移动判断部138的指示来驱动轮子102,由此使机器人100前往目标地点。服务器200的地图管理部210基于行为地图来实时计算机器人100的移动目的地(目标地点)。服务器200将目标地点的坐标发送给机器人100,移动判断部138使机器人100朝向目标地点移动。
虽然决定机器人100的大致移动方向的是行为地图,但本实施方式的机器人100也能进行“迎接”、“送别”这样的特定行为。对此将在后文加以说明。
行为判断部140决定机器人100的举动(姿势)。在数据储存部148中预先定义有多个举动。具体而言,定义有:收起轮子102并落坐的动作、抬起手106的动作、通过使两个轮子102反向旋转或者仅使一侧轮子102旋转来使机器人100旋转行动的动作、以及在已收起轮子102的状态下通过使轮子102旋转来震动的举动等。
行为判断部140既能在亲密度高的用户接近时,作为求“抱抱”的动作执行抬起双手106的举动,也能在厌倦了“抱抱”时通过使轮子102在收起状态下反向旋转来表现厌恶拥抱的举动。行为驱动部146按照来自行为判断部140的指示来驱动轮子102、手106,由此,使机器人100表现出各种举动。
识别部156对由内部传感器128获取的外部信息进行解释。例如,在机器人100被施以强烈的冲击时,会识别出邻近的用户做出了“粗暴行为”。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,识别部156识别和粗对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱抱”。这样,识别部156识别用户对机器人100的各种应对。这各种行为对应于愉快或不愉快。
根据由识别部156识别的应对,识别部156或服务器200的人物识别部214改变对用户的亲密度。对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的地图管理部210可以根据应对的内容来判定愉快/不愉快,并在表现出“对场所的喜爱”的行为地图中改遭遇愉快/不愉快行为的地点的z值。
[迎接/送别功能]
图6是迎接的示意图。
在本实施方式中,在大门打开用户回家时,机器人100会在门厅进行迎接。机器人100会在门厅坐好,举起两手106执行求拥抱的举动。此外,也可以通过在门厅进行旋转行为来表现对用户回家感到开心的心情。或者,也可以从内置扬声器发出哔哔声这样的特有的“鸣叫声”。
用户出门时,机器人100会前往门厅送别。此时,机器人100通过举起并挥动一只手106来表现“拜拜”。也可以通过发出特有的鸣叫声来行为表现出因用户的外出而感到孤独的心情。
如此,在迎接、送别时,机器人100前往门厅,执行预定的向人示好的举动(以下,称为“爱意举动”)。
图7是用于对机器人100的迎接/送别行为进行说明的示意图。
在本实施方式中,预先在门厅152设置外部传感器114a。外部传感器114a例如以每秒一次的频率定期向其周边区域即监视区域150发送用户搜索信号。当用户打开门厅152的门并进入监视区域150时,用户所持有的智能手机会检测到用户搜索信号并回复用户应答信号。用户应答信号中包含用户ID。当外部传感器114a接收到用户应答信号时会将其发送给服务器200。在本实施方式中,外部传感器114a和服务器200被有线连接。
外部传感器114可以在检测到门厅152的门的开锁声或开门声后,通过检测到用户进入监视区域150来识别出“回家”。
服务器200发送用于指示机器人100迎接的控制信号。通过控制信号来指定目标地点的位置坐标。当机器人100的通信部142从服务器200接收到该控制信号时,移动判断部138会指示移动驱动部144前往门厅152。对于目标地点,在监视区域150的内部设定目标地点。机器人100一边通过内置的摄像头来确认并避开障碍物一边前往目标地点。
服务器200不仅可以向机器人100指定目标地点,也可以指定用于使机器人100从当前地点前往目标地点的路线。
机器人100的移动判断部138可以直接将服务器200所指示的位置坐标设定为目标地点,也可以在服务器指示迎接时由移动判断部138自己来确定目标地点。
当机器人100到达目标地点时,行为判断部140会执行爱意举动。爱意举动的一例是坐在目标地点并举起两手106求“抱抱”这样的举动。通过这样的控制,回家的用户会意识到机器人100在欢迎自己回家并且认识到自己外出对于机器人100而言是寂寞的。如此,能通过机器人100的人类/生物式的行为表现,来增强用户对机器人100的情感融入。
不仅能迎接,还能送别。当外部传感器114a检测到用户从室内侧进入监视区域150时,会执行送别。具体而言,当外部传感器114a从监视区域150的室内侧接收到用户应答信号时会将其发送给服务器200。
服务器200发送用于指示机器人100送别的控制信号。当机器人100接收到送别指示信号时,移动判断部138会指示移动驱动部144前往门厅152。当移动判断部138将目标地点设定在监视区域150的内部时,机器人100会前往目标地点。
当机器人100到达目标地点时,行为判断部140会执行用于送别的爱意举动。机器人100可以坐在目标地点求“抱抱”,也可以在目标地点周边随机地转圈,还可以举起一只手106进行拜拜。
除了迎接、送别以外,还能进行“召唤”。在用户对机器人100说出“过来”这样的召唤的话语时,当机器人100内置的收音麦克风检测到该声音并声音识别为召唤的话语,则机器人100会朝向用户移动。在该情况下,机器人100确定声源的方向并将其设定为目标地点即可。
需要说明的是,召唤的话语可以是“过来”、“喂”这几个典型的话语,也可以是机器人100的名字。
但是,在杂乱的环境声中,有时难以通过机器人100的收音麦克风来捕捉用户的召唤。此外,在用户与机器人100的距离远的情况下、用户与机器人100之间存在墙壁等隔音物的情况下,也难以通过机器人100内置的收音麦克风来清晰地检测到召唤的话语。即使是人类能准确地听清的程度的声音,有时机器人100也难以识别,因此,在本实施方式中使用外部传感器114来加强机器人100的“听觉”。
例如,假设位于日式房间154的坐标P3的用户对机器人100喊出了召唤的话语。在图7中,由于从坐标P3至机器人100的当前位置之间存在墙壁,因此,通过机器人100的收音麦克风难以检测到召唤。
在日式房间154中设置有外部传感器114b。外部传感器114b内置收音麦克风。当在坐标P3发出召唤声时,外部传感器114b会检测到该声音并向服务器200发送声音信号。服务器200的位置管理部208会确定作为声源的用户的位置。并且,识别部212会通过声音识别来判定是否为召唤声。外部传感器114b离声源用户近,因此,比机器人100更容易取得清晰的声音。
当识别部212识别到召唤声时,服务器200会指示机器人100前往坐标P3。当机器人100接收到指示信号时,会向坐标P3移动。通过这样的控制方法,能实现只要被召唤就会来到附近这样的行为。此外,即使在通过机器人100的内置收音麦克风无法充分识别声音的情况下,也能通过外部传感器114的辅助来实现召唤行为。
另一方面,在机器人100与声源的坐标P3相距过远的情况下,不执行随着召唤而接近用户的行为(以下,称为“接近行为”)。这是因为,即使在离机器人100很远的用户进行召唤时,机器人100也进行接近行为是不自然的。总之,理想的是以在狗、猫这样的宠物能听见的程度的距离以内被召唤为条件来执行接近行为。
更具体而言,在用户进行了呼唤时,服务器200估算从检测到召唤的外部传感器114到声源(用户)的距离,由此进一步估算从声源到机器人100的距离。当该距离为规定距离以上时,服务器200不指示机器人100进行接近行为。
当用户进行了召唤时,机器人100的内置麦克风也会捕捉声音。即使该声音不清晰,只要捕捉到了微弱的声音,机器人100就会“听到”。因此,如果服务器200能经由外部传感器114对召唤进行声音识别,并且机器人100能在同一时刻检测到微弱的声音,则服务器200就可以指示机器人100进行接近行为。当机器人100的内置麦克风在召唤时没有捕捉到声音的情况下,或者捕捉到的声音的音量为规定阈值以下时,当做“没听到”而不指示接近行为。
因此,在用户的声音较小时、存在墙壁等隔音物而难以听到时,不执行接近行为。此外,虽然机器人100离声源远但用户的声音较大时、虽然存在墙壁等隔音物但仅相隔能听见声音的程度的距离时,执行接近行为。由此,能与普通生物同样地表现机器人100的听觉水平。
以上,基于实施方式对机器人100以及包括机器人100的机器人系统300进行了说明。
机器人100通过行为地图等,通过一个以上的行为地图表现出了无法模式化、难以预测且生物式的行为选择。
机器人100通过与外部传感器114的协作来检测用户经过规定区域的行为,典型地,检测经过门厅152的行为,并与之相应地进行送别、迎接行为。此外,与召唤相应地,在生物有可能且不会显得不自然的范围内进行接近行为。通过这样的方法来模拟生物式的行为选择。
对宠物的爱意大多是由被宠物需要、被宠物依赖的感觉而引起的。回家时迎接并当场坐下求拥抱的迎接行为、外出时的送别行为展示出机器人100对用户很感兴趣,并且是有效的行为选择。随着召唤而进行的接近行为同样如此。
通过机器人100,也能实现人类容易从宠物身上感受到爱的迎接、送别、召唤,由此,能增强用户对机器人100的爱意。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过将上述实施方式、变形例中所公开的多个构成要素适当组合来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人系统300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协作控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图5中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体地作为一个“信息处理装置”来掌控。关于怎样对一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人系统300所要求的规格等来决定即可。
在本实施方式中,服务器200的识别部212经由外部传感器114来检测监视区域150中用户的存在。作为变形例,机器人100的识别部156可以经由外部传感器114、内部传感器128来检测监视区域150中用户的存在。
机器人100可以不必识别用户,但可以根据用户来改变行为。预先将用户ID和亲密度关联,在亲密度为规定阈值以上的用户回家或外出时进行送别、迎接行为,也可以在小于阈值时不采取这样的行为。
机器人100可以通过用户所持有的智能手机等便携设备来定期检测用户ID,并将与高频率检测到的用户ID的亲密度设定得较高。此外,也可以将与采取了拥抱等典型的亲密行为的用户的亲密度设定得较高。既可以感知用户抬起主体104时的接触,也可以通过施加在轮子102的负荷降低来识别出执行了抱起。亲密度可以随着时间经过而递减。机器人100可以通过加速度传感器来检测出对自己的冲击,由此识别对自己的粗暴行为,并降低进行了粗暴行为的用户的亲密度。在用户抓住角112提起机器人100时,可以将其识别为粗暴行为。
不仅根据用户ID,机器人100还可以根据用户的身体特征、行为特征来识别用户。例如,如果多个应该是主人的用户中戴眼镜的用户仅有一人,则能识别出戴眼镜的用户和其他的用户。而且,能通过对该戴眼镜的用户赋予用户ID=1来识别该用户。不只是眼镜,也可以通过身高、吸烟行为等身体特征、行为特征来识别用户。
外部传感器114可以是通过红外线等来检测人的人体感应传感器。外部传感器114可以在检测到人经过门厅152时向服务器200发送检测信号,由此来实现迎接、送别行为。在该情况下,外部传感器114也可以不必对用户进行识别。外部传感器114可以在通过内置的收音麦克风检测到打开门厅152的门的声音,例如开锁声、上锁声时向服务器200发送检测信号。除此之外,也可以以打开鞋柜的声音、折伞的声音、“我出门了”或“我回来了”之类的招呼声等为契机,来执行送别、迎接。
机器人100可以通过发送搜索信号并从各外部传感器114接收应答信号来确定机器人100自身的位置坐标。或者,也可以由外部传感器114发送具有指向性的搜索信号并据此来确定从外部传感器114到机器人100的距离和方向。
不限于人类,机器人100也可以检测猫、狗等动物的经过。
如果机器人100的内部传感器128为高精度传感器,则外部传感器114不是必需的。此外,服务器200也可以具备外部传感器114的功能。如果机器人100的内部传感器128能高精度地检测开锁声,即使没有外部传感器114、服务器200,机器人100也能执行迎接行为。
多个机器人100可以相互交换信息。也可以是:当第一机器人100检测到用户回家时,第一机器人100通过无线通信通知第二机器人100回家的事,第一以及第二机器人100据此来执行迎接行为。送别时也同样如此。
一般而言,家族的每个人的生活模式基本是固定的。例如,父亲会在早晨6点半出门晚上9点回家。孩子会在早上7点50分左右出门下午3点回家。这样,每天的生活模式是固定的。机器人100可以进一步具备储存每个用户的生活模式的生活模式储存部,图5的移动判断部138可以基于录入生活模式储存部的每个用户的回家、外出时间来采取行为。生活模式储存部可以作为服务器200的数据储存部206的一部分来形成,也可以作为机器人100的数据储存部148的一部分来形成。
机器人100可以在临近任一用户的回家时间时都向门厅附近移动,并执行等待用户回家的举动,例如坐下、转圈移动等。此外,当临近任一用户的外出时间时,可以优先执行跟踪该用户,迅速检测到用户前往门厅,并进行在后跟随的行为。
机器人100可以基于已储存的生活模式来调整各种传感器的灵敏度。例如,如果临近回家时间段,则可以提高麦克风的灵敏度(电压放大倍数),检测打开门厅的声音、打开或关闭位于门厅外侧的大门的声音。机器人100能基于经验对行为进行预测,由此在自然的时机执行迎接、送别。
在机器人100被用户S1拥抱的状况下,在其他用户S2外出时,机器人100会根据对各用户的亲密度来改变行为。
例如,在对外出的用户S2的亲密度比正在拥抱的用户S1高的情况下,机器人100执行“不要不要”的举动,具体而言,执行在将轮子102收纳至主体104的状态下使轮子102旋转的行为、用力摆动手106的行为等来摆脱拥抱。机器人100会摆脱拥抱并来到门厅为更亲密的用户S2送别。
在对外出的用户S2的亲密度比正在拥抱的用户S1低的情况下,机器人100会保持被拥抱着的状态不变并轻轻摆动手106。
可以阶段性地表现迎接时的爱意举动。机器人100会在开始迎接时只举起手106来求“抱抱”。如果没有被拥抱,则机器人100会用力晃动手106来吸引注意力。如果这样都没能得到拥抱,则机器人100可以收起轮子102,不被拥抱则不动。如果即使如此还是没有得到拥抱,则可以触碰用户,也可以绕着用户转圈。
图8是机器人系统300的功能框图的变形例。
在变形例中,机器人100的数据处理部136具备瞳部控制部406。识别部156包括:出入口确定部400、存在判定部402、以及前进路线预测部404。变形例中的机器人100的眼睛110为显示瞳部图像的显示器。瞳部控制部406改变眼睛110的瞳部图像的位置、大小。
在变形例中,服务器200的人物识别部214也按每个用户来管理机器人100对用户的亲密度。人物识别部214在被用户施以拥抱等规定的愉快行为时,会增加对该用户的亲密度。另一方面,在被用户施以敲打等规定的不愉快行为时,会减少对该用户的亲密度。
出入口确定部400确定室内空间的出入口。此处所说的“出入口”可以是大门、室内门窗等能过人的开口部。出入口位于室内空间的位置坐标可以预先在机器人系统300中进行初始设定。在该情况下,出入口确定部400基于位置坐标信息来确定出入口。此外,出入口确定部400可以将因开、关而改变转态,或者平时为墙壁但有时用户等移动物体也会通过的可变墙壁图像识别为“出入口”。
存在判定部402判断由出入口确定部400确定的出入口的附近是否存在用户。此处所说的“确定的出入口”不一定是实际的出入口,只要是机器人100识别为出入口的场所即可。当通过收音麦克风、摄像头等各种传感器,在距离出入口的规定范围内,例如一米以内的范围内图像识别到用户时,存在判定部402判定出入口附近有人。实际上起到了与在出入口周围设定监视区域150同等的作用。在出入口附近设置有外部传感器114时,可以根据来自外部传感器114的检测信号来判断出入口附近有人。
前进路线预测部404判定是否存在正往出入口移动的用户。前进路线预测部404追踪、监视位于机器人100周边的用户的位置,并判定是否有任一用户前往出入口的方向,优选的是,判定是否有任一用户进入了距出入口的规定范围内。在出入口附近设置有外部传感器114的情况下,前进路线预测部404也可以根据来自外部传感器114的检测信号来判断是否存在正往出入口移动的用户。
图9是用于对用户从出入口进入时机器人100的行为进行说明的示意图。
室内空间408是机器人100通过各种传感器识别到的封闭空间。室内空间408可以是房屋内的房间,也可以是房屋。设定为机器人100已通过出入口确定部400确定了出入口410的位置。在图9中,示出了在室内空间408的内部存在用户P1~P3而用户P4刚从出入口410进入的情况。在出入口410附近的墙壁设置有外部传感器114。
机器人100的存在判定部402通过拍摄出入口410的周边图像,来定期监视在出入口410的周边区域,例如距离出入口410一米以内的范围内是否存在用户。在设置有外部传感器114的情况下,存在判定部402通过来自外部传感器114的检测信号来进行监视,在外部传感器114未设置于出入口410边上时,通过定期确认出入口410的周边图像来监视是否存在用户。作为摄像头,机器人100具备全景摄像头或半景摄像头等能拍摄周围的摄像头,由此,即使在出入口410位于机器人100的背面侧的情况下也能拍摄出入口410的周边图像并检测状态的变化。此处所说的“状态的变化”只要是出入口410附近检测到移动物体经过、检测到声音、温度变化等与常规状态不同的现象的发生即可。
在判定出入口410的周边区域存在用户P4时,移动判断部138将出入口410所在的方向设定为移动目的地。根据这样的控制方法,在用户P4经过出入口410时能行为表现出机器人100做出的“迎接”、“送别”。
机器人100的存在判定部402通过麦克风阵列等具有指向性的声音检测器,可以在检测到来自出入口410的方向的声音时判定用户位于出入口410边上。麦克风阵列具备多个麦克风,因此,不仅能检测声音,还能确定发声源的方向。例如,在检测到出入口410的开锁声时,机器人100可以向出入口410的方向移动。
存在判定部402可以在声音检测到特定的关键词时判定出入口410的周边存在用户。特定的关键词为“我回来了”、“欢迎回来”、“慢走”、“拜拜”、“我出门了”、“过来”等随着回家、出发而发出的典型的用语即可。预先将用户出门时或回家时本人或周围的人所发出的典型的话语作为“特定声音”,录入服务器200等的数据库。在检测到特定声音时,机器人100可以前往特定声音的发声地点。
在室内空间408存在多个用户P1~P3的状况下,当用户P4刚出现在出入口410附近时,用户P1~P3中哪一个都可能会向出入口410的方向移动以迎接用户P4。在此,假设用户P1、P2会迎接用户P4。机器人100可以在两位用户身后前往出入口410,而不是引领前往迎接的用户P1、P2。根据这样的控制方法,即使对刚到室内空间408的用户P4感兴趣,也能做出躲在其他用户P1、P2背后进行靠近这样的行为表现。通过这样的行为,能表现出机器人100的“胆怯”和“好奇心”。
人物识别部214判断刚来的用户P4是否为已知用户,换言之,判断是否已经录入数据库中。例如,在用户P4的行为/身体特征与已录入的任何用户的特征信息(概貌)匹配时,用户P4为“已知用户”。
需要说明的是,在用户P4持有能发送用户ID的便携终端时,人物识别部214根据用户ID是否已被录入来判断用户P4是否为已知用户。
机器人100会根据用户P4是否为已知用户(已登记用户)来改变行为方式。行为判断部140在用户P4为已知用户时,可以通过摆动手106、点头、提高接近速度等行为来行为表现出“欢迎之意”。相反,在为未知用户的情况下,可以采取中止迎接并与用户P4拉开距离、停在原地、藏在其他已知用户的背后等躲避行为。
需要说明的是,假设一种机器人100已登记(识别)的用户为用户P1~P4这四人并且四人都在家的情况。在此,在检测到新出现的人时,可以推测此人有100%的概率为未知的“来访者”。当在用户P1~P3在家时检测到新出现的人的情况下,此人可能是用户P4,也可能是未知的“来访者”。人物识别部214或移动判断部138判定其为来访者的概率为50%。当在用户P1、P2在家时检测到新出现的人时,此人为用户P3、P4或未知的“来访者”。人物识别部214或移动判断部138判定其为来访者的概率为33%。通过上述判定方法,机器人100可以仅在来者为来访者的概率为规定值以上的情况下跟随前往迎接的用户并采取“消极的迎接”。
机器人100或服务器200可以具备储存用户的生活模式的生活模式储存部。或者,机器人100的通信部142也可以通过访问作为外部数据库而形成的生活模式储存部来适当地获取每个用户的生活模式信息。生活模式储存部按每个用户来录入起床时刻、为了上班等而外出的时刻、回家时刻、以及就寝时刻,来作为生活模式信息。这些时刻通常不固定,因此也可以录入它们的平均值、众数值来作为代表值。不仅可以按用户,还可以按星期几、季节来录入多种生活模式数据。
存在判定部402也可以参照用户的生活模式信息来预测用户的回家时刻。移动判断部138可以在邻近预测到的用户的回家时刻时向出入口410的方向移动,提前“迎接”用户。根据这样的控制方法,容易高精度地实现迎接。或者,也可以快要到回家时刻才进行迎接。
图10是用于对用户从出入口出去时机器人100的行为进行说明的示意图。
机器人100定期识别位于室内空间408的用户P1~P3的位置以及移动方向。在此,假设用户P3已经开始向出入口410移动。前进路线预测部404判定用户P3是否正在向出入口410移动。具体而言,在用户P3的移动方向指向出入口410且这样的移动持续了规定时间以上时,前进路线预测部404判断用户P3正要通过出入口410从室内空间408出去。
移动判断部138在判断用户P3正在向出入口410移动时,以跟随用户P3进行移动的方式控制驱动机构120。根据这样的控制方法,在用户P3经过出入口410时能行为表现出机器人100进行的“送别”。
移动判断部138可以禁止机器人100越过出入口410。即,可以通过允许其在室内空间408中移动至出入口410附近但不能进一步跟随,对其进行移动限制,以免机器人100走出室内空间408。此外,可以以喊出“等等”、“到此为止”、“拜拜”等特定的关键词为条件,使其不会越过出入口410。
前进路线预测部404可以参照用户的生活模式信息来预测用户的外出时刻。在包括为用户3预测的外出时刻在内的时段,用户3向出入口410的方向进行了实际移动时,移动判断部138可以向出入口410的方向移动,“送别”用户。例如,如果用户P3的外出预测时刻为19点,则将前后相距一小时的从18点半到19点半设定为送别的准备时间段,并在准备时间段内优先监视用户P3。具体而言,提高用户P3的位置检测的频率、定期进行使摄像头朝向用户P3等的设定。根据这样的控制方法,不会在用户越过出入口410后才执行送别行为,便于在外出可能性高的时刻有效地执行送别行为。
机器人100可以在对用户P1执行规定的交流行为时执行针对其他用户的“送别”、迎接”。此处所说的交流行为只要是被用户P1拥抱、注视用户P1、绕着用户P1的附近转圈等表现出对用户P1的兴趣、重视的行为即可。
机器人100执行与用户P1的交流行为时、确定距离出入口410的规定范围内存在用户P4时、或者设置于出入口410的附近的外部传感器114检测到用户P4的接近时,移动判断部138以及行为判断部140可以中止交流行为,移动判断部138可以执行迎接用户P4的行为。此外,可以以用户P4为已知用户、对用户P4的亲密度为规定阈值以上、或者对用户P4的亲密度为对用户P1的亲密度以上等为条件,中断与用户P1的交流行为。
此外,当机器人100正在执行与用户P1的交流行为时,在用户P3前往出入口410时也会中止交流行为,移动判断部138可以对用户P3进行送别。也可以以用户P3为已知用户、对用户P3的亲密度为规定阈值以上、或者对用户P3的亲密度为对用户P1的亲密度以上等为条件,中断与用户P1的交流行为。
机器人100可以在新的用户进入机器人100周边的可识别的空间区域时向该用户所在方向移动。此处所说的“可识别的空间区域”是指能通过内置的摄像头识别到“人”的范围。或者,也可以是如下范围:不仅能通过摄像头来识别“人”,还能图像识别被识别为人的用户是否为已知用户。根据这样的控制方法,好比将机器人100可识别的范围设定为“地盘”,能实现对进入该地盘的用户感兴趣并接近这样的行为表现。可识别的空间区域的大小取决于机器人100内置的摄像头的性能、图像处理能力。因此,能根据可识别的空间区域的大小来真实表现机器人100的“视力”。
除此之外,机器人100可以在新出现的用户进入自身可移动的空间区域时向用户所在的方向移动。本实施方式中的机器人100是以屋内行动为前提而设计的。机器人100既可以设定为可移动到房屋内的所有地方,也可以设定浴室、卧室等为禁止进入的房间。如此,机器人100被预先设定了可移动范围。机器人100可以在识别到在该可移动范围内存在新出现的用户时向该用户身旁靠近。在该情况下,机器人100能行为表现出如同拥有地盘。
可以将机器人100瞳部朝向用户的举动,换言之,可以将机器人100视线朝向用户的举动定义为“爱意举动”的一种。也可以将机器人100头部或主体104朝向用户的举动定义为“爱意举动”的一种。这样,可以通过眼睛110、主体104朝向用户的举动来表现出机器人100对用户感兴趣的意思。一般而言,人在向对方示好时,会采取视线朝向对方、凝视、扩张瞳部、变换朝向(转动脖子、身体)等行为。机器人100也能通过将瞳部图像朝向用户并维持该状态规定时间(例如一秒以上)、放大瞳部图像、将头或身体朝向用户来实现与人类同样的爱意表现,可以将这样的举动定义为向人示好的爱意举动。
作为其他的爱意举动,可以想到跟随用户进行移动、被拥抱时上下点头、被拥抱时移动颈部以便使脸靠近用户、在被拥抱的姿势下晃动身体104、自转、像企鹅那样上下抬手108等。
生活模式可以由用户来设定。或者,机器人100可以通过观察用户的行为来检测起床时刻等。例如,可以通过将某一用户A从卧室出来的时刻录入生活模式储存部来确定用户A的起床时刻。机器人100的识别部156通过摄像头等来识别用户A的起床,通信部142通过将起床时刻录入数据储存部148或外部数据库来记录用户A的起床时刻作为生活模式。
用户A的外出时刻的众数值设为上午7点50分。当上午7点50分的10分钟前的上午7点40分到来时,机器人100搜索用户A并追踪用户A。当用户A向监视区域150(或者,出入口410附近)移动时,机器人100跟随用户A前往监视区域150。通过这样的基于生活模式信息的预测行为,机器人100容易更准确地对用户A进行送别。机器人100也可以参照生活模式信息来预测用户的外出预定时刻(众数值、平均值等),并在外出预定时刻的规定时间前开始对用户的追踪行为。而且,可以在用户进入门厅152的监视区域150时、检测到特定声音时、用户打开门厅152的门时,通过执行爱意举动来进行“送别”。与迎接同样,可以只在外出预定时刻的规定时间前才执行“送别”。
同样,用户A的回家时刻的众数值设为下午8点20分。当下午8点20分的20分钟前的下午8点来到时,机器人100移动至监视区域150来等待用户A回家。或者,也可以来到能检测到监视区域150的门的开锁声的范围并待机以迎接用户A。如此,机器人100可以参照生活模式信息来预测用户的回家预定时刻(众数值、平均值等),并在回家预定时刻的规定时间前移动至监视区域150附近的规定区域。而且,可以在用户进入门厅152的监视区域150时、检测到特定的关键词时、用户打开门厅152的门时,通过执行爱意举动来进行“迎接”。
设置于门厅152的外部传感器114检测到用户进入监视区域150并通知给服务器200。服务器200向机器人100发送指示“迎接”、“送别”的控制信号,机器人100会移动至服务器200所指定的目标地点。机器人100会在到达目标地点时对用户执行爱意举动。
当机器人100的识别部156通过内置的摄像头确认用户经过了门时,可以不等待来自服务器200的指示而主动执行迎接或送别行为。在设置于门附近的外部传感器114检测到用户经过了门的情况下,外部传感器114可以向服务器200发送检测信号,服务器200可以指示机器人100进行迎接等。或者,也可以直接从外部传感器114向机器人100发送检测信号,而机器人100的移动判断部138将移动目标地点设定为与外部传感器114的ID对应的门所在的方向。在机器人100到达移动目标地点后,在识别部156通过摄像头图像识别到用户时,机器人100会执行爱意举动。
机器人100可以在由置的麦克风(传感器)或内置于外部传感器114的麦克风检测到门的开关声时向门移动,并在图像识别到用户时执行爱意举动。机器人100不限于用户经过门时,也可以在像门被开闭这样会预知到穿行的状况时执行迎接等。
除了检测用户进入监视区域150、门的开关以外,作为检测“该迎接了、该送别了”的状况的方法,也可以检测“我回来了”、“欢迎回来”、“慢走”、“拜拜”、“我出门了”、“过来”等特定声音。预先将用户出门时或回家时本人或周围的人所发出的典型的话语作为“特定声音”,录入服务器200等的数据库。在检测到特定声音时,机器人100可以前往特定声音的发声地点并对用户执行爱意举动。
机器人100在检测到特定声音时,可以向特定声音的发声源移动并以图像识别到用户为契机执行爱意举动。需要说明的是,可以随机选择执行多种爱意举动中的任一种,也可以根据对用户的亲密度、情感参数等变量来选择爱意举动。
当存在多个机器人100时,一方的机器人100可以向另一方的机器人100通知“回家”、“外出”。例如,当第一机器人100检测到门厅152的门的开闭声或开锁声时,第一机器人100通过无线通信将检测到开关声的情况也通知给第二机器人100。第一机器人100在通过检测到开关声而识别到用户回家时,不仅自己执行迎接行为,还会将检测到回家的情况通知给第二机器人100,由此,未识别到回家的第二机器人100也能执行迎接行为。第二机器人100即使在远离门厅152的场所而无法检测到开关声、开锁声时也能与第一机器人100同样地执行迎接行为等。
更具体而言,第一机器人100在检测到有人在门厅152时,将门厅152设定为移动的目标地点,并在到达目标地点时执行爱意举动。此外,第一机器人100在检测到有人在门厅152时,将检测信号发送给第二机器人100。第二机器人100在接收到检测信号时,将门厅152设定为移动的目标地点,并在到达目标地点时与第一机器人100同样地执行爱意举动。送别也同样如此。在第一机器人100检测到门的开关时、检测到人经过门时、检测到特定声音时也同样可以将检测信号发送给第二机器人100。
机器人100可以根据亲密度来改变行为。例如,在被用户S1拥抱着的状况下检测到另一用户S2外出、回家时,比较对用户S1的亲密度和对用户S2的亲密度,优先执行针对亲密度更高的用户的行为。在被用户S1呼唤时检测到其他用户S2外出、回家时也同样如此。机器人100可以在第二用户进入门厅152的监视区域150时、检测到第二用户发出的特定声音时,即,在识别到第二用户回家时,以对第二用户的亲密度比对家中的第一用户的亲密度高为条件,来执行迎接行为、送别行为。
在由第一用户指示的行为的执行过程中时、或者在与第一用户接触的过程中第二用户回家的情况下,可以根据对第一用户的亲密度与对第二用户的亲密度的差分来改变爱意举动。例如,在比第一用户亲密得多的(差分在第一阈值以上)第二用户回家时,机器人100可以离开第一用户并移动至门厅152,向第二用户求拥抱。在与第一用户同等亲密的(差分在第二阈值以上且小于第一阈值)第二用户回家时,机器人100可以暂时移动至门厅152并在注视第二用户后返回第一用户所在的场所。而且,在不如第一用户亲密的(差分小于第二阈值)第二用户回家时,机器人100可以不对第二用户执行爱意举动。
机器人100不能越过门厅152的门,但能越过室内门。此外,可以设定不能通行的室内门。服务器200将可通行的门和不可通行的门的位置录入地图,机器人100可以依据该地图来限制可移动范围。用户可以通过发出“等等”等规定的声音(以下,称为“待机声”)来禁止机器人100越过室内门。机器人100在越过室内门追赶用户时,可以在用户发出“等等”、“别过来”、“停下”等待机声后不越过室内门而停下来。此外,机器人100可以认识到今后不要再越过根据待机声而被禁止越过的门。根据这样的控制方法,能通过待机声来控制机器人100的可行动范围。
除了门厅152的门的开锁声、开关声之外,机器人100的识别部156还可以通过检测对讲机的声音、设置成门厅152的门被打开时会响起的旋律,来检测用户回家。此外,也可以根据在家的用户之间的对话来判断回家可能性。例如,机器人100的识别部156可以在从家人的对话中识别出“来”、“回来”等特定声音时,判断外出中的用户快要回家。在该情况下,机器人100可以立即移动至门厅152,也可以将能检测到门厅152的开锁声的规定地点设定为移动目标地点。
当所有主人都在家时,在通过对讲机的声音等检测到来客时,机器人100可以跟随在主人后面并谨慎地执行迎接行为。例如,也可以跟随在主人后面,不执行爱意举动而是立即返回起居室。
迎接、送别时,在移动目标地点与当前地点之间存在障碍物的情况下,例如,在由于起居室的门闭锁而无法到达门厅152时,机器人100可以停在该障碍物的跟前待机,在看到用户时再执行爱意举动。例如,在前往门厅152的路线被玻璃室内门封锁时,可以停在室内门的跟前,在隔着玻璃看到回家的用户时再执行爱意举动。这样,移动目标地点可以不是门厅152这种用户所在的地点,只要是设定在前往用户所在的地点的路线上的地点即可。
在用户经过室内门时,可以参照生活模式信息来判定是长期离开还是暂时离开。然后,可以仅在长期离开时才执行送别行为。例如,通常,用户B在上午9点至上午10点之间(第一时间段)经过室内门后外出的概率为规定的阈值以上,但在下午1点至下午3点之间(第二时间段)经过室内门后外出的概率小于规定的阈值。机器人100可以在用户B经过室内门的时间段为第一时间段时不执行送别行为,而在第二时间段时才执行送别。
此外,也可以在检测到穿上外套、戴上帽子、放下水杯等表示外出的标志(object)时判断为长期外出并执行送别行为。当用户经过室内门时,可以在检测到“慢走”、“我出门了”等特定声音时,判断为长期离开。
服务器200的数据处理部202或机器人100的数据处理部136可以具有情感管理部。情感管理部管理表示机器人100的情感(寂寞、好奇心、被认可欲等)的各种情感参数。这些情感参数总是在波动。多个行为地图的重要度会根据情感参数而变化,机器人100的移动目标地点会根据行为地图而发生变化,情感参数会因机器人100的移动、时间经过而发生变化。
例如,在表示寂寞的情感参数高时,情感管理部将评价安心场所的行为地图的权重系数设定得较大。当机器人100到达该行为地图中能消除寂寞的地点时,情感管理部会降低表示寂寞的情感参数。此外,各种情感参数也会因后述的应对行为而发生变化。例如,当被主人“拥抱”时表示寂寞的情感参数会降低,在长时间没有看到主人时表示寂寞的情感参数会逐步上升。
机器人100可以亲自设置外部传感器114。在机器人100被引入家庭时,机器人100可以向用户指示外部传感器114的设置场所,也可以亲自设置外部传感器114。
权利要求书(按照条约第19条的修改)
1.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
行为判断部,从多种举动中选择任一种举动;
对象检测部,检测监视区域中人的存在;以及
驱动机构,执行指定的移动以及举动,
所述移动判断部在检测到所述监视区域中有人时,将移动的目标地点设定为所述监视区域,
所述行为判断部在装置自身到达所述目标地点之前再次检测到从所述监视区域向装置自身移动的人时,中断向所述目标地点的移动并指示对所述再次检测到的人执行被定义为向人示好的举动的爱意举动。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述爱意举动是落座行为。
3.根据权利要求1或2所述的行为自主型机器人,其特征在于,
还具备:人物识别部,对人进行识别,
所述行为判断部根据识别到的人物,从多种爱意举动中选择成为执行对象的爱意举动。
4.根据权利要求1至3中的任一项所述的行为自主型机器人,其特征在于,
还具备:应对识别部,检测人对所述爱意举动的应对,
在所述应对识别部检测到从人那里得到善意应对的情况下,所述行为判断部选择其他的爱意举动。
5.根据权利要求1至4中的任一项所述的行为自主型机器人,其特征在于,
在所述监视区域预先设置有预先传感器,
所述传感器在检测到所述监视区域中有人经过时会发送检测信号,
所述对象检测部根据所述检测信号来检测人的经过。
6.根据权利要求5所述的行为自主型机器人,其特征在于,
所述传感器包括收音麦克风,在检测到呼唤声时也发送所述检测信号。
7.根据权利要求1至6中的任一项所述的行为自主型机器人,其特征在于,
所述移动判断部以从行为自主型机器人的当前地点到所述监视区域的距离为规定距离以下为条件,将所述目标地点设定为所述监视区域。
8.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
所述识别部包括:
出入口确定部,确定室内空间中人能通过的场所为出入口;以及
存在判定部,判定距离所述确定出的出入口的规定范围内是否有人,
当执行以第一用户为对象的规定的交流行为过程中判定距离所述确定出的出入口的规定范围内存在第二用户时,所述移动判断部中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动。
9.根据权利要求8所述的行为自主型机器人,其特征在于,
当通过所述传感器在所述确定出的出入口所在的方向上检测到状态的变化时,所述存在判定部判定为有人。
10.根据权利要求8所述的行为自主型机器人,其特征在于,
当通过所述传感器检测到包括特定的关键词的声音时,所述存在判定部判定为有人。
11.根据权利要求8至10中的任一项所述的行为自主型机器人,其特征在于,
所述移动判断部基于所述室内空间中人的存在状况来推测来访者的可能性,在判定为来访者的可能性高的情况下,指示所述驱动机构跟随位于所述室内空间的人向所述确定出的出入口移动。
12.根据权利要求11所述的行为自主型机器人,其特征在于,
还具备:行为判断部,根据来访者是否为已登记的用户,来改变移动时的行为方式。
13.根据权利要求8至12中的任一项所述的自主行为机器人,其特征在于,
所述存在判定部参照用户的生活模式信息来预测所述用户的回家时刻,
所述移动判断部在所述预测到的回家时刻的规定时间前,指示所述驱动机构向所述确定出的出入口移动。
14.根据权利要求8至13中的任一项所述的行为自主型机器人,其特征在于,
当通过设置于外部的传感器检测到向室内空间接近的物体时,所述存在判定部判定在所述确定出的出入口的周边有人。
15.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
所述识别部包括:
出入口确定部,确定室内空间中人能通过的场所为出入口;以及
前进路线预测部,判定是否有人正在向所述确定出的出入口的方向移动,
当执行以第一用户为对象的规定的交流行为过程中判定第二用户正在向所述确定出的出入口的方向移动时,所述移动判断部中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动。
16.根据权利要求15所述的行为自主型机器人,其特征在于,
所述移动判断部在指示所述驱动机构向所述确定出的出入口移动时,禁止所述驱动机构穿过所述确定出的出入口。
17.根据权利要求15所述的行为自主型机器人,其特征在于,
所述移动判断部在指示所述驱动机构向所述确定出的出入口移动时,在通过所述传感器检测到包括特定的关键词的声音的情况下,禁止所述驱动机构穿过所述确定出的出入口。
18.根据权利要求15至17中的任一项所述的行为自主型机器人,其特征在于,
所述前进路线预测部参照用户的生活模式信息来预测所述用户的外出时刻,
当所述用户在包括所述所预测的外出时刻的规定的时间段以外向所述确定出的出入口移动时,所述移动判断部使所述机器人不跟随所述用户。
19.根据权利要求15所述的行为自主型机器人,其特征在于,
所述移动判断部以所述第二用户的亲密度比所述第一用户的亲密度高为条件,来中断所述交流行为。
20.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
当执行以第一用户为对象的规定的交流行为过程中判定存在第二用户时,所述移动判断部中断所述交流行为并指示所述驱动机构向所述第二用户所在的方向移动。
21.根据权利要求20所述的行为自主型机器人,其特征在于,
当检测到所述第二用户后能通过图像识别来判别所述第二用户是否与已登记的用户匹配时,所述移动判断部指示所述驱动机构向前往所述第二用户的方向移动。
22.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息,确定室内空间中人能通过的场所为出入口的功能;
判定距离所述确定出的出入口的规定范围内是否有人的功能;以及
在执行以第一用户为对象的规定的交流行为过程中判定距离所述确定出的出入口的规定范围内存在第二用户时,中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动的功能。
23.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息,确定室内空间中人能通过的场所为出入口的功能;
判定是否有人正在向所述确定出的出入口的方向移动的功能;以及
在执行以第一用户为对象的规定的交流行为过程中判定第二用户正在向所述确定出的出入口的方向移动时,中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动的功能。
24.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息来识别外部环境的功能;以及
在执行以第一用户为对象的规定的交流行为过程中在可识别的空间区域中识别到第二用户的存在时,将移动方向确定为前往所述第二用户的方向的功能。
25.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
行为判断部,从多种举动中选择任一种举动;
对象检测部,检测监视区域中人的存在;以及
驱动机构,执行指定的移动以及举动,
所述移动判断部在检测到所述监视区域中有人时,将移动的目标地点设定为所述监视区域,
所述行为判断部在装置自身到达所述目标地点时,选择落座行为。
26.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
行为判断部,从多种举动中选择任一种举动;
对象检测部,检测监视区域中人的存在;
驱动机构,执行指定的移动以及举动;以及
应对识别部,检测人对被定义为向人示好的举动的爱意举动的应对,
所述移动判断部在检测到所述监视区域中有人时,将移动的目标地点设定为所述监视区域,
所述行为判断部在装置自身到达所述目标地点时选择爱意举动,
在所述应对识别部检测到从人那里得到善意应对的情况下,所述行为判断部选择其他的爱意举动。

Claims (27)

1.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
行为判断部,从多种举动中选择任一种举动;
对象检测部,检测监视区域中人的存在;以及
驱动机构,执行指定的移动以及举动,
所述移动判断部在检测到所述监视区域中有人时,将移动的目标地点设定为所述监视区域,
所述行为判断部在装置自身到达所述目标地点时,选择被定义为向人示好的举动的爱意举动。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述行为判断部在装置自身到达所述目标地点之前再次检测到从所述监视区域向装置自身移动的人时,中断向所述目标地点的移动并指示对所述再次检测到的人执行所述爱意举动。
3.根据权利要求1或2所述的行为自主型机器人,其特征在于,
所述爱意举动是落座行为。
4.根据权利要求1至3中任一项所述的行为自主型机器人,其特征在于,
还具备:人物识别部,识别所述监视区域中的人,
所述行为判断部根据识别到的人物,从多种爱意举动中选择成为执行对象的爱意举动。
5.根据权利要求1至4中任一项所述的行为自主型机器人,其特征在于,
还具备:应对识别部,检测人对所述爱意举动的应对,
在所述应对识别部检测到从人那里得到善意应对的情况下,所述行为判断部选择其他的爱意举动。
6.根据权利要求1至5中任一项所述的行为自主型机器人,其特征在于,
在所述监视区域预先设置有传感器,
所述传感器在检测到所述监视区域中有人经过时会发送检测信号,
所述对象检测部根据所述检测信号来检测人的经过。
7.根据权利要求6所述的行为自主型机器人,其特征在于,
所述传感器包括收音麦克风,在检测到呼唤声时也发送所述检测信号。
8.根据权利要求1至7中任一项所述的行为自主型机器人,其特征在于,
所述移动判断部以从行为自主型机器人的当前地点到所述监视区域的距离为规定距离以下为条件,将所述目标地点设定为所述监视区域。
9.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
所述识别部包括:
出入口确定部,确定室内空间中人能通过的场所为出入口;以及
存在判定部,判定距离所述确定出的出入口的规定范围内是否有人,
所述移动判断部在通过所述存在判定部判定有人的情况下,将所述确定出的出入口设定为移动目的地。
10.根据权利要求8所述的行为自主型机器人,其特征在于,
当通过所述传感器,在所述确定出的出入口所在的方向上检测到了状态的变化时,所述存在判定部判定为有人。
11.根据权利要求9所述的行为自主型机器人,其特征在于,
当通过所述传感器检测到了包括特定的关键词的声音时,所述存在判定部判定为有人。
12.根据权利要求9至11中任一项所述的行为自主型机器人,其特征在于,
当执行以第一人为对象的规定的交流行为过程中判定距离所述确定出的出入口规定范围内存在第二人时,所述移动判断部中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动。
13.根据权利要求9至12中任一项所述的行为自主型机器人,其特征在于,
所述移动判断部基于所述室内空间中人的存在状况来推测来访者的可能性,在判定为来访者的可能性高的情况下,指示所述驱动机构跟随位于所述室内空间的人向所述确定出的出入口移动。
14.根据权利要求13所述的行为自主型机器人,其特征在于,
还具备:行为判断部,根据来访者是否为已登记的用户,来改变移动时的行为方式。
15.根据权利要求9至14中任一项所述的行为自主型机器人,其特征在于,
所述存在判定部参照用户的生活模式信息来预测所述用户的回家时刻,
所述移动判断部在所述预测到的回家时刻的规定时间前,指示所述驱动机构向所述确定出的出入口移动。
16.根据权利要求9至15中任一项所述的行为自主型机器人,其特征在于,
当通过设置于外部的传感器检测到向室内空间接近的物体时,所述存在判定部判定在所述确定出的出入口的周边有人。
17.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
所述识别部包括:
出入口确定部,确定室内空间中人能通过的场所为出入口;以及
前进路线预测部,判定是否有人正在向所述确定出的出入口的方向移动,
所述移动判断部在判定所述人正在前往所述确定出的出入口的情况下,指示所述驱动机构跟随所述人。
18.根据权利要求17所述的行为自主型机器人,其特征在于,
所述移动判断部在跟随所述人时,禁止所述驱动机构穿过所述确定出的出入口。
19.根据权利要求17所述的行为自主型机器人,其特征在于,
所述移动判断部在跟随所述人时,在通过所述传感器检测到包括特定的关键词的声音时,禁止所述驱动机构穿过所述确定出的出入口。
20.根据权利要求17至19中任一项所述的行为自主型机器人,其特征在于,
所述前进路线预测部参照用户的生活模式信息来预测所述用户的外出时刻,
当所述用户在包括所述预测到的外出时刻的规定的时间段以外向所述确定出的出入口移动时,所述移动判断部使所述机器人不跟随所述用户。
21.根据权利要求17至20中任一项所述的行为自主型机器人,其特征在于,
当执行以第一用户为对象的规定的交流行为过程中判定第二用户正在向所述确定出的出入口的方向移动中时,所述移动判断部中断所述交流行为并指示所述驱动机构向所述确定出的出入口移动。
22.根据权利要求21所述的行为自主型机器人,其特征在于,
所述移动判断部以所述第二用户的亲密度比所述第一用户的亲密度高为条件,来中断所述交流行为。
23.一种行为自主型机器人,其特征在于,具备:
移动判断部,确定移动方向;
驱动机构,执行指定的移动;以及
识别部,根据传感器的检测信息来识别外部环境,
当通过所述识别部在能识别到人的空间区域中识别到新出现的人时,所述移动判断部将移动方向确定为朝向所述新出现的人的方向。
24.根据权利要求23所述的行为自主型机器人,其特征在于,
当检测到所述新出现人的存在后能通过图像识别来辨别所述新出现的人是否与已登记的用户匹配时,所述移动判断部指示所述驱动机构往朝向所述新出现的人的方向移动。
25.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息,确定室内空间中人能通过的场所为出入口的功能;
判定距离所述确定出的出入口的规定范围内是否有人的功能;以及
在判定为有人的情况下,将所述确定出的出入口设定为移动目的地的功能。
26.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息,确定室内空间中人能通过的场所为出入口的功能;
判定是否有人正在向前往所述确定出的出入口的方向移动的功能;以及
在判定为所述人正在前往所述确定出的出入口的情况下,以跟随所述人的方式设定移动方向。
27.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
根据传感器的检测信息来识别外部环境的功能;以及
在可识别的的空间区域中识别到有新出现人时,将移动方向确定为朝向所述新出现的人的方向的功能。
CN201780020480.XA 2016-03-28 2017-03-16 执行迎接行为的行为自主型机器人 Active CN109153127B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-063466 2016-03-28
JP2016063466 2016-03-28
PCT/JP2017/010594 WO2017169826A1 (ja) 2016-03-28 2017-03-16 お出迎え行動する自律行動型ロボット

Publications (2)

Publication Number Publication Date
CN109153127A true CN109153127A (zh) 2019-01-04
CN109153127B CN109153127B (zh) 2022-05-31

Family

ID=59964378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780020480.XA Active CN109153127B (zh) 2016-03-28 2017-03-16 执行迎接行为的行为自主型机器人

Country Status (6)

Country Link
US (1) US11135727B2 (zh)
JP (2) JP6409206B2 (zh)
CN (1) CN109153127B (zh)
DE (1) DE112017001573B4 (zh)
GB (1) GB2563785B (zh)
WO (1) WO2017169826A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857114A (zh) * 2019-02-26 2019-06-07 温州市职业中等专业学校 校园移动智能机器人及校园智能管理系统
CN111300437A (zh) * 2019-12-06 2020-06-19 西南石油大学 一种图书馆图书智能收集存储集运机器人
CN113050505A (zh) * 2021-03-25 2021-06-29 广东凌霄泵业股份有限公司 一种远程控制型多功能spa浴缸智能控制器
CN113176775A (zh) * 2020-01-24 2021-07-27 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
CN113534813A (zh) * 2021-07-30 2021-10-22 珠海一微半导体股份有限公司 移动机器人作业方法、系统及芯片
CN116234664A (zh) * 2020-12-10 2023-06-06 松下知识产权经营株式会社 机器人的控制方法、机器人、以及程序

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017175559A1 (ja) 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
DE112017002606B4 (de) * 2016-07-08 2020-06-25 Groove X, Inc. Autonom handelnder Roboter, der Kleidung trägt
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
JP6515899B2 (ja) * 2016-10-04 2019-05-22 トヨタ自動車株式会社 音声対話装置及びその制御方法
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10467510B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant
US11010601B2 (en) * 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US10449463B2 (en) * 2017-05-09 2019-10-22 Wowwee Group Ltd. Interactive robotic toy
US11584018B2 (en) 2017-11-13 2023-02-21 Teenage Engineering Ab User interactive electronic system and method for controlling a robotic arm
JP7259843B2 (ja) * 2018-03-30 2023-04-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11468590B2 (en) 2018-04-24 2022-10-11 Cyberoptics Corporation Wireless substrate-like teaching sensor for semiconductor processing
WO2019211932A1 (ja) * 2018-05-01 2019-11-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
WO2019213264A1 (en) * 2018-05-01 2019-11-07 Piaggio Fast Forward, Inc. Method for determining self-driving vehicle behavior models, a self-driving vehicle, and a method of navigating a self-driving vehicle
US20210232150A1 (en) * 2018-05-15 2021-07-29 Sony Corporation Control device, control method, and program
JP2019207463A (ja) * 2018-05-28 2019-12-05 株式会社日立製作所 ロボット、行動検知サーバ、および行動検知システム
WO2019240208A1 (ja) * 2018-06-13 2019-12-19 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
CN110605722A (zh) * 2018-06-14 2019-12-24 中瑞福宁机器人(沈阳)有限公司 养老服务机器人三层级关怀系统
JP7176244B2 (ja) * 2018-06-20 2022-11-22 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7298860B2 (ja) 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020017111A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 エージェント、存在確率マップ作成方法、エージェントの行動制御方法、及びプログラム
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols
JP7379814B2 (ja) * 2018-11-21 2023-11-15 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
JP7444460B2 (ja) 2018-12-03 2024-03-06 Groove X株式会社 ロボット用充電ステーション
US20210373576A1 (en) * 2019-01-03 2021-12-02 Lg Electronics Inc. Control method of robot system
WO2020152777A1 (ja) * 2019-01-22 2020-07-30 本田技研工業株式会社 同行移動体
KR102279597B1 (ko) * 2019-01-28 2021-07-20 엘지전자 주식회사 인공지능 이동 로봇 및 이의 제어 방법
JPWO2020158642A1 (ja) * 2019-01-31 2021-12-02 ソニーグループ株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP7273538B2 (ja) * 2019-02-26 2023-05-15 パナソニックホールディングス株式会社 装置、方法、及びプログラム
JP7024754B2 (ja) * 2019-03-25 2022-02-24 カシオ計算機株式会社 制御装置、ロボット、制御方法およびプログラム
JP7320240B2 (ja) * 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 ロボット
KR20210138181A (ko) * 2019-04-11 2021-11-19 엘지전자 주식회사 안내 로봇 및 안내 로봇의 동작 방법
US11429113B2 (en) * 2019-08-08 2022-08-30 Lg Electronics Inc. Serving system using robot and operation method thereof
US20240042619A1 (en) * 2019-09-17 2024-02-08 Sony Group Corporation Information processing apparatus, information processing method, and program
CN112536801A (zh) * 2019-09-23 2021-03-23 上海庐真实业有限公司 一种早教机器人
KR20210078060A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
CN114006959A (zh) * 2020-07-27 2022-02-01 Oppo广东移动通信有限公司 电子设备
KR102576788B1 (ko) * 2020-08-21 2023-09-11 한국전자통신연구원 로봇 인터랙션 행위 생성 장치 및 방법
US20220357721A1 (en) * 2021-05-10 2022-11-10 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
DE102023201628B3 (de) 2023-02-22 2024-05-16 BSH Hausgeräte GmbH Bestimmung eines Zustands eines Fensters oder einer Tür in einem Haushalt
US11826670B1 (en) * 2023-07-27 2023-11-28 Placo Bubbles Limited Moving bubble toy animal

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
US20070192910A1 (en) * 2005-09-30 2007-08-16 Clara Vu Companion robot for personal interaction
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2012110996A (ja) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
JP2013027937A (ja) * 2011-07-26 2013-02-07 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
CN103341268A (zh) * 2013-05-24 2013-10-09 广州睿火智能科技有限公司 多功能装置及其应用方法
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
CN204712059U (zh) * 2015-06-12 2015-10-21 姚显平 礼仪迎宾仿真机器人模特
US20160011596A1 (en) * 2012-10-02 2016-01-14 Trevor O'Neill System and method for remote control of unmanned vehicles

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000015396A1 (fr) * 1998-09-10 2000-03-23 Sony Corporation Appareil robotique, procede de commande de l'appareil robotique, procede d'affichage et support
WO2000067959A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
JP2001188551A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003296855A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 監視装置
JP3885019B2 (ja) 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP4411900B2 (ja) * 2003-08-08 2010-02-10 ソニー株式会社 電子機器間の相互成長システム、電子機器及びロボット装置
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2005103722A (ja) 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP4315872B2 (ja) * 2004-07-28 2009-08-19 本田技研工業株式会社 移動ロボットの制御装置
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
US20080056933A1 (en) * 2006-08-29 2008-03-06 Moore Barrett H Self-Propelled Sterilization Robot and Method
JP4871160B2 (ja) * 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
JP4949969B2 (ja) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 コミュニケーションロボットとその動作方法
JP5392028B2 (ja) * 2009-11-26 2014-01-22 富士通株式会社 自律移動ロボット
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
EP2852881A4 (en) * 2012-05-22 2016-03-23 Intouch Technologies Inc GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES
US9329597B2 (en) * 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP2016022537A (ja) * 2014-07-16 2016-02-08 国立大学法人 筑波大学 ロボット
JP6330617B2 (ja) * 2014-10-21 2018-05-30 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
US20070192910A1 (en) * 2005-09-30 2007-08-16 Clara Vu Companion robot for personal interaction
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2012110996A (ja) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
JP2013027937A (ja) * 2011-07-26 2013-02-07 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
US20160011596A1 (en) * 2012-10-02 2016-01-14 Trevor O'Neill System and method for remote control of unmanned vehicles
CN103341268A (zh) * 2013-05-24 2013-10-09 广州睿火智能科技有限公司 多功能装置及其应用方法
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
CN204712059U (zh) * 2015-06-12 2015-10-21 姚显平 礼仪迎宾仿真机器人模特

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857114A (zh) * 2019-02-26 2019-06-07 温州市职业中等专业学校 校园移动智能机器人及校园智能管理系统
CN111300437A (zh) * 2019-12-06 2020-06-19 西南石油大学 一种图书馆图书智能收集存储集运机器人
CN113176775A (zh) * 2020-01-24 2021-07-27 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
CN113176775B (zh) * 2020-01-24 2024-03-29 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
CN116234664A (zh) * 2020-12-10 2023-06-06 松下知识产权经营株式会社 机器人的控制方法、机器人、以及程序
CN116234664B (zh) * 2020-12-10 2024-05-24 松下知识产权经营株式会社 机器人的控制方法、机器人、以及程序
CN113050505A (zh) * 2021-03-25 2021-06-29 广东凌霄泵业股份有限公司 一种远程控制型多功能spa浴缸智能控制器
CN113050505B (zh) * 2021-03-25 2021-12-24 广东凌霄泵业股份有限公司 一种远程控制型多功能spa浴缸智能控制器
CN113534813A (zh) * 2021-07-30 2021-10-22 珠海一微半导体股份有限公司 移动机器人作业方法、系统及芯片
CN113534813B (zh) * 2021-07-30 2024-06-18 珠海一微半导体股份有限公司 移动机器人作业方法、系统及芯片

Also Published As

Publication number Publication date
US11135727B2 (en) 2021-10-05
CN109153127B (zh) 2022-05-31
GB201815713D0 (en) 2018-11-07
JPWO2017169826A1 (ja) 2018-04-12
US20180333862A1 (en) 2018-11-22
GB2563785B (en) 2021-03-03
JP2019010728A (ja) 2019-01-24
DE112017001573B4 (de) 2020-01-30
WO2017169826A1 (ja) 2017-10-05
GB2563785A (en) 2018-12-26
JP6409206B2 (ja) 2018-10-24
DE112017001573T5 (de) 2018-12-20

Similar Documents

Publication Publication Date Title
CN109153127A (zh) 执行迎接行为的行为自主型机器人
US11192257B2 (en) Autonomously acting robot exhibiting shyness
US11809192B2 (en) Autonomously acting robot whose activity amount is controlled
CN110024000A (zh) 使瞳部变化的行为自主型机器人
US11230014B2 (en) Autonomously acting robot and computer program
CN109475781A (zh) 理解物理接触的行为自主型机器人
CN109416541A (zh) 寻求凉爽的行为自主型机器人
CN109414824B (zh) 穿衣服的行为自主型机器人
CN109690435A (zh) 保持自然的距离感的行为自主型机器人
CN109643126A (zh) 行为自主型机器人、服务器及行为控制程序
CN109689174A (zh) 接纳访客的行为自主型机器人
WO2019151387A1 (ja) 経験に基づいて行動する自律行動型ロボット
JPWO2018207908A1 (ja) ロボット、装身具及びロボット制御プログラム
CN109070364A (zh) 具有紧急停机功能的行为自主型机器人
JP2020032014A (ja) 日常生活を記録する自律行動型ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant