CN109526208A - 活动量受控制的行为自主型机器人 - Google Patents

活动量受控制的行为自主型机器人 Download PDF

Info

Publication number
CN109526208A
CN109526208A CN201780042193.9A CN201780042193A CN109526208A CN 109526208 A CN109526208 A CN 109526208A CN 201780042193 A CN201780042193 A CN 201780042193A CN 109526208 A CN109526208 A CN 109526208A
Authority
CN
China
Prior art keywords
robot
movement
mode
operation control
control part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780042193.9A
Other languages
English (en)
Other versions
CN109526208B (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groovex Co
Groove X Inc
Original Assignee
Groovex Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groovex Co filed Critical Groovex Co
Publication of CN109526208A publication Critical patent/CN109526208A/zh
Application granted granted Critical
Publication of CN109526208B publication Critical patent/CN109526208B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/22Electric drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;以及电池余量监控部,监控二次电池的电池余量。机器人的行为特性根据电池余量而发生变化。例如,电池余量越少时,越高概率地选择处理负荷小的动作。可以参照对二次电池的耗电速度进行定义的消耗计划数据,根据按消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的行为特性。

Description

活动量受控制的行为自主型机器人
技术领域
本发明涉及一种根据内部状态或外部环境自主地作出行为选择的机器人。
背景技术
人类寻求慰藉而养宠物。另一方面,因无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生死别离等各种理由而放弃养宠物的人有很多。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来宠物所能给与的那种慰藉(参照专利文献1)。近年来,机器人技术正在迅速发展,但尚未实现作为宠物那样的伴侣的存在感。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
非专利文献
非专利文献1:矢野和男著,《数据的看不见的手》,草思社,2014年7月
发明内容
发明所要解决的问题
生物通过饮食和睡眠来恢复活力。空腹时、睡眠不足时,生物会减少活动。机器人通过充电来恢复活力即用于活动的能量。对机器人而言,充电与对生物而言的饮食和睡眠相似。本发明人认为,通过研究电池余量与活动量的关系,机器人也能表现出人类/生物式的行为特性。如果是能自主选择人类/生物式的行为的机器人,想必能大幅提高对机器人的共鸣。
本发明是基于上述构想而完成的发明,其主要目的在于提供一种用于合理地控制机器人的活动量的技术。
用于解决问题的方案
本发明的某一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由所述动作控制部选择的动作;以及电池余量监控部,监控二次电池的电池余量。
动作控制部根据电池余量来改变机器人的行为特性。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;电池余量监控部,监控二次电池的电池余量;以及识别部,判定事件的发生。
当充电过程中发生了规定的优先事件时,即使充电未结束,动作控制部也选择与优先事件对应的动作。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;以及驱动机构,执行由动作控制部选择的动作。
动作控制部按照相对于动作的处理负荷确定了负相关关系的选择概率,选择机器人的动作。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;以及模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式。
当在设定为省电模式的情况下发生了规定的恢复事件时,动作选择部执行与恢复事件建立了对应的启动动作,模式选择部从省电模式变更为通常模式。
本发明的另一案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;以及模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式。
当设定为省电模式时,模式选择部以检测到移动物体为条件,从省电模式变更为通常模式。
本发明的另一方案的行为自主型机器人具备:驱动器;动作控制部,向驱动器发送动作信号;以及电池余量监控部,监控二次电池的电池余量。
当电池余量为规定阈值以下时,动作控制部将供应给驱动器的电力限制得比平时低。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;模式选择部,选择第一模式以及第二模式中的任一模式;以及眼生成部,根据第一模式以及第二模式来改变瞳部图像。
当第一模式下规定的转变条件成立时,模式选择部变更为第二模式,眼生成部在第一模式下使瞳部图像左右移动,在第二模式下使瞳部图像闭眼。
本发明的另一方案的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;电池余量监控部,监控二次电池的电池余量;以及模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式。
当二次电池的电池余量为规定阈值以下时,动作控制部选择外部的充电器为移动目标地点,当前往充电器的移动路径上存在障碍物时,模式选择部从通常模式变更为省电模式。
发明效果
根据本发明,容易提高对机器人的共鸣。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是概略地表示机器人的构造的剖面图。
图3是机器人系统的构成图。
图4是情感地图的概念图。
图5是机器人的硬件构成图。
图6是机器人系统的功能框图。
图7是负荷表的数据结构图。
图8是动作选择表的数据结构图。
图9是表示消耗计划数据与动作选择的关系的示意图。
图10是消耗计划选择表的示意图。
图11是表示处理负荷与选择概率的关系的示意图。
图12是表示充电过程中发生了优先事件时的处理过程的流程图。
图13是变形例1中的机器人系统的功能框图。
图14是眼部图像的外观图。
图15是动作模式的转变图。
图16是充电站的外观图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(gesture)的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermo sensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。对此将在后文加以说明。
机器人100以房屋内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆润的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮。可以给机器人100着装。通过采用圆润而柔软的手感好的主体104,机器人100提供应给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴儿同等的力气就能抱起机器人100。
通过适度的重量和圆润感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。对本实施方式的机器人100而言,能抱起来是重要的设计理念。
机器人100具备用于进行三轮行进的三个轮子。如图所示,包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但能独立控制旋转速度、旋转方向。后轮103由所谓的全向轮(omni wheel)构成,能自由旋转以便使机器人100向前后左右移动。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102以及后轮103能通过驱动机构(转动机构、连杆机构)而完全收纳于主体104。行进时各轮子的大部分隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100会变为不可移动的状态。即,随着轮子的收纳动作,主体104下降而就座于地面F。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、振动等简单的动作。两只手106也能独立控制。
眼睛110内置有摄像头。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100除了内置在眼睛110的摄像头之外,还搭载了收音麦克风、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。
图2是概略地表示机器人100的构造的剖面图。
如图2所示,机器人100的主体104包括:基础框架308、主体框架310、一对树脂制的轮罩312、以及外皮314。基础框架308由金属构成,构成主体104的轴芯并且支承内部机构。基础框架308通过多个侧板336将上板332和下板334上下连结而构成。在多个侧板336间设有足够的间隔,以便能进行通气。在基础框架308的内侧容纳有电池118、控制电路342、以及各种驱动器。
主体框架310由树脂材料构成,包括头部框架316以及躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈分段筒状,形成机器人100的躯干部骨架。躯干部框架318与基础框架308固定为一体。头部框架316以可相对位移的方式组装于躯干部框架318的上端部。
头部框架316设有偏转(yaw)轴320、俯仰(pitch)轴322、横摆(roll)轴324这三个轴以及用于旋转驱动各轴的驱动器326。驱动器326包括用于独立驱动各轴的多个伺服马达。为了进行转头动作而驱动偏转轴320,为了进行点头动作而驱动俯仰轴322,为了进行歪头动作而驱动横摆轴324。
头部框架316的上部固定有支承偏转轴320的板325。板325上形成有多个用于确保上下之间的通气的通气孔327。
以从下方支承头部框架316以及其内部机构的方式设有金属制的基板328。基板328经由桥接(crosslink)机构329(缩放机构)与板325连结,另一方面,经由接头330与上板332(基础框架308)连结。
躯干部框架318容纳基础框架308和轮子驱动机构370。轮子驱动机构370包括转动轴378以及驱动器379。为了在躯干部框架318的下半部与轮罩312之间形成前轮102的收纳空间S而将躯干部框架318的下半部设置得窄。
外皮314由聚氨酯橡胶形成,从外侧覆盖主体框架310以及轮罩312。手106与外皮314一体成形。在外皮314的上端部设有用于导入外部空气的开口部390。
图3是机器人系统300的构成图。
机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。
外部传感器114用于加强机器人100的传感装置,服务器200用于加强机器人100的头脑。
外部传感器114定期发送包括外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包括信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200测量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,来测定出从外部传感器114到机器人100的距离。通过测量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图4是情感地图116的概念图。
情感地图116是存储于服务器200的数据表。机器人100根据情感地图116来作出行为选择。图4所示的情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图4的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌子下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸和洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据前轮102或后轮103的转速来计算机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被赋予图4所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地作出行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图4所示的类型的情感地图116。例如,能定义好奇、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图5是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120、以及电池118。驱动机构120包括上述的轮子驱动机构370。处理器122和存储装置124包括在控制电路342中。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头、收音麦克风、红外线传感器、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器等。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多种类别(以下,称为“气味类别”)。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性内存以及易失性内存构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制内部机构的驱动器。除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子(前轮102)和头部(头部框架316)。驱动机构120通过改变两个前轮102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子(前轮102以及后轮103)升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面F抵接,变为就座状态。
图6是机器人系统300的功能框图。
如上所述,机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供应给运算器。计算机程序可以由设备驱动程序、操作系统、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202、以及数据储存部206。
通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
数据储存部206包括:动作储存部232、地图储存部216以及个人数据储存部218。
机器人100具有多个动作模式(动作)。定义有各种各样的动作:抖动手、蛇行接近主人、歪头注视主人等。
动作储存部232存储对动作的控制内容进行定义的“动作文件”。各动作通过动作ID来识别。动作文件也被下载到机器人100的动作储存部160。执行哪个动作有时由服务器200来决定,有时也由机器人100来决定。
机器人100的动作大多构成为包括多个单位动作的复合动作。例如,可表现为在机器人100接近主人时转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作、以及一边举起双手一边坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”这样的动作。动作文件中,与时间轴建立关联地定义了设于机器人100的驱动器的旋转角度、角速度等。依据动作文件(驱动器控制信息),随着时间经过来控制各驱动器,由此实现各种动作。
将从前一单位动作变化到下一单位动作时的过渡时间称为“间隔”。根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。
以下,将何时选择哪个动作、实现动作基础上的各驱动器的输出调整等等与机器人100的行为控制有关的设定统称为“行为特性”。机器人100的行为特性由动作选择算法、动作的选择概率、动作文件等来定义。
地图储存部216存储多个行为地图。个人数据储存部218存储用户特别是主人的信息。具体而言,存储对用户的亲密度、用户的身体特征/行为特征等各种参数。也可以存储年龄、性别等其他属性信息。
机器人100基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像头来拍摄周围。然后,提取现于图像的人物的身体特征和行为特征。所谓身体特征,可以是身高、喜欢穿的衣服、是否戴眼镜、肤色、发色、耳朵大小等身体附带的视觉特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的特征。例如,提取出被识别为父亲的主人经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的行为上的特征。
机器人100基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。
通过用户ID来识别用户的方式简单可靠,但前提是用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担较大,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。
在本实施方式中,根据身体特征和行为特征来对用户进行归类,并通过深度学习(多层神经网络)来识别用户。详细情况在后文加以说明。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、动作控制部222、亲密度管理部220、计划设定部240以及活动监控部242。
位置管理部208通过用图3说明过的方法来确定机器人100的位置坐标。位置管理部208也可以实时追踪用户的位置坐标。
地图管理部210通过与图4关联地进行过说明的方法,针对多个行动地图改变各坐标的参数。地图管理部210既可以选择多个行为地图中的任一个,也可以对多个行为地图的z值进行加权平均。例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包括基于温度、湿度的气候、季节的识别;基于光量、温度的隐蔽处(安全地带)的识别等多种识别。识别部212还包括人物识别部214和应对识别部228。人物识别部214根据由机器人100的内置摄像头拍摄到的拍摄图像来识别人物,并提取出该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息、行为特征信息,来判定拍摄到的用户即机器人100所看见的用户为父亲、母亲、长子等中的哪位人物。人物识别部214包括表情识别部230。表情识别部230通过对用户的表情进行图像识别来推定用户的情感。
需要说明的是,人物识别部214也对人物以外的移动物体例如作为宠物的猫、狗进行特征提取。
应对识别部228识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。此外,应对识别部228还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。
愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。例如,被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
服务器200的动作控制部222与机器人100的动作控制部150相互配合,决定机器人100的动作。服务器200的动作控制部222基于地图管理部210的行为地图选择,来制定机器人100的移动目标地点和移动至该移动目标地点的移动路线。动作控制部222可以制定多条移动路线并在此基础上选择任一条移动路线。
动作控制部222从动作储存部232的多个动作中选择机器人100的动作。各动作按情况与选择概率建立对应。例如,定义了如下的选择方法:当主人作出愉快行为时,以20%的概率执行动作A,当气温为30度以上时,以5%的概率执行动作B。
行为地图决定移动目标地点、移动路线,并根据后述的各种事件选择动作。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对该主人的亲密度。在检测到不愉快行为时亲密度会下降。此外,长时间未见到的主人的亲密度会逐渐下降。
计划设定部240设定“消耗计划数据”。消耗计划数据定义电池118的耗电速度。例如,在一小时使用的消耗计划数据(以下,记为“一小时计划”)的情况下,电池118的电池余量通过一小时的活动达到下限值。在三小时计划的情况下,电池余量通过三小时的活动达到下限值。三小时计划与一小时计划相比,耗电速度慢,因此活动时间长。但另一方面,机器人100的每单位时间的活动量被抑制。消耗计划数据的详情将在后文加以说明。
活动监控部242记录机器人100的动作履历。在动作履历中,按时序记录了选择动作以及机器人100的位置坐标。也记录了在什么时间遇到谁、检测到怎样的应对行为等各种事件。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、电池118以及驱动机构120。
通信部142与通信器126(参照图5)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图5)对应。数据处理部136基于由通信部142获取到的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与处理器122以及由处理器122执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
数据储存部148包括定义机器人100的各种动作的动作储存部160。
各种动作文件从服务器200的动作储存部232下载到机器人100的动作储存部160。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手106、通过使两个前轮102反转或仅使单侧的前轮102旋转来使机器人100作出旋转行为、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种驱动器(驱动机构120)的动作定时、动作时间、动作方向等。
数据处理部136包括:识别部156、动作控制部150以及电池余量监控部172。
机器人100的动作控制部150与服务器200的动作控制部222相互配合,协作地决定机器人100的动作。可以是部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以由机器人100来决定动作,但在机器人100的处理负荷高时也可以由服务器200来决定动作。也可以由服务器200来决定基础动作,并由机器人100来决定追加动作。根据机器人系统300的规格来设计在服务器200和机器人100中如何分担动作的决定处理即可。
机器人100的动作控制部150与服务器200的动作控制部222一起决定机器人100的移动方向。可以由服务器200来决定基于行为地图的移动,并由机器人100的动作控制部150来决定躲避障碍物等的即时移动。驱动机构120按照动作控制部150的指示来驱动前轮102,由此使机器人100前往移动目标地点。
机器人100的动作控制部150向驱动机构120指示执行所选择的动作。驱动机构120根据动作文件来控制各驱动器。
动作控制部150既能在亲密度高的用户接近时,执行抬起双手106的动作作为求“抱抱”的举动,也能在厌倦了“抱抱”时通过在收起左右前轮102的状态下交替反复进行反向旋转和停止来表现厌恶拥抱的动作。驱动机构120按照动作控制部150的指示来驱动前轮102、手106、头部(头部框架316),由此使机器人100表现出各种各样的动作。
电池余量监控部172监控电池118的电池余量。电池余量在0~100%之间变化。详情将在后文加以说明,当电池余量达到下限值,例如为20%时,动作控制部222使机器人100前往充电器。此外,当电池余量达到上限值,例如为80%时,动作控制部222指示从充电器脱离。
机器人100的识别部156(对象检测部)对由内部传感器128获取的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、以及触觉识别(触觉部)。
识别部156通过内置摄像头(内部传感器128)来定期拍摄外界,检测人、宠物等移动物体。这些特征被发送给服务器200,服务器200的人物识别部214提取出移动物体的身体特征。此外,也检测用户的气味、用户的声音。气味、音(声)通过已知的方法被分类为多个种类。
在机器人100受到强冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的应对识别部228识别出邻近的用户作出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,服务器200的应对识别部228可以识别出对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱起”。可以感应用户提起主体104时的物理接触,也可以通过施加给前轮102的负荷降低来识别拥抱。
服务器200的应对识别部228识别用户对机器人100的各种应对。各种应对行为中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
包括检测、分析、判定的一系列的识别处理既可以仅通过服务器200的识别部212来进行,也可以仅通过机器人100的识别部156来进行,还可以双方分工来执行上述识别处理。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使针对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以改变表现“对场所的喜爱”的行为地图中经历愉快/不愉快行为的地点的z值。例如,在客厅经历了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到愉快行为而越来越喜欢客厅这样的正反馈效果。
服务器200的人物识别部214根据由外部传感器114或内部传感器128获取的各种数据来检测移动物体,并提取其特征(身体特征和行为特征)。然后,基于这些特征来对多个移动物体进行集群分析。作为移动物体,不仅是人类,有时狗、猫等宠物也会成为分析对象。
机器人100定期进行图像拍摄,人物识别部214根据这些图像来识别移动物体,并提取移动物体的特征。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,在移动物体被拍摄入图像时,会提取出长胡子、在清晨活动、身穿红衣、香水味、声音大、戴眼镜、穿裙子、白发、个子高、胖、肤黑、在沙发上等各种特征。
如果长胡子的移动物体(用户)经常在清晨活动(早起)且不常穿红衣服,则能得出早起且长胡子且不怎么穿红衣服的集群(用户)这样的第一简档。另一方面,在戴眼镜的移动物体常穿裙子但该移动物体不长胡子的情况下,能得出戴眼镜且穿裙子但绝对不长胡子的集群(用户)这样的第二简档。
以上只是简单设例,但通过上述的方法,会形成与父亲对应的第一简档和与母亲对应的第二简档,机器人100会知道这个家至少有两位用户(主人)。
不过,机器人100不需要识别第一简档为“父亲”。归根结底,只要能识别出“长胡子且常早起且很少穿红衣服的集群”这样的人物形象即可。
在完成这种集群分析的状态下,机器人100会重新识别移动物体(用户)。
此时,服务器200的人物识别部214根据得自机器人100的图像等传感信息来进行特征提取,并通过深度学习(多层神经网络)来判断机器人100附近的移动物体对应于哪个集群。例如,在检测到长胡子的移动物体时,该移动物体是父亲的概率较高。如果该移动物体在清晨行动,更能确定其为父亲。另一方面,在检测到戴眼镜的移动物体时,则该移动物体也有可能是母亲。如果该移动物体不长胡子,由于既不是母亲也不是父亲,因此判定为是未进行过集群分析的新人物。
可以同时并行地执行基于特征提取的集群形成(集群分析)、和伴随特征提取的向集群的套用(深度学习)。
根据被移动物体(用户)施以怎样的行为,对用户的亲密度会发生变化。
机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定较高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
实际的机器人100会按照行为地图来自主进行复杂的行为选择。机器人100会在基于寂寞程度、无聊程度、好奇等各种参数而受到多个行为地图的影响的同时作出行为。当排除了行为地图的影响时,或者当处于行为地图的影响小的内部状态时,原则上讲,机器人100会接近亲密度高的人,远离亲密度低的人。
机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的集群
机器人100通过接近用户(以下,称为“接近行为”)并且进行预先定义为对人示好的举动的爱意举动来强烈地表达亲昵之情。
(2)亲密度比较高的集群
机器人100仅进行接近行为。
(3)亲密度比较低的集群
机器人100不进行特别的动作。
(4)亲密度特别低的集群
机器人100进行逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离该用户。通过这样的控制方法,能行为表现出“认生”。此外,在出现客人(亲密度低的用户A)时,机器人100有时也会远离客人而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为客人的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A作出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,寻求满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响到了亲密度的行为。此外,在设置于门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
图7是负荷表170的数据结构图。
服务器200的动作控制部222以及机器人100的动作控制部150所选择的动作的处理负荷各不相同。这里所说的处理负荷是表示动作的执行成本的概念,例如,通过一个动作中包括的单位动作的数量、动作的复杂度、用于执行动作的驱动器的数量、驱动器的动作量、动作的执行时间、用于执行动作的耗电量(能量)等进行定义。处理负荷大的动作(以下,称为“高负荷动作”)多为活跃的动作,处理负荷小的动作(以下,称为“低负荷动作”)多为保守的动作。
高负荷动作可列举出例如边摇头边旋转、高速蛇行行进等复杂的动作。低负荷动作可列举出例如点头、就座等简单的动作。
在本实施方式中,对各动作以1~100的范围预先设定了处理负荷的评估值(以下,称为“负荷值”)。负荷值既可以由动作的设计者来设定,也可以基于耗电量等的实测值来设定。
负荷表170定义动作与处理负荷(负荷值)的对应关系。负荷表170储存在服务器200的动作储存部232以及机器人100的动作储存部160双方中。动作控制部222等参照负荷表170,通过后述的方法选择动作。
根据图7,将动作ID=C01的动作(以下,记为“动作(C01)”)的负荷值即处理负荷的大小的评估值设定为“20”。另一方面,动作(C02)的负荷值为“10”。这意味着,动作(C01)需要2倍于动作(C02)的能量。根据选择哪个动作,每单位时间的耗电量会发生变化。
图8是动作选择表180的数据结构图。
动作选择表180定义各种事件发生时应执行的动作。机器人100在事件发生时,从多种动作中选择一个以上的动作。动作选择表180储存在服务器200的动作储存部232以及机器人100的动作储存部160双方中。“事件”作为机器人100执行动作的契机即事象被预先定义。视觉识别到主人时、被主人抱住时、被踢时、规定时间以上未视觉识别到任何人时等,事件的内容是任意的。
参照图8,在事件J1中,动作(C01)~动作(Cx)分别与选择概率建立对应。例如,在事件J1发生时,动作控制部222不选择动作(C01),而是以0.1%的概率选择动作(C02)。在事件J2发生时,动作控制部222以0.1%的概率选择动作(C01),以0.4%的概率选择动作(C02)。
动作选择表180中的选择概率不是固定值。动作控制部222根据电池118的电池余量等随时改变选择概率。当动作选择表180的选择概率被更新时,更新后的动作选择表180被下载到机器人100。
例如,当电池余量为50%以下时,也可以将高负荷的动作(C01)的选择概率减半,当电池余量为30%以下时,也可以将动作(C01)的选择概率进一步减半。另一方面,当电池余量为50%以下时,也可以将低负荷动作(C04)的选择概率变为1.2倍,当电池余量为30%以下时,也可以将其选择概率进一步变为1.2倍。
电池余量越少,越抑制高负荷动作的执行,由此能延长机器人100的活动时间。即使在没有发生特殊事件时,动作控制部222也可以按照规定的选择概率来选择动作。在该情况下,也根据电池余量来改变动作的选择概率。根据这样的控制方法,能表现出在电池余量多时活跃,而在电池余量少时变得老实的行为特性。
在电池余量少时,动作控制部222也可以选择高负荷动作。例如若SOC在35~40%之间,可以暂时将高负荷动作(C01)的选择概率设为3倍。通过这样的控制,能表现出虽然受电池余量的影响,但并非只根据电池余量的具有意外性的行为特性。
假定存在某两个动作,一方是较高负荷的动作,另一方是较低负荷的动作。假定高负荷动作的选择概率为Y1,低负荷动作的选择概率为Y2。假定Y1/Y2=p。理想的是,当电池余量为某一阈值以下时,与其大于该阈值时相比p变小。至少,从统计上来看,当电池余量少时,与其他时候相比,高负荷动作的选择概率降低、或者低负荷动作的选择概率上升即可。
也可以定义选择概率不受电池余量影响的事件(以下,称为“优先事件”)。优先事件定义为主人到家、出门、小偷、火灾等紧急状态等行动的重要性高的事件即可。动作控制部222既可以设定为在发生了优先事件时,不根据电池余量来改变与该优先事件建立了对应的一个以上的动作的选择概率,也可以设定为在发生了优先事件时,必须执行特定的动作。
可以根据电池余量的绝对值来变更动作的选择概率,在本实施方式中,根据消耗计划数据与电池余量的差值来变更动作的选择概率。接着,对消耗计划数据进行说明。
图9是表示消耗计划数据与动作选择的关系的示意图。
计划设定部240如上所述设定决定耗电速度的消耗计划数据。当电池余量为下限值E1以下时,动作控制部222使机器人100移动至充电器进行充电。当电池余量为上限值E2(>E1)以上时,动作控制部222使机器人100从充电器脱离。如此,在电池118的电池余量为E1~E2范围内时,机器人100离开充电器进行活动。换言之,电池118的电池余量在E1~E2范围内的期间是机器人100的活动时间。
一小时计划182是充电完成后,从上限值E2至下限值E1耗电一小时的计划。三小时计划184是进行耗电三小时的计划。在一小时计划182中,充电完成后,半小时后的电池余量为F2,一小时后电池余量达到下限值E2。机器人100的活动时间为一小时。另一方面,在三小时计划184中,充电完成后,半小时后的电池余量为F3(>F2),三小时后电池余量达到下限值E2。机器人100的活动时间为三小时。
在消耗计划中,耗电速度不必固定。例如,可以开始时先降低耗电速度,中途提高耗电速度。消耗计划的选择基准将在后文加以叙述。
电池余量表186表示实际的耗电速度。在采用一小时计划182的情况下,与一小时计划182相比,电池余量表186的耗电速度慢。在该情况下,动作控制部222使高负荷动作的选择概率上升。例如,在充电完成后,计算半小时后的电池余量的预定值F2与实际的电池余量值F1之差,在该差值为规定阈值以上时,动作控制部222将高负荷动作(C01)的选择概率变更为2倍。不限于动作(C01),只要使高负荷动作的选择概率上升,使低负荷动作的选择概率下降即可。通过这样的设定变更,高负荷动作容易被选择执行,而低负荷动作容易被选择执行,因此能减小一小时计划182与电池余图表186之差。即,通过促进机器人100进行活跃的行为,实现按照一小时计划182的耗电。
在采用三小时计划184的情况下,与三小时计划184相比,电池余量表186的耗电速度过快。在该情况下,动作控制部222使高负荷动作的选择概率下降。在充电完成后,计算半小时后的电池余量的预定值F2与实际的电池余量值F3之差,为了消除F3-F2之差,动作控制部222可以使高负荷动作(C01)的选择概率减半。不限于动作(C01),只要使高负荷动作的选择概率下降,使低负荷动作的选择概率上升即可。通过进行这样的设定变更,高负荷动作不易被选择执行,而低负荷动作容易被选择执行。通过抑制机器人100的活动量,实现按照三小时计划184的耗电。
根据以上的控制方法,在设定为一小时计划182时,机器人100的活动时间短,但容易选择活跃的行为,在设定为三小时计划184时,机器人100变得老实,但活动时间变长。因此,能根据消耗计划数据的选择来控制机器人100的活动性。此外,还具有能根据消耗计划数据来管理机器人100的耗电量的优点。
图10是消耗计划选择表188的示意图。
活动监控部242记录机器人100的动作履历。并且,计算每单位时间的活动量。例如,如果在某单位时间内执行了动作(C01)、动作(C02)以及动作(C03),则该时间的负荷值合计为33(=20+10+3:参照图7)。消耗计划选择表188将负荷值的合计值定义为“活动量”,并设定活动量与消耗计划数据的对应。
根据消耗计划选择表188,在活动量为200以上时,计划设定部240选择消耗计划(D01),在活动量为160以上且小于200时,计划设定部240选择消耗计划(D02)。例如,在15时10分充电完成时,计划设定部240根据过去的动作履历求出从15时10分到16时10分的活动量的平均值。然后,若过去10天从15时10分到16时10分的每小时的平均活动量为155,则计划设定部240选择消耗计划(D03)。
计划设定部240在活动量多的时间段设定活动量多但活动时间短的消耗计划数据,并在活动量少的时间段设定活动量少但活动时间长的消耗计划数据。在图10的情况下,消耗计划(D01)的活动时间最短,消耗计划(D07)的活动时间最长。
在选择了活动时间短的消耗计划时,机器人100活跃地行动。此外,在机器人100与主人的互动越多时,活动量越容易增多。这是为了与主人的应对行为对应地设定各种事件。事件发生频率越高,动作选择次数越多。特别是,对于与机器人100的接触等主动的互动,机器人100作出各种各样的反应。
当有主人在时,特别是有很多主人在时,活跃地活动,并在活动量增多的时间段选择与之相应的消耗计划数据。此外,在活动量少的时间段,选择耗电速度慢的消耗计划数据。在谁都没在看机器人100的时间段、不主动关心机器人100的时间段,机器人100变得老实,在机器人100受到关注的时间段,机器人100活跃地行动来讨主人们开心。
在不被关注的时间段,机器人100抑制活动既是不打扰主人的贴心行为,也有助于节电。机器人100与主人的视觉识别、接触、打招呼等事件对应地选择各种动作。机器人100的识别部156在检测到主人、宠物等移动物体时,使活跃的动作换言之高负荷动作的选择概率上升,使低负荷动作的选择概率下降。以使至少两个动作中高负荷动作的选择概率与低负荷动作的选择概率的比率变高的方式进行设定变更即可。
活动量既可以根据各动作的负荷值来计算,也可以根据每单位时间的耗电量来计算。
虽然在消耗计划选择表188中,将活动量与消耗计划建立对应,但也可以将时间段与消耗计划建立对应。根据这样的设定方法,能通过消耗计划选择表188来控制例如上午老实而晚上活跃之类的基于时间段的活动量。此外,动作控制部222也可以设定半夜必须充电等充电定时。
图11是表示处理负荷与选择概率的关系的示意图。
非专利文献1表明通过可穿戴传感器测量人的活动的结果是,人的行为选择具有统计规律性(参照非专利文献1的P27)。测量了人每分钟的身体运动次数,50次/分钟这种动作平稳的时间多,表现剧烈动作的时间非常少。而且,在动作的剧烈程度与选择这种动作的概率之间发现了稳定的关系。人们认为人按照自己的意图、想法自由地决定着自己的行为,但其行为选择的集合有着不可思议的规律性。也许正是遵循这种规律性的行为特性才能称为“生物式行为特性”。
本实施方式的机器人100通过将这样的规律性应用于动作选择,使其行为特性越发“生物式”。
图11的纵轴是对数轴,表示选择概率的累积概率。横轴是各动作的处理负荷。基本活动图表(graph)190表示动作与其选择概率(累积概率)的关系。根据基本活动图表190,显示出在一天中,执行处理负荷G1以上的动作的时间段为1/8。换言之,在一天的7/8中只选择小于处理负荷G1的动作。直截了当地说,高负荷动作不易被选择执行,而低负荷动作容易被选择执行。
如上所述,动作控制部222与各种事件对应地选择机器人100的动作。按照动作选择表180来确定选择多个动作中的哪一个。动作选择表180的选择概率不是固定值。动作控制部222根据电池余量,更严格来说,根据电池余量与消耗计划的比较结果来适当变更动作选择表180的选择概率。党实际的电池余量偏离消耗计划中的预定值时,动作控制部222为了消除该偏离而变更选择概率。而且,其变更方法遵循图11所示的基本活动图表190的规律性。
例如,在电池余量比基于消耗计划的预定值多时,动作控制部222提高高负荷动作的选择概率,换言之,提高活跃动作的选择概率。此时,动作控制部222从基本活动图表190选择变更为高活动图表192,并变更各动作的选择概率以与高活动图表192对应。高活动图表192也维持直线性,因此能维持生物式且自然的行为特性。在高活动图表192中,执行处理负荷G2(>G1)以上的动作的时间段为一天中的1/8。活动量比基本活动图表190多。
另一方面,在电池余量比基于消耗计划的预定值少时,动作控制部222减少高负荷动作的选择概率。动作控制部222从基本活动图表190设定变更为低活动图表194,并变更各动作的选择概率以与低活动图表194对应。在低活动图表194中,执行处理负荷G3(<G1)以上的动作的时间段为一天中的1/8。活动量比基本活动图表190少。
活动监控部242参照动作履历,计算哪个事件每天发生几次。基于各事件的发生概率和与该事件建立了对应的各动作的选择概率,来模拟计算各动作每天的选择次数。例如,假定每天平均发生10次事件A,每天平均发生7次事件B。假定与事件A对应的动作X的选择概率为5%,与事件B对应的动作X的选择概率为10%。在该情况下,动作X每天的选择次数为1.2(=10×0.05+7×0.10)次。对各动作同样地计算选择次数。
接着,比较各动作的选择次数与基本活动图表190,并通过蒙特卡罗法等已知的优化方法求出各动作的选择概率,使其成为与基本活动图表190一致的选择概率分布。同样地,设定与高活动图表192以及低活动图表194对应的选择概率分布。预先准备与基本活动图表190、高活动图表192以及低活动图表194对应的动作组的选择概率集,并对消耗计划与电池余量进行比较,同时选择基本活动图表190、高活动图表192以及低活动图表194即可。
根据以上的控制方法,能兼顾基于图11所示的生物规律性的动作选择和基于消耗计划的动作选择。
图12是表示充电过程中发生了优先事件时的处理过程的流程图。
若不在充电过程中(S10的否),则跳过以后的处理。在充电过程中(S10的是),在充电完成时(S12的是),动作控制部222使机器人100从充电器脱离(S14)。充电完成是电池余量超过上限值E2(参照图9)时。
当在充电未结束时(S12的否)发生了优先事件的情况下(S16的是),机器人100选择与优先事件建立了对应的动作(S18)。另一方面,在未发生事件时、所发生的事件不是优先事件时(S16的否),继续充电。
如上所述,优先事件是主人到家、出门等重要事件。在设置于玄关的外部传感器114检测到其监控区域内有人时,机器人100移动到玄关进行迎接。一旦进入充电模式,机器人100就不动,但在发生了主人到家之类的重要事件时,即使充电未结束,也执行迎接行为。
在发生了优先事件时,不管是否处于充电过程中、电池余量是多还是少,动作控制部222都进行与优先事件对应的动作选择。不会被电池余量过度限制,会实现与优先事件准确对应的行为特性。
即使在检测到到家的情况下,也可以根据检测到的人的亲密度来判断是否为优先事件。例如,在亲密度为规定阈值以上的主人到家时,动作控制部222将其视为优先事件并指示迎接行为。另一方面,也可以在亲密度小于规定阈值的主人到家时,不将其视为优先事件。
以上,基于实施方式对机器人100以及包括机器人100的机器人系统300进行了说明。
通过一个以上的行为地图表现出了无法模式化、难以预测且生物式的行为选择。
与生物同样,机器人100不仅根据行为地图,还根据各种事件来改变行为。根据本实施方式,当电池余量多时,机器人100活跃地活动。另一方面,当电池余量减少时,机器人100变得老实。因此,能实现电池余量成为机器人100的活力源这样的行为表现。能给予充电这种机械处理与睡眠、饮食相近的印象。
通过根据消耗计划数据来控制机器人100的活动量,能控制应该活动的时间段和应该老实的时间段。这也有助于机器人100的节电。
人类为了活动需要睡眠和饮食。人类即使在睡眠中、饮食中、或者因睡眠不足而疲劳时,只要发生重要事件就会作出行动。机器人100为了活动需要充电。本实施方式中的机器人100也是即使在充电中、或者电池余量不多时,只要发生了优先事件就会作出行动。通过这样的控制,能使机器人100对于不应过度受电池余量限制的行为具有灵活性。
在与主人进行互动时,机器人100频繁地执行各种动作,因此耗电也大。当耗电速度变得比消耗计划快时,机器人100很难选择高负荷动作。因此,与人在一起时很活跃,但之后当人不在时,机器人100迅速变得老实。能实现虽然和人玩耍很开心,但过度玩耍会疲劳这样的行为表现。
活动监控部242记录机器人100的动作履历,这对于观察机器人100的生活模式也是有效的。例如,具有如下优点:通过观察傍晚老实、星期六活跃地活动等信息,能在机器人100身上再次看到人类的生活模式。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人系统300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协同控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图6中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来掌握。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人系统300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人系统300。服务器200的很多功能将来也有可能会集成至机器人100。
在本实施方式中,基于负荷表170来选择机器人100的动作。除此之外,既可以仅在电池余量为规定范围内时选择特定的动作,反之也可以从选择对象中排除特定的动作。
作为动作选择算法的变化方法,也可以通过置换、省略构成动作的单位动作的一部分来改变动作的处理负荷。在本实施方式中,动作的处理负荷是固定的,通过改变动作的选择概率来进行与电池余量等对应的动作选择。也可以在将动作的选择概率固定的状态下直接变更动作的处理负荷。例如,通过追加、省略单位动作来改变动作的处理负荷即可。既可以调整动作的间隔,也可以调整驱动器的速度。有时只要降低驱动器的速度就能降低处理负荷。
通过这样的控制方法,能实现电池余量越少,低负荷动作越容易被执行,高负荷动作越不易被执行的行为特性。
当电池余量比消耗计划少时,机器人100变得老实,但是,反之,也可以设为即使电池余量变少时也要暂时使机器人100的活动量上升。如此,可以确保机器人100的行为意外性,而不过度被电池余量限制。
消耗计划除了可以基于活动量、时间段来进行变更以外,还可以基于季节、假日还是工作日、气温、气候等来进行变更。
当人不在时,即使电池余量未达到下限值E1,机器人100也可以进行充电。也可以调整为:在没人看着时主动充电,由此使活动时间和与人在一起的时间重合。
基本活动图表190可以按每个机器人100来设定。可以设定为:热闹的家庭里的机器人100容易选择高活动图表192,安静的家庭里的机器人100容易设定为低活动图表194。通过按每个机器人100来改变基本活动图表190,能使机器人100的行为特性具有个性。
通过灵活运用动作履历,能预测机器人100未来的活动量。例如,即使电池余量比消耗计划少,但在进入不易发生事件的时间段时,即使不抑制活动量也可能会遵守消耗计划。如此,动作控制部222也可以基于电池余量和消耗计划的未来的预测值来进行动作选择。
机器人100在被主人呼唤时,若电池余量为阈值E3以上,则前往主人的身边。若电池余量小于阈值E3但为阈值E4(<E3)以上,则可以在第一次呼唤时不作出反应,而在第二次呼唤时作出反应。若电池余量小于阈值E4但为阈值E5(<E4)以上,则可以仅限于被大声呼唤的情况下作出反应。可以考虑像这样当电池余量减少时行动就会变迟钝的行为特性。可以根据与主人的亲密度,来设定阈值E3、E4、E5。
同样地,电池余量越少,既可以将驱动器的动作量下降得越低,也可以将对行为地图的灵敏度下降得越低。
在本实施方式中,以通过前轮102以及后轮103进行移动的机器人100为对象进行了说明,但本发明也能应用于双足步行机器人、四足步行机器人等步行式机器人。特别是对于驱动器多而进行多种动作的机器人,应用本发明的价值特别高。
[动作模式]
图13是变形例1中的机器人系统300的功能框图。
在变形例1的机器人系统300中,数据处理部136除了包括动作控制部150、识别部156以及电池余量监控部172以外,还包括眼生成部250、眼显示部252以及模式选择部254。眼生成部250生成眼部图像(后述)。眼显示部252在眼睛110上显示眼部图像。模式选择部254选择机器人100的“动作模式”。关于动作模式将在后文加以叙述。此外,驱动机构120包括各种驱动器256。在此,驱动器256是与图2等关连地说明的各种驱动器的总称。动作控制部150向驱动器256发送动作信号,对驱动器256进行驱动。根据动作信号,指定驱动器256的旋转或者移动的方向、速度、量。
图14是眼部图像174的外观图。
机器人100的眼睛110作为显示眼部图像174的显示器而形成。眼生成部250生成包括瞳部图像164和周边图像168的眼部图像174。眼生成部250还会动态显示眼部图像174。具体而言,通过使瞳部图像164移动来表现机器人100的视线。此外,在规定的定时执行眨眼动作。眼生成部250依据各种动作模式来表现眼部图像174的多样的活动。眼显示部252在眼睛110的显示屏上显示生成的眼部图像174。理想的是显示屏与人类的眼球同样具有曲面形状。
瞳部图像164包括瞳孔区域258和角膜区域162。此外,瞳部图像164还显示用于表现外部光的映入的反射光(catch light)166。眼部图像174的反射光166不是因外部光的反射而发亮的区域,而是通过眼生成部250表现为高亮度区域的图像区域。
眼生成部250能使瞳部图像164在显示屏中上下左右移动。当机器人100的识别部156识别到移动物体时,眼生成部250生成使瞳部图像164朝向移动物体的所在方向的动作模式(动面数据)。眼显示部252根据该动作模式来改变眼部图像174的显示,由此表现出机器人100的“注视”。
眼生成部250不仅能使瞳部图像164相对于周边图像168相对移动,还能通过显示眼睑(eyelids)图像,来表现半睁眼、闭眼。眼生成部250既可以通过闭眼显示来表现机器人100睡着的样子,也可以在用眼睑图像覆盖了负荷表170的四分之三后,晃动眼睑图像,由此来表现机器人100处于半睡状态,就是说处于瞌睡的状态。
图15是动作模式的转变图。
动作模式大致分为“通常模式M1”和“省电模式M2”。省电模式M2还包括“观察模式M21(第一模式)”和“睡眠模式M22(第二模式)”。省电模式M2是比通常模式M1更抑制耗电量的动作模式。因此,与通常模式M1时相比,机器人100在省电模式M2时活动量被抑制而变得老实。与通常模式M1时相比,动作控制部150可以在省电模式M2下限制向驱动器256的供电。动作控制部150可以在省电模式M2下限制作为控制对象的驱动器256的种类或者数量,也可以将连接单位动作的间隔(上述)设定得比通常模式M1时长。动作控制部150可以参照负荷表170,将处理负荷(负荷值)为规定值以上的动作,换言之将耗电量大的动作从选择对象中排除。动作控制部150可以在省电模式M2下对机器人100的移动速度设定限制。
以下,假设如下的情况进行说明:在通常模式M1下机器人100可移动,而在省电模式M2下机器人100不可移动。
在省电模式M2中,在观察模式M21下,眼生成部250能改变眼部图像174。此外,在观察模式M21下,动作控制部150能驱动头部框架316(头部)。但是,动作控制部150无法驱动前轮102来使机器人100行进。在观察模式M21下,机器人100虽然不动,但处于注视人或其他机器人100、宠物等移动物体的行为方式,换言之,机器人100处于虽然不动但监控/观察周边的行为方式。观察模式M21与“清醒着但在休息的状态”对应。
在省电模式M2中,在睡眠模式M22下,眼生成部250闭着眼睑,显示就要睡着的眼部图像174。动作控制部150使所有的驱动器256停止运转。如后所述,在睡眠模式M22下,有时也停止向处理器122的供电,但维持向眼睛110的显示屏的供电。睡眠模式M22与“睡着的状态”对应。
在变形例1的省电模式M2下,机器人100停止移动,因此与通常模式M1相比,耗电量被抑制。在睡眠模式M22下所有的驱动器256停止运转,因此,与观察模式M21相比耗电量被进一步抑制。在变形例1中,动作控制部150在睡眠模式M22下暂停处理器122。具体而言,不仅使处理器122的时钟停止,还停止向处理器122的供电。处理器122的执行状态保存在内存中,维持向内存(存储装置124)的供电。在此所说的暂停与普通个人计算机中执行的暂停方法相同。可以通过独立于处理器122的控制电路来实现暂停和从暂停恢复。
根据这样的控制方法,在机器人100从活跃状态(通常模式M1)变为老实状态(观察模式M21),进而达到仿佛要睡着的状态(睡眠模式M22)时,硬件(电子电路)的活动水平也能联动地下降。换言之,能实现当降低硬件的活动水平时,机器人100的意识水平下降的行为表现。在其他变形例中,在从观察模式M21到睡眠模式M22之间,可以进行表现昏昏欲睡状态的动作。
当在通常模式M1下“第一转变条件”成立时,模式选择部254将动作模式从通常模式M1变更为观察模式M21(S1)。第一转变条件任意定义即可。例如,可以设为:每单位时间的耗电量为规定阈值以上时、电池118(二次电池)的电池余量为规定阈值以下时、或者识别部156通过摄像头等传感设备未在周边检测到移动物体(人、宠物、其他机器人100)的状态持续了第一时间T1以上时,第一转变条件成立。
当在观察模式M21下“第二转变条件”成立时,模式选择部254将动作模式从观察模式M21变更为睡眠模式M22(S2)。第二转变条件任意定义即可。例如,可以设为:电池118(二次电池)的电池余量为规定阈值以下时、从状态转变至观察模式M21之后经过了规定时间以上时、识别部156未检测到移动物体的状态持续了第二时间T2(>T1)以上的情况下,第二转变条件成立。
当在省电模式M2下发生了“恢复事件”时,模式选择部254将动作模式从省电模式M2变更为通常模式M1(S3)。恢复事件定义有“第一恢复事件”和“第二恢复事件”两种。当发生了第一恢复事件时,无论是在观察模式M21和睡眠模式M22中的哪种模式下,模式选择部254都从省电模式M2恢复到通常模式M1。当观察模式M21时发生了第二恢复事件时,模式选择部254从省电模式M2(观察模式M21)恢复到通常模式M1。但是,即使在睡眠模式M22时发生了第二恢复事件,模式选择部254也不变更动作模式。
第一恢复事件定义为使“睡眠中(与睡眠模式M22对应)”的机器人100“清醒(与通常模式M1对应)”的事件。具体而言,在检测到第一音量V1以上的声音、检测到对机器人100的触摸时,可以视为发生了第一恢复事件。
第二恢复事件定义为使“观察中(与观察模式M21对应)”的机器人100恢复到通常状态(与通常模式M1对应),但不至于使“睡眠中(与睡眠模式M22对应)”的机器人100清醒的事件。即,理想的是,第二恢复事件定义为对机器人100的“感觉”的影响比第一恢复事件小的事件。具体而言,在检测到第二音量V2(≤V1)以上且小于第一音量V1的声音、通过识别部156检测到移动物体时,可以视为发生了第二恢复事件。此外,除了视觉、听觉、触觉以外,还可以将气味、温度变化的感知定义为恢复事件。不管怎样,恢复事件是在机器人100的外部环境中发生并且能由与机器人100的视觉、听觉、触觉、嗅觉对应的传感器检测到的事件即可。
专用的动作(以下,称为“启动动作”)分别与多种恢复事件建立对应。当在睡眠模式M22下发生了第一恢复事件X1时,动作控制部150执行与第一恢复事件X1对应的启动动作Y1。例如,当发生了“从背后打招呼”这样的第一恢复事件时,动作控制部150可以通过执行使机器人100的前轮102上下移动的启动动作,来进行“突然被打招呼而吓了一跳”这样的行为表现。对于第二恢复事件也同样地定义了各种启动动作。
作为启动动作,除此之外,还可以考虑从就座状态伸出前轮102而起立、颤动主体104、使头部框架316或主体104旋转而向恢复事件发生的方向转身、眨动眼部图像174、抖动手106等。
恢复事件与启动动作无需一对一地固定建立对应。如图8的动作选择表180所示,可以为一个恢复事件对应多个启动动作,动作控制部150可以按照选择概率来选择启动动作。通过恢复事件和启动动作的多样化,能实现例如在观察周围时因被打招呼而接近、在睡着时因被大声叫醒受到惊吓而逃跑、在观察模式M21时装作没有注意到被打招呼等多样的行为表现。
[动作限制]
当电池118的电池余量为基准值以下时,动作控制部150限制各部分的驱动器256的动作(以下,称为“动作限制”)。动作限制具体而言可以是对驱动器256的动作范围(例如,可旋转角度)以及动作速度设定限制值。既可以是对多个驱动器256中的可工作的驱动器256的数量或者种类进行限制,也可以是使连接单位动作的间隔比平时长。既可以对驱动器256的动作量,换言之对驱动器256的输出进行限制,也可以对供应给驱动器256的电力,换言之对驱动器256的输入进行限制。需要说明的是,动作限制也可以是将动作模式从通常模式M1变更为省电模式M2(观察模式M21)。
动作控制部150可以在电池余量小于规定值例如30%时,每隔固定时间降低供应给驱动器256的电力总量。动作控制部150可以在电池余量小于30%时,通过将消耗计划数据从一小时计划182变更为三小时计划184来抑制耗电,随之表现出机器人100的活动的平静化。动作控制部150可以按每个驱动器来设置动作限制。例如,在歪头时会随外皮314的变形而产生抗力,因此随着歪头的角度变大,抗力增加,需要较大的耗电量。根据经验,抗力会以某个角度为界限急剧增大。可以将该界限作为运转角度的阈值,动作限制时,通过以不歪头到该阈值以上的方式进行控制,来抑制耗电量。
动作控制部150可以在电池余量的每单位时间的消耗量为规定阈值以上时,对驱动器256进行动作限制。根据这样的控制方法,能实现因在短时间内进行了剧烈运动而会由于其反作用而疲劳从而变得老实这样的行为表现。除此之外,可以在每单位时间的所有驱动器256的动作时间超过了规定阈值时、每单位时间的机器人100的移动距离超过了规定阈值时、或者对驱动器256的通电时间超过了规定阈值时,以同样的理由对一个以上的驱动器256进行动作限制。
动作控制部150可以在电池余量下降得越低时越更强程度地对驱动器256的动作进行动作限制。例如,充电率(电池余量)小于50%时,动作控制部150可以将某驱动器256的可旋转角度从180度限制为150度,并在小于30%时限制为100度。通过施加这样的限制,能实现电池余量下降得越低,机器人100的动作的“敏捷”逐渐消失这样的行为表现。
动作限制时,动作控制部150也可以优先从耗电量大的驱动器开始进行动作限制。活动前轮102的驱动器379的耗电量比活动头部的驱动器326的耗电量大。另一方面,活动手106的驱动器(未图示)的耗电量比驱动器326的耗电量小。动作控制部150在电池余量降低时,首先动作限制或者停止驱动器379,然后,动作限制或者停止驱动器326,由此可以实现分阶段的动作限制。
动作控制部150在电池余量少于规定值时,降低供应给各驱动器256的电力的总量(上限值)。动作控制部150通过将确定好的电力分配给各驱动器256,以施加了总量限制的状态控制各驱动器256。
机器人100控制多个驱动器256,行为表现出机器人100的情感、意识。某种情感能通过改变挥手幅度、速度来表现。例如,如果通过“转圈”、“左右摇头”、“挥手”来日常行为表现“喜悦”,可能即使去掉“挥手”,由“转圈”、“左右摇头”也能传达喜悦。就是说,即使构成动作的一部分动作与平常不同或者缺失,也能表达情感。
“喜悦”通过同时执行“转圈”动作、“挥手”动作、以及“左右摇头”动作来表现。在电池余量减少时,即使停止向驱动手的驱动器的供电,取消“挥手”动作,仅通过“转圈”动作和“左右摇头”动作也能表现“喜悦”。在电池余量进一步减少时,向驱动轮子的驱动器的供电也停止,可以仅通过“左右摇头”动作来表现喜悦。在电池余量进一步减少时,可以仅通过“挥手”动作、瞳部来表达喜悦。
动作控制部150在电力总量(上限值)的范围内,向各驱动器分配电力,同时表达情感。也可以将“喜悦”、“不满”、“不安”等各种情感与动作以及动作的组合建立对应。在执行与“喜悦”对应的动作这一点上,有重要的驱动器和不那么重要的驱动器。例如,可能活动头部的驱动器比活动手的驱动器更重要。在每单位时间的耗电量超过了阈值的情况或者电池余量为阈值以下的情况下,动作控制部150可以在表现“喜悦”时,停止向重要度低的驱动器例如活动手的驱动器的供电。
此外,可以不将情感表达与重要的驱动器相关联,而只对驱动器设置优先级。例如,由于头部对于机器人100进行情感表达是重要的部分,因此动作控制部150也可以不对活动头部的驱动器326限制供电。如此,除了使耗电量少的驱动器优先以外,在情感表达中也可以使重要度高的驱动器优先。
活动监控部242可以通过测定各驱动器的运转状态例如通电时间、耗电量等,将机器人的“活动量”指标化。当机器人100的每单位期间的活动量(所有驱动器的总活动量)超过了规定量时,动作控制部150可以暂时抑制机器人100的活动量。具体而言,可以停止或者减少向优先级低的驱动器、耗电量大的驱动器的供电。
[充电动作]
图16是充电站260的外观图。
充电站260是机器人100的充电器,具有容纳机器人100的内部空间。机器人100进入充电站260(充电器),摆出规定的姿势,由此开始充电。
充电站260具备:台面270;斜坡262,平滑地架设在台面270的上表面与地面F之间;以及框架264,设于台面270的周围。在台面270的中央标有在机器人100进入充电站260时作为目标的标记M。标记M是用与台面270不同的颜色着色的圆形区域。
框架264包括围绕台面270周围的装饰构件266。装饰构件266是将许多以树叶为主题的装饰片重叠而得到的,给人以篱笆的印象。在台面270的稍微偏离中心标记M的位置,设有供电用的连接端子268。
机器人100的电池余量监控部172监控电池118的电池余量。当电池余量(充电量)为规定阈值以下时,例如,当充电率为30%以下时,机器人100前往充电站260。机器人100从内置于充电站260的通信器272接收无线信号。机器人100根据无线信号,将充电站260设定为移动目标地点。
机器人100在进入充电站260时拍摄标记M,以标记M为目标控制其前进方向。进入充电站260后,连接端子268与设置在机器人100的底部的连接端子连接。由此,机器人100与充电站260的彼此的充电电路成为导通状态。
但是,可以想象如下的情况:因障碍物放置在充电站260的入口、充电站260翻倒、或者连接端子268的故障等各种理由,导致机器人100无法与充电站260正常连接。动作控制部150在将充电站260设定为移动目标地点的基础上,尝试与充电站260连接。在该尝试失败了规定次数(1次以上的任意次数)时,第一转变条件成立。即,在规定次数的连接尝试失败时,模式选择部254将动作模式从通常模式M1变更为省电模式M2。根据这样的控制方法,能防止因与充电站260的连接尝试一直失败而导致浪费电。
另一方面,当机器人100检测到移动物体特别是用户时,机器人100也可以不变更为省电模式M2,而持续进行与充电站260的连接尝试。这是因为,用户可能会清除充电站260前面的障碍物等,帮助机器人100进行充电尝试。
在机器人100前往充电站260的路径上,当识别部156检测到障碍物时,即使实际上没有发生连接尝试的失败,模式选择部254也可以使第一转变条件成立。例如,在客厅设置充电站260时,当机器人100位于客厅之外的房间,并且该房间与客厅之间的门关闭时,机器人100无法与充电站260连接。在该情况下,门是“障碍物”。此时,若周围没有人,则模式选择部254可以从通常模式M1变更为省电模式M2。
如上,在第一转变条件成立时,变形例1中的机器人100自主地将动作模式从通常模式M1变更为省电模式M2。因此,例如,通过在周围没有用户时等情况下抑制耗电,也能抓住没有违和感的定时有效而细致地节电。另一方面,如被打招呼时、检测到用户时,在极其需要应对外部环境的情况下,能从省电模式M2自动恢复到通常模式M1。特别是,只要与机器人100打招呼,就能轻易地将机器人100从省电模式M2恢复到通常模式M1。
在从省电模式M2恢复到通常模式M1时,通过执行与恢复事件建立了对应的启动动作,由于在意识水平低的状态(省电模式M2)下发生了睡醒事件(恢复事件),因此能表现出“作出无意识的反应(启动动作)了?”这样的行为特性。当在观察模式M21下检测到用户时,机器人100通过向用户挥手106并接近(启动动作),能以自然的方式从观察模式M21恢复到通常模式M1。
不限于省电模式M2之类的动作模式,也可以通过在电池118的电池余量降低时减少驱动器256的动作量(动作限制)来节电。通过各种动作限制,能行为表现出机器人100的动作的倦怠感、疲劳感,并且能实现节电。
与通常模式M1相比,在观察模式M21下,机器人100变得老实,但通过移动眼部图像174、头部框架316来作出意识到周边环境的行为表现。当在机器人100身边检测到移动物体时,眼显示部252可以通过活动眼部图像174来注视移动物体。换而言之,观察模式M21表现出虽然身体在休息但意识还在活动的状态。在睡眠模式M22下,眼睛110以及驱动器256不动,因此比观察模式M21更省电。换而言之,睡眠模式M22是表现出意识不活动的状态(睡眠状态)的动作模式。与该意识不活动的状态对应地暂停处理器122,由此能自然地使机器人100的活动水平与实际电路的活动水平同步。在睡眠模式M22下,不限于暂停,还可以执行使位于内存中的工作状态保存到硬盘中的休眠。此外,还可以通过与处理器122不同的中断电路检测恢复事件,并通过产生中断信号而使处理器122从暂停状态恢复。
当恢复事件发生时,机器人100的动作模式从省电模式M2变更为通常模式M1。此时,机器人100执行启动动作。因此,例如,通过向省电模式M2下的机器人100大声喊叫,能实现使机器人100吓一跳这样的戏弄机器人100的相处方式。另一方面,除非经过机器人100身边,否则就不会发生第一恢复事件,因此,睡眠模式M22下的机器人100不会恢复到通常模式M1。用户也许会考虑安静地行动,以免“唤醒”睡眠模式M22下的机器人100(正在打盹的机器人100)。这样也能实现一种用户关照机器人100,换言之机器人100被用户用心的相处方式。
对电池余量下降时进行动作限制的情况进行了说明。作为动作限制的契机,还可以想到除了电池余量降低以外的各种条件。在识别部156从用户那儿检测到声音命令时,例如,在检测到包括“安静点”之类的规定词汇的声音命令时,动作控制部150也可以进行动作限制。在识别部156检测到外部温度超出规定范围时,例如第一温度T1以下的“寒冷时”、第二温度T2(>T1)以上的“炎热时”,动作控制部150可以进行动作限制。此外,在机器人100的总运转时间超过了规定阈值时,即,在机器人100“老化”时,动作控制部150可以进行动作限制。
在观察模式M21下,眼生成部250可以通过使眼部图像174睁眼并左右移动瞳部图像164来表现出“清醒”并好像在观察周围的状态。就是说,在观察模式M21下,不进行对CPU资源施加高负荷的高级图像处理、识别处理,而执行慢慢移动视线来观察周围的动作。由此,能抑制耗电量,并且能表现出机器人100正在运转。另一方面,在睡眠模式M22下,眼生成部250可以通过使眼部图像174闭眼来表现“睡眠”。
机器人100的处理器122可以是主处理器和子处理器的集合体。主处理器实现数据处理部136的基本功能。另一方面,子处理器是以比主处理器低的工作电压进行工作的处理器。实现识别部156以及动作控制部150的功能的计算机程序主要在主处理器中执行。另一方面,眼生成部250、眼显示部252、模式选择部254以及电池余量监控部172等的计算负荷小的功能主要通过子处理器来实现。例如,可以通过低电压驱动型的小型计算机来实现眼生成部250等的功能。
在将动作模式从通常模式M1变更为省电模式M2时,子处理器可以使主处理器停止。例如,子处理器可以使主处理器的时钟停止。换而言之,子处理器使主处理器暂停即可。而且,通过子处理器的运算能力,眼生成部250可以使眼部图像174工作。模式选择部254在检测到恢复事件时,可以通过向主处理器施加中断来重新启动主处理器的时钟。根据这样的控制方法,在省电模式M2下,能通过耗电量少的子处理器来实现眼部图像174等的最低限度的工作。换言之,在观察模式M21下,能表现处机器人100醒来,并且能抑制耗电量。
权利要求书(按照条约第19条的修改)
1.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
电池余量监控部,监控二次电池的电池余量,
所述动作与处理负荷建立对应,
所述动作控制部参照与多个动作分别建立了对应的处理负荷以及电池余量来选择动作,改变机器人的行为特性。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据电池余量,改变多个动作的选择概率。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述动作控制部参照将机器人的动作与伴随动作的执行的处理负荷建立对应的负荷表,电池余量越少时,越高概率地选择处理负荷小的动作。
4.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的行为特性。
5.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:计划设定部,将二次电池的耗电速度设定为消耗计划数据,
所述计划设定部根据机器人的动作时间段来改变所述消耗计划数据。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:
活动监控部,记录机器人的动作履历;以及
计划设定部,将二次电池的耗电速度设定为消耗计划数据,
所述计划设定部根据所述动作履历来改变所述消耗计划数据。
7.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部以相对于动作的处理负荷确定了负相关关系的选择概率,选择机器人的动作。
8.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部在检测到移动物体时,以相对于检测时,使高处理负荷的动作的选择概率与低处理负荷的动作的选择概率之比变大的方式调整选择概率。
9.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:识别部,判定事件的发生,
所述动作控制部根据电池余量来改变与事件建立了对应的动作的选择概率。
10.根据权利要求9所述的行为自主型机器人,其特征在于,
当发生了规定的优先事件时,无论电池余量如何,所述动作控制部都选择与所述优先事件建立了对应的动作。
11.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
电池余量监控部,监控二次电池的电池余量;以及
识别部,判定事件的发生,
当充电过程中发生了规定的优先事件时,即使充电未结束,所述动作控制部也中断充电,并选择与所述规定的优先事件对应的动作。
12.根据权利要求11所述的行为自主型机器人,其特征在于,
所述规定的优先事件在检测到监控区域内有人时发生。
13.根据权利要求12所述的行为自主型机器人,其特征在于,
所述规定的优先事件在对所述监控区域内检测到的人设定的亲密度为规定阈值以上时发生。
14.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;以及
驱动机构,执行由所述动作控制部选择的动作,
当机器人的每单位时间的活动量超过了规定量时,所述动作控制部暂时抑制所述机器人的活动量。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
还具备:电池余量监控部,监控二次电池的电池余量,
所述动作控制部参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的动作选择算法。
16.一种行为控制程序,其特征在于,使计算机发挥以下功能:
监控作为机器人的动力源的二次电池的电池余量的功能;以及
参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的行为特性的功能。
17.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
在设定为省电模式的情况下,当发生了规定的恢复事件时,
所述动作选择部使用驱动器来执行与所述恢复事件建立了对应的启动动作,
所述模式选择部从省电模式变更为通常模式。
18.根据权利要求17所述的行为自主型机器人,其特征在于,
所述恢复事件是检测到声音。
19.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
当设定为省电模式时,所述模式选择部以检测到移动物体为条件,从省电模式变更为通常模式;当设定为通常模式时,所述模式选择部以未检测到移动物体为条件,变更为省电模式。
20.一种行为自主型机器人,其特征在于,具备:
多个驱动器;
动作控制部,将动作信号发送给所述多个驱动器中的每一个;以及
电池余量监控部,监控二次电池的电池余量,
当电池余量为规定阈值以下时,相比供应给被设定为第一优先级的第一驱动器的电量,所述动作控制部优先限制供应给被设定为比第一优先级低的第二优先级的第二驱动器的电量。
21.根据权利要求20所述的行为自主型机器人,其特征在于,
所述动作控制部根据电池余量,对所述驱动器的动作速度以及动作范围双方或一方设定限制值。
22.根据权利要求20所述的行为自主型机器人,其特征在于,
还具备:活动监控部,基于驱动器的运转状态来计算机器人的活动量,
当机器人的每单位期间的活动量超过了规定量时,所述动作控制部暂时抑制所述机器人的活动量。
23.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
模式选择部,选择第一模式以及第二模式中的任一模式;以及
眼生成部,根据第一模式以及第二模式来改变瞳部图像,
当第一模式下规定的转变条件成立时,所述模式选择部变更为第二模式,
所述眼生成部在第一模式下使瞳部图像移动,并在第二模式下使瞳部图像闭眼。
24.根据权利要求23所述的行为自主型机器人,其特征在于,
所述模式选择部选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,并在省电模式下,进一步选择第一模式以及第二模式中的任一模式,当省电模式下发生了第一恢复事件时,无论是在第一模式还是第二模式下,都变更为通常模式,当省电模式下发生了第二恢复事件时,若为第一模式,则变更为通常模式,当为第二模式时,维持第二模式。
25.根据权利要求24所述的行为自主型机器人,其特征在于,
包括:主处理器;以及子处理器,将工作电压设定为比所述主处理器低,
所述主处理器实现所述动作控制部的功能,
所述子处理器实现所述眼生成部的功能。
26.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
电池余量监控部,监控二次电池的电池余量;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
当二次电池的电池余量为规定阈值以下时,所述动作控制部选择外部的充电器作为移动目标地点,
当前往所述充电器的移动路径上存在障碍物时,所述模式选择部从通常模式变更为省电模式。
27.根据权利要求26所述的行为自主型机器人,其特征在于,
即使前往所述充电器的移动路径上存在障碍物时,在检测到移动物体的情况下,所述模式选择部也维持通常模式。

Claims (28)

1.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
电池余量监控部,监控二次电池的电池余量,
所述动作控制部根据电池余量来选择动作,改变机器人的行为特性。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据电池余量,改变多个动作的选择概率。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述动作控制部参照将机器人的动作与伴随动作的执行的处理负荷建立对应的负荷表,电池余量越少时,越高概率地选择处理负荷小的动作。
4.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的行为特性。
5.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:计划设定部,将二次电池的耗电速度设定为消耗计划数据,
所述计划设定部根据机器人的动作时间段来改变所述消耗计划数据。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:
活动监控部,记录机器人的动作履历;以及
计划设定部,将二次电池的耗电速度设定为消耗计划数据,
所述计划设定部根据所述动作履历来改变所述消耗计划数据。
7.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部以相对于动作的处理负荷确定了负相关关系的选择概率,选择机器人的动作。
8.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部在检测到移动物体时,以相对于检测时,使高处理负荷的动作的选择概率与低处理负荷的动作的选择概率之比变大的方式调整选择概率。
9.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:识别部,判定事件的发生,
所述动作控制部根据电池余量来改变与事件建立了对应的动作的选择概率。
10.根据权利要求9所述的行为自主型机器人,其特征在于,
当发生了规定的优先事件时,无论电池余量如何,所述动作控制部都选择与所述优先事件建立了对应的动作。
11.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
电池余量监控部,监控二次电池的电池余量;以及
识别部,判定事件的发生,
当充电过程中发生了规定的优先事件时,即使充电未结束,所述动作控制部也选择与所述规定的优先事件对应的动作。
12.根据权利要求11所述的行为自主型机器人,其特征在于,
所述规定的优先事件在检测到监控区域内有人时发生。
13.根据权利要求12所述的行为自主型机器人,其特征在于,
所述规定的优先事件在对所述监控区域内检测到的人设定的亲密度为规定阈值以上时发生。
14.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;以及
驱动机构,执行由所述动作控制部选择的动作,
所述动作控制部以相对于动作的处理负荷确定了负相关关系的选择概率,选择机器人的动作。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
还具备:电池余量监控部,监控二次电池的电池余量,
所述动作控制部参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的动作选择算法。
16.一种行为控制程序,其特征在于,使计算机发挥以下功能:
监控作为机器人的动力源的二次电池的电池余量的功能;以及
参照对二次电池的耗电速度进行定义的消耗计划数据,根据按所述消耗计划数据来预计的电池余量与实际的电池余量之差来改变机器人的行为特性的功能。
17.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
在设定为省电模式的情况下,当发生了规定的恢复事件时,
所述动作选择部执行与所述恢复事件建立了对应的启动动作,
所述模式选择部从省电模式变更为通常模式。
18.根据权利要求17所述的行为自主型机器人,其特征在于,
所述恢复事件是检测到声音。
19.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
当设定为省电模式时,所述模式选择部以检测到移动物体为条件,从省电模式变更为通常模式。
20.一种行为自主型机器人,其特征在于,具备:
多个驱动器;
动作控制部,将动作信号发送给所述多个驱动器中的每一个;以及
电池余量监控部,监控二次电池的电池余量,
当电池余量为规定阈值以下时,所述动作控制部将供应给所述多个驱动器的电力总量限制得比平时低。
21.根据权利要求20所述的行为自主型机器人,其特征在于,
所述动作控制部根据电池余量,对所述驱动器的动作速度以及动作范围双方或一方设定限制值。
22.根据权利要求20所述的行为自主型机器人,其特征在于,
按每个所述驱动器预先设定有优先级,
所述动作控制部根据优先级,选择作为供电对象的驱动器。
23.根据权利要求20所述的行为自主型机器人,其特征在于,
还具备:活动监控部,基于驱动器的运转状态来计算机器人的活动量,
当机器人的每单位期间的活动量超过了规定量时,所述动作控制部暂时抑制所述机器人的活动量。
24.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
模式选择部,选择第一模式以及第二模式中的任一模式;以及
眼生成部,根据第一模式以及第二模式来改变瞳部图像,
当第一模式下规定的转变条件成立时,所述模式选择部变更为第二模式,
所述眼生成部在第一模式下使瞳部图像移动,并在第二模式下使瞳部图像闭眼。
25.根据权利要求24所述的行为自主型机器人,其特征在于,
所述模式选择部选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,并在省电模式下,进一步选择第一模式以及第二模式中的任一模式,当省电模式下发生了第一恢复事件时,无论是在第一模式还是第二模式下,都变更为通常模式,当省电模式下发生了第二恢复事件时,若为第一模式,则变更为通常模式,当为第二模式时,维持第二模式。
26.根据权利要求24所述的行为自主型机器人,其特征在于,
包括:主处理器;以及子处理器,将工作电压设定为比所述主处理器低,
所述主处理器实现所述动作控制部的功能,
所述子处理器实现所述眼生成部的功能。
27.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;
电池余量监控部,监控二次电池的电池余量;以及
模式选择部,选择通常模式以及与通常模式相比抑制供电的省电模式中的任一模式,
当二次电池的电池余量为规定阈值以下时,所述动作控制部选择外部的充电器作为移动目标地点,
当前往所述充电器的移动路径上存在障碍物时,所述模式选择部从通常模式变更为省电模式。
28.根据权利要求27所述的行为自主型机器人,其特征在于,
即使前往所述充电器的移动路径上存在障碍物时,在检测到移动物体的情况下,所述模式选择部也维持通常模式。
CN201780042193.9A 2016-07-11 2017-07-10 活动量受控制的行为自主型机器人 Active CN109526208B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016137188 2016-07-11
JP2016-137188 2016-07-11
PCT/JP2017/025082 WO2018012446A1 (ja) 2016-07-11 2017-07-10 活動量をコントロールされる自律行動型ロボット

Publications (2)

Publication Number Publication Date
CN109526208A true CN109526208A (zh) 2019-03-26
CN109526208B CN109526208B (zh) 2021-02-02

Family

ID=60951733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780042193.9A Active CN109526208B (zh) 2016-07-11 2017-07-10 活动量受控制的行为自主型机器人

Country Status (6)

Country Link
US (2) US11579617B2 (zh)
JP (2) JP6475872B2 (zh)
CN (1) CN109526208B (zh)
DE (1) DE112017003497B4 (zh)
GB (1) GB2566881B (zh)
WO (1) WO2018012446A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930843A (zh) * 2019-10-30 2020-03-27 杭州梦栖教育咨询有限公司 一种仿真眼睛动作的控制方法及仿真眼睛
CN113199468A (zh) * 2020-01-30 2021-08-03 精工爱普生株式会社 机器人系统及控制装置
US12023814B2 (en) 2018-07-27 2024-07-02 Sony Corporation Mobile object and control method

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015114883A1 (de) * 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
JP6618455B2 (ja) * 2016-11-28 2019-12-11 日立オートモティブシステムズ株式会社 電子制御装置、車載システム、および電源制御方法
JP7139643B2 (ja) * 2018-03-23 2022-09-21 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
GB2575462B (en) * 2018-07-10 2021-10-20 Sony Interactive Entertainment Inc Apparatus, system and method of controlling a robotic device
EP3835008A4 (en) * 2018-08-08 2022-04-13 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP7480706B2 (ja) * 2018-10-30 2024-05-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN113474065B (zh) * 2019-02-15 2023-06-23 索尼集团公司 移动体、移动方法
WO2020256161A1 (ko) * 2019-06-17 2020-12-24 엘지전자 주식회사 인공지능 홈 로봇 및 그의 제어 방법
US20210331328A1 (en) * 2019-06-17 2021-10-28 Lg Electronics Inc. Artificial intelligence robot and method of controlling the same
CN110362118A (zh) * 2019-07-08 2019-10-22 长江大学 空中海面水下多机器人远程立体协同控制系统及其控制方法
DE102019213032A1 (de) * 2019-08-29 2021-03-04 navel robotics GmbH Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters
WO2021095189A1 (ja) * 2019-11-14 2021-05-20 日本電気株式会社 無人機制御装置、無人機制御システム、無人機制御方法及び記録媒体
DE102020127797B4 (de) * 2020-10-22 2024-03-14 Markus Garcia Sensorverfahren zum optischen Erfassen von Nutzungsobjekten zur Detektion eines Sicherheitsabstandes zwischen Objekten
EP4260920A1 (en) * 2020-12-10 2023-10-18 Panasonic Intellectual Property Management Co., Ltd. Robot control method and information provision method
JP2022142111A (ja) * 2021-03-16 2022-09-30 カシオ計算機株式会社 機器の電源制御装置、機器の制御方法及びプログラム
JP7287411B2 (ja) * 2021-03-16 2023-06-06 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
JP7314967B2 (ja) * 2021-03-16 2023-07-26 カシオ計算機株式会社 電子機器、ロボット、制御方法及びプログラム
EP4250522A3 (en) * 2022-03-22 2023-11-08 Casio Computer Co., Ltd. Control device, control method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001162058A (ja) * 1999-12-10 2001-06-19 Iesato Sato 自律移動型セラピー機器
JP2003071772A (ja) * 2001-08-29 2003-03-12 Daisuke Yagi 電磁誘導による充電機能を備えたロボット
CN1148281C (zh) * 1999-10-29 2004-05-05 索尼公司 机器人系统、机器人装置及机器人装置的外装
US20040225410A1 (en) * 2003-02-19 2004-11-11 Kazumi Aoyama Robot apparatus and control method thereof
CN2813032Y (zh) * 2005-06-23 2006-09-06 陈忠伟 智能机器人玩具
JP2008238383A (ja) * 2007-03-29 2008-10-09 Honda Motor Co Ltd ロボット
CN202289438U (zh) * 2011-09-09 2012-07-04 周剑 一种人车变换自主编程的遥控机器人玩具
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1092458A1 (en) * 1999-04-30 2001-04-18 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
JP2001112102A (ja) * 1999-10-05 2001-04-20 Denso Corp 移動ロボット
JP2001191275A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
CN1151016C (zh) * 1999-11-30 2004-05-26 索尼公司 机器人设备及其控制方法,和机器人性格判别方法
WO2001058649A1 (fr) * 2000-02-14 2001-08-16 Sony Corporation Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP4491912B2 (ja) * 2000-05-22 2010-06-30 ソニー株式会社 バッテリ駆動の脚式移動ロボット及びその制御方法
JP2002307354A (ja) 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2002222033A (ja) * 2001-01-29 2002-08-09 Nec Corp 省電力システム、タスク省電力処理方法、及びそのプログラム
JP2003071763A (ja) 2001-09-04 2003-03-12 Sony Corp 脚式移動ロボット
JP2003251580A (ja) * 2002-02-28 2003-09-09 Matsushita Electric Ind Co Ltd 人工目およびそれを用いたロボット
JP2003340759A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
AU2003289326A1 (en) * 2002-12-12 2004-06-30 Sony Corporation Fuel cell mounted device, and electric power supply system
WO2005002327A2 (en) 2003-06-26 2005-01-13 Pet Qwerks, Inc. Pet toy
JP2005198704A (ja) 2004-01-13 2005-07-28 Takara Co Ltd 動作玩具
EP1941411B1 (en) * 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
JP5127479B2 (ja) * 2008-01-29 2013-01-23 株式会社東芝 行動改善支援装置及び行動改善支援方法
WO2009158653A1 (en) * 2008-06-27 2009-12-30 Intuitive Automata, Inc. Apparatus and method for assisting in achieving desired behavior patterns
KR101493075B1 (ko) * 2008-12-17 2015-02-12 삼성전자 주식회사 이동 로봇의 위치 인식 장치 및 방법
KR102015307B1 (ko) * 2010-12-28 2019-08-28 삼성전자주식회사 로봇 및 그 제어 방법
JP2012220783A (ja) 2011-04-11 2012-11-12 Togo Seisakusho Corp 被介護者用ロボット装置
US20130146090A1 (en) * 2011-12-13 2013-06-13 Joseph Y. Ko Method for controlling automatic cleaning devices
US9079113B2 (en) 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus
JP5631367B2 (ja) * 2012-08-09 2014-11-26 本田技研工業株式会社 経路探索装置
KR101477179B1 (ko) * 2013-07-19 2014-12-29 삼성전자주식회사 어플리케이션의 전력 효율을 결정하고 표시하는 방법 및 단말기
JP5999065B2 (ja) * 2013-10-09 2016-09-28 トヨタ自動車株式会社 移動支援装置、移動支援方法、及び運転支援システム
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP6846684B2 (ja) * 2016-01-29 2021-03-24 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御方法、及び、プログラム
CN107437830B (zh) * 2016-05-27 2021-01-01 华硕电脑股份有限公司 自动行走装置及其控制方法
JP6780396B2 (ja) * 2016-09-13 2020-11-04 オムロン株式会社 駆動モード選択装置および駆動モード選択方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1148281C (zh) * 1999-10-29 2004-05-05 索尼公司 机器人系统、机器人装置及机器人装置的外装
JP2001162058A (ja) * 1999-12-10 2001-06-19 Iesato Sato 自律移動型セラピー機器
JP2003071772A (ja) * 2001-08-29 2003-03-12 Daisuke Yagi 電磁誘導による充電機能を備えたロボット
US20040225410A1 (en) * 2003-02-19 2004-11-11 Kazumi Aoyama Robot apparatus and control method thereof
CN2813032Y (zh) * 2005-06-23 2006-09-06 陈忠伟 智能机器人玩具
JP2008238383A (ja) * 2007-03-29 2008-10-09 Honda Motor Co Ltd ロボット
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
CN202289438U (zh) * 2011-09-09 2012-07-04 周剑 一种人车变换自主编程的遥控机器人玩具

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12023814B2 (en) 2018-07-27 2024-07-02 Sony Corporation Mobile object and control method
CN110930843A (zh) * 2019-10-30 2020-03-27 杭州梦栖教育咨询有限公司 一种仿真眼睛动作的控制方法及仿真眼睛
CN113199468A (zh) * 2020-01-30 2021-08-03 精工爱普生株式会社 机器人系统及控制装置
CN113199468B (zh) * 2020-01-30 2023-12-19 精工爱普生株式会社 机器人系统及控制装置

Also Published As

Publication number Publication date
US11579617B2 (en) 2023-02-14
JP2019107461A (ja) 2019-07-04
JP7231924B2 (ja) 2023-03-02
US20190138019A1 (en) 2019-05-09
DE112017003497T5 (de) 2019-05-02
US20230168682A1 (en) 2023-06-01
JP6475872B2 (ja) 2019-02-27
GB201900965D0 (en) 2019-03-13
WO2018012446A1 (ja) 2018-01-18
US11809192B2 (en) 2023-11-07
GB2566881A (en) 2019-03-27
GB2566881B (en) 2022-04-13
JPWO2018012446A1 (ja) 2018-07-26
DE112017003497B4 (de) 2020-12-03
CN109526208B (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN109526208A (zh) 活动量受控制的行为自主型机器人
CN109475781A (zh) 理解物理接触的行为自主型机器人
CN110024000A (zh) 使瞳部变化的行为自主型机器人
CN109070332A (zh) 行为自主型机器人以及计算机程序
CN109153127A (zh) 执行迎接行为的行为自主型机器人
CN109070330A (zh) 认生的行为自主型机器人
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
CN109414824A (zh) 穿衣服的行为自主型机器人
CN109690435A (zh) 保持自然的距离感的行为自主型机器人
CN109643126A (zh) 行为自主型机器人、服务器及行为控制程序
CN109416541A (zh) 寻求凉爽的行为自主型机器人
CN110382181A (zh) 适合机器人的关节的接头构造
CN109070364A (zh) 具有紧急停机功能的行为自主型机器人
JP2020032014A (ja) 日常生活を記録する自律行動型ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant