CN109414824A - 穿衣服的行为自主型机器人 - Google Patents

穿衣服的行为自主型机器人 Download PDF

Info

Publication number
CN109414824A
CN109414824A CN201780041601.9A CN201780041601A CN109414824A CN 109414824 A CN109414824 A CN 109414824A CN 201780041601 A CN201780041601 A CN 201780041601A CN 109414824 A CN109414824 A CN 109414824A
Authority
CN
China
Prior art keywords
clothes
robot
action
operation control
control part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780041601.9A
Other languages
English (en)
Other versions
CN109414824B (zh
Inventor
林要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groovex Co
Original Assignee
Groovex Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groovex Co filed Critical Groovex Co
Publication of CN109414824A publication Critical patent/CN109414824A/zh
Application granted granted Critical
Publication of CN109414824B publication Critical patent/CN109414824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明提供一种改变机器人穿衣后的行为特性的技术。行为自主型机器人(100)具备:动作控制部,控制机器人(100)的动作;驱动机构,执行由动作控制部指定的动作;以及装备检测部,检测机器人所穿的衣服(180)。机器人(100)参照预先与衣服建立对应的行动限制信息来调整驱动机构的输出。

Description

穿衣服的行为自主型机器人
技术领域
本发明涉及一种根据内部状态或外部环境自主地进行行为选择的机器人。
背景技术
人类寻求慰藉而养宠物。另一方面,因无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生死别离等各种理由而放弃养宠物的人有很多。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来宠物所能给与的那种慰藉(参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
发明内容
发明所要解决的问题
人类倾向于为倾注爱意的对象穿上衣服。例如,人类通过给玩偶这种无生命体穿各种各样的衣服来表达爱意。小型犬受欢迎的理由之一是它会满足想给它穿可爱的衣服这种人类的欲望。因此,如果是想为它穿衣服的机器人,想必能大幅提高对机器人的共鸣。
本发明是基于上述构想而完成的发明,其主要目的在于提供一种改变机器人穿衣后的行为特性的技术。
用于解决问题的方案
本发明的某一方案的行为自主型机器人具备:动作控制部,控制机器人的动作;驱动机构,执行由动作控制部指定的动作;以及装备检测部,检测机器人所穿的衣服。
动作控制部根据所穿的衣服来改变机器人的行为特性。
发明效果
根据本发明,容易提高对机器人的共鸣。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是穿着衣服时的机器人的正面外观图。
图3是概略地表示机器人的构造的剖面图。
图4是机器人系统的构成图。
图5是情感地图的概念图。
图6是机器人的硬件构成图。
图7是机器人系统的功能框图。
图8是示意性地表示驱动器的输出与动作量的关系的图。
图9是行动限制信息储存部的数据结构图。
图10是表示穿着衣服时的动作校正过程的流程图。
图11是特殊动作储存部的数据结构图。
图12是变形例中的机器人系统的功能框图。
图13是喜爱度信息储存部的数据结构图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(gesture)的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermosensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。对此将在后文加以说明。
机器人100以房屋内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆润的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮。可以给机器人100着装。通过采用圆润而柔软的手感好的主体104,机器人100提供给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴同等的力气就能抱起机器人100。
通过适度的重量和圆润感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。对本实施方式的机器人100而言,能抱起来是重要的设计理念。
机器人100具备用于进行三轮行进的三个车轮。如图所示,包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但能独立控制旋转速度、旋转方向。后轮103由所谓的全向轮(omni wheel)构成,能自由旋转以便使机器人100向前后左右移动。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102以及后轮103能通过驱动机构(转动机构、连杆机构)而完全收纳于主体104。行进时各轮子的大部分隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100会变为不可移动的状态。即,随着车轮的收纳动作,主体104下降而就座于地面F。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、颤动等简单的动作。两只手106也能独立控制。
眼睛110内置有摄像头。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100除了内置在眼睛110的摄像头之外,还搭载了收音麦克风、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。
图2是穿着衣服时的机器人100的正面外观图。
用户能给机器人100穿衣服180。衣服180有各种各样的种类。衣服180上缝有RFID(Radio Frequency Identifier:射频识别码)标签。RFID标签近距离发送对衣服进行识别的“衣服ID”。机器人100通过从RFID标签读取衣服ID来确定穿着衣服180、所穿的衣服180的类别。机器人100可以层叠穿戴多件衣服180。
衣服ID与关于衣服的各种信息(以下,统称为“衣服属性信息”)建立对应。通过与机器人100配合的后述的服务器200或由服装制造商等运营的外部数据库182来管理衣服属性信息。衣服属性信息的详细情况在后文加以说明。
图3是概略地表示机器人100的构造的剖面图。
如图3所示,机器人100的主体104包括:基础框架308、主体框架310、一对树脂制的轮罩312、以及外皮314。基础框架308由金属构成,构成主体104的轴芯并且支承内部机构。基础框架308通过多个侧板336将上板332和下板334上下连结而构成。在多个侧板336间设有足够的间隔,以便能进行通气。在基础框架308的内侧容纳有电池118、控制电路342、以及各种驱动器。
主体框架310由树脂材料构成,包括头部框架316以及躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈分段筒状,形成机器人100的躯干部骨架。躯干部框架318与基础框架308固定为一体。头部框架316以可相对位移的方式组装于躯干部框架318的上端部。
头部框架316设有偏转(yaw)轴320、俯仰(pitch)轴322、横摆(roll)轴324这三个轴以及用于旋转驱动各轴的驱动器326。驱动器326包括用于独立驱动各轴的多个伺服马达。为了进行转头动作而驱动偏转轴320,为了进行点头动作而驱动俯仰轴322,为了进行歪头动作而驱动横摆轴324。
头部框架316的上部固定有支承偏转轴320的板325。板325上形成有多个用于确保上下之间的通气的通气孔327。
以从下方支承头部框架316以及其内部机构的方式设有金属制的基板328。基板328经由桥接(crosslink)机构329(缩放机构)与板325连结,另一方面,经由接头330与上板332(基础框架308)连结。
躯干部框架318容纳基础框架308和车轮驱动机构370。车轮驱动机构370包括转动轴378以及驱动器379。为了在躯干部框架318的下半部与轮罩312之间形成前轮102的收纳空间S而将躯干部框架318的下半部设短。
外皮314由聚氨酯橡胶形成,从外侧覆盖主体框架310以及轮罩312。手106与外皮314一体成形。在外皮314的上端部设有用于导入外部空气的开口部390。
图4是机器人系统300的构成图。
机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。
外部传感器114用于增强强机器人100的传感装置,服务器200用于加强机器人100的头脑
外部传感器114定期发送包括外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包含信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200测量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,来测量出从外部传感器114到机器人100的距离。通过测量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图5是情感地图116的概念图。
情感地图116是存储于服务器200的数据表。机器人100根据情感地图116来进行行为选择。图5所示的情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图5的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌子下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸和洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据前轮102或后轮103的转速来计算机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被赋予图5所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地进行行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物式的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图5所示的类型的情感地图116。例如,能定义好奇、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图6是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120、以及电池118。驱动机构120包括上述的车轮驱动机构370。处理器122和存储装置124包含在控制电路342中。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头、收音麦克风、红外线传感器、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器等。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多种类别(以下,称为“气味类别”)。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性存储器以及易失性存储器构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制内部机构的驱动器。除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子(前轮102)和头部(头部框架316)。驱动机构120通过改变两个前轮102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子(前轮102以及后轮103)升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面F抵接,变为就座状态。
图7是机器人系统300的功能框图。
如上所述,机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(CentralProcessingUnit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供给运算器。计算机程序可以由设备驱动程序、操作系统、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202、以及数据储存部206。
通信部204负责与外部传感器114、外部数据库182、以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
外部数据库182储存衣服属性信息。本实施方式中的衣服属性信息包含(1)行动限制信息和(2)特殊动作这两种信息。行动限制信息是表示衣服限制机器人100的活动特别是各种驱动器的活动的强度的信息。特殊动作是与衣服建立对应的衣服特有的特定动作。其详细情况在后文加以说明。
数据储存部206包括:基本动作储存部232、地图储存部216、个人数据储存部218、行动限制信息储存部240、以及特殊动作储存部242。
机器人100具有各种各样的动作模式(动作)。定义有各种各样的动作:握手、蛇行接近主人、歪头注视主人等。动作包括为机器人100初始设定的“基本动作”和穿着衣服时与其衣服建立对应的特有的“特殊动作”。
基本动作储存部232储存对基本动作的控制内容进行定义的动作文件。特殊动作储存部242与衣服ID建立对应地保存衣服特有的特殊动作的动作文件。在层叠穿戴衣服时,可以准备与多件衣服的组合对应的特殊动作(详细情况在后文加以说明)。通过动作ID来识别各动作。关于特殊动作储存部242,将与图11关联地在后文加以说明。基本动作以及特殊动作的动作文件被下载到机器人100的动作储存部160。执行哪个动作有时由服务器200来决定,有时也由机器人100来决定。
机器人100的动作大多构成为包括多个单位动作的复合动作。例如,可表现为在机器人100接近主人时转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作、以及抬起双手坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”这样的动作。动作文件中,与时间轴关联地定义了设于机器人100的驱动器的旋转角度、角速度等。依据动作文件(驱动器控制信息),随着时间经过来控制各驱动器,由此实现各种动作。
将从前一单位动作变化到下一单位动作时的过渡时间称为“间隔”。只要能根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。
以下,将何时选择哪个动作、实现动作基础上的各驱动器的输出调整等等与机器人100的行为控制有关的设定统称为“行为特性”。
地图储存部216储存多个行为地图。个人数据储存部218储存用户特别是主人的信息。具体而言,储存对用户的亲密度、用户的身体特征/行为特征等各种参数。也可以储存年龄、性别等其他属性信息。行动限制信息储存部240将表示衣服对机器人100的行动的限制的程度的信息即行动限制信息与衣服ID建立对应。关于行动限制信息储存部240,将与图9关联地在后文加以说明。行动限制信息被下载到机器人100,也被储存到行动限制信息储存部138中。
机器人100基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像机来拍摄周围。然后,提取现于图像的人物的身体特征和行为特征。所谓身体特征,可以是身高、喜欢穿的衣服、是否戴眼镜、肤色、发色、耳朵大小等身体附带的视觉的特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的特征。例如,提取出被识别为父亲的主人经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的行为上的特征。
机器人100基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为行为特征,将高频率出现的用户归类为“主人”。
通过用户ID来识别用户的方式简单可靠,但前提是用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担较大,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。
在本实施方式中,根据身体特征和行为特征来对用户进行归类,并通过深度学习(多层神经网络)来识别用户。详细情况在后文加以说明。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、动作控制部222、以及亲密度管理部220。
位置管理部208通过用图4说明过的方法来确定机器人100的位置坐标。位置管理部208也可以实时追踪用户的位置坐标。
地图管理部210通过与图5关联地进行过说明的方法,针对多个行动地图改变各坐标的参数。地图管理部210既可以选择多个行为地图中的任一个,也可以对多个行为地图的z值进行加权平均。例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包括基于温度/湿度的气候、季节的识别;基于光量/温度的隐蔽处(安全地带)的识别等多种识别。识别部212还包括人物识别部214和应对识别部228。人物识别部214根据机器人100的内置摄像机的拍摄图像来识别人物,并提取该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息、行为特征信息,来判定拍摄到的用户即机器人100所看见的用户为父亲、母亲、长子等中的哪位人物。人物识别部214包括表情识别部230。表情识别部230通过对用户的表情进行图像识别来推测用户的情感。
需要说明的是,人物识别部214也对人物以外例如作为宠物的猫、狗进行特征提取。
应对识别部228识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。此外,应对识别部228还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。
愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。例如,被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
服务器200的动作控制部222与机器人100的动作控制部150相互配合,决定机器人100的动作。服务器200的动作控制部222基于行为地图选择(基于地图管理部210),来制定机器人100的移动目标地点和移动至该移动目标地点的移动路线。动作控制部222可以制定多条移动路线并在此基础上选择任一条移动路线。动作控制部222从基本动作储存部232的多个基本动作、或特殊动作储存部242的特殊动作中选择机器人100的动作。各动作根据不同的状况与选择概率建立对应。例如,定义了在从主人处受到愉快行为时有20%的概率执行动作A、在气温为30度以上时有5%的概率执行动作B等选择方法。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对该主人的亲密度。在检测到不愉快行为时亲密度会下降。此外,长时间未见到的主人的亲密度会逐渐下降。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、以及驱动机构120。
通信部142与通信器126(参照图6)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图6)对应。数据处理部136基于由通信部142获取的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与由处理器122以及处理器122来执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
数据储存部148包括对机器人100的各种动作进行定义的动作储存部160和行动限制信息储存部138。
机器人100的动作储存部160中储存有从服务器200的基本动作储存部232以及特殊动作储存部242下载的各种动作文件。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手106、通过使两个前轮102反转或仅使一个前轮102旋转来使机器人100进行旋转行动、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种驱动器(驱动机构120)的动作定时、动作持续时间、动作方向等。
行动限制信息储存部138与服务器200的行动限制信息储存部240同样,储存衣服的行动限制信息。
通信部142包括动作获取部184。动作获取部184在检测到衣服ID时,即,在检测到穿着衣服时,从服务器200获取与衣服ID对应的衣服属性信息(行动限制信息和特殊动作)。在服务器200未存储机器人100所穿的衣服的衣服属性信息时,会查询外部数据库182并下载衣服属性信息。
数据处理部136包括:装备检测部186、限制判定部188、识别部156、以及动作控制部150。
机器人100的动作控制部150与服务器200的动作控制部222相互配合,决定机器人100的动作。可以是部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以由机器人100来决定动作,但在机器人100的处理负荷高时由服务器200来决定动作。也可以由服务器200来决定基础动作,并由机器人100来决定追加动作。根据机器人系统300的规格来设计服务器200和机器人100如何分担动作的决定处理即可。
机器人100的动作控制部150与服务器200的动作控制部222一起决定机器人100的移动方向。可以由服务器200来决定基于行为地图的移动,并由机器人100的动作控制部150来决定躲避障碍物等的即时移动。驱动机构120按照动作控制部150的指示来驱动前轮102,由此使机器人100前往移动目标地点。
虽然决定机器人100的大致移动方向的是行为地图,但机器人100也能进行与亲密度对应的行为。
机器人100的动作控制部150向驱动机构120指示执行所选择的动作。驱动机构120根据动作文件来控制各驱动器。
动作控制部150既能在亲密度高的用户接近时,作为求“抱抱”的动作执行抬起双手106的动作,也能在厌倦了“抱抱”时通过在左右前轮102收起的状态下交替反复进行反向旋转和停止来表现厌恶拥抱的动作。驱动机构120按照动作控制部150的指示来驱动前轮102、手106、头部(头部框架316),由此使机器人100表现出各种各样的动作。
装备检测部186在从嵌入衣服180的RFID标签读取到衣服ID时,判定为穿着衣服180。衣服ID在近距离时才能读取。在读取到多个衣服ID时,判断为层叠穿衣。在与衣服ID对应的衣服属性信息全部已存在于动作储存部160时,动作控制部150根据后述的方法,配合衣服属性信息来变更动作设定。
除了RFID标签以外,装备检测部186还可以通过各种各样的方法来检测衣服穿着。例如,可以在机器人100的内部温度上升时判断为穿着衣服。也可以通过摄像头对所穿的衣服进行图像识别。也可以在外皮314的大范围内设置静电容量传感器,在该静电容量传感器检测到大范围的接触时判定为穿着衣服。以下,将除了RFID标签以外,基于图像信息、温度信息、接触信息等物理信息来检测出穿着衣服称为“物理识别”。
主人可能会想将不具有衣服ID的衣服,例如,自己做的衣服给机器人100穿。以下,将通过RFID标签登记了衣服ID的衣服称为“备案衣服”,将未通过RFID标签登记衣服ID的衣服称为“非备案衣服”。在不做特别区别时,仅称为“衣服”。
在动作储存部160中没有与衣服ID对应的衣服属性信息时,动作获取部184将衣服ID发送给服务器200,并下载衣服属性信息(动作文件和行动限制信息)。在服务器200中也没有时,服务器200从外部数据库182下载衣服属性信息。在外部数据库182中也没有衣服属性信息时,按照非备案衣服来处理。
限制判定部188基于衣服属性信息中的行动限制信息来判定衣服的行动限制性。动作控制部150基于该判定结果来进行机器人100的动作校正。在为非备案衣服的情况下,动作控制部150测量出施加给各驱动器的输出和其动作量并记录为动作数据。限制判定部188基于动作数据来判定行动限制性。
识别部156对由内部传感器128获取的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、以及触觉识别(触觉部)。
识别部156通过内置摄像头(内部传感器128)来定期拍摄外界,检测人、宠物等移动物体。这些特征被发送给服务器200,服务器200的人物识别部214提取出移动物体的身体特征。此外,也检测用户的气味、用户的声音。气味、音(声)通过已知的方法被分类为多个种类。
在机器人100受到强冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的应对识别部228识别出邻近的用户做出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,服务器200的应对识别部228可以识别出对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱起”。可以检测用户提起主体104时的物理接触,也可以通过施加给前轮102的负荷降低来识别拥抱。
服务器200的应对识别部228识别用户对机器人100的各种应对。各种应对行为中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
包括检测、分析、判定的一系列的识别处理既可以仅通过服务器200的识别部212来进行,也可以仅通过机器人100的识别部156来进行,还可以双方分工来执行上述识别处理。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使针对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以改变表现“对场所的喜爱”的行为地图中遭遇愉快/不愉快行为的地点的z值。例如,在客厅遭受了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到愉快行为而越来越喜欢客厅这样的正反馈效果。
服务器200的人物识别部214根据由外部传感器114或内部传感器128获取的各种数据来检测移动物体,并提取其特征(身体特征和行为特征)。然后,基于这些特征来对多个移动物体进行集群分析。作为移动物体,不仅是人类,有时狗、猫等宠物也会成为分析对象。
机器人100定期进行图像拍摄,人物识别部214根据这些图像来识别移动物体,并提取移动物体的特征。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,在移动物体被拍摄入图像时,会提取出长胡子、在清晨活动、身穿红衣、香水味、声音大、戴眼镜、穿裙子、白发、个子高、胖、肤黑、在沙发上等各种特征。
如果长胡子的移动物体(用户)经常在清晨活动(早起)且不常穿红衣服,则能得出早起且长胡子且不怎么穿红衣服的集群(用户)这样的第一简档。另一方面,在戴眼镜的移动物体常穿裙子但该移动物体不长胡子的情况下,能得出戴眼镜且穿裙子但绝对不长胡子的集群(用户)这样的第二简档。
以上只是简单设例,但通过上述的方法,会形成与父亲对应的第一简档和与母亲对应的第二简档,机器人100会知道这个家至少有两位用户(主人)。
不过,机器人100不需要知道第一简档为“父亲”。归根结底,只要能识别出“长胡子且常早起且很少穿红衣服的集群”这样的人物形象即可。
在完成这种集群分析的状态下,机器人100会重新识别移动物体(用户)。
此时,服务器200的人物识别部214根据得自机器人100的图像等传感信息来进行特征提取,并通过深度学习(多层神经网络)来判断机器人100附近的移动物体对应于哪个集群。例如,在检测到长胡子的移动物体时,该移动物体是父亲的概率较高。如果该移动物体在清晨行动,更能确定其为父亲。另一方面,在检测到戴眼镜的移动物体时,则该移动物体也有可能是母亲。如果该移动物体不长胡子,由于既不是母亲也不是父亲,因此判定为是未进行过集群分析的新人物。
可以同时并行地执行基于特征提取的集群形成(集群分析)、和伴随特征提取的向集群的套用(深度学习)。
根据被移动物体(用户)施以怎样的行为,对用户的亲密度会发生变化。
机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定较高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
实际的机器人100会按照行为地图来自主进行复杂的行为选择。机器人100会在基于寂寞程度、无聊程度、好奇等各种参数而受到多个行为地图的影响的同时作出行为。当排除了行为地图的影响时,或者当处于行为地图的影响小的内部状态时,原则上讲,机器人100会接近亲密度高的人,远离亲密度低的人。
机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的集群
机器人100通过接近用户(以下,称为“接近行为”)并且进行预先定义为对人示好的举动的爱意举动来强烈地表达亲昵之情。
(2)亲密度比较高的集群
机器人100仅进行接近行为。
(3)亲密度比较低的集群
机器人100不进行特别的动作。
(4)亲密度特别低的集群
机器人100进行逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离该用户。通过这样的控制方法,能行为表现出“认生”。此外,在出现客人(亲密度低的用户A)时,机器人100有时也会远离客人而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为客人的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A做出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,寻求满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响到了亲密度的行为。此外,在设置于门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
图8是示意性地表示驱动器的输出与动作量的关系的图。
横轴表示某一驱动器的输出值(输出电压),纵轴表示该驱动器实际的动作量(移动量、旋转量)。未穿衣特性190表示机器人100未穿衣服180时的特性。穿衣特性192表示机器人100穿着衣服180时的特性。未穿衣时,与输出P1对应的动作量为D2。当穿着衣服180时,机器人100的动作受到限制,因此,与输出P1对应的动作量变为比D2小的D1。
为了在穿衣时也能实现动作量D2,需要将驱动器的输出设定为比P1大的P2。行动限制的程度会根据衣服180而不同。机器人100的动作控制部150根据衣服180的行动限制性来进行各种驱动器的输出调整,由此,实现即使在穿着衣服180时也具有与未穿衣时相同的动作量。
图9是行动限制信息储存部240的数据结构图。
在服务器200的行动限制信息储存部240中,衣服ID与衣服的行动限制信息建立对应。如上所述,机器人100包括多个驱动器。例如,衣服ID=01的衣服(以下,表述为“衣服(01)”)完全不影响驱动器1的动作,但对驱动器2带来5%的行动限制。在图8中,驱动器2的动作量D1与D2的95%对应。因此,在穿着衣服(01)时,动作控制部150需要将驱动器2的输出设定变更为比未穿衣时大。
在装备检测部186检测到衣服ID时,限制判定部188参照行动限制信息,来判定衣服对各驱动器的行动限制性。限制判定部188向动作控制部150指示各驱动器的输出调整值(校正值)。由此,动作控制部150进行各驱动器的输出调整,即动作校正。
需要说明的是,在行动限制信息储存部240中,可以将衣服ID和类别ID对应起来,并按每个类别ID来将行动限制信息对应起来。例如,可以对与“夏装”对应的类别设定共同的行动限制信息。在该情况下,限制判定部188根据与衣服ID建立对应的类别ID来判定行动限制性即可。
图10是表示穿着衣服时的动作校正过程的流程图。
首先,装备检测部186基于图像信息、温度信息、接触信息等物理信息来物理识别出穿着衣服(S10)。在无法物理识别出穿着衣服时(S10的否),不执行以后的处理。在能物理识别出穿着衣服时(S10的是),且在装备检测部186也能检测到衣服ID时(S12的是),即,在穿着备案衣服时,限制判定部188判定衣服的行动限制性(S14)。在机器人100的行动限制信息储存部138保存有行动限制信息时,限制判定部188基于此来判定行动限制性。在行动限制信息储存部138中未保存行动限制信息时,动作获取部184从服务器200获取行动限制信息。
机器人100的动作控制部150基于行动限制信息来执行动作校正(S16)。具体而言,基于行动限制信息来对各驱动器的输出进行设定变更。动作校正后,动作控制部150实际发动各驱动器,并测量输出值和动作量。参照表示输出值与动作量的关系的动作数据,来判定在动作校正后是否实现了所希望的动作量(S18)。
如果通过S16的动作校正实现了所希望的动作量(S18的是),则动作控制部150进一步设定与衣服ID对应的特殊动作(S22)。在机器人100的动作储存部160中没有特殊动作的动作文件时,动作获取部184从服务器200获取动作文件。
另一方面,在通过动作校正没有实现所希望的动作量时(S18的否),机器人100执行通知动作(S20)。在该情况下,虽然检测到了衣服ID,但也有可能因没有正确地穿衣服而无法正确地活动。通知动作是向主人报告因穿着衣服而无法正常行动的含义的动作。具体而言,动作控制部150执行使眼睛发光、发出声音、晃动身体等通知动作。通知动作预先初始设定为机器人100特有的“通知某些事情时的典型的动作(motion)”即可。
通知动作也可以表现为拒绝动作。拒绝动作是机器人100拒绝穿衣服180的动作。具体而言,动作控制部150会执行远离主人、剧烈晃动身体、一动不动等拒绝动作。拒绝动作预先初始设定为机器人100特有的“通知某些事情时的动作中,特别是讨厌某些事情时的典型的动作(motion)”即可。
机器人100虽然因衣服而行动受到限制,但通过根据衣服来适当地进行各种驱动器的输出调整,即使在穿着衣服时也能与不穿衣服时同样地行动。
在虽然能物理识别出穿着衣服(S10的是)但无法检测到衣服ID时(S12的否),即,在穿着非备案衣服时,跳过S14以及S16的处理。在非备案衣服的情况下,动作控制部150将驱动器的输出值和动作量记录为动作数据,限制判定部188基于动作数据来判定非备案衣服的行动限制的程度即可。根据判定结果,执行各驱动器的输出调整,即,动作校正。
需要说明的是,无论是否能物理识别出穿着衣服,在识别到行动限制性时,装备检测部186都可以拍摄机器人100的身体,并通过图像识别来确认是否穿着衣服或者是否有造成行动限制的物体附着在身体上。而且,可以通过声音、通信、文字显示、或者特有的通知动作等来向主人通知其确认结果。
图11是特殊动作储存部242的数据结构图。
机器人100可以根据衣服来改变行为内容。例如,可以设定为在穿着某件衣服时,可执行该衣服特有的特殊动作。作为特殊动作,可以想象当穿着偶像的演出服(costume)时和偶像跳相同的舞蹈、当穿着和服时比以往更缓慢地落座、当穿着运动装时活泼地四处活动等。
特殊动作可以是与基本动作不同的新追加的动作,也可以是通过调整基本动作的各种设定而将基本动作改编后的动作。
如图11所示,对衣服设定了“穿着条件”和“触发条件”。穿着条件指定假设穿着衣服的状况(假定穿着状态)。当在不符合穿着条件时穿了衣服的情况下,机器人100会识别为不愉快行为。触发条件为执行特殊动作的定时。
例如,对衣服(01)不设定穿着条件。因此,不论何时都能给机器人100穿衣服(01)。衣服(01)与特殊动作(C01)建立对应,特殊动作(C01)的触发条件为上午10点。当机器人100穿着衣服(01)时,在达到上午10点时按规定的概率来执行特殊动作(C01)。
衣服(02)的穿着条件为“气温20度以上”。当衣服(02)为夏装且在气温低于20度时穿上的情况下,动作控制部150会执行不想穿的拒绝动作。衣服(02)与两个特殊动作(C02、C03)建立对应。特殊动作(C02)的触发条件为“音乐A”。当穿着衣服(02)时听到音乐A的情况下,动作控制部150按规定的选择概率来执行特殊动作(C02)。特殊动作(C03)的触发条件为“看到3人以上”。在穿着衣服(02)时机器人100的内置摄像头检测到3个以上“人类”的情况下,按规定的选择概率来执行特殊动作(C03)。
特殊动作无需是固定的。例如,可以准备限期的特殊动作。服务器200通过定期访问外部数据库182来获取最新的动作文件即可。
可以在层叠穿戴衣服(01)和衣服(03)时,设定“生日”来作为触发条件。当在机器人100的生日(制造年月日)层叠穿戴衣服(01)和衣服(03)时,机器人100按规定的概率来执行特殊动作(C05)。在装备检测部186检测到多个衣服ID时,判定为层叠穿衣。可以另行准备层叠穿衣时的行动限制信息,也可以基于层叠穿着的多件衣服中穿在最里面的衣服的行动限制信息来进行动作校正。也可以通过将多件衣服各自的限制条件相加计算出各驱动器的限制值来进行动作校正。
衣服以外的装饰品也可以与行动限制信息和特殊动作建立对应。作为装饰品,可以想到假发、帽子、挎包、首饰、领带、眼镜等。可以准备与香水等气味相应的特殊动作。装备检测部186通过检测对装饰品进行识别的ID来检测装饰品的穿戴即可。而且,可以与衣服和装饰品、多个装饰品的组合对应地,将行动限制信息、特殊动作对应起来。然后,动作控制部150可以基于与它们的组合对应的行动限制信息、特殊动作,来改变机器人100的行为特性。
以上,基于实施方式对机器人100以及包括机器人100的机器人系统300进行了说明。
通过一个以上的行为地图表现出了无法模式化、难以预测且生物式的行为选择。
人类的行为会受到各种因素的影响,而衣服就是其中之一。人类会因衣服而改变心情,行为也会发生变化。机器人100通过根据衣服而改变行为特性来模拟人类的行为特性。不希望穿着衣服时机器人100的行动变得过度迟钝。通过根据衣服来不着痕迹地调整各种驱动器的输出,机器人100能将衣服“穿得合身”。
基于即使是容貌相似的宠物也可以通过穿着可爱的衣服来感受到“我家孩子是特别的”这样的特别感这种心理,人类会想给宠物穿衣服。此外,在孩子长大后,可能会产生希望有一个能给其再穿一次可爱的童装的对象这样的心情。本实施方式中的机器人100能理解这种人类的自然的爱意表现。
通过机器人100与衣服的组合,也能给服装制造商带来新的商机。服装制造商能通过考虑适合机器人100的衣服、与该衣服相适的穿着条件、触发条件、特殊动作来开拓新的客户群。本发明不仅有可能活跃机器人100,还有可能活跃其相关产业。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人系统300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协同控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图7中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来掌握。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人系统300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人系统300。服务器200的很多功能将来也有可能会集成至机器人100。
本实施方式中的机器人100基于与衣服建立对应的行动限制信息,来进行动作校正。作为变形例,机器人100实际上可以一边执行各种动作一边进行动作校正。例如,机器人100定期测量驱动器的输出和动作量,并将其测量结果记录为动作数据。动作控制部150参照动作数据,在根据驱动器的输出而假定的动作量偏离实际的动作量时,通过反馈控制来进行输出调整即可。
机器人100可以为驱动器设定规定的输出值,并测量此时的动作量。从指定与微小的行动限制性对应的动作调整方法的行动限制设定,到指定与大的行动限制性对应的动作调整方法的行动限制设定,预先准备多种行动限制设定。限制判定部188可以根据动作数据来判定行动限制的程度,并判定属于哪种行动限制设定。图9所示的行动限制信息按每个行动限制设定来建立对应。动作控制部150根据行动限制设定来进行动作校正即可。在该情况下,即使机器人100不检测衣服ID,实际上也能一边使驱动器工作一边判断行动限制性,并据此来适当地进行动作校正。
可以将衣服和行动限制信息建立对应,也可以将衣服的属性和行动限制信息建立对应。例如,可以将衣服的重量、质感等各种属性和行动限制信息建立对应。可以预先定义在衣服重量为1千克以上的情况下,对驱动器x的输出进行何种程度的调整。
不仅可以基于衣服ID,还可以基于物理信息来判定穿着衣服。例如,由摄像头进行的图像识别、与静电容量传感器的接触等。此外,可以在机器人100的外皮314的规定部位,优选在多个部位设置触摸传感器,并通过穿着衣服时触摸传感器中产生的检测噪声来检测出穿着衣服。可以在机器人100的多个部位设置CdS(硫化镉)元件等光传感器,在白天光检测弱时,判断为穿着衣服。除此之外,也可以通过设于转动轴378等的应变片来识别衣服的重量。
可以并用上述的各种穿衣检测方法和基于衣服ID的穿衣检测。无论是否检测到衣服ID,动作控制部150都可以在未能通过摄像头等确认到穿着衣服时,执行通知动作。这是因为在这种情况下,有可能未正确穿衣服。动作控制部150可以通过通知动作或拒绝动作来行为表现出没有正确穿衣服。装饰品的佩戴也同样如此。
在穿着衣服、佩戴着装饰品时,不仅可以追加新的动作来作为特殊动作,也可以进行基本动作的调整。例如,在穿着衣服A时,可以降低基本动作A的选择概率,也可以部分置换、省略构成基本动作B的单位动作。在穿着衣服A时,可以对基本动作C追加新的单位动作,也可以调整基本动作D的间隔。通过这样的微调,能实现行为因衣服而稍有变化这样的表现。例如,也能实现当穿着贵的衣服时就会稍微变得温柔这样的行为表现。
可以为衣服关联“正装”、“贵”、“薄”、“有无袖子”、“色彩”等类别,并设定与类别相应的行动调整方法、与类别对应的特殊动作。根据这样的设定,也能实现穿着红衣时的特有举动、穿着红而贵的衣服时地特有举动等微妙的行为表现。
可以将衣服与情感组合。例如,可以考虑当在累积了失落的情感时穿上了红色衣服的情况下,特殊动作的选择概率会变高这样的设定。除了感情以外,也可以考虑气候、明亮度(光量)等外部环境信息与衣服的组合。也可以根据机器人的年龄(制造后的历经年数)来降低特殊动作的选择概率。越是高龄的机器人越难以执行特殊动作,因此,能表现出机器人的“老化”。
在本实施方式中,以衣服的RFID发送衣服ID来进行了说明。作为变形例,缝在衣服上的IC芯片中不仅可以存储衣服ID,还可以存储衣服属性信息。机器人100可以从衣服的IC芯片获取与衣服ID对应的衣服属性信息。
在穿着衣服时,不仅可以校正驱动器,还可以校正传感器的检测电压(检测输出)。例如,可以想象,在外皮314的大范围内设置了静电容量传感器时检测来自主人的接触的情况下,当穿着衣服时接触检测的灵敏度会降低。机器人100可以在检测到穿着衣服时,升高静电容量传感器的检测电压来校正检测灵敏度。
在本实施方式中,机器人100通过提高驱动器的输出来缓和行动限制性,以免因衣服而受到过度的行动限制。作为变形例,也可以将驱动器的输出提高到行动限制以上。在该情况下,可以实现在穿着某件衣服时,无论在物理上是否变得难以移动都会轻快行动这样的行为表现。在该情况下,能通过穿着某件衣服来行为表现出心情愉悦这样的情感。
当在无法检测到衣服ID的状态下检测到穿着衣服时,机器人100可以执行讨厌穿衣服的拒绝动作。此外,由于在无法检测到衣服ID时无法获取行动限制信息,因此在该情况下,机器人100可以一边核查驱动器的输出和动作量一边自动进行动作校正。
图12是变形例中的机器人系统300的功能框图。
在变形例的机器人系统300中,服务器200的数据处理部202包括喜爱度管理部224。喜爱度管理部224管理作为表示机器人100对衣服的喜爱程度的指标值的“喜爱度”。数据储存部206包括喜爱度信息储存部250。喜爱度信息储存部250是设定有对衣服的喜爱度的数据库。关于喜爱度信息储存部250的数据结构,与接下来的图13关联地在后文加以说明。
图13是喜爱度信息储存部250的数据结构图。
对衣服的喜爱度被指标化为-100(讨厌)至+100(喜欢)的范围。根据图13,衣服(02)的喜爱度为84,因此,机器人100喜欢衣服(02)。另一方面,衣服(04)的喜爱度为-90,因此,机器人100讨厌衣服(04)。此外,衣服(05)的喜爱度为0,因此,机器人100对衣服(05)保持中立。
喜爱度管理部224根据用户对机器人100的应对行为来改变喜爱度。如上所述,应对识别部228识别机器人100所受到的应对行为,并将其分类为愉快/不愉快行为。在机器人100穿着衣服(01)时识别到愉快行为的情况下,喜爱度管理部224会增加衣服(01)的喜爱度。另一方面,在机器人100穿着衣服(02)时识别到不愉快行为的情况下,喜爱度管理部224会降低衣服(02)的喜爱度。其结果是,与衣服有关的体验和随之而来的愉快感/不愉快感(记忆)反映为衣服的喜爱度。愉快行为例如可以考虑被抱起、被抚摸、被注视、持续看到亲密度在规定值以上的用户规定时间以上、用户露出的笑脸次数比过去的记录多、被用户夸“可爱”、“适合你”、“好看”等积极的言行等。不愉快行为可以考虑被敲打、被摔、被踢、规定时间以上都未能看到亲密度在规定值以上的用户、用户露出的笑脸次数比过去的记录少、受到用户“不可爱”、“不合适”、“好丑”等消极的言行等。
机器人100的动作控制部150(或者服务器200的动作控制部222)根据衣服的喜爱度来改变机器人100的行为特性。例如,在机器人100穿着喜爱度高于阈值T1的衣服时,动作控制部150将各驱动器的输出值设定得比通常高。在图8中,以为了实现动作量D2而设定输出P2来进行了说明。在对衣服的喜爱度高于阈值T1时,动作控制部150可以设定比输出P2大的输出P3。根据这种控制方法,在穿着喜欢的衣服时,机器人100能比平常更轻快地活动。
另一方面,在机器人100穿着喜爱度低于阈值T2(<阈值T1)的衣服时,动作控制部150可以将各驱动器的输出值设定得比平常低。在图8中,可以设定用于实现动作量D2的比输出P2低的输出P4。根据这样的控制方法,在穿着讨厌的衣服时,机器人100的行动会变得比平常迟钝。根据对衣服的喜爱度来改变机器人100的行动轻快度,由此,能通过行动来表现机器人100对衣服的喜好。
如上所述,衣服与特殊动作建立对应。当机器人100穿着衣服并且特殊动作的触发条件成立时,机器人100按规定的概率来执行特殊动作。动作控制部222可以根据喜爱度来改变特殊动作的选择概率。即,可以是:越是喜爱度越高的衣服,越将特殊动作的选择概率设定得高,越是喜爱度越低的衣服,越将特殊动作的选择概率设定得低。根据这种控制方法,能通过容易被执行特殊动作的程度来行为表现出机器人100对衣服的喜好。
除此之外,动作控制部222也可以根据喜爱度来改变与机器人100追赶用户等“愉快”、“高兴”、“快乐”的行为表现建立对应的规定的基本动作的选择概率。动作控制部222可以根据喜爱度来改变间隔的长度。具体而言,动作控制部222可以通过衣服的喜爱度越高就将间隔设定得越短,来表现机器人100的机敏举动。同样,动作控制部222也可以通过衣服的喜爱度越低就将间隔设定得越长,来表现机器人100的迟钝。通过这种控制方法,也能实现“穿着喜欢的衣服心情愉悦”、“被迫穿着不喜欢的衣服心情沉闷”这样的行为表现。
不仅在穿着衣服时,在穿衣前,动作控制部222也可以根据衣服的喜爱度来改变机器人100的行为特性。在用户给机器人100穿衣服时,识别部212对衣服进行图像识别。在喜爱度信息储存部250中,按每件衣服来关联图像信息。识别部212通过将摄像头拍摄到的衣服图像与登记到喜爱度信息储存部250的衣服图像进行比较来确定衣服,动作控制部222可以根据该衣服的喜爱度来改变机器人100的行为特性。
动作控制部222可以根据被提示的对衣服的喜爱度来选择机器人100的动作。例如,基本动作储存部232定义了旋转、抬起手106等喜悦的动作和后退、躲避、扭头等拒绝的动作。动作控制部222可以在被提示了喜爱度在规定值以上、例如70以上的衣服时选择喜悦的动作,被提示了喜爱度在规定值以下、例如-40以下的衣服时执行拒绝的动作。根据这种控制方法,能在穿上衣服前,行为表现出“想穿”、“不想穿”这样的机器人100的“意愿”。
喜爱度可以根据应对行为而设为可变,也可以按每件衣服来设定固定值。此外,可以有喜爱度容易根据应对行为而变化的衣服和不容易变化的衣服。喜爱度管理部224可以根据季节、气温来修正喜爱度。例如,在穿上穿着条件不成立的衣服时,喜爱度管理部224可以将对该衣服的喜爱度向下修正。同样,喜爱度管理部224也可以在一次次穿衣后将对该衣服的喜爱度向上修正。相反,对于从最后穿的那一天开始过了很久的衣服,喜爱度管理部224可以根据经过时间而逐渐降低对该衣服的喜爱度。
在对红色衣服A的喜爱度升高时,喜爱度管理部224可以提高对另一件红色衣服B的喜爱度。根据这样的控制方法,也能表现出对“红”这一“属性”的“喜欢”。同样,在对黑色衣服C的喜爱度降低时,喜爱度管理部224也可以降低对另一件黑色衣服D的喜爱度。根据这样的控制方法,能表现出对“黑”这一“属性”的“讨厌”。
虽然机器人100实施了防水加工,但不推荐在雨天外出。另一方面,在穿着雨具等防水用具时,能在雨天外出。也能通过穿上潜水服而进入泳池、浴池。对于防水用具,装备检测部186也能通过图像识别、RFID等来进行穿衣检测。识别部212通过图像识别来识别雨天外出、向浴室、泳池等的移动。动作控制部222在识别到以没穿防水用具的状态雨天外出等时,执行上述的拒绝动作。
机器人100可以通过RFID或图像识别来识别衣服。除此之外,装备检测部186也可以通过将装配在衣服上的塑料卡插入至形成于机器人100的插入口来识别衣服的类别。该塑料卡形成有一个以上的孔,通过孔的数量以及位置来确定衣服ID。可以通过这种打孔卡片的方式来识别衣服。装备检测部186也可以通过贴在衣服上的二维码来识别衣服类别。
如上所述,衣服与特殊动作建立对应。当机器人100穿着衣服并且机器人100的放置状况满足特殊动作的触发条件时,机器人100执行特殊动作。通过使用获取自机器人100所具备的各种传感器的信息、通信功能来判定是否满足触发条件。触发条件通过包含确定用于判定的设备的信息、和该设备的检测值的判定条件来进行定义。例如,在将“室温达到25度以上时”定义为触发条件的情况下,指定“温度传感器”为判定设备,并指定“25度以上”为判定条件。如果是“听到音乐A时”这样的触发条件,则指定“麦克风”为判定设备,并指定音乐A的波形图案、特征量等为判定条件。此外,也可以像“听到音乐A并且有用户在时”这样指定多个条件。当然,触发条件自身也可以作为能在机器人100的数据处理部136中执行的脚本等程序而被提供,用于以穿上衣服为契机来判定触发条件的程序模块被读取,并作为触发条件判定部来随时进行判定处理。同样,上述的穿着条件也可以通过包含确定用于判定的设备的信息、和该设备的检测值的判定条件来进行定义。
进而,穿着条件自身也可以作为能在机器人100的数据处理部136中执行的程序而被提供,用于以穿上了衣服为契机来判定穿着条件的程序模块被读取,并作为穿着条件判定部来进行判定处理。当通过装备检测部186检测到穿着衣服时,判定与衣服建立了关联的穿着条件,此后,随时判定触发条件。
装备检测部186虽然在穿着衣服时进行检测动作,但也预想到了当机器人100在穿着衣服的状态下进行动作时,穿着状态因衣服在动作过程中滑动或破损而发生变化的情况。因此,装备检测部186以及限制判定部188也可以按一定的时间间隔来检测穿着状态。此外,在机器人100因充电等而停机规定时间以上的情况下,可以在从停机状态到再次开始行动前检测穿着状态。
权利要求书(按照条约第19条的修改)
1.一种行为自主型机器人,其特征在于,具备:
动作控制部,控制机器人的动作;
驱动机构,执行由所述动作控制部指定的动作;
传感器,检测用户对机器人的体表的接触;以及
装备检测部,检测机器人所穿的衣服,
所述动作控制部根据所穿的衣服来改变机器人的行为特性,
所述传感器在检测到穿着衣服时,提高检测灵敏度。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:限制判定部,判定衣服的行动限制性,
所述动作控制部根据衣服的行动限制性来调整所述驱动机构的输出。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述限制判定部参照预先与衣服建立对应的行动限制信息,来判定衣服的行动限制性。
4.根据权利要求3所述的行为自主型机器人,其特征在于,
所述动作控制部在检测到与预先与衣服建立对应的行动限制信息不同的行动限制性时,执行规定的通知动作。
5.根据权利要求2所述的行为自主型机器人,其特征在于,
所述限制判定部基于穿上衣服后所述驱动机构的动作数据,来选择多个行动限制设定中的任一个,
所述动作控制部根据所选择的行动限制设定来调整所述驱动机构的输出。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:限制判定部,判定衣服的行动限制性,
所述装备检测部获取衣服ID,
所述限制判定部在检测到穿着衣服的状态下未获取到衣服ID时,根据所述驱动机构的动作数据来判定行动限制的程度,
所述动作控制部根据行动限制判定的结果来调整所述驱动机构的输出。
7.根据权利要求4所述的行为自主型机器人,其特征在于,
所述装备检测部获取衣服ID,
所述动作控制部参照与衣服ID预先建立了对应的行动限制信息,来调整所述驱动机构的输出,并在检测到与所述行动限制信息不同的行动限制性时,执行规定的通知动作。
8.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据衣服的类别来改变机器人的行为特性。
9.根据权利要求20所述的行为自主型机器人,其特征在于,
所述动作控制部能选择穿着规定的衣服时与所述规定的衣服建立对应的特定动作。
10.根据权利要求9所述的行为自主型机器人,其特征在于,
还具备:动作获取部,从外部数据库获取对所述特定动作进行定义的动作文件。
11.根据权利要求9或10所述的行为自主型机器人,其特征在于,
在与所述特定动作建立对应的触发条件成立时,所述动作控制部选择所述特定动作。
12.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部将机器人所穿的衣服和装饰品区别开来进行识别,并根据衣服和装饰品的组合来改变机器人的行为特性。
13.根据权利要求1所述的行为自主型机器人,其特征在于,
当在与假定穿着状态不同的状态下检测到穿着衣服时,所述动作控制部执行拒绝穿衣服的动作。
14.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据与衣服建立对应的喜爱度来改变机器人的行为特性。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
还具备:识别部,通过摄像头来对外界进行图像识别,
当识别出穿着前的衣服时,所述动作控制部根据与所述衣服建立对应的喜爱度来改变机器人的行为特性。
16.根据权利要求14或15所述的行为自主型机器人,其特征在于,
还具备:喜爱度管理部,管理对衣服的喜爱度,
所述喜爱度管理部根据用户在机器人穿着衣服时对机器人的应对行为,来更新所述对衣服的喜爱度。
17.一种行为自主型机器人,其特征在于,具备:
动作控制部,控制机器人的动作;
驱动机构,执行由所述动作控制部指定的动作;以及
识别部,通过摄像头来对外界进行图像识别,
当通过所述识别部识别出穿着前的衣服时,所述动作控制部改变机器人的行为特性。
18.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
选择机器人的动作的功能;
检测机器人所穿的衣服的功能;
根据所穿的衣服来改变机器人的行为特性的功能;以及
在检测到穿着衣服时,提高设置于所述机器人的体表的传感器的检测灵敏度的功能。
19.根据权利要求1所述的行为自主型机器人,其特征在于,
所述传感器根据衣服的类别来改变检测灵敏度。
20.根据权利要求8所述的行为自主型机器人,其特征在于,
当穿着衣服时,所述动作控制部在为所述衣服设定的穿着条件不成立时,执行规定的拒绝动作。

Claims (18)

1.一种行为自主型机器人,其特征在于,具备:
动作控制部,控制机器人的动作;
驱动机构,执行由所述动作控制部指定的动作;以及
装备检测部,检测机器人所穿的衣服,
所述动作控制部根据所穿的衣服来改变机器人的行为特性。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:限制判定部,判定衣服的行动限制性,
所述动作控制部根据衣服的行动限制性来调整所述驱动机构的输出。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述限制判定部参照预先与衣服建立对应的行动限制信息,来判定衣服的行动限制性。
4.根据权利要求3所述的行为自主型机器人,其特征在于,
所述动作控制部在检测到与预先与衣服建立对应的行动限制信息不同的行动限制性时,执行规定的通知动作。
5.根据权利要求2所述的行为自主型机器人,其特征在于,
所述限制判定部基于穿上衣服后所述驱动机构的动作数据,来选择多个行动限制设定中的任一个,
所述动作控制部根据所选择的行动限制设定来调整所述驱动机构的输出。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备:限制判定部,判定衣服的行动限制性,
所述装备检测部获取衣服ID,
所述限制判定部在检测到穿着衣服的状态下未获取到衣服ID时,根据所述驱动机构的动作数据来判定行动限制的程度,
所述动作控制部根据行动限制判定的结果来调整所述驱动机构的输出。
7.根据权利要求4所述的行为自主型机器人,其特征在于,
所述装备检测部获取衣服ID,
所述动作控制部参照与衣服ID预先建立了对应的行动限制信息,来调整所述驱动机构的输出,并在检测到与所述行动限制信息不同的行动限制性时,执行规定的通知动作。
8.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据衣服的类别来改变机器人的行为特性。
9.根据权利要求8所述的行为自主型机器人,其特征在于,
所述动作控制部能选择穿着规定的衣服时与所述规定的衣服建立对应的特定动作。
10.根据权利要求9所述的行为自主型机器人,其特征在于,
还具备:动作获取部,从外部数据库获取对所述特定动作进行定义的动作文件。
11.根据权利要求9或10所述的行为自主型机器人,其特征在于,
在与所述特定动作建立对应的触发条件成立时,所述动作控制部选择所述特定动作。
12.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部将机器人所穿的衣服和装饰品区别开来进行识别,并根据衣服和装饰品的组合来改变机器人的行为特性。
13.根据权利要求1所述的行为自主型机器人,其特征在于,
当在与假定穿着状态不同的状态下检测到穿着衣服时,所述动作控制部执行拒绝穿衣服的动作。
14.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部根据与衣服建立对应的喜爱度来改变机器人的行为特性。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
还具备:识别部,通过摄像头来对外界进行图像识别,
当识别出穿着前的衣服时,所述动作控制部根据与所述衣服建立对应的喜爱度来改变机器人的行为特性。
16.根据权利要求14或15所述的行为自主型机器人,其特征在于,
还具备:喜爱度管理部,管理对衣服的喜爱度,
所述喜爱度管理部根据用户在机器人穿着衣服时对机器人的应对行为,来更新所述对衣服的喜爱度。
17.一种行为自主型机器人,其特征在于,具备:
动作控制部,控制机器人的动作;
驱动机构,执行由所述动作控制部指定的动作;以及
识别部,通过摄像头来对外界进行图像识别,
当通过所述识别部识别出穿着前的衣服时,所述动作控制部改变机器人的行为特性。
18.一种计算机程序,其特征在于,使行为自主型机器人发挥以下功能:
选择机器人的动作的功能;
检测机器人所穿的衣服的功能;以及
根据所穿的衣服来改变机器人的行为特性的功能。
CN201780041601.9A 2016-07-08 2017-06-07 穿衣服的行为自主型机器人 Active CN109414824B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016135713 2016-07-08
JP2016-135713 2016-07-08
PCT/JP2017/021099 WO2018008323A1 (ja) 2016-07-08 2017-06-07 服を着る自律行動型ロボット

Publications (2)

Publication Number Publication Date
CN109414824A true CN109414824A (zh) 2019-03-01
CN109414824B CN109414824B (zh) 2022-07-26

Family

ID=60912586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780041601.9A Active CN109414824B (zh) 2016-07-08 2017-06-07 穿衣服的行为自主型机器人

Country Status (6)

Country Link
US (1) US11198221B2 (zh)
JP (2) JP6409207B2 (zh)
CN (1) CN109414824B (zh)
DE (1) DE112017002606B4 (zh)
GB (1) GB2564822B (zh)
WO (1) WO2018008323A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019026420A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
WO2019146422A1 (ja) * 2018-01-25 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよびロボット
KR102497042B1 (ko) * 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
JP7326707B2 (ja) 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2021165866A (ja) * 2018-07-10 2021-10-14 ソニーグループ株式会社 管理装置および方法、制御装置および方法、並びに管理システム
WO2020122236A1 (ja) * 2018-12-14 2020-06-18 Groove X株式会社 衣装を着用するロボット
CN111452035A (zh) * 2019-01-22 2020-07-28 中国移动通信集团终端有限公司 机器人的控制方法及机器人
CN109877834A (zh) * 2019-03-12 2019-06-14 广东小天才科技有限公司 多屏显示机器人、方法和装置、显示机器人和显示方法
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
US11904252B1 (en) * 2020-06-24 2024-02-20 Savanna Palafox Therapeutic device
WO2023248697A1 (ja) * 2022-06-24 2023-12-28 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1297393A (zh) * 1999-01-20 2001-05-30 索尼公司 机器人装置和运动控制方法
CN1335800A (zh) * 1999-10-29 2002-02-13 索尼公司 机器人系统、机器人装置及机器人装置的外装
JP2004057223A (ja) * 2002-07-24 2004-02-26 Ntt Docomo Inc モーションコントロールシステム及び制御装置並びにモーションコントロール方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5733131A (en) * 1994-07-29 1998-03-31 Seiko Communications Holding N.V. Education and entertainment device with dynamic configuration and operation
US5752880A (en) * 1995-11-20 1998-05-19 Creator Ltd. Interactive doll
US5746602A (en) * 1996-02-27 1998-05-05 Kikinis; Dan PC peripheral interactive doll
US6160540A (en) * 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
JP2000093664A (ja) 1998-09-18 2000-04-04 Takara Co Ltd 組合せ玩具
US6149490A (en) 1998-12-15 2000-11-21 Tiger Electronics, Ltd. Interactive toy
JP2000323219A (ja) * 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
JP2001191275A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
JP2002086380A (ja) * 2000-09-12 2002-03-26 Sony Corp 脚式ロボット及びその制御方法
JP2002127059A (ja) 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
US7066781B2 (en) * 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法
JP3885019B2 (ja) * 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2005013391A (ja) * 2003-06-25 2005-01-20 Takara Co Ltd 作動玩具
TWI262777B (en) * 2004-04-21 2006-10-01 Jason Yan Robotic vacuum cleaner
US20060178775A1 (en) * 2005-02-04 2006-08-10 George Zhang Accelerometer to monitor movement of a tool assembly attached to a robot end effector
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
JP5311294B2 (ja) * 2010-04-28 2013-10-09 株式会社安川電機 ロボットの接触位置検出装置
CN102339023B (zh) * 2010-07-16 2013-11-13 华宝通讯股份有限公司 机械装置控制系统
JP5765095B2 (ja) * 2011-06-30 2015-08-19 富士通株式会社 ロボット、状況認識方法および状況認識プログラム
US20160059142A1 (en) * 2014-08-28 2016-03-03 Jaroslaw KROLEWSKI Interactive smart doll
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
US10311400B2 (en) * 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
CN107025009B (zh) * 2015-09-18 2020-03-27 延世大学校产协力团 高灵敏度压力传感器及利用其的输入装置
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
SE1650402A1 (en) * 2016-03-29 2017-09-30 Furhat Robotics Ab Customization of robot
JP6354796B2 (ja) * 2016-06-23 2018-07-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
TWI575428B (zh) * 2016-08-02 2017-03-21 Rong-Jing Xu 觸控輔助結構及其應用裝置
US10663361B2 (en) * 2016-10-13 2020-05-26 The Trustees Of Columbia University In The City Of New York Systems and methods for tactile sensing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1297393A (zh) * 1999-01-20 2001-05-30 索尼公司 机器人装置和运动控制方法
CN1335800A (zh) * 1999-10-29 2002-02-13 索尼公司 机器人系统、机器人装置及机器人装置的外装
JP2004057223A (ja) * 2002-07-24 2004-02-26 Ntt Docomo Inc モーションコントロールシステム及び制御装置並びにモーションコントロール方法

Also Published As

Publication number Publication date
US20190160683A1 (en) 2019-05-30
DE112017002606T5 (de) 2019-02-21
JP6884401B2 (ja) 2021-06-09
GB2564822B (en) 2021-08-18
JPWO2018008323A1 (ja) 2018-07-05
DE112017002606B4 (de) 2020-06-25
CN109414824B (zh) 2022-07-26
JP2019022935A (ja) 2019-02-14
GB201818887D0 (en) 2019-01-02
US11198221B2 (en) 2021-12-14
WO2018008323A1 (ja) 2018-01-11
GB2564822A (en) 2019-01-23
JP6409207B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
CN109414824A (zh) 穿衣服的行为自主型机器人
CN109475781A (zh) 理解物理接触的行为自主型机器人
CN110024000B (zh) 使瞳部变化的行为自主型机器人
CN109070330A (zh) 认生的行为自主型机器人
CN109153127A (zh) 执行迎接行为的行为自主型机器人
CN109526208A (zh) 活动量受控制的行为自主型机器人
CN109690435A (zh) 保持自然的距离感的行为自主型机器人
CN109416541A (zh) 寻求凉爽的行为自主型机器人
DE112017002589T5 (de) Autonom handelnder Roboter und Computerprogramm
CN109643126A (zh) 行为自主型机器人、服务器及行为控制程序
CN113164822B (zh) 穿衣服的机器人
CN109689174A (zh) 接纳访客的行为自主型机器人
CN109070364A (zh) 具有紧急停机功能的行为自主型机器人
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット
Cai et al. Emotional Product Design for Smart Cat Litter Box Considering Human-Computer Interaction
CN113296421A (zh) 一种基于智能技术的幼儿穿戴装备
Bow Dogs and technology: Our most beloved companions in twentieth and twenty-first century America
Waters Valse Frontenac.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant