CN101795831B - 机器人控制系统、机器人 - Google Patents

机器人控制系统、机器人 Download PDF

Info

Publication number
CN101795831B
CN101795831B CN2008801061537A CN200880106153A CN101795831B CN 101795831 B CN101795831 B CN 101795831B CN 2008801061537 A CN2008801061537 A CN 2008801061537A CN 200880106153 A CN200880106153 A CN 200880106153A CN 101795831 B CN101795831 B CN 101795831B
Authority
CN
China
Prior art keywords
user
information
robot
mentioned
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008801061537A
Other languages
English (en)
Other versions
CN101795831A (zh
Inventor
杉原良平
龙田成示
井场阳一
福嶋信人
河西恒春
清水秀树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of CN101795831A publication Critical patent/CN101795831A/zh
Application granted granted Critical
Publication of CN101795831B publication Critical patent/CN101795831B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

机器人控制系统具有:用户信息取得部(12),其取得通过传感器信息获得的用户信息,该传感器信息来自对用户行动进行测量的行动传感器、对用户状态进行测量的状态传感器和对用户环境进行测量的环境传感器中的至少一方;提示信息确定部(14),其根据所取得的用户信息,进行由机器人向用户提示的提示信息的确定处理;以及机器人控制部(30),其进行用于使机器人将提示信息提示给用户的控制。提示信息确定部(14)以由第1、第2机器人针对所取得的相同用户信息提示不同的提示信息的方式进行向用户提示的提示信息的确定处理。

Description

机器人控制系统、机器人
技术领域
本发明涉及机器人控制系统、机器人、程序以及信息存储介质等。 
背景技术
以往已知有识别用户(人)的声音,根据声音识别结果与用户进行会话的机器人控制系统(例如日本特开2003-66986号公报)。 
但是迄今为止的机器人控制系统都设想的是1台机器人面对1名用户进行会话的情况。因而,为实现声音的识别处理和会话处理就需要复杂的算法,实际情况下难以实现与用户之间流畅的会话。 
另外,如果按上述那样用户与机器人1对1进行交流,则还存在用户在与机器人的会话中感到封闭感而很快厌烦的问题。 
另外,在以往的机器人控制系统中没有进行反映了用户当日所进行的行动、用户过去和现在状况的机器人控制。因此,存在机器人进行了违背用户心境和状况的动作的问题。 
发明内容
根据本发明的若干方式,可提供一种能实现反映用户行动和状况的机器人控制的机器人控制系统、机器人、程序以及信息存储介质。 
本发明一个方式涉及一种用于控制机器人的机器人控制系统,其具有:用户信息取得部,其取得通过传感器信息获得的用户信息,该传感器信息来自对用户行动进行测量的行动传感器、对用户状态进行测量的状态传感器和对用户环境进行测量的环境传感器之中至少一方;提示信息确定部,其根据所取得的上述用户信息,进行由机器人提示给用户的提示信息的确定处理;以及机器人控制部,其进行用于使机器人将上述提示信息提示给用户的控制,上述提示信息确定部以由第1、第2机器人 针对所获得的相同上述用户信息提示不同的提示信息的方式进行提示给用户的提示信息的确定处理。另外,本发明的其他方式涉及使计算机作为上述各部分发挥作用的程序或存储了该程序的计算机可读取的信息存储介质。 
根据本发明的一个方式,取得通过来自行动传感器、状态传感器和环境传感器之中至少一方的传感器信息而获得的用户信息。然后,根据所取得的用户信息,进行由机器人提示给用户的提示信息的确定处理,进行用于使机器人提示提示信息的控制。而且,根据本发明,以由第1、第2机器人针对所取得的相同用户信息提示不同的提示信息的方式进行提示信息的确定处理。如果如上根据用户信息确定提示信息,则用户可以根据第1、第2机器人的提示信息,间接获悉用户过去或现在的行动、状态或环境等。另外,如果第1、第2机器人对相同的用户信息提示不同的提示信息,则可通过第1、第2机器人所提示的提示信息,间接而非直接地向用户赋予有关自身的察觉。 
另外,根据本发明的一个方式,还可以构成为上述第1机器人被设定为主动侧,上述第2机器人被设定为从动侧,设于主动侧的上述第1机器人上的上述提示信息确定部向从动侧的上述第2机器人指示对用户进行提示信息的提示。 
这样,即便不进行复杂的提示信息的分析处理,也能在错误动作较少的稳定控制之下实现第1、第2机器人的提示信息的提示。 
另外,根据本发明的一个方式,可以构成为还具有通信部,其将指示提示信息的提示的指示信息从主动侧的上述第1机器人向从动侧的上述第2机器人通信。 
这样就不必通信提示信息本身,仅通信该指示信息即可,因而可实现通信数据量的降低和处理的简化。 
另外,根据本发明的一个方式,还可以构成为上述用户信息取得部取得用户的行动履历、用户的状态履历和用户的环境履历中至少1个作为上述用户信息,上述提示信息确定部根据所取得的上述用户履历信息,进行由机器人提示给用户的提示信息的确定处理。 
这样就可以通过第1、第2机器人提示反映了用户以往的行动履历、状态履历或环境履历的提示信息,能够间接地将与自身以往的行动履历、状态履历或环境履历有关的觉察赋予给用户。 
另外,根据本发明的一个方式,还可以构成为具有事件判定部,其判定表示处于能使用机器人的状态的能使用事件的发生,上述提示信息确定部根据在上述能使用事件发生前的第1期间内取得的第1用户履历信息和在上述能使用事件发生后的第2期间内取得的第2用户履历信息,进行由机器人提示给用户的提示信息的确定处理。 
这样就可以把附加了用户在第1期间内的行动等和用户在第2期间内的行动等这两者的提示信息提示给用户。 
另外,根据本发明的一个方式,还可以构成为上述提示信息确定部使提示信息的上述确定处理中的上述第1用户履历信息的权重和上述第2用户履历信息的权重在上述第2期间发生变化。 
这样就可以逐渐改变第2期间内所提示的信息。 
另外,根据本发明的一个方式,还可以构成为上述提示信息确定部在上述能使用事件发生时增大上述确定处理中的上述第1用户履历信息的权重,减小上述第2用户履历信息的权重,此后减小上述第1用户履历信息的权重,增大上述第2用户履历信息的权重。 
这样,就可以提示与用户的行动、状况等对应的适时的信息。 
另外,根据本发明的一个方式,还可以构成为上述用户履历信息是根据来自用户的可穿戴传感器的传感器信息进行更新而获得的信息。 
这样,就可以通过来自可穿戴传感器的传感器信息更新行动履历、状态履历或环境履历,通过第1、第2机器人提示反映了所更新的这些履历的提示信息。 
另外,根据本发明的一个方式,还可以构成为上述提示信息确定部根据用户对机器人发出的提示信息的提示所作的反应,进行由机器人接下来提示给用户的提示信息的确定处理。 
这样,根据用户对提示信息的反应,接下来的提示信息会发生变化,可防止第1、第2机器人的提示信息的提示变得单调的情形。 
另外,根据本发明的一个方式,还可以构成为具有:用户特性信息存储部,其存储用户特性信息;以及用户特性信息更新部,其根据用户对机器人发出的提示信息的提示所作的反应,更新上述用户特性信息。 
这样,就可以将用户对提示信息的反应反映在用户特性信息中进行更新。 
另外,根据本发明的一个方式,还可以构成为具有接触状态判定部,其判定在机器人传感面上的接触状态,上述提示信息确定部根据上述接触状态判定部中的判定结果,判断作为用户对机器人发出的提示信息的提示所作的反应是用户进行了抚摸机器人的动作还是进行了拍打机器人的动作,进行接下来提示给用户的提示信息的确定处理。 
这样,就能够通过简单的判定处理来判断抚摸或拍打机器人的动作等用户反应。 
另外,根据本发明的一个方式,还可以构成为上述接触状态判定部通过对来自麦克风的输出信号进行运算处理而获得的输出数据,判定上述传感面上的接触状态,该麦克风设置于上述传感面的内侧。 
这样,仅使用麦克风,就能检测抚摸或拍打机器人的动作等用户反应。 
另外,根据本发明的一个方式,还可以构成为上述输出数据是信号强度,上述接触状态判定部进行上述信号强度与预定阈值的比较处理,从而判定用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作。 
这样,通过比较信号强度和阈值这样简单的处理,就能判定用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作。 
另外,根据本发明的一个方式,还可以构成为具有脚本数据存储部,其将通过多个会话短语构成的脚本数据作为上述提示信息存储起来,上述提示信息确定部根据上述脚本数据,确定机器人向用户说出的会话短语,上述机器人控制部进行用于使机器人说出所确定的会话短语的控制。 
这样,就可以使用脚本数据通过简单的控制处理实现第1、第2机器人的会话短语的说话。 
另外,根据本发明的一个方式,还可以构成为上述脚本数据存储部存储以分支结构将多个会话短语连接起来的脚本数据,上述提示信息确定部根据用户对机器人所说出的会话短语的反应,确定接下来使机器人说出的会话短语。 
这样,根据用户对机器人所说出的会话短语的反应,接下来的会话短语会发生变化,可防止第1、第2机器人的会话变得单调的情形。 
另外,根据本发明的一个方式,还可以构成为上述提示信息确定部在用户对机器人基于第1脚本数据说出的会话短语所作的反应为给定的反应时,选择不同于上述第1脚本数据的第2脚本数据,根据上述第2脚本数据确定接下来使机器人说出的会话短语。 
这样,按照用户的反应对脚本进行切换,可以实现第1、第2机器人根据与用户喜好等顺应的脚本数据进行会话。 
另外,根据本发明的一个方式,还可以构成为具有说话权控制部,其根据用户对机器人说出的会话短语的反应,控制将下一个会话短语的说话权赋予上述第1、第2机器人中哪方。 
这样,可以按照用户的反应切换说话权的赋予,因而可防止会话变得单调的情形。 
另外,根据本发明的一个方式,还可以构成为上述说话权控制部按照用户对上述第1、第2机器人中某一个机器人说出的会话短语作出了肯定的反应还是否定的反应,确定接下来将被赋予会话短语的说话权的机器人。 
这样就可以进行例如优先向用户给予了肯定反应的机器人赋予说话权等的控制。 
另外,根据本发明的一个方式,还可以构成为具有脚本数据取得部,其从多个脚本数据中取得根据上述用户信息选择的脚本数据。 
这样,可以获得与用户信息对应的脚本数据。 
另外,根据本发明的一个方式,还可以构成为上述脚本数据取得部通过网络下载根据上述用户信息选择到的脚本数据,上述提示信息确定部根据通过网络下载的脚本数据,确定机器人将对用户说出的会话短语。 
这样,就不必将所有脚本数据都存储在脚本数据存储部中,能实现存储容量的节约。 
另外,根据本发明的一个方式,还可以构成为上述脚本数据取得部取得根据当前日期时间信息、用户当前的场所信息、用户当前的行动信息和用户当前的状况信息中至少一方选择的脚本数据,上述提示信息确定部根据基于当前日期时间信息、用户当前的场所信息、用户当前的行动信息和用户当前的状况信息中至少一方选择的脚本数据,确定机器人将对用户说出的会话短语。 
这样,就可以实现与实时的用户信息对应的第1、第2机器人间的会话。 
另外,根据本发明的一个方式,还可以构成为上述脚本数据取得部取得根据用户行动履历信息和用户状态履历信息之中至少一方选择的脚本数据,上述提示信息确定部根据基于用户行动履历信息和用户状态履历信息之中至少一方选择的脚本数据,确定机器人将对用户说出的会话短语。 
这样,就可以实现与过去的用户行动履历信息或状态履历信息对应的第1、第2机器人间的会话。 
另外,根据本发明的一个方式,还可以构成为具有:用户特性信息存储部,其存储用户特性信息;以及用户特性信息更新部,其根据用户对机器人说出的会话短语的反应,更新上述用户特性信息,上述脚本数据取得部取得根据上述用户特性信息选择的脚本数据。 
这样,就可以将用户对机器人会话短语的反应反映在用户特性信息中进行更新。 
另外,本发明的其他方式涉及包含上述任一方式中所述的机器人控制系统和作为上述机器人控制系统的控制对象的机器人动作机构在内的机器人。 
附图说明
图1是用户信息的取得方式的说明图。 
图2是本实施方式的系统构成例。 
图3A~图3C是本实施方式的方法的说明图。 
图4是用于说明本实施方式的动作的流程图。 
图5是本实施方式的第2系统构成例。 
图6是本实施方式的第3系统构成例。 
图7是本实施方式的第4系统构成例。 
图8是用户履历信息的更新处理的流程图。 
图9是用户履历信息的说明图。 
图10A、图10B是用户履历信息的说明图。 
图11是本实施方式的详细系统构成例。 
图12A、图12B是说话权的控制方式的说明图。 
图13A、图13B是说话权的控制方式的说明图。 
图14是用于说明本实施方式的详细动作的流程图。 
图15是脚本数据的说明图。 
图16是基于用户反应的脚本分支方式的说明图。 
图17是基于用户反应的脚本选择方式的说明图。 
图18是基于实时用户信息的脚本选择方式的说明图。 
图19是基于实时用户信息的脚本选择方式的说明图。 
图20是基于用户履历信息的脚本选择方式的说明图。 
图21是基于用户履历信息的脚本选择方式的说明图。 
图22是基于用户履历信息的脚本选择方式的说明图。 
图23是基于用户履历信息的提示信息的确定方式的说明图。 
图24是基于用户履历信息的提示信息的确定处理的说明图。 
图25是通过第1、第2用户履历信息所选择的脚本的例子。 
图26A、图26B是接触判定方式的说明图。 
图27A、图27B、图27C是拍打时、抚摸时、朝麦克风说话时的声音波形例。 
具体实施方式
下面说明本实施方式。并且,如下说明的本实施方式并不对权利要求书中所记载的本发明内容进行不当限定。另外,本实施方式中所说明的全部构成并非本发明的必须构成要件。 
1.用户信息 
在所谓的普适服务之中,作为当前欲实现的一个方向,提出了无论何时何处都可以向用户提供必要信息的便利性提供型服务。这是一种由外部向用户单方面提供信息的服务。 
然而,人们为了度过生动而充实的生活,仅存在这种由外部向用户单方面提供信息的便利性提供型服务是不够的,期望出现一种通过对用户的精神方面产生作用,从而对用户赋予察觉(启发),其结果可促进自身成长的启发型普适服务。 
在本实施方式中,为了使用由机器人提供给用户的信息实现这种启发型普适服务,而通过来自测量用户行动、状态、环境的行动传感器、状态传感器、环境传感器的传感器信息取得用户信息。然后,根据所取得的用户信息,进行确定机器人提示给用户的提示信息(例如会话),并将所确定的提示信息提供给机器人的机器人控制。在此,首先说明该用户信息(用户的行动、状态和环境之中至少1方的信息)的取得方式。 
图1中,用户(使用者)持有便携式电子设备100(移动网关)。另外,在头部的一只眼睛附近安装着作为移动控制对象设备的可穿戴显示器140(移动显示器)。还在身体上携带了作为可穿戴传感器(移动传感器)的各种传感器。具体地,安装了室内外传感器510、周围温度传感器511、周边湿度传感器512、周边光度传感器513、手臂安装型运动测量传感器520、脉搏(心跳数)传感器521、体温传感器522、末梢皮肤温度传感器523、出汗传感器524、脚部压力传感器530、说话/咀嚼传感器540、设置于便携式电子设备100上的GPS(Global Position System:全球.衛星定位系统)传感器550、设置于可穿戴显示器140上的颜色传感器560和瞳孔大小传感器561等。通过这些便携式电子设备100、可穿戴显示器140等移动控制对象设备、可传感传感器构成了移动子系统。 
图1中,取得通过来自这种用户的移动子系统的传感器的传感器信 息而更新的用户信息(狭义而言是用户履历信息),根据所取得的用户信息进行机器人1的控制。 
便携式电子设备100(移动网关)是PDA(Personal Digital Assistant:个人数字助理)、笔记本型PC等便携信息终端,例如具有处理器(CPU)、存储器、操作面板、通信装置或显示器(副显示器)等。该便携式电子设备100例如能具有收集来自传感器的传感器信息的功能、根据所收集的传感器信息进行运算处理的功能、根据运算结果进行控制对象设备(可穿戴显示器等)的控制(显示控制等)或从外部数据库取入信息的功能、与外部进行通信的功能等。并且,便携式电子设备100还可以是兼用作移动电话、手表或便携式音响等的设备。 
可穿戴显示器140安装于用户的一只眼睛附近,并且被设定为显示器部的大小小于瞳孔大小,即作为所谓的透明观察的信息显示部发挥作用。并且,可以使用头戴式耳机、振动器等进行对用户的信息提示。另外,作为移动控制对象设备,除了可穿戴显示器140之外,例如还可设想到手表、移动电话或便携式音响等各种设备。 
室内外传感器510是检测用户处于室内还是室外的传感器,例如照射超声波,测量超声波通过天花板等发射而返回所需时间。其中,室内外传感器510不限于超声波方式,可以是有源光方式、无源紫外线方式、无源红外线方式、无源噪声方式的传感器。 
周围温度传感器511例如使用热变阻器、放射温度计、热电偶等测量外界温度。周边湿度传感器512例如利用电阻随湿度而变化的现象来测量周围湿度。周边光度传感器513例如使用光电元件测量周围光度。 
手臂安装型运动测量传感器520通过加速度传感器或角加速度传感器测量用户的手臂动作。通过使用该运动测量传感器520和脚部压力传感器530,可更正确地测量用户的日常动作、步行状态。脉搏(心跳数)传感器521安装于手腕或手指或耳朵上,例如通过红外光的透射率或反射率的变化来测量伴随脉搏跳动的血流变化。体温传感器522、末梢皮肤温度传感器523使用热变阻器、放射温度计、热电偶等测量用户体温、末梢皮肤温度。出汗传感器524例如通过皮肤的表面电阻的变化来测量 皮肤出汗。脚部压力传感器530检测足底对鞋施加压力的分布,测量、判定用户的站立状态、就座状态、步行状态等。 
说话/咀嚼传感器540是用于测量用户正在说话(会话中)还是咀嚼中(进食中)的可能性的耳带型传感器,在其壳体内置着骨传导麦克风、外界声音麦克风。骨传导麦克风检测说话/咀嚼时从体内产生且在体内传播的振动即体内声音。外界声音麦克风检测随说话而传导至体外的振动即声音和包括环境的噪声在内的外界声音。而且,通过对由骨传导麦克风、外界声音麦克风捕捉的声音的单位时间内的能量进行比较处理等,从而测量说话可能性和咀嚼可能性。 
GPS传感器550是检测用户位置的传感器。并且,也可以使用移动电话的位置信息服务或周边存在的无线LAN的位置信息来代替GPS传感器550。颜色传感器550例如是将光传感器配置在面部附近,比较通过了多个光学带通滤波器后的光度来测量颜色的。瞳孔大小传感器561例如是将相机配置于瞳孔附近,分析相机信号来测量瞳孔大小的。 
并且,图1中,通过由便携式电子设备100、可穿戴传感器等构成的移动子系统取得用户信息,也可以通过由多个子系统构成的统合系统更新用户信息,根据所更新的用户信息进行机器人1的控制。这里的统合系统例如可包含移动子系统、家庭子系统、车内子系统、公司内子系统或店内子系统等子系统。 
在该统合系统之中,在用户位于室外等的情况(移动环境的情况)下,则取得(收集)来自移动子系统的可穿戴传感器(移动传感器)的传感器信息(包含传感器2次信息),根据所取得的传感器信息更新用户信息(用户履历信息)。另外,根据用户信息等进行移动控制对象设备的控制。 
另一方面,在用户处于家中的情况(家庭环境的情况)下,取得来自家庭子系统的家庭传感器的传感器信息,根据所取得的传感器信息更新用户信息。即,在移动环境下所更新的用户信息转移到家庭环境时也会无缝更新。另外,根据用户信息等进行家庭控制对象设备(电视、音响设备、空调等)的控制。并且,家庭传感器例如是测量家庭内的气温、 湿度、光度、噪声、用户会话、进食等的环境传感器,内置于机器人中的机器人安装传感器,设置于家庭的各房间内、门等上的人检测传感器,以及设置于洗手间中的尿检查用传感器等。 
另外,当用户位于车内的情况(车内环境的情况)下,取得来自车内子系统的车内传感器的传感器信息,根据所取得的传感器信息更新用户信息。即,在移动环境或家庭环境中更新的用户信息转移到车内环境时也会无缝更新。另外,根据用户信息等进行车内控制对象设备(导航装置、车载AV设备、空调等)的控制。并且,车内传感器是测量车速、移动距离等的行驶状态传感器,或测量用户驾驶操作、设备操作的操作状态传感器,或者测量车内气温、湿度、光度、用户会话等的环境传感器等。 
2.机器人 
接着说明图1的机器人1(机器人2)的构成。该机器人1是模仿狗的宠物型机器人,通过躯干模块600、头部模块610、腿部模块620、622、624、626、尾部模块630等多个局部模块(机器人动作机构)构成。 
头部模块610设有用于检测用户的抚摸动作和拍打动作的接触传感器、用于检测用户说话的说话传感器(麦克风)、用于图像识别的摄像传感器(相机)、用于发出声音和鸣叫声的声音输出部(扬声器)。 
在躯干模块600与头部模块610之间、躯干模块600与尾部模块630之间、腿部模块620的关节部分等设有关节机构。而且这些关节机构具有电动机等致动器,由此可实现机器人1的关节运动和自主行进。 
另外,在机器人1的例如躯干模块600上设有1个或多个电路基板。而且在该电路基板上安装着:进行各种处理的CPU(处理器),存储各种数据和程序的ROM、RAM等存储器,用于机器人控制的控制IC,生成声音信号的声音生成模块,用于与外部进行无线通信的无线模块等。来自安装于机器人1上的各种传感器的信号集成于该电路基板,通过CPU等进行处理。另外,通过声音生成模块生成的声音信号从该电路基板被输出给声音输出部(扬声器)。并且,来自电路基板的控制IC的控制信号被输出给设于关节机构上的电动机等致动器,由此控制机器人1的关 节运动和自主行进。 
3.机器人控制系统 
图2表示本实施方式的系统构成例。该系统具有:用户持有的便携式电子设备100、通过本实施方式的机器人控制系统进行控制的机器人1、2(第1、第2机器人)。而且本实施方式的机器人控制系统例如可通过机器人1、2所具有的处理部10、60来实现。 
便携式电子设备100具有处理部110、存储部120、控制部130、通信部138。而且便携式电子设备100取得来自可穿戴传感器150的传感器信息。具体而言,可穿戴传感器150包含测量用户行动(步行、会话、进食、手脚动作、感情表现或睡眠等)的行动传感器、测量用户状态(疲劳、紧张、空腹、精神状态、身体状态或用户身上发生的事件等)的状态传感器、测量用户环境(场所、明亮度、气温或湿度等)的环境传感器之中至少一个传感器,便携式电子设备100取得来自这些传感器的传感器信息。 
并且,传感器既可以是传感器器件本身,也可以是除了传感器器件之外还具有控制部和通信部等的传感器设备。另外,传感器信息既可以是从传感器直接获得的传感器1次信息,也可以是对传感器1次信息进行加工处理(信息处理)而获得的传感器2次信息。 
处理部110根据来自未图示的操作部的操作信息、从可穿戴传感器150取得的传感器信息等,进行便携式电子设备100的动作等所必需的各种处理。该处理部110的功能例如可通过各种处理器(CPU等)、ASIC(门阵列等)等硬件、存储于未图示的信息存储介质(光盘、IC卡、HDD等)中的程序等实现。 
处理部110具有运算部112、用户信息更新部114。此处,运算部112进行用于对从可穿戴传感器150取得的传感器信息进行过滤处理(选择处理)和分析处理的各种运算处理。具体而言,运算部112进行传感器信息的相乘处理和相加处理。例如下式(1)所示,进行来自多个传感器的多个传感器信息的数字化后的计量值Xj、与各系数存储于系数存储部(未图示)且通过2维阵列(矩阵)表示的系数Aij的积和运算。于是如 下式(2)所示,将积和运算的结果作为多维坐标运算n维的矢量Yi。另外,i是n维空间的i坐标,j是分配给各传感器的编号。 
【数1】 
Figure GPA00001045510900131
【数2】 
Yi=A00X0+……+AijXj……+AnmXm    ……(2) 
通过进行上式(1)、(2)那样的运算处理,从而可以实现从所取得的传感器信息中去除不需要的传感器信息的过滤处理、和用于根据传感器信息鉴别用户的行动、状态、环境(TPO信息)的分析处理等。例如将与脉搏(心跳数)、出汗量、体温的测量值X相乘计算的系数A设定为比针对其他传感器信息的测量值的系数要大的值,则通过上式(1)、(2)所运算出的数值Y将会表示作为用户状态的“兴奋度”。另外,通过把与说话量的测量值X相乘计算的系数以及与脚部压力的测量值X相乘计算的系数设定为适当的值,从而可鉴别用户的行动是落座进行会话还是行进中进行会话还是静静思考还是处于睡眠状态等。 
用户信息更新部114进行用户信息(用户履历信息)的更新处理。具体而言,根据从可穿戴传感器150取得的传感器信息更新用户信息。然后将所更新的用户信息(用户履历信息)存储在存储部120的用户信息存储部122(用户履历信息存储部)中。这种情况下,如果为了节约用户信息存储部122的存储器容量,则可以在存储新的用户信息时删除旧的用户信息,将新的用户信息存储在通过删除而空出的存储区域中。或者可以对各用户信息赋予优先级(权重系数),当存储新的用户信息时, 删除优先级较低的用户信息。还可以通过对已存储的用户信息和新的用户信息进行运算,从而更新(改写)用户信息。 
存储部120为处理部110、通信部138等的工作区域,其功能可通过RAM等存储器或HDD(硬盘驱动器)等实现。存储部120所具有的用户信息存储部122存储作为用户行动、状态或环境等的信息(履历信息)的、根据所取得的传感器信息而更新的用户信息(用户履历信息)。 
控制部130进行可穿戴显示器140的显示控制等。通信部138通过无线或有线通信,在机器人1的通信部40和机器人2的通信部90之间进行用户信息等信息的传输处理。作为无线通信,可考虑使用蓝牙(Bluetooth为注册商标)或红外线那样的近距离无线或无线LAN等。作为有线通信,可考虑使用USB和IEEE1394等的技术。 
机器人1具有处理部10、存储部20、机器人控制部30、机器人动作机构32、机器人搭载传感器34、通信部40。也可以构成为省略掉其中一部分构成要素。 
处理部10根据来自机器人搭载传感器34的传感器信息和所取得的用户信息等,进行机器人1的动作等所需的各种处理。该处理部10的功能可通过各种处理器(CPU等)、ASIC(门阵列等)等硬件或存储于未图示的信息存储介质(光盘、IC卡、HDD等)的程序等来实现。即,在该信息存储介质中存储着用于使计算机(具有操作部、处理部、存储部、输出部的装置)作为本实施方式的各部分发挥作用的程序(用于使计算机执行各部分的处理的程序),处理部10根据保存于该信息存储介质的程序(数据)进行本实施方式的各种处理。 
存储部20为处理部10、通信部40等的工作区域,其功能可通过RAM等存储器或HDD(硬盘驱动器)等实现。该存储部20具有用户信息存储部22和提示信息存储部26。另外,用户信息存储部22具有用户履历信息存储部23和用户特性信息存储部24。 
机器人控制部30进行对作为控制对象的机器人动作机构32(致动器、声音输出部、LED等)的控制,其功能可通过机器人控制用的ASIC和各种处理器等硬件、程序等实现。 
具体而言,机器人控制部30进行用于使机器人把提示信息提示给用户的控制。如果提示信息是机器人的会话(脚本数据),则进行用于使机器人说出会话短语的控制。例如通过公知的TTS(Text-To-Speech:文本语音转换)处理将表示会话短语的数字文本数据转换为模拟声音信号,并经由机器人动作机构32的声音输出部(扬声器)输出。另外,当提示信息为表示机器人的感情状态的信息时,控制机器人动作机构32的各关节机构的致动器,或进行使LED点亮等的控制以表示该感情。 
机器人搭载传感器34例如为接触传感器、说话传感器(麦克风)或摄像传感器(相机)等各种传感器。机器人1根据来自该机器人搭载传感器34的传感器信息,可以监视用户对提示给用户的提示信息所作的反应。 
通信部40通过无线或有线通信,在便携式电子设备100的通信部138和机器人2的通信部90之间进行用户信息等信息的传输处理。 
处理部10具有用户信息取得部12、运算部13、提示信息确定部14、用户特性信息更新部15。也可以构成为省略掉其中一部分构成要素。 
用户信息取得部12取得通过传感器信息获得的用户信息,该传感器信息来自测量用户行动的行动传感器、测量用户状态的状态传感器和测量用户环境的环境传感器之中至少一方。 
具体而言,通过来自可穿戴传感器150的传感器信息而更新了用户信息的用户回到家中,接近机器人1、2,或将便携式电子设备100与底座连接,则机器人1、2启动。然后,在便携式电子设备100中更新的用户信息(用户履历信息)从便携式电子设备100的用户信息存储部122通过通信部138、40(通信部90),被转送到机器人1(机器人2)的用户信息存储部22(用户信息存储部72)。然后,用户信息取得部12(用户信息取得部62)从用户信息存储部22读取如上传送来的用户信息,由此取得用户信息。用户信息取得部12也可以不经由用户信息存储部22,而是直接取得来自便携式电子设备100的用户信息。 
运算部13进行对所取得的用户信息的运算处理。具体而言,在需要的情况下,进行对用户信息的分析处理和过滤处理。例如当用户信息为1 次传感器信息等的情况下,进行上式(1)、(2)中说明的运算处理,进行从所取得的传感器信息中去除不需要的传感器信息的过滤处理、和用于根据传感器信息鉴别用户的行动、状态、环境(TPO信息)的分析处理等。 
提示信息确定部14根据所取得的用户信息(运算处理后的用户信息),进行由机器人提示(提供)给用户的提示信息(会话、感情表现、行动表现)的确定处理。具体而言,以机器人1、2对所取得的相同用户信息提示不同的提示信息(不同的会话短语、不同的感情表现、不同的行动表现)的方式,进行提示给用户的提示信息的确定处理。例如,以相对于所取得的用户信息,机器人1提示第1提示信息,机器人2提示不同于第1提示信息的第2提示信息的方式,进行提示信息的确定处理。 
并且,当用户信息取得部12取得了作为用户信息的用户行动履历、用户状态履历和用户环境履历中至少一个即用户履历信息的情况下,提示信息确定部14根据所取得的用户履历信息,进行机器人提示给用户的提示信息的确定处理。此时的用户履历信息是便携式电子设备100等根据来自用户的可穿戴传感器150的传感器信息来进行更新处理而获得的信息,并且从便携式电子设备100的用户信息存储部122转送到机器人1(机器人2)的用户履历信息存储部23(用户履历信息存储部73)。另外,作为用户的行动履历、状态履历、环境履历,可以考虑到把用户的行动(步行、说话、进食等)、状态(疲劳、紧张、空腹、精神状态、肉体状态等)、环境(场所、明亮度、气温等)与日期时间等关联起来存储的信息(日志信息)。 
另外,提示信息确定部14根据用户对机器人的提示信息的提示所作的反应,进行接下来机器人提示给用户的提示信息的确定处理。具体而言,例如由机器人将提示信息提示给用户,如果用户对其作出反应,则可通过机器人搭载传感器检测到该反应。然后提示信息确定部14根据来自机器人搭载传感器34的传感器信息,判断(推测)用户的反应,根据该反应确定接下来进行提示的提示信息。 
用户特性信息更新部15进行用户特性信息的更新处理。然后将更新 后的用户特性信息存储在存储部20的用户特性信息存储部26(用户特性数据库)中。具体而言,用户特性信息更新部15根据用户对机器人的提示信息的提示作出的反应,更新用户特性信息(反应履历信息)。 
此处,用户特性信息是表示用户的兴趣和嗜好的信息,是用户的感性模型数据。例如,在本实施方式中向机器人提示用于调查用户的兴趣(例如喜好的运动、队伍)或嗜好(例如喜好的颜色、音乐)等的提示信息。然后根据用户对该提示信息的反应,学习用户的兴趣和嗜好倾向,制成作为用户的感性模型数据库的用户特性信息。 
并且,机器人2的构成与机器人1的构成相同,因此此处省略对其说明。 
4.动作 
下面说明本实施方式的动作。一般而言,用户与机器人的会话(对话)是以一位用户与一台机器人的方式通过1对1的相对关系来实现的。 
与此相对,本实施方式中如图3A所示,对一位用户准备两台机器人1、2(广义而言为多台机器人),以1对2(广义而言是1对N)的相对关系实现会话。而且,用户并非与机器人1、2直接会话,而是采取旁观并听取在机器人1、2间进行的会话的方式。 
这种情况下,通过机器人1、2间的会话而提供给用户的信息是基于通过来自可穿戴传感器150等具有的行动传感器、状态传感器、环境传感器的传感器信息而取得的用户信息来构成的。因此,用户通过在机器人1、2间进行的会话,可以间接获悉用户过去或现在的行动、用户过去或现在的状态、囊括用户在内的过去或现在的环境。 
这样,能够实现一种并非由外部单方面提供给用户信息的便利性提供型服务,而是通过在机器人1、2间进行的会话,在用户的精神方面产生作用,对用户赋予关于用户行动、状态、环境的察觉(启发)而促进自身成长的启发型普适服务。 
例如在图3A中,回到家中的用户将便携式电子设备100连接到底座101上进行充电等。图3A中,通过把便携式电子设备100连接到这种底座101上,从而判定出发生了能使用机器人1、2的事件,启动机器人1、 2使其处于能使用状态。也可以不连接到底座101上,而是判定用户与机器人1、2的接近,启动机器人1、2。例如通过无线进行便携式电子设备100与机器人1、2之间的信息转送的情况下,可以通过检测该无线强度来判定能使用机器人1、2的事件的发生。 
如果发生了这种能使用事件,则机器人1、2启动,处于能使用状态。此时在便携式电子设备100的用户信息存储部122中存储有在移动环境中更新的用户信息。图3A中,如果发生了能使用机器人1、2的事件,则将存储于用户信息存储部122中的用户信息转送到机器人1、2的用户信息存储部22、72。这样,就能根据在移动环境中更新的用户信息来控制机器人1、2。 
例如在图3A中,根据用户信息判断出用户的到家时间比平时要晚。具体而言,根据来自可穿戴传感器150的GPS传感器的场所信息和来自定时器的时间信息,测量用户每天的到家时间。然后比较用户过去的到家时间的平均值与此次到家时间,当判断为到家时间较晚的情况下,通过机器人1、2提示与用户的到家时间相关的提示信息。具体而言,选择与用户的到家时间相关的脚本数据,机器人1、2按照所选择的脚本数据开始会话。例如在图3A中,机器人1说出“今天主人回家好晚啊”这样的会话短语,与此相对机器人2说出“最近经常很晚回家啊”这样的会话短语。 
这种情况下,以机器人1、2对“到家时间比平时晚”这样的相同用户信息提示不同的提示信息的方式,进行机器人1、2提示给用户的提示信息的确定处理。具体而言,图3B中,对于用户较晚的到家时间,机器人1说出对用户肯定意义的(正面性)“一定是工作很忙吧”这样的会话短语。与此相对,机器人2对用户说出否定性的(负面性)“不会是每天都在外面喝酒吧”这样的会话短语。 
例如机器人对用户经常进行肯定性的会话或经常进行否定性的会话,可能会使用户在与机器人的会话中感到闭塞或不顺畅。 
与之相对,图3B中,机器人1、2说出彼此不同的对照性的会话短语。而且,并非与用户直接会话,而是采取在机器人1、2彼此间进行会 话,用户旁观该会话的方式。因此不属于所谓的便利性提供型服务,而能提供一种通过在机器人1、2间进行的会话而赋予用户一种察觉的启发型普适服务。 
另外,在图3B中,用户实质上是由于工作较忙而回家较晚,因而会抚摸说出了“一定是工作很忙吧”的机器人1。而且,通过机器人1的接触传感器410(或通过后述的接触状态判定方式或说话传感器411),检测到作为用户对机器人1、2说出的会话短语(提示信息的提示)的反应的“抚摸动作”。 
于是,机器人1、2根据这种“抚摸动作”的用户反应,进行接下来对用户进行会话的说话短语(接下来提示的提示信息)的确定处理。具体而言如图3C所示,被抚摸的机器人1由于自己的意见得到了肯定,因而说出“看,我说的对吧”这样的声音,机器人2对照性地说出“原来如此啊,我还以为被酒吧里的女孩迷住了呢”这样的声音。此后,按照与用户忙碌的工作为话题的相关脚本,继续进行二者之间的会话。 
并且,如果如图3B所示用户进行了抚摸动作,则该抚摸动作会作为用户的反应履历而蓄积起来,进行用户特性信息存储部24的数据库的更新处理。例如,通过图3B中用户的反应,可判断为用户是工作优先于每天出门喝酒的类型。于是,进行例如提升用户特性信息中与工作志向相关的参数的处理,进行用户特性信息(感性数据库)的更新处理。然后,选择接下来提供给用户的脚本数据时,一并考虑该用户特性信息,例如优先选择与工作关联的脚本数据。 
例如难以仅凭来自可穿戴传感器150的传感器信息推测用户的兴趣、嗜好。例如仅凭来自行动传感器等的传感器信息很难判断用户是否工作优于兴趣、或用户喜好何种颜色。因此,不得不通过例如对用户以问卷的形式询问等来判断这些用户的兴趣、嗜好。 
关于这点,在图3B中,机器人1、2说出对照性的会话短语,根据用户对其作出的反应来更新用户特性信息,因此,例如可以简单地判断用户是偏好工作还是偏好兴趣、或喜欢何种颜色,并将其反映在用户特性信息中。 
图4表示用于说明本实施方式的动作的流程图。 
首先,用户信息取得部12取得通过来自行动传感器等的传感器信息而获得的用户信息(步骤S1)。具体而言,将来自便携式电子设备100的用户信息转送到用户信息存储部22,读取所转送的用户信息。 
接着,如果需要的话,根据用户信息推测用户的TPO(步骤S2)。这里的TPO(Time Place Occasion:时间,地点,场合)信息是时间信息(年、月、周、日、时间等)、用户的场所信息(所处场所、位置、距离等)和用户的状况信息(精神、肉体状况、用户身上发生的事件等)之中至少一个信息。例如通过GPS传感器获得的经、纬度信息的意义对于不同用户而言是不同的,如果该经、纬度的场所是用户自家,则推测为用户的所处场所是自家。 
接着,根据用户信息、TPO确定机器人1、2提示给用户的提示信息,进行使机器人1、2提示不同的提示信息的机器人控制(步骤S3、S4)。具体而言,如图3A~图3C中说明的那样,进行确定机器人1、2说出的会话短语,并使其说出该会话短语的机器人控制。 
接下来监视用户对步骤S4中的提示信息的提示作出的反应(步骤S5)。例如判断用户是进行了抚摸机器人1、2的动作还是拍打机器人1、2的动作或者什么也没有做。然后根据所监视的用户的反应,确定接下来机器人1、2要提示的提示信息(步骤S6)。即,确定接下来机器人1、2要说出的会话短语。然后根据用户的反应,更新用户特性信息(感性数据库)(步骤S7)。 
5.系统构成例 
接着具体说明本实施方式的各种构成例。图5是本实施方式的第2系统构成例。图5中机器人1被设定在主动侧,机器人2被设定在从动侧。而本实施方式的机器人控制系统主要通过主动侧机器人1所具有的处理部10实现。 
具体而言,设置于主动侧机器人1上的用户信息取得部12取得用户信息,主动侧的提示信息确定部14根据所取得的用户信息,进行机器人1、2提示给用户的提示信息的确定处理。例如,当确定了主动侧、从动 侧机器人1、2分别提示第1、第2提示信息的情况下,主动侧的机器人控制部30进行用于使机器人1提示所确定的第1提示信息的控制。这样对主动侧机器人1进行控制。另外,主动侧的提示信息确定部14对从动侧机器人2指示对用户的提示信息的提示。例如当确定了主动侧、从动侧分别提示第1、第2提示信息的情况下,指示对从动侧机器人2提示第2提示信息。于是,从动侧机器人控制部80进行用于使机器人2提示所确定的第2提示信息的机器人控制。这样对从动侧机器人2进行控制。 
这种情况下,通信部40例如通过无线等将指示提示信息的提示的指示信息从主动侧机器人1通信到从动侧机器人2。然后,当从动侧的通信部90接收到该指示信息时,从动侧机器人控制部80进行用于使机器人2提示由该指示信息所指示的提示信息的机器人控制。 
此处的提示信息的指示信息例如是提示信息的识别码等。当提示信息是脚本的会话短语的情况下,该指示信息是脚本中会话短语的数据码。 
例如机器人1、2进行交谈会话时,可以考虑如下的方式:由机器人2对机器人1说出的会话短语进行声音识别,根据该声音识别的结果使机器人2说出会话短语。 
但是,使用该方式需要复杂的声音识别处理和分析处理,会招致机器人成本变高、处理变复杂、产生错误动作等。 
关于该点,在图5中,在主动侧机器人1的控制下实现机器人1、2的交谈会话。即,用户观察到的是机器人1、2互相识别彼此的话语进行会话,而实际上所有会话都是在主动侧机器人1的控制下进行的。另外,从动侧机器人2根据从主动侧机器人1通信的指示信息,确定自身要提示的信息,因而可不需要声音识别处理。因此,即便不进行复杂的声音识别处理,也能在错误动作较少的稳定控制之下实现机器人1、2间的交谈会话。 
图6表示本实施方式的第3系统构成例。图6中设置有作为局域服务器的主机服务器200。该主机服务器200进行用于主机子系统的控制对象设备的控制的处理,或进行与外部的通信处理。机器人1、2在该主机服务器200的控制下工作。 
而且,在图6的系统中,便携式电子设备100与主机服务器200例如通过无线LAN和底座等通信连接起来,主机服务器200与机器人1、2例如通过无线LAN等通信连接起来。而且,本实施方式的机器人控制系统主要通过主机服务器200的处理部210实现。并且,也可以通过主机服务器200和机器人1、2的分散处理来实现机器人控制系统的处理。 
如果持有便携式电子设备100的用户接近家,则可通过无线LAN等实现便携式电子设备100与主机服务器200间的通信。或者通过把便携式电子设备100置于底座上而能进行通信。 
而且,当确立了通信路径时,由便携式电子设备100向主机服务器200的用户信息存储部222转送用户信息。由此,主机服务器200的用户信息取得部212取得用户信息。然后运算部213进行必要的运算处理,由提示信息确定部214确定机器人1、2提示给用户的提示信息。然后将所确定的提示信息或提示信息的指示信息(例如会话短语的发出指示信息)从主机服务器200的通信部238发送到机器人1、2的通信部40、90。然后,机器人1、2的机器人控制部30、80进行用于将接收到的提示信息、或通过接收到的指示信息而指示的指示信息提示给用户的机器人控制。另外,主机服务器200的用户特性信息更新部215还基于用户反应进行用户特性信息的更新。 
根据图6的构成,例如当用户信息和提示信息(脚本数据)的数据大小较大的情况下,可不必对机器人1、2设置用户信息和提示信息的存储部,因而能够实现机器人1、2的成本降低和小型化。另外,由于可以在主机服务器200中统一处理、管理用户信息和提示信息的转送和运算处理,因此能实现更为智能的机器人控制。 
另外,根据图6的系统,在发生能使用机器人1、2的事件之前,可以预先将来自便携性电子设备100的用户信息转送到主机服务器200的用户信息存储部222。例如在用户回到家而接近机器人1、2之前(具体而言是来自用户带在身上的作为可穿戴传感器150之一的GPS传感器的信息表示用户抵达离家最近的车站,或来自作为家庭传感器之一的门开闭传感器的信息表示用户打开屋门的定时等),预先将在移动环境下更新 的用户信息转送写入到主机服务器200的用户信息存储部222。然后,当用户接近机器人1、2而发生能使用机器人1、2的事件时,开始进行使用了预先转送到用户信息存储部222的用户信息的、机器人1、2的控制动作。即,启动机器人1、2,控制机器人1、2以使其进行例如图3A~图3C所示的会话。这样,就可以在机器人1、2启动之后马上开始基于用户信息的会话,可使控制变得高效。 
图7表示本实施方式的第4系统构成例。图7中设有作为主服务器的外部服务器300。该外部服务器300与便携式电子设备100之间、以及与主机服务器200之间进行通信处理,或进行各种管理控制。 
而且,在图7的系统中,便携式电子设备100与外部服务器300通过PHS等无线LAN通信连接起来,外部服务器200与主机服务器200通过ADSL等有线WAN通信连接起来,主机服务器200与机器人1、2通过无线LAN等通信连接起来。而且,本实施方式的机器人控制系统主要通过主机服务器200的处理部210和外部服务器300的未图示的处理部来实现。还可以通过主机服务器200、外部服务器300、机器人1、2的分散处理来实现机器人控制系统的处理。 
便携式电子设备100、主机服务器200等各单元适当与外部服务器300通信,进行用户信息的转送处理。另外,使用PHS位置登记信息、GPS传感器、麦克风等判断用户是否接近家,当接近的情况下,将存储于外部服务器300的未图示的用户信息存储部中的用户信息下载至主机服务器200的用户信息存储部222,开始机器人1、2的提示信息的提示控制。并且,后述的脚本数据等提示信息也可以从外部服务器300下载至主机服务器200的提示信息存储部226。 
根据图7的系统,可以在外部服务器300中统一管理用户信息和提示信息。 
6.用户履历信息 
接着说明作为用户信息之一的用户履历信息的更新处理和用户履历信息的具体例。并且,用户信息可以包含通过传感器信息而实时获得的用户信息、和作为该实时获得的用户信息的履历的用户履历信息等。 
图8是表示用户履历信息的更新处理的一个例子的流程图。 
首先取得来自可穿戴传感器150等的传感器信息(步骤S21)。然后进行所取得的传感器信息的过滤和分析等运算处理(步骤S22)。然后根据运算结果推测用户的行动、状态、环境等(TPO、情感)(步骤S23)。而后将所推测的用户的行动、状态等用户履历与日期时间(年、月、日、周、日、时间)等关联起来存储到用户履历信息存储部23(223),更新用户履历信息(步骤S24)。 
图9示意性表示用户履历信息的具体例。图9的用户履历信息是将用户的行动等履历与时间段、时刻等关联起来的数据结构。例如为用户8点从自家出发,在8点到8点20分的时间段内从自家步行到车站,8点20分到达距离自家最近的A车站。然后,在8点20分到8点45分的时间段内乘坐电车,8点45分在距离公司最近的B车站下车,9点到达公司开始业务。在10点到11点的时间段内与公司内的同事开会,在12点到13点的时间段内吃午饭。 
如上在图9中,将通过来自传感器的信息等推测的用户行动等履历与时间段、时刻等关联起来,从而制作用户履历信息。 
另外,在图9中,还把通过传感器等测量的用户说话量、进食量、脉搏、出汗量等测量值也与时间段和时刻关联起来。例如在8点到8点20分的时间段内,用户从自家步行到A车站,通过传感器测量此时的步行量等,将其与8点到8点20分的时间段关联起来。这种情况下,还可以进一步将步行速度、出汗量等步行量之外的传感器信息的测量值也关联起来。这样就可以把握该时间段内用户的运动量等。 
在从10点到11点的时间段内,用户与同事开会,通过传感器测量此时的说话量等,将其与从10点到11点的时间段关联起来。这种情况下,还可以进一步例如将声音状态、脉搏等传感器信息的测量值也关联起来。这样就可以把握该时间段内用户的会话量和紧张度等。 
在从20点45分到21点45分和从22点到23点的时间段内,用户打游戏或者看电视,将此时的脉搏、出汗量等与这些时间段关联起来。这样就可以把握这些时间段内用户的兴奋度等。 
在23点30分之后的时间段内用户正在睡眠,将此时用户的体温变化与该时间段关联起来。这样就可以把握用户在睡眠时的健康状态。 
并且,用户履历信息不限于图9所示方式,例如还可以实施不把用户的行动等履历与日期时间等关联起来地制作用户履历信息的变形。 
例如在图10A中,根据作为传感器信息的测量值的说话量、声音状态、脉搏、出汗量等,按照预定的运算式运算用户的精神状态参数。例如说话量越多则精神状态参数就会越高,这表示用户的精神状态为良好。另外,根据作为传感器信息的测量值的步行量、步行速度、体温等,按照预定的运算式运算用户的身体状态(健康状态)的参数(运动量参数)。例如步行量越多则身体状态参数会越高,这表示用户的身体状态为良好。 
另外,如图10B所示,使用柱表等使用户的精神状态、身体状态的参数(广义而言是状态参数)可视化,从而可显示于可穿戴显示器和家庭显示器上。另外,根据在移动环境下更新的精神状态、身体状态的参数等控制家庭环境的机器人,从而能够使机器人进行安慰、激励用户或提醒用户的动作。 
如上所述在本实施方式中,作为用户信息而取得了用户的行动履历、状态履历和环境履历中至少一个的用户履历信息。而且根据所取得的用户履历信息,进行机器人对用户提示的提示信息的确定处理。 
7.基于脚本的机器人会话 
接着,以给用户的提示信息为基于脚本的机器人彼此间的会话的情况为例,详细说明该具体例子。 
7.1构成 
图11表示本实施方式中更为详细的系统构成例。图11相比图2等,处理部10还包括事件判定部11、接触状态判定部16、说话权控制部17、脚本数据取得部18、用户信息更新部19。而且,存储部20具有脚本数据存储部27。 
事件判定部11进行各种事件的判定处理。具体而言,通过在移动子系统或车内子系统更新了用户信息的用户,判定表示能重新使用家庭子系统的机器人的能使用机器人事件的发生。例如当用户接近(移动)到 机器人的场所(家)的情况下,事件判定单元11判定为发生了能使用机器人事件。或者当通过无线进行信息转送的情况下,也可以通过检测该无线强度来判定能使用事件的发生。或者在将便携式电子设备连接到底座的情况下,也可以判定为发生了能使用事件。而且,当发生了这种能使用机器人事件的情况下,启动机器人1、2,用户信息被下载至用户信息存储部22等。 
脚本数据存储部27将通过多个会话短语构成的脚本数据作为提示信息进行存储。而且,提示信息确定部14根据该脚本数据确定机器人向用户说出的会话短语。于是机器人控制部30进行用于使机器人说出所确定的会话短语的控制。 
具体而言,脚本数据存储部27存储将多个会话短语以分支结构连接起来的脚本数据。而且,提示信息确定部14根据用户对机器人说出的会话短语的反应,确定接下来使机器人说出的会话短语。更具体而言,在用户对机器人根据第1脚本数据(例如棒球的话题)说出的会话短语所作的反应是所给予的反应(例如无反应)的情况下,提示信息确定部14选择不同于第1脚本数据的第2脚本数据(例如棒球之外的话题),根据第2脚本数据确定接下来使机器人说出的会话短语。 
如后所述,接触状态判定部16判定在机器人传感面上的接触状态。而且提示信息确定部14根据接触状态判定部16的判定结果,判断用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作,将其作为用户对机器人说出的会话短语(提示信息的提示)所作的反应。然后,确定接下来对用户说出的会话短语(接下来提示的提示信息)。 
这种情况下,接触状态判定部16根据通过对来自麦克风(声音传感器)的输出信号(传感器信号)进行运算处理而获得的输出数据,判定在传感面上的接触状态,该麦克风设置于传感面的内侧(机器人的内侧)。此时的输出数据例如是信号强度(信号强度数据),接触状态判定部16通过输出数据进行信号强度与预定阈值的比较处理,从而可以判定用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作。 
说话权控制部17根据用户对机器人所说出的会话短语的反应(例如 抚摸、拍打、无声),控制将下一个会话短语的说话权(说话的主导权)赋予给机器人1、2中的哪个。具体而言,按照用户对机器人1、2中某个机器人说出的会话短语作出了肯定反应还是否定反应,确定赋予下一个会话短语的说话权的机器人。例如将说话权赋予给用户作出了肯定反应的机器人或将说话权赋予给用户没有作出否定反应的机器人。对于该说话权的控制处理,能使用表示将说话权赋予给机器人1、2中的哪个的说话权标记等来实现。 
例如在图12A中,用户对机器人1的“一定是工作很忙吧”这样的表达短语作出了抚摸头部的肯定反应。因此,此时如图12B所示,将下一个说话权赋予给被抚摸头部的那个(得到肯定反应的那个)机器人1。因而被赋予说话权的机器人1会说出“看,我说对了吧”这样的会话短语。即,机器人1、2例如是以交替说话为原则的,按该原则来说的话,图12B中应该将下一个说话权赋予给机器人2,而图12B中将下一个说话权赋予给了被用户抚摸了头部的机器人1一方。 
另外,在图13A中,用户对机器人1的“不会是每天都在外面喝酒吧”这样的会话短语作出了拍打头部的否定反应。因此,此时如图13B所示,按照原则将下一个说话权赋予给没有被拍打头部的那个(没有得到否定反应的那个)机器人2。因而被赋予了说话权的机器人2会说出“看,我说对了吧”这样的会话短语。 
例如,若机器人1、2始终都是交替地按顺序进行会话,则机器人1、2的谈论会话对用户而言会变得单调,用户马上就会厌烦。 
针对该情况,如果使用图12A至图13B的说话权控制方式,可按照用户的反应以各种方式切换说话权的赋予,因此可防止会话变得单调,能实现用户不易厌烦的机器人间的会话。 
脚本数据取得部18取得根据用户信息从多个脚本数据中选择的脚本数据。 
具体而言,例如根据用户信息从N个脚本数据中选择的M个(N>M≥1)脚本数据通过未图示的网络被下载至脚本数据存储部27。脚本数据例如从外部服务器300直接下载至设于机器人1上的脚本数据存储部27 中,从外部服务器300通过主机服务器200下载至脚本数据存储部27。或者在图7的构成中,从外部服务器300下载至设于主机服务器200上的脚本数据存储部(提示信息存储部226)。 
然后,脚本数据取得部18从脚本数据存储部27中读取所下载的M个脚本数据中的例如1个,从而取得使用于机器人会话的脚本数据。 
这种情况下,通过脚本数据取得部18取得的脚本数据可根据用户当前的日期时间信息、用户当前的场所信息(当前的所处场所)、用户当前的行动信息和用户当前的状况信息之中至少一个来进行选择。即,能够根据实时的用户信息进行选择。或者,还可以根据用户的行动履历信息和用户的状态履历信息之中至少一个选择脚本数据。即,可以不根据实时的用户信息,而根据从过去到现在的用户履历信息选择脚本数据。 
如果这样根据用户信息和用户履历信息选择脚本数据,则可以选择适合于当前的日期时间和用户的过去或现在的状况、场所等的脚本数据来使机器人进行会话。 
并且,用户特性信息更新部15根据用户对机器人说出的会话短语所作的反应,更新用户特性信息。而且,此时脚本数据取得部18也可以取得根据用户特性信息选择的脚本数据。这样就可以根据用户的反应来学习用户的兴趣、嗜好等,更新用户特性信息,选择并使用适合于用户的兴趣、嗜好等的脚本数据。 
接着使用图14的流程图说明本实施方式的详细动作。 
首先,根据传感器信息取得用户信息(步骤S31)。然后推测用户的TPO(步骤S32)。 
接着根据用户信息、TPO取得脚本数据(步骤S33)。具体而言,通过网络下载适合于用户信息等的脚本数据。 
然后,根据所取得的脚本数据,确定使机器人1、2说出的会话短语(步骤S34)。然后,进行使机器人1、2说出不同会话短语的机器人控制(步骤S35)。 
接下来监视用户对机器人1、2的说话的反应(步骤S36)。然后,判断是否向其他脚本数据分支(步骤S37),如果分支则返回步骤S33。另 一方面,在不分支的情况下,通过图12A~图13B所示的方式确定下一个会话短语的说话权(步骤S38)。另外,根据用户的反应确定机器人1、2接下来说出的会话短语(步骤S39)。进而根据用户的反应,更新用户特性信息(感性数据库)(步骤S40)。 
7.2脚本的具体例子 
接着,说明本实施方式中使用的脚本数据及其选择方式的具体例子。 
如图15所示,脚本数据库的各脚本数据被赋予了脚本编号。而且,由脚本编号所确定的脚本数据是通过多个脚本数据码构成的,通过各脚本数据码指定各会话短语(文本数据)。 
例如在图15中,根据用户信息判断为用户比平时更晚地回家,因而选择脚本编号=0579的脚本数据。而且,脚本编号=0579的脚本数据是通过A01、B01、A02、B02、A03、B03的脚本数据码构成的。此处,A01、A02、A03是机器人1依次说出的会话短语的码,B01、B02、B03是机器人2依次说出的会话短语的码。而且,通过使用该脚本数据,可实现图3A~图3C中说明的、对应于用户信息的机器人1、2间的交谈会话。 
图16是基于“抚摸”、“拍打”、“无反应”等用户反应(行动)的脚本分支的例子。 
例如首先由机器人1说出“今天好像A队赢了!”。如果用户针对该说话抚摸了机器人1,则推测为用户是棒球队A的球迷。因此,此时机器人2会说出“对啊对啊,是8比7逆转取胜!”,更详细解说球队A取胜的情形。而且,当用户针对该说话抚摸了机器人2的情况下,推测为用户对球队A的胜利手段很满意。因此,此时机器人1说出“本垒打真棒啊!”。另一方面,在拍打机器人2的情况下,推测为虽然球队A取胜然而用户对该取胜手段并不满意。因此,此时机器人1说出“不过投手阵容不太稳定哦”。并且,在用户没有反应的情况下转移到其他脚本。 
另外,在用户对机器人1的“今天好像A队赢了!”这样的说话而拍打了机器人1的情况下,推测为用户并不是棒球队A的球迷。因此,此时机器人2会说出“除此之外,球队B怎么样了?”,将话题转变到不同于球队A的球队B。然后转移到棒球的相关脚本的其他分支。 
另外,当用户没有反应的情况下,推测为用户原本对棒球就没有兴趣。因此,此时机器人2会说出“哦,原来如此啊”,转移到棒球之外的其他脚本。 
如上,在图16中,根据用户对机器人所说出的会话短语的反应,确定接下来使机器人说出的会话短语。另外,通过检测用户的抚摸、拍打等反应,可以获悉用户喜欢的棒球队等,由此能够更新用户特性信息。 
图17是基于“抚摸”等用户反应的脚本选择和用户特性信息(数据库)的更新例。 
首先,机器人1说出“今天天气怎么样啊”。与此相对,机器人2说出“别管那个,看今天的新闻了么?”。然后机器人1说出“我看了今天的股价...”,如果用户对该说话抚摸了机器人1,则推测为用户对股票话题有兴趣。于是,此时转移到股价信息脚本,机器人1说出“今天的日经平均股价是17760日元哟”、“涨了60日元呀。C公司的股价是...”。 
此时,在本实施方式中,根据通过用户的反应而选择的脚本日志,更新用户特性信息的数据库。即,通过用户的反应,推测为用户对股票的话题具有兴趣,将用户的兴趣、嗜好之一是股票的情况登记在数据库中使其学习。这样,在接下来选择脚本数据时,选择与股票相关的脚本的概率会变高,从而能够提供符合用户兴趣、嗜好的话题。 
即,在通过问卷调查的记录等来调查用户的兴趣、嗜好的方法中,会对用户强加繁杂的程序,因而并非优选。针对这点,在图17的方式中,通过用户对机器人的会话作出反应,具有不会对用户强加多余的程序,就能自动调查和收集用户的兴趣、嗜好的优点。 
图18、图19是基于实时用户信息的脚本选择的例子。 
图18中,作为用户信息而取得了“当前日期时间:6月10日(星期日)11:30”、“当前的场所:自家”、“今天的步数:186步”、“当前的运动量:较少”、“当前的说话量:较少”。这些用户信息是通过来自可穿戴传感器150等的传感器信息而取得的。 
然后,根据所取得的用户信息,推测为用户的TPO是“星期日没有特别的事情,在家里百无聊赖”。于是,这种情况下选择“今天的新闻、 天气、电视节目等话题”、“与附近的事件信息相关的话题”、“与运动不足相关的话题”、“与家庭相关的话题”等脚本(脚本选择候选)。即,在图18中,根据当前的日期时间信息、用户当前的场所信息、用户当前的行动信息或用户当前的状况信息选择脚本(脚本数据)。 
具体而言,如图19所示,根据所选择的脚本,在机器人1、2之间进行“主人在家好无聊啊”、“总是这样”、“那样会运动不足的哟”、“散散步多好啊”、“我有些有趣的事件信息哦”、“真不好啊”等会话。因此,用户通过在旁边听取这些机器人1、2间的会话,从而可间接获悉自身当前的行动、状况等。因此,能够提供一种并非单方面向用户提供信息的便利性提供型服务,而是通过对用户的精神方面间接产生作用,从而对用户赋予察觉,可促进自身成长的启发型普适服务。 
并且,例如当图19中用户针对“我有些有趣的事件信息哦”这样的机器人1的说话而抚摸了机器人1,则推测为用户对事件信息具有兴趣,选择图18中的脚本选择候选中的事件信息脚本。另外,例如用户针对“散散步多好啊”这样的机器人2的说话而抚摸了机器人2,则推测为用户对散步具有兴趣,分支为散步点信息脚本。 
图20、图21是基于用户履历信息(1天的蓄积信息)的脚本选择的例子。 
图20中,作为用户履历信息取得了“日期时间:6月11日(星期一)晴28度”、“当日前往场所:自家、新宿、横滨”、“今天的累积步数:15023步”、“今天的累积运动量:较多”、“今天的累积说话量:较多”。这些用户信息是通过来自可穿戴传感器150等的传感器信息的蓄积和履历而取得的。 
然后,根据所取得的用户履历信息,推测为用户的TPO为“平日,因为工作去横滨出差。徒步移动多于平时而很累。运动量、说话量也很多,是活跃的一天”。于是这种情况下选择“今天的新闻、天气、电视节目等话题”、“与前往场所(横滨)相关的话题”、“今天走了好多路真辛苦呀这样的慰劳的话题”等脚本(脚本选择候选)。即,在图20中,根据用户的行动履历信息或用户的状态履历信息等选择脚本(脚本数据)。 
具体而言,如图21所示,根据所选择的脚本,在机器人1、2间进行“今天走了这么多路好辛苦啊”、“好久不走这么多路了啊”、“今天去横滨了啊”、“横滨的感觉很好啊”、“红砖仓库附近很好看吧”、“嗯,好想去华人街啊”等会话。因此,用户通过在旁边听取这些机器人1、2间的会话,从而可间接获悉自身当日整天的行动履历、状况履历。因此,能提供一种对用户赋予对自身行动履历等的察觉的启发型普适服务。 
并且,如果用户针对图21中“红砖仓库附近很好看吧”这样的机器人1的说话而抚摸了机器人1,则推测为对红砖仓库具有兴趣,则分支到红砖仓库信息。同样地,如果用户针对“嗯,好想去华人街啊”这样的机器人2的说话而抚摸了机器人2,则分支到华人街信息脚本。 
图22是用户特性信息数据库的脚本选择的例子。 
图22中,作为用户特性信息而取得了“出生年月日职业:公司职员休息日:周六日”、“经常前往的场所:自家、新宿、涩谷...”、“平均步数7688步”、“平均运动量:680大卡”、“说话量:67分钟”、“关心度:天气75%、体育60%、旅行45%、电视节目30%、音乐20%、股价15%、PC 10%”等。此处,关心度是例如使用用户抚摸机器人、进入详细脚本的比例等而取得的。 
而且,从图22的用户特性信息中选择“与出生年月日、年龄、工作、家庭有关的话题(比如:白领生活好难啊)”、“与生活习惯有关的话题(比如:好像最近运动不足啊)”、“与行动区域有关的话题(比如:听说新宿有新店开业)”、“与关心度较高的领域相关的话题(比如:从19:00开始有旅行节目)”等脚本。这样就可以进行与用户的特性(感性)匹配的脚本选择。 
8.基于用户履历信息的提示信息的确定处理 
接下来说明基于用户履历信息的提示信息的确定处理的详细情况。具体说明由于用户外出而一定期间没有接触机器人(1、2),之后回到家中接触机器人的情况下的机器人的行动。 
例如用户回到家中接触机器人时,发生能使用机器人(家庭子系统)的事件。具体而言,通过可穿戴传感器的GPS、设置于家门等上的传感 器、便携性电子设备与底座的连接等检测到用户回家,或者通过无线通信的无线强度和机器人的接触传感器等而检测到用户与机器人的接近,则图11的事件判定部11判定为发生了能使用机器人的事件。即判定为发生了表示处于能使用机器人状态的能使用事件。 
而且,在图23中,将发生该能使用事件之前的例如外出期间(不能使用机器人的期间、机器人与用户的非接近期间)作为第1期间T1,将发生能使用事件之后的例如在家期间(能使用机器人的期间、机器人与用户接近的期间)作为第2期间T2。而且,在该第1期间T1内取得(更新)的用户履历信息为第1用户履历信息,在第2期间T2内取得(更新)的用户履历信息为第2用户履历信息。 
此时,第1用户履历信息可以通过在第1期间T1使用图11的可穿戴传感器150的行动传感器、状态传感器、环境传感器测量用户的行动(步行、说话、进食等)、状态(疲劳、紧张、空腹、精神状态、肉体状态等)或环境(场所、明亮度、气温等)来取得。具体而言,便携式电子设备100的用户信息更新部根据来自这些传感器的传感器信息,更新便携式电子设备100的用户信息存储部的用户履历信息,从而取得第1期间T1内的第1用户履历信息。 
接着,当发生能使用机器人1、2的事件时,在第1期间T1所更新的第1用户履历信息从便携式电子设备100的用户信息存储部被转送到机器人1(机器人2)的用户信息存储部22(用户履历信息存储部23)。由此,提示信息确定部14能够根据所转送的第1用户履历信息,进行由机器人1、2提示给用户的提示信息的确定处理(脚本选择处理)。 
另一方面,第2用户履历信息可以通过在第2期间T2使用机器人搭载传感器34或其他传感器(例如可穿戴传感器和埋设在家庭的家庭传感器等)测量用户的行动、状态或环境来取得。具体而言,由用户信息更新部19根据来自这些传感器的传感器信息,更新用户信息存储部22的用户履历信息,从而取得第2期间T2内的第2用户履历信息。 
而且,如图23所示,提示信息确定部14例如根据在第1期间T1取得的第1用户履历信息和在第2期间T2取得的第2用户履历信息,进行 由机器人1、2提示给用户的提示信息的确定处理。具体而言,根据第1、第2用户履历信息,进行机器人1、2要会话的脚本的确定处理。这样,例如可以向用户提供附加了用户在外出期间的行动等和用户在家期间的行动等双方面的提示信息,可向用户赋予与在外出目的地和自家的自身行动等相关的察觉。 
更具体而言,提示信息确定部14使提示信息的确定处理时的第1用户履历信息的权重(权重系数)和第2用户履历信息的权重在第2期间T2内发生变化。 
例如在图24中,发生能使用机器人1、2的事件时(用户回家时、从回家时起直至经过给定期间),确定处理中的第1用户履历信息的权重大于第2用户履历信息的权重,例如第1用户履历信息为1.0,第2用户履历信息的权重为0。 
而且,在权重变更期间TA中,第1用户履历信息的权重变小,而第2用户履历信息的权重变大,权重大小是相逆的。然后,在变更期间TA之后,第2用户履历信息的权重将大于第1用户履历信息的权重,例如第1用户履历信息的权重为0,第2用户履历信息的权重为1.0。 
如上,在图24中,当发生能使用的事件时,增大确定处理中的第1用户履历信息的权重,减小第2用户履历信息的权重,此后减小第1用户履历信息的权重,增大第2用户履历信息的权重。具体而言,在第2期间T2中,伴随时间流逝而减小提示信息确定处理时的第1用户履历信息的权重,伴随时间流逝而增大第2用户履历信息的权重。 
这样,在第2期间T1的前半期间内,机器人1、2例如提供与作为外出期间的第1期间T1内的用户的行动等关联的话题。而且,此后当时间经过时,则提供与用户在自家的行动等相关的话题。由此,可提供与用户的行动、状况等对应的适时的话题。 
而且,权重的变化方式不限于图24的方式。例如与图24相反地,还可以实施如下变形,即:在前半期间增大第2用户履历信息的权重,此后增大第1履历信息的权重。或者还可以考虑到第1期间T1之前的用户履历信息,进行提示信息的确定处理。另外,权重的变化方式既可以 构成为预先编程于机器人1、2等中,也可以构成为可由用户按照喜好自由切换。 
图25表示用户履历信息的权重方式的具体例子。作为确定处理时的用户履历信息的权重的一个例子,存在通过用户履历信息而选择的脚本的选择概率。具体而言,当增大第1用户履历信息的权重的情况下,相比第2用户履历信息而更多选择第1用户履历信息的脚本。具体地,增大第1用户履历信息的脚本选择概率。另一方面,当增大第2用户履历信息的权重的情况下,相比第1用户履历信息而更多选择第2用户履历信息的脚本。具体地,增大第2用户履历信息的脚本选择概率。 
例如图25所示,作为通过第1用户履历信息选择的脚本,具有关于前往的场所的话题、关于外出目的地的行动等的话题(今天走了很多路真辛苦呀)、关于工作的话题等(参见图20)。另外,作为通过第2用户履历信息选择的脚本,具有关于在自家的生活环境(运动不足等)的话题、关于附近的事件信息的话题、关于家庭的话题、关于用户关心度较高的领域的话题等(参见图18)。 
而且,在图24中,在第2期间T2的前半部分,由于第1用户履历信息的权重较大,因而第1用户履历信息用的脚本选择概率变高。由此,在前半期间中,机器人1、2会进行例如与用户曾前往的场所有关的会话等。另一方面,在第2期间T2的后半部分,由于第2用户履历信息的权重较大,因而第2用户履历信息用的脚本选择概率变高。由此,在后半期间,机器人1、2会进行例如与用户在自家的生活环境(“最近运动不足啊”)相关的会话等。这样,就能够以通过对应于用户的环境变化(从外出到在家的变化)的方式,变更所提供的脚本话题,能实现更为自然的机器人1、2的会话。 
9.接触状态判定 
接着说明拍打、抚摸机器人等动作的具体判定方式的一个例子。 
图26A是毛绒玩具型机器人500的例子。机器人500的表面作为传感面发挥作用。在传感面501的内侧,设有麦克风502-1、502-2、502-3。还设有对各麦克风502-1、502-2、502-3的输出信号进行运算处理,对输 出数据进行输出的信号处理部503。 
如图26的功能框图所示,来自麦克风502-1、502-2、502-3的输出信号被输入到信号处理部503。信号处理部503进行除噪和信号放大等,对模拟输出信号进行加工和转换。然后,计算信号强度等,以数字输出数据形式输出。接触状态判定部16例如进行阈值的比较处理、接触状态的分类等处理。 
例如,图27A、图27B、图27C是拍打传感面501时、抚摸传感面501时、朝麦克风说话时这3个场面下的声音波形例。图表的横轴为时间,纵轴为信号强度。 
着眼于信号强度,可知在图27A的拍打时和图27B的抚摸时信号强度较大。另外,可知在拍打时该状态为暂时性的,而抚摸时该状态则是持续的。如图27C所示可知,例如说出“啊~”那样的较强烈的声音时的波形相比图27A的拍打时和图27B的抚摸时信号强度较小。 
通过设置使用了这些差异的阈值,可以检测出“拍打状态”、“抚摸状态”、“哪种都不是的状态”。另外,通过使用多个麦克风502-1、502-2、502-3,可以将产生了最强信号的场所检测为“被拍打的部位、被抚摸的部位”。 
更具体地,嵌入到机器人500内部的麦克风502-1、502-2、502-3在用户的手等接触到机器人500的传感面501的情况下,检测在机器人500内部传播的声音并转换为电信号。 
信号处理部503对麦克风502-1、502-2、502-3的输出信号(声音信号)进行除噪、信号放大、A/D转换,将输出数据输出。通过将该输出数据转换为绝对值而蓄积一定时间,可计算出信号强度。然后将计算出的信号强度与阈值TH进行比较。而且,如果超过阈值TH,则判定为检测到“接触”,作为接触状态检测次数进行计数。然后,在预定时间内重复该接触状态检测处理。 
在经过了预定时间的时刻,接触状态判定部16比较事先设定好的条件与上述的接触状态检测次数,例如通过下述的条件检测被抚摸的状态、被拍打的状态。此时,利用在抚摸时由于接触状态是持续的而接触状态 检测次数也多,但在拍打时接触状态检测次数较少的现象,检测是被抚摸的状态还是被拍打的状态。 
检测状态     (检测次数/最大检测次数)×100(%) 
抚摸状态     大于等于25% 
拍打状态     大于等于10%、小于25% 
未检测状态   小于10% 
这样,使用至少一个麦克风就能判定“拍打状态”、“抚摸状态”、“哪种都不是的状态(未检测状态)”。另外,通过分散地嵌入多个麦克风、比较各麦克风的接触状态检测次数,还可以判定产生接触的部位。 
如上所述详细说明了本实施方式,但是还可以实施实质上不脱离本发明的新项目和效果的多种变形,这对本领域普通技术人员来说是容易理解的。因此这种变形例都属于本发明范围内。例如在说明书或附图中至少一次与更广义或同义的不同用语一并记载的用语无论在说明书或附图中的何处,都可以置换为该不同用语。另外,机器人控制系统和机器人的构成、动作也都不限于本实施方式中所说明的内容,可以实施各种变形。 

Claims (27)

1.一种用于控制机器人的机器人控制系统,其特征在于,该机器人控制系统具有:
用户信息取得部,其取得通过传感器信息获得的用户履历信息作为用户信息,该用户履历信息是用户的行动履历、用户的状态履历和用户的环境履历中的至少1个,该传感器信息来自对用户行动进行测量的行动传感器、对用户状态进行测量的状态传感器和对用户环境进行测量的环境传感器之中至少一方;
提示信息确定部,其根据所取得的上述用户履历信息,进行由机器人提示给用户的提示信息的确定处理;
机器人控制部,其进行用于使机器人将上述提示信息提示给用户的控制;以及
事件判定部,其判定表示处于能使用机器人的状态的能使用事件的发生,
上述提示信息确定部以第1、第2机器人针对所取得的相同的上述用户履历信息提示不同的提示信息的方式,进行提示给用户的提示信息的确定处理,
上述提示信息确定部根据在上述能使用事件发生前的第1期间内取得的第1用户履历信息和在上述能使用事件发生后的第2期间内取得的第2用户履历信息,进行由机器人提示给用户的提示信息的确定处理,
上述行动传感器、状态传感器、环境传感器是安装于用户的身体的一部分上的可穿戴传感器。
2.根据权利要求1所述的机器人控制系统,其特征在于,上述第1机器人被设定为主动侧,上述第2机器人被设定为从动侧,
设于主动侧的上述第1机器人上的上述提示信息确定部向从动侧的上述第2机器人指示对用户进行提示信息的提示。
3.根据权利要求2所述的机器人控制系统,其特征在于,该机器人控制系统还具有通信部,该通信部将指示提示信息的提示的指示信息从主动侧的上述第1机器人向从动侧的上述第2机器人通信。
4.根据权利要求1所述的机器人控制系统,其特征在于,上述提示信息确定部使提示信息的上述确定处理中的上述第1用户履历信息的权重和上述第2用户履历信息的权重在上述第2期间内发生变化。
5.根据权利要求4所述的机器人控制系统,其特征在于,上述提示信息确定部在上述能使用事件发生时增大上述确定处理中的上述第1用户履历信息的权重,减小上述第2用户履历信息的权重,然后减小上述第1用户履历信息的权重,增大上述第2用户履历信息的权重。
6.根据权利要求1所述的机器人控制系统,其特征在于,上述用户履历信息是根据来自上述可穿戴传感器的传感器信息进行更新而获得的信息。
7.根据权利要求1所述的机器人控制系统,其特征在于,上述提示信息确定部根据用户对机器人的提示信息的提示所作的反应,进行由机器人接下来提示给用户的提示信息的确定处理。
8.根据权利要求7所述的机器人控制系统,其特征在于,该机器人控制系统具有:
用户特性信息存储部,其存储用户特性信息;以及
用户特性信息更新部,其根据用户对机器人的提示信息的提示所作的反应,更新上述用户特性信息。
9.根据权利要求7所述的机器人控制系统,其特征在于,该机器人控制系统具有接触状态判定部,该接触状态判定部判定在机器人的传感面上的接触状态,
上述提示信息确定部根据上述接触状态判定部的判定结果,判断用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作来作为用户对机器人的提示信息的提示所作的反应,并进行接下来要提示给用户的提示信息的确定处理。
10.根据权利要求9所述的机器人控制系统,其特征在于,上述接触状态判定部通过对来自麦克风的输出信号进行运算处理而获得的输出数据,判定上述传感面上的接触状态,其中上述麦克风设置于上述传感面的内侧。
11.根据权利要求10所述的机器人控制系统,其特征在于,上述输出数据是信号强度,
上述接触状态判定部通过进行上述信号强度与预定阈值的比较处理,由此判定用户是进行了抚摸机器人的动作还是进行了拍打机器人的动作。
12.根据权利要求1所述的机器人控制系统,其特征在于,该机器人控制系统具有脚本数据存储部,该脚本数据存储部存储由多个会话短语构成的脚本数据作为上述提示信息,
上述提示信息确定部根据上述脚本数据,确定机器人向用户说出的会话短语,
上述机器人控制部进行用于使机器人说出所确定的会话短语的控制。
13.根据权利要求12所述的机器人控制系统,其特征在于,上述脚本数据存储部存储以分支结构将多个会话短语连接起来而成的脚本数据,
上述提示信息确定部根据用户对机器人所说出的会话短语的反应,确定接下来使机器人说出的会话短语。
14.根据权利要求13所述的机器人控制系统,其特征在于,上述提示信息确定部在用户对机器人基于第1脚本数据说出的会话短语的反应为给定的反应时,选择不同于上述第1脚本数据的第2脚本数据,根据上述第2脚本数据确定接下来使机器人说出的会话短语。
15.根据权利要求12所述的机器人控制系统,其特征在于,该机器人控制系统具有说话权控制部,其根据用户对机器人说出的会话短语的反应,进行将接下来的会话短语的说话权赋予上述第1、第2机器人中哪方的控制。
16.根据权利要求15所述的机器人控制系统,其特征在于,上述说话权控制部按照用户对上述第1、第2机器人中某一个机器人说出的会话短语作出了肯定的反应还是否定的反应,确定将被赋予接下来的会话短语的说话权的机器人。
17.根据权利要求12所述的机器人控制系统,其特征在于,该机器人控制系统具有脚本数据取得部,该脚本数据取得部取得根据上述用户信息从多个脚本数据中选择的脚本数据。
18.根据权利要求17所述的机器人控制系统,其特征在于,上述脚本数据取得部通过网络下载根据上述用户信息选择的脚本数据,
上述提示信息确定部根据通过网络下载的脚本数据,确定机器人对用户说出的会话短语。
19.根据权利要求17所述的机器人控制系统,其特征在于,上述脚本数据取得部取得根据当前日期时间信息、用户当前的场所信息、用户当前的行动信息和用户当前的状况信息中至少一方所选择的脚本数据,
上述提示信息确定部根据基于当前日期时间信息、用户当前的场所信息、用户当前的行动信息和用户当前的状况信息中至少一方所选择的脚本数据,确定机器人对用户说出的会话短语。
20.根据权利要求17所述的机器人控制系统,其特征在于,上述脚本数据取得部取得根据用户行动履历信息和用户状态履历信息之中至少一方所选择的脚本数据,
上述提示信息确定部根据基于用户行动履历信息和用户状态履历信息之中至少一方所选择的脚本数据,确定机器人对用户说出的会话短语。
21.根据权利要求17所述的机器人控制系统,其特征在于,该机器人控制系统具有:
用户特性信息存储部,其存储用户特性信息;以及
用户特性信息更新部,其根据用户对机器人说出的会话短语的反应,更新上述用户特性信息,
上述脚本数据取得部取得根据上述用户特性信息所选择的脚本数据。
22.根据权利要求1所述的机器人控制系统,其特征在于,上述提示信息确定部以上述第1、第2机器人提示给用户的上述提示信息针对所取得的相同的上述用户信息包含肯定和否定两方的方式,来进行上述提示信息的处理。
23.根据权利要求1所述的机器人控制系统,其特征在于,提示给上述用户的提示信息通过安装于用户的身体的一部分上的可穿戴显示器、头戴式耳机或者振动器提示给用户。
24.根据权利要求1所述的机器人控制系统,其特征在于,上述机器人控制系统包括用户信息更新部,该用户信息更新部通过由多个子系统构成的统合系统来更新上述用户信息,
上述提示信息确定部根据由上述统合系统更新后的上述用户信息,进行机器人提示给用户的提示信息的确定处理。
25.根据权利要求24所述的机器人控制系统,其特征在于,上述用户信息更新部在用户位于室外的移动环境的情况下,根据来自上述多个子系统中的移动子系统的上述可穿戴传感器的传感器信息,更新上述用户信息,
在用户位于家中的家庭环境的情况下,上述用户信息更新部根据来自上述多个子系统中的家庭子系统的家庭传感器的传感器信息,更新上述用户信息,从而在移动到上述家庭环境中的情况下,也无缝地更新在上述移动环境中被更新过的上述用户信息。
26.根据权利要求25所述的机器人控制系统,其特征在于,上述用户信息更新部在用户位于车内的车内环境的情况下,根据来自上述多个子系统中的车内子系统的车内传感器的传感器信息,更新上述用户信息,从而在移动到上述车内环境中的情况下,也无缝地更新在上述移动环境或上述家庭环境中被更新过的上述用户信息。
27.一种机器人,其具有:
权利要求1所述的机器人控制系统;以及
作为上述机器人控制系统的控制对象的机器人动作机构。
CN2008801061537A 2007-09-06 2008-09-01 机器人控制系统、机器人 Expired - Fee Related CN101795831B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007-231482 2007-09-06
JP2007231482A JP2009061547A (ja) 2007-09-06 2007-09-06 ロボット制御システム、ロボット、プログラム及び情報記憶媒体
PCT/JP2008/065643 WO2009031487A1 (ja) 2007-09-06 2008-09-01 ロボット制御システム、ロボット、プログラム及び情報記憶媒体

Publications (2)

Publication Number Publication Date
CN101795831A CN101795831A (zh) 2010-08-04
CN101795831B true CN101795831B (zh) 2013-05-01

Family

ID=40428804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801061537A Expired - Fee Related CN101795831B (zh) 2007-09-06 2008-09-01 机器人控制系统、机器人

Country Status (4)

Country Link
US (1) US20100298976A1 (zh)
JP (1) JP2009061547A (zh)
CN (1) CN101795831B (zh)
WO (1) WO2009031487A1 (zh)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009011362A (ja) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc 情報処理システム、ロボット装置及びその制御方法
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US20110199623A1 (en) * 2010-02-12 2011-08-18 Kabushiki Kaisha Toshiba Image processing apparatus and setting method used in image processing apparatus
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US20120059514A1 (en) * 2010-09-02 2012-03-08 Electronics And Telecommunications Research Institute Robot system and method for controlling the same
KR20120043865A (ko) * 2010-10-27 2012-05-07 주식회사 케이티 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치
JP5693942B2 (ja) 2010-12-21 2015-04-01 任天堂株式会社 情報処理システム及び情報処理方法
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9480910B2 (en) * 2011-11-09 2016-11-01 Marta Isabel santos Paiva Ferraz Conceicao Interactive embodied robot videogame through the use of sensors and physical objects
CN103179157A (zh) * 2011-12-22 2013-06-26 张殿礼 一种智能网络机器人及控制方法
JP6015099B2 (ja) * 2012-04-26 2016-10-26 富士ゼロックス株式会社 プログラム及びキャンペーン管理装置
US10248856B2 (en) 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10360907B2 (en) 2014-01-14 2019-07-23 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024679B2 (en) 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9578307B2 (en) 2014-01-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9629774B2 (en) 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9915545B2 (en) 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
US10024667B2 (en) 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
KR101570430B1 (ko) * 2014-08-11 2015-11-20 엘지전자 주식회사 웨어러블 디바이스 및 그것의 동작 방법
US10024678B2 (en) 2014-09-17 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
US9922236B2 (en) 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
USD768024S1 (en) 2014-09-22 2016-10-04 Toyota Motor Engineering & Manufacturing North America, Inc. Necklace with a built in guidance device
CN107111314B (zh) * 2014-11-07 2021-10-08 索尼公司 控制系统、控制方法以及存储介质
US9529359B1 (en) 2015-01-08 2016-12-27 Spring Communications Company L.P. Interactive behavior engagement and management in subordinate airborne robots
US9576460B2 (en) 2015-01-21 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device for hazard detection and warning based on image and audio data
US10490102B2 (en) 2015-02-10 2019-11-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for braille assistance
US9586318B2 (en) * 2015-02-27 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Modular robot with smart device
US9677901B2 (en) 2015-03-10 2017-06-13 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing navigation instructions at optimal times
US9811752B2 (en) 2015-03-10 2017-11-07 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable smart device and method for redundant object identification
US9972216B2 (en) 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
CN104898589B (zh) * 2015-03-26 2019-04-30 天脉聚源(北京)传媒科技有限公司 一种用于智能管家机器人的智能应答方法和装置
JP6255368B2 (ja) * 2015-06-17 2017-12-27 Cocoro Sb株式会社 感情制御システム、システム及びプログラム
CN106325112B (zh) * 2015-06-25 2020-03-24 联想(北京)有限公司 一种信息处理方法及电子设备
US9676098B2 (en) * 2015-07-31 2017-06-13 Heinz Hemken Data collection from living subjects and controlling an autonomous robot using the data
US9898039B2 (en) 2015-08-03 2018-02-20 Toyota Motor Engineering & Manufacturing North America, Inc. Modular smart necklace
CN105082150B (zh) * 2015-08-25 2017-04-05 国家康复辅具研究中心 一种基于用户情绪及意图识别的机器人人机交互方法
JP6992957B2 (ja) * 2015-10-21 2022-01-13 国立大学法人大阪大学 エージェント対話システム
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
US9921574B1 (en) * 2016-03-03 2018-03-20 Sprint Communications Company L.P. Dynamic interactive robot dialogue creation incorporating disparate information sources and collective feedback analysis
US10024680B2 (en) 2016-03-11 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Step based guidance system
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN109070332A (zh) * 2016-05-20 2018-12-21 Groove X 株式会社 行为自主型机器人以及计算机程序
JP6667855B2 (ja) * 2016-05-20 2020-03-18 日本電信電話株式会社 取得方法、生成方法、それらのシステム、及びプログラム
US9958275B2 (en) 2016-05-31 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for wearable smart device communications
JP6643190B2 (ja) * 2016-06-01 2020-02-12 株式会社クボタ 作業車
JP2018001387A (ja) * 2016-07-08 2018-01-11 ロボットスタート株式会社 ロボット、プログラム、ロボットシステム及びサーバ
US10561519B2 (en) 2016-07-20 2020-02-18 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device having a curved back to reduce pressure on vertebrae
US11086593B2 (en) 2016-08-26 2021-08-10 Bragi GmbH Voice assistant for wireless earpieces
JP6574970B2 (ja) * 2016-09-09 2019-09-18 Groove X株式会社 ゲストを受け入れるロボット
US10432851B2 (en) 2016-10-28 2019-10-01 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable computing device for detecting photography
US10012505B2 (en) 2016-11-11 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable system for providing walking directions
US10521669B2 (en) 2016-11-14 2019-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing guidance or feedback to a user
JP6795387B2 (ja) * 2016-12-14 2020-12-02 パナソニック株式会社 音声対話装置、音声対話方法、音声対話プログラム及びロボット
US10172760B2 (en) 2017-01-19 2019-01-08 Jennifer Hendrix Responsive route guidance and identification system
JP6618492B2 (ja) * 2017-02-06 2019-12-11 ソフトバンク株式会社 データ処理装置、データ処理方法及びプログラム
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
US11220008B2 (en) * 2017-07-18 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
JP6853752B2 (ja) * 2017-08-17 2021-03-31 Kddi株式会社 対話シナリオコーパスの作成支援システム
US11568265B2 (en) * 2017-08-23 2023-01-31 Sony Interactive Entertainment Inc. Continual selection of scenarios based on identified tags describing contextual environment of a user for execution by an artificial intelligence model of the user by an autonomous personal companion
US11267121B2 (en) * 2018-02-13 2022-03-08 Casio Computer Co., Ltd. Conversation output system, conversation output method, and non-transitory recording medium
CN108510051B (zh) * 2018-03-29 2020-12-22 重庆柚瓣家科技有限公司 基于人工智能的虚拟人模型应用方法
CN108647229B (zh) * 2018-03-29 2021-02-19 重庆柚瓣家科技有限公司 基于人工智能的虚拟人模型构建方法
JP7182990B2 (ja) * 2018-10-15 2022-12-05 東京瓦斯株式会社 情報処理システムおよびプログラム
JP7113270B1 (ja) 2020-12-10 2022-08-05 パナソニックIpマネジメント株式会社 ロボット制御方法及び情報提供方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1313803A (zh) * 1998-06-23 2001-09-19 索尼公司 机器人装置及信息处理系统
CN1318454A (zh) * 2000-03-31 2001-10-24 索尼公司 机器人装置及机器人装置动作决定方法
CN1372506A (zh) * 2000-03-24 2002-10-02 索尼公司 机器人设备行为决定方法和机器人设备
CN1396857A (zh) * 2000-10-13 2003-02-12 索尼公司 机器人装置及其行为控制方法
CN1781140A (zh) * 2003-03-20 2006-05-31 索尼株式会社 语音对话设备、方法和机器人设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
WO2001059643A1 (fr) * 2000-02-10 2001-08-16 Sony Corporation Dispositif automatique, dispositif fournissant des informations, robot, et procede de transaction
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット
US9098767B2 (en) * 2011-04-11 2015-08-04 Hewlett-Packard Development Company, L.P. System and method for determining the informative zone of an image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1313803A (zh) * 1998-06-23 2001-09-19 索尼公司 机器人装置及信息处理系统
CN1372506A (zh) * 2000-03-24 2002-10-02 索尼公司 机器人设备行为决定方法和机器人设备
CN1318454A (zh) * 2000-03-31 2001-10-24 索尼公司 机器人装置及机器人装置动作决定方法
CN1396857A (zh) * 2000-10-13 2003-02-12 索尼公司 机器人装置及其行为控制方法
CN1781140A (zh) * 2003-03-20 2006-05-31 索尼株式会社 语音对话设备、方法和机器人设备

Also Published As

Publication number Publication date
WO2009031487A1 (ja) 2009-03-12
US20100298976A1 (en) 2010-11-25
CN101795831A (zh) 2010-08-04
JP2009061547A (ja) 2009-03-26

Similar Documents

Publication Publication Date Title
CN101795831B (zh) 机器人控制系统、机器人
CN101681494B (zh) 便携式电子设备
CN101795830A (zh) 机器人控制系统、机器人、程序以及信息存储介质
US11573763B2 (en) Voice assistant for wireless earpieces
CN110139732B (zh) 具有环境控制特征的社交机器人
US8229877B2 (en) Information processing system, information processing method, and computer program product
EP3593958B1 (en) Data processing method and nursing robot device
JP2019204529A (ja) 情報処理システム、制御方法、記憶媒体、およびプログラム
JP6552123B2 (ja) 応答要求装置
US6539400B1 (en) Information gathering and personalization techniques
CN101681460B (zh) 控制系统
US7987091B2 (en) Dialog control device and method, and robot device
CN106464758A (zh) 利用用户信号来发起通信
CN110996796B (zh) 信息处理设备、方法和程序
CN109644303A (zh) 识别声源方向的行为自主型机器人
US20080276186A1 (en) Method and system for adapting a user interface of a device
JP2019049742A (ja) 音声応答装置
CN110070863A (zh) 一种语音控制方法及装置
JP2009176130A (ja) 情報提示システム、プログラム及び情報記憶媒体
CN108536099A (zh) 一种信息处理方法、装置及移动终端
CN110168571A (zh) 用于人工智能界面生成、演进和/或调节的系统和方法
CN106878390A (zh) 电子宠物互动控制方法、装置及可穿戴设备
Shaikh et al. Automatic life-logging: A novel approach to sense real-world activities by environmental sound cues and common sense
CN109558853A (zh) 一种音频合成方法及终端设备
US20230129746A1 (en) Cognitive load predictor and decision aid

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130501

Termination date: 20190901

CF01 Termination of patent right due to non-payment of annual fee