CN1460051A - 机器人装置及其控制方法和存储介质 - Google Patents

机器人装置及其控制方法和存储介质 Download PDF

Info

Publication number
CN1460051A
CN1460051A CN02800911A CN02800911A CN1460051A CN 1460051 A CN1460051 A CN 1460051A CN 02800911 A CN02800911 A CN 02800911A CN 02800911 A CN02800911 A CN 02800911A CN 1460051 A CN1460051 A CN 1460051A
Authority
CN
China
Prior art keywords
internal state
external status
dialogue
robot device
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN02800911A
Other languages
English (en)
Inventor
堀中里香
藤田雅博
大久保厚志
河本献太
加布里埃尔·科斯塔
福地正树
花形理
佐部浩太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1460051A publication Critical patent/CN1460051A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

产生和说出按照诸如机器人装置的内部状态的语句,以显示所述内部状态。机器人装置等包括识别外部状态的装置,和基于内部状态产生情绪以反映在交流中的情绪的变化的装置。所述内部状态不伴随语句,但是独立于系统而存在,并总是根据系统的各种外部输入和内部变化而改变。因此,当对于机器人装置等提出相同的问题的时候,回答的内容和回答的方式也根据现有的内部状态而不同。

Description

机器人装置及其控制方法和存储介质
技术领域
本发明涉及一种对话装置和方法以及一种存储介质产品,用于响应于来自用户的命令和/或外部环境而动作的行走机器人或多联接的机器人,或用于根据计算机图像(CG)操作的动画角色等(即用于机器人装置等)。更具体而言,本发明涉及一种机器人装置、一种机器人装置的控制方法和一种存储介质产品,所述机器人装置能够造句、说出这些语句和通过对话与用户交流。
更精确地说,本发明涉及一种能够根据机器人装置等的情绪造句和说出这些语句的机器人装置、一种用于机器人装置的控制方法和一种存储介质产品。具体而言,本发明涉及一种能够根据机器人装置等的内部状态造句和说出这些语句,由此表达出所述内部状态的机器人装置、一种用于机器人装置的控制方法和一种存储介质产品。
背景技术
到目前为止,对于响应于来自用户的命令和/或外部环境而动作的行走机器人或多联接机器人,或者基于计算机图像(CG)操作的动画角色已经提出和开发了多种思路。这些机器人装置或动画角色(以下也一起称为“机器人装置等”)响应于用户发出的命令而执行一系列动作。
例如,具有模仿诸如狗的四足行走动物而设计的形状和结构的机器人装置,即所谓的“宠物机器人”,响应于用户的“躺下”命令(如语音输入)而四肢伸展地躺下,或者当用户将手放在机器人嘴前的时候举起它的前爪来“握手”。
这样的模仿包括狗和人的实际动物而设计的机器人装置等被期望能够以与真实动物的动作和情绪表达尽可能相近的方式动作。同样期望机器人装置等能够不但响应于来自用户的命令和/或外部环境而执行仅仅预定的动作,而且也象真实动物一样自发动作。这是因为,如果机器人装置等重复执行与实际情况相距甚远的相同动作,用户容易厌倦,这样不能实现开发机器人装置等的最终目的,即在相同的生活环境下与人共同居住。
近来的智能机器人装置等并入了语音输入/输出、语音识别、语音合成等功能,并且能够在语音基础上与用户交谈或对话。在进行对话或说话的情况下,同样期望机器人装置等能够不但响应于来自用户的命令和/或外部环境而执行仅仅预定的动作,而且也象真实动物一样自发动作。
以往的对话说话系统在例如日本未经审查的专利申请公布第10-247194、8-339446和9-16800号中被提出。
日本未经审查的专利申请公布第10-247194号中公开了一种自动翻译装置,其中进行翻译并且合成语音,同时通过搜索语句中的差别的合适例子而保持整个语句的一致性,语句中的差别如翻译部分的错误的说话意图。并且,日本未经审查的专利申请公布第8-339446号公开了一种对话装置,其中检测用户的多种情绪并且从计算机发出对应于所检测的情绪的信息,以便用户可以感觉所述装置更为友好。而且,日本未经审查的专利申请公布第9-16800号公开了一种带有脸部图像的语音对话系统,它容易适应于语言主题的改变,并能够提供与用户的实用和自然的对话。
但是,这些以往的对话说话系统一般试图识别说话者或用户的语音,从面部表情中提取情绪,并造出仅仅按照来自说话者提供的话题与说话者的情绪匹配的句子来。
而且,在日本未经审查的专利申请公布第9-16800号公开的带有面部图像的语音对话系统是这样一种系统,其中对应于说话的回答的内容被预先限定为表格的形式。因此,这不过是预先确定了回答和对应的情绪,虽然回答的内容包括情绪信息。
一种智能的机器人装置等具有它自己的包括情绪等的内部状态,并且能够通过向外界输出所述内部状态而在更深层次上与用户实现交流。
但是,在传统的机器人装置等中,用于表达内部状态的手段局限于仅仅四肢等的动作,不能由每个人看一眼就识别出所表达的意思。
发明内容
本发明的一个目的在于提供一种高级的机器人装置、一种用于所述机器人装置的控制方法和一种存储介质产品,它们可以应用到机器人装置等,如行走机器人或多联接机器人——所述机器人响应于来自用户的命令和/或外部环境而动作,或应用于根据计算机图像(CG)操作的动画角色等。
本发明的另一个目的在于提供一种高级的机器人装置——它能够根据机器人装置等的情绪而造句和说出这些句子、一种用于所述机器人装置的控制方法和一种存储介质产品。
本发明的另一个目的在于提供一种高级的机器人装置——它能够根据机器人装置等的内部状态而造句和说出这些句子并因此表达出所述内部状态、一种用于所述机器人装置的控制方法和一种存储介质产品。
为了实现上述目的而实现了本发明,按照本发明的第一个方面,提供了一种具有与用户对话功能的机器人装置或一种对于这种机器人装置的控制方法,包括:
外部状态输入装置或步骤,用于输入一种外部状态;
内部状态管理装置或步骤,用于管理内部状态;
对话控制装置或步骤,用于根据与用户的对话而反映内部状态的变化。
利用按照本发明的第一个方面的机器人装置或用于所述机器人装置的控制方法,机器人装置等可以识别外部状态、改变诸如情绪的内部状态、和根据对话而反映内部状态的改变。内部状态与语句无关,但是它独立于系统而存在,总是根据系统的各种外部输入和内部变化而改变。
因此,即使对机器人装置等问出同样的问题,回答的内容根据此时的内部状态而改变,并且回答的方式也根据内部状态而不同。于是,机器人装置等可以利用语言来表达它的内部状态。
结果,任何人能够容易地确认机器人装置等的内部状态。例如,任何人能够明白机器人的喜好或与机器人进行更深的交流。也有可能扩大在人和机器人装置等之间的对话的范围、提高其间的熟悉程度和便利情感相通,以便用户感觉与机器人装置等更为熟悉。因此,可以更容易地实现在人与机器人装置等之间的共同居住。
而且,机器人装置等可以利用语言表达根据与真实世界交互而改变的情绪。因此,可以设计和制造更容易明白的和与每个人更为熟悉的机器人装置等。因此有可能增进机器人装置等的趣味性和娱乐性。
另外,由于根据内部状态而说出语句,因此机器人装置等能够不仅响应于外部刺激即来自用户的问题,而且响应于各种内部刺激或内部状态而造句。
另外,本发明也可以被实现为一种变化形式,以便根据语句而反映内部状态的改变的因素。另外,也可以基于关于动词和形容词以及代词的信息而造出反映内部状态的语句和解释内部状态的语句。
按照本发明的第二方面,提供了一种具有与用户对话功能的机器人装置或用于所述机器人装置的控制方法,包括:
外部状态输入装置或步骤,用于输入外部状态;
外部状态识别装置或步骤,用于识别所输入的外部状态;
外部状态理解装置或步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理装置或步骤,用于管理内部状态;
对话造句装置或步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出装置或步骤,用于向外部输出所造出的对话语句。
利用按照本发明的第二个方面的机器人装置或用于所述机器人装置的控制方法,机器人装置等可以识别外部状态、改变诸如情绪的内部状态、和根据对话而反映内部状态的改变。内部状态与语句无关,但是它独立于系统而存在,总是根据系统的各种外部输入和内部变化而改变。
因此,即使对机器人装置等问出同样的问题,回答的内容根据此时的内部状态而改变,并且回答的方式也根据内部状态而不同。于是,机器人装置等可以利用语言来表达它的内部状态。
就此而论,内部状态被构成作为例如机器人装置的情绪。然后,所述内部状态管理装置或步骤响应于外部状态的改变而改变内部状态。
而且,机器人装置等可以进一步包括一个数据库,其中存储了通过将外部状态以及内部状态分类而获得的结果。在这种情况下,所述对话造句装置或步骤可以利用数据库造出一个对话语句。
而且,机器人装置或用于所述机器人装置的方法可以进一步包括:动作/行为建立装置或步骤,用于根据外部状态与内部状态对比的识别结果来建立机器人体的动作或行为;机器人体控制装置或步骤,用于实现所建立的机器人体的动作或行为。在这种情况下,机器人装置等能够不仅通过对话而且通过机器人体的动作来表达内部状态的改变。
按照本发明的第三方面。提供了一种与用户对话的对话装置或对话控制方法,包括:
外部状态输入装置或步骤,用于输入外部状态;
内部状态管理装置或步骤,用于管理内部状态;
对话控制装置或步骤,用于根据与用户的对话而反映内部状态的改变。
利用按照本发明的第三个方面的对话装置或对话控制方法,所述对话装置可以识别外部状态、改变诸如情绪的内部状态、和根据对话而反映内部状态的改变。所述内部状态与语句无关,但是它独立于系统而存在,总是根据系统的各种外部输入和内部变化而改变。
因此,即使对对话装置问出同样的问题,回答的内容根据此时的内部状态而改变,并且回答的方式也根据内部状态而不同。因此,对话装置可以表达它的使用下的内部状态。
按照本发明的第四方面,提供了一种与用户对话的对话装置或对话控制方法,包括:
外部状态输入装置或步骤,用于输入外部状态;
外部状态识别装置或步骤,用于识别所输入的外部状态;
外部状态理解装置或步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理装置或步骤,用于管理内部状态;
对话造句装置或步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出装置或步骤,用于向外部输出所造出的对话语句。
利用按照本发明的第四个方面的对话装置或对话控制方法,所述对话装置可以识别外部状态、改变诸如情绪的内部状态、和根据对话而反映内部状态的改变。所述内部状态与语句无关,但是它独立于系统而存在,总是根据系统的各种外部输入和内部变化而改变。
因此,即使对对话装置问出同样的问题,回答的内容根据此时的内部状态而改变,并且回答的方式也根据内部状态而不同。因此,对话装置可以表达它的使用下的内部状态。
就此而论,所述内部状态管理装置或步骤可以响应于外部状态的改变而改变内部状态。
而且,对话装置可以包括一个数据库,其中存储了通过将外部状态以及内部状态分类而获得的结果。在这种情况下,所述对话造句装置或步骤可以利用存储在数据库中的信息而造出一个对话语句。
按照本发明的第五方面,提供了一种存储介质产品,它物理地以计算机可读的形式存储计算机软件,所述计算机软件用于在计算机系统上执行对具有与用户对话功能的机器人装置的控制,所述计算机软件包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出步骤,用于向外部输出所造出的对话语句。
按照本发明的第六方面,提供了一种存储介质产品,它物理地以计算机可读的形式存储计算机软件,所述计算机软件用于在计算机系统上执行与用户的对话过程,所述计算机软件包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出步骤,用于向外部输出所造出的对话语句。
按照本发明第五和第六方面的存储介质产品的每个都是一种介质产品,用于以计算机可读形式向例如能够执行各种程序代码的通用计算机系统提供计算机软件。所述介质产品的形式为存储介质,如CD(光盘)、FD(软盘)、或MO(磁光盘),它们可以由用户携带和可脱离地装到系统上。或者,技术上有可能经由诸如网络(无论该网络是无线还是有线的)的传输介质向具体的计算机系统提供计算机软件。
所述存储介质产品定义了在计算机软件和存储介质之间的结构或功能合作关系,用于实现在计算机系统上的计算机软件的预定功能。换句话说,通过利用按照本发明第五和第六方面的存储介质产品,在计算机系统上安装预定的计算机软件,在计算机系统上开发出合作的动作,以便提供与利用按照本发明第二方面的机器人装置和用于所述机器人装置的控制方法以及按照本发明第四方面的机器人装置和用于所述机器人装置的控制方法而可以获得的类似的操作和优点。
通过阅读参照附图和本发明的实施例的下面的详细说明,本发明的其他目的、特点和优点将会变得更加清楚。
附图说明
图1是示出按照本发明的用四条腿行走的运动机器人1的外观的图。
图2是原理性示出用于控制运动机器人1的操作的控制单元的硬件结构的方框图。
图3是原理性示出控制器32的功能配置的方框图。
图4是原理性示出信号识别单元41的功能配置的方框图。
图5是原理性示出情绪和本能模式模块42的功能配置的方框图。
图6是原理性示出在根据本实施例的运动机器人1中的对话机构70的功能配置的图。
图7是示出当运动机器人1被用户问并响应回答时执行的对话机构70的操作的一个示例的图。
图8是示出当运动机器人1识别一个物体并随后说话时执行的对话机构70的操作的一个示例的图。
具体实施方式
以下,参照附图来详细说明本发明的一个实施例。
图1是示出按照本发明的用四条腿行走的运动机器人1的外观的图。如图所示,运动机器人1是一个按照四腿动物的形状和结构仿造的多联接运动机器人。具体而言,本实施例的运动机器人1是一个模仿作为宠物的典型例子狗的形状和结构设计的宠物机器人,能够不仅在人生存环境中与人共同居住,而且响应于用户的操作而表达动作。
运动机器人1包括主干单元2、头单元3、尾部4和四条腿,即腿单元6A-6D。
主干单元2容纳有:控制单元(在图1中未示出,后面将说明),用于以管理的方式来控制机器人体的操作;电池21(在图1中未示出),作为机器人体的主电源。
头单元3通过一个颈部接头7被安装在主干单元2上前端,所述颈部接头7具有在翻滚轴、俯仰轴和偏航轴方向上的自由度(如图所示)。并且,头单元3并入了:图象识别单元15,对应于狗的“眼睛”,如CCD(电荷耦合器件)摄像机;麦克风16,对应于“耳朵”;扬声器17,对应于“嘴巴”;触摸传感器18,对应于触觉;多个LED指示器19;遥控器接收单元20,用于接收从用户通过遥控器(未示出)发送的命令。另外,头单元3可以进一步包括构成活体的五个感觉的传感器。
尾部4被通过一个尾部接头8以可弯曲和可旋转的方式安装在主干单元2的上后端,所述尾部接头8具有在翻滚轴和俯仰轴方向上的自由度。
腿单元6A和6B构成前腿,腿单元6C和6D构成后腿。腿单元6A-6D被分别构成为大腿单元9A-9D和小腿单元10A-10D的组合,并被附接在主干单元2下部的四个角,在左右侧的前后端。大腿单元9A-9D通过胯部接头11A-11D连接到主干单元2的相应预定位置,每个胯部接头11A-11D具有在翻滚轴、俯仰轴和偏航轴方向上的自由度。而且,大腿单元9A-9D和小腿单元10A-10D通过膝盖接头12A-12D互相连接,所述膝盖接头12A-12D具有在翻滚轴和俯仰轴方向上的自由度。
在如图所示的具有腿的运动机器人1中,通过按照来自后述的控制单元的命令驱动各个接头激励器,机器人能够进行动作,诸如垂直和水平摆动头单元3的动作、摇动尾部4和通过同步合作驱动脚单元6A-6D而行走或跑动。运动机器人1的每个接头的运动的自由度实际上通过旋转为各个轴提供的接头激励器(未示出)而被实现。运动机器人1的每个接头的运动的自由度的数量是设计的选择问题,不应当解释为对本发明的本质的限制。
图2原理性示出用于控制运动机器人1的操作的控制单元的硬件结构。
头单元3包括:命令接收单元30,由麦克风16和遥控器接收单元20构成;外部传感器31,包括图象识别单元15和触摸传感器18;扬声器17;LED指示器19。
主干单元2容纳有:电池21,作为主电源,控制器32,用于以管理的方式控制运动机器人1的整体操作;内部传感器35,包括用于检测电池21的剩余电量的电池传感器33和用于检测在机器人体内产生的热量的热传感器34。
而且,多个激励器23A-23N被安排到运动机器人1的各个部分(如驱动接头部分)。
命令接收单元30由遥控器接收单元20和麦克风16构成,能够接收命令,如从用户向运动机器人1发出的“走!”、“躺下!”和“追球!”。
遥控器接收单元20接收从用户操作的遥控器(未示出)输入的命令,产生接收信号S1A,并将其发送到控制器32。通过利用例如近距离无线数据通信技术传送那些来自遥控器的命令,近距离无线数据通信技术如红外线数据通信(IrDA)、蓝牙或IEEE802.11b。
当用户发出对应于任何所期望的命令的语音的时候,麦克风16采集所述语音,产生语音信号S1B,并将其发送到控制器32。
触摸传感器18作为外部传感器31中的一个检测从用户施加到运动机器人1的动作,如“抚摸”和“打击”。当用户例如通过触摸触摸传感器18施加所期望的动作的时候,触摸传感器18产生相应的触摸检测信号S2A,并将其向控制器32发送。
图象识别单元15作为外部传感器31中的另一个检测周围环境信息,如“天黑了”和“有个喜爱的玩具”,作为识别运动机器人1周围的环境的结果,或检测其他运动机器人的活动,如“另一个机器人在跑动”。图象识别单元15向控制器32发送作为提取环境图像的结果而获得的图像信号S2B。
内部传感器35检测运动机器人1本身的内部状态,如“感到饥饿”和“发烧”,“感到饥饿”表示电池的剩余电量较低。电池传感器33和热传感器34被包括在内部传感器35中。
电池传感器33检测作为机器人体的主电源的电池21的剩余电量,并向控制器32发送产生的电池电量检测信号S3A。并且,热传感器34检测在机器人体内部产生的热量,并向控制器32发送产生的热检测信号S3B。
按照从命令接收单元30提供的命令信号S1、从外部传感器31提供的外部信息信号S2以及从内部传感器35提供的内部信息信号S3,控制器32产生用于驱动激励器23A-23N的控制信号S5A-S5N,并将它们分别发送到激励器23A-23N,因此以管理的方式来控制机器人体的操作。
在这种情形下,控制器32按照要求产生语音信号10和发光信号S11,将它们向外输出。语音信号S10被通过扬声器17输出到外部,发光信号S11被发送到LED指示器19,LED指示器19用于发出一个所期望的光输出(如闪烁或改变颜色),以便可以向用户反馈表示例如机器人体的内部状态的信息。用户可以以发光输出被通知例如运动机器人1的情绪。可以提供用于显示图象的图像显示器(未示出)来取代LED指示器19。这使得运动机器人能够通过在显示器上显示的所期望的图像更精确和贴近地向用户提供关于它的情绪等的信息。
下面说明通过控制器32进行的对机器人体的控制。
图3原理性示出控制器32的功能配置。如图3所示,控制器32包括多种模块,即信号识别模块41、情绪和本能模式模块42、动作确定机构模块43、姿势转换机构模块44和控制机构模块45。这些模块可以在实际中以软件处理来实现,所述软件处理通过预定的程序代码的执行在计算机上执行。
信号识别模块41执行处理以识别和理解表示内部状态和外部环境的多种输入信号。图4原理性示出信号识别单元41的功能配置。下面参照图4进行说明信号识别模块41的功能。
触摸传感器18包括例如接触传感器和压敏传感器,它们被散布在整个的运动机器人1上。例如,当用户向运动机器人1施加外力——指“抚摸”或“打击”——的时候,产生的传感器输入信号S2A被提供到含义转换器52。含义转换处理器51翻译或推断在诸如“抚摸”或“打击”的用户操作中包含的暗示和含义,并向语言处理器56输出所获得的结果作为文本形式的含义转换数据。
图象识别单元15被构成作为图像提取器件,如CCD(电荷耦合器件)。在捕获到例如用户的动作或行为(包括手势)时产生的图像输入信号S2B被提供给含义转换处理器52。含义转换处理器56翻译或推断在用户的动作或行为中包括的含义和暗示,并向语言处理器56输出所获得的结果作为文本形式的含义转换数据。而且,当作为图像输入具有预先以语言形式定义的含义的视觉识别信息(如“计算机代码”和陆标)的时候,含义转换处理器52能够执行唯一地对应于图象识别的结果的含义转换处理。
来自麦克风16的语音输入信号S1B从头部产生。语音识别处理器53将通过语音输入单元53输入的用户的语音识别为文本,并将它输出到语言处理器56。
电池传感器33检测作为机器人体的主电源的电池21的剩余电量,结果产生的电池电量检测信号S3A被提供到含义转换处理器54。含义转换处理器54翻译或推断在电池21的剩余电量中包含的含义和暗示,诸如“感到饥饿”,并向语言处理器56输出获得的结果作为文本形式的含义转换数据。
热传感器34检测在机器人体中产生的热量,结果产生的热检测信号S3B被提供到含义转换处理器55。含义转换处理器55翻译或推断在机器人体的检测的热量中包含的含义和暗示,诸如“发烧”,并向语言处理器56输出获得的结果作为文本形式的含义转换数据。
语言处理器56利用语言数据库57分析在从外部传感器31、内部传感器35等输入的结果中包含的含义和暗示,并理解以语言或语句形式输入的结果。而且,语言处理器56以语句或另一种形式向情绪和本能模式模块42发送从外部传感器31、内部传感器35等输入的信息的识别结果。
语言数据库57以数据库的形式存储可以由运动机器人1识别或表达的事情。在本实施例中,如后所述,语言数据库57管理一个数据库,其中包括通过将外部状态与情绪分类而获得的结果。存储在语言数据库57中的内容通过经验和学习而更新。
语言处理器56引用语言数据库57来处理在运动机器人1中关于可识别或可表达事情的愉快/不愉快和相关的含义。并且,语言处理器56通过比较可识别或可表达的事情和根据所述含义而分解的词汇而造出具有匹配的语句内容的语句。所造出的语句通过诸如扬声器17的输出装置被表达。
再次返回图3,下面说明由控制器32进行的控制。情绪和本能模式模块42以构成运动机器人1的内部状态的情绪和本能的模式的形式进行处理,并依据在通过信号识别单元41检测的机器人体内外的环境的变化来改进情绪模式和本能模式。
动作决定机构模块43不仅按照命令信号S1、外部信息信号S2和内部信息信号S3、而且按照从情绪和本能模式模块42获得的情绪和本能状态信息S10而确定将由运动机器人1执行的下一个动作(行为)。
姿势转换机构模块44计划用于向下一个动作(行为)转换的姿势转换进度表,所述下一个动作(行为)由动作确定机构模块43确定。另外,关于由动作确定机构模块43确定的动作(行为)的信息被反馈回情绪和本能模式模块42,以便情绪和本能模式模块42可以参照已经确定的动作(行为)而确定情绪和本能的状态。
按照根据姿势转换进度表从姿势转换机构模块44发送的姿势转换信息S18,控制机构模块45控制诸如激励器23A-23N的各个驱动单元的操作,然后实际地转换用于执行由动作确定机构模块43确定的下一个动作(行为)的姿势。
图5原理性示出情绪和本能模式模块42的功能配置。如图5所示,情绪和本能模式模块42被主要划分成包含情绪模式的情绪组60和包含本能模式的期望组61,所述本能模式被准备为具有与情绪模式不同的属性的模式。
在此,每个情绪模式是由具有特定值的一情绪参数构成的一个模式,用于依据所述情绪参数的值通过一个动作来表达运动机器人1指定的情绪之一。情绪参数的值主要按照外部输入信号(外部因素)而上下改变,所述外部输入信号(外部因素)对应于诸如由诸如压力传感器或视觉传感器的传感器检测的“打击”或“责骂”的场合。当然,情绪参数也按照内部输入信号(内部因素)而改变,所述内部输入信号(内部因素)表示在机器人体内的温度或电池剩余电量。
本能模式每个是由具有特定值的一个本能参数构成的一个模式,用于依据所述本能参数的值通过一个动作来表达运动机器人1指定的本能(期望)之一。本能参数的值主要按照内部输入信号而上下改变,所述内部输入信号表示诸如基于动作历史的“锻炼”或基于剩余电池电量的“充电(饥饿)”的愿望。当然,本能参数也与情绪参数类似地按照外部输入信号(外部因素)而改变。
这些组情绪模式和本能模式每个由多种具有相同属性的模式组成。更具体而言,情绪组60包括作为具有相同属性的独立情绪模式的情绪单元60A-60F,期望组61包括作为具有相同属性的独立期望模式的期望单元61A-61D。
情绪组60包括,例如,表示“快乐”的情绪单元60A、表示“悲哀”的情绪单元60B、表示“愤怒”的情绪单元60C、表示“惊讶”的情绪单元60D、表示“恐惧”的情绪单元60E和表示“厌恶”的情绪单元60F。并且,期望组61包括,例如,表示“运动本能”的期望单元61A、表示“喜爱本能”的期望单元61B、表示“在充电本能”的期望单元61C和表示“搜索本能”的期望单元61D。
每个情绪单元60A-60F利用诸如0-100级(即情绪参数的值)的强度指示情绪程度,并按照提供到相应的情绪单元的命令信号S1、外部信息信号S2和内部信息信号S3时时改变情绪的强度。因此,情绪和本能模式模块42将时时改变的情绪单元60A-60F的强度彼此组合,因此表达出运动机器人1的情绪状态和随着时间改变的模式情绪。
并且,所期望的情绪单元相互影响以便改变它们的强度。例如,情绪单元以被以相互抑制的方式或相互激励的方式结合,以便情绪单元的强度根据它们之间的相互影响而改变。
按照本实施例的运动机器人1可以基于语句而识别外部状态,并且可以基于内部状态产生情绪,因此使得情绪改变能够在与用户的对话时被反映。在本实施例中所指的内部状态与语句无关,但是它独立于系统而存在,并且总是根据系统的各种外部输入和内部变化而改变。换句话说,由于运动机器人1根据它自己的内部状态执行诸如说出语句的表达操作,因此运动机器人1能够不仅响应于外部刺激——即来自用户的问题,而且响应于各种内部刺激或内部状态而造句,并且以与用户对话的形式口头表达所造出的语句。因此,即使当对于机器人装置等问相同的问题的时候,回答的内容依据此时的内部状态而改变,提供回答的方式也根据内部状态而不同。
图6原理性示出按照本实施例的在运动机器人1中提供的对话机构70。如图6所示,对话机构70由识别对象71、理解对象72、语言数据库57、内部状态对象73、建立对象74和执行对象75组成。
识别对象71将来自诸如麦克风16和触摸传感器18的硬件的输入以可识别的形式送到系统中。
理解对象72向由识别对象71取得的形式提供含义。例如,理解对象72对于压力80给予含义“打击”,或对于三角给予含义“三角形”。
理解对象72参考语言数据库57并从语言数据库搜索可识别或可表达的事情的对应者。语言数据库57以数据库的形式存储可以由运动机器人1表达或识别的事情。最好,语言数据库57管理一个数据库,其中包括通过将外部状态与情绪分类获得的结果。关于每个可识别或可表达的事情的在运动机器人1中的愉快/不愉快和相关的含义也参见语言数据库57被处理。以经验和学习更新语言数据库57。而且,语言数据库57包括语句模版,能够通过比较可识别或表达的事情和按照含义分解的词汇而造出具有匹配的语句内容的语句。
在信号识别单元41中包括识别对象71、理解对象72和语言数据库57(见图3)。
内部状态对象73由例如情绪和本能模式模块42(见图3)组成,并按照由理解对象提供的含义改变运动机器人1的内部状态。
建立对象74由动作确定机构模块43构成(见图3),并按照理解对象72和内部状态对象73的输出来确定运动机器人1的下一个动作(行为)。在本实施例中,建立对象74以身体动作表达的行为和语句的形式来建立下一个动作。
执行对象75执行由建立对象74建立的对象并向外部输出所建立的对象。当建立的对象是一个动作的时候,通过驱动激励器23A-23N而以机器人体的操作来执行所述动作。当所建立的对象是一个语句的时候,通过扬声器17发声而执行它。执行对象由姿势转换机构模块44和控制机构模块45组成(见图3)。
另外,由执行对象75执行的外部输出的结果被反馈给内部状态对象73用于改变内部状态。
下面说明在运动机器人1中的对话机构70的操作的示例。
图7是示出当运动机器人1被用户问并响应地回答时执行的对话机构70的操作的一个示例的图。
运动机器人1包括存储可识别和可表达事情的数据库。当用户问运动机器人1“你喜欢球吗?”的时候,运动机器人1用麦克风16采集所发出的人的语言,基于HMM(隐藏的马尔可夫Markov模式)等在识别对象71中执行语音识别,并根据所识别的结果来分解语句(隐藏的马尔可夫模式的获得是通过语音的概率模型单元,诸如音素和词汇,并具有状态转换结构)。而且,理解对象72确定语音输入语句是疑问句、主语(S)和谓语(V)分别是什么,以及确定所述语句问的是对S的喜好(日语中显然S是“球”)。
在这个示例中,理解对象72从数据库57取出“球”并确定“球”具有高的愉快分数,即它是“喜爱的物品”。建立对象74造出对于问题“Do+S+V?”的回答“S+V”,即“我喜欢球”。然后,执行对象75建立对应于所造出的语句的发音链,产生发音链的波形,并通过扬声器17发出所述波形。结果,实现了关于喜好的问题与回答的对话。
类似地,当输入“为什么你喜欢球?”的时候,理解对象72根据由识别对象71分解的语句确定输入的语句是一个疑问句、主语(S)和谓语(V)分别是什么,以及确定所述语句问为什么S+V的原因。
在这个示例中,理解对象72从数据库57中取出“球”,并提取因素“能够踢”,这确定了愉快/不愉快的分数。然后,基于指出原因的语句“因为OO而S+V”,建立对象74造出一个回答语句“因为我可以踢它而S+V”。其后,执行对象75建立对应于所造出的语句的发音链,产生发音链的波形,并通过扬声器17发出所述波形。结果,实现了关于喜好的问题与回答的对话。
不仅名词而且名词化的动词(如“玩”)和名词化的形容词(诸如“美丽”或“快乐”)可以用做主语S(在日语中明显)。这扩展了语句表达的宽度。
另外,当用户指着球问“你喜欢它吗?”,识别对象71划分所输入的语句,其后理解对象72理解,在输入的语句中的对应于“S”的“它”(在日语中明显是S)是一个指示代词。然后,运动机器人1基于图像的输入确定用户指的是什么,并组合“它”和“球”。在以这种方式组合指示代词与具体东西之后,以如上所述的相同方式执行处理。
图8示出当运动机器人1用摄像机识别一个物体的时候执行的对话机构70的操作的一个示例。
当诸如“球”的可识别的东西被放在运动机器人1的视野中的时候,运动机器人1利用摄像机15获取所述东西的图像。然后,识别对象71确定所获取的图像表示一个球。
理解对象72参见数据库57而取出“球”,并确定“球”具有高愉快分数,即它是“喜爱的物品”。
相应地,建立对象74造出一个语句“S+V”,即“我喜欢球”。然后,执行对象75建立对应于所造出的语句的发音链,产生发音链的波形,并通过扬声器17发出所述波形。结果,实现了关于运动机器人1本身喜好的表达。
最后,下面列出按照这个实施例的通过应用对话结构70而造出的语句的示例。
(1)运动机器人在看到不知名称的东西的时候问“这是什么?”
(2)它在看到知道名称的东西的时候说“这是OO”。
(3)基于其中的本能模式和情绪模式的参数值,它说“OO是XX”。
示例:在具有高的“饥饿(在充电)”分数的时候,它说“我饿”。
示例:在具有高的“快乐”分数的时候,它说“我快乐”。(4)对于满足运动机器人的情绪或本能的事情,它说:“我要XX(OO)”。示例:为了满足锻炼本能,它说“我要踢球”。示例:为了解渴,它说“我要喝水”。(5)响应于用户说出的词汇“OO”,它明白所述词汇表示一个祈使句,并回答“我OO”。补充
本发明已经被参照具体的实施例而得到详细说明。但是本领域的技术人员会明白,在不脱离本发明的范围的情况下,可以对于上述的实施例进行形式和细节上的各种改变和替换。
虽然在本说明书中主要说明了本发明被应用到宠物机器人的实施例,本发明的要点不总是限于称做“机器人”的产品。换句话说,本发明可以类似地应用到属于诸如玩具的其他工业领域的产品,只要所述产品是机械装置,可以通过利用电或磁动作模仿人类行为而动作。当然,本发明可以进一步应用到基于计算机图像(CG)操作的动画角色等。
因此,上面仅仅以示例公开了本发明,不应当以限定的方式来解释本发明。应当以权利要求的范围来判断本发明的要点。
产业上的应用性
按照本发明,提供了一种高级的机器人装置、一种用于所述机器人装置的控制方法和一种存储介质产品,它们可以应用到机器人装置等,如行走机器人或多联接机器人——所述机器人响应于来自用户的命令和/或外部环境而动作,或应用于根据计算机图像(CG)操作的动画角色等。
而且,按照本发明,提供了一种高级的机器人装置——它能够根据机器人装置等的内部状态而造句和说出这些句子并因此表达所述内部状态、一种用于所述机器人装置的控制方法和一种存储介质产品。
利用按照本发明的机器人装置或用于所述机器人装置的控制方法,机器人装置等可以利用语言来表达它的内部状态。结果,任何人能够容易地确认机器人装置等的内部状态。例如,任何人能够明白机器人的喜好或与机器人进行更深的交流。也有可能扩大在人和机器人装置等之间的对话的范围、提高其间的熟悉程度和便利情感相通,以便用户感觉与机器人装置等更为熟悉。因此,可以更容易地实现在人与机器人装置等之间的共同居住。
而且,利用按照本发明的机器人装置或用于所述机器人装置的控制方法,机器人装置等可以利用语言表达根据与真实世界交互而改变的情绪。因此,可以设计和制造更容易明白的和与每个人更为熟悉的机器人装置等。因此有可能增进机器人装置等的趣味性和娱乐性。
利用按照本发明的机器人装置或用于所述机器人装置的控制方法,内部状态(情绪被当作内部状态的一部分)与语句无关,但是它独立于系统而存在,并总是根据系统的各种外部输入和内部变化而改变。因此,即使对机器人装置等提出同样的问题,回答的内容根据此时机器人装置等的内部状态而改变,并且回答的方式也根据内部状态而不同。应当特别记住的是内部状态与语句无关,而语句是根据内部状态而造出的。
另外,利用按照本发明的机器人装置或用于所述机器人装置的控制方法,由于根据内部状态而说出语句,因此机器人装置等能够不仅响应于外部刺激即来自用户的问题、而且响应于各种内部刺激或内部状态而造句。本发明也可以被实现为一种变化形式,以便根据语句而反映内部状态的改变的因素。另外,也可以基于关于动词和形容词以及代词的信息而造出反映内部状态的语句和解释内部状态的语句。

Claims (22)

1.一种具有与用户对话功能的机器人装置,包括:
外部状态输入装置,用于输入一种外部状态;
内部状态管理装置,用于管理内部状态;
对话控制装置,用于根据与用户的对话而反映内部状态的变化。
2.一种具有与用户对话的功能的机器人装置,包括:
外部状态输入装置,用于输入外部状态;
外部状态识别装置,用于识别所输入的外部状态;
外部状态理解装置,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理装置,用于管理内部状态;
对话造句装置,用于根据外部状态与内部状态对比的识别结果来造出对话语句;以及
输出装置,用于向外部输出所造出的对话语句。
3.按照权利要求2所述的机器人装置,其中所述内部状态被构成为所述机器人装置的情绪。
4.按照权利要求2所述的机器人装置,其中所述内部状态管理装置响应于外部状态的改变而改变内部状态。
5.按照权利要求2所述的机器人装置,还包括存储装置,用于存储通过将外部状态以及内部状态分类而获得的结果,
所述对话造句装置可以利用存储在所述存储装置中的信息造出一个对话语句。
6.按照权利要求2所述的机器人装置,还包括:
动作/行为建立装置,用于根据外部状态与内部状态对比的识别结果来建立机器人体的动作或行为;以及
机器人体控制装置,用于实现所建立的机器人体的动作或行为。
7.一种用于具有与用户对话功能的机器人装置的控制方法,包括步骤:
外部状态输入步骤,用于输入一种外部状态;
内部状态管理步骤,用于管理内部状态;
对话控制步骤,用于根据与用户的对话而反映内容状态的变化。
8.一种用于具有与用户对话功能的机器人装置的控制方法,包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;以及
输出步骤,用于向外部输出所造出的对话语句。
9.按照权利要求8所述的机器人装置的控制方法,其中所述内部状态被构成为所述机器人装置的情绪。
10.按照权利要求8所述的机器人装置的控制方法,其中所述内部状态管理步骤响应于外部状态的改变而改变内部状态。
11.按照权利要求8所述的机器人装置的控制方法,其中所述对话造句步骤利用一个数据库来造出一个对话语句,所述数据库中存储了通过将外部状态以及内部状态分类而获得的结果。
12.按照权利要求8所述的机器人装置的控制方法,进一步包括:
动作/行为建立步骤,用于根据外部状态与内部状态对比的识别结果来建立机器人体的动作或行为;以及
机器人体控制步骤,用于实现所建立的机器人体的动作或行为。
13.一种与用户对话的对话装置,包括:
外部状态输入装置,用于输入外部状态;
内部状态管理装置,用于管理内部状态;
对话控制装置,用于根据与用户的对话而反映内部状态的改变。
14.一种与用户对话的对话装置,包括:
外部状态输入装置,用于输入外部状态;
外部状态识别装置,用于识别所输入的外部状态;
外部状态理解装置,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理装置,用于管理内部状态;
对话造句装置,用于根据外部状态与内部状态对比的识别结果来造出对话语句;以及
输出装置,用于向外部输出所造出的对话语句。
15.按照权利要求14所述的对话装置,其中所述内部状态管理装置可以响应于外部状态的改变而改变内部状态。
16.按照权利要求14所述的对话装置,还包括存储装置,用于存储通过将外部状态以及内部状态分类而获得的结果,
所述对话造句装置利用存储在所述存储装置中的信息而造出一对话语句。
17.一种与用户对话的对话控制方法,包括步骤:
外部状态输入步骤,用于输入外部状态;
内部状态管理步骤,用于管理内部状态;
对话控制步骤,用于根据与用户的对话而反映内部状态的改变。
18.一种与用户对话的对话控制方法,包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出步骤,用于向外部输出所造出的对话语句。
19.按照权利要求18所述的对话方法,其中所述内部状态管理步骤响应于外部状态的改变而改变内部状态
20.按照权利要求18所述的机器人装置的对话方法,其中所述对话造句步骤可以利用数据库而造出一对话语句,所述数据库中存储了通过将外部状态以及内部状态分类而获得的结果。
21.一种存储介质产品,它物理地以计算机可读的形式存储计算机软件,所述计算机软件用于在计算机系统上执行对具有与用户对话功能的机器人装置的控制,所述计算机软件包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出步骤,用于向外部输出所造出的对话语句。
22.一种存储介质产品,它物理地以计算机可读的形式存储计算机软件,所述计算机软件用于在计算机系统上执行与用户的对话过程,所述计算机软件包括步骤:
外部状态输入步骤,用于输入外部状态;
外部状态识别步骤,用于识别所输入的外部状态;
外部状态理解步骤,用于理解语句形式的所识别的外部状态的暗示和含义;
内部状态管理步骤,用于管理内部状态;
对话造句步骤,用于根据外部状态与内部状态对比的识别结果来造出对话语句;
输出步骤,用于向外部输出所造出的对话语句。
CN02800911A 2001-03-27 2002-03-26 机器人装置及其控制方法和存储介质 Pending CN1460051A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001091029A JP2002283261A (ja) 2001-03-27 2001-03-27 ロボット装置及びその制御方法、並びに記憶媒体
JP91029/2001 2001-03-27

Publications (1)

Publication Number Publication Date
CN1460051A true CN1460051A (zh) 2003-12-03

Family

ID=18945727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN02800911A Pending CN1460051A (zh) 2001-03-27 2002-03-26 机器人装置及其控制方法和存储介质

Country Status (6)

Country Link
US (1) US7251606B2 (zh)
EP (1) EP1407859A1 (zh)
JP (1) JP2002283261A (zh)
KR (1) KR20030007685A (zh)
CN (1) CN1460051A (zh)
WO (1) WO2002076687A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100371926C (zh) * 2004-07-26 2008-02-27 索尼株式会社 通过响应输入语句而输出应答语句的交互对话装置和方法
CN104105223A (zh) * 2013-04-09 2014-10-15 雅力株式会社 使用有线无线通信网的语音对话方法及装置
CN104981188A (zh) * 2013-05-14 2015-10-14 夏普株式会社 电子设备
CN107077315A (zh) * 2014-11-11 2017-08-18 瑞典爱立信有限公司 用于选择要在与用户通信期间使用的语音的系统和方法
CN112506197A (zh) * 2020-12-09 2021-03-16 深圳市优必选科技股份有限公司 一种导览机器人的控制方法、装置、电子设备及存储介质

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2004287016A (ja) * 2003-03-20 2004-10-14 Sony Corp 音声対話装置及び方法並びにロボット装置
CN1894740B (zh) 2003-12-12 2012-07-04 日本电气株式会社 信息处理系统、信息处理方法以及信息处理用程序
WO2006028223A1 (ja) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. 情報処理端末
US7912720B1 (en) * 2005-07-20 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for building emotional machines
US7574361B2 (en) * 2005-09-30 2009-08-11 Motorola, Inc. Radio audio indicator
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
JP5163202B2 (ja) * 2008-03-18 2013-03-13 株式会社国際電気通信基礎技術研究所 物品推定システム
US8948906B2 (en) * 2008-08-14 2015-02-03 Spectra Logic Corporation Robotic storage library with queued move instructions and method of queuing such instructions
US8457778B2 (en) * 2008-08-15 2013-06-04 Spectra Logic Corp. Robotic storage library with queued move instructions and method of queuing such instructions
US8340810B2 (en) * 2008-10-31 2012-12-25 Spectra Logic Corp. Robotic storage library with queued move instructions and method of queuing such instructions
US8666537B2 (en) * 2008-10-31 2014-03-04 Spectra Logic, Corporation Robotic storage library with queued move instructions and method of queing such instructions
EP2299440B1 (en) * 2009-09-11 2012-10-31 Vodafone Holding GmbH Method and Device for automatic recognition of given keywords and/or terms within voice data
US8615322B2 (en) 2010-09-27 2013-12-24 Spectra Logic Corporation Efficient moves via dual pickers
US8682471B2 (en) 2010-09-27 2014-03-25 Spectra Logic Corporation Efficient magazine moves
JP5066242B2 (ja) * 2010-09-29 2012-11-07 株式会社東芝 音声翻訳装置、方法、及びプログラム
SG182033A1 (en) * 2011-01-03 2012-07-30 Katotec Pte Ltd Singapore Robot controllers and content files therefor
JP5892361B2 (ja) 2011-08-02 2016-03-23 ソニー株式会社 制御装置、制御方法、プログラム、及びロボット制御システム
US11561762B2 (en) * 2011-08-21 2023-01-24 Asensus Surgical Europe S.A.R.L. Vocally actuated surgical control system
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9320074B2 (en) * 2012-04-06 2016-04-19 Suitable Technologies, Inc. Method for wireless connectivity continuity and quality
CN104170318B (zh) 2012-04-09 2018-06-01 英特尔公司 使用交互化身的通信
EP3238177A4 (en) 2014-12-23 2018-09-05 Intel Corporation Facial gesture driven animation of non-facial features
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
US9824502B2 (en) 2014-12-23 2017-11-21 Intel Corporation Sketch selection for rendering 3D model avatar
US20160275546A1 (en) * 2015-03-19 2016-09-22 Yahoo Japan Corporation Information processing apparatus and information processing method
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
CN105835064B (zh) * 2016-05-03 2018-05-01 北京光年无限科技有限公司 一种智能机器人的多模态输出方法和智能机器人系统
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP2018161703A (ja) * 2017-03-24 2018-10-18 株式会社 ゼンショーホールディングス 対話制御装置およびロボット制御システム
WO2019010682A1 (zh) * 2017-07-14 2019-01-17 深圳前海达闼云端智能科技有限公司 机器人性格设定方法、装置和机器人
CN108608439A (zh) * 2018-06-29 2018-10-02 华南理工大学广州学院 一种儿童情感宣泄机器人及方法
KR20200043902A (ko) * 2018-10-18 2020-04-28 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US11037576B2 (en) 2018-11-15 2021-06-15 International Business Machines Corporation Distributed machine-learned emphatic communication for machine-to-human and machine-to-machine interactions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000015396A1 (fr) 1998-09-10 2000-03-23 Sony Corporation Appareil robotique, procede de commande de l'appareil robotique, procede d'affichage et support
CN1161700C (zh) * 1999-04-30 2004-08-11 索尼公司 网络系统
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
US6684127B2 (en) * 2000-02-14 2004-01-27 Sony Corporation Method of controlling behaviors of pet robots
US6510417B1 (en) * 2000-03-21 2003-01-21 America Online, Inc. System and method for voice access to internet-based information
US7027975B1 (en) * 2000-08-08 2006-04-11 Object Services And Consulting, Inc. Guided natural language interface system and method
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
CN1236422C (zh) * 2001-05-02 2006-01-11 索尼公司 机器人装置、字符识别方法和装置
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2005161469A (ja) * 2003-12-03 2005-06-23 Sony Corp ロボット装置及びロボット装置のための過電流保護装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100371926C (zh) * 2004-07-26 2008-02-27 索尼株式会社 通过响应输入语句而输出应答语句的交互对话装置和方法
CN104105223A (zh) * 2013-04-09 2014-10-15 雅力株式会社 使用有线无线通信网的语音对话方法及装置
CN104981188A (zh) * 2013-05-14 2015-10-14 夏普株式会社 电子设备
CN104981188B (zh) * 2013-05-14 2017-10-27 夏普株式会社 电子设备
CN107077315A (zh) * 2014-11-11 2017-08-18 瑞典爱立信有限公司 用于选择要在与用户通信期间使用的语音的系统和方法
CN107077315B (zh) * 2014-11-11 2020-05-12 瑞典爱立信有限公司 用于选择要在与用户通信期间使用的语音的系统和方法
CN112506197A (zh) * 2020-12-09 2021-03-16 深圳市优必选科技股份有限公司 一种导览机器人的控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20030182122A1 (en) 2003-09-25
EP1407859A1 (en) 2004-04-14
JP2002283261A (ja) 2002-10-03
US7251606B2 (en) 2007-07-31
WO2002076687A1 (en) 2002-10-03
KR20030007685A (ko) 2003-01-23

Similar Documents

Publication Publication Date Title
CN1460051A (zh) 机器人装置及其控制方法和存储介质
CN1270289C (zh) 对于机器人装置的动作教学装置和方法
US11890748B2 (en) Socially assistive robot
AU2018204246B2 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
CN1187734C (zh) 机器人控制设备
CN1304177C (zh) 机器人装置及其控制方法
CN1132148C (zh) 语音识别对话装置
CN1236422C (zh) 机器人装置、字符识别方法和装置
Kanda et al. Development and evaluation of interactive humanoid robots
CN1220174C (zh) 话音输出装置和方法
JP7119896B2 (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
CN1761554A (zh) 机器人设备、信息处理方法和程序
CN1396857A (zh) 机器人装置及其行为控制方法
CN1302056A (zh) 信息处理设备,信息处理方法和存储介质
CN1894740A (zh) 信息处理系统、信息处理方法以及信息处理用程序
CN1221936C (zh) 词序列输出设备
Hoque et al. Robust recognition of emotion from speech
US20230215436A1 (en) Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
US20220009082A1 (en) Method for controlling a plurality of robot effectors
CN111428006A (zh) 一种基于nao机器人的辅助教学系统及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication