CN1701287A - 对话型装置 - Google Patents

对话型装置 Download PDF

Info

Publication number
CN1701287A
CN1701287A CNA038252929A CN03825292A CN1701287A CN 1701287 A CN1701287 A CN 1701287A CN A038252929 A CNA038252929 A CN A038252929A CN 03825292 A CN03825292 A CN 03825292A CN 1701287 A CN1701287 A CN 1701287A
Authority
CN
China
Prior art keywords
mentioned
user
action model
unit
suggestion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA038252929A
Other languages
English (en)
Inventor
山本真一
山本浩司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1701287A publication Critical patent/CN1701287A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons

Abstract

提供一种无需将生物传感器装备到人体、就能够根据用户的健康状态决定与之相适应行动模式的对话型装置1。对话型装置1具有:掌握单元50b,用来掌握用户的健康状态;行动模式决定单元50c,用来决定与用户的健康状态相适应的行动模式;执行指示单元50g,用来指示执行该行动模式;建议单元50e,用来在指示执行该行动模式之前,通过声音向用户建议该行动模式;建议应诺判定单元50f,用来根据上述用户对上述所建议的行动模式的答复判断其是否接受了所建议的行动模式。当判断结果认为用户的答复是接受了所建议的行动模式的答复时,执行指示单元50g指示执行所建议的行动模式。

Description

对话型装置
技术领域
本发明涉及一种能与用户进行对话的对话型装置。
背景技术
已公开的一种音响装置是,监测生活状态信息,逐步将居住者喜好的音频信号调整到适合于该居住者的当前生活状态和健康状况的电平进行播放(例如,参照专利文献1)。该音响装置利用设置在房间中的传感器来掌握居住者的生活状态,对居住者所装备的便携型收发机(包括生物传感器)发出的识别信号、生活状态信息进行监测,逐步将居住者喜好的音频信号调整到适合于该居住者的当前生活状态和健康状况的电平进行播放。
专利文献1:特开平11-221196号公报
但是,上述专利文献1所述的现有技术中存在着这样的课题,为了获取生物信息等,需要居住者装备便携型收发机,对于居住者来说装备麻烦、非常不方便,而且居住者的生活一直受到设置在房间中的传感器的监视,使人感到不快。
本发明的目的在于提供一种无需将生物传感器装备到人体、就能够根据用户的健康状态决定行动模式的对话型装置。
发明内容
本发明的对话型装置具有:掌握单元,用来掌握用户的健康状态;决定单元,用来根据上述掌握单元所掌握的上述用户的健康状态决定与之相适应的行动模式;执行指示单元,用来指示执行由上述决定单元所决定的行动模式;建议单元,用来在指示执行由上述决定单元所决定的行动模式之前,通过声音向上述用户建议上述行动模式;判定单元,根据上述用户对上述所建议的行动模式的答复判断其是否接受了上述所建议的行动模式;当判断结果认为上述用户的答复是接受了上述所建议的行动模式的答复时,上述执行指示单元指示执行上述所建议的行动模式,由此实现上述目的。
上述掌握单元也可以根据上述用户的语言表达来掌握上述用户的健康状态。
上述掌握单元也可以根据上述用户所说的关键字来掌握上述用户的健康状态。
也可以进一步具有建议必要性有无判定单元,用来在指示执行由上述决定单元所决定的行动模式之前,判断是否需要向上述用户建议上述行动模式;当判断结果认为在指示执行上述行动模式之前有必要向上述用户建议上述行动模式时,上述建议单元通过声音向上述用户建议上述行动模式。
上述建议必要性有无判定单元也可以根据预先分配给上述行动模式的表示建议必要性有无的标志值来判断建议有无必要性。
上述建议必要性有无判定单元也可以根据上述行动模式被执行的执行次数的时间分布来判断建议有无必要性。
上述决定单元也可以将分别被分配了优先顺序的多个行动模式之一决定为与上述用户的健康状态相适应的行动模式,根据上述用户是否接受了该行动模式,来调整分配给该行动模式的优先顺序。
也可以进一步具有存储单元,用来存储与上述用户的健康状态相适应的行动模式;上述决定单元使用上述存储单元中存储的行动模式来决定上述行动模式。
由上述建议单元向上述用户建议的行动模式也可以包含播放设备中所播放的内容的选择。
上述内容也可以包含声音数据、影像数据和照明控制数据,上述播放设备根据照明控制数据来改变照明装置的光量及光线颜色中的至少一项。
上述对话型装置也可以具有代理功能及移动功能中的至少一个功能。
上述用户的健康状态也可以表示上述用户的感情及上述用户的健康状况中的至少一个方面。
本发明的对话型装置具有:声音输入部,用来将用户发出的声音变换为声音信号;声音识别部,基于上述声音输入部所输出的声音信号识别用户所说的语言;对话数据库,用来预先登录上述用户可能说出的语言,并保存上述登录语言与上述用户的健康状态的对应关系;掌握单元,将由上述声音识别部识别得到的语言与上述对话数据库中登录的语言进行对照,根据该对照结果确定上述用户的健康状态,由此掌握上述用户的健康状态;决定单元,基于保存了上述用户的健康状态与对话型装置的行动模式的对应关系的行动模式表,来决定与上述掌握单元所掌握的上述用户的健康状态相适应的行动模式;执行指示单元,用来指示执行由上述决定单元所决定的行动模式;建议单元,用来在指示执行由上述决定单元所决定的行动模式之前,基于上述掌握单元的输出结果和上述决定单元的输出结果合成建议语句,通过声音向上述用户发出上述行动模式的建议;判定单元,根据上述用户对上述所建议的行动模式的答复判断其是否接受了上述所建议的行动模式;当判断结果认为上述用户的答复是接受了上述所建议的行动模式的答复时,上述执行指示单元指示执行上述所建议的行动模式,由此实现上述目的。
也可以进一步具有:接受单元,用来接受上述用户针对上述所建议的行动模式反向建议的行动模式;用来判断上述对话型装置能否执行上述反向建议的行动模式的单元;以及当判断结果认为上述对话型装置能够执行上述反向建议的行动模式时,对上述行动模式表中保存的上述用户的健康状态与上述对话型装置的行动模式的对应关系进行更新的单元。
附图的简要说明
图1是表示作为本发明的对话型装置的一个实例的机器人1的外观的图。
图2是表示机器人1的内部结构的一个实例的图。
图3是表示对话数据库140中保存的用户所说的关键字与用户的健康状态的关系的一个实例的图。
图4是表示信息数据库160中保存的用户的健康状态与机器人1的行动模式的关系的一个实例的图。
图5是表示机器人1掌握用户的健康状态、指示执行与用户的健康状态相适应的行动模式的处理程序的一个实例的流程图。
图6是表示使得声音数据和/或影像数据与照明控制数据能够同步播放的播放装置2100的结构的一个实例的图。
图7是表示声音识别部40的内部结构的一个实例的图。
图8a是表示图2所示的处理部50的内部结构的一个实例的图。
图8b是表示图2所示的处理部50的内部结构的另一个实例的图。
图8c是表示图2所示的处理部50的内部结构的又一个实例的图。
图9是用来说明利用建议单元50e制作建议语句的方法的一个实例的图。
图10是表示建议必要性有无判定单元50d的内部结构的一个实例的图。
图11是表示行动建议必要性表162的结构的一个实例的图。
实施发明的最佳方式
下面,参照附图说明本发明的实施方式。
本说明书中所说的“用户的健康状态”表示用户的感情及用户的健康状况中的至少一个方面。所谓的“用户”是指对话型装置的所有者。
图1表示了作为本发明的对话型装置的一个实例的机器人1的外观。机器人1被设计为能够与用户进行对话的结构。
图1所示的机器人1具有相当于“眼睛”的摄像头10、相当于“口”的扬声器110和天线62、相当于“耳朵”的话筒30和天线62、相当于“头”或“臂”的可动部180。
机器人1可以是具有使自己能够移动的移动部160的自控行走型机器人(移动式机器人),也可以是不能自己移动的类型的机器人。
可以采用任意的机械装置使机器人1能够移动。例如,机器人1的结构既可以是通过控制设置在手脚上的滚轮的旋转来前进、后退,也可以是轮胎式或足式等移动式机器人。机器人1既可以是模仿人类这样的双足直立行走动物的人形机器人,也可以是模仿4足行走动物的宠物型机器人。
此外,虽然作为对话型装置的一个实例对对话型机器人进行了说明,但对话型装置并不限于此。对话型装置可以是具有能与用户进行对话的结构的任意装置。对话型装置可以是例如对话型玩具,也可以是对话型移动设备(包含移动式电话),也可以是对话型代理(agent)。
对话型代理最好是能在因特网这样的信息空间中活动,具有代替人类来进行信息检索、过滤、日程调整等信息处理的功能(软件代理的功能)。对话型代理就像人一样与人对话,因此也被称为拟人化代理。
对话型装置也可以具有代理功能及移动功能中的至少一个功能。
图2表示机器人1的内部结构的一个实例。
图像识别部20从摄像头10(图像输入部)获取图像,对所获取的图像进行识别,将该识别结果输出到处理部50。
声音识别部40从话筒30(声音输入部)获取声音,对所获取的声音进行识别,将该识别结果输出到处理部50。
图7表示声音识别部40的内部结构的一个实例。
声音由声音输入部30(话筒)转换为声音信号波形。声音信号波形被输出到声音识别部40。声音识别部40包含声音检测单元71、比较运算单元72、识别单元73、登录声音数据库74。
声音检测单元71将声音输入部30输入的声音信号波形中满足一定基准的波形部分作为用户实际发声的声音区间提取出来,将该区间的声音信号波形作为声音波形输出到比较运算单元72。这里所说的用来提取声音区间的一定基准可以是,例如,一般的人的声音频带1kHz以下的频率范围中的信号波形的功率达到一定水平以上。
用户可能说出的语言的声音波形与该语言被预先对应起来登录在登录声音数据库74中。
比较运算单元72顺序比较从声音检测单元71输入的声音波形和登录声音数据库74中登录的声音波形,计算出与登录声音数据库74中登录的每个声音波形的相似度,将该计算结果输出到识别单元73。这里所采用的比较2个声音波形的方法可以是将对声音波形进行傅立叶变换等频率分析后各频率的功率分量的差分合计进行比较的方法,也可以是在频率分析后进一步进行在极坐标变换后的倒谱(cepstrum)参数或梅尔倒谱(Mel cepstrum)参数中考虑了时间上的伸缩的DP Matching的方法。为了提高比较运算的效率,也可以将登录声音数据库74中登录的声音波形用作比较运算单元72中的比较因子(例如,各频率的功率分量)。另外,登录声音数据库74中,还将用户的咳嗽或呻吟声等无意发声的情况下的声音波形登录下来,对应的语言则登录为“无意发声”。由此,能够将用户有意的发声与无意发声区别开。
识别单元73从比较运算单元72输入的各个声音波形的相似度之中检测出具有最高相似度的声音波形,通过决定与从登录声音数据库74之中检测出的声音波形相对应的语言,将声音波形转换成文字,并将该文字输出到处理部50。当在各个相似度中找不出大的差异时,就认为输入声音是噪声,不进行声音波形到文字的转换。或者,也可以转换为“噪声”这样的文字。
图8a表示图2所示的处理部50的内部结构的一个实例。
处理部50(处理单元50a)基于声音识别部40的声音识别结果检索对话数据库140,生成应答语句。该应答语句被输出到声音合成部100。声音合成部100将应答语句合成为声音。所合成的声音从扬声器等声音输出部110输出。
对话数据库140中保存了对话模式和应答语句的生成规则。并且对话数据库140中还保存了用户所说的语言(关键字)与用户健康状态的关系。
图3表示对话数据库140中保存的用户所说的关键字与用户的健康状态的关系的一个实例。
在图3所示实例中,用户所说的关键字与用户的健康状态的关系表示为表格形式。例如,该表格的第31行表示“困”、“累”、“没有胃口”这些关键字与“疲劳”这样的用户健康状态(身体状况)相对应。该表格的第32行表示“干得好!”、“太好了!”这些关键字与“喜悦”这样的用户健康状态(感情)相对应。
此外,用户所说的关键字与用户的健康状态的关系的表示方法并不限于图3所示的方法。用户所说的关键字与用户的健康状态的关系可以以任意的表示方法进行表示。
处理部50(掌握单元50b)从声音识别部40的声音识别结果中提取关键字,用该关键字检索对话数据库140。其结果是,处理部50(掌握单元50b)根据该关键字掌握用户的健康状态。例如,当从声音识别结果中提取的关键字是“困”、“累”、“没有胃口”之一时,处理部50(掌握单元50b)参照图3所示的表,判断用户的健康状态为“疲劳”状态。
此外,也可以取代上述使用关键字的方法,或者在上述使用关键字的方法的基础上,进一步根据声音识别结果掌握用户声音的强度或紧张状态,由此掌握用户的健康状态。例如,当处理部50(掌握单元50b)检测到用户声音的强度或紧张状态为规定水平或以下时,处理部50(掌握单元50b)即认为用户的健康状态为“疲劳”状态。
此外,也可以在声音识别部40的声音识别结果基础上,进一步使用图像识别部20的图象识别结果来掌握用户的健康状态。或者,也可以单独使用图像识别部20的图象识别结果来掌握用户的健康状态。例如,当处理部50(掌握单元50b)检测到用户眨眼频度很高(或者用户打呵欠)时,处理部50(掌握单元50b)即认为用户的健康状态为“疲劳”状态。
依照此种方式,处理部50(掌握单元50b)基于用户所说的语言或基于图象识别结果来掌握用户的健康状态,发挥掌握单元的功能。
在信息数据库160中,保存了当天的天气或新闻等信息、各种一般常识等知识、机器人1的用户(所有者)相关的信息(例如,性别、年龄、姓名、职业、性格、兴趣、出生年月日等信息)、及机器人1的相关信息(例如,型号、内部结构等信息)。当天的天气或新闻等信息例如由机器人1通过发送接收部60(通信部)及处理部50从外部取得,保存到信息数据库160中。并且,信息数据库160中还将用户的健康状态与行动模式的关系作为行动模式表161保存起来。
图4表示信息数据库160中保存的行动模式表161的一个实例。行动模式表161定义了用户的健康状态与机器人1的行动模式的关系。
在图4所示实例中,用户的健康状态与机器人1的行动模式的关系表示为表格的形式。例如,该表格的第41行表示“疲劳”这一用户的健康状态与机器人1的3个行动模式相对应。3个行动模式如下。
1)内容的选择、播放:选择用来发挥“治疗”“催眠”效果的内容(软件),将所选择的内容(软件)通过播放设备播放。
2)准备洗澡水:为了建议用户入浴而准备洗澡水。
3)饮料食品的食谱的选择、调理:选择“增进食欲”“营养丰富”饮料食品的食谱,根据所选择的食谱调理饮料食品。
另外,该表格的第42行表示“喜悦”这一用户的健康状态与“欢呼姿势”这一机器人1的行动模式相对应。
此外,用户的健康状态与机器人1的行动模式的关系的表示方法并不限于图4所示方法。用户的健康状态与机器人1的行动模式的关系可以以任意的表示方法进行表示。
机器人1的行动模式的实例包括:选择适合于用户健康状态的内容(软件),并将所选择的内容(软件)通过播放设备进行播放;选择适合于用户健康状态的饮料食品食谱,并根据所选择的食谱调理饮料食品;准备洗澡水;为了取悦用户而表演笑话等。
处理部50(行动模式决定单元50c)响应掌握单元50b所输出的时序信号t1对对话数据库140进行检索,由此,利用通过上述检索所掌握的用户的健康状态检索信息数据库160(行动模式表161)。其结果是,处理部50(行动模式决定单元50c)确定了与用户的健康状态相适应的机器人1的行动模式。例如,当用户的健康状态为“疲劳”状态时,处理部50(行动模式决定单元50c)参照图4所示的表(行动模式表161),将对应于“疲劳”状态而定义的3个行动模式之一确定为机器人1的行动模式。
这里,处理部50(行动模式决定单元50c)能够通过各种方式来将3个行动模式之一确定为机器人1的行动模式。例如,当预先分配了3个行动模式各自的优先顺序时,可以从该优先顺序高的开始按顺序来确定为机器人1的行动模式。也可以根据时段改变该优先顺序。例如,可以在18:00~22:00的时段将“准备洗澡水”的优先顺序置为最高,在6:00~8:00、11:00~13:00、17:00~19:00的时段将“饮料食品的食谱的选择、调理”的优先顺序置为最高,在其他时段将“内容的选择、播放”的优先顺序置为最高。
这样,处理部50(行动模式决定单元50c)根据基于掌握单元50b掌握的用户健康状态决定与之相适应行动模式,发挥决定单元的功能。
处理部50(执行指示单元50g)响应行动模式决定单元50c所输出的时序信号t2生成与所决定的行动模式相应的控制信号,并将该控制信号输出到动作控制部120。
动作控制部120根据处理部50(执行指示单元50g)输出的控制信号来驱动各种致动器130。由此可以使机器人1在期望的样态下动作。
例如,当所决定的行动模式为“欢呼姿势”时,动作控制部120根据处理部50(执行指示单元50g)输出的控制信号来驱动使机器人1的“手臂”上下动作的致动器(致动器130的一部分)。或者也可以是,当所决定的行动模式为“内容的选择、播放”时,动作控制部120根据处理部50(执行指示单元50g)输出的控制信号来驱动用来控制机器人1的“手指”(抓握单元)的致动器(致动器130的一部分),使其抓住碟片并将碟片插入播放设备。例如,假定多个碟片按规定顺序整理存放在托架中。
这样,处理部50(执行指示单元50g)指示动作控制部120执行由行动模式决定单元50c所决定的行动模式,发挥执行指示单元的功能。
或者也可以是,当所决定的行动模式为“准备洗澡水”时,处理部50(执行指示单元50g)控制遥控部70向热水供应控制装置发送遥控信号。热水供应控制装置根据遥控信号向浴缸中适量供给适当温度的热水(或者,在向浴缸中适量供水后,将水加热至适当温度)。这种情况下,处理部50(执行指示单元50g)指示遥控部70执行由行动模式决定单元50c所决定的行动模式,发挥执行指示单元的功能。
或者也可以是,当所决定的行动模式为“内容的选择、播放”时,处理部50(执行指示单元50g)控制遥控部70向播放设备发送遥控信号。播放设备根据遥控信号从插入到播放设备中的碟片中选择内容,并进行播放。当播放设备连接到能插入多片碟片的碟片自动换片器时,该播放设备根据遥控信号从多片碟片中选择内容,并进行播放。此外,可以将包含了多片碟片中全部曲目的选曲单保存到处理部50的存储器中,也可以由播放设备从碟片的头部开始读取该碟片的选曲单,通过发送接收部60保存到处理部50内的存储器中。这种情况下,处理部50(执行指示单元50g)指示遥控部70执行由行动模式决定单元50c所决定的行动模式,发挥执行指示单元的功能。
图8b表示图2所示的处理部50的内部结构的另一个实例。在图8b所示的实例中,处理部50(建议单元50e)在指示执行所决定的行动模式前,以声音形式向用户建议该行动模式。例如,当所决定的行动模式是“准备洗澡水”时,处理部50(建议单元50e)响应行动模式决定单元50c所输出的时序信号t2,参照对话数据库140,生成“您看起来累了。需要准备洗澡水吗?”这样的疑问句(建议语句),并输出到声音合成部100。声音合成部100将该疑问句合成为声音。所合成的声音从声音输出部110输出。
接着,参照图9说明建议单元50e生成建议语句的方法。建议单元50e内部具有建议语句合成部。对话数据库140内部具有建议语句格式数据库,该建议语句格式数据库中记录保存着与多个建议表达相对应的多个建议语句格式。这里所说的“建议表达”是指例如图9实例所示的“您A了,需要B吗?”、“您看起来A,需要B吗?”这样的表示建议动机的原因(A)与相对应的响应(B)的表达形式。
首先,建议单元(建议语句合成部)50e根据掌握单元50b输入的“所掌握的健康状态”和行动模式决定单元50c输入的“所决定的行动模式”,从建议语句格式数据库中选择与上述“所掌握的健康状态”匹配的建议语句格式。其次,建议单元(建议语句合成部)50e将“所掌握的健康状态”插入到建议语句格式的A处,将“所决定的行动模式”插入到建议语句格式的B处,由此合成建议语句。例如,“所掌握的健康状态”为“疲劳”、“所决定的行动模式”为“准备洗澡水”时,建议单元(建议语句合成部)50e合成“您看起来疲劳了,需要准备洗澡水吗?”这样的建议语句。建议语句输出到声音合成部100。声音合成部100将建议语句合成为声音。所合成的声音从声音输出部110输出。
依照此种方式,处理部50(建议单元50e)使用对话数据库(建议语句格式数据库)140和声音合成部100、声音输出部110,在指示执行由行动模式决定单元50c所决定的行动模式前,通过声音向用户建议该行动模式,发挥建议单元的功能。
用户对机器人1的建议作出答复,要么接受该建议,要么不接受。例如,用户接受(Yes)该建议时的意见表示可以是“好”、“是呀”、“那样做吧”等答复,拒绝(No)该建议时的意见表示可以是“不”、“不必”、“不需要”等答复。这样的答复的模式预先保存在对话数据库140中。
处理部50(建议应诺判定单元50f)响应建议单元50e输出的时序信号t5,参照对话数据库140分析声音识别部40的声音识别结果,由此判定用户的答复是接受(Yes)建议的答复还是不接受(No)建议的答复。
依照此种方式,处理部50(建议应诺判定单元50f)利用声音识别部40和对话数据库140,判定用户对所建议的行动模式的答复是否是接受该建议的行动模式的答复,发挥建议应诺判定单元的作用。
图8c表示图2所示的处理部50的内部结构的又一个实例。也可以在指示执行所决定的行动模式之前,判定是否需要向用户建议该行动模式。例如,预先设定图11所示的行动建议必要性有无表162,其中为图4所示的表的各行动模式预先分配了表示是否有必要建议的标志,由此,处理部50(建议必要性有无判定单元50d)能够根据该标志的值判定是否有必要建议。例如,处理部50(建议必要性有无判定单元50d)在行动模式被分配的标志值为“1”的情况下,在指示执行该行动模式之前向用户建议该行动模式;在行动模式被分配的标志值为“0”的情况下,不在指示执行该行动模式之前向用户建议该行动模式。
例如,对于“准备洗澡水”这一行动模式,最好是要求事先向用户进行建议。用户是否入浴很大程度上取决于当时的心情,如果不要求事先向用户进行建议,恐怕会显得强加于人。再例如,对于“欢呼姿势”这一行动模式,最好是不要求事先向用户进行建议。这是因为,逐一向用户事前请示后再欢呼,会给人一种例行公事的感觉。
依照此种方式,处理部50(建议必要性有无判定单元50d)利用信息数据库160(行动建议必要性表162)在指示执行所决定的行动模式之前,判断是否有必要向用户建议该行动模式,发挥建议必要性有无判定单元的作用。
在确定了执行行动模式的时段的情况下,或者在该行动模式被频繁执行的情况下,通常希望不要逐一向用户建议该行动模式。反之,在通常不会被执行的行动模式的情况下,最好是在指示执行该行动模式之前向用户建议该行动模式,由此确认用户是否希望执行该行动模式。
参照图10说明用来实现上述功能的建议必要性有无判定单元50d。时间分布记录保存部90包括时刻计测部91、累计部92、时间分布数据库93。建议必要性有无判定单元50d内部具有比较决定部。时刻计测部91接受执行指示单元50g的输入,计测行动模式被执行的时刻,输出到累计部92。时间分布数据库93记录保存各行动模式在每个时刻的执行次数,累计部92在每次从时刻计测部91接收到输入时,将时间分布数据库93中记录的对应于所计测的时刻的执行次数增加1次进行累计。这样,时间分布记录保存部90将每个时刻所执行的行动模式的履历信息储存下来。建议必要性有无判定单元(比较决定部)50d持有预先设定的值,在从行动模式决定单元50c接收到输入时,从时间分布记录保存部90参考该时刻(或时段)的该行动模式的过去的执行次数,并与上述预先设定的值比较。比较决定部在该行动模式的过去执行次数小于预先设定的值的情况下,判定为有必要建议该行动模式;在该行动模式的过去执行次数大于预先设定的值的情况下,判定为不需要建议该行动模式。该判定结果作为建议必要性有无判定单元50d的判定结果从建议必要性有无判定单元50d输出。
依照此种方式,建议必要性有无判定单元50d根据行动模式被执行的执行次数的时间分布来判断建议有无必要性。
图5表示机器人1掌握用户的健康状态、指示执行与用户的健康状态相适应的行动模式的处理程序。
步骤ST1:掌握了用户的健康状态。
例如,处理部50(掌握单元50b)从声音识别部40的声音识别结果中提取关键字,用该关键字检索对话数据库140。其结果是,处理部50(掌握单元50b)能够根据该关键字掌握用户的健康状态。
以下表示用户与机器人1的对话的实例。这里,U表示用户所说的语言,S表示机器人1所说的语言。
U:今天真累~。
S:看起来是很累了啊。
这样,当用户说出“困”、“累”、“没有胃口”这些关键字时,处理部50(掌握单元50b)即认为用户的健康状态为“疲劳”状态。
步骤ST2:决定与步骤ST1中掌握的用户的健康状态相适应的行动模式。
例如,处理部50(行动模式决定单元50c)利用用户的健康状态检索信息数据库160(行动模式表161)。其结果是,处理部50(行动模式决定单元50c)能够决定与用户的健康状态相适应的行动模式。行动模式最好是作为已经推断出的用户的期望行为而预先设定好。
步骤ST3:在指示执行在步骤ST2中所决定的行动模式之前,利用建议必要性有无判定单元50d判断是否需要向用户建议该行动模式。
当步骤ST3的判定结果为“Yes”时,处理进入步骤ST4;当步骤ST3的判定结果为“No”时,处理进入步骤ST6。
步骤ST4:在指示执行在步骤ST2中由建议单元50e所决定的行动模式之前,向用户建议该行动模式。
以下表示用户与机器人1的对话的实例。这里,U表示用户所说的语言,S表示机器人1所说的语言。
S:您看起来很累了。那就播放有治疗效果的内容(软件)吧?
U:拜托了。
步骤ST5:利用建议应诺判定单元50f判断用户对机器人1在步骤ST4中所建议的行动模式是否作出了接受的答复。
当步骤ST5的判定结果为“Yes”时,处理进入步骤ST6;当步骤ST5的判定结果为“No”时,处理进入步骤ST7。
步骤ST6:利用执行指示单元50g指示执行在步骤ST2中所决定的行动模式。
步骤ST7:将所建议的行动模式与用户没有接受建议(拒绝)的情况作为履历信息保存到信息数据库160中。
在步骤ST2中当决定今后的行动模式的内容时参照该履历信息。对用户没有接受的行动模式可以分配较低的优先顺序。
此外,取代步骤ST7或者在步骤ST7的基础上,当在步骤ST5中用户接受了建议时,也可以将所建议的行动模式与用户接受建议(接受)的情况作为履历信息保存到信息数据库160中。在步骤ST2中当决定今后的行动模式的内容时参照该履历信息。将已经分配给用户已经接受的行动模式可以分配较高的优先顺序升高。
最好是依照此种方式,根据用户是否接受了所建议的行动模式,来改变该行动模式被分配的优先顺序。由此,能够将用户的癖好等反映到行动模式的决定中。其结果是,能够提高机器人1所决定的行动模式与用户的健康状态的实际契合比例。
此外,当在步骤ST5中用户没有接受建议时,也可以由用户反向作出建议。这种情况下,机器人1接到该反向建议,判断该反向建议是否有可能执行。当判断认为该反向建议有可能执行时,机器人1在更新信息数据库160中保存的用户的健康状态与机器人1的行动模式的关系(例如,改变图4所示表中的行动模式的优先顺序,或者在图4所示表中追加新的行动模式)之后,指示执行该反向建议。当判断认为该反向建议不可执行时,机器人1通知用户“无法执行该反向建议”。这样,通过由用户反向建议,能够将用户的癖好等反映到行动模式的决定中。其结果是,能够提高机器人1所决定的行动模式与用户的健康状态的实际契合比例。
此外,可以省略图5中的步骤ST3。这种情况下,对于根据用户的健康状态所决定的全部行动模式,在指示执行该行动模式之前,都要向用户进行建议。
另外,可以省略图5中的步骤ST3、ST4、ST5、ST7。这种情况下,对于根据用户的健康状态所决定的全部行动模式,无需等待用户的答复就可立即指示执行该行动模式。
如上所述,借助于本实施方式,可以掌握用户的健康状态,决定与用户的健康状态相适应的行动模式。由此使用户从装备各种传感器的麻烦中解放出来。进而,用户会觉得机器人是在为自己的健康状态分忧的好朋友。
进一步,也可以采用在指示执行行动模式之前向用户建议该行动模式的形式。这种情况下,由于用户拥有是否接受该建议的最终权力,因此,不会被机器人强制接受该建议,用户酌情处理的自由度很大。由此,既能够阻止机器人的鲁莽从事,又能够使人切身体会到机器人的友好。
日本效率协会综合研究所进行的问卷调查显示,消费者心目中理想的机器人中,最受欢迎的是“更接近实物的宠物机器人”。大家所期待的是与人类共享居住空间的贴近生活型的共栖或娱乐型机器人。
可以理解,作为本发明的对话型装置的一个实例的机器人是贴近生活型的友好而且有用的机器人。这样的机器人能够对用户的生活有所帮助,成为用户的好朋友。
此外,播放设备所播放的内容(软件)也可以包含影像数据、声音数据、照明控制数据中的至少1种。可以在播放记录介质(DVD等)中记录的影像数据时同步地播放记录介质中记录的声音数据。进一步,可以在播放记录介质(DVD等)中记录的声音数据和/或影像数据时同步地再现记录介质中记录的照明控制数据。利用这样的同步播放,能够实现具有高效“治疗”效果或“催眠”效果的内容(软件)。
图6表示使得声音数据和/或影像数据与照明控制数据能够同步播放的播放装置2100的结构的实例。通过将播放装置2100与声音输出装置(例如扬声器)和影像输出装置(例如TV)和照明装置连接,播放装置2100能够与记录介质所提供的音乐和/或影像联动,改变照明装置的照明模式(例如照明装置的光量和光线颜色中的至少一项)。
播放装置2100包含控制器2220、接口控制器(I/F控制器)2230、及读取部2120。
控制器2220根据由I/F控制器2230输入的用户的操作命令或解码部2140供给的控制信号控制播放装置2100的整体动作。
I/F控制器2230探测用户的操作(例如,来自遥控部70(图2)的遥控信号),将对应于该操作的操作命令(例如,播放命令)输出到控制器2220。
读取部2120读取记录介质2110中记录的信息。
典型的记录介质2110是DVD(Digital Versatile Disk:数字多功能光盘)。但是,记录介质2110并不限于DVD。记录介质2110可以是任意类型的记录介质。但在下面的说明中,以记录介质2110是DVD的场合为例进行说明。这种情况下,读取部2120例如是光学式读取。
记录介质2110中记录的数据的格式是将DVD-Video规格为标准的格式加以改变后的格式。即,所使用的是在VOBU之中,新增设了照明数据包(L_PCK:Lighting Pack)后的格式。L_PCK的数据是为了与视听数据同步地输出照明控制数据而设的数据。
MPEG-2(Moving Picture Experts Group 2:运动图像专家组2)为了对应广泛的应用,规定了2种方式用于将任意数量的编码流进行多路复用,并同步取得各个流进行播放。这2种方式是节目流(PS:Program Stream)方式、传输流(TS:Transport Stream)方式。在DVD等数字存储媒体中,采用节目流(PS:Program Stream)方式。在下面的说明中,将MPEG-2中规定的节目流(PS:ProgramStream)方式简写为“MPEG-PS方式”;将MPEG-2中规定的传输流(TS:Transport Stream)方式简写为“MPEG-TS方式”。
NV_PCK、A_PCK、V_PCK、SP_PCK都是采用遵循MPEG-PS方式的格式。因此,L_PCK也是采用遵循MPEG-PS方式的格式。
进而播放装置2100还包含流数据生成部2130和解码部2140。
流数据生成部2130根据读取部2120的输出生成包含编码后的AV数据和编码后的照明控制数据的流数据。这里所说的“编码后的AV数据”是指至少包含编码后的声音数据和编码后的影像数据其中之一的数据。
由流数据生成部2130生成的流数据具有遵循MPEG-PS方式的格式。这样的流数据是通过例如以RF信号的形式接收DVD2120中记录的信息、将该RF信号数字化并放大后施加EFM和解调处理而得到的。流数据生成部2130的结构可以与众所周知的结构相同,因此这里省略详细说明。
解码部2140包含分解部2150、AV数据解码部2160、照明控制数据解码部2170、STC生成部2180、及同步控制器(控制部)2190。
分解部2150从流数据生成部2130接收具有遵循MPEG-PS方式的格式的流数据,将该流数据分解为编码后的AV数据和编码后的照明控制数据。这种分解通过参照PES包的头部中的识别码(stream_id)来实现。分解部2150例如是多路分解器(demultiplexer)。
AV数据解码部2160将编码后的AV数据解码,以输出AV数据。这里所说的“AV数据”是指至少包含声音数据和影像数据其中之一的数据。
AV数据解码部2160包含:视频缓冲器2161,用来暂时保存分解部2150所输出的编码后的影像数据;视频解码器2162,用来将编码后的影像数据解码以输出影像数据;音频缓冲器2163,用来暂时保存分解部2150所输出的编码后的声音数据;音频解码器2164,用来将编码后的声音数据解码以输出声音数据。
照明控制数据解码部2170将编码后的照明控制数据解码,以输出照明控制数据。这里所说的“照明控制数据”是指用来控制照明装置中所含的多个像素的数据。
照明控制数据解码部2170包含:照明缓冲器2171,用来暂时保存分解部2150所输出的编码后的照明控制数据;照明解码器2172,用来将编码后的照明控制数据解码以输出照明控制数据。
STC生成部2180生成STC(Syetem Time Clock:系统时钟)。STC通过基于SCR对27MHz的基准时钟的频率进行调整(即进行增减)而获得。STC是用来在解码编码后的数据时,数据编码时所用的基准时间再现的时间。
同步控制器2190控制AV数据解码部2160和照明控制数据解码部2170,使得AV数据解码部2160输出AV数据的时序与照明控制数据解码部2170输出照明控制数据的时序同步。
这种同步播放控制是通过例如当STC与PTS一致时控制视频解码器2162使其输出影像数据的存取单位(access unit)、当STC与PTS一致时控制音频解码器2164使其输出声音数据的存取单位、当STC与PTS一致时控制照明解码器2172使其输出照明控制数据的存取单位而实现的。
同步控制器2190也可以控制AV数据解码部2160和照明控制数据解码部2170,使得AV数据解码部2160解码AV数据的时序与照明控制数据解码部2170解码照明控制数据的时序同步。
这种同步播放控制是通过例如当STC与DTS一致时控制视频解码器2162使其解码影像数据的存取单位、当STC与DTS一致时控制音频解码器2164使其解码声音数据的存取单位、当STC与DTS一致时控制照明解码器2172使其解码照明控制数据的存取单位而实现的。
依照此种方式,也可以在影像数据、声音数据、照明控制数据的存取单位输出时序控制的基础上,或者是取代影像数据、声音数据、照明控制数据的存取单位输出时序控制,进行影像数据、声音数据、照明控制数据的存取单位解码时序控制。这是因为,存取单位的输出时序(顺序)与存取单位的解码时序(顺序)有可能不同。通过这种控制,可以同步播放影像数据、声音数据、及照明控制数据。
视频解码器2162所输出的影像数据通过NTSC编码器2200输出到外部设备(例如TV)。视频解码器2162与TV可以通过播放装置2100的输出端子2240直接连接,也可以通过家庭LAN间接连接。
音频解码器2164所输出的声音数据通过数字/模拟转换器(DAC)2210输出到外部设备(例如扬声器)。音频解码器2164与扬声器可以通过播放装置2100的输出端子2250直接连接,也可以通过家庭LAN间接连接。
照明解码器2172输出的照明控制数据被输出到外部设备(例如照明装置)。照明解码器2172与照明装置可以通过播放装置2100的输出端子2260直接连接,也可以通过家庭LAN间接连接。
此外,由流数据生成部2130生成的流数据可以包含编码后的副影像数据,也可以包含导引数据。例如,当流数据包含了编码后的副影像数据与导引数据时,分解部2150将该流数据分解为编码后的副影像数据和导引数据。虽然在图6中未作图示,解码部2140可以进一步包含导引包电路(navipack circuit)、子图解码器(sub-videodecoder)、闭合字幕数据解码器(closed caption data decoder)。导引包电路通过处理导引数据来生成控制信号,并将该控制信号输出到控制器2220。子图解码器通过解码编码后的副影像数据,将副影像数据输出到NTSC编码器2200。闭合字幕数据解码器通过解码编码后的影像数据中所含的编码后的闭合字幕数据来将闭合字幕数据输出到NTSC编码器2200。这些电路的功能是众所周知的,与本发明的主题无关,因此省略详细说明。依照此种方式,解码部2140也可以包含图6中没有图示的众所周知的结构。
如上述说明,利用图6所示的播放装置2100,提供了一种能够在播放记录介质中记录的声音数据和/或影像数据的同时同步地播放该记录介质中记录的照明控制数据的播放装置。通过在该播放装置上连接声音输出装置(例如扬声器)、影像输出装置(例如TV)和照明装置,可以与记录介质所提供的音乐和/或影像联动改变照明模式。具有“治疗”效果的照明模式例如是表现阳光透过枝叶的照明效果。
工业适用性
如上所述,借助于本发明的对话型装置,可以掌握用户的健康状态,决定与用户的健康状态相适应的行动模式。由此使用户从装备各种传感器的麻烦中解放出来。进而,用户会觉得对话型装置是在为自己的健康状态分忧的好朋友。其结果是,对话型装置的价值得到提高,用户对于对话型装置的满足感、需求欲得到提高。

Claims (14)

1.一种对话型装置,其具有:
掌握单元,用来掌握用户的健康状态;
决定单元,用来根据上述掌握单元所掌握的上述用户的健康状态决定与之相适应的行动模式;
执行指示单元,用来指示执行由上述决定单元所决定的行动模式;
建议单元,用来在指示执行由上述决定单元所决定的行动模式之前,通过声音向上述用户建议上述行动模式;
判定单元,根据上述用户对上述所建议的行动模式的答复判断其是否接受了上述所建议的行动模式,
当判断结果认为上述用户的答复是接受了上述所建议的行动模式的答复时,上述执行指示单元指示执行上述所建议的行动模式。
2.如权利要求1所述的对话型装置,上述掌握单元根据上述用户的语言表达来掌握上述用户的健康状态。
3.如权利要求2所述的对话型装置,上述掌握单元根据上述用户所说的关键字来掌握上述用户的健康状态。
4.如权利要求1所述的对话型装置,其进一步具有建议必要性有无判定单元,用来在指示执行由上述决定单元所决定的行动模式之前,判断是否有必要向上述用户建议上述行动模式;
当判断结果认为在指示执行上述行动模式之前有必要向上述用户建议上述行动模式时,上述建议单元通过声音向上述用户建议上述行动模式。
5.如权利要求4所述的对话型装置,上述建议必要性有无判定单元根据预先分配给上述行动模式的表示建议必要性有无的标志值来判断建议有无必要性。
6.如权利要求4所述的对话型装置,上述建议必要性有无判定单元根据上述行动模式被执行的执行次数的时间分布来判断建议有无必要性。
7.如权利要求1所述的对话型装置,上述决定单元将分别被分配了优先顺序的多个行动模式之一决定为与上述用户的健康状态相适应的行动模式,根据上述用户是否接受了该行动模式,来调整分配给该行动模式的优先顺序。
8.如权利要求1所述的对话型装置,其进一步具有存储单元,用来存储与上述用户的健康状态相适应的行动模式;
上述决定单元使用上述存储单元中存储的行动模式来决定上述行动模式。
9.如权利要求1所述的对话型装置,由上述建议单元向上述用户建议的行动模式包含播放设备中所播放的内容的选择。
10.如权利要求9所述的对话型装置,上述内容包含声音数据、影像数据、照明控制数据;上述播放设备根据照明控制数据来改变照明装置的光量及光线颜色中的至少一项。
11.如权利要求1所述的对话型装置,上述对话型装置具有代理功能及移动功能中的至少一个功能。
12.如权利要求1所述的对话型装置,上述用户的健康状态表示上述用户的感情及上述用户的健康状况中的至少一个方面。
13.一种对话型装置,其具有:
声音输入部,用来将用户发出的声音变换为声音信号;
声音识别部,基于上述声音输入部所输出的声音信号识别用户所说的语言;
对话数据库,用来预先登录上述用户可能说出的语言,并保存上述被登录的语言与上述用户的健康状态的对应关系;
掌握单元,将由上述声音识别部识别得到的语言与上述对话数据库中登录的语言进行对照,根据该对照结果确定上述用户的健康状态,由此掌握上述用户的健康状态;
决定单元,基于保存了上述用户的健康状态与对话型装置的行动模式的对应关系的行动模式表,来决定与上述掌握单元所掌握到的上述用户的健康状态相适应的行动模式;
执行指示单元,用来指示执行由上述决定单元所决定的行动模式;
建议单元,用来在指示执行由上述决定单元所决定的行动模式之前,基于上述掌握单元的输出结果和上述决定单元的输出结果合成建议语句,通过声音向上述用户建议上述行动模式;
判定单元,根据上述用户对上述所建议的行动模式的答复判断其是否接受了上述所建议的行动模式;
当判断结果认为上述用户的答复是接受了上述所建议的行动模式的答复时,上述执行指示单元指示执行上述所建议的行动模式。
14.如权利要求13所述的对话型装置,其进一步具有:
接受单元,用来接受上述用户针对上述所建议的行动模式反向建议的行动模式;
用来判断上述对话型装置能否执行上述反向建议的行动模式的单元;以及
当判断结果认为上述对话型装置能够执行上述反向建议的行动模式时,对上述行动模式表中保存的上述用户的健康状态与上述对话型装置的行动模式的对应关系进行更新的单元。
CNA038252929A 2002-09-20 2003-09-19 对话型装置 Pending CN1701287A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002276121 2002-09-20
JP276121/2002 2002-09-20

Publications (1)

Publication Number Publication Date
CN1701287A true CN1701287A (zh) 2005-11-23

Family

ID=32025058

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA038252929A Pending CN1701287A (zh) 2002-09-20 2003-09-19 对话型装置

Country Status (5)

Country Link
US (1) US20060100880A1 (zh)
EP (1) EP1542101A1 (zh)
JP (1) JPWO2004027527A1 (zh)
CN (1) CN1701287A (zh)
WO (1) WO2004027527A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104981188A (zh) * 2013-05-14 2015-10-14 夏普株式会社 电子设备
CN108305640A (zh) * 2017-01-13 2018-07-20 深圳大森智能科技有限公司 智能机器人主动服务方法与装置
CN111133469A (zh) * 2017-09-22 2020-05-08 元多满有限公司 基于聊天机器人的使用人员照料系统

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073690A1 (en) 2002-09-30 2004-04-15 Neil Hepworth Voice over IP endpoint call admission
US7359979B2 (en) 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP
US7978827B1 (en) 2004-06-30 2011-07-12 Avaya Inc. Automatic configuration of call handling based on end-user needs and characteristics
US20070233285A1 (en) * 2004-09-14 2007-10-04 Kakuya Yamamoto Apparatus Control System and Apparatus Control Method
JP4677543B2 (ja) * 2005-05-24 2011-04-27 株式会社国際電気通信基礎技術研究所 表情付け音声発生装置
JP2007094544A (ja) * 2005-09-27 2007-04-12 Fuji Xerox Co Ltd 情報検索システム
US20090197504A1 (en) * 2008-02-06 2009-08-06 Weistech Technology Co., Ltd. Doll with communication function
JP5255888B2 (ja) * 2008-04-08 2013-08-07 日本電信電話株式会社 花粉症状診断装置、花粉症状診断支援方法及び花粉症状診断システム
US8218751B2 (en) 2008-09-29 2012-07-10 Avaya Inc. Method and apparatus for identifying and eliminating the source of background noise in multi-party teleconferences
JP5201050B2 (ja) * 2009-03-27 2013-06-05 ブラザー工業株式会社 会議支援装置、会議支援方法、会議システム、会議支援プログラム
CA2799848A1 (en) * 2010-05-19 2011-11-24 Sanofi-Aventis Deutschland Gmbh Modification of operational data of an interaction and/or instruction determination process
KR101759190B1 (ko) * 2011-01-04 2017-07-19 삼성전자주식회사 휴대용 무선 단말기에서 통화 중 위급상황을 신고하기 위한 방법 및 장치
US8878991B2 (en) * 2011-12-07 2014-11-04 Comcast Cable Communications, Llc Dynamic ambient lighting
JP5776544B2 (ja) * 2011-12-28 2015-09-09 トヨタ自動車株式会社 ロボットの制御方法、ロボットの制御装置、及びロボット
JP5904021B2 (ja) * 2012-06-07 2016-04-13 ソニー株式会社 情報処理装置、電子機器、情報処理方法、及びプログラム
JP2014059764A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式制御機器、自走式制御機器の制御方法、外部機器制御システム、自走式制御機器制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
JP6530906B2 (ja) * 2014-11-28 2019-06-12 マッスル株式会社 パートナーロボットおよびその遠隔制御システム
CN109070332A (zh) * 2016-05-20 2018-12-21 Groove X 株式会社 行为自主型机器人以及计算机程序
JP2018049358A (ja) * 2016-09-20 2018-03-29 株式会社イシダ 健康管理システム
WO2020017165A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN109117233A (zh) * 2018-08-22 2019-01-01 百度在线网络技术(北京)有限公司 用于处理信息的方法和装置
JP2020185618A (ja) * 2019-05-10 2020-11-19 株式会社スター精機 機械動作方法,機械動作設定方法及び機械動作確認方法
JP6842514B2 (ja) * 2019-08-22 2021-03-17 東芝ライフスタイル株式会社 冷蔵庫を用いた安否確認システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
US6405170B1 (en) * 1998-09-22 2002-06-11 Speechworks International, Inc. Method and system of reviewing the behavior of an interactive speech recognition application
US6606598B1 (en) * 1998-09-22 2003-08-12 Speechworks International, Inc. Statistical computing and reporting for interactive speech applications
US6697457B2 (en) * 1999-08-31 2004-02-24 Accenture Llp Voice messaging system that organizes voice messages based on detected emotion
JP2001148889A (ja) * 1999-11-19 2001-05-29 Daiwa House Ind Co Ltd 住宅内機器の統括操作システム
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
US6975988B1 (en) * 2000-11-10 2005-12-13 Adam Roth Electronic mail method and system using associated audio and visual techniques

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104981188A (zh) * 2013-05-14 2015-10-14 夏普株式会社 电子设备
CN104981188B (zh) * 2013-05-14 2017-10-27 夏普株式会社 电子设备
CN108305640A (zh) * 2017-01-13 2018-07-20 深圳大森智能科技有限公司 智能机器人主动服务方法与装置
CN111133469A (zh) * 2017-09-22 2020-05-08 元多满有限公司 基于聊天机器人的使用人员照料系统
CN111133469B (zh) * 2017-09-22 2023-08-15 元多满有限公司 基于聊天机器人的使用人员照料系统

Also Published As

Publication number Publication date
JPWO2004027527A1 (ja) 2006-01-19
US20060100880A1 (en) 2006-05-11
WO2004027527A1 (ja) 2004-04-01
EP1542101A1 (en) 2005-06-15

Similar Documents

Publication Publication Date Title
CN1701287A (zh) 对话型装置
CN1171216C (zh) 重放装置、重放方法及记录介质
CN1255874A (zh) 电子宠物的显示控制装置、显示控制方法与记录介质
CN1112037C (zh) 录制与再生数据的装置与方法
CN1516960A (zh) 节目选择装置、节目选择方法、及节目信息提供系统
CN101035339A (zh) 输出数据的系统和方法
CN1274436A (zh) 数据处理系统,装置和方法
CN1308460A (zh) 节目记录装置和节目记录媒体
CN1220174C (zh) 话音输出装置和方法
CN1160141C (zh) 抚养虚拟生物的模拟装置
CN1894740A (zh) 信息处理系统、信息处理方法以及信息处理用程序
CN1779830A (zh) 记录装置和方法、记录介质及其所用的程序
CN1812495A (zh) 图像拾取设备、向导框显示控制方法及计算机程序
CN1224368A (zh) 游戏装置、游戏处理方法和记录媒体
CN1144962A (zh) 记录介质的记录和/或重放装置
CN1392825A (zh) 机器人设备及其控制方法
CN1475076A (zh) 音频/视频信息记录再现装置及方法
CN1739138A (zh) 信息传输方法及设备、信息记录或再现方法及设备、以及记录介质
CN1758325A (zh) 电子设备
CN1725842A (zh) 实时信息记录装置和记录方法
CN101035351A (zh) 播放状态呈现系统、装置、方法和程序
CN1324887C (zh) 记录和再现装置及再现处理方法
CN1266378A (zh) 利用游戏者数据的游戏执行方法及游戏装置
CN1151559A (zh) 信息提供装置
CN1604029A (zh) 多系统网络和对数据存储器进行存取的设备及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20051123

C20 Patent right or utility model deemed to be abandoned or is abandoned