CN110246491A - 装置、机器人、方法及程序 - Google Patents

装置、机器人、方法及程序 Download PDF

Info

Publication number
CN110246491A
CN110246491A CN201910154149.8A CN201910154149A CN110246491A CN 110246491 A CN110246491 A CN 110246491A CN 201910154149 A CN201910154149 A CN 201910154149A CN 110246491 A CN110246491 A CN 110246491A
Authority
CN
China
Prior art keywords
user
word
voice
moment
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910154149.8A
Other languages
English (en)
Other versions
CN110246491B (zh
Inventor
宫崎亮太
太田雄策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN110246491A publication Critical patent/CN110246491A/zh
Application granted granted Critical
Publication of CN110246491B publication Critical patent/CN110246491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Signal Processing (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

本公开涉及一种装置、机器人、方法及程序。在判断为第一用户的语音中包含存储器中存储的与所述第一用户对应的第一单词的情况下,判断为所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差处于预定时间以内,在所述判断被肯定的情况下,使扬声器输出与所述第一单词和所述第二单词对应的内容的语音。

Description

装置、机器人、方法及程序
技术领域
本公开涉及与多个用户进行交流的装置等。
背景技术
近年来,从用户的语音中提取用户的意愿,并对用户执行适当的行动的机器人的研究正在被进行。
例如专利文献1中公开了如下技术:利用第一说话者和第二说话者使用不同语言进行谈话时的对话状态,判断对一方说话者而言存在未知信息的情况,当输出另一方说话者的谈话的翻译结果时在预定的时刻向一方说话者提示补充信息。
在专利文献2中公开了如下对话型交流系统:监视通过经由网络连接的多个终端装置进行的谈话状态,在谈话状态为停顿状态的情况下,从检索网站取得与谈话关联的话题,提供给终端装置。
现有技术文献
专利文献1:日本特开2013-73355号公报
专利文献2:日本特开2016-6607号公报
发明内容
发明要解决的技术问题
但是,在专利文献1、2中,在多个用户进行对话的场景中,没有采用任何措施来防止一方用户向机器人提出的内容启动指示被另一方用户觉察到,因此需要进一步的改善。
用于解决问题的技术方案
本公开的一个技术方案的装置是与多个用户进行交流的装置,具备:
取得所述装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器,
所述处理器,
判断所述声音中是否包含第一用户的语音,在判断为所述声音中包含所述第一用户的语音的情况下,判断所述语音中是否包含所述存储器中存储的与所述第一用户对应的第一单词,所述存储器至少将所述多个用户、与所述多个用户对应的单词、和与所述多个用户对应的单词最后被说出的时刻相关联,在判断为所述语音中包含所述第一单词的情况下,判断所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差是否处于预定时间以内,所述第一时刻是当前时刻,所述第二用户与所述第一用户不同,所述第一单词和所述第二单词对应于相同的内容,在判断为所述第一时刻与所述第二时刻之差处于所述预定时间以内的情况下,使所述扬声器输出与所述内容对应的语音。
发明的效果
根据本公开,能够防止另一方用户觉察到所输出的语音是根据一方用户的操作而输出的语音。
附图说明
图1是表示本公开的实施方式的机器人的结构的一例的框图。
图2是表示图1所示的机器人的处理的一例的流程图。
图3是表示说话者登记表的一例的图。
图4是表示执行契机表的一例的图。
图5是表示将图1所示的机器人应用于与图1所示的机器人不同的机器人与用户之间的对话时的执行契机表的一例的图。
图6是表示图1所示的机器人的外观的一例的图。
图7是表示从背后观察图6所示的机器人的内部的图。
标号的说明
1 机器人
100 传感器输入部
101 语音输入部
102 麦克风
200 行动执行部
201 语音输入检测部
202 说话者判断部
203 语音识别部
204 登记用语有无判断部
205 时间戳更新部
206 内容执行部
207 控制命令生成部
208 存储器
300 输出部
301 语音输出部
301A 扬声器
T1 说话者登记表
T2、T2' 执行契机表
具体实施方式
(实现本公开的过程)
本发明人对为了辅助母亲等监护人管教孩子而使机器人执行的各种内容进行了研究。例如在讨厌胡萝卜的孩子说出“讨厌胡萝卜”这样的话、而想让其吃胡萝卜的母亲对孩子说了“吃胡萝卜吧”的情况下,如果存在使机器人对孩子执行“要喜欢胡萝卜”这样的话的内容,则能够满足母亲的要求。
在要使机器人执行这样的内容的情况下,例如母亲需要取出智能手机等便携式终端,进行输入内容启动指示的操作。
但是,会产生如下问题:如果在与孩子的对话中母亲慢慢取出智能手机进行输入启动指示的操作,则该行为会引起孩子的注意,因而孩子会觉察到机器人执行的内容是基于母亲指示的内容。由此,不仅使孩子感到扫兴,还反而助长孩子对母亲的逆反心理,可能无法期待充分的管教效果。
在上述的专利文献1中,例如针对“维也纳炸肉排(Wiener schnitzel)”输出有“维也纳风格的肉排,是澳洲的代表性菜肴”这样的补充信息。但是,在专利文献1中,只是针对第一说话者和第二说话者中的某一方的说话内容输出补充信息,而并非以双方的说话内容为契机来执行内容。
另外,在专利文献2中,在用户之间的谈话停顿的情况下输出与谈话关联的话题,在用户之间的谈话未停顿的情况下装置不发挥功能,因此无法以用户之间的说话内容为契机来执行内容。
因此,专利文献1、2均无法以用户之间的说话内容为契机来执行内容,因此母亲不得不输入内容启动指示,无法解决输入启动指示的操作会被孩子觉察的问题。
因此,本发明人获得了如下见解并想到了本公开,所述见解例如是:在孩子说了“讨厌胡萝卜”这样的话、母亲对孩子说了“吃胡萝卜吧”的情况下,以孩子的说话内容和母亲的说话内容为契机,使机器人执行让孩子喜欢上胡萝卜的内容,由此能够解决上述问题。
本公开的一个技术方案是与多个用户进行交流的装置,具备:取得所述装置周边的声音的麦克风;扬声器;存储器;以及处理器,所述处理器,判断所述声音中是否包含第一用户的语音,在判断为所述声音中包含所述第一用户的语音的情况下,判断所述语音中是否包含所述存储器中存储的与所述第一用户对应的第一单词,所述存储器至少将所述多个用户、与所述多个用户对应的单词、和与所述多个用户对应的单词最后被说出的时刻相关联,在判断为所述语音中包含所述第一单词的情况下,判断所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差是否处于预定时间以内,所述第一时刻是当前时刻,所述第二用户与所述第一用户不同,所述第一单词和所述第二单词对应于相同的内容,在判断为所述第一时刻与所述第二时刻之差处于所述预定时间以内的情况下,使所述扬声器输出与所述内容对应的语音。
根据本构成,当检测到第一用户的语音中包含第一单词时,如果与第一单词对应的由第二用户说出的第二单词已被登记在存储器中、并且第一单词的说出时刻与第二单词的说出时刻的时间差处于预定时间以内,则输出与第一单词和第二单词对应的内容的语音。
由此,即使第一用户和第二用户中的一方用户不输入启动指示,也能够按照内容输出语音,能够防止另一方用户觉察到所输出的语音是根据一方用户的操作而输出的语音。
在上述构成中,也可以是,所述处理器进一步,在判断为所述语音中包含所述第一单词的情况下,在所述存储器中将所述第一单词被所述第一用户说出的时刻更新为所述第一时刻。
根据本构成,在第一用户的语音中包含第一单词的情况下,以第一单词被说出的时刻将登记在存储器中的第一时刻更新,因此存储器能够不断地将最新的说出时刻登记为第一单词由第一用户说出的说出时刻。
在上述构成中,也可以是,所述第一用户是所述第二用户的监护人。
根据本构成,在作为第一用户的监护人与作为第二用户的被监护人进行对话的场景中,监护人能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述第一用户是与所述装置不同的其他装置,所述第二用户是幼儿,所述其他装置具备:取得所述其他装置周边的声音的麦克风;扬声器;存储器;以及处理器。
根据本构成,在作为幼儿的第一用户与作为第二用户的其他装置进行对话的场景中,能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述第二用户是所述第一用户的监护人。
根据本构成,在作为第二用户的监护人与作为第一用户的被监护人进行对话的场景中,监护人能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述第一用户是幼儿,所述第二用户是与所述装置不同的其他装置,所述其他装置具备:取得所述其他装置周边的声音的麦克风;扬声器;存储器;以及处理器。
根据本构成,在作为第一用户的幼儿与作为第二用户的其他装置进行对话的场景中,能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述第一用户是大人,所述第二用户是与所述装置不同的其他装置,所述其他装置具备:取得所述其他装置周边的声音的麦克风;扬声器;存储器;以及处理器。
根据本构成,在作为第一用户的大人与作为第二用户的其他装置进行对话的场景中,能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述第一用户是与所述装置不同的其他装置,所述第二用户是大人,所述其他装置具备:取得所述其他装置周边的声音的麦克风;扬声器;存储器;以及处理器。
根据本构成,在作为第一用户的其他装置与作为第二用户的大人进行对话的场景中,能够不输入内容启动指示而使装置开始输出内容的语音。
在上述构成中,也可以是,所述内容是用于使幼儿养成生活习惯的内容。
根据本构成,在第一用户和第二用户说出了与生活习惯关联的第一单词及第二单词的情况下,即使一方用户不输入内容启动指示,也会输出用于养成生活习惯的内容的语音。因此,不会使另一方用户觉察到所输出的语音是根据一方用户的启动指示而输出的语音,能够使另一方用户听到与内容对应的语音,能够提高管教的辅助效果。
在上述构成中,也可以是,所述第一单词包含拒绝含义或否定词。
例如在作为监护人的第二用户管教作为被监护人的第一用户的场景中,第二用户对第一用户说出令其采取某行动的单词,第一用户说出了拒绝或否定该行动的单词的情况下,使装置输出与内容对应的语音是有效果的。在本构成中,由于作为第一单词包含拒绝含义或否定词,所以在第一用户拒绝或否定第二用户所要求的行动的情况下能够使装置输出与内容对应的语音。其结果,装置在需要辅助管教的场景中能够进行管教的辅助。
在上述构成中,也可以是,所述第一单词包含与所述内容对应的预定单词。
根据本构成,在作为监护人或其他装置的第一用户说出了预定单词作为第一单词的情况下,能够使装置输出与内容对应的语音。
本公开也能够作为安装这样的装置的机器人、这样的装置所包含的具备特征性的各步骤的方法、以及使计算机执行特征性的各步骤的计算机程序来实现。而且,这样的计算机程序显然能够经由CD-ROM等计算机可读取的非瞬时记录介质或互联网等通信网络来流通。
此外,以下说明的实施方式均示出本公开的一具体示例。以下的实施方式中所示的数值、形状、构成要素、步骤、步骤的顺序等是一例,并非限定本公开的主旨。另外,关于以下实施方式的构成要素中的、在表示最上位概念的独立权利要求中没有记载的构成要素,作为任意的构成要素来说明。另外,在全部实施方式中,也能够组合各个实施方式的内容。
(实施方式)
(整体结构)
图1是表示本公开的实施方式的机器人1的结构的一例的框图。图1所示的机器人1具备传感器输入部100、行动执行部200及输出部300。
传感器输入部100具备语音输入部101。语音输入部101例如由麦克风构成,取得机器人1的周边的语音。
行动执行部200具备语音输入检测部201、说话者判断部202、语音识别部203、登记用语有无判断部204、时间戳更新部205、内容执行部206、控制命令生成部207、以及存储器208。
构成行动执行部200的存储器208以外的要素例如通过由CPU等处理器执行用于进行行动处理的程序来实现。用于进行行动处理的程序存储在组装于机器人1的存储器208或组装于与机器人1以能通信的方式连接的终端的存储器中,由处理器执行。另外,构成行动执行部200的全部要素也可以安装于同一机器人1或同一终端。或者,构成行动执行部200的全部要素也可以通过个别地安装在由光纤、无线及公用电话线路等任意网络连接的其他终端或服务器上并进行通信来实现。另外,也可以是,行动执行部200的一部分要素安装于机器人1,剩余的要素安装于服务器。
语音输入检测部201对语音被输入到语音输入部101的情况进行检测。在此,语音输入检测部201例如在从语音输入部101取得了被视为无声音的音量以上的语音数据的情况下,判定为语音已输入到语音输入部101,开始向说话者判断部202输出语音数据即可。另外,在小于被视为无声音的音量的语音数据持续一定期间以上时,语音输入检测部201停止向说话者判断部202输出语音数据即可。
说话者判断部202通过参照图3所示的说话者登记表T1来判断从语音输入检测部201接收到的语音数据所表示的语音是否是预先登记的多个用户中的任意用户的语音。图3是表示说话者登记表T1的一例的图。说话者登记表T1具备“No”字段、“说话登记者”字段、以及“声纹”字段。“No”字段登记有用于确定构成说话者登记表T1的记录的编号。“说话登记者”字段中登记有预先设定的识别对象的用户的名字或标识符。在图3的例子中,作为说话登记者登记有用户A及用户B。该例子中,作为用户A登记有孩子,作为用户B登记有孩子的母亲。在“声纹”字段中,登记有“说话登记者”字段中所登记的各说话登记者的声纹。在此,登记有用户A和用户B的声纹。
此外,用户A与第一用户和第二用户中的一方对应,用户B与第一用户和第二用户中的另一方对应。
因此,说话者判断部202在被从语音输入检测部201输入语音数据时,分别将该语音数据与说话者登记表T1中所登记的各声纹进行比较,由此判断所输入的语音数据是哪个说话登记者即可。
返回到参照图1。语音识别部203对说话登记者已由说话者判断部202确定的语音数据进行语音识别处理,将该语音数据转换为表示说话登记者所说出的内容的字符串。在此,语音识别部203例如通过使用隐马尔可夫模型等声学模型和n-gram等语言模型将语音数据转换为字符串即可。
登记用语有无判断部204通过参照图4所示的执行契机表T2,来判断由语音识别部203转换而得到的字符串中是否包含预先登记的单词。图4是表示执行契机表T2的一例的图。执行契机表T2是针对多个内容中的各内容,将成为执行契机的单词按作为识别对象的用户进行存储的表。
详细而言,执行契机表T2针对1个内容分配有1个记录,具备“No”、“内容”、“用户A”及“用户B”的字段。在“No”字段中,登记有用于确定构成执行契机表T2的各记录的编号。在“内容”字段中,登记有用于识别内容的信息即内容的名称。“用户A”字段进一步具备“用语”字段及“时刻”字段。在“用户A”的“用语”字段中,登记有成为对应的内容的执行契机的用户A的单词。在“用户A”的”时刻字段”中,登记有可成为执行契机的单词的、由用户A说出的最新的说出时刻。
“用户B”字段与“用户A”字段同样地,也具备“用语”字段及“时刻”字段。在“用户B”字段中,登记有成为对应的内容的执行契机的用户B的单词、以及用户B说出该单词的最新的说出时刻。
在此,作为内容,采用使作为孩子的用户A养成生活习惯的内容、即辅助对用户A的管教的内容。
在图4的例子中,登记有“胡萝卜”、“整理”、“洗手间”、“睡觉”、以及“刷牙”的内容。
“胡萝卜”内容是用于使讨厌吃胡萝卜的孩子吃胡萝卜、或使其喜欢胡萝卜的内容,例如是使机器人1说出与胡萝卜相关的话的内容。作为与胡萝卜相关的话,例如能够采用向孩子说明吃胡萝卜会有多健康的话。
“整理”内容是用于使讨厌整理的孩子进行整理的内容,例如是使机器人1对孩子说出诱发其产生整理意愿这样的话的内容。
“洗手间”内容是使机器人1对不愿意去洗手间的孩子说出诱发其产生去洗手间试试的意愿这样话的内容。“睡觉”内容是用于使熬夜的孩子早睡的内容,例如是通过与孩子谈话使机器人1诱导孩子去卧室、并且使机器人1读绘本或唱摇篮曲给孩子听的内容。
“刷牙”内容是使机器人1对讨厌刷牙的孩子说出诱发其产生刷牙意愿的话的内容,例如是使机器人1说出以容易理解的方式向孩子传达不刷牙的话会生蛀牙那就麻烦了的话的内容。
作为登记在执行契机表T2中的内容的可成为执行契机的单词,采用被设想在应执行相应内容的场景中孩子与母亲之间交谈的谈话中会包含的单词。
例如“胡萝卜”内容可以在看到餐桌上摆放的胡萝卜的孩子说“讨厌胡萝卜”、而针对该话母亲说”吃胡萝卜吧”的场景中执行。因此,在执行契机表T2中,针对“胡萝卜”内容,将作为孩子即用户A的可成为执行契机的单词的表示拒绝吃胡萝卜或否定胡萝卜的“讨厌”、和作为母亲即用户B的可成为执行契机的单词的“胡萝卜”相关联地登记。
“整理”内容例如可以在母亲说“一起整理玩具吧”、而针对该话孩子说“讨厌整理”的场景中执行。因此,在执行契机表T2中,针对“整理”内容,将作为孩子即用户A的可成为执行契机的单词的表示拒绝整理的“讨厌”、和作为母亲即用户B的可成为执行契机的单词的“整理”相关联地登记。
基于同样的考虑,在执行契机表T2中,针对“洗手间”内容,将拒绝去洗手间的“不想去”和“洗手间”作为可成为执行契机的单词而相关联地存储。另外,在执行契机表T2中,针对“睡觉”内容,将拒绝睡觉的“不想睡觉”和促使睡觉的“不睡觉吗?”作为可成为执行契机的单词而相关联地存储。另外,在执行契机表T2中,针对“刷牙”内容,将拒绝刷牙的“不想刷”和“刷牙”相关联地登记。
此外,在执行契机表T2中,“用户A”的“用语”字段中存储的单词相当于包含拒绝含义或否定词的第一单词的一例,“用户B”的“用语”字段中存储的单词相当于包含预定单词的第一单词的一例。作为预定单词,能够采用用于供母亲促使孩子进行与生活习惯相关的行动的用语或该用语所包含的单词。
此外,图4的执行契机表T2也可以将可成为执行契机的单词以用户能够修正的方式构成。例如在吃胡萝卜的场景中,孩子习惯说与“讨厌”具有相同含义的例如“不喜欢”的情况下,将“讨厌”修正为“不喜欢”。
另外,在图4的执行契机表T2中,针对1个内容关联有1对单词,但这是一例,也可以关联有多对单词。例如针对“胡萝卜”内容,除了“讨厌”-“胡萝卜”这一对以外,也可以关联有“不想吃”-“胡萝卜”这一对。另外,执行契机表T2也可以构成为用户能够任意追加这样的对。
返回来参照图1。在由登记用语有无判断部204判断为存在登记用语的情况下,时间戳更新部205在图4所示的执行契机表T2中,用当前时刻更新登记在与相应用户的相应单词对应的”时刻”字段中的说出时刻。
参照图4,在例如识别出用户A说了“讨厌”的情况下,时间戳更新部205用当前时刻更新对“讨厌”当前登记的说出时刻。
返回来参照图1。在由时间戳更新部205用说出时刻tA更新了某个单词WA的说出时刻的情况下,内容执行部206从执行契机表T2读取说出时刻tA和与单词WA对应的单词WB的说出时刻tB,在说出时刻tA与说出时刻tB的时间差处于预定时间以内的情况下,执行与单词WA和单词WB对应的内容。在此,作为预定时间,采用被视为用户A和用户B正在对话期间的预先设定的时间,例如能够采用5秒、10秒这样的时间。另外,内容执行部206在执行内容的过程中需要使输出部300工作的情况下,向控制命令生成部207输出命令输出委托。例如在“胡萝卜”内容中要使机器人1说出与胡萝卜相关的话的情况下,向控制命令生成部207输出用于使机器人1说出该话的命令输出委托。
控制命令生成部207在从内容执行部206接收到命令输出委托的情况下,将命令输出到语音输出部301及致动器控制部302中的至少一方。例如在接收到说出与胡萝卜相关的话的命令的输出委托的情况下,控制命令生成部207将用于使机器人1说出该话的命令输出到语音输出部301。另外,例如在从内容执行部206接收到诱导孩子去卧室的命令的输出委托的情况下,控制命令生成部207将使机器人1从当前位置移动到卧室的命令输出到致动器控制部302。
存储器208由非易失性存储装置构成,存储图3所示的说话者登记表T1和图4所示的执行契机表T2。
输出部300具备语音输出部301及致动器控制部302。语音输出部301将与从控制命令生成部207输出的命令对应的语音信号输出到扬声器,并使语音信号表示的语音从扬声器输出。例如在接收到说出与胡萝卜相关的话的命令的情况下,语音输出部301将与胡萝卜相关的话的语音信号输出到扬声器。
致动器控制部302将与从控制命令生成部207输出的命令对应的控制信号输出给机器人1的致动器或马达。
此外,在行动执行部200安装于与机器人1以可经由无线或有线进行通通信的方式连接的终端,并且在语音输出部301及致动器控制部302安装于机器人1的情况下,语音输出部301及致动器控制部302经由有线或无线接收从控制命令生成部207发送的命令即可。
图2是表示图1所示的机器人1的处理的一例的流程图。以下,使用图2,对根据作为孩子的用户A说的话和作为母亲的用户B说的话使机器人1执行“胡萝卜”内容的场景进行说明。此外,图2的流程图以预定周期反复执行。
在作为母亲的用户B说了“吃胡萝卜吗?”的情况下,语音输入检测部201检测到已有语音输入到语音输入部101,将语音数据输出到说话者判断部202,说话者判断部202参照图3所示的说话者登记表T1,判断该语音数据表示的语音是否为说话登记者的语音(S101)。
在此,由于用户B已登记在说话者登记表T1中,所以说话者判断部202判断为该语音数据是用户B的语音数据(S101,“是”)。在该情况下,该语音数据由语音识别部203转换为字符串,输出到登记用语有无判断部204。另一方面,在该语音数据表示的语音与登记在说话者登记表T1中的任一个说话登记者的语音都不符合的情况下(S101,“否”),使处理结束。
在S102中,登记用语有无判断部204判断在由语音识别部203转换而得到的字符串内是否包含登记在执行契机表T2中的单词。在此,在字符串“吃胡萝卜吗?”中,包含在执行契机表T2中作为用户B的可成为执行契机的单词而登记的“胡萝卜”。因此,登记用语有无判断部204在S102中判断为“是”。另一方面,如果在由语音识别部203转换而得到的字符串内不包含在执行契机表T2中作为用户B的可成为执行契机的单词而登记的任一个单词,则在S102中判断为“否”,使处理结束。
在S103中,时间戳更新部205针对该可成为执行契机的单词,将登记在执行契机表T2中的说出时刻更新为当前时刻。在此,当前时刻是12时15分15秒,因此如图4的单元格C402所示的那样,用户B说出“胡萝卜”的说出时刻被更新为“12:15:15”。在此,示出了针对用户B更新说出时刻的例子,但是针对用户A也与用户B同样地更新说出时刻。这样,执行契机表T2中的说出时刻,在该用户每次说出成为执行契机的单词时被更新。因此,在执行契机表T2中,登记由该用户说出可成为执行契机的单词的最新的说出时刻。
在S104中,内容执行部206参照执行契机表T2,判定与通过S103被更新了说出时刻的单词“胡萝卜”对应的单词“讨厌”的说出时刻与单词“胡萝卜”的说出时刻的时间差是否处于预定时间以内。在此,如单元格C402所示的那样,单词“胡萝卜”的说出时刻是12时15分15秒,如单元格C401所示的那样,单词“讨厌”的说出时刻是12时15分10秒,所以两个说出时刻的时间差是5秒。因此,当将预定时间设为10秒时,时间差处于预定时间以内,因此在S104中判断为“是”。另一方面,在时间差大于预定时间的情况下,在S104中判断为“否”,使处理结束。
在S105中,内容执行部206执行与被判断为时间差处于预定时间以内的成为执行契机的单词对相对应的内容,并使处理结束。在此,“胡萝卜”内容与单词“胡萝卜”和单词“讨厌”这一单词对相关联。因此,内容执行部206执行“胡萝卜”内容。
这样,根据本实施方式,当检测到用户B的语音中包含单词WB时,如果与单词WB对应的由用户A说出的单词WA已被登记在执行契机表T2中,并且单词WA的说出时刻tA与单词WB的说出时刻tB的时间差处于预定时间以内,则输出与单词WA和单词WB对应的内容的语音。
由此,即使作为母亲的用户B不输入内容启动指示,也能够输出按照内容的语音,能够防止用户A觉察到所输出的语音是根据用户B的操作而输出的语音。
(机器人)
接着,对图1所示的机器人1的机械结构进行说明。图6是表示图1所示的机器人1的外观的一例的图。如图6所示,机器人1具备球带状的主壳体401、第一球冠部402和第二球冠部406,主壳体401、第一球冠部402和第二球冠部406在整体上构成球体。即,机器人1具有球体形状。
另外,如图6所示,机器人1在第一球冠部402及第二球冠部406分别具备一对摄像头101A,在第一球冠部402具备麦克风102及扬声器301A。摄像头101A以使光轴例如朝向机器人1的正面的方式设置于第一球冠部402及第二球冠部406。
在图6中,示出了摄像头101A由立体摄像头构成的例子,但在摄像头101A由深度摄像头或单眼摄像头构成的情况下,摄像头101A设置于第一球冠部402及第二球冠部406中的某一方。扬声器301A将从图1所示的语音输出部301输出的语音信号输出到外部空间。麦克风102对应于图1所示的语音输入部101,取得机器人1周围的语音。
图7是从背后观察图6所示的机器人1的内部的图。第一球冠部402和第二球冠部406由横向延伸的轴115连结。另一方面,轴115和主壳体401没有被固定。
主壳体401具备被固定的第一齿轮116、与第一齿轮116啮合的第二齿轮117、与第二齿轮117连结的马达118、以及固定马达118的框架119。框架119悬挂于轴115,因此即使轴115旋转该框架119也不旋转。
当马达118进行驱动时,与马达118连结的第二齿轮117旋转,将该动力传递给与第二齿轮117啮合的第一齿轮116。由此,固定有第一齿轮116的主壳体401与马达118的驱动同步地旋转。因此,当马达118向前进方向旋转时,机器人1前进,当马达118向后退方向旋转时,机器人1后退。
马达118基于图1所示的致动器控制部302的控制进行旋转。由此,致动器控制部302能够使机器人1前进或后退。
在框架119,经由一对臂123安装有配重114。一对臂123在下端夹持配重114,上端以在机器人1的滚转方向上转动自由的方式安装于框架119。在框架119的内部,安装有使一对臂123在滚转方向上摆动的马达(图略)。由此,在从背后观察而配重114向右侧摆动的状态下使主壳体401向前进方向旋转时,机器人1进行右转。另一方面,在从背后观察而配重114向左侧摆动的状态下使主壳体401向前进方向旋转时,机器人1进行左转。图1所示的致动器控制部302在使该马达(图略)向右侧旋转了预定角度的状态下使马达118向前进方向进行驱动,由此能够使机器人1进行右转。同样地,致动器控制部302在使该马达(图略)向左侧旋转了预定角度的状态下使马达118向前进方向进行驱动,由此能够使机器人1进行左转。
马达121是用于使轴115旋转的马达。当马达121向前方旋转时,该旋转力经由带122传递给轴115,轴115相对于俯仰方向向下方旋转。另一方面,当马达向后方旋转时,该旋转力经由带122传递给轴115,轴115相对于俯仰方向向上方旋转。由此,安装于轴115的第一球冠部402及第二球冠部406和安装于臂113的显示机器人1的眼睛及嘴的显示部连动地旋转。其结果,机器人1的眼睛及嘴的朝向和摄像头101A的光轴的朝向变更为俯仰方向的下方或上方。
本公开能够采用下述变形例。
(变形例1)
上述实施方式适用于用户之间的对话,但是本公开不限定于此,也可以适用于与图1所示的机器人1不同的机器人与用户之间的对话。图5是表示将图1所示的机器人1应用于与图1所示的机器人1不同的机器人与用户之间的对话时的执行契机表T2’的一例的图。在图5中,登记有与图1所示的机器人1不同的机器人RA及机器人RB,来取代作为母亲的用户B。
作为机器人RA,例如设想承担作为孩子即用户A的监护人的职责的机器人。作为机器人RB,例如设想承担作为孩子即用户A的朋友或兄弟的职责的机器人。
因此,在图5中,作为机器人RA的成为执行契机的单词,登记有与图4的用户B(母亲)相同的单词。
另外,在图5中,作为机器人RB的成为执行契机的单词,由于机器人RB与用户A一起进行与生活习惯相关的行动而登记有诱导用户A的单词。具体而言,作为机器人RB的成为执行契机的单词,针对“胡萝卜”、“整理”、“洗手间”、“睡觉”、以及“刷牙”等各内容,登记有“喜欢”、“一起”、“哪里”、“一起”、以及“一起”。
例如针对“胡萝卜”内容,作为机器人RB的成为执行契机的单词登记有“喜欢”。这是为了,在作为孩子的用户A看到摆放在餐桌上的胡萝卜时说“讨厌胡萝卜”、机器人RA说“吃胡萝卜吧”、机器人RB说“喜欢胡萝卜”这样的场景中使机器人1执行“胡萝卜”内容。
另外,针对“整理”内容,作为机器人RB的成为执行契机的单词,登记有“一起”。这是为了,例如在机器人RA说“一起整理吧”、针对该话作为孩子的用户A说“讨厌整理”、机器人RB说“一起整理吧”的场景中使机器人1执行“整理”内容。
在采用该变形例的情况下,在说话者登记表T1中,替代作为母亲的用户B而将机器人RA及机器人RB的声纹与机器人名字关联地登记。说话者判断部202参照说话者登记表T1,执行针对机器人RA及机器人RB也分别判断说话者的处理。
语音识别部203将机器人RA及机器人RB各自的语音数据转换为字符串。登记用语有无判断部204判断在表示机器人RA及机器人RB各自说的话的字符串中是否包含登记在执行契机表T2’中的单词。在由登记用语有无判断部204判断为在表示机器人RA及机器人RB说的话的字符串中包含登记在执行契机表T2’中的单词的情况下,时间戳更新部205用当前时刻更新执行契机表T2’中的与该单词对应的说出时刻。
将说出时刻被更新的单词设为单词W1、将登记在执行契机表T2’中的与单词W1对应的两个单词设为单词W2及单词W3时,在单词W2及单词W3中说出时刻较晚的那个单词(在此设为单词W2)的说出时刻t2与单词W1的说出时刻t1的时间差ΔT1处于预定时间以内的情况下,内容执行部206执行与单词W1对应的内容即可。
或者,也可以是,在单词W1的说出时刻t1与单词W2的说出时刻t2的时间差ΔT1处于预定时间以内、并且单词W2的说出时刻t2与单词W3的说出时刻t3的时间差ΔT2处于预定时间以内的情况下,内容执行部206执行与单词W1对应的内容。
此外,在图5所示的执行契机表T2’中,也可以省略关于承担作为孩子的朋友或兄弟的职责的机器人RB的成为执行契机的单词。
在该情况下,内容执行部206根据用户A与机器人RA的对话来判断内容执行的有无。
此外,在变形例1中,机器人RA及RB能够应用与图1、图6所示的机器人1相同的结构。在该情况下,语音输入部101相当于麦克风的一例,图6所示的扬声器301A相当于扬声器的一例,行动执行部200相当于处理器及存储器的一例。
(变形例2)
在上述实施方式中,采用孩子作为用户A,但是也可以采用大人作为用户A。例如存在用户B想要使同居的老人或丈夫养成生活习惯的场景。在这样的场景中,能够适用本公开。
(变形例3)
在上述变形例1中,采用孩子作为用户A,但是也可以采用大人作为用户A。例如也可以设想,在今后的社会中,承担看护用户A的看护者职责的机器人RA代行看护者职务,要使作为被看护者的用户A养成生活习惯的场景。在这些场景中,能够适用本公开。
(变形例4)
在上述实施方式及变形例1中,采用孩子作为用户A,但是也可以采用幼儿作为用户A。在此,幼儿是指例如处于语言获得阶段的未上学幼儿。
(变形例5)
在实施方式1中,采用母亲作为用户B,但是也可以采用作为孩子的用户A的监护人作为用户B。作为监护人,有用户B的父亲或祖父母。
(变形例6)
本公开适用于图1所示的机器人,但这是一例,通常也可以适用于包含机器人的装置。作为装置,例如包含电视机或音响设备等家电设备。
(变形例7)
在实施方式1中,作为机器人,采用图6所示的机器人1,但是本公开不限于此,也可以适用于其他机器人。

Claims (14)

1.一种装置,是与多个用户进行交流的装置,具备:
取得所述装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器,
所述处理器,
判断所述声音中是否包含第一用户的语音,
在判断为所述声音中包含所述第一用户的语音的情况下,判断所述语音中是否包含所述存储器中存储的与所述第一用户对应的第一单词,所述存储器至少将所述多个用户、与所述多个用户对应的单词、和与所述多个用户对应的单词最后被说出的时刻相关联,
在判断为所述语音中包含所述第一单词的情况下,判断所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差是否处于预定时间以内,所述第一时刻是当前时刻,所述第二用户与所述第一用户不同,所述第一单词和所述第二单词对应于相同的内容,
在判断为所述第一时刻与所述第二时刻之差处于所述预定时间以内的情况下,使所述扬声器输出与所述内容对应的语音。
2.根据权利要求1所述的装置,
所述处理器进一步,在判断为所述语音中包含所述第一单词的情况下,在所述存储器中将所述第一单词被所述第一用户说出的时刻更新为所述第一时刻。
3.根据权利要求1所述的装置,
所述第一用户是所述第二用户的监护人。
4.根据权利要求1所述的装置,
所述第一用户是与所述装置不同的其他装置,
所述第二用户是幼儿,
所述其他装置具备:
取得所述其他装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器。
5.根据权利要求1所述的装置,
所述第二用户是所述第一用户的监护人。
6.根据权利要求1所述的装置,
所述第一用户是幼儿,
所述第二用户是与所述装置不同的其他装置,
所述其他装置具备:
取得所述其他装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器。
7.根据权利要求1所述的装置,
所述第一用户是大人,
所述第二用户是与所述装置不同的其他装置,
所述其他装置具备:
取得所述其他装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器。
8.根据权利要求1所述的装置,
所述第一用户是与所述装置不同的其他装置,
所述第二用户是大人,
所述其他装置具备:
取得所述其他装置周边的声音的麦克风;
扬声器;
存储器;以及
处理器。
9.根据权利要求1所述的装置,
所述内容是用于使幼儿养成生活习惯的内容。
10.根据权利要求5或6所述的装置,
所述第一单词包含拒绝含义或否定词。
11.根据权利要求3、4、7和8中任一项所述的装置,
所述第一单词包含与所述内容对应的预定单词。
12.一种机器人,是与多个用户进行交流的机器人,具备:
取得所述机器人周边的声音的麦克风;
扬声器;
存储器;以及
处理器,
所述处理器,
判断所述声音中是否包含第一用户的语音,
在判断为所述声音中包含所述第一用户的语音的情况下,判断所述语音中是否包含所述存储器中存储的与所述第一用户对应的第一单词,所述存储器至少将所述多个用户、与所述多个用户对应的单词、和与所述多个用户对应的单词最后被说出的时刻相关联,
在判断为所述语音中包含所述第一单词的情况下,判断所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差是否处于预定时间以内,所述第一时刻是当前时刻,所述第二用户与所述第一用户不同,所述第一单词和所述第二单词对应于相同的内容,
在判断为所述第一时刻与所述第二时刻之差处于所述预定时间以内的情况下,使所述扬声器输出与所述内容对应的语音。
13.一种方法,是与多个用户进行交流的装置的方法,所述装置具备取得所述装置周边的声音的麦克风、扬声器、存储器以及处理器,
所述方法包括:
判断所述声音中是否包含第一用户的语音,
在判断为所述声音中包含所述第一用户的语音的情况下,判断所述语音中是否包含所述存储器中存储的与所述第一用户对应的第一单词,所述存储器至少将所述多个用户、与所述多个用户对应的单词、和与所述多个用户对应的单词最后被说出的时刻相关联,
在判断为所述语音中包含所述第一单词的情况下,判断所述第一单词被所述第一用户最后说出的第一时刻、和在所述存储器中与所述第一单词对应的第二单词被第二用户最后说出的第二时刻之差是否处于预定时间以内,所述第一时刻是当前时刻,所述第二用户与所述第一用户不同,所述第一单词和所述第二单词对应于相同的内容,
在判断为所述第一时刻与所述第二时刻之差处于所述预定时间以内的情况下,使所述扬声器输出与所述内容对应的语音。
14.一种程序,其用于使计算机执行权利要求13所述的方法。
CN201910154149.8A 2018-03-08 2019-03-01 与用户交流的装置及其方法、机器人及计算机程序产品 Active CN110246491B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018042273A JP7015711B2 (ja) 2018-03-08 2018-03-08 装置、ロボット、方法、及びプログラム
JP2018-042273 2018-03-08

Publications (2)

Publication Number Publication Date
CN110246491A true CN110246491A (zh) 2019-09-17
CN110246491B CN110246491B (zh) 2024-05-07

Family

ID=65628626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910154149.8A Active CN110246491B (zh) 2018-03-08 2019-03-01 与用户交流的装置及其方法、机器人及计算机程序产品

Country Status (3)

Country Link
US (1) US10923140B2 (zh)
JP (1) JP7015711B2 (zh)
CN (1) CN110246491B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560576B1 (en) * 2000-04-25 2003-05-06 Nuance Communications Method and apparatus for providing active help to a user of a voice-enabled application
US20030170602A1 (en) * 2002-02-07 2003-09-11 Norihiro Hagita Interaction media device and experience transfer system using interaction media device
JP2010128281A (ja) * 2008-11-28 2010-06-10 Waseda Univ 対話活性化システム及び対話活性化ロボット
US20130066634A1 (en) * 2011-03-16 2013-03-14 Qualcomm Incorporated Automated Conversation Assistance
JP2013073355A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 対話支援装置、方法及びプログラム
CN103377276A (zh) * 2012-04-16 2013-10-30 宏达国际电子股份有限公司 在对话期间提供建议的方法以及使用所述方法的电子装置
JP2016006607A (ja) * 2014-06-20 2016-01-14 カシオ計算機株式会社 対話型通信システム、端末装置およびプログラム
JP2017208003A (ja) * 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590536B2 (en) * 2005-10-07 2009-09-15 Nuance Communications, Inc. Voice language model adjustment based on user affinity
JP6795387B2 (ja) 2016-12-14 2020-12-02 パナソニック株式会社 音声対話装置、音声対話方法、音声対話プログラム及びロボット
US20190378024A1 (en) * 2016-12-16 2019-12-12 Second Mind Labs, Inc. Systems to augment conversations with relevant information or automation using proactive bots
US11663182B2 (en) * 2017-11-21 2023-05-30 Maria Emma Artificial intelligence platform with improved conversational ability and personality development
JP7102169B2 (ja) 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 装置、ロボット、方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560576B1 (en) * 2000-04-25 2003-05-06 Nuance Communications Method and apparatus for providing active help to a user of a voice-enabled application
US20030170602A1 (en) * 2002-02-07 2003-09-11 Norihiro Hagita Interaction media device and experience transfer system using interaction media device
JP2010128281A (ja) * 2008-11-28 2010-06-10 Waseda Univ 対話活性化システム及び対話活性化ロボット
US20130066634A1 (en) * 2011-03-16 2013-03-14 Qualcomm Incorporated Automated Conversation Assistance
JP2013073355A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 対話支援装置、方法及びプログラム
CN103377276A (zh) * 2012-04-16 2013-10-30 宏达国际电子股份有限公司 在对话期间提供建议的方法以及使用所述方法的电子装置
JP2016006607A (ja) * 2014-06-20 2016-01-14 カシオ計算機株式会社 対話型通信システム、端末装置およびプログラム
JP2017208003A (ja) * 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HWANG I: "TalkBetter: family-driven mobile intervention care for children with language delay", 《PROCEEDINGS OF THE 17TH ACM CONFERENCE ON COMPUTER SUPPORTED COOPERATIVE WORK & SOCIAL COMPUTING》, pages 1283 - 1296 *
ROBINS B: "《Robotic assistants in therapy and education of children with autism: can a small humanoid robot help encourage social interaction skills?》", 《UNIVERSAL ACCESS IN THE INFORMATION SOCIETY》, pages 105 - 120 *
王志浩: "《儿童成长陪伴机器人与教育资源平等》", 《科技导报》, pages 99 - 100 *

Also Published As

Publication number Publication date
JP2019158967A (ja) 2019-09-19
US10923140B2 (en) 2021-02-16
US20190279643A1 (en) 2019-09-12
CN110246491B (zh) 2024-05-07
JP7015711B2 (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
US20240168933A1 (en) Ai story platform with customizable personality for education, entertainment, and therapy
TWI692717B (zh) 影像顯示裝置、話題選擇方法及程式
US9704103B2 (en) Digital companions for human users
JP7396396B2 (ja) 情報処理装置、情報処理方法、およびプログラム
IL229370A (en) Interface system and method for providing user interaction with network entities
JP2006061632A (ja) 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法
CN110152314A (zh) 会话输出系统、会话输出服务器、会话输出方法以及存储介质
JP5254487B1 (ja) 携帯情報端末、シャドー音声管理方法及びコンピュータプログラム
JP2017219845A (ja) 発話促進装置及び発話促進プログラム
JP2003108362A (ja) コミュニケーション支援装置およびコミュニケーション支援システム
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
JP2015176058A (ja) 電子機器、方法及びプログラム
JP6598369B2 (ja) 音声管理サーバー装置
CN110246491A (zh) 装置、机器人、方法及程序
CN1710556A (zh) 使用语言识别的在线语言学习方法及系统
TW200523005A (en) Improvements relating to toys and the like
Valsson Judaism and Danish directors: The case of Lars von Trier vs. Susanne Bier
JP2002041279A (ja) エージェント伝言システム
Edwards Music Mirrors: Practice-based reflections on the development and uses of audio biographical cues to support people living with dementia and other long-term conditions
JP7350384B1 (ja) 対話システム、及び対話方法
Lyford et al. Developing a telephone training program for adults using cochlear implants
Strawser Gifts of silence from Kierkegaard and Derrida
JP2023176404A (ja) バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラム
JP2023087483A (ja) バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラム
JP2024063745A (ja) バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant