CN110177660B - 言行控制装置、机器人、存储介质及控制方法 - Google Patents

言行控制装置、机器人、存储介质及控制方法 Download PDF

Info

Publication number
CN110177660B
CN110177660B CN201780083412.8A CN201780083412A CN110177660B CN 110177660 B CN110177660 B CN 110177660B CN 201780083412 A CN201780083412 A CN 201780083412A CN 110177660 B CN110177660 B CN 110177660B
Authority
CN
China
Prior art keywords
robot
speech content
speech
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780083412.8A
Other languages
English (en)
Other versions
CN110177660A (zh
Inventor
小柳津拓也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of CN110177660A publication Critical patent/CN110177660A/zh
Application granted granted Critical
Publication of CN110177660B publication Critical patent/CN110177660B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Manipulator (AREA)

Abstract

使机器人进行更加优异的情感交流。言行控制装置(1)具备:发话内容选择部(16),其从多个发话中选择机器人(100)的发话内容;操作控制部(17),其基于对应于发话内容的感情的种类操作可动部位(13);语音控制部(18),其在开始可动部位(13)的操作之后,使机器人(100)将发话内容作为语音输出。

Description

言行控制装置、机器人、存储介质及控制方法
技术领域
本发明涉及一种言行控制装置、机器人、存储介质及言行控制装置的控制方法。
背景技术
近年,正在积极地进行能够向用户等发话的电子设备的研究和开发。例如,专利文献1中公开了一种电子设备,其在发出消息时,发出对应于该消息的引起注意语句。根据该电子设备,通过发出引起注意语句而将用户的意识转向该电子设备之后再发出消息,因此,能够防止用户错过消息。
现有技术文献
专利文献
专利文献1:日本公开专利公报“2016-080894号公报(2016年5月16日公开)”
发明内容
(发明要解决的问题)
但是,专利文献1公开的电子设备中,在发出消息时可动部位并不执行特定的动作。因此,电子设备发出消息时,虽然能将用户的意识转向电子设备,但是不能给予用户一个电子设备将发出一些消息的期待感。因此,专利文献1公开的电子设备很难进行与用户之间的情感交流。
本发明的一方面是鉴于上述问题点而完成的,其目的在于,使机器人进行情感交流。
用于解决问题的方案
为了解决上述问题,本发明的一方面涉及的言行控制装置是用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音的言行控制装置,其具备:发话内容选择部,其在与特定种类的感情相关联的多个发话中,选择所述机器人的发话内容;操作控制部,其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择部选择的所述发话内容相关联;语音控制部,其通过所述操作控制部的操作控制来开始所述任意一个以上的可动部位的操作之后,使所述机器人将所述发话内容作为所述语音而输出。
为了解决上述问题,本发明的一方面涉及的言行控制装置的控制方法是用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音的言行控制装置的控制方法,其包括:发话内容选择步骤,其在与特定种类的感情相关联的多个发话中,选择所述机器人的发话内容;操作控制步骤,其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择步骤中所选择的所述发话内容相关联;语音控制步骤,其通过所述操作控制步骤中的操作控制来开始所述任意一个以上的可动部位的操作之后,使所述机器人将所述发话内容作为所述语音而输出。
发明效果
根据本发明的一方面,在开始操作机器人的可动部位的之后,使该机器人输出语音,由此能够使机器人进行优异的情感交流。
附图说明
图1为表示根据本发明的第一、第二、第三实施方式的机器人的功能构成的框图。
图2为表示存储在根据本发明的第一实施方式的机器人的存储部中的发话内容表的一个例子的图。
图3为表示存储在根据本发明的第一实施方式的机器人的存储部的动作表的一个例子的图。
图4为表示根据本发明的第一实施方式的机器人的特征动作的流程的一个例子的流程图。
图5为表示根据本发明的第二实施方式的机器人的特征动作的流程的一个例子的流程图。
图6为表示根据本发明的第三实施方式的机器人的特征动作的流程的一个例子的流程图。
具体实施方式
〔第一实施方式〕
以下,基于图1至图4详细说明本发明的实施方式。并且,本实施方式以及以下的各实施方式的说明中,例举了根据本发明的一方面的言行控制装置内置于机器人中的情况。但是,根据本发明的一方面的言行控制装置不一定必须内置于机器人中。例如,根据本发明的一方面的言行控制装置也可以安装于外部的信息处理装置中,通过在信息处理装置和机器人之间发送和接收关于机器人的发话内容的信息及关于机器人的动作的信息,由此,进行根据所述言行控制装置的言行控制。
<机器人的功能构成>
首先,基于图1至图3对本发明的一实施方式涉及的机器人100的功能构成进行说明。图1为表示机器人100的功能构成的框图。图2为表示存储在机器人100的存储部15的发话内容表的一个例子的图。图3为表示存储在所述存储部15的动作表的一个例子的图。
机器人100是能够与用户及第三者之间进行会话的交流机器人。如图1所示,机器人100中设置有头部、臂部、腿部、腰部等的多个可动部位13。机器人100开始任意一个以上的可动部位13的操作以表达特定的种类的感情之后,输出对应于所述感情的发话内容的语音。此外,机器人100具备:通信部11、麦克风12、扬声器14、存储部15及控制部20。
通信部11与由用户操作的外部的信息处理装置(未图示)之间进行通信(建立通信协议)。具体为,通信部11接收从外部的信息处理装置发送的输出指示信息,并将所接收的输出指示信息发送给后述的发话内容选择部16。在这里,输出指示信息是表示对机器人100指示输出关于特定的发话内容的语音的信息。
麦克风12是检测出用户等的发话的集音装置。扬声器14起到输出部的功能,其将由后述的语音控制部18发送的语音数据作为语音而向外部输出。存储部15存储机器人100中处理的各种数据。此外,存储部15分别存储有图2所示的发话内容表及图3所示的动作表(两个表的详细内容将后述)。
并且,发话内容表及动作表不一定必须存储在存储部15中。例如,两个表也可以存储在外部的存储装置。此外例如,也可以将发话内容表存储在发话内容选择部16的存储器中,将动作表存储在后述的操作控制部17的存储器中。
控制部20用于综合控制机器人100的各部,并具备言行控制装置1。并且,在图1中控制部20内置于机器人100中,但是,控制部20也可以是安装于机器人100上的外部装置、经由通信部11而利用的网络服务器。
言行控制装置1是用于控制设置在机器人100上的多个可动部位13的操作以及由机器人100(具体为扬声器14)输出的语音的装置。言行控制装置1通过机器人100经由通信部11接收从外部的信息处理装置发送的输出指示信息来控制机器人100的言行。如图1所示,言行控制装置1具备:发话内容选择部16、操作控制部17及语音控制部18。
发话内容选择部16从与特定的种类的感情相关联的多个发话中,选择机器人100作为语音输出的发话内容。具体为,本实施方式以及以下的各实施方式中,所述多个发话与“高兴”、“感谢”、“寂寞”三种感情相关联(参照图2及图3)。此外,当发话内容选择部16接收从通信部11发送的输出指示信息,则从存储部15调用发话内容表,并从存储在该发话内容表中的多个发话内容中检索输出指示信息中包含的发话内容。并且,发话内容选择部16选择关于检索结果的发话内容,以作为机器人100以语音输出的发话内容。发话内容选择部16生成所选择的发话内容涉及的文本数据,并发送至语音控制部18。
在此,本实施方式以及以下的各实施方式中,如图2所示,发话内容表中存储有四个发话内容。此外,四个发话内容中的每一个与不同的元信息相关联,这些元信息也存储在发话内容表中。元信息包括特定的种类的感情及该感情的强弱,例如,“祝你生日快乐”的发话内容与包含“高兴-强”的内容的元信息相关联。发话内容选择部16向操作控制部17发送与所述检索结果涉及的发话内容相关联的元信息。
并且,存储在发话内容表中的发话内容的个数、种类并不限定于图2的例子,可以任意设定。此外,元信息所包含的感情的种类可以任意设定,并不限定于图2的例子。进一步,元信息不一定必须包含感情的强弱。换言之,存储在发话内容表中的发话内容至少与特定的种类的感情相关联即可。
此外,如本实施方式以及以下的各实施方式所述,发话内容选择部16接收输出指示信息,由此通过该发话内容选择部16选择发话内容,但并不限定于此。例如,也可以是麦克风12检测出用户的发话,将该发话的语音数据发送至发话内容选择部16,由此进行发话内容的选择。即,也可以是发话内容选择部16根据所接收的语音数据生成表示发话内容的文本数据,并从发话内容表中检索成为针对用户的发话(文本数据表示的发话内容)的回答的发话内容。具体为,当用户发出了“再见”的情况下,发话内容选择部16可以从发话内容表中选择“再见”。
操作控制部17基于感情的种类操作任意一个以上的可动部位13,所述感情的种类与由发话内容选择部16选择的发话内容相关联。具体为,当操作控制部17接收从发话内容选择部16发送的元信息,则从存储部15调用动作表。
接下来,操作控制部17从存储在动作表中的多个动作中,检索与元信息所包含的特定的种类的感情、该感情的强弱相关联的动作。并且,操作控制部17操作执行该动作所需的特定的可动部位13,以使机器人100执行关于检索结果的动作。机器人100执行关于检索结果的动作之后,操作控制部17向语音控制部18发送关于执行结束的信息。
这里,本实施方式以及以下的各实施方式中,如图3所示,动作表中存储有四个动作。此外,与存储在发话内容表的四个元信息相同内容的元信息分别与四个动作相关联,这些元信息也存储在动作表中。并且,存储在动作表中的动作的个数、种类并不限定于图3的例子,可以任意设定。
例如,在操作控制部17接收到“感谢-强”的内容的元信息的情况下,操作控制部17操作机器人100用于执行“鞠躬”动作所需的特定的可动部位13。具体为,操作控制部17转动腰部(可动部位13),以使机器人100的上半身向前方倾斜。
在根据操作控制部17的操作控制的任意一个以上的可动部位13的操作结束之后,语音控制部18使从发话内容选择部16接收的关于检索结果的发话内容作为语音而从机器人100(具体为,扬声器14)输出。具体为,当语音控制部18接收从发话内容选择部16发送的文本数据、以及从操作控制部17发送的关于执行结束的信息,则将文本数据转换为语音数据,并将所转换的语音数据发送至扬声器14。通过如上所述的语音控制部18将语音数据发送至扬声器14,由此,机器人100将由发话内容选择部16选择的发话内容作为语音而从扬声器14输出。
并且,本实施方式以及以下的各实施方式中,语音控制部18开始语音控制的条件是从操作控制部17接收关于执行结束的的信息。换言之,语音控制部18在机器人100结束动作执行之后开始语音控制。但是,语音控制部18开始语音控制的时机并不限定于上述情况。例如,也可以在执行动作的中途阶段机器人100输出语音(语音控制部18进行语音控制)。换言之,语音控制部18只要在根据操作控制部17的操作控制而开始任意一个以上的可动部位13的操作之后,机器人100输出语音即可。
但是,为了使用户等更加具有机器人100将进行表示特定的感情的一些发话的期待感,优选在机器人100发话之前,用户更长时间地观看动作执行过程。从该观点出发,如本实施方式以及以下的各实施方式,语音控制部18在机器人100的动作执行结束之后开始语音控制是更有效的。
<机器人的特征动作>
接下来,基于图4的流程图说明机器人100的特征动作。图4表示机器人100的特征动作的流程的一个例子的流程图。并且,图4所示的流程图表示在发话内容选择部16从外部的信息处理装置接收输出指示信息之后,机器人100进行的动作。图5及图6所示的流程图也是同样的。
首先,发话内容选择部16从外部的信息处理装置经由通信部11接收输出指示信息,由此,开始图4所示的流程图的动作(开始)。步骤S101(发话内容选择步骤:以下省略“步骤”)中,发话内容选择部16检索从存储部15调用的发话内容表,以选择机器人100的发话内容,由此进入S102。关于所选择的发话内容的文本数据被发送至语音控制部18,与所选择的发话内容相关联的元信息被发送至操作控制部17。
接下来,S102(动作选择步骤)中,已接收到元信息的操作控制部17检索从存储部15调用的动作表,并选择机器人100执行的动作,进入S103。S103(动作执行步骤(操作控制步骤))中,操作控制部17使机器人100执行动作,由此进入S104。换言之,操作控制部17操作执行动作所需的任意一个以上的可动部位13。执行动作之后,向语音控制部18发送关于执行结束的信息。
接下来,S104(语音控制步骤)中,已接收到文本数据及关于执行结束的信息的语音控制部18将文本数据转换为语音数据并发送至扬声器14,使扬声器14将所选择的发话内容作为语音而输出(结束)。
〔第二实施方式〕
基于图1及图5说明本发明的其他实施方式是如下这样。并且,为了便于说明,对与在上述实施方式中说明的构件具有相同功能的构件,标注相同的附图标记,省略其说明。本实施方式涉及机器人200与第一实施方式涉及的机器人100的不同点在于,具备检测部21。此外,本实施方式涉及的言行控制装置2与第一实施方式的言行控制装置1的不同点在于,具备发话内容选择部16a以及操作控制部17a以代替发话内容选择部16以及发话控制部17。
<机器人的功能构成>
首先,基于图1说明机器人200的功能构成。图1表示机器人200的功能构成的框图。与机器人100相同地,机器人200是能够与用户及第三者之间进行会话的交流机器人。后述的机器人300也与机器人100、200相同。与言行控制装置1相同地,言行控制装置2是用于控制设置在机器人200上的多个可动部位13的操作以及由机器人200输出的语音的装置。后述的言行控制装置3也与言行控制装置1、2相同。
检测部21检测成为机器人200输出语音的对象的输出对象者,即,检测用户及第三者。检测出用户或第三者的检测部21向发话内容选择部16a发送检测结果。本实施方式及第三实施方式中,作为检测部21使用人体传感器。并且,除了人体传感器之外,检测部21例如由照相机或者微振动检测装置实现。
发话内容选择部16a在从检测部21接收到检测结果的情况下,即由检测部21检测出输出对象者的情况下,判断输出对象者是用户还是第三者。在判断为输出对象者是用户的情况下,发话内容选择部16a检索发话内容表并选择机器人200的发话内容。关于选择后的处理,与发话内容选择部16相同。另一方面,判断为输出对象者是第三者的情况下,发话内容选择部16a不进行发话内容的选择。该情况下,再次进行通过检测部21的输出对象者的检测。
操作控制部17a在从发话内容选择部16a接收到元信息的情况下,在使机器人200执行动作之前,操作任意一个以上的可动部位13,以使机器人200朝向用户所在的方向。在此,可以操作任意可动部位13,只要机器人200朝向用户所在的方向即可。但是,如果进一步提高用户的期待感,则优选尽可能操作多个可动部位13,以使机器人200朝向用户所在的方向的动作变大。关于机器人200朝向用户所在的方向之后的处理,与操作控制部17相同。
<机器人的特征动作>
接下来,基于图5的流程图说明机器人200的特征动作。图5表示机器人200的特征动作的流程的一个例子的流程图。首先,S201(输出对象者检测步骤)中,检测部21检测输出对象者,并将检测结果发送至发话内容选择部16a,进入S202。
接下来,S202(用户存在判断步骤)中,已接收到检测结果的发话内容选择部16a判断由检测部21检测出的输出对象者是否为用户。在S202中判断为“是”(以下,缩写为“Y”)的情况下,与发话内容选择部16相同的,通过发话内容选择部16a选择机器人200的发话内容(S203:发话内容选择步骤),进入S204。另一方面,在S202中判断为“否”(以下,缩写为“N”)的情况下,再次进行通过检测部21的输出对象者的检测(S201)。
接下来,S204(反向调整步骤)中,接收到元信息的操作控制部17a操作特定的可动部位13,以使机器人200朝向用户所在的方向。在机器人200朝向用户所在的方向之后,S205至S207的各处理与图4所示的流程图中的S102至S104的处理相同,因此省略其说明。
〔第三实施方式〕
基于图1及图6说明本发明的其他实施方式是如下这样。并且,为了便于说明,对与在上述实施方式中说明的构件具有相同功能的构件,标注相同的附图标记,省略其说明。
本实施方式涉及机器人300与第一实施方式涉及的机器人100的不同点在于,具备检测部21。此外,本实施方式涉及的言行控制装置3与第一实施方式涉及的言行控制装置1的不同点在于,具备发话内容选择部16a,以替代发话内容选择部16。进一步,本实施方式涉及的言行控制装置3与第一、第二实施方式涉及的言行控制装置1、2的不同点在于,具备操作控制部17b,以替代操作控制部17。
<机器人的功能构成>
首先,基于图1说明机器人300的功能构成。图1表示机器人300的功能构成的框图。本实施方式涉及的检测部21不仅将检测结果发送至发话内容选择部16a,还发送至操作控制部17b。此外,本实施方式涉及的发话内容选择部16a在由所述检测部21检测出的输出对象者被判断为是第三者的情况下,检索发话内容表并进行发话内容的选择,将元信息发送至操作控制部17b。
操作控制部17b在自检测部21接收检测结果,并自发话内容选择部16a接收到元信息的情况下,首先判断由检测部21检测出的输出对象者是否为用户。然后,操作控制部17b使机器人300执行动作之前,操作任意一个以上的可动部位13,以使机器人300朝向输出对象者所在的方向。即,分别操作特定的可动部位13,以使在输出对象者为用户的情况下,机器人300朝向用户所在的方向,另一方面,在输出对象者为第三者(用户以外)的情况下,机器人300朝向第三者所在的方向。
接下来,操作控制部17b在机器人300朝向输出对象者所在的方向之后,使机器人300执行动作。具体为,操作控制部17b在由检测部21检测出的输出对象者为用户的情况下,操作任意一个以上的可动部位13(第一操作),以使机器人300执行用户偏好的第一动作。例如,如果用户具有希望机器人300执行表达丰富的动作的偏好,则以可动部位13的操作范围更宽的方式操作该可动部位13。具体为,在元信息的感情等为“高兴-强”的情况下,以使机器人300的臂部相对于水平方向上升约90°的方式操作该臂部(第一动作)。
另一方面,所述输出对象者为第三者的情况下,操作控制部17b操作任意一个以上的可动部位13(第二操作),以使机器人300执行与第一动作不同的第二动作。在上述的例子中,在元信息的感情等为“高兴-强”的情况下,以使机器人300的臂部相对于水平方向仅上升约45°的方式操作该臂部(第二动作)。
如上所述,即使在操作控制部17b从动作表中选择相同的动作的情况下,输出对象者为用户的情况和第三者的情况下使实际执行的动作模式不同,由此能够进一步提高用户的期待感。
<机器人的特征动作>
接下来,基于图6的流程图说明机器人300的特征动作。图6为表示机器人300的特征动作的流程的一个例子的流程图。首先,S301(输出对象者检测步骤)中,检测部21检测输出对象者,并将检测结果发送至发话内容选择部16a及操作控制部17b,进入S302。
接下来,步骤S302(发话内容选择步骤)中,发话内容选择部16a检索发话内容表,以选择机器人300的发话内容,由此进入S303。关于所选择的发话内容的文本数据被发送至语音控制部18,与所选择的发话内容相关联的元信息被发送至操作控制部17b。
接下来,S303(用户存在判断步骤)中,接收到检测结果及元信息的操作控制部17b判断由检测部21检测出的输出对象者是否为用户。S303中判断为“Y”的情况下,操作控制部17b操作特定的可动部位13,以使机器人300朝向用户所在的方向(S304:第一方向调整步骤)。另一方面,S303中判断为“N”的情况下,操作控制部17b操作特定的可动部位13,以使机器人300朝向第三者所在的方向(S308:第二方向调整步骤)。
接下来,S305(第一动作选择步骤)中,操作控制部17b选择机器人300执行的第一动作,并进入S306。S306(第一动作执行步骤(操作控制步骤))中,操作控制部17b使机器人300执行第一动作,由此进入S307。
另一方面,S309(第二动作选择步骤)中,操作控制部17b选择机器人300执行的第二动作,并进入S310。S310(第二动作执行步骤(操作控制步骤))中,操作控制部17b使机器人300执行第二动作,由此进入S307。S307的处理与图4所示的流程图的S104及图5所示的流程图的S207的各处理相同,因此省略其说明。
〔通过软件的实现例〕
言行控制装置1、2及3的控制块(尤其是发话内容选择部16、操作控制部17及语音控制部18)可以由形成在集成电路(IC芯片)等中的逻辑电路(硬件)实现,或者可以通过使用CPU(C entral Processing Unit:中央处理单元)的软件来实现。
在后者的情况下,言行控制装置装置1、2及3包括:CP U,其执行作为用于实现各功能的软件的程序的命令;ROM(Re ad Only Memory:只读存储器)或者存储装置(这些被称为“记录介质”),其储存上述程序和各种数据以供计算机(或CPU)能够读取;RAM(RandomAccess:随机存取存储器),其用于展开所述程序等。然后,通过计算机(或CPU)从存储介质读取上述程序并执行程序来实现本发明的目的。作为记录介质,可以使用例如磁带、磁盘、卡、半导体存储器、可编程逻辑电路等的“非暂时性有形介质”。此外,上述程序可以经由能够发送该程序的任意传输介质(通信网络,广播波等)提供给计算机。并且,本发明的一个方面也可以以上述程序通过电子传输来具体化、并嵌入在载波中的数据信号的形式来实现。
〔总结〕
本发明的一方面涉及的言行控制装置(1、2、3)是用于控制设置在机器人(100、200、300)上的可动部位(13)的操作以及由所述机器人输出的语音的言行控制装置,其具备:发话内容选择部(16、16a),其在与特定种类的感情相关联的多个发话中,选择所述机器人的发话内容;操作控制部(17、17a、17b),其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择部选择的所述发话内容相关联;语音控制部(18),其通过所述操作控制部的操作控制来开始所述任意一个以上的可动部位的操作之后,使所述机器人将所述发话内容作为所述语音而输出。
根据上述构成,机器人在开始任意一个以上的可动部位的操作以表达特定的种类的感情之后,输出由发话内容选择部的选择的发话内容的语音。因此,用户在机器人输出语音之前观看所述操作开始之后的该机器人,由此,用户能够预测机器人将进行对应于可动部位的操作的发话。
因此,用户具有机器人将进行表达特定感情的发话的期待感,本发明的一方面涉及的言行控制装置能够使机器人进行优异的情感交流。
本发明的第二方面涉及的言行控制装置(1、2、3)是如第一方面所述的言行控制装置,其中,所述多个发话还与所述感情的强弱相关联,所述操作控制部可以基于与所述发话内容相关联的所述感情的种类及所述感情的强弱,操作所述任意一个以上的所述可动部位。
根据上述构成,根据感情的强弱使与特定种类的感情相关联的发话、可动部位的操作分别具有多种变化。因此,机器人的言行表达更加丰富,已观看可动部位的操作开始之后的机器人的用户,更强地具有机器人将进行表达特定感情的一些发话的期待感。因此,本发明的一方面涉及的言行控制装置能够使机器人进行更加优异的情感交流。
本发明的第三方面涉及的言行控制装置(2、3)是如所述第一或第二方面所述的言行控制装置,其还具备检测部(21),其检测成为所述机器人(200、300)输出所述语音的对象的输出对象者,所述发话内容选择部(16a)在由所述检测部检测出所述输出对象者的情况下,从所述多个发话中选择所述发话内容,所述操作控制部(17a、17b)在基于所述感情的种类操作任意一个以上的所述可动部位之前,操作所述任意一个以上的所示可动部位,以使所述机器人朝向所述输出对象者所在的方向,其中,所述感情的种类与由所述发话内容选择部选择的所述发话内容相关联。
根据上述构成,由检测部检测出输出对象者的情况下,机器人在朝向输出对象者所在的方向之后开始与特定的感情相关联的可动部位的操作,并将发话内容作为语音输出。因此,通过机器人朝向输出对象者所在的方向,输出对象者能够预测该机器人的其后的言行。
因此,输出对象者能够在从机器人朝向输出对象者所在的方向的那一刻起,具有机器人将进行表达特定的感情的一些发话的期待感。如上所述,本发明的一方面涉及的言行控制装置能够使机器人更长时间地进行优异的情感交流。
本发明的第四方面涉及的言行控制装置(3)是如所述第三方面的言行控制装置,其中,所述可动部位的操作包括:第一操作,其在所述输出对象者为用户的情况下操作所述任意一个以上的所述可动部位;第二操作,其在所述输出对象者为用户以外的对象的情况下,操作所述任意一个以上的所述可动部位,所述操作控制部(17b)可以在所述输出对象者为用户的情况下,以使所述可动部位进行所述第一操作的方式进行操作控制,另一方面,在所述输出对象者为用户以外的对象的情况下,以使所述可动部位进行所述第二操作的方式进行操作控制。
根据上述构成,操作控制部能够根据输出对象者是否为用户,将可动部位的操作切换为第一操作或第二操作的任意一个。因此,例如,通过将第一操作设置为用户偏好的表达模式以与第二操作的表达模式区分开,观看了第一操作开始之后的机器人的用户,明确地具有机器人将对自己进行表达特定感情的一些发话的期待感。因此,本发明的一方面涉及的言行控制装置能够使机器人进行更加优异的情感交流。
本发明的第五方面的机器人(100、200、300),其具备如第一至第四方面中的任意一个言行控制装置(1、2、3)。根据上述构成,能够实现能够进行优异的情感交流的机器人。
本发明的第六方面涉及的言行控制装置的控制方法是用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音的言行控制装置的控制方法,其包括:发话内容选择步骤(S101、S203、S302),其在与特定种类的感情相关联的多个发话中,选择所述机器人的发话内容;操作控制步骤(S103、S206、S306、S310),其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择步骤中所选择的所述发话内容相关联;语音控制步骤(S104、S207、S307),其通过所述操作控制步骤中的操作控制来开始所述任意一个以上的可动部位的操作之后,使所述机器人将所述发话内容作为所述语音而输出。
根据上述构成,能够实现能够使机器人进行优异的情感交流的言行控制装置的控制方法。
本发明的各方面的言行控制装置也可以由计算机实现,在这种情况下,言行控制装置的控制程序以及储存有该程序的计算机可读取的记录介质也包含于本发明的范围之内,言行控制装置的控制程序通过使计算机作为所述言行控制装置所具备的各部分(软件要素)进行动作从而利用计算机实现所述言行控制装置。
本发明不限于上述各实施方式,能在权利要求所示的范围中进行各种变更,将不同的实施方式中分别公开的技术手段适当组合得到的实施方式也包含于本发明的技术范围。而且,能够通过组合各实施方式分别公开的技术方法来形成新的技术特征。
附图标记说明
1、2、3 言行控制装置
13 可动部位
16、16a 发话内容选择部
17、17A、17b 操作控制部
18 语音控制部
21 检测部
100、200、300 机器人

Claims (6)

1.一种用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音的言行控制装置,其特征在于,包括:
检测部,其检测成为所述机器人输出所述语音的对象的输出对象者;
发话内容选择部,其从与特定的种类的感情相关联的多个发话中,选择所述机器人的发话内容;
操作控制部,其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择部选择的所述发话内容相关联;
语音控制部,其在根据所述操作控制部的操作控制而结束所述任意一个以上的所述可动部位的操作之后,使所述机器人将所述发话内容作为所述语音输出,
所述发话内容选择部在由所述检测部检测出的所述输出对象者为用户的情况下,从所述多个发话中选择所述发话内容,在由所述检测部检测出的所述输出对象者为用户以外的对象的情况下,不进行所述发话内容的选择。
2.一种用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音的言行控制装置,其特征在于,包括:
检测部,其检测成为所述机器人输出所述语音的对象的输出对象者;
发话内容选择部,其从与特定的种类的感情相关联的多个发话中,选择所述机器人的发话内容;
操作控制部,其基于所述感情的种类操作任意一个以上的所述可动部位,其中,所述感情的种类与由所述发话内容选择部选择的所述发话内容相关联;
语音控制部,其在根据所述操作控制部的操作控制而开始所述任意一个以上的所述可动部位的操作之后,使所述机器人将所述发话内容作为所述语音输出,
所述发话内容选择部在由所述检测部检测出的所述输出对象者为用户的情况下,从所述多个发话中选择所述发话内容,在由所述检测部检测出的所述输出对象者为用户以外的对象的情况下,不进行所述发话内容的选择,
所述多个发话还与所述感情的强弱相关联,
所述操作控制部基于与所述发话内容相关联的所述感情的种类及所述感情的强弱,操作所述任意一个以上的所述可动部位。
3.如权利要求2所述的言行控制装置,其特征在于,
所述操作控制部在基于所述感情的种类操作所述任意一个以上的所述可动部位之前,操作所述任意一个以上的所述可动部位,以使所述机器人朝向用户所在的方向,其中,所述感情的种类与由所述发话内容选择部选择的发话内容相关联。
4.一种机器人,其特征在于,
具备权利要求2或3所述的言行控制装置。
5.一种存储介质,其存储有用于使计算机发挥如权利要求2或3所述的言行控制装置的功能的控制程序,其特征在于,
所述控制程序使所述计算机发挥所述发话内容选择部、所述操作控制部及所述语音控制部的功能。
6.一种言行控制装置的控制方法,所述言行控制装置用于控制设置在机器人上的可动部位的操作以及由所述机器人输出的语音,所述控制方法的特征在于,包括:
检测步骤,在该步骤中,检测成为所述机器人输出所述语音的对象的输出对象者;
发话内容选择步骤,在该步骤中,从与特定的种类的感情相关联的多个发话中,选择所述机器人的发话内容;
操作控制步骤,在该步骤中,基于所述感情的种类操作任意一个以上的所述可动部位,所述感情的种类与由所述发话内容选择步骤中所选择的所述发话内容相关联;
语音控制步骤,在该步骤中,在根据所述操作控制步骤中的操作控制而开始所述任意一个以上的所述可动部位的操作之后,使所述机器人将所述发话内容作为所述语音输出,
在所述发话内容选择步骤中,在由所述检测部检测出的所述输出对象者为用户的情况下,从所述多个发话中选择所述发话内容,在由所述检测部检测出的所述输出对象者为用户以外的对象的情况下,不进行所述发话内容的选择,
所述多个发话还与所述感情的强弱相关联,
所述操作控制步骤中,基于与所述发话内容相关联的所述感情的种类及所述感情的强弱,操作所述任意一个以上的所述可动部位。
CN201780083412.8A 2017-01-19 2017-12-27 言行控制装置、机器人、存储介质及控制方法 Active CN110177660B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-007779 2017-01-19
JP2017007779 2017-01-19
PCT/JP2017/046996 WO2018135276A1 (ja) 2017-01-19 2017-12-27 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法

Publications (2)

Publication Number Publication Date
CN110177660A CN110177660A (zh) 2019-08-27
CN110177660B true CN110177660B (zh) 2022-06-14

Family

ID=62908633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780083412.8A Active CN110177660B (zh) 2017-01-19 2017-12-27 言行控制装置、机器人、存储介质及控制方法

Country Status (4)

Country Link
US (1) US11400601B2 (zh)
JP (1) JP6707671B2 (zh)
CN (1) CN110177660B (zh)
WO (1) WO2018135276A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
EP3821417A4 (en) * 2018-09-21 2021-09-08 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR PROVIDING NOTIFICATION BY INTERWORKING A PLURALITY OF ELECTRONIC DEVICES
JP7339124B2 (ja) * 2019-02-26 2023-09-05 株式会社Preferred Networks 制御装置、システム及び制御方法
US11204743B2 (en) * 2019-04-03 2021-12-21 Hia Technologies, Inc. Computer system and method for content authoring of a digital conversational character

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08318052A (ja) * 1995-05-24 1996-12-03 Ricoh Elemex Corp 不特定多数の観客の反応に対応するロボットシステム
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
CN104601538A (zh) * 2013-10-31 2015-05-06 夏普株式会社 服务器、发话控制方法、发话装置以及发话系统
CN105058393A (zh) * 2015-08-17 2015-11-18 李泉生 一种迎宾机器人
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人
CN105425970A (zh) * 2015-12-29 2016-03-23 深圳羚羊微服机器人科技有限公司 一种人机互动的方法、装置及机器人
JP2016080894A (ja) * 2014-10-17 2016-05-16 シャープ株式会社 電子機器、家電、制御システム、制御方法、および制御プログラム
CN105930372A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于多次反馈的情感机器人对话方法、系统以及机器人
CN105929827A (zh) * 2016-05-20 2016-09-07 北京地平线机器人技术研发有限公司 移动机器人及其定位方法
CN106294774A (zh) * 2016-08-11 2017-01-04 北京光年无限科技有限公司 基于对话服务的用户个性化数据处理方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
JP4266552B2 (ja) 2001-10-16 2009-05-20 日本電気株式会社 ロボット装置及びその制御方法
JP4622384B2 (ja) * 2004-04-28 2011-02-02 日本電気株式会社 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
JP4822319B2 (ja) * 2005-10-27 2011-11-24 株式会社国際電気通信基礎技術研究所 コミュニケーションロボットおよびそれを用いた注意制御システム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08318052A (ja) * 1995-05-24 1996-12-03 Ricoh Elemex Corp 不特定多数の観客の反応に対応するロボットシステム
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
CN104601538A (zh) * 2013-10-31 2015-05-06 夏普株式会社 服务器、发话控制方法、发话装置以及发话系统
JP2016080894A (ja) * 2014-10-17 2016-05-16 シャープ株式会社 電子機器、家電、制御システム、制御方法、および制御プログラム
CN105058393A (zh) * 2015-08-17 2015-11-18 李泉生 一种迎宾机器人
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人
CN105425970A (zh) * 2015-12-29 2016-03-23 深圳羚羊微服机器人科技有限公司 一种人机互动的方法、装置及机器人
CN105930372A (zh) * 2016-04-12 2016-09-07 华南师范大学 基于多次反馈的情感机器人对话方法、系统以及机器人
CN105929827A (zh) * 2016-05-20 2016-09-07 北京地平线机器人技术研发有限公司 移动机器人及其定位方法
CN106294774A (zh) * 2016-08-11 2017-01-04 北京光年无限科技有限公司 基于对话服务的用户个性化数据处理方法及装置

Also Published As

Publication number Publication date
US20200039080A1 (en) 2020-02-06
WO2018135276A1 (ja) 2018-07-26
US11400601B2 (en) 2022-08-02
JPWO2018135276A1 (ja) 2019-11-07
CN110177660A (zh) 2019-08-27
JP6707671B2 (ja) 2020-06-10

Similar Documents

Publication Publication Date Title
CN110177660B (zh) 言行控制装置、机器人、存储介质及控制方法
JP3444486B2 (ja) 音声認識手段を使用する自動音声応答システムおよび方法
US20090198497A1 (en) Method and apparatus for speech synthesis of text message
JP2014191030A (ja) 音声認識端末およびコンピュータ端末を用いる音声認識方法
JP2004054080A (ja) データ入力方法およびデータ入力装置
JP2015011170A (ja) ローカルな音声認識を行なう音声認識クライアント装置
WO2014181524A1 (ja) 会話処理システム及びプログラム
CN107430848B (zh) 声音控制装置、声音控制方法以及计算机可读记录介质
KR20150128386A (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
KR20200025226A (ko) 전자 장치 및 그 제어 방법
JP2018049132A (ja) 音声対話システムおよび音声対話方法
JP2017138536A (ja) 音声処理装置
JPWO2014013886A1 (ja) 情報処理装置、サーバ、情報処理方法、および情報処理システム
CN112585674A (zh) 信息处理装置、信息处理方法和程序
KR101579292B1 (ko) 범용 음성인식 제어 장치 및 제어 방법
JP2014219617A (ja) 音声案内システム及び音声案内方法
JP2017213612A (ja) ロボットおよびロボットの制御方法
KR20230133864A (ko) 스피치 오디오 스트림 중단들을 처리하는 시스템들및 방법들
US20170221481A1 (en) Data structure, interactive voice response device, and electronic device
JP2019090945A (ja) 情報処理装置
KR101609585B1 (ko) 청각 장애인용 이동 통신 단말기
JP2009104047A (ja) 情報処理方法及び情報処理装置
JP2014149571A (ja) コンテンツ検索装置
US20230317054A1 (en) Face image processing system, face image generation information providing apparatus, face image generation information providing method, and face image generation information providing program
JP2006251699A (ja) 音声認識装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant