CN106484093B - 对话控制装置、对话控制方法以及记录介质 - Google Patents

对话控制装置、对话控制方法以及记录介质 Download PDF

Info

Publication number
CN106484093B
CN106484093B CN201610570548.9A CN201610570548A CN106484093B CN 106484093 B CN106484093 B CN 106484093B CN 201610570548 A CN201610570548 A CN 201610570548A CN 106484093 B CN106484093 B CN 106484093B
Authority
CN
China
Prior art keywords
topic
mood
dialogue
session object
session
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610570548.9A
Other languages
English (en)
Other versions
CN106484093A (zh
Inventor
河村义裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN106484093A publication Critical patent/CN106484093A/zh
Application granted granted Critical
Publication of CN106484093B publication Critical patent/CN106484093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种对话控制装置、对话控制方法。对话控制装置的情绪推断部基于对话对象的表情或该对话对象的声音的韵律,推断对话对象的情绪。对话控制部以基于情绪推断部所推断出的情绪的好坏而选择的话题,控制与对话对象的对话。具体而言,对话控制部基于话题映射生成部所生成的包含对话对象喜爱的话题的话题映射,控制与该对话对象的对话。

Description

对话控制装置、对话控制方法以及记录介质
本申请主张在2015年9月1日申请的日本专利申请第2015-172338号的优先权,并将其公开的全部内容援引于此。
技术领域
本发明涉及人与机械对话的技术。
背景技术
近来,在人与机械之间实现交互式的对话的技术正在不断渗透。为了实现人与机械进行伴随交流的对话,需要人工智能(AI:Artificial Intelligence)的技术、声音识别技术,但若仅是分析上下文来进行应答,并不能实现交流。需要推断人的情绪的技术等。
例如,在作为日本的专利文献的JP特开2006-178063号公报中,公开了一种技术,该技术对成为对话对象的用户的情绪进行推断,并将该推断出的情绪有效利用于对话中。在专利文献1中,每当用户发言时,都将其发言内容进行文本化,根据在该文本中是否包含表示情绪好坏的词语来进行情绪推断。然后,装置根据所推断出的情绪来进行回答(例如,若所推断出的情绪是负面的则说“您还好吗?”等)。
此外,在JP特开2014-219594号公报中,公开了一种技术,该技术根据用户的声音来识别用户的情绪,选择与用户的情绪对应的会话算法。
发明要解决的课题
但是,在上述专利文献1中,由于仅是每当用户发言时,推断用户的情绪来简短地进行回答,故而很难让用户不厌烦地持续交流。因此,还远不能提高用户对于对话的满意度,不能在与装置之间构筑亲密的关系。
此外,在上述专利文献2中,虽然能够识别用户的情绪,但却止于选择与用户的情绪对应的算法。
从这样的情况出发,正在谋求一种不破坏用户的情绪地引导会话的技术。
因此,本发明鉴于上述情况而作,其目的在于提供一种使成为对话对象的用户的情绪保持良好地引导会话的对话控制装置等。
发明内容
用于解决课题的手段
本发明所涉及的对话控制装置的特征在于,具备:
情绪推断单元,其推断对话对象的情绪;以及
对话控制单元,其以基于所述情绪推断单元所推断出的情绪而选择的话题,控制与所述对话对象的对话。
发明效果
根据本发明,能够使成为对话对象的用户的情绪保持良好地引导会话。
附图说明
图1是表示实施方式所涉及的对话控制装置的构成的框图。
图2是表示分数处理前的话题映射的例子的图。
图3是表示关键字表的一例的图。
图4是表示提问句模板的一例的图。
图5是表示应答句模板的一例的图。
图6是表示分数处理后的话题映射的例子的图。
图7是表示话题映射生成处理的流程图的一例的图。
图8是表示对话控制处理1的流程图的一例的图。
图9是表示对话控制处理2的流程图的一例的图。
图10是表示对话控制处理3的流程图的一例的图。
图11是表示对话控制处理4的流程图的一例的图。
图12是表示二维的话题映射的例子的图。
具体实施方式
以下,参照图1来说明本发明的实施方式所涉及的对话控制装置的概要。该对话控制装置10作为与对话对象的物理接口而具备采集对话对象的声音的麦克风40、向对话对象进行声音输出的扬声器41、拍摄对话对象的照相机42。
对话控制装置10根据麦克风40的声音和照相机42的图像来进行情绪推断,并通过扬声器41来进行基于与所推断出的情绪相应的话题的对话。
另外,也可以将作为对话引擎的对话控制装置10应用于机器人。该对话控制装置10是能够应用于需要与人的对话的几乎所有情景的人工智能,其应用范围覆盖车辆导航、智能手机的对话型应用、数字的二维角色等较广范围。此外,在以下的说明中,“对话”、“会话”、“交流”的各用语在以自然语言交互式地交换信息这样的意思上均是同义。
对话控制装置10除了具备与对话对象的物理接口(麦克风40、扬声器41、照相机42)以外,还具备控制部20和存储部30。
控制部20由CPU(Central Processing Unit,中央处理器)、ROM(Read OnlyMemory,只读存储器)、RAM(Random Access Memory,随机存取存储器)等构成。控制部20通过执行存储在ROM中的程序(例如后述的话题映射生成处理、对话控制处理所涉及的程序),从而实现各部(情绪推断部21、对话控制部22)的功能。
存储部30是硬盘、闪存等非易失性存储器,存储各种Data Base(对话用DB32、情绪推断用DB33)。关于这些DB在后面叙述。
接下来,说明控制部20的功能。
控制部20作为功能而具备情绪推断部21和对话控制部22。
情绪推断部21用于推断对话对象的情绪。情绪推断部21根据情绪推断用DB33(表情用DB331、韵律用DB332、文本用DB333)、照相机42所拍摄到的对话对象的面部图像、和麦克风40所采集的对话对象的声音,来推断对话对象的情绪。
表情用DB331是用于存储预先机械学习大量的样本而得到的每个表情的模板图像的数据库。情绪推断部21通过照相机42所拍摄到的对话对象的面部图像与模板图像的匹配来推断对话对象的情绪。在本实施方式中,作为情绪而推断高兴、害怕、厌恶、愤怒、悲伤、惊讶这基本的6种情绪。
韵律用DB332是用于按照每种情绪建立对应地存储韵律(声的高度、音量、语调、节奏、停顿等说话方式的特征)的数据库。情绪推断部21从麦克风40所采集到的对话对象的声音中提取韵律,根据所提取出的韵律和韵律用DB332来推断对话对象的情绪。
文本用DB333是按照每种情绪建立对应地存储表示情绪的词语(名词、形容词等)的数据库。例如,将名词“合格”、“优胜”与情绪“高兴”建立对应,将形容词“遗憾”、“无趣”与情绪“悲伤”建立对应。情绪推断部21将麦克风40所采集到的声音进行文本化,通过词素解析来分解成词语,参照文本用DB333来推断情绪。
情绪推断部21单独使用这些中任意一个DB(表情用DB331,韵律用DB332,文本用DB333)或者组合使用这些DB,来推断对话对象的情绪。基于表情的情绪推断的时刻(timing)在后述的对话部222每次发言之后立刻进行。这是因为,与发言后过了片刻后相比在刚刚发言之后作为听众的对话对象的情绪更容易表露于表情。此外,基于韵律和文本的情绪推断每当对话对象发言时都进行。
接下来,说明对话控制部22的功能。
该对话控制部22以基于情绪推断部21所推断出的情绪的好坏而选择的话题,控制与对话对象的对话。该对话控制部22具备选择部221、对话部222、话题映射生成部223、更新部224。另外,选择部221相当于第1以及第2选择单元,对话部222相当于第1以及第2对话单元。以下,首先,针对(i)通过探寻对话对象的兴趣嗜好并进行学习来生成话题映射的阶段(生成阶段)进行说明,之后接着,针对(ii)有效利用所生成的话题映射来控制与对话对象的对话的阶段(有效利用阶段)进行说明。
选择部221从多个不同的话题之中随机选择一个话题。具体而言,选择部221从图2所示的分数处理前的话题映射31中的话题之中随机选择一个话题。该话题映射31是将表示对话对象对话题的感兴趣的高低程度的分数与多个不同的话题(图中的例子中为食物、旅行、动物等)建立了对应的一维表。另外,在初始状态下,分数全都为0。
接着,对话部222基于选择部221所选择的话题,与对话对象进行对话。该对话的方法虽是任意的,但在本实施方式中使用对话用DB32所包含的对话用的各DB(提问句DB321、应答句DB322)与对话对象进行对话。这里的对话,并非用于达成一个任务(例如预约受理、道路引导等)的面向任务型的对话,而是试图持续进行闲聊等的谈话的非面向任务型的对话。
该非面向任务型的对话虽然仍处于发展阶段,但在本实施方式中为了应对各种各样的话题而预先在DB中按话题准备了数万种模式的提问候补、应答候补。这些提问以及应答有效利用图3所示的关键字表35来进行。该关键字表35基于词语词典等来生成,按照每个话题将名词关键字与形容词关键字建立了对应。名词关键字表示与话题关联的名词,形容词关键字表示与话题关联的形容词。
图3所示的关键字是极少的一部分,实际关于各话题准备对话所需的数万关键字。此外,按照每个关键字对上下关系(若是蔬菜则作为上位概念的蔬菜包含作为下位概念的卷心菜、洋葱等)和类似关系(乌冬和拉面在面类中类似等)建立对应。此外,对话控制部22在从对话对象说出了不知道的词语的情况下,对该词语追加新的关键字(例如对话对象的名字等)来进行学习为好。
然后,提问句DB321是按照每个话题存储了多个不同的提问句的模板的数据库。对话部222在会话的开场(opening)时进行提问的情况、针对来自对话对象的应答进行提问的情况、在某话题中来自对话对象的无声区间持续的情况等下,从提问句DB321选择提问句模板从扬声器41发出提问。
图4中示出话题“食物”的提问句模板的变形(variation)的一例。该提问句模板是代入关键字(名词关键字、形容词关键字)的形式,下位关键字是上位概念的关键字所包含的关键字。对话部222从关键字表35中随机使用与“食物”相关的关键字、或者使用来自对话对象的发言中所包含的“食物”的关键字,生成提问句模板来进行发言。
接下来,应答句DB322是按照每个话题存储了多个不同的应答句的模板的数据库。应答句模板例如能够通过XML(Extensible Markup Language,可扩充标记语言)等标记语言来描述。具体而言,利用AIML(ArtificialIntelligence Markup Language,人工智能标记语言)来进行描述,对话部222在对话对象的发言中包含关键字(名词关键字、形容词关键字)的情况下,按照使用了该关键字的应答用的模板来进行应答。
图5中示出话题“食物”的应答句模板的变形的一例。应答句模板成为如下形式:若对话对象的发言中存在关键字表35所包含的关键字,则套用该关键字(名词关键字、形容词关键字)来进行应答。另外,所谓类似关键字,是指在关键字表35中处于类似关系的关键字(乌冬和拉面等)。范畴的类别(共鸣、自我披露、信息提供)为一例,也可以设置更多的类别。
例如,在针对话题“食物”在对话对象的发言中存在“拉面”这样的关键字的情况下,对话部222会像如下那样进行应答:作为共鸣用的应答句模板而应答“拉面很好吃吧。我也很喜欢。”,作为自我披露用的应答句模板而应答“相比于拉面我还是更喜欢乌冬。”,作为提问句模板而应答“喜欢什么味道的拉面。”。选择这些模板当中的哪个可以随机进行选择或根据来自对话历史记录的上下文、优先顺序来选择。
在此,所谓信息提供,是提供因特网上的检索结果所涉及的信息时的模板。该信息提供所涉及的信息(地点的固有名词等)是由对话部222以来自对话对象的检索要求为触发或在对话中的适当的时刻主动地取得。然后,对话部222将所取得的信息代入到信息提供用的应答模板中进行发言。
另外,1个应答句模板从提高通用性的观点出发由多个关键字共同使用,但并不限于此。也可以将特定的关键字与对应的专用的应答句建立对应。例如,也可以将话题“动物”的名词关键字“狮子”与如“只有雄狮才有鬃毛啊。”、“狮子是百兽之王啊。”这样狮子专用的多个应答句模板建立对应,随机选择来发言。
以上,对话部222使用提问句DB321和应答句DB322所包含的、按话题区分的数万种模式的提问句、应答句模板,按照每个话题进行不是一问一答的至少数个回合的会话。以下以选择部221选择了话题“食物”的情况来说明使用这些各DB由对话部222与对话对象进行对话的情况的具体例1。另外,对话沿着时间序列赋予(1)(2)等符号。
(1)对话控制装置10:“让我们谈谈食物吧。”
(2)对话控制装置10:“您喜欢什么食物呢。”
(3)对话对象:“我喜欢乌冬。”
(4)对话控制装置10:“乌冬很好吃吧。我也喜欢。”
(5)对话控制装置10:“有其他觉得好吃的食物吗。”
(6)对话对象:“我还喜欢炸猪排。”
(7)对话控制装置10:“炸猪排很好吃吧。同感。”
(8)对话控制装置10:“在上野有炸猪排很好吃的餐厅哟。”
(9)对话对象:“是吗?什么餐厅。”
(10)对话控制装置10:“店铺名是○○。”
(11)对话对象:“什么时间营业。”
(12)对话控制装置10:“从早晨10点到夜间9点营业。”
(13)对话对象:“了解。下次去看看哟。谢谢。”
(14)对话控制装置10:“不客气。”
在该具体例1中,对话部222在(1)中进行针对作为由选择部221选择的话题的“食物”进行谈话的开场,在(2)中从提问句DB321中针对“食物”选择开场用的提问句模板来进行提问,在(4)以及(7)中从应答句DB322中按照“食物”的共鸣用的应答句模板进行应答,在(8)中进行对对话对象所说的“食物”的名词关键字(具体例1中为“炸猪排”)的检索来进行信息提供,在(10)以及(12)中针对来自对话对象的提问进行信息提供,最后在(14)中从应答句DB322中应答针对关键字“谢谢”的应答句模板“不客气。”。另外,关键字表35和应答句DB322除了准备与话题相关的关键字和应答句模板以外,还按照寒暄等与话题无关的日常的每个场景准备关键字和应答句模板。
如该具体例1所示,非面向任务型的会话场景是千差万别的,但对话部222将对话用DB32(提问句DB321,应答句DB322)适当进行组合来进行上述(1)~(14)那样的针对话题的对话。另外,词类(名词、形容词等)、是否为提问句等只要对麦克风40所采集的来自对话对象的发言进行文本化后进行词素解析即可。
此外,对话部222自发地进行检索的时刻如从对话对象得到了规定数量以上的名词(上述具体例1中第二个名词“炸猪排”)的时刻等预先设定规则(检索时刻的规则)即可。此外,若通过声音识别而得到的来自对话对象的发言含糊不清,则也适当进行确认应答(例如反问“是(名词关键字)吗。”等)等错误处理为好。
在此,情绪推断部21在上述对话的具体例1中,每当对话控制装置10发言时(例如向对话对象刚刚询问了“喜欢的食物是什么。”之后)都使用表情用DB331来推断对话对象的情绪。而且,情绪推断部21每当对话对象发言时(例如对话对象说“了解。下次去看看哟。谢谢。”之后),都使用韵律用DB332和文本用DB333来推断对话对象的情绪。由此,能够在对话控制装置10发言的时刻以及对话对象发言的时刻,推断对话对象的情绪。
接着,返回到图1,话题映射生成部223生成用于不破坏对话对象的情绪地引导会话的话题映射。具体而言,话题映射生成部223根据在对话部222与对话对象进行对话的过程中由情绪推断部21推断出的情绪的好坏,进行选择部221当前选择的话题的分数的加减运算处理。
另外,话题映射生成部223按照每个对话对象生成话题映射,但为了容易理解,举例说明对话对象为一人的情况。此外,若没有必要特别指定表示该一个对话对象的兴趣嗜好的话题映射31来进行说明,则一般简称为话题映射在以下进行说明。此外,作为一例,将情绪良好的情况作为能够感应愉快、欣喜等的正面的“高兴”,将情绪不佳的情况作为能够感应无趣、沮丧等的负面的“害怕、厌恶、愤怒、悲伤”来进行说明。
话题映射生成部223,若情绪推断部21推断出的情绪良好,则进行当前选择的话题的分数的加法运算处理,若情绪推断部21推断出的情绪不佳,则进行当前选择的话题的分数的减法运算处理。例如,在上述具体例1中,若对话控制装置10刚说完“在上野有炸猪排很好吃的餐厅哟。”之后的对话对象的情绪为“高兴”,则话题映射生成部223使话题映射31中作为当前选择的话题的食物的分数+1。
另一方面,在与具体例1不同,针对“喜欢的食物是什么。”的询问从对话对象回答“为什么问这个。”,并从韵律推断出情绪“厌恶”的情况下,话题映射生成部223使话题映射31中作为当前选择的话题的食物的分数-1。这样,话题映射生成部223在当前选择的话题的对话中每当推断出对话对象的情绪,都进行加减运算处理来进行分数处理。按照每个话题进行该分数处理,生成图6所示那样的话题映射31。
接着,返回到图1,更新部224根据对话中的对话对象的情绪的好坏,来更新话题映射生成部223所生成的话题映射31的各分数。关于该更新部224在后面叙述。
以上是针对对话控制部22的各部的功能的说明。以下,参照图7来说明话题映射生成处理。该话题映射生成处理在话题映射31处于初始状态的阶段当对话控制装置10与对话对象进行对话时(例如以对话对象开启了对话控制装置10的对话功能为触发)进行。对话控制装置10若不机械学习对话对象的兴趣嗜好,则使对话对象的情绪保持良好地进行会话是很困难的。因此,在话题映射的有效利用阶段之前进行话题映射生成处理。
首先,选择部221随机选择一个话题(步骤S11)。接着,对话部222基于所选择的话题,与对话对象进行对话(步骤S12)。具体而言,对话部222按照上述的要领,使用对话用DB32(提问句DB321、应答句DB322)来进行上述具体例1的(1)~(14)那样的对话。
其间,情绪推断部21推断对话对象的情绪(步骤S13)。具体而言,情绪推断部21按照上述的要领,使用情绪推断用DB33(表情用DB331、韵律用DB332、文本用DB333),在对话控制装置10的发言之后或者对话对象的发言之后立刻推断对话对象的情绪。
接着,话题映射生成部223进行所推断出的情绪是否良好的好坏判断(步骤S14)。若所推断出的情绪为良好(步骤S14:“是”),则话题映射生成部223进行当前选择的话题的分数的加法运算处理(步骤S15),另一方面若所推断出的情绪并非良好(步骤S14:“否”),则进行当前选择的话题的分数的减法运算处理(步骤S16)。
在步骤S15或步骤S16之后,话题映射生成部223判断对话是否结束(步骤S17),若尚未结束(步骤S17:“否”),则返回到步骤S12。即,反复步骤S12至步骤S16的处理直到对话结束为止,每当对话中的情绪推断时都进行分数处理。另外,关于对话是否结束,例如设为在进行规定回合数以上的对话、并且之后的来自对话对象的无声期间经过了规定期间的情况等即可。也可以即使在规定回合数以下,若从对话对象说出“关于该话题不想谈论。”、“没有兴趣。”等明显没有继续会话的意思的发言,则强制结束对话,还可以若进行减法运算之后的分数达到了规定值(例如-5),则强制结束。对话结束的时刻是可以适当设计的事项。
在此,若对话结束(步骤S17:“是”),则返回到步骤S11,将当前选择的话题切换为其他话题,反复步骤S12以下的处理。例如,在上述具体例1中,在(1)~(14)的对话结束时间点与“食物”对应的分数为图6的话题映射31所示的5。然后,话题映射生成部223切换为“食物”以外的话题来继续对话。这样,话题映射生成部223切换话题反复对话而生成的是图6所示的话题映射31。
另外,对话并不限定于如上述具体例1那样结束。例如,也存在通过对话的自然的推移而转到其他话题的情况,还存在由对话对象突然提案想要针对该话题进行谈论的情况。也可以防备出现这样的中断处理的情况,若在针对当前选择的话题的对话中从对话对象说出与其他话题关联的词语,则以其为触发而切换为其他话题。
例如,在上述具体例1中,若对话控制装置10说出了“在上野有好吃的炸猪排的餐厅哟。”,对此从对话对象回答“哎,是吗,话说最近没有在上野的美国街购物呢。”,则对话部222以“购物”为关键字,从“食物”切换为“购物”的话题来继续对话。在该情况下,当前选择的食物的分数成为切换为其他话题为止的分数。
以上是对话题映射生成处理的说明。在此,图6的话题映射31并未针对所有话题进行分数处理。这是因为只要将兴趣嗜好了解到能够有效利用话题映射与对话对象进行对话的程度即可,从用于话题映射生成的学习阶段过渡到有效利用话题映射的对话控制处理的时刻能够适当设定。例如,可以在反复几次进行话题映射生成处理从而分数为3以上的话题成为3个的阶段过渡到有效利用话题映射的阶段,也可以在针对所有话题都进行了分数处理的阶段过渡到有效利用阶段。
以下,依次说明有效利用所生成的话题映射(图6的话题映射31),抓住对话对象的兴趣嗜好来引导会话的对话控制处理1至3的变形。另外,在有效利用阶段除了话题映射生成部223以外的选择部221(第2选择单元)、对话部222(第2对话单元)、更新部224发挥作用。对话部222的功能与话题映射的生成阶段相同。
(对话控制处理1)
在此,参照图8来说明对话控制处理1。该对话控制处理1是在从话题映射生成阶段过渡到有效利用阶段之后,以对话控制装置10通过照相机42对对话对象进行拍摄为触发来进行的。
首先,情绪推断部21判断由照相机42拍摄的对话对象的推断出的情绪是否良好(步骤S21)。若所推断出的情绪为良好(步骤S21:“是”),则选择部221随机选择一个分数未处理的话题(步骤S22)。例如,选择部221在话题映射31中的分数为0的话题(音乐、文艺、投资)当中选择音乐。
另一方面,若所推断出的情绪并非良好(步骤S21:“否”),则选择部221选择分数为阈值以上的话题(步骤S23)。若阈值为分数3,则选择部221在话题映射31中的分数为3以上的话题(食物、动物、购物)当中随机选择动物。该阈值设为可以说是对话对象喜爱的话题的基准值为好。
在步骤S22或步骤S23之后,对话部222基于所选择的话题,与对话对象进行对话(步骤S24)。这样,在步骤S21至步骤S24中,根据在对话前推断出的对话对象的情绪,切换所选择的话题来开始对话。
接着,若以所选择的话题开始对话,则情绪推断部21推断对话对象的情绪,并判断所推断出的情绪是否良好(步骤S25)。若所推断出的情绪为良好(步骤S25:“是”),则更新部224对分数进行加法运算来进行更新(步骤S26),并且对话部222判断对话是否结束(步骤S27)。若对话并未结束则返回到步骤S25,在对话中的对话对象的情绪良好的期间以所选择的话题继续对话(步骤S25至步骤S27的循环)。若所推断出的情绪保持良好而结束对话(步骤S27:“是”),则选择部221判断是否已选择完分数未处理的全部话题(步骤S28)。若未选择完分数未处理的全部话题(步骤S28:“否”),则返回到步骤S22。另一方面,在已选择完分数未处理的全部话题的情况(步骤S28:“是”)下,结束处理。
另一方面,在以所选择的话题对话的过程中,推断出的对话对象的情绪变得不佳的情况下(步骤S25:“否”),更新部224对分数进行减法运算来进行更新(步骤S29),并且选择部221判断是否存在分数为阈值以上的话题(步骤S30)。若存在分数为阈值以上的话题(步骤S30:“是”),则返回到步骤S23。另一方面,若不存在分数为阈值以上的话题(步骤S30:“否”),则结束处理。
根据该对话控制处理1,在情绪良好的期间以当前选择的话题(分数未处理的话题)进行对话并更新话题映射,另一方面若情绪变差则切换为分数为阈值以上的话题来继续对话。通过该对话控制处理1与对话对象进行了对话的情况下的具体例2如下所示。该具体例2设想了如下情况:在步骤S21中,在对话控制装置10用照相机42最初捕捉到对话对象时,对话对象的情绪被判断为良好。
(1)对话控制装置10:“让我们谈谈音乐吧。”
(2)对话控制装置10:“您喜欢的音乐的类型是什么呢。”
(3)对话对象:“是西洋音乐吧。”
(4)对话控制装置10:“相比于西洋音乐,我更喜欢日本音乐。”
(5)对话对象:“嗯。我不太喜欢日本音乐呢。”
(6)对话控制装置10:“是这样啊,实在抱歉。”
(7)对话控制装置10:“那么我们谈谈动物吧。”
(8)对话对象:“动物好啊。我们谈谈吧。”
(9)对话控制装置10:“您喜欢的动物是什么呢。”
该(9)以后,对话也还继续。在该具体例2的(1)中选择部221选择分数未处理的话题“音乐”,在(2)中对话部222从提问句DB321中按照“音乐”的开场用的提问句模板进行提问,在(4)中对话部222根据使用了对话对象的发言中包含的名词关键字“西洋音乐”以及类似关键字“日本音乐”的应答句模板来进行应答,在(5)中情绪推断部21推断为对话对象的情绪不佳,在(7)中对话部222切换为分数为3以上的话题“动物”来重新调整对话。
根据该对话控制处理1,在对话对象的情绪良好的期间针对分数未处理的话题继续机械学习的同时,若情绪变差则切换为分数为阈值以上的话题来继续对话。因此,能够在探寻对话对象喜爱的话题的同时,以已经学习过的对话对象喜爱的话题来继续对话。因此,能够在抓住了对话对象的兴趣嗜好之后使对话对象不厌烦地享受交流。
(对话控制处理2)
在此,参照图9来说明对话控制处理2。该对话控制处理2的开始时刻与对话控制处理1相同。
首先,选择部221选择多个话题当中的分数最大的话题(步骤S31)。在图6的话题映射31的情况下,选择部221选择分数最大的“食物”作为话题。
接着,对话部222以所选择的话题进行对话(步骤S32)。对话部222按照上述的要领,使用对话用DB32(提问句DB321、应答句DB322)来进行对话。
接着,情绪推断部21推断对话对象的情绪(步骤S33)。情绪推断部21按照上述的要领,使用情绪推断用DB33(表情用DB331、韵律用DB332、文本用DB333),在对话控制装置10发言之后或对话对象发言之后立刻推断对话对象的情绪。
接着,情绪推断部21判断所推断出的情绪是否良好(步骤S34)。若所推断出的情绪为良好(步骤S34:“是”),则更新部224对当前选择的话题的分数进行加法运算并进行更新(步骤S35)。然后,返回到步骤S32,继续与对话对象的对话。
另一方面,若所推断出的情绪并非良好(步骤S34:“否”),则更新部224对当前选择的话题的分数进行减法运算并进行更新(步骤S36)。然后,对话控制部22判断是否已选择完所有的话题(步骤S37),若未选择完所有的话题(步骤S37:“否”),则返回到步骤S31。在该步骤S31中,选择仅次于当前选择的话题“食物”的分数5的分数4的话题“购物”。
这样,在进行话题映射31的分数的更新的同时,若所推断出的情绪为良好则仍然以当前选择的话题继续对话,若并非良好则切换为下一排位的分数的话题来进行对话。另外,在继最大分数和下一排位分数之后的全部分数都为0的情况下,在步骤S31中选择部221从分数未处理的多个话题之中随机选择一个话题即可。
在此,在选择了所有的话题的情况下(步骤S37:“是”),结束对话控制处理2。
在此,通过对话控制处理2与对话对象进行了对话的情况下的具体例3如下所示。
(1)对话控制装置10:“让我们谈谈食物吧。”
(2)对话控制装置10:“若是肉,您喜欢猪肉、牛肉、鸡肉中的哪一个呀。”
(3)对话对象:“因为正在减肥所以最近以蔬菜为主啊。”
(4)对话控制装置10:“那么让我们谈谈购物吧。”
(5)对话控制装置10:“最近有没有进行什么购物呀。”
(6)对话对象“嗯,没有什么心情购物所以什么也没买。”
(7)对话控制装置10:“那么让我们谈谈动物吧。”
(8)对话控制装置10:“(对话对象的名字)想看什么动物呢。”
(9)对话对象:“是啊,想看狮子呢。”
(10)对话控制装置10:“狮子是百兽之王啊。”
在该(10)以后,对话也还继续。一般而言,对话对象即使是自己比较感兴趣的话题(上述具体例3中分数较高的“食物”和“购物”的话题),也有不想被问及、不想谈论的时候,情绪根据心情而变化。具体例3是针对分数最高的话题“食物”和下一排位分数的话题“购物”,对话对象的情绪不佳的情况的例子。
在该对话控制处理2中,若对话对象的情绪不佳,则对话控制装置10切换为下一排位的话题。即,在具体例3中,根据(3)的对话对象的回答“因为正在减肥所以最近以蔬菜为主啊。”将话题从“食物”切换为“购物”,根据(6)的对话对象的回答“嗯,没有什么心情购物所以什么也没买。”将话题从“购物”切换为“动物”。
另外,在(8)中,对话部222在话题“动物”的开场用的提问句模板中,加入所学习的对话对象的名字。由此,对话对象对对话控制装置10感觉亲近,容易构筑亲密关系。另外,若所推断出的对话对象的情绪并非良好,则在切换话题之后加入“是这样啊,实在抱歉。”等缓和(one cushion)为好。
以上,根据对话控制处理2,对话控制装置10基于话题映射,每当对话对象的情绪变差时,在除了当前选择的话题以外的话题中选择最大分数的话题来继续会话。因此,能够使对话对象不厌烦地继续交流,并且,能够在抓住了对话对象的兴趣嗜好之后不破坏对话对象的情绪地引导会话。
(对话控制处理3)
接着,参照图10来说明对话控制处理3。该对话控制处理3的开始的时刻与对话控制处理1相同。
首先,对话部222向对话对象询问想要谈论的话题(步骤S41)。例如,对话部222参照提问句DB321,通过扬声器41来说出提问句模板“您想要谈论什么话题呢。”。
接着,对话部222判读是否从对话对象受理了话题(步骤S42)。对话部222将麦克风40所采集到的对话对象的声音进行文本化并进行词素解析后,通过在多个词语之中是否包含话题来进行上述判断。
在此,进行待机直到从对话对象受理话题为止(步骤S42:“否”),若受理了话题(步骤S42;Yes),则选择部221选择所受理的话题(步骤S43)。然后,对话部222以所选择的话题进行对话(步骤S44),情绪推断部21推断对话对象的情绪(步骤S45)。然后,情绪推断部21判断所推断出的情绪是否良好(步骤S46)。在此,若所推断出的情绪为良好(步骤S46:“是”),则更新部224对当前选择的话题的分数进行加法运算并更新后(步骤S47),返回到步骤S44,只要所推断出的情绪不变差就继续对话。
另一方面,若所推断出的情绪并非良好(步骤S46:“否”),则更新部224对当前选择的话题的分数进行减法运算并更新后(步骤S48),选择部221判断是否存在比当前选择的话题的分数更高的分数(步骤S49)。
在此,若存在比当前选择的话题的分数更高的分数(步骤S49:“是”),则选择部221选择高分数的话题(步骤S50),返回到步骤S44。然后,对话部222只要对话对象的情绪不变差就以所选择的话题继续对话(步骤S44至步骤S47的循环)。
另一方面,若不存在比当前选择的话题的分数更高的分数(步骤S49:“否”),则结束对话控制处理3。另外,也可以即使在不存在比当前选择的话题的分数更高的分数的情况下,也不结束对话控制处理3而随机选择分数未处理的话题来继续对话。
以上,在对话控制处理3中,以对话对象所希望的话题开始了对话之后,每当对话对象显露出不愉快,就切换为与当前选择的话题相比分数更高的话题来继续对话。通过该对话控制处理3与对话对象进行了对话的情况下的具体例4如下所示。
(1)对话控制装置10:“您想谈论什么话题呀。”
(2)对话对象:“嗯,是啊,旅行吧。”
(3)对话控制装置10:“那么让我们谈谈旅行吧。”
(4)对话控制装置10:“最近您有去旅行吗。”
(5)对话对象:“最近去海边了哟。”
(6)对话控制装置10:“海边怎么样啊。”
(7)对话对象:“虽然很热,但是是翠绿色的很美哟。”
(8)对话控制装置10:“如果热便想去凉快的地方吧。”
(9)对话对象:“因为是夏天的海边,即使热也很好。”
(10)对话控制装置10:“是这样啊。实在抱歉”
(11)对话控制装置10:“接下来不谈谈购物吗。”
(12)对话对象:“可以呀,那就谈谈购物。”
在该(12)以后,对话也还继续。在该具体例4中,以对话对象所希望的话题“旅行”开始了对话之后,对话部222在(8)中,按照形容词关键字“热”的应答句模板进行了不衔接上下文的应答,结果在(9)中对话对象显露出了不愉快。然后,对话部222将话题切换为与分数为1的“旅行”相比分数为4的更高的“购物”来继续对话。
根据该对话控制处理3,除了能够取得上述对话控制处理1以及2的效果以外,还能够以对话对象当前想要谈论的话题开始对话,因此能够进行最迎合对话对象的心情的会话并能够提高对话对象的满意度。
(对话控制处理4)
对话控制处理1至3划分话题映射生成处理和对话控制处理对话题映射的生成阶段(机械学习阶段)和有效利用阶段加以区分来进行了说明,但并不限于此。也可以不对它们进行区分,立即进行对话控制处理在生成话题映射的同时引导会话。关于该情况下的对话控制处理4参照图11来进行说明。另外,步骤S51至步骤S55与话题映射生成处理的步骤S11至步骤S15相同。因此,以下以不同的步骤为中心进行说明。
在步骤S51至步骤S53中,通过对话控制部22的各部(选择部221、对话部222),基于从初始状态的话题映射31中随机选择的话题与对话对象进行对话并推断该对话对象的情绪。然后,只要所推断出的情绪为良好(在步骤S54为“是”的期间),就一边对当前选择的话题的分数进行加法运算处理一边继续对话(步骤S52至步骤S55的循环)。
在此,若对话中的对话对象的推断出的情绪并非良好(步骤S54:“否”),则选择部221判断是否已选择完所有的话题(步骤S56)。若未选择完所有的话题(步骤S56:“否”),则返回到步骤S51,选择部221随机选择一个话题,反复步骤S52以后的处理。另一方面,若已选择完所有的话题(步骤S56:“是”),则结束对话控制处理4。
这样,在该对话控制处理4中,只要对话对象未显露出不愉快便以随机选择的话题进行对话并进行分数的加法运算处理,同时在显露出不愉快的时刻切换为未选择的其他话题来继续对话。由此,能够在继续对话的同时渐渐生成话题映射。由于即使对话对象显露出不愉快也会立即切换为其他话题,因此对话控制装置10能够探寻对话对象的兴趣嗜好,另一方面对话对象能够长时间地享受会话。
另外,在该对话控制处理4中,也可以在多个话题的分数处理结束的时刻切换为对话控制处理1至3。
因此,每个用户一般兴趣嗜好都不同,但根据实施方式,能够根据用户个人的兴趣意向,使用户不厌倦地持续交流。
至此,结束实施方式的说明,上述实施方式为一例,对话控制装置10的构成、对话控制处理1至4的内容等当然不限于上述实施方式中说明的内容。
例如,在上述的实施方式中,情绪推断部21基于对话对象的表情、韵律、声音的文本来推断情绪,但并不限于此。例如,情绪推断部21也可以根据对话对象的非言语的举动(行为)来推断情绪。具体而言,情绪推断部21若对话对象使面部纵向振动则将情绪推断为良好,若对话对象使面部横向振动则将情绪推断为不佳。
此外,“对话”说明了使用声音彼此应答的例子,但也可以使用键盘和显示器来进行基于文字的对话。例如,也可以将对话控制装置10组装到PC等,在用户(对话对象)与PC(对话控制装置10)之间以基于文字的聊天感觉来享受上述那样的具体例1~4的会话。在该情况下,虽不能进行基于声音的韵律的情绪推断,但能够根据利用了照相机42的对话对象的表情、对话文章的内容(基于表示情绪的好坏的词语的情绪推断)、或者键盘触摸的速度或力度等进行情绪推断。
此外,在上述的实施方式中,以话题映射31由对话控制装置10生成为前提来进行了说明,但并不限于此。例如,也可以预先将每个对话对象的话题映射上传到成为知识数据库的外部服务器中,对话控制装置10在对话控制处理1至4中每当参照话题映射时,都访问外部服务器来进行对话。由此,能够减少话题映射生成的处理负担,并且节约对话控制装置10的存储区域。
此外,在上述的实施方式中,举例说明了话题映射31为一维,但并不限于此。例如,也可以生成n维的话题映射。在此所说的维数是表示话题的特征的特征向量数。例如,若话题为“投资”,则话题的特征能够由娱乐性低且具有实益这样的二维的特征向量来表示。图12中示出二维的话题映射的例子。该话题映射由表示话题的特征(娱乐性和实益)的2个特征向量构成,各话题(椭圆形)按照该特征预先被匹配。若按照图6的一维的话题映射,则对话对象喜爱的话题处于由实益大且娱乐性高的第1象限的长方形所示的位置。
因此,选择部221在选择分数未处理的话题时,能够挑选作为对话对象似乎喜爱的相同第1象限的话题的“交通工具”来尝试对话。即,能够挑选从长方形位置起距离最近的话题来尝试对话。这样,根据二维的话题映射,能够预测对话对象似乎喜爱的话题,能够不破坏对话对象的心情地继续会话。在二维映射生成时,基于通过话题映射生成处理而进行了分数处理的多个话题的分数,计算距离并进行喜爱话题的定位即可。例如,若2个话题的分数相同则定位于2个话题间的中央位置,在分数不同的情况下定位于按比例分配的位置即可。另外,当然也可以增加向量数(维数),来提高对话对象喜爱的话题的精度。
此外,本发明的对话控制装置10的各功能也能够通过通常的PC等计算机来实施。具体而言,在上述实施方式中,说明了将对话控制装置10所进行的话题映射生成处理和对话控制处理的程序预先存储在控制部20的ROM中。但是,也可以将程序保存在软盘、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)以及MO(Magneto-Optical Disc)等计算机能读取的记录介质中进行分发,通过将该程序安装到计算机,从而构成能够实现上述各功能的计算机。进而,若将本发明的对话控制装置10搭载于机器人,则能够实现具备交流功能的机器人。
以上,针对本发明的优选实施方式进行了说明,但本发明并不限定于这样的特定的实施方式,本发明包含权利要求所述的发明及其均等的范围。

Claims (12)

1.一种对话控制装置,其特征在于,具备:
选择单元,其参照对话用数据库来选择话题;
情绪推断单元,其推断对话对象的情绪;以及
对话控制单元,其以由所述选择单元所选择的话题,控制与所述对话对象的对话,并且在基于所述情绪推断单元所推断出的对话对象的情绪,使从所述对话用数据库选择的话题变更的同时,控制与所述对话对象的对话,
所述对话控制单元具备生成单元,该生成单元基于所述情绪推断单元所推断出的所述情绪的好坏,生成包含所述对话对象喜爱的话题的话题映射,
所述话题映射包含多个不同的话题,并将表示所述对话对象对于话题的感兴趣的高低程度的分数与该多个不同的话题建立了对应,
所述对话控制单元还具备:
第1选择单元,其从多个不同的话题中随机选择一个话题;以及
第1对话单元,其基于所述第1选择单元所选择的话题,与所述对话对象进行对话,
所述生成单元在所述第1对话单元与所述对话对象进行对话的过程中根据所述情绪推断单元所推断出的情绪的好坏,进行所述第1选择单元当前选择的话题的分数的加减运算处理,并生成所述话题映射。
2.根据权利要求1所述的对话控制装置,其特征在于,
所述对话控制单元基于所述情绪推断单元所推断出的情绪的好坏,来选择所述话题。
3.根据权利要求1所述的对话控制装置,其特征在于,
所述生成单元,若所述情绪推断单元所推断出的情绪良好则进行当前选择的话题的分数的加法运算处理,若所述情绪推断单元所推断出的情绪不佳则进行当前选择的话题的分数的减法运算处理。
4.根据权利要求1所述的对话控制装置,其特征在于,
所述对话控制单元还具备:
第2选择单元,其在所述情绪推断单元所推断出的所述情绪不佳的情况下,选择所述生成单元所生成的话题映射所包含的多个话题当中的分数为阈值以上的话题;以及
第2对话单元,其基于所述第2选择单元所选择的话题,与所述对话对象进行对话。
5.根据权利要求1所述的对话控制装置,其特征在于,
所述对话控制单元还具备:
第2选择单元,其选择所述生成单元所生成的话题映射所包含的多个话题当中的分数最高的话题;以及
第2对话单元,其基于所述第2选择单元所选择的话题,与所述对话对象进行对话,
所述第2选择单元在所述情绪推断单元将当前对话的对话对象的情绪推断为不佳的情况下,选择仅次于当前选择的话题的分数的分数的话题。
6.根据权利要求1所述的对话控制装置,其特征在于,
所述对话控制单元还具备:
第2选择单元,其选择所述生成单元所生成的话题映射的多个话题当中的从所述对话对象受理的话题;以及
第2对话单元,其基于所述第2选择单元所选择的话题,与所述对话对象进行对话,
所述第2选择单元在所述情绪推断单元将当前对话的对话对象的情绪推断为不佳的情况下,选择与当前选择的话题的分数相比更高分数的话题。
7.根据权利要求4所述的对话控制装置,其特征在于,
所述对话控制单元还具备更新单元,该更新单元根据所述第2对话单元当前对话的对话对象的情绪的好坏,进行所述第2选择单元当前选择的话题的分数的加减运算处理,并更新所述生成单元所生成的话题映射。
8.根据权利要求4所述的对话控制装置,其特征在于,
所述第1对话单元以及第2对话单元对所述对话对象进行与当前选择的话题相关的提问、对来自所述对话对象的与话题相关的发言的应答或关于该话题所检索到的信息的发言。
9.根据权利要求1所述的对话控制装置,其特征在于,
在将表示话题的特征的特征向量的数量设为n时,所述话题映射由n维的特征向量构成。
10.一种对话控制方法,其特征在于,具有如下步骤:
向对话对象提供话题的步骤;
推断所述对话对象的情绪的步骤;
检测所述对话对象的情绪的变化的步骤;
基于所述对话对象的情绪的变化,变更所提供的话题的步骤;
生成话题映射的步骤,所述话题映射将所述对话对象对于各话题的感兴趣的高低程度建立了对应;以及
参照所述话题映射来提供用于将所述对话对象的情绪向良好方向进行诱导的话题的步骤。
11.一种对话控制方法,其特征在于,具有如下步骤:
向对话对象提供话题的步骤;
推断所述对话对象的情绪的步骤;
检测所述对话对象的情绪的变化的步骤;
基于所述对话对象的情绪的变化,变更所提供的话题的步骤;
生成话题映射的步骤,所述话题映射将所述对话对象对于各话题的感兴趣的高低程度建立了对应;以及
根据所述对话对象的情绪的变化来更新所述话题映射的步骤。
12.一种计算机可读取的非暂时性信息记录介质,其记录有用于使计算机执行如下处理的程序:
选择处理,参照对话用数据库来选择话题;
情绪推断处理,推断对话对象的情绪;以及
对话控制处理,以所选择的所述话题,控制与所述对话对象的对话,并且在基于所推断出的所述对话对象的情绪,使从所述对话用数据库选择的话题变更的同时,控制与所述对话对象的对话,
所述对话控制处理包括生成处理,该生成处理基于通过所述情绪推断处理推断出的所述情绪的好坏,生成包含所述对话对象喜爱的话题的话题映射,
所述话题映射包含多个不同的话题,并将表示所述对话对象对于话题的感兴趣的高低程度的分数与该多个不同的话题建立了对应,
所述对话控制处理还包括:
第1选择处理,从多个不同的话题中随机选择一个话题;以及
第1对话处理,基于通过所述第1选择处理选择的话题,与所述对话对象进行对话,
所述生成处理在通过所述第1对话处理与所述对话对象进行对话的过程中根据通过所述情绪推断处理推断出的情绪的好坏,进行通过所述第1选择处理当前选择的话题的分数的加减运算处理,并生成所述话题映射。
CN201610570548.9A 2015-09-01 2016-07-19 对话控制装置、对话控制方法以及记录介质 Active CN106484093B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015172338A JP6601069B2 (ja) 2015-09-01 2015-09-01 対話制御装置、対話制御方法及びプログラム
JP2015-172338 2015-09-01

Publications (2)

Publication Number Publication Date
CN106484093A CN106484093A (zh) 2017-03-08
CN106484093B true CN106484093B (zh) 2019-06-21

Family

ID=58095643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610570548.9A Active CN106484093B (zh) 2015-09-01 2016-07-19 对话控制装置、对话控制方法以及记录介质

Country Status (3)

Country Link
US (1) US9953078B2 (zh)
JP (1) JP6601069B2 (zh)
CN (1) CN106484093B (zh)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5814867B2 (ja) * 2012-06-27 2015-11-17 株式会社東芝 半導体記憶装置
JP6731326B2 (ja) * 2016-10-31 2020-07-29 ファーハット ロボティクス エービー 音声対話装置及び音声対話方法
JP2018167339A (ja) * 2017-03-29 2018-11-01 富士通株式会社 発話制御プログラム、情報処理装置及び発話制御方法
US10592612B2 (en) * 2017-04-07 2020-03-17 International Business Machines Corporation Selective topics guidance in in-person conversations
JP6777002B2 (ja) * 2017-04-27 2020-10-28 トヨタ自動車株式会社 対話装置、対話方法及び対話プログラム
JP6639444B2 (ja) 2017-06-07 2020-02-05 本田技研工業株式会社 情報提供装置及び情報提供方法
CN110809749A (zh) * 2017-06-16 2020-02-18 本田技研工业株式会社 互动装置、互动方法及程序
CN109145096A (zh) * 2017-06-27 2019-01-04 中国海洋大学 基于规则库的个性化日常陪护机器人自动问答系统
KR102034255B1 (ko) * 2017-06-29 2019-10-18 네이버 주식회사 사람-기계 간 감정 대화를 위한 방법 및 시스템
US10387463B2 (en) * 2017-07-06 2019-08-20 International Business Machines Corporation Dialog agent for conducting task-oriented computer-based communications
WO2019018280A1 (en) * 2017-07-17 2019-01-24 Happify, Inc. SYSTEMS AND METHODS FOR DYNAMIC USER INTERACTION TO IMPROVE SATISFACTION
US10452695B2 (en) * 2017-09-22 2019-10-22 Oracle International Corporation Context-based virtual assistant implementation
JP6933076B2 (ja) * 2017-09-28 2021-09-08 沖電気工業株式会社 制御装置、制御方法、プログラム及び制御システム
JP6805112B2 (ja) * 2017-11-08 2020-12-23 株式会社東芝 対話システム、対話方法および対話プログラム
CN108000526B (zh) * 2017-11-21 2021-04-23 北京光年无限科技有限公司 用于智能机器人的对话交互方法及系统
JP7031268B2 (ja) * 2017-12-08 2022-03-08 富士フイルムビジネスイノベーション株式会社 情報伝達装置及びプログラム
US10657971B1 (en) * 2017-12-15 2020-05-19 NortonLifeLock Inc. Systems and methods for detecting suspicious voice calls
CN108134876A (zh) * 2017-12-21 2018-06-08 广东欧珀移动通信有限公司 对话分析方法、装置、存储介质及移动终端
CN112074899A (zh) * 2017-12-29 2020-12-11 得麦股份有限公司 基于多模态传感输入的人机对话的智能发起的系统和方法
CN108415932B (zh) * 2018-01-23 2023-12-22 思必驰科技股份有限公司 人机对话方法及电子设备
US11057332B2 (en) * 2018-03-15 2021-07-06 International Business Machines Corporation Augmented expression sticker control and management
JP2019175432A (ja) * 2018-03-26 2019-10-10 カシオ計算機株式会社 対話制御装置、対話システム、対話制御方法及びプログラム
CN108595436B (zh) * 2018-04-28 2021-09-28 合肥工业大学 情感对话内容的生成方法和系统、存储介质
EP3576084B1 (de) * 2018-05-29 2020-09-30 Christoph Neumann Effiziente dialoggestaltung
JP7151181B2 (ja) * 2018-05-31 2022-10-12 トヨタ自動車株式会社 音声対話システム、その処理方法及びプログラム
CN110659355A (zh) * 2018-06-29 2020-01-07 南京芝兰人工智能技术研究院有限公司 一种对话控制方法和系统
JP7044167B2 (ja) * 2018-09-28 2022-03-30 富士通株式会社 対話装置、対話方法及び対話プログラム
CN111048075A (zh) * 2018-10-11 2020-04-21 上海智臻智能网络科技股份有限公司 智能客服系统及智能客服机器人
JP2020061087A (ja) * 2018-10-12 2020-04-16 トッパン・フォームズ株式会社 対話型検索システム
JP7058588B2 (ja) * 2018-11-09 2022-04-22 株式会社タカラトミー 会話システムおよび会話プログラム
JP7160116B2 (ja) * 2018-12-25 2022-10-25 富士通株式会社 対話装置、対話方法及び対話プログラム
US11295213B2 (en) * 2019-01-08 2022-04-05 International Business Machines Corporation Conversational system management
CN110096191B (zh) * 2019-04-24 2021-06-29 北京百度网讯科技有限公司 一种人机对话方法、装置及电子设备
US11418648B2 (en) * 2019-07-26 2022-08-16 Avaya Management L.P. Enhanced digital messaging
US11064074B2 (en) * 2019-07-26 2021-07-13 Avaya Inc. Enhanced digital messaging
US11190469B2 (en) * 2019-07-26 2021-11-30 Avaya Management L.P. Enhanced digital messaging
US11256870B2 (en) * 2019-09-25 2022-02-22 Rovi Guides, Inc. Systems and methods for inserting dialogue into a query response
KR20210041757A (ko) 2019-10-08 2021-04-16 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7407560B2 (ja) * 2019-10-30 2024-01-04 日本放送協会 キーワード評価装置、キーワード評価方法及びキーワード評価プログラム
JP2021071883A (ja) * 2019-10-30 2021-05-06 株式会社感性リサーチ 情報処理システム、情報処理方法及びプログラム
JP6816247B2 (ja) * 2019-12-24 2021-01-20 本田技研工業株式会社 情報提供装置
JP7264804B2 (ja) * 2019-12-27 2023-04-25 本田技研工業株式会社 レコメンドシステム、レコメンド方法およびプログラム
US11449555B2 (en) * 2019-12-30 2022-09-20 GM Cruise Holdings, LLC Conversational AI based on real-time contextual information for autonomous vehicles
JP7352491B2 (ja) * 2020-02-28 2023-09-28 Kddi株式会社 ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法
CN111353034B (zh) * 2020-02-28 2020-12-11 重庆百事得大牛机器人有限公司 基于手势采集的法律事实矫正系统及方法
CN111723577A (zh) * 2020-05-14 2020-09-29 张宗奇 基于预设审讯模式进行审讯的方法、装置和设备
CN112017629B (zh) * 2020-07-15 2021-12-21 马上消费金融股份有限公司 语音机器人的会话控制方法及设备、存储介质
CN113535903B (zh) * 2021-07-19 2024-03-19 安徽淘云科技股份有限公司 情绪引导方法、情绪引导机器人及存储介质和电子设备
WO2023113877A1 (en) * 2021-12-13 2023-06-22 Google Llc Selecting between multiple automated assistants based on invocation properties
CN114490994B (zh) * 2022-03-28 2022-06-28 北京沃丰时代数据科技有限公司 对话管理方法及装置
CN116578691A (zh) * 2023-07-13 2023-08-11 江西合一云数据科技股份有限公司 一种智能养老机器人对话方法及其对话系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
CN103984408A (zh) * 2013-02-07 2014-08-13 三星电子株式会社 支持语音对话功能的移动终端和语音对话方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
JP2006178063A (ja) 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
US20080096533A1 (en) * 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions
JP2009064186A (ja) * 2007-09-05 2009-03-26 Mazda Motor Corp 車両用対話システム
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US9197736B2 (en) * 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US8650023B2 (en) * 2011-03-21 2014-02-11 Xerox Corporation Customer review authoring assistant
US9348479B2 (en) * 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US9159321B2 (en) * 2012-02-27 2015-10-13 Hong Kong Baptist University Lip-password based speaker verification system
US8463595B1 (en) * 2012-03-06 2013-06-11 Reputation.Com, Inc. Detailed sentiment analysis
US9308445B1 (en) * 2013-03-07 2016-04-12 Posit Science Corporation Neuroplasticity games
US10102224B2 (en) * 2013-04-25 2018-10-16 Trent R. McKenzie Interactive music feedback system
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
US9288274B2 (en) * 2013-08-26 2016-03-15 Cellco Partnership Determining a community emotional response
US20150073774A1 (en) * 2013-09-11 2015-03-12 Avaya Inc. Automatic Domain Sentiment Expansion
US20150262238A1 (en) * 2014-03-17 2015-09-17 Adobe Systems Incorporated Techniques for Topic Extraction Using Targeted Message Characteristics
US9606711B2 (en) * 2014-04-15 2017-03-28 International Business Machines Corporation Evaluating portions of content in an online community

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
CN103984408A (zh) * 2013-02-07 2014-08-13 三星电子株式会社 支持语音对话功能的移动终端和语音对话方法

Also Published As

Publication number Publication date
US9953078B2 (en) 2018-04-24
JP2017049427A (ja) 2017-03-09
CN106484093A (zh) 2017-03-08
US20170060839A1 (en) 2017-03-02
JP6601069B2 (ja) 2019-11-06

Similar Documents

Publication Publication Date Title
CN106484093B (zh) 对话控制装置、对话控制方法以及记录介质
Zhang et al. Personalizing dialogue agents: I have a dog, do you have pets too?
Batty et al. Writing for the screen: Creative and critical approaches
Roller et al. Open-domain conversational agents: Current progress, open problems, and future directions
US20020005865A1 (en) System, method, and device for authoring content for interactive agents
Vlahos Talk to me: How voice computing will transform the way we live, work, and think
CN111831798A (zh) 信息处理方法、装置、电子设备及计算机可读存储介质
Li Artificial intelligence revolution: How AI will change our society, economy, and culture
Larionov et al. Tartan: A retrieval-based socialbot powered by a dynamic finite-state machine architecture
Aljammaz et al. Scheherazade’s Tavern: A prototype for deeper NPC interactions
He et al. Deep reinforcement learning with an action space defined by natural language
Mehta et al. Exploring the viability of Conversational AI for Non-Playable Characters: A comprehensive survey
JP2001249945A (ja) 感情生成方法および感情生成装置
Boland Jr et al. The limits to language in doing systems design
Patil et al. Athena 2.0: Discourse and user modeling in open domain dialogue
Hong et al. Audrey: A personalized open-domain conversational bot
JP2001249949A (ja) 感情生成方法、感情生成装置、記録媒体
Hasani et al. Immersive experience with non-player characters dynamic dialogue
Evans et al. The AI Architecture of Versu
Smith The fourth Gospel and the manufacture of minds in ancient historiography, biography, romance, and drama
Zhang et al. MCAEM: mixed-correlation analysis-based episodic memory for companion–user interactions
Rose Realistic dialogue engine for video games
Vavrecka et al. Personified Robotic Chatbot Based On Compositional Dialogues
Behrooz Curating Interest in Open Story Generation
JP7044167B2 (ja) 対話装置、対話方法及び対話プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant