CN111611359B - 对话系统、对话方法及计算机可读介质 - Google Patents

对话系统、对话方法及计算机可读介质 Download PDF

Info

Publication number
CN111611359B
CN111611359B CN202010111172.1A CN202010111172A CN111611359B CN 111611359 B CN111611359 B CN 111611359B CN 202010111172 A CN202010111172 A CN 202010111172A CN 111611359 B CN111611359 B CN 111611359B
Authority
CN
China
Prior art keywords
user
model
dialogue
function
session
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010111172.1A
Other languages
English (en)
Other versions
CN111611359A (zh
Inventor
船造美奈
高谷智哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111611359A publication Critical patent/CN111611359A/zh
Application granted granted Critical
Publication of CN111611359B publication Critical patent/CN111611359B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种能够使用户对特定对话模型形成依恋的对话系统、对话方法及程序。第一对话模型(100)构成为,通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高。第二对话模型(200)构成为,利用比第一对话模型(100)的初始状态更为良好的沟通功能与用户进行对话,而向用户进行辅助第一对话模型(100)的沟通功能的提高的发话。

Description

对话系统、对话方法及计算机可读介质
技术领域
本发明涉及对话系统、对话方法及程序,尤其涉及与用户进行对话的对话系统、对话方法及程序。
背景技术
已知一种对话系统,其与用户自主地进行对话。与该技术相关,日本特开2017-207693号公报公开了一种对话系统,该对话系统用于通过两个代理(机器人),将用户的发话引入到满足供对话系统取得的条件的范围,以长时间地持续与用户的对话。
在日本特开2017-207693号公报所涉及的对话系统中,第一代理提示第一发话后,第二代理提示用于催促针对第一发话的用户的发话的发话。由此,用户发话被第二代理的发话拖拽,而被引入到满足供对话系统取得的条件的范围。因此,通过使用两个代理(对话模型)与用户进行对话,用户与对话系统能够进行顺畅的对话。
现有技术文献
专利文献
专利文献1:日本特开2017-207693号公报
发明内容
有时需要通过机器人的促销活动等进行诱导,以使用户对某个特定机器人(对话模型)抱有强烈的依恋。但是,日本特开2017-207693号公报关于用户对进行对话的代理(机器人)形成依恋的情况,没有进行任何公开。因此,即使使用日本特开2017-207693号公报所涉及的技术,也难以进行控制,以对这两个代理者中的某个代理者形成依恋。例如,虽然要求用户对第一代理抱有强烈的依恋,但实际上,用户可能会对第二代理抱有依恋。因此,期望进行诱导,以使用户对对话系统中的特定机器人(对话模型)形成依恋。
本发明提供一种能够使用户对特定对话模型形成依恋的对话系统、对话方法及程序。
本发明所涉及的对话系统是与用户至少进行基于对话的沟通的对话系统,其至少具有与用户至少进行对话的第一对话模型和第二对话模型,所述第一对话模型构成为,通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高,所述第二对话模型构成为,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
此外,本发明所涉及的对话方法是使用对话系统进行的对话方法,所述对话系统与用户至少进行基于对话的沟通,在对话方法中,实现第一对话模型,所述第一对话模型中,通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高,并且实现第二对话模型,所述第二对话模型中,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
此外,本发明所涉及的程序是执行使用对话系统进行的对话方法的程序,所述对话系统与用户至少进行基于对话的沟通,所述程序使计算机实现如下功能:实现第一对话模型的功能,所述第一对话模型中,通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高;以及实现第二对话模型的功能,所述第二对话模型中,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
通过以上述方式构成,用户通过接受第二对话模型的辅助而能够不依赖于第一对话模型的状态地使第一对话模型成长。因此,用户能够更可靠地体验到第一对话模型通过与用户的沟通而成长。由此,用户能够对第一对话模型形成依恋。
另外,优选地,所述第二对话模型取得所述第一对话模型的状态,进行与所述状态相应的辅助。
通过以此种方式构成,第二对话模型能够进行更适当的辅助。因此,用户更可靠地使第一对话模型成长的情况成为可能。
另外,优选地,所述第二对话模型在判定为所述第一对话模型的所述沟通功能的提高停滞的情况下,进行所述辅助。
通过以此种方式构成,第二对话模型能够在适当的时机进行辅助。因此,用户更可靠地使第一对话模型成长的情况成为可能。
另外,优选地,所述第二对话模型向用户进行用于提示为了提高所述第一对话模型的所述沟通功能而应当由用户进行的动作的发话。
本发明通过以此种方式构成,使得用户能够容易地掌握为了使第一对话模型成长而应当做什么。
另外,优选地,所述第二对话模型使用字符串来进行用于向用户提示所述动作的发话。
通过以此种方式构成,第二对话模型能够更可靠地与用户进行对话。因此,第二对话模型与用户能够进行顺畅的沟通。
另外,优选地,至少所述第一对话模型作为用户终端中的虚拟角色而实现,还具有信息发送部,该信息发送部将与所述第一对话模型的所述提高后的沟通功能有关的信息发送到与所述第一对话模型对应的实体沟通机器人。
通过以此种方式构成,用户能够获得与实体沟通机器人进行沟通的体验,所述实体沟通机器人是用户自己所培养的虚拟角色作为实体而物理性地具体化所得的。因此,能够使用户对实体沟通机器人形成强烈的依恋。
另外,优选地,所述第二对话模型的所述沟通功能的提高程度小于所述第一对话模型的所述沟通功能的提高程度。
通过以此种方式构成,能够抑制用户对第二对话模型形成依恋的情况。因此,能够使用户对第一对话模型可靠地形成依恋。
根据本发明,可以提供一种能够使用户对特定对话模型形成依恋的对话系统、对话方法及程序。
本公开的上述和其它目的、特征和优点将从下文给出的详细说明以及附图得到更充分的理解,详细说明和附图仅仅是为了说明的目的而给出的,因此不应将它们看作是对本公开的限制。
附图说明
图1是表示实施方式1所涉及的对话系统的硬件结构的图。
图2是例示由实施方式1所涉及的对话系统显示的角色的图。
图3是表示实施方式1所涉及的对话系统搭载于实体沟通机器人及用户终端的例子的图。
图4是表示实施方式1所涉及的控制装置的结构的功能框图。
图5是例示实施方式1所涉及的功能数据库中所存储的功能信息的图。
图6是例示实施方式1所涉及的学习信息存储部中所存储的学习信息的图。
图7是表示由对话系统执行的对话方法的流程图。
图8是表示由对话系统执行的对话方法的流程图。
图9是例示实施方式1所涉及的辅助角色与用户的对话的图。
图10是用于说明实施方式1所涉及的信息发送部的处理的图。
具体实施方式
(实施方式1)
以下,参照附图对本发明的实施方式进行说明。另外,在各附图中,对相同的要素标注相同的标号,并根据需要省略重复说明。
图1是表示实施方式1所涉及的对话系统1的硬件结构的图。对话系统1使用声音或字符串(文本)来与用户进行对话。另外,以下,“发话”不限于声音,也包括基于字符串的发话。对话系统1通过根据来自用户的发话(用户发话),向用户执行发话(系统发话),由此与用户进行对话。对话系统1例如可搭载于生活辅助机器人和小型机器人等机器人、云系统、以及智能手机或平板终端等用户终端。以下,在实施方式1中,主要示出了对话系统1搭载于用户终端的例子。
对话系统1具有收集周围的声音的麦克风2、发出声音的扬声器4、照相机等摄像部5、输入部6、显示部8以及控制装置10。麦克风2收集用户的发话声音,作为主要功能。麦克风2将收集到的用户的发话声音转换为声音信号,并作为来自用户的输入发话(用户发话)输出到控制装置10。扬声器4接收由控制装置10转换后的声音信号,并将输出发话(系统发话)以声音的形式输出。
输入部6和显示部8是用户接口。输入部6例如是触摸面板或键盘等输入设备。另外,显示部8例如是显示器等输出设备。另外,输入部6和显示部8也可以构成为输入设备和输出设备成为一体的触摸面板。即,输入部6和显示部8不需要物理上分开。在对话以字符串进行的情况下,输入部6可供用户以字符串输入用户发话。另外,在该情况下,显示部8可供对话系统1以字符串等显示系统发话。而且,显示部8根据控制装置10的控制,显示由对话系统1实现的角色。详细内容如后文所述。
控制装置10例如具有作为计算机的功能。控制装置10与麦克风2、扬声器4、摄像部5、输入部6和显示部8以有线或无线的方式连接。在以声音进行对话的情况下,控制装置10解析由麦克风2收集到的用户发话,并根据该用户发话来确定针对用户的系统发话,输出到扬声器4。此外,在以字符串进行对话的情况下,控制装置10解析通过输入部6输入的字符串的用户发话,并根据该用户发话来确定并执行针对用户的系统发话。另外,对话不一定限于用户发话和系统发话这两者是声音的情况,或者用户发话和系统发话这两者是字符串的情况。也可以为用户发话和系统发话的一方是声音,另一方是字符串。
控制装置10具有CPU(Central Processing Unit:中央处理单元)12、ROM(ReadOnly Memory:只读存储器)14、RAM(Random Access Memory:随机存取存储器)16和接口部(IF;Interface)18,作为主要的硬件结构。CPU12、ROM14、RAM16和接口部18经由数据总线等相互连接。
CPU12具有作为进行控制处理和运算处理等的运算装置的功能。ROM14具有用于存储由CPU12执行的控制程序和运算程序等的功能。RAM16具有用于临时存储处理数据等的功能。接口部18通过有线或无线与外部进行信号的输入输出。另外,接口部18受理用户对数据的输入操作,并进行用于向用户显示信息的处理。
图2是例示由实施方式1所涉及的对话系统1显示的角色的图。显示部8显示培养角色902及辅助角色904。对话系统1通过这两个角色(对话模型)即培养角色902和辅助角色904来实现与用户的对话。即,用户与培养角色902和辅助角色904进行对话。在此,培养角色902对应于后述的第一对话模型,辅助角色904对应于后述的第二对话模型。另外,在图2的例子中,在用户终端上虚拟地实现培养角色902和辅助角色904。另一方面,辅助角色904并不一定要显示于显示部8,例如也可以作为以文本形式显示发话的聊天功能而实现。此外,辅助角色904也可以仅用声音实现。
培养角色902构成为,通过与用户的沟通,向用户表现出的交流功能从初始状态不断提高。即,在初始阶段,培养角色902可以设定为与用户几乎无法进行沟通。并且,培养角色902通过与用户不断进行对话等沟通,从而沟通功能不断提高,所以对于用户而言,可感觉到培养角色902好像在不断成长。
辅助角色904构成为,利用比培养角色902的初始状态更为良好的沟通功能与用户进行对话,而辅助培养角色902与用户之间的沟通。即,辅助角色904与培养角色902不同,能够从最初开始进行顺畅的沟通。并且,辅助角色904可根据用户的发话,向用户进行用于提示为了提高培养角色902的沟通功能而应当由用户进行的动作的发话。即,辅助角色904利用比培养角色902的初始状态更为良好的沟通功能与用户进行对话,而向用户进行辅助培养角色902的沟通功能的提高的发话。由于辅助角色904的存在,用户能够掌握为了使培养角色902成长而应当做什么。
对话系统1将培养角色902和辅助角色904的发话转换为声音信号而输出到扬声器4。此时,对话系统1也可以在培养角色902与辅助角色904中使声音的语调和频率等音色不同,以明确养成角色902和辅助角色904中的哪一个在进行发话。或者,对话系统1也可以在显示部8的吹出形式的文本框中,以字符串显示培养角色902和辅助角色904的发话。此时,对话系统1可以在进行了发话的角色附近显示文本框,以明确培养角色902和辅助角色904中的哪一个在进行发话。
图3是表示实施方式1所涉及的对话系统1搭载于实体沟通机器人及用户终端的例子的图。在该情况下,对话系统1具有实体沟通机器人30和用户终端40。实体沟通机器人30是图2所示的培养角色902被物理性地具体化所得的实体。另外,用户终端40实现图2所示的辅助角色904。
实体沟通机器人30例如为生活辅助机器人等自主移动式机器人。用户终端40例如是智能手机或平板终端。实体沟通机器人30和用户终端40都可以具有图1所示的硬件结构。而且,实体沟通机器人30具有转向架部32和机械臂34。转向架部32具有供实体沟通机器人30进行自主移动的功能。转向架部32可以具有车轮和电动机等。机械臂34具有用于把持物体而传递给用户的功能。机械臂34可以具有关节和末端执行器(机械手)等。另外,实体沟通机器人30和用户终端40使用各自的接口部18,通过有线或无线彼此进行通信。
图4是表示实施方式1所涉及的控制装置10的结构的功能框图。控制装置10具有角色数据库52(角色DB)、履历存储部54、发话数据库56(发话DB)、发话解析部58、调停部60、信息发送部70。控制装置10还具有第一对话模型100和第二对话模型200。第一对话模型100具有协作部102、第一对话部104、成长处理部106、功能数据库108(功能DB)、学习信息存储部110。第二对话模型200具有协作部202、第二对话部204、辅助处理部206、辅助内容数据库208(辅助内容DB)。
第一对话模型100和第二对话模型200与用户进行对话。第一对话模型100构成为实现图2所示的培养角色902。第二对话模型200构成为实现图2所示的辅助角色904。换言之,培养角色902是用于向用户表现出第一对话模型100的功能的虚拟角色。另外,辅助角色904是用于向用户表现出第二对话模型200的功能的虚拟角色。因此,第一对话模型100构成为,通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高。另外,第二对话模型200构成为,利用比第一对话模型100的初始状态更为良好的沟通功能与用户进行对话,而辅助第一对话模型100与用户之间的沟通。
图4所示的各结构要素例如可以通过CPU12执行存储在ROM14中的程序来实现。另外,也可以将必要的程序记录在任意的非易失性记录介质中,并由CPU12根据需要进行安装。另外,各结构要素并不限定于如上述那样由软件实现,也可以由任意的电路元件等硬件实现。
在此,在对话系统1如图3所例示的那样被实现的情况下,实体沟通机器人30可以具有图4所示的结构要素中的第二对话模型200以外的结构要素。另外,用户终端40可以具有图4所示的结构要素中的第一对话模型100以外的结构要素。而且,用户终端40也可以不具有信息发送部70。即,第一对话模型100控制实体沟通机器人30的功能,第二对话模型200控制与用户终端40中的辅助角色904相关的功能。换言之,实体沟通机器人30是用于向用户表现出第一对话模型100的功能的物理装置。另外,用户终端40是用于向用户表现出第二对话模型200的功能的物理装置。
角色数据库52存储与培养角色902及辅助角色904分别相关的信息。例如,角色数据库52存储培养角色902和辅助角色904各自的影像数据。另外,角色数据库52也可以存储培养角色902及辅助角色904各自的音色的信息(音色信息)。履历存储部54存储参照数据,该参照数据包括在用户与培养角色902之间到目前为止所执行的对话信息以及在用户与辅助角色904之间到目前为止所执行的对话信息。
发话数据库56将作为语料库而体系化的各个术语与能够再生的发话数据一起进行存储。另外,存储在发话数据库56中的信息也可以不内置在对话系统1中,例如可以经由网络从外部的服务器等取得。
发话解析部58对从麦克风2取得的用户发话进行解析而使其文本化,以识别用户的发话内容。具体而言,发话解析部58使用普通的声音识别技术来识别用户的发话内容。例如,发话解析部58对文本化后的输入发话实施语法解析或单词分析等,并使用DNN(deepneural network:深度神经网络)模型和逻辑回归模型来识别发话内容。
调停部60根据用户发话来判定用户是在与培养角色902交谈还是在与辅助角色904交谈。调停部60在判定为用户正在与培养角色902交谈时,进行用于将发话权限交给第一对话部104的处理。另一方面,调停部60在判定为用户正在与辅助角色904交谈时,进行用于将发话权限交给第二对话部204的处理。例如,在使用发话解析部58的解析结果,用户发话表示用户询问应当做什么的情况下,调停部60可以判定为用户正在与辅助角色904交谈。另外,调停部60也可以在基于培养角色902的学习功能的学习没有进展而使能够发话的单词数量少于规定数量的情况下,在用户与培养角色902进行了交谈时,进行用于将发话权限交给第二对话部204的处理。
信息发送部70控制接口部18,以进行用于将与第一对话模型100(培养角色902)有关的信息(第一信息)发送到外部的装置的处理。关于信息发送部70的处理将在后文叙述。
第一对话模型100的协作部102与第二对话模型200的协作部202以能够彼此通信的方式连接,相互交换信息。由此,第二对话模型200与第一对话模型100协作。协作部102将第一信息传输到协作部202。即,协作部202作为从协作部102取得第一信息的信息取得部发挥功能。由此,第二对话模型200能够掌握第一对话模型100(培养角色902)的状态。特别地,协作部202取得存储在第一对话模型100的功能数据库108和学习信息存储部110中的信息。另外,也可以设为协作部202将与第二对话模型200(辅助角色904)相关的信息(第二信息)传输到协作部102,协作部102从协作部202取得第二信息。在此,在对话系统1如图3所例示的那样被实现的情况下,协作部102也可以使用具有第一对话模型100的实体沟通机器人30的接口部18,通过有线或无线,向用户终端40发送第一信息。
第一对话部104承担培养角色902的发话功能。具体而言,第一对话部104参照角色数据库52,使显示部8显示培养角色902。另外,第一对话部104参照发话数据库56,生成与用户发话相应的应答发话语句。并且,第一对话部104将该应答发话语句以声音的形式从扬声器4发出,或者将该应答发话语句以文字的形式显示于显示部8。此时,第一对话部104参照后述的功能数据库108及学习信息存储部110,将能够执行的沟通功能以能够执行的水平实现。因此,在沟通功能没有提高的初始状态下,第一对话部104可以进行低至用户不能充分理解发话内容的程度的水平的发话。另外,第一对话部104控制摄像部5而取得正在进行对话的用户的面部图像。
成长处理部106参照后述的功能数据库108,进行用于使向用户表现出的沟通功能提高的处理。具体而言,成长处理部106执行例如迷你游戏程序而与用户进行沟通。并且,当用户完成迷你游戏时,成长处理部106释放与该迷你游戏对应的预设在第一对话模型100中的功能,从而能够执行该功能。由此,第一对话部104能够执行该功能。如此,将虽然预设在第一对话模型100中,但在初始状态下不能执行,通过其功能被释放而首次能够执行的功能称为“释放功能”。另外,关于迷你游戏将在后文叙述。
另外,成长处理部106通过与用户的对话等沟通,学习与用户相关的信息及单词等。由此,第一对话部104使用通过学习而得到的累积的信息,与用户进行沟通。如此,将通过累积数据而使性能不断提高的功能称为“学习功能”。另外,学习功能由于在每次用户与第一对话模型100(培养角色902)进行沟通时逐渐提高,所以可以由成长处理部106执行。另一方面,释放功能由于一旦被释放则无需使功能逐渐提高,所以可以在释放后,由第一对话部104实现。
功能数据库108存储与可以由第一对话模型100在当前或将来执行的功能相关的信息(功能信息)。学习信息存储部110存储与通过学习功能而累积的数据相关的学习信息。下面对这些信息进行说明。
图5是例示实施方式1所涉及的功能数据库108中所存储的功能信息的图。功能数据库108存储上述释放功能和学习功能以及这些功能的当前执行水平。对释放功能而言,例如存在机器人动作功能、天气预报功能、换乘引导功能和情感发话功能。另外,对学习功能而言,例如存在用户学习功能、单词学习功能和空间掌握功能。另外,第一对话模型100即培养角色902在如图2例示的那样,由用户终端虚拟地实现的情况下,也可以没有空间掌握功能。另外,这些功能是向用户表现出的功能,所以可以说是沟通功能。
机器人动作功能是用于使与第一对话模型100对应的机器人(培养角色902或实体沟通机器人30)进行动作的功能。在第一对话模型100对应于虚拟的培养角色902的情况下,机器人动作功能可以通过显示于显示部8的动画来使培养角色902进行动作。另外,在第一对话模型100对应于实体沟通机器人30的情况下,机器人动作功能可以控制转向架部32而使实体沟通机器人30自主移动,也可以使机械臂34进行动作。
天气预报功能是根据用户发话(例如,“告诉我明天的天气”)或自主地向用户提供天气预报的功能。天气预报功能例如可以从因特网取得天气预报。天气预报功能可以控制扬声器4而通过声音来输出天气预报,也可以控制显示部8而在视觉上显示天气预报。
换乘引导功能是根据用户发话(例如,“告诉我到体育场的路线”)或自主地进行到目的地的交通引导的功能。换乘引导功能例如可以从因特网取得换乘引导。换乘引导功能可以控制扬声器4而通过声音来输出换乘引导,也可以控制显示部8而在视觉上显示换乘引导。
情感表现功能是通过声音或影像来表现与第一对话模型100对应的培养角色902的情感的功能。例如,情感表现功能可以控制扬声器4而用声音来表现喜悦,也可以控制显示部8而显示笑脸。
用户学习功能是通过与用户的沟通来学习用户的属性(面部图像和姓名等),并根据学习到的内容与用户进行沟通的功能。用户学习功能将表示针对用户学习到的内容的信息存储到后述的学习信息存储部110中。例如,在将某个用户的姓名与面部图像建立关联地进行学习的情况下,用户学习功能可以控制摄像部5而对该用户进行面部识别,并且用声音输出用户的姓名。此外,例如,用户学习功能可以根据后述的接触次数来变更对话中的亲密度。例如,用户学习功能可以控制第一对话部104,以对接触次数小于N次(N为预先设定的2以上的整数,例如5次)的用户用敬语进行对话,而对接触次数为N次以上的用户不用敬语进行对话。
另外,例如,用户学习功能也可以在通过面部识别等能够识别出用户时,学习与用户良好地对话的时间段,并控制第一对话部104,以在该时间段内与该用户交谈。在该情况下,用户学习功能可以控制第一对话部104,以在该用户采取与正常会话时间不同的行为(在该时间段内用户不进行交谈等)时,向用户发话“有什么事情?”等。
单词学习功能是累积用户发话并将其用于发话的功能。单词学习功能保存用户的声音识别结果,并从其中将名词等单词存储在后述的学习信息存储部110中。单词学习功能在任意时机向用户询问单词的含义(人名、地名、食物、问候等),并将单词与含义建立关联。并且,单词学习功能控制第一对话部104,以将所存储的单词引入到之后的对话中。例如,在用户发话“丰田”时,第一对话模型100(培养角色902)发话“丰田是什么?”,当用户回答“地名”时,第一对话模型100在日后的对话中发话“之前去过丰田”等。
空间掌握功能是识别房间的形状,并针对每个房间生成地图的功能。空间掌握功能控制第一对话模型100(实体沟通机器人30)的摄像部5和转向架部32,以自主地在房间的内部移动,并在使用摄像部5(照相机或三维传感器等)取得房间的形状的同时进行探索,生成房间的地图,并存储在后述的学习信息存储部110中。此时,空间掌握功能也可以在发现未存储地图数据的房间时,进行地图的生成处理。另外,空间掌握功能也可以针对存储有地图数据的房间,按照地图进行行动,并进行与所存储的地图之间的差别部分的更新。
另外,执行水平表示对应的功能能够以何种程度执行。释放功能的执行水平可以是“可执行”和“不可执行”中的任一种。另外,学习功能的执行水平例如可以根据后述的学习信息的累积量来确定。即,与对应的功能相关的学习信息的累积量越少,学习功能的执行水平越低,累积量越多,学习功能的执行水平越高。
在图5所示的例子中,能够执行机器人动作功能(即,功能被释放),但天气预报功能、换乘引导功能和情感表现功能不可执行(即,功能未被释放)。另外,用户学习功能的执行水平为“低”,单词学习功能和空间掌握功能的执行水平为“中”。
图6是例示实施方式1所涉及的学习信息存储部110中所存储的学习信息的图。学习信息可以包括用户信息、单词信息和空间信息。用户信息是通过用户学习功能而累积的学习信息。单词信息是通过单词学习功能而累积的学习信息。单词信息可以是单词词典。空间信息是通过空间掌握功能而累积的学习信息。
用户信息例如包括用户的面部图像、该用户的姓名、该用户与第一对话模型100(培养角色902)接触(对话)的次数即接触次数、与该用户对话的时间即对话时间。另外,对话时间也可以是与该用户对话的次数最多的时间带。另外,对于面部图像,每当与对应的用户进行对话时,就取得该用户的面部图像。如此,由于在每次进行对话时都累积该用户的面部图像,所以该用户的识别精度不断提高。
在图6所示的例子中,对于面部图像X,用户的姓名“X先生”、接触次数“6次”、对话时间“平日晚间7点”建立了对应。另外,对于面部图像Y,用户的姓名“Y先生”和接触次数“两次”建立了对应。另外,对于与面部图像Y(Y先生)相关的对话时间,由于接触次数少,所以没有进行存储。另外,对于面部图像Z,由于第一对话模型100不能取得对应的用户的姓名,所以仅与接触次数“一次”建立对应。在图6所示例子的情况下,第一对话模型100可以不用敬语与用户“X先生”进行对话,也可以在平日晚间7点与用户“X先生”进行对话。
单词信息包括单词(名词等)及其含义。在图6所示的例子中,单词“苹果”与含义“食物”建立对应,单词“丰田”与含义“地名”建立关联,单词“早上好”与含义“早间问候”建立对应。在图6所示的例子的情况下,第一对话模型100可以向任意用户发话“喜欢苹果吗?”。另外,第一对话模型100可以在早晨的时间带内,对任意用户发话“早上好”。
空间信息包括房间的识别信息和表示该房间的地图的地图信息。此处,所谓地图信息,是表示存在于各房间的各物体的各位置(点组)的三维坐标数据(或二维坐标数据)的信息。在地图信息中,可以表示在某个由三维坐标(X,Y,Z)表示的点是否存在什么物体。
对于第二对话模型200(图4),第二对话部204承担辅助角色904的发话功能。具体而言,第二对话部204参照角色数据库52,使显示部8显示辅助角色904。另外,第二对话部204参照发话数据库56,生成与用户发话相应的应答发话语句。并且,第二对话部204将该应答发话语句以声音的形式从扬声器4发出,或者将该应答发话语句以文字的形式显示于显示部8。这里,第二对话部204具有比第一对话模型100(第一对话部104)的初始状态更为良好的沟通功能。因此,第二对话模型200可以从初始状态起就进行高到用户能够充分理解发话内容的程度的水平的发话。
辅助处理部206参照辅助内容数据库208,进行辅助上述第一对话模型100的沟通功能的提高的发话。此时,辅助处理部206取得由协作部202取得的第一对话模型100的状态(功能信息及学习信息等),并进行与状态相应的辅助。详细内容如后文所述。
辅助内容数据库208针对使用图5所例示的第一对话模型100的每个沟通功能,存储用于辅助功能的提高的发话内容和发出该发话的时机的判定基准。辅助处理部206通过参照该辅助内容数据库208,在应当辅助的时机,向用户进行辅助第一对话模型100的沟通功能的提高的发话。详细内容如后文所述。
下面,使用图7和图8来说明对话系统1的动作。图7和图8是表示由对话系统1执行的对话方法的流程图。图7示出了用于提高第一对话模型100(培养角色902)的释放功能(即,使释放功能能够执行)的方法。
首先,辅助处理部206参照由协作部202取得的第一信息,判定第一对话模型100是否处于能够执行用于释放某个释放功能A的功能释放游戏(迷你游戏)的状态(步骤S100)。在第一对话模型100处于能够执行功能释放游戏的状态的情况下(S100的是),辅助处理部206进行用于输出向用户提议功能释放游戏的发话的处理(步骤S102)。然后,成长处理部106执行与释放功能A相关的功能释放游戏(步骤S104)。此时,辅助处理部206或成长处理部106输出表示功能释放游戏的说明的发话。另外,在成长处理部106执行功能释放游戏的期间,协作部202持续取得第一对话模型100的第一信息,辅助处理部206基于第一信息,监视第一对话模型100中的功能释放游戏的进展状况。
辅助处理部206判定功能释放游戏的进展是否停滞(步骤S106)。例如,辅助处理部206使用从第一对话模型100取得的表示游戏的进展的第一信息即游戏进展信息,来计算从游戏开始起的经过时间。并且,在经过时间已经过预先设定的一定时间的情况下,辅助处理部206可以判定为功能释放游戏的进展停滞。或者,在第一对话模型100或第二对话模型200受理了不知道游戏的进展方法的用户发话(即,“应该怎样玩游戏?”等)的情况下,支援处理部206可以判定为功能释放游戏的进展停滞。
在判定为功能释放游戏的进展停滞的情况下(S106的是),辅助处理部206通过发话来提示用于推进功能释放游戏的启示(步骤S108)。这样,辅助处理部206在判定为沟通功能的提高停滞的情况下,进行辅助。
另一方面,在判定为功能释放游戏的进展没有停滞的情况下(S106的否),辅助处理部206使用从第一对话模型100取得的游戏进展信息,来判定游戏是否完成(步骤S110)。在游戏未完成的情况下(S110的否),处理返回到S106。另一方面,在游戏已完成的情况下(S110的是),辅助处理部206输出用于向用户提示释放功能A的使用方法的发话(步骤S112)。另外,成长处理部106将释放功能A释放,使其能够执行(步骤S114)。
例如,在能够执行机器人动作功能的情况下,辅助处理部206例如在显示了培养角色902的零件被分解的状态的情况下,可以判定为能够执行用于释放机器人动作功能的游戏(S100)。另外,机器人动作功能的功能释放游戏例如可以是在显示于显示部8的虚拟空间上,由用户搜索培养角色902的零件之类的游戏(S102、S104)。然后,在判定为游戏的进展停滞的情况下,辅助处理部206可以输出启示未搜索到的零件在虚拟空间上的存在位置的发话(“机器人的手臂好像在XX”等)(S108)。然后,在用户搜索到培养角色902的所有零件时,判定为游戏已完成(S110)。
另外,在如图3例示的那样,培养角色902由实体沟通机器人30实现的情况下,并不限于通过进行虚拟空间上的游戏来释放机器人动作功能。也可以通过实际从实体沟通机器人30分解的状态起,由用户手动地组装实体沟通机器人30,由此释放机器人动作功能。
另外,在能够执行天气预报功能的情况下,辅助处理部206例如在能够执行机器人动作功能的情况下,可以判定为能够执行用于释放天气预报功能的游戏(S100)。或者,辅助处理部206例如在单词信息的存储量为预先设定的阈值以上的情况下,可以判定为能够执行用于释放天气预报功能的游戏(S100)。另外,天气预报功能的功能释放游戏例如可以是在显示于显示部8的虚拟空间上,由用户对表示天气的图标(例如,如果为“晴天”,则为太阳的画)与表示天气的字符串进行连接之类的配线游戏(S102、S104)。并且,在用户将表示天气的图标与表示天气的字符串全部正确地连接时,可以判定为游戏已完成(S110)。
另外,在能够执行换乘引导功能的情况下,辅助处理部206例如在能够执行机器人动作功能的情况下,可以判定为能够执行用于释放换乘引导功能的游戏(S100)。或者,辅助处理部206例如在单词信息的存储量为预先设定的阈值以上的情况下,可以判定为能够执行用于释放换乘引导功能的游戏(S100)。另外,换乘引导功能的功能释放游戏例如可以是在显示于显示部8的虚拟空间上,由用户对表示交通工具的两个相同的图标(例如“公共汽车”的画)进行连接之类的配线游戏(S102、S104)。并且,在用户正确地连接了所有交通工具的两个图标时,可以判定为游戏已完成(S110)。
另外,在能够执行情感表现功能的情况下,辅助处理部206例如在能够执行机器人动作功能的情况下,可以判定为能够执行用于释放情感表现功能的游戏(S100)。或者,辅助处理部206例如在单词信息的存储量为预先设定的阈值以上的情况下,可以判定为能够执行用于释放情感表现功能的游戏(S100)。另外,情感表现功能的功能释放游戏例如可以是在显示于显示部8的虚拟空间上,由用户对表示情感的图标(例如,如果为“喜悦”,则为笑脸的画)与表示情感的字符串进行连接之类的配线游戏(S102、S104)。并且,在用户将表示情感的图标与表示情感的字符串全部连接时,可以判定为游戏已完成(S110)。
图8示出了用于提高第一对话模型100(培养角色902)的学习功能的方法。首先,辅助处理部206进行用于向用户说明学习功能的存在的发话(步骤S122)。然后,成长处理部106执行上述学习功能(步骤S124)。另外,在成长处理部106执行学习功能的期间,协作部202持续取得第一对话模型100的第一信息,辅助处理部206基于第一信息,监视第一对话模型100中的学习的进展状况。
辅助处理部206判定学习的进展是否停滞(步骤S126)。例如,在从学习开始起经过了预先设定的时间时学习信息的累积量没有超过预先设定的阈值的情况下,辅助处理部206可以判定为学习的进展停滞。或者,在第一对话模型100中的面部识别未被适当进行的情况下,辅助处理部206可以判定为学习的进展停滞。或者,在第一对话模型100或第二对话模型200受理了学习没有进展的用户发话(“机器人的学习好像没有进展”等)的情况下,辅助处理部206可以判定为学习的进展停滞。
在判定为学习的进行停滞的情况下(S126的是),辅助处理部206通过发话来提示用于使学习顺利地进展的要领(步骤S128)。这样,辅助处理部206在判定为沟通功能的提高停滞的情况下,进行辅助。另一方面,在判定为学习的进展没有停滞的情况下(S126的否),为了抑制用户感到厌烦的情况,辅助处理部206不提示用于使学习顺利地进展的要领。然后,重复进行S124~S128的处理。
例如,在执行用户学习功能的情况下,辅助处理部206例如在判定为虽然用户处于摄像部5的前方但没有被面部识别时,可以判定为学习的进展停滞(S126的是)。在该情况下,辅助处理部206可以输出用于说明面部识别的要领的发话(“取下帽子”等)(S128)。此外,在登记到用户信息中的用户数量小于预先设定的阈值的情况下,辅助处理部206可以判定为学习的进展停滞(S126中的是)。在该情况下,辅助处理部206可以向未登记到用户信息中的用户进行用于催促以主动地与第一对话模型100(培养角色902)交谈的发话(S128)。另外,在存在虽然登记到用户信息中但接触次数比预先设定的阈值少的用户的情况下,辅助处理部206可以判定为学习的进展停滞(S126的是)。在该情况下,辅助处理部206可以向该用户(例如Y先生)进行用于催促以主动地与第一对话模型100(培养角色902)交谈的发话(S128)。
另外,在执行单词学习功能的情况下,辅助处理部206例如在登记到单词信息中的单词数量比预先设定的阈值少的情况下,可以判定为学习的进展停滞(S126的是)。在该情况下,辅助处理部206可以向任意用户进行用于催促以主动地与第一对话模型100(培养角色902)交谈而教授语言的发话(S128)。
另外,在执行空间掌握功能的情况下,辅助处理部206例如在累积到空间信息中的数据量比预先设定的阈值小的情况下,可以判定为学习的进展停滞(S126的是)。在该情况下,辅助处理部206可以向任意用户进行不要妨碍第一对话模型100(实体沟通机器人30)的移动的发话(S128)。
如以上所说明的那样,在实施方式1所涉及的对话系统1中,第一对话模型100构成为通过与用户的沟通,向用户表现出的沟通功能从初始状态不断提高。另外,第二对话模型200构成为,利用比第一对话模型100的初始状态更为良好的沟通功能与用户进行对话,向用户进行辅助第一对话模型100的沟通功能的提高的发话。
通过以上述方式构成第一对话模型100,用户进行一定程度的付出,可以体验到使第一对话模型100成长。通过该体验,用户可以感觉到通过亲自培养第一对话模型100(培养角色902)而使第一对话模型100(培养角色902)得到成长。由此,用户可以对第一对话模型100(培养角色902)形成依恋。
另外,通过以上述方式构成第二对话模型200,即使第一对话模型100的沟通功能处于贫乏的状态,在用户使第一对话模型100(培养角色902)成长时,也能够抑制用户不知道做什么或者厌倦的情况。因此,用户能够积累使第一对话模型100顺利地成长的体验,所以用户能够对第一对话模型100(培养角色902)顺利地形成依恋。
即,用户通过接受第二对话模型200的辅助,能够不依赖于第一对话模型100的状态地使第一对话模型100成长。因此,用户能够可靠地体验到第一对话模型100通过与用户的对话而不断成长。由此,用户能够对第一对话模型100形成依恋。
另外,如上所述,实施方式1所涉及的第二对话模型200构成为,取得第一对话模型100的状态,并进行与状态相应的辅助。由此,第二对话模型200能够进行更适当的辅助。因此,用户更可靠地使第一对话模型100成长的情况成为可能。另外,如上所述,实施方式1所涉及的第二对话模型200构成为,在判定为第一对话模型100的沟通功能的提高停滞的情况下,进行辅助。因此,第二对话模型200能够在适当的时机进行辅助。因此,用户更可靠地使第一对话模型100成长的情况成为可能。
另外,如上所述,实施方式1所涉及的第二对话模型200构成为,向用户进行用于提示为了提高第一对话模型100的沟通功能而应当由用户进行的动作的发话。由此,用户能够容易地掌握为了使第一对话模型100成长而应当做什么。
另外,实施方式1所涉及的第二对话模型200与第一对话模型100不同,无需提高沟通功能。即,实施方式1所涉及的第二对话模型200的沟通功能的提高程度小于第一对话模型100的沟通功能的提高程度。如果第二对话模型200构成为进行成长,则用户可能会对第二对话模型200形成依恋。因此,如上所述,通过使第二对话模型200的沟通功能的提高程度比第一对话模型100的沟通功能的提高程度小(或完全不提高),从而能够抑制用户对第二对话模型200形成依恋的情况。因此,能够使用户对第一对话模型100可靠地形成依恋。
图9是例示实施方式1所涉及的辅助角色904与用户的对话的图。在图9的例子中,在显示部8显示有零件被分解的培养角色902x。并且,显示部8在用户图标910附近的吹出框910a显示了用户发话“应该做什么?”。作为其应答,显示部8在辅助角色904附近的吹出框904a显示了系统发话“进行零件收集游戏而组装出机器人”。在该情况下,用户可以操作输入部6来输入用户发话。
如此,实施方式1所涉及的第二对话模型200构成为,使用字符串,向用户进行用于提示用户应该进行的动作的发话。由此,第二对话模型200能够更可靠地与用户进行对话。因此,第二对话模型200与用户能够进行顺畅的沟通。
图10是用于说明实施方式1所涉及的信息发送部70的处理的图。在此,对话系统1是以图2所示的方式实现的。如上所述,通过第二对话模型200的辅助,可以提高第一对话模型100的沟通功能。在该情况下,在第一对话模型100的功能数据库108和学习信息存储部110中存储有与提高后的沟通功能相关的第一信息。信息发送部70通过有线、无线或网络,将该第一信息发送到实体沟通机器人30。由此,实体沟通机器人30具有与成长后的培养角色902相同的沟通功能。
因此,例如在针对培养角色902释放了换乘引导功能的情况下,实体沟通机器人30能够进行换乘引导。另一方面,在针对培养角色902未释放天气预报功能的情况下,实体沟通机器人30不进行天气预报。另外,在针对培养角色902将X先生的用户信息与面部图像和姓名建立对应地进行存储,且存储有单词“你好”的情况下,实体沟通机器人30能够识别出X先生,并发话“X先生你好”等。如此,实体沟通机器人30通过第一对话模型100的提高后的沟通功能,与用户进行沟通。
这里,对应用图10例示的情况的用户体验的一例进行说明。用户在自家操作搭载有对话系统1的用户终端,实体沟通机器人30配置在体育运动场等活动会场。用户使用搭载有对话系统1的用户终端,使培养角色902的沟通功能提高,而使培养角色902成长。之后,用户终端的信息发送部70向实体沟通机器人30发送第一信息。在该状态下,当用户(X先生)在活动会场与实体沟通机器人30进行了接触时,实体沟通机器人30发话“X先生你好”。并且,在活动会场中支持用户的行动。并且,例如在活动会场中进行运动,并且用户支持的队伍获胜时,实体沟通机器人30使用情感表现功能,表现出喜悦的情感表现。这可以通过实体沟通机器人30根据用户的表情等识别用户的情感来执行。另外,在第一对话模型100学习了用户的自家的地名的情况下,实体沟通机器人30在比赛结束时,自主地使用换乘引导功能,发话返回的换乘引导。
如此,信息发送部70构成为,将与提高后的沟通功能相关的第一信息发送到实体沟通机器人30。由此,用户能够获得与实体沟通机器人30进行沟通的体验,该实体沟通机器人30是用户自己所培养的虚拟角色作为实体而物理性地具体化所得的。因此,能够使用户对实体沟通机器人30形成强烈的依恋。
(变形例)
另外,本发明并不限定于上述实施方式,在不脱离主旨的范围内,能够适当地进行变更。例如,在上述流程图中,可以适当地变更多个处理的顺序。另外,在上述流程图中,也可以省略多个处理中的一个。
另外,在上述实施方式中,在图2中,示出了第一对话模型100(培养角色902)和第二对话模型200(辅助角色904)这两者都由用户终端实现的情况的例子。另外,在图3中,示出了第一对话模型100(培养角色902)由实体沟通机器人实现,第二对话模型200(辅助角色904)由用户终端实现的情况的例子。然而,第一对话模型100和第二对话模型200的实现方法并不限于上述例子。例如,第一对话模型100(培养角色902)及第二对话模型200(辅助角色904)这两者也可以都由实体沟通机器人实现。另外,也可以设为第一对话模型100(培养角色902)由用户终端实现,第二对话模型200(辅助角色904)由实体沟通机器人实现。
另外,在上述实施方式中,对话系统1分别具有一个第一对话模型100和一个第二对话模型200,但并不限定于这样的结构。第一对话模型100也可以为两个以上。同样地,第二对话模型200也可以为两个以上。
另外,辅助角色904不需要始终在对话系统1中表现给用户。例如,在培养角色902(第一对话模型)已充分成长(功能已提高)的情况下,对话系统1也可以不表现出辅助角色904。例如,在登记到功能信息(图5)中的所有释放功能的执行水平均为“可执行”,并且所有学习功能的执行水平均为“高”时,对话系统1(例如,辅助处理部206)可以判定为不需要进一步的辅助。
此外,在上述例子中,程序可以使用各种类型的非暂时性计算机可读介质(non-transitory computer readable medium)来存储,并且能够提供给计算机。非暂时性计算机可读介质包括各种类型的实体即记录介质(tangible storage medium)。非暂时性计算机可读介质的例子包括磁记录介质(例如,软盘、磁带、硬盘驱动器)、磁光记录介质(例如,磁光盘)、CD-ROM、CD-R、CD-R/W、半导体存储器(例如,掩模ROM、PROM(可编程ROM)、EPROM(可擦除PROM)、闪速ROM、RAM)。另外,程序也可以由各种类型的暂时性计算机可读介质(transitory computer readable medium)提供给计算机。暂时性计算机可读介质的例子包括电信号、光信号和电磁波。暂时性计算机可读介质可以通过电线和光纤等有线通信路径或者通过无线通信路径,将程序提供给计算机。
从所描述的公开内容中,显而易见的是,本公开的实施例可以以多种方式改变。这种改变不应被认为是脱离了本公开的主旨和范围,并且对于本领域的技术人员而言是显而易见的所有这些改变都旨在包括在所附权利要求的范围内。

Claims (9)

1.一种对话系统,其与用户至少进行基于对话的沟通,其中,
所述对话系统至少具有与用户至少进行对话的第一对话模型和第二对话模型,
所述第一对话模型构成为,通过与用户的沟通,并通过至少将预设在所述第一对话模型中的功能释放并能够执行该功能,来与用户进行性能提高了的沟通,由此向用户表现出的沟通功能从初始状态不断提高,
所述第二对话模型构成为,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而以对进行用于释放所述功能的动作进行辅助的方式向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
2.根据权利要求1所述的对话系统,其中,
所述第二对话模型取得所述第一对话模型的状态,进行与所述状态相应的辅助。
3.根据权利要求2所述的对话系统,其中,
所述第二对话模型在判定为所述第一对话模型的所述沟通功能的提高停滞的情况下,进行所述辅助。
4.根据权利要求1至3中任一项所述的对话系统,其中,
所述第二对话模型向用户进行用于提示为了提高所述第一对话模型的所述沟通功能而应当由用户进行的动作的发话。
5.根据权利要求4所述的对话系统,其中,
所述第二对话模型使用字符串来进行用于向用户提示所述动作的发话。
6.根据权利要求1至3、5中任一项所述的对话系统,其中,
至少所述第一对话模型作为用户终端中的虚拟角色而实现,
所述对话系统还具有信息发送部,该信息发送部将与所述第一对话模型的所述提高后的沟通功能有关的信息发送到与所述第一对话模型对应的实体沟通机器人。
7.根据权利要求1至3、5中任一项所述的对话系统,其中,
所述第二对话模型的所述沟通功能的提高程度小于所述第一对话模型的所述沟通功能的提高程度。
8.一种对话方法,其是使用对话系统进行的对话方法,所述对话系统与用户至少进行基于对话的沟通,其中,在所述对话方法中,
实现第一对话模型,所述第一对话模型中,通过与用户的沟通,并通过至少将预设在所述第一对话模型中的功能释放并能够执行该功能,来与用户进行性能提高了的沟通,由此向用户表现出的沟通功能从初始状态不断提高,并且
实现第二对话模型的功能,所述第二对话模型中,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而以对进行用于释放所述功能的动作进行辅助的方式向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
9.一种计算机可读介质,其存储有执行使用对话系统进行的对话方法的程序,所述对话系统与用户至少进行基于对话的沟通,其中,所述程序使计算机实现如下功能:
实现第一对话模型的功能,所述第一对话模型中,通过与用户的沟通,并通过至少将预设在所述第一对话模型中的功能释放并能够执行该功能,来与用户进行性能提高了的沟通,由此向用户表现出的沟通功能从初始状态不断提高;以及
实现第二对话模型的功能,所述第二对话模型中,利用比所述第一对话模型的初始状态更为良好的沟通功能与用户进行对话,而以对进行用于释放所述功能的动作进行辅助的方式向用户进行辅助所述第一对话模型的所述沟通功能的提高的发话。
CN202010111172.1A 2019-02-26 2020-02-24 对话系统、对话方法及计算机可读介质 Active CN111611359B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019032549A JP7107248B2 (ja) 2019-02-26 2019-02-26 対話システム、対話方法及びプログラム
JP2019-032549 2019-02-26

Publications (2)

Publication Number Publication Date
CN111611359A CN111611359A (zh) 2020-09-01
CN111611359B true CN111611359B (zh) 2023-07-04

Family

ID=72142951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010111172.1A Active CN111611359B (zh) 2019-02-26 2020-02-24 对话系统、对话方法及计算机可读介质

Country Status (3)

Country Link
US (1) US11210060B2 (zh)
JP (1) JP7107248B2 (zh)
CN (1) CN111611359B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207693A (ja) * 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
CN108140030A (zh) * 2015-09-24 2018-06-08 夏普株式会社 对话系统、终端、控制对话的方法及使计算机发挥对话系统功能的程序
JP2018142280A (ja) * 2017-02-28 2018-09-13 国立大学法人東北大学 対話支援装置及び対話装置
CN109063164A (zh) * 2018-08-15 2018-12-21 百卓网络科技有限公司 一种基于深度学习的智能问答方法
CN109165287A (zh) * 2018-09-10 2019-01-08 蛋壳机器人科技(天津)有限公司 基于机器人的信息自动筛选回复方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP4529091B2 (ja) * 2006-08-01 2010-08-25 ソニー株式会社 学習装置及び学習方法並びにロボット装置
US20150193111A1 (en) * 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
US20190332400A1 (en) * 2018-04-30 2019-10-31 Hootsy, Inc. System and method for cross-platform sharing of virtual assistants
JP7063779B2 (ja) * 2018-08-31 2022-05-09 国立大学法人京都大学 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法
US11016722B2 (en) * 2018-09-24 2021-05-25 Salesforce.Com, Inc. Database systems and methods for conversation-driven dynamic updates

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140030A (zh) * 2015-09-24 2018-06-08 夏普株式会社 对话系统、终端、控制对话的方法及使计算机发挥对话系统功能的程序
JP2017207693A (ja) * 2016-05-20 2017-11-24 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
JP2018142280A (ja) * 2017-02-28 2018-09-13 国立大学法人東北大学 対話支援装置及び対話装置
CN109063164A (zh) * 2018-08-15 2018-12-21 百卓网络科技有限公司 一种基于深度学习的智能问答方法
CN109165287A (zh) * 2018-09-10 2019-01-08 蛋壳机器人科技(天津)有限公司 基于机器人的信息自动筛选回复方法

Also Published As

Publication number Publication date
JP7107248B2 (ja) 2022-07-27
JP2020134905A (ja) 2020-08-31
US20200272413A1 (en) 2020-08-27
CN111611359A (zh) 2020-09-01
US11210060B2 (en) 2021-12-28

Similar Documents

Publication Publication Date Title
US10832674B2 (en) Voice data processing method and electronic device supporting the same
US11017779B2 (en) System and method for speech understanding via integrated audio and visual based speech recognition
WO2017168870A1 (ja) 情報処理装置及び情報処理方法
US20220020360A1 (en) System and method for dialogue management
JP3945356B2 (ja) 音声対話装置及びプログラム
US11455986B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
US20180257236A1 (en) Apparatus, robot, method and recording medium having program recorded thereon
US20220101856A1 (en) System and method for disambiguating a source of sound based on detected lip movement
US20190251966A1 (en) System and method for prediction based preemptive generation of dialogue content
KR20200059112A (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
US20180033432A1 (en) Voice interactive device and voice interaction method
CN112634886B (zh) 一种智能设备的交互方法、服务器、计算设备及存储介质
CN111611359B (zh) 对话系统、对话方法及计算机可读介质
CN110737422B (zh) 一种声音信号采集方法及装置
US11990115B2 (en) Road map for audio presentation of communications
US11853650B2 (en) Audio presentation of conversation threads
JP7459791B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN117744700A (zh) 电子仿生人系统和电子仿生人行为的确定方法
KR20200048976A (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant