CN1842787A - 对话支援装置 - Google Patents

对话支援装置 Download PDF

Info

Publication number
CN1842787A
CN1842787A CNA2005800008394A CN200580000839A CN1842787A CN 1842787 A CN1842787 A CN 1842787A CN A2005800008394 A CNA2005800008394 A CN A2005800008394A CN 200580000839 A CN200580000839 A CN 200580000839A CN 1842787 A CN1842787 A CN 1842787A
Authority
CN
China
Prior art keywords
dialogue
speech
mentioned
resume
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2005800008394A
Other languages
English (en)
Other versions
CN1842787B (zh
Inventor
水谷研治
冲本纯幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1842787A publication Critical patent/CN1842787A/zh
Application granted granted Critical
Publication of CN1842787B publication Critical patent/CN1842787B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供一种对话支援装置,能够支援无论是什么样的对话对方,都可以很快地完成对话。对话支援装置100具有:发言接受部101和发言接受部103,可以接受参与对话的人的发言,并将用于指定发言的发言信息输出;发言输出部102和发言输出部104,可以把其他的参与对话的人的发言信息作为发言来输出;发言处理部105,将由发言信息特定的发言分别转换为其他的发言形式;对话履历选择部107,可以根据发言预测部106所取得的指定参与对话的人的信息和对话状况,检索服务器装置200中的对话履历数据库201,再从对话履历数据库201中选择最适当的对话履历;以及发言预测部106,根据选择的对话履历,预测对话中的发言。

Description

对话支援装置
技术领域
本发明涉及对人与人的对话进行支援的对话支援装置。
背景技术
过去,人们在海外旅行地等与当地人对话时,为了支援不同语言的对话,开发了翻译装置。例如,作为有代表性的PDA(PersonalDigital Assistance)等小型的信息处理装置里配有基于例文和例句的对译翻译方式的翻译装置。像这样的装置,为了包容旅行对话的一般用语,准备了几千个以上的例句,以便用户可以根据自己的需要从所列的名单中以目视的方式选择例句。然而,在实际使用过程中的方便性来看,仍然存在着使用的适用性问题。特别是在查看例句的名单时,显示屏过小,同时能够查看的例句数也比较少的情况下,这样使用的适用性问题就变得更加突出。还有,再设想一下翻译装置的一般的使用状况,在与对方的对话的中,大体上还是需要使用很多的例句,这样,利用翻译装置完成一个对话所需要的时间超过想像。因此,把支援人与人的对话作为最终目的,为了能够从大量的例句名单中快速的选择用户所需要的例句,必然就会需要具备某种选择辅助功能。
作为解决这个问题的方法之一,提出了利用对话模式例子和会话练习履历汇编,缩小用户下一个候补发言范围的方案(例如,参见日本专利文献1)。
专利文献1:特开2003-30187号公报
发明内容
根据以前用户利用翻译装置的对话履历,缩小下一个候补发言的范围,若对方的对话内容在此范围内时,此方案能够发挥效用。还有,根据用户事先设想的对话练习的履历和典型的对话模式等,缩小下一个候补发言的范围,若对方的对话内容符合自己设想的对话模式时,此方案能够发挥效用。然而,在一般情况下,对话的模式是因人而异的。例如,在做列车预约时,旅客与车站工作人员的对话为例,针对旅客的发言“想预约列车”,车站工作人员有可能会从“要乘哪天的列车?”即,从询问列车的日期和时间来开始对话。另外,其他的车站工作人员还有可能从询问要到达的目的地开始对话,即,从“要到哪里?”开始询问。所以,存在如下问题:由于对话者不同,不仅会导致缩小候补发言范围的失败,还会导致因错误的信息造成对话者之间的意思混乱。这样,到对话结束所花费的时间反而会增加。
因此,鉴于上述情况,本发明的目的在于提供一种不论对话的对方是怎样的人,都可以迅速地顺利完成对话的对话支援装置。
为了达到上述目的,涉及本发明的支援参与对话的人所进行的对话的对话支援装置,其特征在于具有:对话履历选择机构,从存储上述参与对话的人及上述参与对话的人以外的人的对话履历的对话履历数据库中,按照指定上述参与对话的人的信息及对话状况选择对话履历;以及发言预测机构,根据上述对话履历选择机构中选择的上述对话履历,预测在上述对话中上述参与对话的人的下一个发言。
发明效果
若采用本发明的对话支援装置,用户可以容易地从下一个发言候补中选择例句。因此,不会使对话对方等待过久,通过对话支援装置能够使对话顺利进行。
附图说明
图1是表示本发明的对话支援系统的一个实施方式的结构框图。
图2是表示参与对话的人1及参与对话的人2的发言和发言编号的对应关系的例子的图。
图3(a)、(b)、(c)、(d)、(e)是表示存储在对话履历数据库中的对话履历的例子的图。
图4是表示利用本发明的对话支援装置的场景的例子的图。
图5是表示发言预测部的动作流程的流程图。
图6是表示本发明的对话支援装置的显示例的图。
图7是表示本发明的对话支援装置的显示例的图。
图8是表示对话履历选择部的动作流程的流程图。
图9(a)、(b)是表示定义对话履历类似度的数学式及计算的例子的图。
图10是表示调整对话履历的发言数的动态程序设计的算法图。
图11是表示对话履历d4适用了动态程序设计后的例子的图。
图12是表示决定发言块的算法的图。
图13是表示对话履历计算了比分的结果的图。
图14是表示本发明的对话支援装置的显示例的图。
图15是表示本发明的对话支援装置的其他的显示例的图。
图16是表示本发明的对话支援装置的其他的显示例的图。
图17是表示本发明的对话支援装置的其他的显示例的图。
图18是表示本发明的对话支援装置的其他的显示例的图。
图19是表示本发明的对话支援装置的其他的显示例的图。
图20是表示本发明的对话支援装置的其他的显示例的图。
图21是表示本发明的对话支援装置的其他的显示例的图。
图22是表示本发明的对话支援装置的其他的显示例的图。
图23是表示本发明的对话支援装置的其他的显示例的图。
图24是表示新生成的对话和对话履历的类似度进行比较的例子的图。
图25是表示参与对话的人1及参与对话的人2的发言和发言编号的对应关系的例子的图。
图26(a)、(b)、(c)、(d)、(e)是表示存储在对话履历数据库中的对话履历的例子的图。
图27是表示本发明的对话支援装置的显示例的图。
图28是表示本发明的对话支援装置的其他的显示例的图。
图29是表示本发明的对话支援装置的其他的显示例的图。
图30是表示本发明的对话支援装置的其他的显示例的图。
图31是表示本发明的对话支援装置的其他的显示例的图。
图32是表示本发明的对话支援装置的其他的显示例的图。
图33是表示本发明的对话支援装置的其他的显示例的图。
图34是表示本发明的对话支援装置的其他的显示例的图。
图35是表示本发明的对话支援装置的其他的显示例的图。
图36是表示本发明的对话支援系统的其他的实施方式的结构框图。
图37是表示本发明的对话支援装置的显示例的图。
图38是表示本发明的对话支援装置的显示例的图。
图39是表示本发明的对话支援系统的其他的实施方式的结构框图。
图40(a)、(b)是表示每个参与对话的人具备本发明的对话支援装置的显示例的图。
图41(a)、(b)是表示每个参与对话的人具备本发明的对话支援装置的其他的显示例的图。
图42(a)、(b)是表示每个参与对话的人具备本发明的对话支援装置的其他的显示例的图。
图43(a)、(b)是表示每个参与对话的人具备本发明的对话支援装置的其他的显示例的图。
编号说明
101发言接受部
102发言输出部
103发言接受部
104发言输出部
105发言处理部
106发言预测部
107对话履历选择部
108通信部
200服务器装置
201对话履历数据库
202通信部
601对谈开始键
801与对话履历db相对的对话履历da的类似度进行定义的数学式
802类似度计算的例子
1031参与对话的人1的发言输入输出领域
1302参与对话的人2的发言输入输出领域
1303结束对谈键
1304参与对话的人1的发言输入领域
1305参与对话的人2的发言输入领域
1306给参与对话的人1的发言输出领域
1307给参与对话的人2的发言输出领域
1308给参与对话的人1的预测表示领域
1309给参与对话的人2的预测表示领域
2301参与对话的人1的PDA
2302参与对话的人2的PDA
2303参与对话的人1的对话预测展开键
2304参与对话的人2的对话预测展开键
2401给参与对话的人1的预测展开表示领域
2402给参与对话的人2的预测展开表示领域
具体实施方式
本发明的实施方式中的对话支援装置是对参与对话的人所进行的对话进行支援的对话支援装置,其特征在于具有:对话履历选择机构,从存储上述参与对话的人及上述参与对话的人以外的人的对话履历的对话履历数据库中,按照指定上述参与对话的人的信息及对话状况选择对话履历;以及发言预测机构,根据上述对话履历选择机构中选择的上述对话履历,预测在上述对话中上述参与对话的人的下一个发言。
因此,利用自己的对话履历和对方的对话履历,检索与有可能出现的对话最接近的履历,参与对话的人以外的人的履历也包含在内进行检索,根据检索出来的履历能够预测下一个发言,这样,对话的对方不论是怎样的人,都可以支援对话迅速结束。
在此,最好是上述对话履历选择机构从上述参与对话的人的各自的对话履历中,能够将与上述对话状况最接近的对话履历作为各自的基准对话履历抽出,并选择与各自的上述基准对话履历类似度高的对话履历。
因此,根据与基准对话履历类似度高的对话履历,可以预测参与对话的人的下一个发言。
并且,上述对话支援装置也可以进一步具有,发言接受机构,受理上述参与对话的人的发言;发言处理机构,把由上述发言接受机构受理的上述发言转换为其他的发言形态;以及发言输出机构,输出由上述发言处理机构所转换的上述其他的发言形态的上述发言。
因此,可以支援例如日、英语之间的对话等的不同语言的对话。
而且,本发明不仅实现了这样的对话支援装置,而且还实现了将这种对话支援装置所具有的特征结构步骤化的对话支援方法,这里所具有的步调性是通过计算机所实行的程序来实现的。并且,像这样的程序当然还可以通过CD-ROM等记录介质或因特网等传送介质进行发送。
以下,参照附图,说明本发明的实施方式。
图1是表示本发明的对话支援系统的一个实施方式的结构框图。
对话支援系统是支援人与人的对话的系统,如图1所示具有,对话支援装置100,以及通过网络300和该对话装置100连接的服务器装置200。
服务器装置200具有对话履历数据库201及通信部202。对话履历数据库201存储了各种对话履历。通信部202,通过网络300与对话支援装置100进行通信。
另一方面,如图1所示,对话支援装置100具有:发言接受部101、发言输出部102、发言接受部103、发言输出部104、发言处理部105、发言预测部106、对话履历选择部107以及通信部108。
在此,发言接受部101和发言接受部103相当于发言接受机构;发言输出部102和发言输出部104相当于发言输出机构;发言处理部105相当于发言处理机构;发言预测部106相当于发言预测机构;对话履历选择部107相当于对话履历选择机构。
发言接受部101接受参与对话的人1的发言,并且输出为了指定发言的发言信息。发言输出部102对参与对话的人1输出作为发言的来自其他的参与对话的人的发言信息。同样,发言接受部103接受参与对话的人2的发言,并且输出发言信息。发言输出部104对参与对话的人2输出作为发言的来自其他参与对话的人的发言信息。发言处理部105根据从发言接受部101被输出的发言信息和从发言接受部103被输出的发言信息,把特定的发言分别转换为其他的发言形态。
发言预测部106在对话开始之前,从参与对话的人1和参与对话的人2中分别取得参与对话的人的认证信息和对话状况。并且,发言预测部106在对话开始后,在发言接受部101受理来自参与对话的人1的发言之前,或在发言接受部103受理来自参与对话的人2的发言之前,预测对话中的发言,并表示在显示屏等上。
对话履历选择部107根据发言预测部106取得的认证信息,检索服务器装置200中的对话履历数据库201,并选择对话履历数据库201中最适合的对话履历。通信部108,通过网络300与服务器装置200进行通信。
以下说明,在上述被构成的对话支援系统中,支援不同语言的对话时的动作。在此,假定参与对话的人1使用日语会话;参与对话的人2使用英语会话。图2是表示参与对话的人1及参与对话的人2的发言和发言编号的对应关系的例子的图。
发言接受部101将受理的参与对话的人1的发言转换为与此相当的发言信息。例如,发言信息则是图2中的发言编号。发言处理部105将参与对话的人1的发言(日语)转换为给参与对话的人2的发言(英语),并输出字符串。例如,当输入发言编号1时,向发言输出部104输出作为发言信息的字符串“May I help you(欢迎光临)?”。
相反,发言接受部103则将受理的参与对话的人2的发言转换为与此相当的发言信息。发言信息,例如是图2的发言编号,发言处理部105将参与对话的人2的发言(英语)转换给参与对话的人1的发言(日语),并输出字符串。例如,当发言编号1被输入的时候,则对发言输出部102输出作为发言信息字符串的“いらつしやいませ(欢迎光临)”。以后,为了能够进行简单地说明,在考虑到语言方向的基础之上,略记为:用J1表示来自参与对话的人1的发言编号1;用E1表示来自参与对话的人2的发言编号1。
发言接受部101让参与对话的人1直接选择图2中日语的名单的部分,作为发言信息输出与之相对应的发言编号。同时,发言接受部103,让参与对话的人2直接选择图2中英语的名单的部分,作为发言信息输出与之相对应的发言编号。再者,关于发言接受部101和发言接受部103的构成,也可以是利用语音识别处理,将参与对话的人的语音经过射影处理,可以使其与发言编号中的某一个相对应。此外,还可以从键盘输入发言的记载和发音相当的字符串,可以使之射影到与发言编号中相对应的某一个。
图3是表示存储在对话履历数据库201中的对话履历的例子的图。所谓对话履历是指,根据参与对话的人过去所进行的发言的履历,是按照各参与对话的人的发言时刻的顺序排列的。发言是与图2所定义的发言的某一个相对应的。再者,即使是同样的发言编号,根据参与对话的人的不同也必须要区别开,将代表日语的J和代表英语的E添加在各自发言编号的前面,作为在对话履历中的发言标识。以后,为了进行简单说明,将1个对话履历在具有其标识的行列中进行记述。例如,对话履历d1记述为d1:E1,J2,E3,J4,E5,J6,E7,E8。在对话履历中记录了参加该对话的参与对话的人的认证信息和对谈的话题(对话状况)。例如对话履历d1中,记下的信息为,J的发言为太郎,E的发言为Tom,话题场景为宾馆。
以下说明,如图4所示,参与对话的人1为日本人游客,参与对话的人2为说英语的宾馆的服务台的职员,以在办理宾馆的入住登记时的对话为例。
图5是表示发言预测部106的动作流程的流程图。首先,发言预测部106为了进行发言预测,进行对所需的参与对话的人的指定和对谈话题的指定(步骤S401)。在例如作为PDA而实现的如图6所示的对话支援装置100中,由参与对话的人通过触摸屏,直接输入参与对话的人1和参与对话的人2的名字,以及对谈的话题,从而取得有关参与对话的人的信息。再者,参与对话的人的认证信息的取得除像上述的手动方法以外,还可以以利用指纹认证和信用卡的个人信息,实现了自动获得的方法。再者,关于对谈的话题的取得,除了用这种手动的方法以外,还可以从自动获得的PDA的存在环境的信息(例如,餐厅、医院、宾馆等的场所信息)中,实现了自动联想的方法。
发言预测部106如图7所示,如果点触对话开始键601的话,对话履历选择部107就会作成预测堆栈(步骤S402)。
图8是表示对话履历选择部107的动作的流程图。对话履历选择部107,是按照从发言预测部106中所通知的参与对话的人的认证信息和对谈话题的相关信息,决定对话履历数据库201中包含的参与对话的人1的对话履历dr1和参与对话的人2的对话履历dr2(步骤S701)。即,通过检索与参与对话的人1的认证信息和对谈话题相对应的对话履历来决定对话履历dr1;通过检索与参与对话的人2的认证信息和对谈话题相对应的对话履历来决定对话履历dr2。例如,如果对话履历数据库201中图3所表示的对话履历存在的情况下,决定对话履历dr1=对话履历d1,对话履历dr2=对话履历d3。理由为,对话履历d1的J的发言是太郎,对话履历d3的E的发言是Hanako,各自的对谈话题的场景是在宾馆。对话履历d5的J的发言虽然是太郎,但是,因为对谈的话题为出赁汽车,所以不被选择。再者,当在符合对话履历数据库201中不存在相应的对话履历的情况下,可以通过忽视对谈的话题,检索对话履历,选择最接近的履历,使处理能够继续进行。
然后,对话履历选择部107,是关于对话履历数据库201中,除对话履历dr1和对话履历dr2以外的全部的对话履历d计算比分scoe(d)=r(d|dr1)+r(d|dr2)(步骤S702)。r(da|db)是对话履历da对于对话履历db的类似度,根据图9(a)表示的数学式801进行定义。在此,发言块定义为连续的发言的集合。size(d)是对话履历中包含的发言块的数,size(b)是发言块b中包含的发言的数。例如,在图9类似度计算的例802中,因为对话履历da由4个发言块构成,所以,size(da)=4。再者,各发言块中含有的发言的数,分别为:size(b1)=5,size(b2)=2,size(b3)=4,size(b4)=1,由此可以计算出r(da|db)约等于0.424。根据上式,类似度r的值越大,2个对话履历的类似度就越高。并且,类似度和发言的集合的数成反比例关系,共通的发言块的数越少类似度就越高。并且,类似度与各集合中包含的发言数的平均成正比例,1个发言块中包含的发言数越多类似度就越高。
图10是表示调整对话履历的发言数的动态程序设计法的算法的图。利用这个动态程序设计法调整2个对话履历的发言数,使之成为相同的数之后,进行上述的类似度的计算。为了计算对话履历d4对对话履历d1的类似度r(d4|d1),将图10的动态程序设计法中适用于对话履历d4的例子表示在图11中。在被调整的对话履历d4’中,标识φ的发言是为了与d1的发言数相同而被追加的空的发言。类似度r(d4|d1)的值以类似度r(d4’|d1)的值来计算。
图12是表示发言块的决定算法的图。基本上,2个对话履历中包含的发言块的数以最小的发言块的数来决定。
首先,把发言串A和发言串B的长度,利用动态程序设计法,使之成为同样的长度(步骤S1201)。把发言串A(发言串B)中包含的发言数作为m(步骤S1202)。然后,再将1赋值给i(步骤S1203)。判断发言串B中是否存在A[i](步骤S1204)。并且,A[i]是表示在发言串A中第i个发言。并且,关于φ,当A[i]=φ,B[j]=φ的时候,不认为A[i]和B[j]相同。如果这个判断的结果,发言串B中存在A[i](步骤S1204的是)的情况下,则上述发言为B[j](步骤S1205)。并且,求出从A[i]到A[i+n]及从发言串B[j]到B[j+n]中求出相同的最大的n值,并各自作为1个块(步骤S1206)。然后,将i+n+1赋值给i(步骤S1207)。
若判断发言串B中是否存在A[i]的结果为,发言串B中不存在A[i](步骤S1204的否)的情况下,则把A[i]作为一个块(步骤S1208)。然后,将i+1赋值给i(步骤S1209)。
然后,判定是否为i>m(步骤S1210)。不是i>m(步骤S1210的否)的情况下,再重新判断A[i]是否存在于发言串B中,判断处理之后,重复该步骤(步骤S1204~S1207)。另一方面,是i>m(步骤S1210的是)的情况下,结束处理。
例如,在图9(b)中,对于对话履历db:u6,u7,u1,u2,u3,u4,u5,u8,u9,u10,u11,u13,对话履历da:u1,u2,u3,u4,u5,u6,u7,u8,u9,u10,u11,u12,将成为da:(u1,u2,u3,u4,u5),(u6,u7),(u8,u9,u10,u11),u12。被括号括起来的发言的标识,相当于1个发言块。但是,当只是由1个发言构成发言块的时候,为了表示的简单省略了括号。
图13表示的是对话履历数据库201中存储了图3中所示的对话履历,对话履历dr1=对话履历d1,对话履历dr2=对话履历d3时,针对对话履历dr1和对话履历dr2以外的所有的对话履历d计算出比分score(d)=r(d|dr1)+r(d|dr2)后的结果的图。
然后,对话履历选择部107选择比分score(d)的最大的对话履历d=对话履历dmax(步骤S703)。图13表示的例子为选择了对话履历d2。
对话履历选择部107对于对话履历dmax,与对话履历dr1和对话履历dr2同样适用于图12中发言块的决定算法,把发言块进行分割作为预测堆栈(步骤S704)。并且,在鉴别连续的发言的处理(步骤S1206)中,添加以下限制:超过已决定的发言块的境且不连续。例如,以对话履历dr1=对话履历d1和对话履历dr2=对话履历d3分割对话履历dmax=对话履历d2时,首先,根据对话履历d1将对话履历d2:E1,E8,J2,E3,J4,E5,J6,E7分割为3个发言块,即:对话履历d2:E1,E8,(J2,E3,J4,E5,J6,E7),再根据对话履历d3,进一步将对话履历d2:E1,E8,J2,(E3,J4),(E5,J6,E7)分割为5个发言块。对话履历选择部107,将对话履历d2作为预测堆栈,通知给发言预测部106。
并且,对话履历选择部107在进行图12所示的发言块决定算法中,进行发言是否在2个对话履历中共同包含的判断处理(步骤S1204,S1206),不过,除发言信息的一致,即发言编号的一致以外,也可以利用自然语言处理,通过发言的表层表现(文字表现)的一致性,或实义词的一致性等来判断。例如,一方的对话履历中有发言“ありがとう(谢谢)。”而另一方的对话履历中有发言“ありがとうございます(‘谢谢’的尊敬语表现)。”的情况下等,即使这样的发言为不同的发言编号,但因其表层表现比较接近,则会判断为这2个对话履历含有共同的发言。一方的对话履历中有发言“Thank you(谢谢).”,另一方的对话履历中有发言“Thank you very much(‘谢谢’的正式表现).”的情况也相同。再者,一方的对话履历中有发言“これを3セツト 答用に包んで下さい(请把这个包装成送礼用的3份)。”另一方的对话履历的发言为“ 答用に3セシト(送礼用3份)、これを包んで下さい(请把这个包装起来)。”的情况下等,其中内容语被定义为(これ(这个)、包む(包装)、3セツト(3份)、 答用(送礼用))的话,所包含的共同的实义词比较多,就会判断为2个对话履历含有共同的发言。而且,还可以组合使用这些判断方法。由于有了这样灵活的判断,即使在仅使用发言编号的一致无法检索到适当的对话履历时,也可以检索适当的对话履历。
在此,回到图5所表示的流程图的说明。
发言预测部106在接受了来自对话履历选择部107的发言预测堆栈之后,判断预测堆栈是否处于空的状态(步骤S403)。由于对话履历选择部107不能在对话履历数据库201中检索到适当的对话履历等理由,预测堆栈为空(步骤S403的是)的情况下,发言预测部106则不进行发言预测动作而结束。
另一方面,预测堆栈不是空(步骤S403的否)的情况下,发言预测部106把预测堆栈的先头的发言作为下一个发言候补来表示(步骤S404)。图14是表示对话开始时的对话支援装置100的表示状态的图。表示领域的上半部分是参与对话的人1的发言输入输出领域1301,下半部分是参与对话的人2的发言输入输出领域1302。结束键1303是结束对谈时候的按键。参与对话的人1利用发言接受部1304,参与对话的人2利用发言接受部1305,可以从图2中所定义的全部的发言中,选择任意的发言给其他的参与对话的人。在发言处理部105中被转换的发言,分别输出到给参与对话的人1的发言输出部1306和给参与对话的人2的发言输出部1307,例如利用PDA中内置的语音合成处理,在表示的同时读出。在预测表示领域1308表示出,根据发言预测部106被预测的参与对话的人1的发言,在预测表示领域1309表示出,根据发言预测部106被预测的参与对话的人2的发言。参与对话的人1或参与对话的人2,分别选择预测表示领域1308或预测表示领域1309中所表示的发言,这样可以省略从实例的名单1304或1305中检索并选择发言的操作。即,可以迅速输入发言。
像上述例子所示,在作成预测堆栈时,发言预测部106在预测表示领域1309中表示预测堆栈E1,E8,J2,(E3,J4),(E5,J6,E7)的开头的发言E1:“May I help you(欢迎光临)?”。参与对话的人2虽然可以从实例的名单1305选择发言,但是因为在预测表示领域1309中已经表示出自己想发言的内容,所以如图15所示的那样,则选择该发言。发言E1在发言处理部102中被转换为日语,对参与对话的人1发言“いらつしやいませ(欢迎光临)。”。
在此,发言预测部106判断参与对话的人的发言是否被输入(步骤S405)。如果参与对话的人的发言被输入(步骤S405的是)时,发言预测部106在预测堆栈中从开头检索一致的发言(步骤S406),并判断是否有一致的发言(步骤S407)。当有一致的发言的情况下(步骤S407的是),判断该一致的发言是否在预测堆栈的开头(步骤S408)。如果在开头的时候(步骤S408的是),消除预测堆栈开头的发言,并将预测堆栈进行更新(步骤S409)。另一方面,如果不在开头的时候(步骤S408的否),此时将含有一致的发言的块移动到预测堆栈的开头后,消除从开头到该发言为止的发言,将预测堆栈进行更新(步骤S410)。并且,返回到判断预测堆栈是否为空的处理(步骤S403)。
上述的例子表示,由于从参与对话的人的发言为E1,所以将预测堆栈更新为E8,J2,(E3,J4),(E5,J6,E7)。并且,返回到判断预测堆栈是否为空的处理(步骤S403),因预测堆栈还没有处于空的状态,所以如图16所示的那样,在预测表示领域1309中表示,开头的发言E8:“Please fill in this form(请写在这张单子上).”,等候来自用户的发言。
参与对话的人2虽然可以从实例的名单1305中选择发言,但是因为在预测表示领域1309中已经表示出自己想发言的内容,所以如图17所示,如果选择预测表示领域1309的话,E8在发言处理部102被转换为日语,对参与对话的人1发言“このカ一ドに記人して下さい(请写在这张单子上)”。同样,发言预测部106将预测堆栈更新为J2,(E3,J4),(E5,J6,E7),如图18所示,在1308中表示J2:“チエックインをお願いします(可以办理入住吗)。”
参与对话的人1虽然可以从实例的名单1304中选择发言,但是因为预测表示领域1308已经表示出自己想发言的内容,所以如图19所示,若选择预测表示领域1308的话,J2将在发言处理部102被转换为英语,对参与对话的人2发言“Check-in,please(可以办理入住吗).”。同样,发言预测部106将预测堆栈更新为(E3,J4),(E5,J6,E7),如图20所示,在预测表示领域1309中表示E3:“Have you made reservation(您预定过了吗)?”。这样参与对话的人1或参与对话的人2,不需要从实例的名单1304或1305中检索希望的发言,就可以很快地向对方传达自己的意图,消减了对话的所要时间。
以下说明下述情况,例如参与对话的人2,不从预测表示领域1309中选择图20中发言预测部106所预测的发言E3:“Haveyou made reservation(您预定过了吗)?”,而选择如图21所示,从实例的名单1305中检索并选择了E5:“Do you prefer smokingroom(您吸烟吗)?”
发言预测部106从预测堆栈中检索E5,但是,E5不是预测堆栈的开头。在此,发言预测部106将含有E5的发言块移动到预测堆栈的开头,使之成为(E5,J6,E7),(E3,J4)。然后,通过消除E5,将预测堆栈更新为(J6,E7),(E3,J4)。因此,下面的发言候补的表示处理(步骤S404)中,如图22所示那样,作为预测候补,在预测表示领域1308中表示,J6:“禁煙でお願いします(我想要禁烟的房间)。”并且,如图23所示那样,参与对话的人1从预测表示领域1308中选择“禁煙でお願いします(我想要禁烟的房间)。”很快地对话会继续进行。这样在本实施方式中,即使参与对话的人不选择根据发言预测部106预测的发言,也能够从此时点开始预测今后的对话,并且灵活地对对话进行支援。
在此,对本发明的效果做了定量性地验证。一般来说,对话顺畅地进行的程度,是与参与对话的人的对话履历的类似度成正比例的。在此,采用图9的定义,对类似度做具体地量化。参与对话的人1和参与对话的人2,只选择发言预测部106的预测表示领域1308和1309中所表示的发言完成对话的情况下,形成如图24所示的对话履历2403。对话履历2403,与对话履历选择部107所决定的dmax(图3的对话履历d2)等价。参与对话的人1的对话履历2401(对话履历选择部107决定的dr1,即图3的d1)和参与对话的人2的对话履历2402(对话履历选择部107决定的dr2,即图3的d3)的类似度为0.12;对此,对话履历2403和对话履历2401的类似度为0.41;对话履历2403和对话履历2402的类似度为0.16;由此可知,按照利用dmax按照预测所进行的对话,比按照dr1或dr2的任一个所进行的对话要顺畅得多。再者,在图20中参与对话的人2,不选择发言预测部106预测的发言,而将对话继续且完了的情况下,形成对话履历2404。对话履历2404和对话履历2401的类似度为0.16;对话履历2404和对话履历2402的类似度为0.16,由此可知即使使用这样的方法,利用dmax按照预测所进行的对话,比按照dr1或dr2任一个所进行的对话要顺畅得多。
到此为止,对在对话支援系统中参与对话的人1说日语,参与对话的人2说英语,进行了假定的说明,以下,将对参与对话的人1说中文,参与对话的人2说英语,进行假定说明。图25是表示参与对话的人1及参与对话的人2的发言,以及与发言编号的对应关系的示例图。
发言接受部101,将所接受的参与对话的人1的发言转换为相应的发言信息。发言信息例如是在图2中的发言编号。发言处理部105将参与对话的人1的发言(中文)转换给参与对话的人2的发言(英语),并输出字符串。例如,在输入发言编号1时,对于发言输出部104所输出的作为发言信息的字符串为“May I help you(欢迎光临)?”
相反,发言接受部103,将所接受的参与对话的人2的发言转换为相应的发言信息。发言信息例如是图25的发言编号,发言处理部105将参与对话的人2的发言(英语)转换成给参与对话的人1发言(中文),并输出字符串。例如,当输入发言编号1的时候,对发言输出部102输出作为发言信息的字符串“欢迎光临”。以后,由于考虑到语言方向的问题,为了简单说明,C1略记为来自参与对话的人1的发言编号1,E1略记为来自参与对话的人2的发言编号1。
发言接受部101让参与对话的人1直接选择图25的中文名单的部分,作为发言信息输出该发言编号。同时,发言接受部103,让参与对话的人2直接选择图25的英语名单的部分,作为发言信息输出该发言编号。再者,关于发言接受部101以及发言接受部103的构成,也可以是利用语音识别处理,通过将参与对话的人的语音经过射影处理,使其与发言编号中的某一个相对应。同时,利用键盘输入与发言的记载和发音相当的字符串,可以利用射影,使其与发言编号中的某一个相对应。
图26是表示对话履历数据库201中所存储的对话履历的示例图。所谓对话履历是指,根据参与对话的人过去进行的发言的履历,是按照各参与对话的人的发言时刻的顺序排列的。发言则相当于图25中所定义的发言的某一个。再者,即使是同样的发言编号,因参与对话的人的不同也要进行区分,所以,在各发言编号前附加上表示中文的C和表示英语的E,定义为作为在对话履历中发言的标识。以后,为了简单说明,用该标识的串记述1个对话履历。例如,对话履历d6记述为d6:E1,C2,E3,C4,E5,C6,E7,E8。对话履历中记录了进行该对话的参与对话的人的认证信息和对谈的话题(对话状况)。例如对话履历d6所记载的信息为,C的发言为太郎,E的发言为Tom,话题为宾馆。
以下作为例子说明,如图4所示,参与对话的人1为说中文的游客,参与对话的人2为说英语的饭店服务台的职员,为了办理饭店入住手续而进行对话的情况。再者,因发言预测部106和对话履历选择部107的动作流程与上述相同,采用图5和图8所示的流程图进行说明,有关与上述相同的部分省略说明。
发言预测部106首先为了进行发言预测,就要对参与对话的人及对谈话题进行指定(步骤S401)。例如作为PDA所实现的如图27所示的对话支援装置100中,让参与对话的人直接通过触摸屏输入参与对话的人1和参与对话的人2的名字,以及对谈的话题,从而取得有关参与对话的人的信息。
发言预测部106如图28所示,若触击对谈开始键601(开始对谈),使对话履历选择部107作成预测堆栈(步骤S402)。
对话履历选择部107根据从发言预测部106得到的参与对话的人的认证信息和对谈的话题相关的信息,决定对话履历数据库201中所含的参与对话的人1的对话履历dr1和对话履历参加者2的对话履历dr2(步骤S701)。例如,对话履历数据库201中,如图26所示存在对话履历的情况下,决定对话履历dr1=对话履历d6,对话履历dr2=对话履历d8。其理由在于,对话履历d6中C的发言为太郎,对话履历d8中E的发言为Hanako,各自的对谈的话题均为饭店。对话履历d5中C的发言虽然为太郎,但是对谈的话题为出赁汽车,所以不选择。
然后,对话履历选择部107,是关于对话履历数据库201中包含的对话履历dr1和对话履历dr2以外的全部的对话履历d,与上述同样计算比分score(d)=r(d|dr1)+r(d|dr2)(步骤S702)。然后,对话履历选择部107,选择比分score(d)中最大的对话履历d=对话履历dmax(步骤S703)。在此,对话履历d7被选择。
对话履历选择部107,对对话履历dmax,与对话履历dr1和对话履历dr2同样,适用于图12的发言块决定算法,分割发言块作为预测堆栈(步骤S704)。例如,在使用对话履历dr1=对话履历d6和对话履历dr2=对话履历d8分割对话履历dmax=对话履历d7时,首先根据对话履历d6,将对话履历d7:E1,E8,C2,E3,C4,E5,C6,E7,分割为对话履历d7:E1,E8,(C2,E3,C4,E5,C6,E7)的3个发言块,再根据对话履历d8,进一步分割为对话履历d7:E1,E8,C2,(E3,C4),(E5,C6,E7)的5个发言块。对话履历选择部107将该对话履历d7作为预测堆栈通知给发言预测部106。
这样,从对话履历选择部107接受了被作为发言预测堆栈的发言预测部106判断预测堆栈是否为空(步骤S403)。由于对话履历选择部107不能从对话履历数据库201中检索出适当的对话履历等理由,预测堆栈为空(步骤S403的是)的情况下,发言预测部106不进行发言预测动作直接进入结束。
另一方面,预测堆栈不是空(步骤S403的否)的情况下,发言预测部106将把预测堆栈的开头的发言作为下一个发言候补表示出来(步骤S404)。图29是表示对话开始时的对话支援装置100的表示状态的示例图。表示领域的上半部分是参与对话的人1的发言输入输出领域1301,下半部分是参与对话的人2的发言输入输出领域1302。结束键1303(结束)为结束对谈时的按键。参与对话的人1利用发言接受部1304,参与对话的人2利用发言接受部1305,可以从图25中被定义的全部的发言中选择任意的发言传递给其他的参与对话的人。在发言处理部105中被转换的发言,分别输出到给参与对话的人1的发言输出部1306和给参与对话的人2的发言输出部1307,例如利用PDA中内置的语音合成处理,在表示的同时读出。在预测表示领域1308表示出由发言预测部106预测的参与对话的人1的发言,在预测表示领域1309表示出由发言预测部106预测的参与对话的人2的发言。参与对话的人1或参与对话的人2,分别选择预测表示领域1308或预测表示领域1309中所表示的发言,这样实现了省略从实例的名单1304或1305中检索并选择发言的操作。即,实现了迅速输入发言。
在上述的例子中预测堆栈被作成的情况下,发言预测部106在予测表示领域1309中表示预测堆栈E1,E8,C2,(E3,C4),(E5,C6,E7)的开头发言E1:“May I help you(欢迎光临)?”参与对话的人2虽然可以从实例的名单1305选择发言,但是因为在预测表示领域1309中已经表示出自己想发言的内容,所以如图30所示,则选择该发言。发言E1在发言处理部102被转换为中文,对参与对话的人1发言“欢迎光临”。
在此,发言预测部106判断从参与对话的人是否输入了发言(步骤S405)。当从参与对话的人输入了发言时(步骤S405的是),发言预测部106将从开头检索预测堆栈中一致的发言(步骤S406),并判断是否有一致的发言(步骤S407)。若有一致的发言(步骤S407的是),再判断一致的发言是否在预测堆栈的开头(步骤S408)。若在预测堆栈的开头(步骤S408的是),消除预测堆栈的开头的发言,将预测堆栈进行更新(步骤S409)。另一方面,若不是预测堆栈的开头(步骤S408的否),将含有一致的发言的块移动到预测堆栈的开头后,消除从开头到该发言的发言,更新预测堆栈(步骤S410)。然后,返回到判断预测堆栈是否为空的判断处理(步骤S403)。
在上述的例子中,由于从参与对话的人的发言为E1,所以将预测堆栈更新为E8,C2,(E3,C4),(E5,C6,E7)。并且,返回到判断预测堆栈是否为空的判断处理(步骤S403),因预测堆栈还不是空,如图31所示,表示预测表示领域1309中开头的发言E8:“Please fill in this form(请写在这张单子上).”,等候来自用户的发言。
参与对话的人2虽然可以从实例的名单1305选择发言,但是因为预测表示领域1309已经表示了自己想发言的内容,所以,选择图32所示的预测表示领域1309的话,E8将在发言处理部102被转换为中文,对参与对话的人1发言“请写在这张单子上。”,同样,发言预测部106将预测堆栈更新为C2,(E3,C4),(E5,C6,E7),像图33所示的那样,1308的C2的表示为“可以办理入住吗?”。
参与对话的人1虽然可以从实例的名单1304中选择发言,但是因为预测表示领域1308已经表示了自己想发言的内容,所以如图34所示那样,选择预测表示领域1308的话,C2将在发言处理部102被转换为英语,向参与对话的人2发言“Check-in,please(可以办理入住吗).”同样,发言预测部106将预测堆栈更新为(E3,C4),(E5,C6,E7),如图35所示预测表示领域1309的E3的表示为“Have you made reservation(您预约过了吗)?”,这样参与对话的人1或参与对话的人2,不需要从实例的名单1304或1305中检索希望的发言,就可以很快地将意图传达给对方,从而减少对话的所要时间。
再者,如图36所示那样,除在图1所示的构成之外,还具有履历登录部401,可以记录所有的在发言处理部105中参与对话的人之间所进行的发言信息,结束对谈时,履历登录部401还可以把上述的记录存储到对话履历数据库201中。由此,可以增加今后的发言预测中有效的对话履历。例如,图37或图38所示的那样,参与对话的人指示结束对谈时,这个动作将会被执行。特别是在不按照发言预测部106的预测进行对话时,大多情况下是对话履历数据库201中不存在的对话,通过将其进行存储,从而能够提高下一次的发言预测精度。
再者,还可以将图1所示构成的发言接受部101和发言接受部103替换为图39所示的语音识别部501和语音识别部502。这时,语音识别部501和语音识别部502的识别对象语汇中,将与发言预测部106所预测的发言相关的语汇优先选择,从而能够提高语音识别的精度。作为相关的语汇,可以是发言预测部106输出的预测发言,或者是与预测发言接近的句子,还可以是预测发言中所含有的单词,也可以是从预测发言联想出来的单词。
并且,如图40或图41所示,还可以对每个参与对话的人的PDA分别安装对话支援装置,这样,可以更进一步提高用户使用方便性。对话支援装置分别装载在:参与对话的人1所利用的PDA2301及参与对话的人2所利用的PDA2301。按键2303和2304是为了查看参与对话的人1和参与对话的人2的各自的对话预测展开的按键。具体来说在按这些按键的时候,发言预测部106将表示到目前为止的所有的发言及当前时点的预测堆栈的内容。图42是表示对话预测展开(日语和英语的情况下)的示例图。到目前为止所进行的发言假定为E1,E8,J2,当前时点的预测堆栈假定为(E3,J4),(E5,J6,E7)。到目前为止所进行的发言和预测堆栈的内容被分别转换为各自参与对话的人的语言并表示出来。具体为:在预测展开表示领域2401中为J1,J8,J2,(J3,J4),(J5,J6,J7),在预测展开表示领域2402中为E1,E8,E2和(E3,E4),(E5,E6,E7)。
再者,图43是表示对话预测展开(中文和英语的情况下)的示例图。到目前为止所进行的发言假定为E1,E8,C2,当前时点的预测堆栈假定为(E3,C4),(E5,C6,E7)。到目前为止所进行的发言和预测堆栈的内容被分别转换为各自参与对话的人的语言并表示出来。具体为:在预测展开表示领域2401中为C1,C8,C2和(C3,C4),(C5,C6,C7),在预测展开表示领域2402中为E1,E8,E2和(E3,E4),(E5,E6,E7)。由于将这样的对话的预测展开表示给参与对话的人,所以可以预先知道对方的发言,从而可以在进行对话的时候整理好头绪,由此实现更加可靠的操作。
同时,本实施方式,只是把日语和英语的情况以及中文和英语的情况作为一个例子来说明,关于法语等其他的语种也同样可以实行,本发明不依存于语种。
产业上利用的可能性
本发明所涉及的对话支援装置,具有使参与对话的人迅速输入发言的功能,也可作为移动电话或移动终端等的翻译应用软件等来使用。再者,也可以应用于公共街头的终端和向导终端等领域。并且,也可以应用于同语种的对话,固定短语的网上聊天系统等用途。

Claims (16)

1.一种对话支援装置,对参与对话的人所进行的对话进行支援,其特征在于,具有:
对话履历选择机构,从存储上述参与对话的人及上述参与对话的人以外的人的对话履历的对话履历数据库中,按照指定上述参与对话的人的信息及对话状况选择对话履历;以及
发言预测机构,根据由上述对话履历选择机构所选择的上述对话履历,预测在上述对话中上述参与对话的人的下一个发言。
2.根据权利要求1所述的对话支援装置,其特征在于,
上述对话履历选择机构从上述参与对话的人的各自的对话履历中,将与上述对话状况最接近的对话履历作为各自的基准对话履历抽出,并选择与各自的上述基准对话履历类似度高的对话履历。
3.根据权利要求2所述的对话支援装置,其特征在于,
上述对话履历选择机构根据在2个对话履历中共同包含并连续的发言的集合,算出上述类似度。
4.根据权利要求3所述的对话支援装置,其特征在于,
上述对话履历选择机构算出上述类似度,使上述类似度与上述集合的数成反比例。
5.根据权利要求3所述的对话支援装置,其特征在于,
上述对话履历选择机构算出上述类似度,使上述类似度与上述集合中分别含有的发言数的平均值成正比例。
6.根据权利要求3所述的对话支援装置,其特征在于,
上述对话履历选择机构根据动态程序设计法,将算出上述类似度的2个上述对话履历的发言数调整为发言数达到相同数量。
7.根据权利要求3所述的对话支援装置,其特征在于,
上述对话履历选择机构根据指定发言的发言信息的一致性、表层表现的一致性、及实义词的一致性中的至少一个,判断是否为2个上述对话履历中共同包含的发言。
8.根据权利要求1所述的对话支援装置,其特征在于,
上述发言预测机构在根据上述对话履历选择机构所选择的上述对话履历中,把与上述对话中的发言相对应的发言的下一个将要出现的发言,作为上述对话中的上述参与对话的人的下一个发言进行预测。
9.根据权利要求1所述的对话支援装置,其特征在于,上述对话支援装置进一步具有:
发言接受机构,受理上述参与对话的人的发言;
发言处理机构,把由上述发言接受机构受理的上述发言转换为其他的发言形态;以及
发言输出机构,输出由上述发言处理机构所转换的上述其他的发言形态的上述发言。
10.根据权利要求9所述的对话支援装置,其特征在于,
上述发言接受机构在将语音识别辞典限定在以下的范围中的某一个范围后,对被输入的语音进行语音识别,再将上述语音识别结果作为上述发言来受理,上述范围包括:由上述发言预测机构所预测的预测发言、与上述预测发言接近的句子、上述预测发言中包含的单词以及从上述预测发言中联想的单词。
11.根据权利要求9所述的对话支援装置,其特征在于,上述对话支援装置进一步具有:
表示机构,上述发言预测机构将所预测的发言表示在上述表示机构上;
当上述预测发言被上述参与对话的人选择,上述发言接受机构把上述预测发言作为上述发言来受理。
12.根据权利要求9所述的对话支援装置,其特征在于,上述对话支援装置进一步具有:
表示机构,上述发言预测机构根据上述对话履历选择机构所选择的上述对话履历,预测上述对话中的上述参与对话的人的发言展开,并将预测的发言展开表示在上述表示机构上。
13.如权利要求1所述的对话支援装置,其特征在于,上述对话支援装置进一步具有:
履历登录机构,将上述参与对话的人所进行的上述对话的履历登录在上述对话履历数据库中。
14.一种对话支援系统,支援参与对话的人所进行的对话,其特征在于,具有:对话支援装置和服务器装置;
上述服务器装置具有:
对话履历数据库,存储上述参与对话的人及上述参与对话的人以外的人的对话履历;
对话履历选择机构,根据从上述对话支援装置发送的指定上述参与对话的人的信息及对话状况,从上述对话履历数据库中选择对话履历;
上述对话支援装置具有:
发言预测机构,将指定上述参与对话的人的信息及上述对话状况发送到上述服务器装置中,来请求对话履历,并根据从上述服务器装置发送的上述对话履历,预测上述对话中的上述参与对话的人的下一个发言。
15.一种对话支援方法,支援由参与对话的人所进行的对话,其特征在于,具有:
对话履历选择步骤,从存储上述参与对话的人及上述参与对话的人以外的人的对话履历的对话履历数据库中,根据指定上述参与对话的人的信息及对话状况,选择对话履历;以及
发言预测步骤,根据上述对话履历选择步骤中所选择的上述对话履历,预测上述对话中上述参与对话的人的下一个发言。
16.一种程序,用于对参与对话的人所进行的对话进行支援,其特征在于,由计算机来执行下述步骤:
对话履历选择步骤,从存储上述参与对话的人及上述参与对话的人以外的人的对话履历的对话履历数据库中,根据指定参与对话的人的信息及对话状况选择对话履历;以及
发言预测步骤,根据在上述对话履历选择步骤中所选择的上述对话履历,预测上述对话中的上述参与对话的人的下一个发言。
CN2005800008394A 2004-10-08 2005-10-05 对话支援装置 Expired - Fee Related CN1842787B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP296775/2004 2004-10-08
JP2004296775 2004-10-08
PCT/JP2005/018429 WO2006040971A1 (ja) 2004-10-08 2005-10-05 対話支援装置

Publications (2)

Publication Number Publication Date
CN1842787A true CN1842787A (zh) 2006-10-04
CN1842787B CN1842787B (zh) 2011-12-07

Family

ID=36148266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800008394A Expired - Fee Related CN1842787B (zh) 2004-10-08 2005-10-05 对话支援装置

Country Status (4)

Country Link
US (1) US7752051B2 (zh)
JP (1) JP3962767B2 (zh)
CN (1) CN1842787B (zh)
WO (1) WO2006040971A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102522084A (zh) * 2011-12-22 2012-06-27 广东威创视讯科技股份有限公司 一种将语音数据转换为文本文件的方法和系统
CN104488027A (zh) * 2012-07-09 2015-04-01 独立行政法人情报通信研究机构 声音处理系统以及终端装置
CN107210033A (zh) * 2015-01-30 2017-09-26 微软技术许可有限责任公司 基于众包来更新用于数字个人助理的语言理解分类器模型
CN109496332A (zh) * 2016-07-28 2019-03-19 国立研究开发法人情报通信研究机构 语音对话装置、语音对话方法以及存储介质
CN109791551A (zh) * 2016-09-28 2019-05-21 株式会社东芝 信息处理系统、信息处理装置、信息处理方法、及存储介质

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1954014A4 (en) * 2005-11-16 2010-04-07 Nec Corp MOBILE TERMINAL DEVICE, PARTICIPANT LIST DISPLAY METHOD FOR THE SAME, AND PROGRAM THEREOF
JP4197344B2 (ja) * 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
WO2010045375A1 (en) * 2008-10-14 2010-04-22 Honda Motor Co., Ltd. Improving dialog coherence using semantic features
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
US9564120B2 (en) * 2010-05-14 2017-02-07 General Motors Llc Speech adaptation in speech synthesis
US20130158986A1 (en) * 2010-07-15 2013-06-20 The University Of Queensland Communications analysis system and process
US9576570B2 (en) 2010-07-30 2017-02-21 Sri International Method and apparatus for adding new vocabulary to interactive translation and dialogue systems
US8527270B2 (en) * 2010-07-30 2013-09-03 Sri International Method and apparatus for conducting an interactive dialogue
JP5431282B2 (ja) * 2010-09-28 2014-03-05 株式会社東芝 音声対話装置、方法、プログラム
US9195654B2 (en) * 2013-03-15 2015-11-24 Google Inc. Automatic invocation of a dialog user interface for translation applications
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
WO2018023106A1 (en) 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
US11238226B2 (en) * 2018-11-15 2022-02-01 Nuance Communications, Inc. System and method for accelerating user agent chats
CN111611352A (zh) * 2019-02-25 2020-09-01 北京嘀嘀无限科技发展有限公司 一种对话生成方法、装置、电子设备及可读存储介质
US20220051679A1 (en) * 2019-03-05 2022-02-17 Sony Group Corporation Information processing apparatus, information processing method, and program
CN112000781B (zh) * 2020-07-20 2023-07-21 北京百度网讯科技有限公司 用户对话中的信息处理方法、装置、电子设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105220A (ja) * 1993-09-30 1995-04-21 Hitachi Ltd 会話翻訳装置
JPH0877176A (ja) * 1994-09-07 1996-03-22 Hitachi Ltd 外国語翻訳装置
JP3367298B2 (ja) * 1994-11-15 2003-01-14 富士ゼロックス株式会社 言語情報提供装置、言語情報提供システムおよび言語情報提供方法
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
JP3385146B2 (ja) * 1995-06-13 2003-03-10 シャープ株式会社 会話文翻訳装置
JPH09319750A (ja) * 1996-05-27 1997-12-12 Sharp Corp 通訳装置
JP3993319B2 (ja) * 1998-09-08 2007-10-17 松下電器産業株式会社 通訳装置及び通訳装置の機能を発揮させるプログラムを記録した記録媒体
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
EP1240642B1 (en) * 1999-12-20 2008-08-20 BRITISH TELECOMMUNICATIONS public limited company Learning of dialogue states and language model of spoken information system
JP4105841B2 (ja) * 2000-07-11 2008-06-25 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識方法、音声認識装置、コンピュータ・システムおよび記憶媒体
JP2002041432A (ja) * 2000-07-25 2002-02-08 Oki Electric Ind Co Ltd チャットシステム,端末装置,サーバ装置及び媒体
JP3974412B2 (ja) * 2001-01-24 2007-09-12 松下電器産業株式会社 音声変換装置
US7050979B2 (en) 2001-01-24 2006-05-23 Matsushita Electric Industrial Co., Ltd. Apparatus and method for converting a spoken language to a second language
US20020138588A1 (en) * 2001-03-20 2002-09-26 Richard Leeds System and method for adaptive forums communication
US20030009448A1 (en) * 2001-06-14 2003-01-09 Covington Robert C. Method and apparatus for providing user-specific response
JP2003030187A (ja) * 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
US7197460B1 (en) * 2002-04-23 2007-03-27 At&T Corp. System for handling frequently asked questions in a natural language dialog service
US7783486B2 (en) * 2002-11-22 2010-08-24 Roy Jonathan Rosser Response generator for mimicking human-computer natural language conversation
GB0306396D0 (en) * 2003-03-20 2003-04-23 Ibm Apparatus, method and computer program for adding context to a chat transcript
US7103553B2 (en) * 2003-06-04 2006-09-05 Matsushita Electric Industrial Co., Ltd. Assistive call center interface
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
US20060025091A1 (en) * 2004-08-02 2006-02-02 Matsushita Electric Industrial Co., Ltd Method for creating and using phrase history for accelerating instant messaging input on mobile devices

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102522084A (zh) * 2011-12-22 2012-06-27 广东威创视讯科技股份有限公司 一种将语音数据转换为文本文件的方法和系统
CN102522084B (zh) * 2011-12-22 2013-09-18 广东威创视讯科技股份有限公司 一种将语音数据转换为文本文件的方法和系统
CN104488027A (zh) * 2012-07-09 2015-04-01 独立行政法人情报通信研究机构 声音处理系统以及终端装置
CN104488027B (zh) * 2012-07-09 2018-03-30 独立行政法人情报通信研究机构 声音处理系统
CN107210033A (zh) * 2015-01-30 2017-09-26 微软技术许可有限责任公司 基于众包来更新用于数字个人助理的语言理解分类器模型
CN107210033B (zh) * 2015-01-30 2020-10-16 微软技术许可有限责任公司 基于众包来更新用于数字个人助理的语言理解分类器模型
CN109496332A (zh) * 2016-07-28 2019-03-19 国立研究开发法人情报通信研究机构 语音对话装置、语音对话方法以及存储介质
CN109791551A (zh) * 2016-09-28 2019-05-21 株式会社东芝 信息处理系统、信息处理装置、信息处理方法、及存储介质

Also Published As

Publication number Publication date
US20060129409A1 (en) 2006-06-15
JP3962767B2 (ja) 2007-08-22
WO2006040971A1 (ja) 2006-04-20
US7752051B2 (en) 2010-07-06
CN1842787B (zh) 2011-12-07
JPWO2006040971A1 (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
CN1842787A (zh) 对话支援装置
CN1842788A (zh) 对话支援装置
US9502032B2 (en) Dynamically biasing language models
CN101076060A (zh) 一种聊天机器人系统及自动聊天方法
JP6819988B2 (ja) 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム
CN1199149C (zh) 会话处理设备及方法
CN1573928A (zh) 用语音应用语言标记执行的语义对象同步理解
US20150149149A1 (en) System and method for translation
CN101076061A (zh) 一种机器人服务器及自动聊天方法
CN100339885C (zh) 智能个人助理
CN107430851B (zh) 发言提示装置及发言提示方法
CN1886767A (zh) 作文的评估和评分装置
CN1975858A (zh) 会话控制装置
CN1602483A (zh) 进行多语种口述词语实时翻译的实时翻译装置与方法
CN1573924A (zh) 语音识别设备、语音识别方法、会话控制设备以及会话控制方法
JP2009505139A (ja) 音声制御型ワイヤレス通信デバイス・システム
KR20230076733A (ko) 감정 및 기억 기반의 대화형 인공지능 아바타 영어 말하기 교육 방법, 장치 및 이에 대한 시스템
KR102462219B1 (ko) 화자 분리 기술을 이용한 회의록 자동 생성 방법
JP2006277567A (ja) 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
CN1504924A (zh) 文本编辑助理
US20110307255A1 (en) System and Method for Conversion of Speech to Displayed Media Data
CN1461464A (zh) 语言处理装置
US9881611B2 (en) System and method for providing voice communication from textual and pre-recorded responses
US20110144996A1 (en) Analyzing and processing a verbal expression containing multiple goals
Česonis Human language technologies and digitalisation in a multilingual interpreting setting

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140925

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140925

Address after: Seaman Avenue Torrance in the United States of California No. 2000 room 200

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111207

Termination date: 20171005