CN1573924A - 语音识别设备、语音识别方法、会话控制设备以及会话控制方法 - Google Patents

语音识别设备、语音识别方法、会话控制设备以及会话控制方法 Download PDF

Info

Publication number
CN1573924A
CN1573924A CNA2004100481686A CN200410048168A CN1573924A CN 1573924 A CN1573924 A CN 1573924A CN A2004100481686 A CNA2004100481686 A CN A2004100481686A CN 200410048168 A CN200410048168 A CN 200410048168A CN 1573924 A CN1573924 A CN 1573924A
Authority
CN
China
Prior art keywords
topic
candidate
appointed information
unit
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2004100481686A
Other languages
English (en)
Other versions
CN1321401C (zh
Inventor
黄声扬
胜仓裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
P to PA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by P to PA Inc filed Critical P to PA Inc
Publication of CN1573924A publication Critical patent/CN1573924A/zh
Application granted granted Critical
Publication of CN1321401C publication Critical patent/CN1321401C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search

Abstract

一种自动会话设备包括:语音识别装置(200),接收语音信号并输出与语音信号对应的字符/字符串作为识别结果;语音识别词典存储装置(700),存储用于确定对应于语音信号的多个候选的语言模型;会话数据库装置(500),存储多条话题指定信息;语句分析装置(400),分析从语音识别装置(200)输出的字符/字符串;和会话控制装置(300),存储会话历史记录,并根据语句分析装置(400)的分析而获取应答语句。语音识别装置(200)包括:单词对照装置(200C),参照语音识别词典存储装置(700)而输出多个候选;和候选确定装置(200E),参照会话数据库装置(500),将单词对照装置输出的多个候选与对应于会话历史记录的话题指定信息进行比较,并根据该比较输出一个候选。

Description

语音识别设备、语音识别方法、 会话控制设备以及会话控制方法
本申请涉及2003年6月20日提交的日本专利申请No.2003-177356中所包含的主题,特此以引用的方式并入其全部内容。
技术领域
本发明涉及一种语音识别设备、语音识别方法、会话控制设备以及会话控制方法。更具体地,本发明涉及可以利用过去的会话历史记录等,优先选择符合或者与过去会话的话题相关联的候选的语音识别设备、语音识别方法、会话控制设备以及会话控制方法。
背景技术
作为在连续语音识别中识别特定词汇的传统方法,已经开发出了从连续的会话语音中提取预先设定的识别候选单词的单词辨识技术(wordspotting)。已经确定,如果需要设定的单词数目较少,则利用该方法可以有效地提取单词。然而,已经知道提取的精度会随着要设定的单词数目增加而降低。此外,由于利用该方法不能识别所设定的单词以外的任何单词,因此,该方法不能用于需要对词汇进行连续语音识别的应用。因此,需要一种在大词汇量连续语音识别的框架中主要识别大量指定单词的方法。
语音识别是根据所观测到的语音信号来推定说话者所讲的内容。如果说话者已讲了某个单词,并且通过特征提取已得到一特征参数x,则只需根据模式识别理论来计算使后验概率p(w|x)最大的w。通常,由于难于直接地找到后验概率p(w|x),因此根据贝叶斯(Bayes)定理(p(w|x)=p(x|w)p(w)/p(x))来计算使p(x|w)p(w)最大的w(在此情况中,p(x)不随w而变化),而不是找出使后验概率p(w|x)最大的w。根据以音素(phoneme)等为单位的声学模型,预先由通过学习而获得的数据计算出p(x|w),作为特征参数的出现几率。根据以单词等为单位的语言模型来计算p(w)。
作为大词汇量连续语音识别的框架,已经确定,使用音素隐马尔可夫模型(Hidden Markov Model)和统计语言模型对所输入的语音信号的似然度进行计算和比较的方法是有效的。通常,作为统计语言模型,通常的作法是,对于预先准备的大量文本数据,找出两个单词或者三个单词之间的链概率(chain possibility),并且在语音识别过程中使用该链概率。
通常,在上述语音识别系统中,为了缩减因不能确定地识别语音而产生的数目众多的话语候选,使用“通过对单词之间的关联进行建模而得到的语言模型”来提取具有高识别率的一个话语候选,作为最佳话语候选。作为这样的语言模型,在日本专利申请特开2002-366190号([0002]段至[0004]段)中公开了使用语料库(语言/语音数据库)而建立的一种统计语言模型,并且在日本专利申请特开11-85180号中公开了一种在语法上考虑了单词对限制等的语言模型。
将这种模型称为“传统语言模型”。还未提出使用“会话历史记录”来关联各个单词以进行上述缩减的语言模型。
然而,利用传统语言模型的语音识别系统存在的问题是,当重复输入诸如“chat”的短语音或者使用缩略语时,识别率会下降。
例如,考查对说话者所说的与电影摄影话题相关的语音进行语音识别的情况。当用户说出“kantoku”(导演)时,该语音识别系统根据由该话语所产生的语音信号输出若干话语候选,即:(1)“kantaku”,(2)“kataku”,以及(3)“kantoku”,并且选择具有最高识别率的(1)“kantaku”。因此,即使在话语候选中包含与用户的语音(在此情况中为“kantoku”)相同的内容,该语音识别系统也不能选择该单词作为最佳候选。
因此,有必要建立一种“机制(考虑会话历史记录的语音识别系统)”,利用过去的会话历史记录等来选择候选,即使判定该候选的识别率比较低时,也将其作为合适的单词,并且提高语音识别率。
发明内容
作为解决上述问题的手段,本发明具有下述特征。
本发明的第一个方面是一种语音识别设备。该语音识别设备包括:语音识别装置(语音识别单元);语音识别词典存储装置(语音识别词典存储单元);会话数据库装置(会话数据库),在其中存储有多条话题指定信息;以及会话历史记录存储装置(会话控制单元),其存储过去的会话中所包含的多个主题。该语音识别装置(语音识别单元)的特征在于,根据存储在该语音识别词典存储装置(语音识别词典存储单元)中的内容,选择与语音信号对应的多个候选,选择与话题指定信息对应的候选,该话题指定信息与存储在该会话历史记录存储装置(会话控制单元)中的会话历史记录对应,并且输出该候选,作为识别结果。
非常可能的是,对应于会话历史记录的话题指定信息与说话者所说的内容相对应。例如,当说话者谈论棒球时,存储一个单词“kantoku”(球队经理),作为与一会话历史记录(棒球)对应的话题指定信息。在此情况中,如果获得“kantaku”、“kataku”、“kantoku”作为多个候选,则输出与该话题指定信息“kantoku”(该话题指定信息“kantoku”与会话历史记录(棒球)对应)对应的候选“kantoku”,作为识别结果。这样,根据本方面的该语音识别设备进行工作,以输出与会话的主题相符的识别结果。
本发明的第二个方面是一种语音识别设备。该语音识别设备包括:语音识别装置(语音识别单元),其接收语音信号;语音识别词典存储装置(语音识别词典存储单元),其存储用于确定与语音信号对应的候选的模型;会话数据库装置(会话数据库),在其中存储有多条话题指定信息;以及,会话历史记录存储装置(会话控制单元),其存储会话历史记录。在该语音识别设备中,该语音识别装置(语音识别单元)的特征在于,该语音识别装置包括:单词对照装置(单词对照单元),其根据所输入的语音信号,参照该语音识别词典存储装置(语音识别词典存储单元)而输出多个候选;以及,候选确定单元,其参照该会话数据库装置(会话数据库)而将从单词对照装置(单词对照单元)输出的多个候选与对应于会话历史记录的话题指定信息进行比较,并且根据该比较的结果输出多个候选中的任何一个候选,作为识别结果。语音识别词典存储装置(语音识别词典存储单元)所存储的模型是声学模型、语言模型、统计语言模型(隐马尔可夫模型(HMM))、或者这些模型中的两个或更多个的组合。该模型可以是上述模型中的任何一个,只要该模型可以根据语音的声学特征选择与该语音对应的多个候选即可。
如在第一方面中一样,根据第二方面的语音识别设备进行工作,以输出与说话者谈论的内容相符(或相关)的识别结果,以从多个候选中选择与话题指定信息(该话题指定信息对应于会话历史记录)对应的一个候选。
此外,在根据第二方面的语音识别设备中,会话数据库装置(会话数据库)可以存储与会话主题相关的第一话题指定信息,以及与会话主题不相关的第二话题指定信息。候选确定装置可以将多个候选与对应于会话历史记录的第一话题指定信息进行比较,以输出所述多个候选中的任何一个候选作为识别结果。该第一话题指定信息是,例如,有意义的话题指定信息(例如,“棒球”、“电影”),而该第二话题指定信息是,例如,无意义的话题指定信息(例如,“你好(hello)”、“我明白了(I see)”)。
如上所述,根据本方面的语音识别设备仅使用第一话题指定信息来输出多个候选中的任何一个作为识别结果,因此可以避免输出与话题无关的候选作为识别结果,并且进一步提高了识别率。
本发明的第三个方面是一种语音识别方法,该语音识别方法用于输出与所输入的语音对应的多个字符或者字符串,作为该语音的识别结果。该语音识别方法的特征在于,包括以下步骤:根据从所输入的语音所获得的语音信号,分析声学特征;根据该声学特征输出多个候选;获得与预先存储的会话历史记录对应的话题指定信息;并且,将所述多个候选与所获得的话题指定信息进行比较,以输出所述多个候选中的任何一个候选,作为识别结果。
为根据声学特征输出多个候选,必须使用声学模型、语言模型、统计语言模型(隐马尔可夫模型(HMM))、或者这些模型中的两个或者更多个的组合来选择多个候选。在此所使用的模型可以是上述模型中的任何一个,只要该模型可以根据语音的声学特征来选择与语音对应的多个候选即可。
此外,在根据该第三方面的方法中,该话题指定信息可以由与会话话题相关的第一话题指定信息和与会话话题无关的第二话题指定信息构成。在输出一个候选作为识别结果的步骤中要与多个候选进行比较的话题指定信息可以限于第一话题指定信息。这样,根据本方面的该语音识别方法可以避免输出与话题无关的候选作为识别结果,并且进一步提高了识别率。
本发明的第四方面是一种会话控制设备,该会话控制设备接收语音并且输出与该语音对应的应答语句。该会话控制设备包括:语音识别装置(语音识别单元),其接收语音信号并且输出与该语音信号对应的字符或字符串作为识别结果;语音识别词典存储装置(语音识别词典存储单元),其存储用于确定与该语音信号对应的候选的模型;会话数据库,在其中存储有多条话题指定信息;语句分析单元,其分析从该语音识别装置(语音识别单元)所输出的字符或字符串;以及,会话控制单元,其存储会话历史记录,并且根据语句分析单元的分析结果来获得应答语句。在该会话控制设备中,该语音识别装置(语音识别单元)的特征在于,其包括:单词对照装置(单词对照单元),其根据所输入的语音信号,参照该语音识别词典存储单元而输出多个候选;以及,候选确定单元,其参照该会话数据库装置而将从单词对照装置(单词对照单元)所输出的多个候选与对应于会话历史记录的话题指定信息进行比较,并且根据该比较结果输出该多个候选中的任何一个候选作为识别结果。
由于该语音识别单元从多个候选中选择一个与话题指定信息(该话题指定信息与会话历史记录对应)对应的候选,因此,该语音识别单元输出一个与说话者讨论的内容相符(或相关)的识别结果,根据本方面的会话控制设备如此进行操作,使得根据该识别结果而得到的应答语句也与说话者讨论的内容相符(或相关)。
本发明的第五个方面是一种会话控制方法,用于根据所输入的语音来输出应答语句。该会话控制方法的特征在于,其包括以下步骤:根据从输入语音所获得的语音信号来分析声学特征;根据该声学特征输出多个候选;获得与预先存储的会话历史记录对应的话题指定信息;将多个候选和所获得的话题指定信息进行比较,以输出所述多个候选中的任何一个作为识别结果;分析该识别结果,以根据所分析的结果来输出与该话题指定信息(该话题指定信息对应于会话历史记录)对应的应答语句。
根据本方面的会话控制方法,从根据所输入语音的声学特征而选择的多个候选中,选择与话题指定信息(该话题指定信息对应于该会话历史记录)对应的一个候选,作为与说话者讨论的内容相符(或相关)的识别结果,因此,根据该方面的会话控制方法如此进行操作,使得根据该识别结果所得到的应答语句也与说话者讨论的内容相符(或相关)。
本发明的其他目的和优点将在随后的说明中进行阐述,一部分可以通过说明书而明了,或者可以通过本发明的实践而体验到。通过以下具体指出的各种手段及其组合,可以实现或获得本发明的这些目的和优点。
附图说明
引入附图构成本申请的一部分,附图显示了本发明的实施例,并且与以上概述和下面的实施例详细说明一起用于对本发明的原理进行解释。
图1是显示会话控制设备的示意性结构的功能框图;
图2是显示语音识别单元的结构示例的功能框图;
图3是显示该语音识别单元的操作的示例的流程图;
图4是传统控制设备的详细结构的示例的功能框图;
图5是显示字符串和音素之间的对应关系的图;
图6是显示所说的语句类型的图;
图7是显示输入判定单元所使用的词典的示例图;
图8是显示会话数据库的结构的示例的图;
图9是显示多条话题指定信息之间关系的图;
图10是显示话题名称的结构的示例的图;
图11是显示应答语句的各种类型的示例图;
图12是显示属于在该会话数据库之中建立的“话题指定信息”的“话题名称”和“应答语句”的内容的图;
图13是显示会话控制方法的过程的流程图;
图14是显示根据本发明的第二实施例的会话控制设备的具体结构的示例的部分功能框图;并且
图15是显示会话控制设备的结构的另一示例的功能框图。
具体实施方式
[A.第一实施例]
以下将参照附图对本发明的第一实施例进行说明。
[会话控制设备的结构示例]
[1.总体结构]
图1是根据本实施例的会话控制设备1的示意图。如图1所示,该会话控制设备1包括:输入单元100;语音识别单元200,其用作语音识别装置;会话控制单元300,其用作会话历史记录存储装置和会话控制装置;语句分析单元400,其用作语句分析装置;会话数据库500,其用作会话数据库装置;输出单元600;以及语音识别词典存储单元700,其用作语音识别词典存储装置。
[1-1.输入单元]
输入单元100获得由用户所输入的输入信息。以麦克风作为该输入单元100的一个示例。输入单元100将与所获取的话语内容对应的语音作为语音信号输出给语音识别单元200。
[1-2.语音识别单元]
语音识别单元200根据输入单元100所获取的话语内容,指定与该话语内容相对应的字符串。更具体地说,根据所输入的语音信号,语音识别单元200(其已从输入单元100接收了语音信号的输入)将该语音信号与存储在语音识别词典存储单元700中的词典和会话数据库500进行对照。
[1-2-1.语音识别单元的结构示例]
图2显示了语音识别单元200的结构示例的功能框图。该语音识别单元200包括:特征提取单元200A;缓存(BM)200B;单词对照单元200C,用作对照装置;缓存(BM)200D;候选确定单元200E,用作候选确定装置;以及单词假设缩减单元200F,用作候选假设缩减装置。单词对照单元200C和单词假设缩减单元200F连接到语音识别词典存储单元700,并且候选确定单元200E连接到会话数据库500。
与单词对照单元200C连接的语音识别词典存储单元700存储音素隐马尔可夫模型(以下将隐马尔可夫模型称为HMM)。将音素HMM表示为包括多个状态,并且这些状态分别包括以下多个信息:(a)状态号码,(b)可接受内容类型,(c)先前状态和后续状态列表,(d)输出概率密度分布的参数,以及(e)自转变概率和向后续状态的转变概率。注意:由于必须指定每个分布是从哪个说话者得到的,因此在此实施例中所使用的音素HMM是通过对预定的说话者混合的HMM进行转换而产生的。其中,输出概率密度函数为具有34维对角协方差矩阵的混合高斯分布。此外,与单词对照单元200C连接的语音识别词典存储单元200存储单词词典。该单词词典存储指出了表示音素HMM的各个单词的读音的符号串。
将说话者所发出的语音输入麦克风等中,并且将其转换为语音信号,然后将其输入特征提取单元200A。特征提取单元200A对所输入的语音信号进行A/D转换,然后提取并输出特征参数。可以采用各种方法作为提取和输出特征参数的方法。以下述方法作为一个示例,该方法执行LPC分析并提取34维的特征参数,包括:对数功率、16阶倒谱系数、Δ对数功率、以及16阶Δ倒谱系数。通过缓存(BM)200B将所提取的特征参数的时间序列输入到单词对照单元200C中。
单词对照单元200C使用单通维特比解码(One Pass Viterbidecoding)方法,根据通过缓存200B所输入的特征参数的数据,利用音素HMM和存储在语音识别词典存储单元700中的单词词典来检测单词假设,并且计算似然度并将其输出。其中,在各个时刻对于每个HMM的每个状态,单词对照单元200C对单词内的似然度以及从话语开始的似然度进行计算。对于单词的识别号码、单词的起始时间、以及先前单词的各个差异而分别保持这些似然度。此外,为削减计算处理量,可以削减根据音素HMM和单词词典而计算的总似然度的低似然度的栅格假设。通过缓存200D,连同来自话语起始时间的时间信息(更具体的说,例如,帧号码)一起,单词对照单元200C将有关所检测的单词假设及其似然度的信息输出给候选确定单元200E和单词假设缩减单元200F。
候选确定单元200E参照会话控制单元500,将所检测的多个单词假设与预定会话空间中的话题指定信息进行比较,并判断在所检测的多个单词假设中是否存在与该预定会话空间中的话题指定信息匹配的单词假设。如果存在与该话题指定信息匹配的单词假设,则候选确定单元200E将该单词假设作为识别结果来输出。另一方面,如果不存在匹配该话题指定信息的单词假设,则候选确定单元200E请求单词假设缩减单元200F对这些单词假设进行缩减。
下面对候选确定单元200E的操作示例进行说明。假设:单词对照单元200C输出多个单词假设“kantaku”(单词“kantaku”在日语里是填海造地的意思)、“kataku”(单词“kataku”在日语里是借口的意思)、“kantoku”(单词“kantoku”在日语里是导演的意思),以及它们的似然度(识别率);预定会话空间涉及“电影”,并且其话题指定信息包括“kantoku”,但不包括“kantaku”和“kataku”。另外,“kantaku”的似然度最高,而“kantoku”的似然度最低,并且“kataku”的似然度居中。
在上述情况中,候选确定单元200E将所检测的多个单词假设和预定会话空间中的话题指定信息进行比较,判定单词假设“kantoku”与预定会话空间中的话题指定信息匹配,并且将该单词假设“kantoku”作为识别结果输出给会话控制单元。通过这种处理,相对于具有更高似然度(识别率)的“kantaku”和“kataku”,优先地选择与当前话题“电影”相关的“kantoku(导演)”。这使得可以输出符合会话语境的语音识别结果。
另一方面,如果不存在与话题指定信息匹配的单词假设,则单词假设缩减单元200F响应于来自候选确定单元200E的缩减单词假设的请求进行操作,以输出识别结果。单词假设缩减单元200F根据通过缓存200D从单词对照单元200C所输出的多个单词假设,参照存储在语音识别词典存储单元700中的统计语言模型,对于具有相同结束时间和不同起始时间的相同单词的单词假设,对这些单词假设进行缩减,使得对于该单词的各个先头音素环境,可以利用一个单词假设(该单词假设具有从话语起始时间至该单词的结束时间的所有计算出的似然度中最高的似然度)来表示这些单词假设。然后,单词假设缩减单元200F将缩减后在全部假设的单词串中具有最大似然度的假设单词串作为识别结果而输出。在此实施例中,优选地,要处理的单词的先头音素环境表示:包括该单词之前的一个单词假设的最后一个音素和该单词的单词假设的前两个音素在内的一行三个音素。
下面对单词假设缩减单元200F的单词缩减处理的示例进行说明。例如,假设,当将由音素串a1、a2、…、an所构成的第i个单词Wi置于第(i-1)个单词Wi-1之后时,存在六个假设Wa、Wb、Wc、Wd、We以及Wf作为单词Wi-1的单词假设。其中,假设前三个单词假设Wa、Wb和Wc的未尾音素为/x/,而后三个单词假设Wd、We和Wf的末尾音素为/y/。从结束时间te和先头音素环境相等的多个假设中删除具有最高总似然度的假设以外的假设。注意,由于从上数的第四个音素具有不同的先头音素环境,即,先前单词假设的未尾音素不是x而是y,因此不删除从上数的第四个假设。换言之,对于先前单词假设的各个未尾音素仅保留一个假设。
在上述实施例中,将单词的先头音素环境定义为包括该单词之前的一个单词假设的未尾音素和该单词的单词假设的前两个音素的一行三个音素。本发明并不限于此。该单词的先头音素环境可以是包括前一个单词假设的音素串(该音素串包括未尾音素和连续的多个先前单词假设中至少一个的音素)和一个音素串(该音素串包括该单词的单词假设的第一音素)的一行多个音素。
对于上述实施例,特征提取单元200A、单词对照单元200C、候选确定单元200E以及单词假设缩减单元200F由,例如,诸如数字计算机的计算机构成。缓存200B和200D以及语音识别词典存储单元700由,例如,诸如硬盘或存储器的存储装置构成。
对于上述实施例,使用单词对照单元200C和单词假设缩减单元200F进行语音识别。本发明并不限于此,并且可以包括,例如:音素对照单元,其参照音素HMM;以及语音识别单元,其利用(例如)单通DP算法,参照统计语言模型来执行单词的语音识别。
此外,在此实施例中,将语音识别单元200解释为会话控制装置1的一部分。然而,该语音识别单元200可以是独立的语音识别装置,包括语音识别单元200、语音识别词典存储单元700以及转换数据库500。
[1-2-2.语音识别单元的操作示例]
接下来,将参照图3对语音识别单元200的操作进行说明。图3是显示语音识别单元200的操作的示例的流程图。语音识别单元200在接收到来自输入单元100的语音信号后,对所输入的语音进行特征分析,以生成特征参数(步骤S301)。然后,该语音识别单元200将该特征参数和存储在语音识别词典存储单元中的音素HMM及语言模型进行比较,以获得预定数量的单词假设及其似然度(步骤S302)。随后,语音识别单元200将所获得的预定数量的单词假设和预定会话空间中的话题指定信息进行比较,以判断在所获得的预定数量的单词假设中是否存在与该预定会话空间中的话题指定信息相匹配的单词假设(步骤S303和S304)。如果存在与该话题指定信息相匹配的单词假设,则语音识别单元200输出该单词假设作为识别结果(步骤S305)。另一方面,如果不存在与该话题指定信息匹配的单词假设,则语音识别单元200根据所获得的单词假设的似然度,输出具有最大似然度的假设作为识别结果(步骤S306)。
[1-3.语音识别词典存储单元]
参照图1,现在对会话控制设备的结构示例进行说明。
语音识别词典存储单元700存储与一标准语音信号相对应的字符串。已经将该语音信号与存储在语音识别词典存储单元700中的词典进行了对照的语音识别单元200指定与对应于该语音信号的单词假设相对应的字符串,并且将所指定的字符串输出给会话控制单元300,作为字符串信号。
[1-4.语句分析单元]
语句分析单元400对输入单元100或语音识别单元200所指定的字符串进行分析。在此实施例中,如图4所示,该语句分析单元400包括字符串指定单元410、语素提取单元420、语素数据库430、输入类型判断单元440以及话语类型数据库(DB)450。字符串指定单元410将输入单元100和语音识别单元200所指定的字符串序列分割成多个短语。短语表示通过将一个字符串以不改变该字符串的语法意义的方式、尽可能小地进行分割而得到的一个分割后的语句。更具体地说,当在该字符串序列中存在具有固定长度或该固定长度以上的时间间隔时,字符串指定单元410在该部分中对该字符串进行分割。字符串指定单元410将所分割的多个字符串输出给语素提取单元420以及输入类型判断单元440。注意,假设以下将要说明的“字符串”表示每一个短语的字符串。
[1-5.语素提取单元]
根据字符串指定单元410所分割的一个短语的字符串,语素提取单元420从该字符串中提取构成字符串的最小单位的各个语素,作为第一语素信息。其中,本实施例中,语素是指表示为字符串的单词结构的最小单位。例如,作为单词结构的最小单位,存在诸如名词、形容词以及动词的多个品词。在此实施例中,如图5所示,可以将各个语素表示为m1、m2、m3、…。更具体地说,如图5所示,语素提取单元420(字符串从字符串指定单元410输入该语素提取单元420)将输入的字符串与预先存储在语素数据库430中的语素组(将该语素组准备为语素词典,在该语素词典中对索引词、读法、品词以及活用形式等进行了说明)进行对照。已经将输入的字符串与语素组进行了对照的语素提取单元420在该字符串中提取出与预先存储的语素组中的任一语素匹配的语素(m1、m2、…)。作为所提取的语素之外的语素(n1、n2、n3、…)的示例,有助动词等。该语素提取单元420将所提取的语素输出给话题指定信息检索单元320,作为第一语素信息。注意,不要求第一语素信息是结构化的。其中,“结构化”表示根据品词等对字符串中包含的多个语素进行分类并排列,例如,将作为所说的语句的一字符串转换为按照预定顺序(如“主语+宾语+表语”)排列多个语素所形成的数据。不用说的是,即使使用结构化的第一语素信息,该第一语素也不会有碍于本发明的实现。
[1-6.输入类型判断单元]
输入类型判断单元440根据字符串指定单元410所指定的字符串来判断话语内容的类型(话语类型)。在此实施例中,该话语类型表示,例如,如图6所示的“所讲语句的类型”。其中,如图6所示,“所讲语句的类型”由陈述句(D)、时间句(T)、位置句(L)、否定句(N)等构成。这些类型的语句形成为肯定句或者疑问句。“陈述句”是指说明用户的观点或者想法的语句。在本实施例中,如图6所示,作为陈述句的一个示例,存在“我喜欢佐藤”等语句。“位置句”是指涉及位置概念的语句。“时间句”是指涉及时间概念的语句。“否定句”是指当否定陈述句时所使用的语句。“所讲语句的类型”的示例性语句如图6所示。
在本实施例中,如图7所示,为判断“所讲语句的类型”,输入类型判断单元440使用定义表达词典来判断语句是否为陈述句,而使用否定表达词典来判断是否为否定句等。更具体地说,输入类型判断单元440(字符串从字符串指定单元410输入该输入类型判断单元440中)根据所输入的字符串,将该字符串与话语类型数据库450中存储的词典进行对照。已对该字符串和这些词典进行了对照的输入类型判断单元440从该字符串中提取与这些词典相关的元素。
该输入类型判断单元440根据所提取的元素判断“所讲语句的类型”。例如,如果在该字符串中包含描述某一事件的元素,则输入类型判断单元440判断包含该元素的字符串是否为陈述句。输入类型判断单元440将所判断的“所讲语句的类型”输出给应答获取单元350。
[1-7.会话数据库]
如图8所示,会话数据库500预先使表示构成一个字符、多个字符串及其组合的语素的多个话题名称(称为第二语素信息)与对于用户的应答语句彼此关联起来,并存储这些话题名称。此外,使表示这些应答语句的类型的多个应答类型与这些应答语句相关联。
此外,会话数据库500预先存储用于指定话题的多条话题指定信息。更具体地,在本实施例中,“话题指定信息”是指与预期会由用户输入的内容、或者应答用户的应答语句相关的关键词。使多个话题名称与该话题指定信息相关联。此外,使应答用户的应答语句分别与这些话题名称相关联。
如图9所示,在本实施例中,存储各条话题指定信息,使得可以明晰该话题指定信息和其他话题指定信息之间的上位概念、下位概念、同义词以及反义词之间的多种关系。例如,将作为话题指定信息(“电影”)的上位概念的话题指定信息(“娱乐活动”)存储在相对于该话题指定信息(“电影”)的更高的层级中。此外,将作为话题指定信息(“电影”)的下位概念的话题指定信息(“电影导演”、“领衔主演”等)存储在相对于该话题指定信息(“电影”)的更低的层级中。
如图10所示,话题名称(第二语素信息)由第一指定信息、第二指定信息以及第三指定信息构成。
其中,在本实施例中,该“第一指定信息”表示构成话题的主要语素。作为该第一指定信息的示例,存在构成语句的主语。
此外,在本实施例中,“第二指定信息”表示与第一指定信息具有密切关系的语素。作为该第二指定信息的示例,存在宾语单词。
另外,在本实施例中,该“第三指定信息”是指表示对象的动作的语素,或者修饰名词的语素等。作为该第三指定信息的示例,存在动词、副词或者形容词。
例如,如图10所示,当主语为“电影”而形容词为“有趣的”时,话题名称(第二语素信息)由第一指定信息中包含的语素“电影”和第三指定信息中包含的语素“有趣的”构成。该话题名称(电影;*;有趣的)的意思是:“电影是有趣的”。
构成该话题名称的圆括号中的各个信息按照从左至右的顺序分别为第一指定信息、第二指定信息以及第三指定信息。此外,当在话题名称的指定信息中不包含语素时,用“*”表示这部分指定信息。注意,构成话题名称的指定信息的数量不限于三条,可以包含另外的指定信息。
如图11所示,在本实施例中,将应答语句划分为多个类型(应答类型),如,陈述句(D)、时间句(T)、位置句(L)、以及否定句(N),以进行与用户所讲语句的类型相对应的应答。此外,用“A”表示肯定句,用“Q”表示疑问句。
例如,当话题名称1-1为“佐藤;*;喜欢”{这些是从“我喜欢佐藤”中提取出的语素}时,作为对应于话题名称1-1的应答语句1-1,有(DA;陈述肯定句“我也喜欢佐藤”,“TA;时间肯定句“我喜欢处在击球位上的佐藤”)等。稍后将描述的应答获取单元350获取与话题名称相关联的一个应答语句。
[1-8.会话控制单元]
在本实施例中,如图4所示,会话控制单元300包括管理单元310、话题指定信息检索单元320、缩略语句补全单元330、话题检索单元340以及应答获取单元350。管理单元310控制整个会话控制单元300。下面对构成会话控制单元300的这些单元进行说明。
[1-8-1.话题指定信息检索单元]
话题指定信息检索单元320将语素提取单元420所提取的第一语素信息与各条话题指定信息进行对照,并且检索与构成该第一语素信息的语素匹配的话题指定信息。更具体地,当从语素提取单元420输入的第一语素信息由两个语素构成时(即,“佐藤”和“喜欢”),该话题指定信息检索单元320对所输入的第一语素信息和该话题指定信息组进行对照。
当所关注的话题名称(先前所检索的话题名称)之中包含构成第一语素信息(例如“佐藤”)的语素时,已对第一语素信息和话题指定信息组进行了对照的话题指定信息检索单元320将所关注的话题名称输出给应答获取单元350。另一方面,当所关注的话题名称中不包含构成第一语素信息的语素时,该话题指定信息检索单元320根据第一语素信息来确定用户输入语句话题指定信息,并将所输入的第一语素信息和用户输入语句话题指定信息输出给缩略语句补全单元330。
[1-8-2.缩略语句补全单元]
缩略语句补全单元330使用先前所检索的话题指定信息(以下将其称为“关注话题指定信息”)和上次应答语句中包含的话题指定信息(以下将其称为“应答语句话题指定信息”)来补全第一语素信息,从而生成多种经过补全的第一语素信息。例如,如果所讲语句为语句“我喜欢”,则缩略语句补全单元330将关注话题指定信息“佐藤”包含在第一语素信息“喜欢”中,以生成补全的第一语素信息“佐藤,喜欢”。
换言之,当假设第一语素信息是“W”,并且关注话题指定信息和应答话题指定信息的集合是“D”时,缩略语句补全单元330将该集合“D”包含在第一语素信息“W”中,以生成补全的语素信息。
因此,例如,当利用第一语素信息构成的语句是缩略语句并且涵义不清时,该缩略语句补全单元330可以利用集合“D”将集合“D”的语素(即“佐藤”)包含在第一语素信息“W”中。因此,缩略语句补全单元330可以将第一语素信息“喜欢”改变为补全后的第一语素信息“佐藤,喜欢”。注意,该补全后的第一语素信息“佐藤,喜欢”对应于所讲的内容“我喜欢佐藤”。
换言之,即使用户的所讲内容为缩略语句,缩略语句补全单元330也可以使用集合“D”来补全该缩略语句。因此,即使第一语素信息所构成的语句为缩略语句,缩略语句补全单元330也可以使该语句变得恰当。
此外,缩略语句补全单元330根据集合“D”来检索与补全后的第一语素信息匹配的“话题名称”。当找到与补全后的第一语素信息匹配的“话题名称”时,缩略语句补全单元330将该“话题名称”输出给应答获取单元350。应答获取单元350可以根据缩略语句补全单元330所检索到的合适的“话题名称”而输出最适于用户所讲内容的应答语句。
注意,集合“D”的语素不仅是缩略语句补全单元330包含在第一语素信息中的语素。根据所关注的话题名称,缩略语句补全单元330可以将构成该话题名称的第一指定信息、第二指定信息或者第三指定信息中的任何一个当中所包含的语素包含在该第一语素信息中。
[1-8-3.话题检索单元]
当缩略语句补全单元330没有确定话题名称时,该话题检索单元340将第一语素信息与对应于用户输入语句话题信息的话题名称进行对照,并且从这些话题名称中检索出最适合于第一语素信息的一个话题名称。
更具体地,话题检索单元340(从缩略语句补全单元330向话题检索单元340输入检索指令信号)根据包含在所输入的检索指令信号中的用户输入语句话题指定信息和第一语素信息,从与用户输入语句话题指定信息相关联的多个话题名称中检索出最适合于该第一语素信息的话题名称。话题检索单元340将所检索的话题名称作为检索结果信号输出给应答获取单元350。
如图12所示,例如,由于在所输入的第一语素信息“佐藤,喜欢”中包含有话题指定信息“佐藤”,所以话题检索单元340将与该话题指定信息“佐藤”相关联的多个话题名称1-1、1-2、…与所输入的第一语素信息“佐藤,喜欢”进行对照。
该话题检索单元340根据对照的结果从多个话题名称1-1、1-2、…中检索出与所输入的第一语素信息“佐藤,喜欢”匹配的话题名称1-1(佐藤;*;喜欢)。话题检索单元340将所检索的话题名称1-1(佐藤;*;喜欢)作为检索结果信号输出给应答获取单元350。
[1-8-4.应答获取单元]
根据话题检索单元340所检索到的话题名称,应答获取单元350获取与该话题名称相关联的应答语句。此外,应答获取单元350根据话题检索单元340所检索到的话题名称,将与该话题名称相关联的多个应答类型与输入类型判断单元440所判断的话语类型进行对照。已将这些应答类型与话语类型进行了对照的应答获取单元350从这些应答类型中检索出与所判断的话语类型匹配的一个应答类型。
例如,如图12所示,如果话题检索单元340所检索的话题名称为话题名称1-1(佐藤;*;喜欢),则应答获取单元350从与话题名称1-1相关联的多个应答语句1-1(DA、TA等)中,指定与输入类型判断单元440所判断的“所讲语句类型”(例如DA)匹配的一个应答类型。根据所指定的应答类型(DA),指定了该应答类型(DA)的应答获取单元350根据所指定的应答类型(DA)来获取与该应答类型(DA)相关联的应答语句1-1(“我也喜欢佐藤)。
在“DA”、“TA”等中的“A”表示肯定形式。因此,当在话语类型和应答类型中包含有“A”时,这表示肯定某一事物。此外,在话语类型和应答类型中也可以包含诸如“DQ”和“TQ”的多种类型。“DQ”、“TQ”等中的“Q”表示关于某一事物的疑问。
当话语类型包含疑问形式“Q”时,与该话语类型相关联的应答语句由肯定形式(A)构成。作为由该肯定形式(A)所建立的应答语句的示例,有回应答所询问事物等的语句。例如,当所讲语句为“你操作过投币机吗?”时,该话语语句的话语类型为疑问形式(Q)。作为与该疑问形式(Q)相关联的应答语句的示例,有以下语句“我操作过投币机”(肯定形式(A))。
另一方面,当话语类型包含肯定形式(A)时,与该话语类型相关联的应答语句由疑问形式(Q)构成。作为以该疑问形式(Q)建立的应答语句的示例,存在对话语内容再次询问的疑问句、寻找特定事物的疑问句等。例如,当所讲语句为“我的业余爱好是玩投币机”,该所讲语句的话语类型为肯定形式(A)。作为与该肯定形式(A)相关联的应答语句的示例,例如存在以下语句“你的业余爱好是玩弹球盘吗?”(寻找特定事物的疑问语句“Q”)。
应答获取单元350将所获取的应答语句作为应答语句信号输出给管理单元310。已经从应答获取单元350输入了应答语句信号的管理单元310将所输入的应答语句信号输出给输出单元600。
输出单元600输出应答获取单元350所获取的应答语句。作为该输出单元600的示例,说话者有扬声器、显示器等。更具体地,已从管理单元310输入了应答语句的输出单元600根据所输入的应答语句,通过语音来输出应答语句,例如“我也喜欢佐藤”。
[2.会话控制方法]
可以根据下述过程来执行由具有上述结构的会话控制设备1所执行时会话控制方法。图13是根据本实施例的会话控制方法的过程的流程图。
首先,输入单元100执行从用户获取话语内容的步骤(步骤S1301)。更具体地说,输入单元100获取构成用户的话语内容的语音。输入单元100将所获取的语音作为语音信号输出给语音识别单元200。注意,输入单元100可以获取由用户输入的字符串(即,以文本格式输入的字符数据),而不是来自用户的语音。
随后,语音识别单元200根据输入单元100所获取的话语内容,执行指定与该话语内容对应的字符串的步骤(步骤S1302)。更具体地,已从输入单元100输入了语音信号的语音识别单元200根据所输入的语音信号,指定与该语音信号对应的单词假设(候选)。语音识别单元200获取与所指定的单词假设(候选)相关联的字符串,并将所获取的字符串作为字符串信号输出给会话控制单元300。
然后,字符串指定单元410执行将语音识别单元200所指定的字符串序列分割成多个语句的步骤(步骤S1303)。更具体地,当在所输入的字符串序列中存在固定长度或该固定长度以上的时间间隔时,已从管理单元310输入了字符串信号(或语素信号)的字符串指定单元410在这个部分对字符串进行分割。字符串指定单元410将所分割的字符串输出给语素提取单元420和输入类型判断单元440。注意,如果所输入的字符串是由键盘输入的字符串,则优选地,字符串指定单元410在出现标点符号、空格等的部分对字符串进行分割。
此后,语素提取单元420根据通过字符串指定单元410所指定的字符串,执行提取构成字符串的最小单位的语素作为第一语素信息的步骤(步骤S1304)。更具体地,已从字符串指定单元410输入了字符串的语素提取单元420将所输入的字符串与预先存储在语素数据库430中的语素组进行对照。注意,在本实施例中,将该语素组准备为语素词典,在该语素词典中对于属于各个品词分类的各个语素,描述了语素的索引词、读法、品词以及活用形式等。
已将字符串和语素组进行了对照的语素提取单元420从所输入的字符串中提取出与包含在预先存储的语素组中的语素匹配的多个语素(m1、m2、…)。语素提取单元420将所提取的多个语素作为第一语素信息输入给话题指定信息检索单元320。
随后,输入类型判断单元440执行以下步骤,即,根据构成字符串指定单元410所指定的语句的多个语素,对“所讲语句的类型”进行判断(步骤S1305)。更具体地,已从字符串指定单元410输入了字符串的输入类型判断单元440根据该字符串,对所输入的字符串和存储在话语类型数据库450中的各个词典进行对照,并且提取出与这些词典相关的元素。已经提取了这个元素的输入类型判断单元440根据该元素来判断所提取的元素属于哪个“所讲语句的类型”。输入类型判断单元440将所判断的“所讲语句的类型”(话语类型)输出给应答获取单元350。
然后,话题指定信息检索单元320执行以下步骤,即,将语素提取单元420所提取的第一语素信息和所关注的话题名称进行比较(步骤S1306)。
如果构成第一语素信息的多个语素与所关注的话题名称彼此匹配,则话题指定信息检索单元320将该话题名称输出给应答获取单元350。另一方面,如果构成第一语素信息的多个语素与该话题名称彼此不相匹配,则话题指定信息检索单元320将所输入的第一语素信息和用户输入话题指定信息作为检索指令信号输出给缩略语句补全单元330。
此后,该缩略语句补全单元330执行以下步骤,即,根据从话题指定信息检索单元320所输入的第一语素信息,将关注话题指定信息和应答语句话题指定信息包含在所输入的第一语素信息中(步骤S1307)。更具体地说,当假设第一语素信息为“W”,并且关注话题指定信息和应答语句指定信息的集合为“D”时,缩略语句补全单元330将该话题指定信息“D”的各个元素包含在第一指定信息“W”中,生成经过补全的第一语素信息,将补全后的第一语素信息和与该集合“D”相关联的所有话题名称进行对照,并进行检索以查找是否存在与补全后的第一语素信息匹配的话题名称。如果存在与补全后的第一语素信息匹配的话题名称,则缩略语句补全单元330将该话题名称输出给应答获取单元350。另一方面,如果未发现与补全后的第一语素信息匹配的话题名称,则缩略语句补全单元330将该第一语素信息和用户输入语句话题指定信息传送到话题检索单元340。
然后,该话题检索单元340执行以下步骤,即,将第一语素信息与用户输入语句话题指定信息进行对照,并从这些话题名称中检索出适合于该第一语素信息的一个话题名称(步骤1308)。更具体地,根据在所输入的检索指令信号中包含的用户输入语句话题指定信息和第一语素信息,已从缩略语句补全单元330输入了检索指令信号的话题检索单元340从与该用户输入语句话题指定信息相关联的多个话题名称中检索出适合于该第一语素信息的一个话题名称。话题检索单元340将作为检索结果而得到的话题名称作为检索结果信号输入给应答获取单元350。
随后,根据话题指定信息检索单元320、缩略语句补全单元330、或话题检索单元340所检索到的话题名称,应答获取单元350将所判断的用户话语类型和与该话题名称相关联的应答类型话语进行对照。已对话语类型和应答类型进行了对照的应答获取单元350从这些应答类型中检索出与所判断的话语类型匹配的一个应答类型(步骤S1309)。
更具体地说,应答获取单元350(已从话题检索单元340输入了检索结果信号并从输入类型判断单元440输入了“所讲语句的类型”)根据对应于所输入的检索结果信号的“话题名称”和所输入的“所讲语句的类型”,从与该“话题名称”相关联的应答类型组中指定与该“所讲语句的类型”(DA等)匹配的一个应答类型。
应答获取单元350获取与所指定的应答类型相关联的应答语句。应答获取单元350将所获取的应答语句通过管理单元310输出给输出单元600。输出单元600(已从管理单元310输入了应答语句)输出所输入的应答语句(步骤S1310)。
[3.该会话控制设备和会话控制方法的优点]
根据具有上述结构的实施例的本发明(会话控制设备和会话控制方法),第一语素信息是构成用户话语内容的多个主要语素的集合。因此,应答获取单元350可以考虑由这些主要语素所构成的语句的涵义和内容来获取应答语句。因此,与利用所讲的全部内容作为关键词,通过检索与该关键词相关联的应答语句而得到的应答语句相比,应答获取单元350可以获取更适合于话语内容的应答语句。
此外,由于话题检索单元340检索与第一语素信息匹配的话题名称,因此不必检索与用户所讲内容完全匹配的话题名称。因此,开发该会话控制设备1的开发人员不必使该会话控制设备1存储与第一语素信息完全匹配的所有话题,因此可以减小存储单元的容量。
另外,为了检索与该第一语素信息近似的话题名称,话题检索单元340仅需要将第一语素信息和与“话题指定信息”相关联的各个话题名称进行对照,并且不必将该第一语素信息与“所有的”话题名称进行对照。因此,话题检索单元340可以在短时间内检索与该第一语素信息近似的话题名称(定点检索)。此外,由于话题检索单元340可以根据在短时间内检索到的话题名称来执行该定点检索,因此应答获取单元350可以在短时间内获取与该话题名称相关联的应答语句。
此外,应答获取单元350可以从与多个话题名称相关联的多个应答类型中检索出与所判断的话语类型匹配的应答类型,并获取与所检索到的应答类型相关联的应答语句。因此,由于应答获取单元350可以获取与构成话语内容的话语类型匹配的应答语句,因此应答获取单元350可以更精确地对用户的话语内容进行应答。
此外,如果用户的话语内容为缩略语句,则缩略语句补全单元330可以将话题指定信息检索单元320上次所检索的话题指定信息包含在与话语内容对应的第一语素信息中。因此,即使用户的话语内容为缩略语句,缩略语句补全单元330也可以利用上次所检索的话题指定信息来补全缩略的语句。因此,即使由该第一语素信息所构成的语句为缩略语句,缩略语句补全单元330也可以使该语句变得合适。
此外,话题检索单元340可以根据第一语素信息在补全后检索与该第一语素信息相关的合适的话题名称。因此,应答获取单元350可以根据话题检索单元340所检索的该合适的话题名称来输出适合于话语内容的应答语句。
最后,即使来自用户的输入信息为缩略语句,会话控制设备1也可以利用过去的检索结果来推测该缩略语句的涵义,而无需使用神经网络、AI(人工智能)等功能,并且可以根据所推测的涵义和内容来检索适当的应答语句。此外,该会话控制设备1的开发人员不必安装神经网络或AI。因此,开发人员可以在短时间内简单地建立起用于该会话控制设备1的系统。
[B.第二实施例]
接下来,将对根据本发明第二实施例的会话控制设备进行说明。与图1中所示的根据第一实施例的会话控制设备1相同,根据第二实施例的会话控制设备包含:输入单元100、语音识别单元200、会话控制单元300、语句分析单元400、会话数据库500、输出单元600以及语音识别词典存储单元700。根据第二实施例的会话控制设备1′与根据第一实施例的会话控制装置1的不同之处在于,语音识别单元200向会话控制单元300发送语素信息,而不是字符串信号。
图14是根据第二实施例的会话控制设备的具体结构的部分功能框图。
在该实施例中,会话控制单元300′包含:管理单元310、话题指定信息检索单元320、缩略语句补全单元330、话题检索单元340以及应答获取单元350。管理单元310、话题指定信息检索单元320、缩略语句补全单元330、话题检索单元340以及应答获取单元350的功能和操作与第一实施例中的那些单元基本上相同。
在接收到来自语音识别单元200的语素信息之后,管理单元310将该语素信息传送到语句分析单元400′,使语句分析单元400′指定话语内容的类型(所讲语句类型),并将该语素信息作为第一语素信息传送到话题指定信息检索单元320。
话题指定信息检索单元320将第一语素信息和先前所确定的话题名称(将其称为“关注话题名称”)进行比较,以检查该第一语素信息是否与该话题名称匹配。如果该第一语素信息与该关注话题名称匹配,则话题指定信息检索单元320将该关注话题名称传送到应答获取单元350。应答获取单元350从会话数据库500中提取与所接收的话题名称对应的多个应答语句候选,在所提取的多个应答语句候选中选择与从输入类型判断单元440接收到的输入类型匹配的一个应答语句,并将该应答语句输出给管理单元310。另一方面,如果该第一语素信息与该关注话题名称不匹配,则话题指定信息检索单元320生成包含在该第一语素信息中的话题指定信息(称其为“用户输入语句话题指定信息”),并将该第一语素信息、用户输入语句话题指定信息、关注话题指定信息以及应答语句话题指定信息(包含在上次返回给用户的应答语句中的话题指定信息)传送到缩略语句补全单元330。
缩略语句补全单元330从会话数据库500中提取与该第一语素信息、用户输入语句话题指定信息、关注话题指定信息以及应答语句指定信息相关联的所有话题名称。然后,缩略语句补全单元330通过将这些话题指定信息添加到第一语素信息中而创建多种经过补全的第一语素信息(以下将其称为“补全第一语素信息”),将各个补全第一语素信息与这些话题名称进行对照,检索与该补全第一语素信息匹配的话题名称,并将该话题名称传送到应答获取单元350。应答获取单元350从会话数据库500中提取与所接收的话题名称对应的多个应答语句候选,在所提取的多个应答语句候选中选择与从输入类型判断单元440所接收的输入类型匹配的一个应答语句,并且向管理单元310输出该应答语句。另一方面,如果不存在与该补全第一语素信息匹配的话题名称,则缩略语句补全单元330将该第一语素信息和用户输入语句话题指定信息传送到话题检索单元340。
话题检索单元340接收第一语素信息组,并同时从会话数据库500中提取与用户输入语句话题指定信息相关联的多个话题名称,将这些话题名称与第一语素信息组进行比较,并且检查是否存在适合于该第一语素信息的话题名称。如果找到适合于该第一语素信息组的话题名称,则话题检索单元340将该话题名称传送到应答获取单元350。另一方面,如果不能找到适合于该第一语素信息的话题名称,则话题检索单元340通知应答获取单元350:应答不可用或未知。应答获取单元350选择一个预先定义为当应答不可用或未知时进行应答的应答语句,并将该应答语句输出到管理单元310。
应答获取单元350从会话数据库500中提取与从话题指定信息检索单元320、缩略语句补全单元330或者话题检索单元340所接收到的话题名称对应的多个应答语句候选。然后,应答获取单元350在所提取的多个应答语句候选中选择与从输入类型判断单元440接收到的输入类型(所讲语句类型)匹配的一个应答语句,并且将该应答语句输出到管理单元310。
根据第二实施例的会话控制设备1′的语句分析单元400′与第一实施例中的语句分析单元400的不同之处在于,语句分析单元400′包含输入类型判断单元440和话语类型数据库450,但是不包含字符串指定单元410、语素提取单元420以及语素数据库430。这是因为从会话控制单元300′提供给语句分析单元400′的是语素信息而不是字符串。
根据第二实施例,在语句分析单元400′中,对字符串进行语素分析,这使得不必创建第一语素信息。因此,减少了会话控制设备1′的负荷,并且可以实现与第一实施例相比更加快速的会话控制处理。
[4.改进及其他]
(1)注意,根据上述实施例的语音识别单元、语音识别设备、会话控制设备、语音识别方法以及会话控制方法并不限于用于以会话为目的的设备(会话机器人等),还可以用于游戏机。
(2)在本发明的第二实施例中,可以通过将会话数据库500反映到语音识别词典存储单元700中作为语言模型,从而建立具有更高识别精度的语音识别词典。图15显示了会话控制设备1的结构示例,其中,会话数据库500反映在语音识别词典存储单元700上作为语言模型。在此示例中,可以按照适当的定时将会话数据库500中积累的话题名称添加到语音识别词典存储单元700中,作为语言模型。这使得可以将与会话话题相符的语言模型反映在语音识别词典存储单元700上,并且可以进一步提高语音识别精度。
[5.本发明的优点]
本发明的一个方面使得在现有的语言模型之外,还可以根据会话历史记录来执行语音识别。因此,由于在防止错误识别之后,优先地选择与一个会话范围相符的话语候选,因此可以提高语音识别率。
本发明的另一个方面,仅根据“无意义的会话历史记录”之外的有意义的“会话历史记录”来优先地选择话语候选。因此,可以优先地选择更与话题相符的话语候选。从而,可以进一步提高语音识别率。
本领域的技术人员可以容易地想到其他的优点和改进。因此,广泛意义上的本发明并不限于本文所示出并说明的特定细节或代表性的实施例。因此,在不违背由后附的权利要求及其等同物所限定的总发明构思的精神和范围的情况下,可以进行各种修改。

Claims (13)

1.一种语音识别设备,其具有:语音识别装置(200);语音识别词典存储装置(700);会话数据库装置(500),其中存储有多条话题指定信息的;以及会话历史记录存储装置(300),其存储在过去的会话中包含的主题,所述语音识别设备的特征在于:
所述语音识别装置(200)根据所述语音识别词典存储装置中存储的内容,选择与语音信号对应的多个候选,在所选择的多个候选中选择出对应于与所述会话历史记录存储装置(300)中存储的会话历史记录相关联的话题指定信息的一个候选,并且输出该候选作为识别结果。
2.一种语音识别设备,其具有:语音识别装置(200),其接收语音信号;语音识别词典存储装置(700),在其中存储有用于确定与所述语音信号对应的多个候选的语言模型;会话数据库装置(500),在其中存储有多条话题指定信息;以及会话历史记录存储装置(300),其存储会话历史记录,所述语音识别设备的特征在于:
所述语音识别装置(200)具有:
单词对照装置(200C),其根据所输入的语音信号,参照所述语音识别词典存储装置(700)而输出多个候选;以及
候选确定装置(200E),其参照所述会话数据库装置(500),将从所述单词对照装置(200C)输出的所述多个候选与对应于所述会话历史记录的所述话题指定信息进行比较,并且根据所述比较的结果输出一个候选作为识别结果。
3.根据权利要求2所述的语音识别设备,其特征在于,所述候选确定装置(200E)参照所述会话数据库装置(500),将所述多个候选与对应于会话历史记录的话题指定信息进行比较,判断在所述多个候选中是否存在与对应于所述会话历史记录的所述话题指定信息匹配的候选,如果存在与所述话题指定信息匹配的候选,则输出该候选作为识别结果。
4.根据权利要求3所述的语音识别设备,其特征在于,
所述语音识别设备还包括候选缩减装置(200F),其中
作为所述多个候选与对应于所述会话历史记录的所述话题指定信息的比较结果,如果不存在与所述话题指定信息匹配的候选,则所述候选确定装置(200E)请求所述候选缩减装置(200F)来缩减所述多个候选,并且所述候选缩减装置(200F)响应于所述请求而输出所述多个候选中的具有最大似然度的候选作为识别结果。
5.根据权利要求2至4中任何一项所述的语音识别设备,其特征在于,
所述会话数据库装置(500)存储有与会话的主题相关的第一话题指定信息以及与会话的主题不相关的第二话题指定信息,并且
所述候选确定装置(200E)将所述多个候选与对应于会话历史记录的所述第一话题指定信息进行比较,并输出所述多个候选中的任何一个候选作为识别结果。
6.一种语音识别方法,用于输出与所输入的语音相对应的字符或者字符串作为识别结果,所述语音识别方法的特征在于:
所述语音识别方法包括以下步骤:
根据从所输入的语音获得的语音信号,分析声学特征;
根据所述声学特征输出多个候选;
获得与预先存储的会话历史记录对应的话题指定信息;以及
将所述多个候选与所获得的话题指定信息进行比较,并输出所述多个候选中的任何一个候选作为识别结果。
7.根据权利要求6所述的语音识别方法,其特征在于,在所述输出一个候选作为识别结果的步骤中,判断在所述多个候选中是否存在与对应于会话历史记录的话题指定信息相匹配的候选,如果存在与所述话题指定信息匹配的候选,则输出该候选作为识别结果。
8.根据权利要求7所述的语音识别方法,其特征在于:
作为在输出一个候选作为识别结果的步骤中对所述多个候选与对应于会话历史记录的话题指定信息进行比较的结果,如果不存在与所述话题指定信息匹配的候选,则输出所述多个候选中的具有最大似然度的候选作为识别结果。
9.根据权利要求6至8中任一项所述的语音识别方法,其特征在于:
所述话题指定信息包含与会话的主题相关的第一话题指定信息以及与会话的主题无关的第二话题指定信息,并且
将在输出一个候选作为识别结果的步骤中与所述多个候选进行比较的话题指定信息限制为所述第一话题指定信息。
10.一种自动会话设备,包括:
语音识别装置(200),其接收语音信号并且输出与该语音信号对应的字符或字符串作为识别结果;
语音识别词典存储装置(700),在其中存储有用于确定对应于所述语音信号的多个候选的语言模型;
会话数据库装置(500),在其中存储有多条话题指定信息;
语句分析装置(400),其分析从所述语音识别装置输出的字符或字符串;以及
会话控制装置(300),其存储会话历史记录,并且根据所述语句分析装置的分析结果而获得应答语句,
所述自动会话设备的特征在于:
所述语音识别装置(200)包括:
单词对照装置(200C),其根据所输入的语音信号,参照所述语音识别词典存储装置(700)而输出多个候选;以及
候选确定装置(200E),其参照所述会话数据库装置,将从所述单词对照装置输出的多个候选与对应于所述会话历史记录的话题指定信息进行比较,并且根据所述比较的结果输出任何一个候选作为识别结果。
11.根据权利要求10所述的自动会话设备,其特征在于:
所述会话数据库装置(500)在其中存储有与会话的主题相关的第一话题指定信息以及与会话的主题不相关的第二话题指定信息,并且
所述候选确定装置(200E)将所述多个候选和与会话历史记录对应的第一话题指定信息进行比较,并且输出所述多个候选中的任何一个候选作为识别结果。
12.一种自动会话方法,响应于输入语音而输出应答语句,其特征在于包括以下步骤:
根据从所输入的语音获得的语音信号,分析声学特征;
根据所述声学特征输出多个候选;
获得与预先存储的会话历史记录对应的话题指定信息;
将所述多个候选和所获得的话题指定信息进行比较,并输出所述多个候选中的任何一个候选作为识别结果;以及
分析所述识别结果,并且根据所述识别结果,输出与对应于所述会话历史记录的话题指定信息相关联的应答语句。
13.根据权利要求12所述的自动会话方法,其特征在于:
所述话题指定信息包含与会话的主题相关的第一话题指定信息以及与会话的主题无关的第二话题指定信息,并且
在输出一个候选作为识别结果的步骤中与所述多个候选进行比较的所述话题指定信息限于所述第一话题指定信息。
CNB2004100481686A 2003-06-20 2004-06-21 语音识别设备、语音识别方法、会话控制设备以及会话控制方法 Expired - Fee Related CN1321401C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP177356/2003 2003-06-20
JP2003177356A JP2005010691A (ja) 2003-06-20 2003-06-20 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム

Publications (2)

Publication Number Publication Date
CN1573924A true CN1573924A (zh) 2005-02-02
CN1321401C CN1321401C (zh) 2007-06-13

Family

ID=33411021

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2004100481686A Expired - Fee Related CN1321401C (zh) 2003-06-20 2004-06-21 语音识别设备、语音识别方法、会话控制设备以及会话控制方法

Country Status (8)

Country Link
US (1) US7415406B2 (zh)
EP (1) EP1489598B1 (zh)
JP (1) JP2005010691A (zh)
CN (1) CN1321401C (zh)
AT (1) ATE389225T1 (zh)
AU (1) AU2004202665A1 (zh)
DE (1) DE602004012347T2 (zh)
ZA (1) ZA200404844B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006125346A1 (en) * 2005-05-27 2006-11-30 Intel Corporation Automatic text-speech mapping tool
CN101601259A (zh) * 2007-01-12 2009-12-09 松下电器产业株式会社 控制便携式终端的语音识别功能的方法和无线通信系统
CN101071418B (zh) * 2007-03-29 2010-06-23 腾讯科技(深圳)有限公司 聊天方法与系统
CN1975858B (zh) * 2005-10-21 2011-06-22 环球娱乐株式会社 会话控制装置
CN102246226A (zh) * 2009-01-30 2011-11-16 三菱电机株式会社 声音识别装置
CN103578467A (zh) * 2013-10-18 2014-02-12 威盛电子股份有限公司 声学模型的建立方法、语音辨识方法及其电子装置
CN104380374A (zh) * 2012-06-19 2015-02-25 株式会社Ntt都科摩 功能执行指示系统、功能执行指示方法及功能执行指示程序
CN105027198A (zh) * 2013-02-25 2015-11-04 三菱电机株式会社 语音识别系统以及语音识别装置
CN105389400A (zh) * 2015-12-24 2016-03-09 Tcl集团股份有限公司 语音交互方法及装置
CN105469789A (zh) * 2014-08-15 2016-04-06 中兴通讯股份有限公司 一种语音信息的处理方法及终端
CN105760464A (zh) * 2010-03-16 2016-07-13 英派尔科技开发有限公司 自动显示推断术语的方法及计算设备
CN106297781A (zh) * 2015-06-24 2017-01-04 松下电器(美国)知识产权公司 控制方法和控制器
CN107329952A (zh) * 2017-06-15 2017-11-07 重庆柚瓣科技有限公司 一种适老化语义理解方法
CN107564510A (zh) * 2017-08-23 2018-01-09 百度在线网络技术(北京)有限公司 一种语音虚拟角色管理方法、装置、服务器和存储介质
CN108074562A (zh) * 2016-11-11 2018-05-25 株式会社东芝 语音识别装置、语音识别方法以及存储介质
CN108140383A (zh) * 2016-07-19 2018-06-08 门箱股份有限公司 影像显示设备、话题选择方法、话题选择程序、影像显示方法及影像显示程序
CN108231070A (zh) * 2016-12-14 2018-06-29 松下知识产权经营株式会社 语音对话装置、语音对话方法、语音对话程序以及机器人
CN109660678A (zh) * 2018-12-07 2019-04-19 深圳前海微众银行股份有限公司 电核系统实现方法、系统及可读存储介质
CN110364152A (zh) * 2019-07-25 2019-10-22 深圳智慧林网络科技有限公司 语音交互方法、设备及计算机可读存储介质
CN110914897A (zh) * 2018-06-18 2020-03-24 菱洋电子株式会社 语音识别系统和语音识别装置
CN114080640A (zh) * 2020-01-29 2022-02-22 互动解决方案公司 对话分析系统
CN114175148A (zh) * 2020-04-24 2022-03-11 互动解决方案公司 语音分析系统

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126713B2 (en) * 2002-04-11 2012-02-28 Shengyang Huang Conversation control system and conversation control method
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7742580B2 (en) * 2004-02-05 2010-06-22 Avaya, Inc. Methods and apparatus for context and experience sensitive prompting in voice applications
NO20052966D0 (no) * 2005-06-16 2005-06-16 Lumex As Monsterkodede ordboker
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
TWI270052B (en) * 2005-08-09 2007-01-01 Delta Electronics Inc System for selecting audio content by using speech recognition and method therefor
JP4849662B2 (ja) * 2005-10-21 2012-01-11 株式会社ユニバーサルエンターテインメント 会話制御装置
JP4846336B2 (ja) * 2005-10-21 2011-12-28 株式会社ユニバーサルエンターテインメント 会話制御装置
JP4849663B2 (ja) * 2005-10-21 2012-01-11 株式会社ユニバーサルエンターテインメント 会話制御装置
JP2007219880A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd 評判情報処理プログラム、方法及び装置
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US20080201158A1 (en) * 2007-02-15 2008-08-21 Johnson Mark D System and method for visitation management in a controlled-access environment
JP5279420B2 (ja) * 2007-11-14 2013-09-04 キヤノン株式会社 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
JP5440177B2 (ja) * 2007-12-21 2014-03-12 日本電気株式会社 単語カテゴリ推定装置、単語カテゴリ推定方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP5451982B2 (ja) * 2008-04-23 2014-03-26 ニュアンス コミュニケーションズ,インコーポレイテッド 支援装置、プログラムおよび支援方法
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US9959870B2 (en) * 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
CN102341843B (zh) * 2009-03-03 2014-01-29 三菱电机株式会社 语音识别装置
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
US8600025B2 (en) * 2009-12-22 2013-12-03 Oto Technologies, Llc System and method for merging voice calls based on topics
US9645996B1 (en) * 2010-03-25 2017-05-09 Open Invention Network Llc Method and device for automatically generating a tag from a conversation in a social networking website
JP5325176B2 (ja) * 2010-07-20 2013-10-23 日本電信電話株式会社 2チャネル音声の音声認識方法とその装置とプログラム
US8650031B1 (en) * 2011-07-31 2014-02-11 Nuance Communications, Inc. Accuracy improvement of spoken queries transcription using co-occurrence information
US9229974B1 (en) 2012-06-01 2016-01-05 Google Inc. Classifying queries
KR101909141B1 (ko) 2012-07-27 2018-10-17 엘지전자 주식회사 전자기기 및 전자기기의 제어방법
KR101370539B1 (ko) * 2013-03-15 2014-03-06 포항공과대학교 산학협력단 지시 표현 처리에 기반한 대화 처리 방법 및 장치
WO2016044290A1 (en) 2014-09-16 2016-03-24 Kennewick Michael R Voice commerce
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
EP3207467A4 (en) 2014-10-15 2018-05-23 VoiceBox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10672390B2 (en) * 2014-12-22 2020-06-02 Rovi Guides, Inc. Systems and methods for improving speech recognition performance by generating combined interpretations
CN106131278B (zh) * 2016-07-15 2019-04-09 广州安望信息科技有限公司 一种精确寻找手机联系人的方法及装置
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests
FR3056323B1 (fr) * 2016-09-16 2023-01-06 Toshiba Kk Systeme de gestion d'informations
US20190129591A1 (en) * 2017-10-26 2019-05-02 International Business Machines Corporation Dynamic system and method for content and topic based synchronization during presentations
US11031005B2 (en) * 2018-12-17 2021-06-08 Intel Corporation Continuous topic detection and adaption in audio environments

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5225981A (en) * 1986-10-03 1993-07-06 Ricoh Company, Ltd. Language analyzer for morphemically and syntactically analyzing natural languages by using block analysis and composite morphemes
JPH01185180A (ja) 1988-01-13 1989-07-24 Hitachi Cable Ltd 内部に接続部のないリニアモータ用コイルのコイル部形成方法
DE69232407T2 (de) * 1991-11-18 2002-09-12 Toshiba Kawasaki Kk Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung
US5937383A (en) * 1996-02-02 1999-08-10 International Business Machines Corporation Apparatus and methods for speech recognition including individual or speaker class dependent decoding history caches for fast word acceptance or rejection
US6411924B1 (en) * 1998-01-23 2002-06-25 Novell, Inc. System and method for linguistic filter and interactive display
US6101492A (en) * 1998-07-02 2000-08-08 Lucent Technologies Inc. Methods and apparatus for information indexing and retrieval as well as query expansion using morpho-syntactic analysis
JP2002533771A (ja) * 1998-12-21 2002-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識履歴にもとづく言語モデル
US6901402B1 (en) * 1999-06-18 2005-05-31 Microsoft Corporation System for improving the performance of information retrieval-type tasks by identifying the relations of constituents
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
US20020133347A1 (en) * 2000-12-29 2002-09-19 Eberhard Schoneburg Method and apparatus for natural language dialog interface
JP4390402B2 (ja) * 2001-03-29 2009-12-24 富士通株式会社 知識情報管理方法、知識情報利用方法および知識情報管理装置
JP4340024B2 (ja) 2001-06-07 2009-10-07 日本放送協会 統計的言語モデル生成装置および統計的言語モデル生成プログラム
KR100463655B1 (ko) * 2002-11-15 2004-12-29 삼성전자주식회사 부가 정보 제공 기능이 있는 텍스트/음성 변환장치 및 방법

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006125346A1 (en) * 2005-05-27 2006-11-30 Intel Corporation Automatic text-speech mapping tool
CN1975858B (zh) * 2005-10-21 2011-06-22 环球娱乐株式会社 会话控制装置
CN101601259A (zh) * 2007-01-12 2009-12-09 松下电器产业株式会社 控制便携式终端的语音识别功能的方法和无线通信系统
CN101071418B (zh) * 2007-03-29 2010-06-23 腾讯科技(深圳)有限公司 聊天方法与系统
CN102246226A (zh) * 2009-01-30 2011-11-16 三菱电机株式会社 声音识别装置
CN102246226B (zh) * 2009-01-30 2013-11-13 三菱电机株式会社 声音识别装置
CN105760464A (zh) * 2010-03-16 2016-07-13 英派尔科技开发有限公司 自动显示推断术语的方法及计算设备
US10380206B2 (en) 2010-03-16 2019-08-13 Empire Technology Development Llc Search engine inference based virtual assistance
CN104380374A (zh) * 2012-06-19 2015-02-25 株式会社Ntt都科摩 功能执行指示系统、功能执行指示方法及功能执行指示程序
CN105027198A (zh) * 2013-02-25 2015-11-04 三菱电机株式会社 语音识别系统以及语音识别装置
CN105027198B (zh) * 2013-02-25 2018-11-20 三菱电机株式会社 语音识别系统以及语音识别装置
CN103578467A (zh) * 2013-10-18 2014-02-12 威盛电子股份有限公司 声学模型的建立方法、语音辨识方法及其电子装置
CN105469789A (zh) * 2014-08-15 2016-04-06 中兴通讯股份有限公司 一种语音信息的处理方法及终端
CN106297781A (zh) * 2015-06-24 2017-01-04 松下电器(美国)知识产权公司 控制方法和控制器
CN105389400A (zh) * 2015-12-24 2016-03-09 Tcl集团股份有限公司 语音交互方法及装置
CN105389400B (zh) * 2015-12-24 2020-02-14 Tcl集团股份有限公司 语音交互方法及装置
CN108140383A (zh) * 2016-07-19 2018-06-08 门箱股份有限公司 影像显示设备、话题选择方法、话题选择程序、影像显示方法及影像显示程序
US10713006B2 (en) 2016-07-19 2020-07-14 Gatebox Inc. Image display apparatus, topic selection method, topic selection program, image display method, and image display program
CN108074562A (zh) * 2016-11-11 2018-05-25 株式会社东芝 语音识别装置、语音识别方法以及存储介质
CN108074562B (zh) * 2016-11-11 2021-12-03 株式会社东芝 语音识别装置、语音识别方法以及存储介质
CN108231070A (zh) * 2016-12-14 2018-06-29 松下知识产权经营株式会社 语音对话装置、语音对话方法、语音对话程序以及机器人
CN108231070B (zh) * 2016-12-14 2023-04-18 松下知识产权经营株式会社 语音对话装置、语音对话方法、记录介质以及机器人
CN107329952A (zh) * 2017-06-15 2017-11-07 重庆柚瓣科技有限公司 一种适老化语义理解方法
CN107564510A (zh) * 2017-08-23 2018-01-09 百度在线网络技术(北京)有限公司 一种语音虚拟角色管理方法、装置、服务器和存储介质
CN110914897B (zh) * 2018-06-18 2023-03-07 菱洋电子株式会社 语音识别系统和语音识别装置
CN110914897A (zh) * 2018-06-18 2020-03-24 菱洋电子株式会社 语音识别系统和语音识别装置
CN109660678A (zh) * 2018-12-07 2019-04-19 深圳前海微众银行股份有限公司 电核系统实现方法、系统及可读存储介质
CN110364152A (zh) * 2019-07-25 2019-10-22 深圳智慧林网络科技有限公司 语音交互方法、设备及计算机可读存储介质
CN110364152B (zh) * 2019-07-25 2022-04-01 深圳智慧林网络科技有限公司 语音交互方法、设备及计算机可读存储介质
CN114080640B (zh) * 2020-01-29 2022-06-21 互动解决方案公司 对话分析系统
CN114080640A (zh) * 2020-01-29 2022-02-22 互动解决方案公司 对话分析系统
CN114175148A (zh) * 2020-04-24 2022-03-11 互动解决方案公司 语音分析系统
CN114175148B (zh) * 2020-04-24 2023-05-12 互动解决方案公司 语音分析系统

Also Published As

Publication number Publication date
DE602004012347T2 (de) 2009-03-05
US7415406B2 (en) 2008-08-19
AU2004202665A1 (en) 2005-01-13
EP1489598B1 (en) 2008-03-12
JP2005010691A (ja) 2005-01-13
CN1321401C (zh) 2007-06-13
EP1489598A1 (en) 2004-12-22
ZA200404844B (en) 2006-05-31
US20050021331A1 (en) 2005-01-27
ATE389225T1 (de) 2008-03-15
DE602004012347D1 (de) 2008-04-24

Similar Documents

Publication Publication Date Title
CN1573924A (zh) 语音识别设备、语音识别方法、会话控制设备以及会话控制方法
US20230012984A1 (en) Generation of automated message responses
US11264030B2 (en) Indicator for voice-based communications
US11062694B2 (en) Text-to-speech processing with emphasized output audio
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US10453449B2 (en) Indicator for voice-based communications
JP4888996B2 (ja) 会話制御装置
JP4846336B2 (ja) 会話制御装置
US8280733B2 (en) Automatic speech recognition learning using categorization and selective incorporation of user-initiated corrections
JP4849662B2 (ja) 会話制御装置
Huijbregts Segmentation, diarization and speech transcription: surprise data unraveled
CN1157712C (zh) 语音识别方法和装置
JP2008134475A (ja) 入力された音声のアクセントを認識する技術
JP2007114621A (ja) 会話制御装置
JP2007115145A (ja) 会話制御装置
JP2003036093A (ja) 音声入力検索システム
US11798559B2 (en) Voice-controlled communication requests and responses
CN110853628A (zh) 一种模型训练方法、装置、电子设备及存储介质
CN1692405A (zh) 语音处理设备、语言处理方法、存储介质及程序
JP3660512B2 (ja) 音声認識方法、その装置及びプログラム記録媒体
CN1158621C (zh) 信息处理装置、信息处理方法
CN1159701C (zh) 执行句法置换规则的语音识别装置
Saeki et al. Language model adaptation for emotional speech recognition using Tweet data
JP2005157602A (ja) 会話制御装置、会話制御方法並びにこれらのプログラム
JP6002598B2 (ja) 強調位置予測装置、その方法、およびプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: GLOBAL ENTERTAINMENT CORPORATION

Free format text: FORMER OWNER: P TO

Effective date: 20140129

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20140129

Address after: Tokyo, Japan

Patentee after: Global Entertainment Corporation

Address before: Tokyo, Japan

Patentee before: P to PA Corporation

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070613

Termination date: 20210621