CN102365639B - 检索装置 - Google Patents

检索装置 Download PDF

Info

Publication number
CN102365639B
CN102365639B CN201080015020.6A CN201080015020A CN102365639B CN 102365639 B CN102365639 B CN 102365639B CN 201080015020 A CN201080015020 A CN 201080015020A CN 102365639 B CN102365639 B CN 102365639B
Authority
CN
China
Prior art keywords
candidate
score
retrieval
input
retrieves historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201080015020.6A
Other languages
English (en)
Other versions
CN102365639A (zh
Inventor
冈登洋平
花沢利行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN102365639A publication Critical patent/CN102365639A/zh
Application granted granted Critical
Publication of CN102365639B publication Critical patent/CN102365639B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution

Abstract

在现有的检索技术中,检索结果具有多个候补时的候补缩小方式的一个方法为了防止候补遗漏而产生庞大数量的候补导致管理成本增大,其他方法由于总是以全部候补为对象进行处理,因此处理时间长,响应性下降。将包括来自于输入单元的输入内容与候补列表的检索历史存储在检索历史存储单元中,按照存储的检索历史内容,由缩小方式选择单元从将检索对象限定为上位候补的方式、与基于过去输入重新检索的方式中选择缩小方法,按照选择的缩小方式从检索历史中设定检索候补及其得分,基于来自于输入单元的字符串以检索用索引为参照由候补得分更新单元更新候补得分,根据更新的候补数及其得分的分布由候补决定单元决定提示候补,参照名称信息数据由候补提示单元对用户提示决定的候补。

Description

检索装置
技术领域
本发明涉及一种针对文本输入或输入语音等基于模式识别的输入如对设施等名称的检索装置。
背景技术
基于字符串索引的名称检索技术是对检索对象的词素、N字符连锁的部分字符串检索出现的名称的技术。日本专利第3665112号公报公开了一种根据部分字符串的对照合计各候补的得分,将上位候补作为检索结果的方法。此时,能够实现即使不是与输入完全一致的字符串也会提取类似的候补的模糊检索。在模糊检索中,需要保持得分不同的多个候补,与完全一致检索相比,使用存储器、运算量更大。
在上述中参照的字符串索引的大小与检索对象字符串的检索单位数成正比。因此,当检索对象为大规模时,需要在DVD(DigitalVersatile Disk)或硬盘等二次存储器上配置参照的字符串索引。这种情况下,从二次存储器的读出所需的处理时间变长。词典的读出次数为不同的部分字符串的种类数,在如名称这样简短的输入中,大致与输入字符串的长度成正比。另外,一般而言,在模糊检索中,需要保持得分不同的多个候补,与完全一致检索相比,存储器、运算量更大。
通过将上述检索方式与语音识别技术相结合能够实现基于语音输入的检索。日本特开2008-262279号公报中,作为使用了语音的检索方法,公开了一种考虑了语音识别的单位和检索的单位的差异的检索手法。这种情况下,成为还考虑了语音识别时的误识别的检索,候补数进一步增加。
检索的结果,在产生了多个候补时,希望通过用户的追加输入而缩小候补。日本专利第3134204号公报中,公开了一种通过指示操作能够选择分层检索模式与总体检索模式的方法,其中,所述分层检索模式将作为紧接之前的检索结果的文档集合作为母集团进行缩小,所述总体检索模式在每次检索中总是将一定的文档集合作为母集合进行检索。
专利文献1:日本专利第3665112号公报、字符串检索方法及装置
专利文献2:日本特开2008-262279号公报、语音检索装置
专利文献3:日本专利第3134204号公报、信息检索用终端装置及信息检索用终端装置中的信息显示·输入输出方法
发明内容
所述专利文献3的日本专利第3134204号公报所公开的两种缩小方式需要用户指定缩小方法。另外,可以考虑将上述方式与模糊检索相结合。这种情况下,各个缩小方式存在以下课题。
上述分层检索模式中,保持被缩小的候补列表作为检索历史,针对用于缩小的追加输入,仅对候补列表内的对象进行处理。因此,仅对追加输入产生索引的参照。另外,合计对象少且运算量小。
但是,由于一旦成为候补外,则不会再次成为候补,因此需要防止候补遗漏。例如,将位于东京都的设施名称作为检索对象时,针对“东京”这样的输入会产生庞大数量的候补。这种情况下,不仅用户难以确认所有的候补,而且存在检索历史中包含很多候补导致管理成本增加的问题。另外,在可保持的候补数具有上限时,会产生从候补遗漏的情况。当考虑多次缩小或缩小取消时,需要存储多次的检索历史,管理成本也会增加。
上述总体检索模式中,每当重新检索时对文档母集团重新检索。因此,只要保持用户的输入作为检索历史即可,管理检索历史的成本小。但是,总是以全部候补为对象,需要处理所有的输入。因此,由于索引的读出次数多,合计对象的候补数也多,所以处理时间变长,响应性下降。
另外,日本特开2008-262279号公报在以语音输入为对象的检索的情况下,制作覆盖检索对象整体的识别词典。该词典并未考虑缩小结果,缩小时也未能改善识别率。
通常,由于用户以能限定检索对象的方式进行输入,因此成为庞大的候补数的情况是少见的。所以,有鉴于上述问题,本发明的目的在于不提高缩小检索时的管理成本,而改善平均检索时间。另外,目的在于改善基于语音的缩小中的识别精度。
本发明所涉及的检索装置,包括:
输入单元,受理用户输入,输出检索请求;
检索历史存储单元,存储包括来自于输入单元的输入内容以及候补列表的检索历史;
缩小方式选择单元,根据检索请求,按照存储在检索历史存储单元中的检索历史的内容,从以下两种方式中选择缩小方法:将检索对象限定为上位候补的方式;以及根据过去输入重新检索的方式;
候补得分更新单元,根据选择的缩小方式,从检索历史中设定检索候补及其得分,基于由输入单元受理的字符串,以检索用索引为参照更新候补得分;
候补决定单元,根据通过候补得分更新单元更新的候补数与得分的分布,决定提示的候补;以及
候补提示单元,参照名称信息数据,对用户提示由候补决定单元决定的候补。
根据本发明所涉及的检索装置,按照存储在检索历史存储单元中的检索历史的内容,从将检索对象限定为上位候补的方式、与根据过去输入重新检索的方式这两种方式中选择缩小方法。因此,当妥当性高的候补少时,能够限定对象进行缩小以缩短运算时间。另外,当妥当性高的候补多时,能够参照检索历史的输入字符串,进行扩大了范围的检索,即使是较小的检索历史大小,也不会产生遗漏,能够实现平均运算时间短的检索。
附图说明
图1是本发明设想的检索装置的整体结构图。
图2是表示本发明的实施方式1所涉及的检索装置的结构的功能框图。
图3是名称信息词典例的说明图。
图4是基于字符2-gram的检索用索引例的说明图。
图5是检索历史例的说明图。
图6是表示合计得分与合计标志的合计用表格的说明图。
图7是表示实施方式1所涉及的检索装置的检索处理动作的流程图。
图8是针对两个输入的检索结果的候补次序与得分的特性图。
图9是表示本发明的实施方式2所涉及的检索装置的结构的功能框图。
图10是表示双字母组语言模型的连接概率P的说明图。
图11是识别三个名称以及构成单词的缩小用识别词典例的说明图。
图12是表示实施方式2所涉及的检索装置的检索处理动作的流程图。
图13是表示本发明的实施方式3所涉及的检索装置的结构的功能框图。
图14是表示实施方式3所涉及的检索装置的检索处理动作的流程图。
具体实施方式
下面参照附图,对本发明的优选实施方式进行详细说明。
实施方式1.
图1是本发明设想的检索装置的整体结构。输入部10受理基于文本、语音等的输入,根据需要参照大词汇语音识别词典103转换为检索部20可受理的形式。检索部20参照检索用索引102进行模糊检索。提示部30参照名称信息词典101向用户提示基于检索部20的检索结果的名称、附带信息。
名称信息词典101、检索用索引102以及大词汇语音识别词典103是根据检索对象的数据制作出的。当检索对象成为大规模时,这些数据大小也变大,因此配置在二次存储装置40上。
图2是表示本发明的实施方式1所涉及的检索装置的结构的功能框图。
检索装置包括名称信息词典101、检索用索引102、作为输入部10的结构单元的一例的输入单元201、检索历史存储单元202、缩小方式选择单元203、候补得分更新单元204、候补决定单元205、作为提示部30的结构单元的一例的候补提示单元206。
本发明的特征部分在于包括缩小方式选择单元203,按照从检索历史存储单元202读出的检索历史决定缩小方式这点。下面对各功能块的动作进行说明。
名称信息词典101为与用于向用户提示的名称ID(identification)对应的表述、发音等名称信息。图3是由名称ID与名称的读法构成的名称信息词典101的例子。如果名称信息词典101为与名称ID相对应的信息,则也可以登记单词分割结果、表述等。
检索用索引102对部分字符串存储相应的名称ID。能够根据输入的部分字符串参照名称ID,更新每个名称ID的得分。部分字符串的单位需要事先决定,使用单词(日文的情况是词素)、字符N-gram等。除了名称ID以外还能够赋予名称内的位置信息、tf·idf等信息检索上的重要度等。图4是与图3对应的基于字符2-gram的检索用索引102的例子。检索用索引能够根据任意的两个字符参照相应的名称ID。
输入单元201受理用户的输入并向候补得分更新单元204输出检索用的字符串。
检索历史存储单元202存储迄今为止的用户的检索历史。检索历史是由输入ID、用户的输入字符串、构成该时刻的检索结果的名称ID及其得分构成。每当产生缩小时,向检索历史追加,当解除缩小时,检索历史的候补被全部清除。检索历史由适当的得分的阈值或可提示的候补数终结。图5是检索历史的例子。
当检索历史存储单元202中存储有检索历史时,缩小方式选择单元203根据存储在检索历史存储单元202中的候补数、得分等选择缩小方法。
候补得分更新单元204针对由输入单元201获取的字符串,根据构成字符串的部分字符串,对具备在候补得分更新单元204中的合计用表格的名称ID的得分进行更新。合计用表格被赋予每个名称ID的得分、以及表示通过缩小而成为合计对象的合计标志。图6是表示合计用表格的合计得分与合计标志的例子。当没有检索历史时,清除合计用表格的所有名称ID的得分,设置合计用表格的合计标志。
为了从由候补得分更新单元204获取的得分超过规定值的候补中向用户进行提示,候补决定单元205从合计用表格中提取规定数以下的候补、为了检索而保持的候补的名称ID及其得分,向候补提示单元206和检索历史存储单元202输出。
候补提示单元206参照名称信息词典101,向用户提示与从候补决定单元205获取的名称ID列表对应的名称。
接着,对本发明的实施方式1所涉及的检索装置的动作进行说明。
图7是表示实施方式1所涉及的检索装置的检索处理动作的流程图。这里,假设检索历史存储单元202中存储有h次的检索历史S[i](i=1..h)。
输入单元201获取用户输入的字符串,输出检索请求(步骤S1001)。
当存在检索请求时,缩小方式选择单元203参照检索历史存储单元202确认是否存在针对输入字符串的检索历史(历史数h是否为1以上)(步骤S1002)。在历史数为0时,针对合计用表格的所有候补设置检索对象的合计标志,将得分清除为0,进入步骤S1008。
在历史数为1以上时,缩小方式选择单元203参照存储在检索历史存储单元202中的检索历史的总共的输入字符串的长度、最终历史的候补数、最终历史的候补得分分布的至少一个,从(1)根据过去输入重新检索:合计用表格的得分再计算、(2)将检索对象限定为上位候补:限定在检索历史存储单元202保持的候补内、中,选择缩小方法(步骤S1003)。缩小方法选择的详细内容将在后面描述。在得分再计算时进入步骤S1004,在限定在检索历史存储单元202保持的候补内时进入步骤S1007。
在选择了得分再计算时,根据过去历史的输入重新计算合计用表格的每个名称ID的得分。首先,针对合计用表格的所有候补设置合计标志,将参照的历史编号i设置为1(步骤S1004)。
接着,候补得分更新单元204从包含在历史信息S[i]中的输入字符串中读出检索用索引102的部分字符串索引,对每个候补的得分进行相加(步骤S1005)。
如果参照的历史i小于存储的历史数h,则对i加1,返回步骤S1005。否则进入步骤S1008(步骤S1006)。其结果,考虑了所有历史的输入字符串的得分被赋予给候补的名称ID。
在将缩小方法限定在检索历史存储单元202保持的候补内时,候补得分更新单元204设置合计用表格的最新检索历史S[h]中所保持的名称ID的合计标志,更新得分(步骤S1007)。
候补得分更新单元204获取用于参照与从输入单元201获取的字符串对应的检索用索引102的部分字符串,参照检索用索引102,对基于部分字符串的得分进行相加(步骤S1008)。
候补决定单元205从合计用表格中提取规定数以下的从由候补得分更新单元204获取的得分超过规定值的候补中对用户提示的提示用的名称ID及其得分,确定提示候补(步骤S1009)。
检索历史存储单元202存储候补决定单元205从合计用表格中提取的输入字符串、提示候补的名称ID、得分(步骤S1010)。
候补提示单元206参照名称信息词典101,获取与提示的名称ID对应的名称等提示内容,向用户提示(步骤S1011)。
(缩小方式的选择基准)
对图2的缩小方式选择单元203中缩小方法的选择基准进行说明。
图8是将对某个输入(A)(B)的检索结果的候补以X轴为次序、以Y轴为得分而表示的图。根据候补的妥当性设定阈值。另外,为了确保妥当的响应性,同时设定提示的候补数的上限。
当比较(A)、(B)两个输入时,输入(A)与输入(B)相比,候补数少且得分下降。这表示输入(A)为仅出现在特定的名称中的表现,缩小候补的效果大。另一方面,输入(B)在与输入(A)为同一次序的得分大。这表示输入(B)为常见的表现,缩小候补的效果小。
在输入(A)的得分分布的情况下,认为妥当性高的候补包含在规定的阈值·候补数内。另一方面,在输入(B)的得分分布时,认为除了规定的候补数,除此以外还存在很多类似的候补。在上述中,输入(A)的情况认为妥当性高的名称包含在保持的候补内。因此,对于追加的输入限定在保持的候补内而进行缩小。这种情况下,由于仅针对追加输入以限定的候补为对象进行合计,因此运算量小。
在输入(B)的情况下,候补数很多,在保持的名称数存在限制时,具有妥当性的名称有可能从保持的候补数遗漏。因此,使用检索历史中包含的所有输入再次进行检索。与输入(A)的情况相比,输入(B)的情况下运算量大。
由于用户输入的大部分为具有缩小效果的(A)类型的输入,因此通过结合两者来能够抑制平均运算量。一般而言,与(A)相比(B)在多数情况下为短的输入。因此,除了得分阈值中的候补数以外,输入的长度也可以作为进行上述判别的基准。
此外,在上述说明中,输入单元201获取用户的文本输入,但参照大词汇识别词典103,识别语音输入并由文本输出也是同样的。
如上所述,根据本实施方式1,根据候补的得分分布、候补数控制缩小方法。因此,当妥当性高的候补少时,限定对象来进行缩小,能够缩短运算时间。另外,当妥当性高的候补多时,参照检索历史的输入字符串,进行扩大了范围的检索。因此,即使是较小的检索历史大小,也不会产生遗漏,实现平均运算时间短的检索。
实施方式2.
图9是表示本发明的实施方式2所涉及的检索装置的结构的功能框图。实施方式2所涉及的检索装置在实施方式1的检索装置中追加设置了缩小用识别词典生成单元302。另外,设想输入为语音。下面,对与实施方式1相同的结构标注与在图2中使用的符号相同的符号,省略或简化说明。
大词汇识别词典103是为了识别对检索对象的名称信息的用户的检索表现而事先制作的语音识别用词典。一般而言,在语音识别中,通过语音识别词典越是能够限定接下来出现的单词,越能够期待高识别率。在以下的说明中,作为识别词典的例子,对基于在大词汇语音识别中广泛使用的N-GRAM语言模型(N=2)的识别词典进行说明。
N-gram语言模型是根据紧接之前的N-1单词推定接下来出现的单词的概率的模型。N=2时,根据紧接之前的单词预测下一单词,被称为双字母组(bi-gram)。双字母组语言模型根据构成识别词典的任意的两个单词w1与w2的连接概率P(w2|w1),从识别中的单词预测接下来出现的单词。图10是表示识别对象的单词w1、w2的连接概率P(w2|w1)的图。图中,单词START(开始)与ENT(结束)为表示句首、句尾的虚拟性单词。连接概率P(w2|w1)是根据实际的发声内容、检索对象的名称等学习数据中的出现频率进行计算。然而,学习数据量具有限制,例如对于5000个单词具有2千5百万的双字母组(5000的平方)的庞大组合。
因此,尽管具有连接的可能性,却会产生学习数据中未出现的具有连接可能性的单词列。这种情况下,如果将概率设为0,则完全不能识别相应的单词列。因此,使用即使对于未出现的单词的组合也分配小概率的语音模型的平滑化(smoothing)。例如,图10中的“START·コウエン”这一单词的组合是学习数据中不存在而分配了小概率的例子。
作为输入部10的一个实施方式的语音输入单元301受理用户的语音输入,参照识别词典进行语音识别并输出字符串。识别词典具有通过限定设想的用户的发声来提高识别率的效果。在上述缩小用识别词典生成单元302输出了识别词典时,参照该识别词典,在不输出识别词典时,参照事先制作的覆盖用户的多种检索表现的大词汇识别词典103。
使用了识别词典的一般的语音识别方法在非专利文献4和非专利文献5中有详细说明。
非专利文献4:《语音识别的基础(上)(下))》、Lawrence Rabiner,Biing-Hwang Juang合著、古井贞熙监译、NTT高新技术株式会社
非专利文献5:《SPOKEN LANGUAGE PROCESSING-A guideto Theory,Algorithm and System Development-)》、Xuedong Huang,Alex Acero,Hsiao-Wuen Hon合著、Prentice Hall。
当产生了缩小输入时,缩小方式选择单元203按照基于存储在检索历史存储单元202中的检索历史的缩小方法,决定是否生成缩小用识别词典。
缩小用识别词典生成单元302在缩小方式选择单元203选择的缩小方法限定在存储在检索历史存储单元202中的候补内时,获取与作为对象的名称ID对应的名称信息,根据名称信息101生成缩小用的词典。
图11是识别图3所示的三个名称以及构成的单词的缩小用识别词典的例子。语音识别对象为从由“START(开始)”表示的节点到由“END(结束)”表示的节点的路径。中途,由通过的片假名记载的节点表示语音识别的单位。图中,设定了以单词为单位跳跃的路径,能够受理部分性表现。另外,由“カワサキ”与“ヨコハマ”共用的音节即末尾的“コウエン”被合并,以使网络的大小小型化。
如上所示用网络表现的识别词典能够以仅对与缩小对象有关的发声进行识别的方式制作。因此,设想所有的检索对象,与受理多种表现的大词汇语音识别词典103相比非常紧凑化,对缩小对象的识别率提高。然而,由于词典的制作需要与作为对象的名称数相应的运算量,因此当缩小对象多时,难以在短时间内生成词典。
接着,对本发明的实施方式2所涉及的检索装置的动作进行说明。图12是表示实施方式2所涉及的检索装置的检索处理动作的流程图。图中的记号h、S[i](i=1..h)的含义与图7相同。
缩小用识别词典生成单元302参照检索历史存储单元202以及缩小方式选择单元203的状态,确认是否是缩小且检索历史存储单元202保持的候补内限定处理(步骤S2001)。
在缩小且检索历史存储单元202保持的候补内限定时,缩小用识别词典生成单元302参照名称信息词典101、检索历史存储单元202,生成可受理作为对象的候补中可出现的表现的识别词典,作为语音输入单元301的识别词典(步骤S2002)。
如果不是,语音输入单元301读入大词汇语音识别词典103(步骤S2003)。
语音输入单元301根据设定的识别词典对用户的发声进行语音识别,获取识别结果字符串,向候补得分更新单元204输出该字符串,进行检索请求(步骤S2004)。
候补得分更新单元204对于检索请求首先确认检索历史存储单元202中是否存在检索历史(历史数h是否为1以上)(步骤S2005)。在历史数为0时,针对合计用表格的所有候补设置检索对象的合计标志,将得分清除为0,进入步骤S2012。
在历史数为1以上时,缩小方式选择单元203参照存储在检索历史存储单元202中的总共的输入字符串的长度、最终历史的候补数、最终历史的候补得分分布的至少一个,从(1)根据过去输入重新检索:合计用表格的得分再计算、(2)将检索对象限定为上位候补:限定在检索历史存储单元202保持的候补内、中,选择缩小方法(步骤S2006)。在得分再计算时进入步骤S2007,在限定在检索历史存储单元202保持的候补内时进入步骤S2010。
在选择了得分再计算时,针对合计用表格的所有候补设置合计标志,参照存储在检索历史存储单元202中的过去的检索历史重新计算得分。首先,将参照的历史编号i设置为1(步骤S2007)。
接着,候补得分更新单元204从包含在历史信息S[i]中的输入字符串中读出检索用索引的部分字符串索引,对每个候补的得分进行相加(步骤S2008)。
如果参照历史i小于历史数h,则对i加1,返回步骤S2008。否则进入步骤S2011(步骤S2009)。其结果,考虑了合计用表格的所有历史的得分被赋予给候补的名称ID。
在限定在保持的候补内时,候补得分更新单元204设置保持在最新的检索历史S[h]中的名称ID的合计标志,更新得分(步骤S2010)。
候补得分更新单元204获取用于参照与从输入单元301获取的字符串对应的检索用索引的部分字符串,参照检索用索引102,对基于部分字符串的得分进行相加(步骤S2011)。
候补决定单元205从合计用表格中提取从由候补得分更新单元204获取的得分超过规定值的候补中对用户提示的规定数以下的提示用名称ID及其得分,确定提示候补(步骤S2012)。
检索历史存储单元202存储由候补决定单元205提取的输入字符串、提示候补的名称ID、得分(步骤S2013)。
候补提示单元206参照名称信息词典101,获取与由候补决定单元205提取的提示的名称ID对应的名称等提示内容,向用户提示(步骤S1014)。
如上所述,根据本实施方式2,按照考虑了候补数的检索历史生成缩小词典。因此,只限于对象被限定的情况下,通过动态生成以限定的名称为对象的识别词典,从而不需要很长的处理时间,改善识别精度。当候补数多时,由于识别词典生成需要时间,而限定缩小候补的效果相对减小,因此不生成缩小用的识别词典。
实施方式3.
图13是表示本发明的实施方式3所涉及的检索装置的结构的功能框图。实施方式3所涉及的检索装置在实施方式2的检索装置中追加设置了缩小用识别词典适应化单元401。下面,对与实施方式2相同的结构标注与图9使用的符号相同的符号,省略或简化说明。
语音输入单元301受理用户的语音输入,参照识别词典进行语音识别并输出字符串。识别词典在没有检索历史时,参照大词汇识别词典103。在有检索历史时,根据缩小方式选择单元203,参照从缩小用识别词典生成单元301或缩小用识别词典适应化单元401的某一方输出的识别词典。
缩小用识别词典适应化单元401按照缩小方式选择单元203的指示,参照检索历史的输入字符串,对大词汇识别词典103所给予的单词或单词列的概率进行用于缩小的适应化。具体而言,在识别词典为双字母组语言模式时,提高后续于存储在检索历史中的最后的语音识别结果的输入的表现的出现概率。例如,在图10所示的双字母组中,紧接之前发声为“カワサキ”时,(w1,w2)=(カワサキ,コウエン)的概率为0.2。缩小时,考虑后续于紧接之前发声的单词易于出现,提高将“カワサキ”置换为START的(w1,w2)=(START,コウエン)的概率。其结果,与使用可受理多种表现的大词汇识别词典103时相比,对缩小发声得到高识别率。
上述所示的适应化中,通过保持在检索历史存储单元202中的检索历史的字符串修正已构筑的大词汇识别词典的概率的一部分。因此,基于缩小的精度改善的效果虽然小于词典再制作,但是不依赖于检索结果的候补数就能够进行基于一定运算量的适应化。
图14是表示实施方式3所涉及的检索装置的检索处理动作的流程图。图中的记号h、S[i](i=1..h)的含义与图12相同。
缩小用识别词典生成单元302参照检索历史存储单元202以及缩小方式选择单元203的状态,确认是否为缩小且候补内限定处理(步骤S3001)。
在缩小且候补内限定时,缩小用识别词典生成单元302参照名称信息词典101、检索历史存储单元202,生成可受理作为对象的候补中可出现的表现的识别词典,作为语音输入单元301的识别词典(步骤S3002)。
在不是缩小且候补内限定时,缩小用识别词典适应化单元401读入大词汇识别词典103,根据检索历史中记载的字符串对识别词典的单词连锁概率进行用于缩小的适应化,作为语音输入单元301的适应化识别词典(步骤S3003)。
语音输入单元301根据设定的识别词典对用户的发声进行语音识别,获取识别结果字符串(步骤S3004)。
候补得分更新单元204对于检索请求首先确认检索历史存储单元202中是否存在输入历史(历史数h是否为1以上)(步骤S3005)。在历史数为0时,针对所有候补设置检索对象的合计标志,将得分清除为0,进入步骤S3012。
在历史数为1以上时,缩小方式选择单元203参照存储在输入历史中的合计的输入字符串的长度、最终历史的候补数、最终历史的候补得分分布中的至少一个,从(1)根据过去输入重新检索:合计用表格的得分再计算、(2)将检索对象限定为上位候补:限定在检索历史存储单元202保持的候补内、中,选择缩小方法(步骤S3006)。在得分再计算时进入步骤S3007,在限定在保持的候补内时进入步骤S3010。
在选择了得分再计算时,针对合计用表格的所有候补设置合计标志,参照过去历史重新计算得分。首先,将参照的历史编号i设置为1(步骤S3007)。
接着,候补得分更新单元204从包含于历史信息S[i]中的输入字符串中读出部分字符串索引,对每个候补的得分进行相加(步骤S3008)。
如果参照历史i小于历史数h,则对i加1,返回步骤S3008。否则进入步骤S3011(步骤S3009)。其结果,考虑了合计用表格的所有历史的得分被赋予给候补的名称ID。
在限定在保持的候补内时,候补得分更新单元204设置保持在最新的检索历史S[h]中的名称ID的合计标志,更新得分(步骤S3010)。
候补得分更新单元204获取用于参照与从输入单元201获取的字符串对应的检索用索引的部分字符串,参照检索用索引101,对基于部分字符串的得分进行相加(步骤S3011)。
候补决定单元205从合计用表格中提取从由候补得分更新单元204获取的得分超过规定值的候补中对用户提示的规定数以下的提示用名称ID及其得分,确定提示候补(步骤S3012)。
检索历史存储单元202存储由候补决定单元205提取的输入字符串、提示候补的名称ID、得分(步骤S3013)。
候补提示单元206参照名称信息词典102,获取与由候补决定单元205确定的提示的名称ID对应的名称等提示内容,向用户提示(步骤S1014)。
如上所述,根据本实施方式3,在候补数为少数的情况下,生成限定为对象候补的缩小用的语音识别词典,在候补数为多数的情况下,根据检索历史的输入对大词汇识别词典103进行适应化。由于使用与缩小对象相配的缩小用的识别词典,因此不需要大量的处理时间,与参照大词汇识别词典时相比改善识别精度。
产业上的可利用性
本发明的检索装置有可能适用于文章或设施名称的检索装置,特别适合利用于嵌入其他装置的较小规模的检索装置。

Claims (3)

1.一种检索装置,包括:
输入单元,受理用户输入,输出检索请求;
检索历史存储单元,存储检索历史,该检索历史包括来自于输入单元的输入内容以及候补列表;
缩小方式选择单元,根据检索请求,按照存储在检索历史存储单元中的检索历史的候补的得分分布和候补数,在具有规定阈值以上的得分的候补数为提示的候补数的上限值以下的情况下,选择将检索对象限定为所述检索历史存储单元所保持的候补内的方式,在具有所述规定阈值以上的得分的候补数超过所述提示的候补数的上限值的情况下,选择使用所述检索历史中包含的所有输入再次进行检索的方式,由此从两种方式中选择缩小方法;
候补得分更新单元,根据选择的缩小方式,从检索历史设定检索候补及其得分,基于从输入单元受理的字符串,以检索用索引为参照更新候补得分;
候补决定单元,根据通过候补得分更新单元更新的候补数与得分的分布,决定要提示的候补;以及
候补提示单元,参照名称信息数据,对用户提示由候补决定单元决定的候补。
2.根据权利要求1所述的检索装置,其特征在于,包括:
语音识别用的大词汇识别词典;以及
缩小用识别词典生成单元,在所述缩小方式选择单元选择了限定为所述检索历史存储单元所保持的候补内的方式的情况下,根据对象候补的名称信息而生成缩小用识别词典,
所述输入单元输入语音,在所述缩小方式选择单元选择了限定为所述检索历史存储单元所保持的候补内的方式的情况下使用缩小用识别词典进行语音识别并输出文本,其他情况下使用大词汇识别词典进行语音识别并输出文本。
3.根据权利要求2所述的检索装置,其特征在于,包括:
缩小用识别词典适应化单元,在所述缩小方式选择单元选择了使用所述检索历史中包含的所有输入再次进行检索的方式的情况下,根据检索历史,以使得适应设想的缩小发声的方式修正大词汇识别词典,作为适应化识别词典,
所述输入单元输入语音,按照缩小方式选择单元读入缩小用识别词典或适应化识别词典,对语音进行识别并输出文本。
CN201080015020.6A 2009-04-06 2010-02-09 检索装置 Expired - Fee Related CN102365639B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009-092138 2009-04-06
JP2009092138 2009-04-06
PCT/JP2010/051874 WO2010116785A1 (ja) 2009-04-06 2010-02-09 検索装置

Publications (2)

Publication Number Publication Date
CN102365639A CN102365639A (zh) 2012-02-29
CN102365639B true CN102365639B (zh) 2014-11-26

Family

ID=42936074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080015020.6A Expired - Fee Related CN102365639B (zh) 2009-04-06 2010-02-09 检索装置

Country Status (5)

Country Link
US (1) US20110320464A1 (zh)
EP (1) EP2418589A4 (zh)
JP (1) JP5300974B2 (zh)
CN (1) CN102365639B (zh)
WO (1) WO2010116785A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5083367B2 (ja) * 2010-04-27 2012-11-28 カシオ計算機株式会社 検索装置、検索方法、ならびに、コンピュータプログラム
US8805828B1 (en) * 2012-01-13 2014-08-12 Google Inc. Providing information regarding prior searches
US8918408B2 (en) * 2012-08-24 2014-12-23 Microsoft Corporation Candidate generation for predictive input using input history
CN103077718B (zh) * 2013-01-09 2015-11-25 华为终端有限公司 语音处理方法、系统和终端
JP6064629B2 (ja) * 2013-01-30 2017-01-25 富士通株式会社 音声入出力データベース検索方法、プログラム、及び装置
DE112013006764T5 (de) * 2013-03-04 2015-11-19 Mitsubishi Electric Corporation Suchvorrichtung
JP2014229272A (ja) * 2013-05-27 2014-12-08 株式会社東芝 電子機器
US10452695B2 (en) * 2017-09-22 2019-10-22 Oracle International Corporation Context-based virtual assistant implementation
CN107731229B (zh) * 2017-09-29 2021-06-08 百度在线网络技术(北京)有限公司 用于识别语音的方法和装置
CN109840062B (zh) * 2017-11-28 2022-10-28 株式会社东芝 输入辅助装置以及记录介质
CN111274265B (zh) * 2020-01-19 2023-09-19 支付宝(杭州)信息技术有限公司 基于多种检索方式融合检索的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0523700A2 (en) * 1991-07-19 1993-01-20 Hitachi, Ltd. Information search terminal and system
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189680A (ja) * 1989-01-18 1990-07-25 Nec Corp 情報検索方式
JP3665112B2 (ja) 1995-09-26 2005-06-29 新日鉄ソリューションズ株式会社 文字列検索方法及び装置
US6757718B1 (en) * 1999-01-05 2004-06-29 Sri International Mobile navigation of network-based electronic information using spoken input
JP3525855B2 (ja) * 2000-03-31 2004-05-10 松下電器産業株式会社 音声認識方法及び音声認識装置
JP2001357064A (ja) * 2001-04-09 2001-12-26 Toshiba Corp 情報共有支援システム
DE102005030967B4 (de) * 2005-06-30 2007-08-09 Daimlerchrysler Ag Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
JP5072415B2 (ja) 2007-04-10 2012-11-14 三菱電機株式会社 音声検索装置
US8090738B2 (en) * 2008-05-14 2012-01-03 Microsoft Corporation Multi-modal search wildcards

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0523700A2 (en) * 1991-07-19 1993-01-20 Hitachi, Ltd. Information search terminal and system
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library

Also Published As

Publication number Publication date
US20110320464A1 (en) 2011-12-29
EP2418589A4 (en) 2012-09-12
JPWO2010116785A1 (ja) 2012-10-18
WO2010116785A1 (ja) 2010-10-14
CN102365639A (zh) 2012-02-29
JP5300974B2 (ja) 2013-09-25
EP2418589A1 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
CN102365639B (zh) 检索装置
US9418152B2 (en) System and method for flexible speech to text search mechanism
US6233544B1 (en) Method and apparatus for language translation
JP4302326B2 (ja) テキストの自動区分
JPH08278794A (ja) 音声認識装置および音声認識方法並びに音声翻訳装置
Hakkinen et al. N-gram and decision tree based language identification for written words
CN100354929C (zh) 语音处理设备、语言处理方法
JP6551968B2 (ja) 含意ペア拡張装置、そのためのコンピュータプログラム、及び質問応答システム
TW201822190A (zh) 語音辨識系統及其方法、詞彙建立方法與電腦程式產品
Srivastava et al. Homophone Identification and Merging for Code-switched Speech Recognition.
JP2002149643A (ja) 日本語の表意文字の読み方を予測する方法
JP5897718B2 (ja) 音声検索装置、計算機読み取り可能な記憶媒体、及び音声検索方法
Llitjós et al. Improving pronunciation accuracy of proper names with language origin classes
Soto et al. Improving Code-Switched Language Modeling Performance Using Cognate Features.
JPH0778183A (ja) デ−タベ−ス検索システム
Lei et al. Data-driven lexicon expansion for Mandarin broadcast news and conversation speech recognition
JP4733436B2 (ja) 単語・意味表現組データベースの作成方法、音声理解方法、単語・意味表現組データベース作成装置、音声理解装置、プログラムおよび記憶媒体
Hsieh et al. Improved spoken document retrieval with dynamic key term lexicon and probabilistic latent semantic analysis (PLSA)
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP5583230B2 (ja) 情報検索装置及び情報検索方法
JP4674609B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
Mdhaffar et al. Impact Analysis of the Use of Speech and Language Models Pretrained by Self-Supersivion for Spoken Language Understanding
KR20040018008A (ko) 품사 태깅 장치 및 태깅 방법
JP2004309928A (ja) 音声認識装置、電子辞書装置、音声認識方法、検索方法、及びプログラム
Yang et al. Speaker intention modeling for large vocabulary mandarin spoken dialogues

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141126

Termination date: 20210209