CN1831939A - 语音识别方法和语音识别装置 - Google Patents

语音识别方法和语音识别装置 Download PDF

Info

Publication number
CN1831939A
CN1831939A CNA2006100572222A CN200610057222A CN1831939A CN 1831939 A CN1831939 A CN 1831939A CN A2006100572222 A CNA2006100572222 A CN A2006100572222A CN 200610057222 A CN200610057222 A CN 200610057222A CN 1831939 A CN1831939 A CN 1831939A
Authority
CN
China
Prior art keywords
voice
pronunciation
user
import
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006100572222A
Other languages
English (en)
Other versions
CN100587806C (zh
Inventor
深田俊明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN1831939A publication Critical patent/CN1831939A/zh
Application granted granted Critical
Publication of CN100587806C publication Critical patent/CN100587806C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electric Clocks (AREA)

Abstract

一种语音识别方法和语音识别装置,包括由用户发出的语音的导入。根据用户的操作或动作开始该导入。然后判定所导入的语音的开头是存在的还是缺失的。基于语音判定单元的结果设置要识别的目标单词的发音信息,并使用所设置的发音信息识别所导入的语音。

Description

语音识别方法和语音识别装置
技术领域
本发明涉及一种用于实现高精度语音识别的方法,在该高精度语音识别中,执行包括按下按钮等输入开始发声命令的语音识别,并且可以在按下按钮前进行发声。
背景技术
当执行语音识别时,为了防止环境噪声所导致的错误,需要适当设置用户的嘴与麦克风之间的距离和输入水平,以及适当输入开始发声的命令(通常通过按下按钮)。如果没有适当地进行该设置或输入,则会在识别性能上出现大幅的降低。然而,用户不总是适当地进行该设置或输入,因而有必要采取措施以防止这种情况下的性能降低。特别地,有时不正确地输入开始发声的命令,例如,在按下按钮前进行发声。在这种情况下,由于在输入开始发声的命令后通过麦克风导入语音,因此语音的开头部分将被遗漏。当基于所遗漏的语音执行传统的语音识别时,与正确地输入开始发声的命令的情况相比,识别率将大大降低。
考虑到这样的问题,日本专利2829014号讨论了这样一种方法:除了用于存储在输入开始识别处理的命令后导入的语音数据的数据缓冲器以外,该方法还提供一直导入恒定长度的语音的环缓冲器。在输入该命令后,使用由数据缓冲器所导入的语音来检测该语音的头。在未检测到该语音的头的情况下,通过另外使用在输入该命令前存储在环缓冲器中的语音来进行该语音头的检测。在该方法中,由于环缓冲器必须不断地执行语音导入处理,因此与仅采用数据缓冲器的情况相比,需要额外的CPU负荷。即,在电池驱动的装置例如可移动装置中,使用该方法未必是合适的方法。
而且,日本专利3588929号讨论了在单词的开头遗漏了半音节或单音节的单词也是要识别目标的方法。通过该方式,在嘈杂的环境中防止了语音识别率的下降。而且,日本专利3588929号讨论了用于执行控制以根据噪声水平来判定遗漏了开头部分的单词是否应该是要识别的目标单词。在该方法中,基于单词的开头处的半音节或单音节的类型或者噪声水平,进行关于是否遗漏单词的开头处的半音节或单音节的判定。如果判定有遗漏,则没有遗漏的单词不被指定为要识别的目标单词。另外,当判定是否遗漏单词的开头时,没有考虑是否正在正确地执行通过用户操作输入的开始发声的命令或动作。因此,在日本专利3588929号中,单词开头的遗漏达到一个音节,并且在安静的环境中,单词的开头没有被遗漏。结果,在按下按钮前进行发声,例如,在安静的环境中遗漏语音中的两个音节的情况下,不能避免识别性能的下降。
由于以上问题,本发明的目的在于提供这样一种方法:在缺失或遗漏语音的开头的情况下,通过简单和容易的处理来防止识别性能的下降。当用户不适当地输入开始发声的命令时,出现这种遗漏。
发明内容
本发明的一个方面是语音识别方法,其包括:语音导入步骤,用于根据用户输入开始导入由用户发出的语音;判定步骤,用于判定导入的语音的开头是否有缺失;设置步骤,用于基于该判定步骤的结果,设置要识别的目标单词的发音信息;以及语音识别步骤,用于使用所设置的发音信息识别所导入的语音。
本发明的另一方面是语音识别方法,其包括:语音导入步骤,用于根据用户输入开始导入由用户发出的语音;判定步骤,用于判定是否在由用户发出语音的中间开始语音的导入;设置步骤,用于基于该判定步骤的结果,设置要识别的目标单词的发音信息;以及语音识别步骤,用于使用所设置的发音信息识别所导入的语音。
本发明的又一方面是语音识别装置,其包括:语音导入单元,用于根据用户输入开始导入由用户发出的语音;判定单元,用于判定所导入的语音的开头是否有缺失;设置单元,用于基于该判定单元的结果,对要识别的目标单词设置发音信息;以及语音识别单元,用于使用所设置的发音信息识别所导入的语音。
本发明的又一方面是语音识别装置,其包括:语音导入单元,用于根据用户输入开始导入由用户发出的语音;判定单元,用于判定是否在用户语音的中间开始语音的导入;设置单元,用于基于该判定单元的结果,设置要识别的目标单词的发音信息;以及语音识别单元,用于使用所设置的发音信息识别所导入的语音。
通过以下参考附图对典型实施例的详细说明,本发明的其它特征将显而易见。
附图说明
包括在说明书中并构成说明书的一部分的附图,示出了本发明的典型实施例,并与说明书一起用来解释本发明的原理。
图1是信息装置的硬件结构的框图,在该信息装置中安装了根据本发明的第一典型实施例的语音识别方法;
图2是根据本发明的第一典型实施例的语音识别方法的模块结构的框图;
图3是不需要登记型的语音识别方法的典型模块结构的框图;
图4是需要登记型的语音识别方法的典型模块结构的框图;
图5是根据本发明的第一典型实施例的语音识别方法的整个处理的流程图;
图6A和6B是由于输入开始发声的命令的定时的不同所导致的语音遗漏的示意图;
图7是要识别的目标单词的例子;
图8是删除了第一发音序列的图7中要识别的目标单词的例子;
图9是删除了第一和第二发音序列的图7中要识别的目标单词的例子;
图10是删除了第一到第四发音序列的图7中要识别的目标单词的例子;
图11是删除了第一到第四发音序列的图7中要识别的目标单词的所有组合的例子;
图12是通过隐马尔科夫模型(hidden Marcov model,HMM)的三种状态对音素/t/进行建模的例子;
图13是要识别的目标单词的例子。由HMM的状态序列来表示图7中要识别的单词的发音信息;
图14是删除了第一状态序列的图13中要识别的目标单词的例子;
图15A、15B和15C是示出删除发音序列和删除状态序列之间的差异的示意图;
图16A、图16B和16C是示出如何通过删除参考模式序列来设置发音信息的示意图;
图17是语音识别方法的模块结构的框图。该语音识别方法包括语音识别处理内的所导入语音的判定和发音信息的设置。
具体实施方式
下面参考附图对本发明的典型实施例进行详细说明。
第一典型实施例
图1是根据本发明的第一典型实施例的语音识别装置的框图。CPU 101根据存储在ROM 102中的或者从外部存储装置104载入RAM 103的控制程序,执行该语音识别装置中的各种控制功能。ROM 102存储各种参数和由CPU 101执行的控制程序。RAM 103提供CPU 101执行各种控制功能时的工作区,并且还存储由CPU101执行的控制程序。图5的流程图中所示的方法是优选由CPU101执行的、并且存储在ROM 102、RAM 103或存储装置104中的程序。
附图标记104表示外部存储装置,例如硬盘、软盘(floppy,注册商标)、CD-ROM、DVD-ROM以及存储卡。在外部存储装置104为硬盘的情况下,其存储从CD-ROM或软盘(floppy,注册商标)安装的各种程序。语音输入装置105例如麦克风导入执行语音识别的语音。显示装置106例如CRT或LCD执行处理内容的设置、显示输入信息、以及输出处理结果。辅助输入装置107例如按钮、数字键、键盘、鼠标或输入笔,用于给出指令以开始导入由用户发出的声音。辅助输出装置108例如扬声器,用于通过声音确认语音识别结果。总线109连接上面所有装置。要识别的目标语音可以通过语音输入装置105来输入,或者可以通过其它装置或单元来获取。由其它装置或单元获取的目标语音被保持在ROM 102、RAM103、外部存储装置104或通过网络连接的外部装置中。
图2是语音识别方法的模块结构的框图。语音导入单元201导入通过语音输入装置105的麦克风输入的语音。通过按下辅助输入装置107中的按钮等的用户的操作,给出开始导入语音的指令。导入语音判定单元202判定由语音导入单元所导入的语音的开头或开头部分是否有缺失或被遗漏。发音信息设置单元203基于导入语音判定单元202的结果来设置目标单词的发音信息。语音识别单元204使用由发音信息设置单元203设置的发音信息来识别由语音导入单元201导入的语音。
图3是用于识别未登记的语音或独立于说话者的语音的典型语音识别方法的模块的框图。语音输入单元301识别通过语音输入装置105输入的语音。语音特征参数提取单元302对由语音输入单元301输入的语音执行谱分析,并提取特征参数。发音字典305保持要识别的目标单词的发音信息。声学模型306保持音素模型(或音节模型或单词模型),并使用根据发音字典305的发音信息的声学模型来构建要识别的目标单词的参考模式。语言模型307保持单词列表和单词连接的概率值(或语法限制)。搜索单元303计算使用语言模型307从发音字典305配置的参考模式和由语音特征参数提取单元302获得的语音的特征参数之间的距离。搜索单元303还计算可能性,或执行搜索处理。结果输出单元304将搜索单元303所获得的结果显示在显示装置106上,将该结果作为语音输出到辅助输出装置108上,或为了执行预定的操作输出该识别结果。发音信息设置单元203的发音信息的设置对应于发音字典305的设置。
图5是语音识别方法的整个处理的流程图。利用该流程图对整个处理进行详细说明。在步骤S501,等待开始发声的命令的输入。根据用户的操作或动作输入该命令。该命令输入可以采用允许该用户给出开始发声的指令的任何方法,例如,按下数字键、键盘或开关等按钮;单击鼠标;或在触摸式面板上按压。另外,如果使用传感器,例如包括红外线传感器的光源传感器、天线传感器或超声波传感器,则可以检测正靠近语音识别装置的用户的动作。如果将用户的这种动作当作为开始发声的命令,则可以将传感器的检测用作开始发声的命令。在步骤S502,步骤S501中的命令触发通过麦克风的语音导入。在步骤S504,判定是否遗漏了所导入的语音的开头,并在步骤S503执行该判定所需要的语音分析。
图6A和6B是由于输入开始发声的命令的定时的差异所导致的语音遗漏的示意图。水平轴为时间刻度,并在时刻S开始发声。图6A是在时刻P(P<S)输入开始发声的命令的情况。由于可以在时刻P(或紧接P后)开始语音导入,因此,不遗漏语音,并将其适当导入。另一方面,图6B是在时刻Q(S<Q)输入开始发声的命令的情况。由于在该情况下在时刻Q(或紧接Q后)开始语音导入,因此遗漏了语音的开头部分。通过下面的方法进行是否遗漏语音的开头部分的语音分析和判定。
有各种方法用于执行语音分析和判定。简单且容易的方法是:使用所导入的语音波形的头部分(例如,300个采样)计算波形功率,并将结果与预定的阈值进行比较。如果该结果超过该阈值,则可以判定遗漏了语音的开头部分。还可以通过执行其它分析,例如过零率(zero-crossing rate)分析、谱分析或基频分析来进行判定。
通过带符号表示导入的语音数据(例如,在16位有符号的短整型的情况下,采用-32768与32767之间的值),并通过计数符号改变的次数,可以获得过零率。对于语音波形的头部分获得过零率,并将结果与上述作为波形功率的阈值相比较。因而,如果该结果大于该阈值,则可判定该语音的开头部分被遗漏,如果该结果小于或等于该阈值,则可以判定该语音的开头部分没有被遗漏。
例如,可以以与语音识别特征参数提取单元302中语音识别的特征参数提取相同的方式执行谱分析。接着,使用所提取的特征参数获取语音模型和非语音模型的可能性(或概率),如果语音模型的可能性大于非语音模型的可能性,则判定该语音被遗漏。如果语音模型的可能性小于非语音模型的可能性,则判定该语音没有被遗漏。预先根据语音部分的特征参数和非语音部分的特征参数准备作为统计模型的语音模型和非语音模型。可以通过任何现有的方法,例如高斯混合模型(GMM),生成这些模型。还可采用使用表示通过与在语音特征参数提取单元302中的语音识别的特征参数提取不同的分析获得的其它谱的特征参数的方法。
对于基频分析,可以使用自相关技术和倒频谱(cepstrum)技术等现有的分析。使用与周期相关的值,而不是直接使用基频值,来判定遗漏。为了更准确,在基于倒频谱技术的基频分析的情况下,可以使用逆频(quefrency)(对数振幅谱的逆离散傅里叶变换)中的序列的预定范围内(人的声音音调的范围内)的最大值。对于语音波形的头部分获得该值,并与波形功率情况下相同将其与阈值相比较。如果该值大于该阈值,则判定该语音被遗漏,如果该值小于或等于该阈值,则判定该语音没有被遗漏。此外,可以使用以下方法:进行分析以获得谐波结构而不是基频,并将该结果用作特征参数。
如果在步骤S504判定语音被遗漏,则在步骤S505设置具有遗漏的语音的发音信息。然后,在步骤S506使用该发音信息执行语音识别。如果在步骤S504判定语音没有被遗漏,则在步骤S506执行通常的语音识别。参考图7至图11对在S505中所执行的处理进行说明。在S505的处理中,要识别的目标单词是“Tokyo”、“Hiroshima”、“Tokushima”和“Tu”。图7示出要识别的目标单词的例子,并保持关于单词ID、拼写(transcription)和发音(音素)的信息。根据发音(音素)序列(在“Tokyo”情况下为7个音素/tookyoo/)通过连接到声学模型306(例如,音素HMM)生成语音识别处理中的参考模式。图8示出从图7中的发音信息中删除第一个音素的情况下的要识别的目标单词。例如,在“Tokyo”的情况下,删除第一个音素/t/使得要识别的目标单词变为/ookyoo/。图9和图10示出删除了到第二和第四个音素的情况下的要识别的目标单词。在“Tu”的情况下,发音序列是两个音素,/tsu/。因此,如果删除多于两个的音素,则将没有发音序列。在这种情况下,将静音模型(SIL)分配为发音序列。另外,在图10中的“Hiroshima”和“Tokushima”的情况下,如果删除前四个音素,则获得相同的发音序列(/shima/)。如果在步骤S504判定语音没有被遗漏,则在步骤S506仅对图7中的目标单词执行语音识别。另一方面,如果在步骤S504判定语音被遗漏,则在步骤S506中,除了图7中的目标单词外,还对图8到图10中的目标单词执行语音识别。在图8到图10的目标单词中,已经删除了发音序列的头部分。通过执行S503中的语音分析和步骤S504中的语音遗漏判定,可以判定语音是否被遗漏。然而,不能估计遗漏的语音的长度或音素的数量。因此,有必要预先确定将被添加的目标单词的删除音素的适当数量。该数量可以根据经验来设置、或考虑到根据用户的操作或动作遗漏的语音的倾向来设置、或考虑到识别性能来设置。已删除第一到第四个音素的发音序列的单词的所有组合都可以是要识别的目标。在这种情况下,图11中所示的目标单词被设置为语音遗漏的发音信息。
步骤S503中的谱分析或基频分析是与语音识别处理中的语音特征参数提取相同或相似的处理。因此,可以将这些处理包括在语音识别单元204中,并将其作为配置在语音识别单元204内来执行。图17是语音识别方法的模块结构的框图,该语音识别方法包括语音识别处理中的导入语音判定和发音信息设置。在图3的处理中包括分别作为导入语音判定单元603和发音信息设置单元604的导入语音判定单元202和发音信息设置单元203。由于从语音输入单元601到语言模型609的组件与图2和图3中的组件相同,因此省略其说明。
而且,在步骤S503不必只使用第一帧语音进行语音分析,也可以使用多帧(例如,从第一帧到第五帧)的信息。另外,如步骤S504中所示,为了判定语音是否被遗漏,当与阈值进行比较时,本发明不局限于使用预定的值。可以执行其它处理,例如,比较第一帧和第十帧的波形功率。在这种情况下,如果第一帧的波形功率远小于第十帧的波形功率(例如,小10%),则判定没有语音遗漏。
在步骤S504,给出判定语音是否被遗漏的例子。然而,本发明不局限于该例子,并且可将其配置成使得判定是否在用户语音的中间开始语音导入。
根据上述典型实施例,即使用户没有在正确的时刻输入开始发声的命令,也可以防止识别性能的下降。结果,不习惯于操作语音识别装置的用户也可以在执行该操作时感觉很容易。
第二典型实施例
在第一典型实施例中,要识别的单词的发音被用音素写出(phonemicize),并删除读音的发音序列,以在步骤S505中设置被遗漏的语音的发音信息。然而,本发明不局限于该实施例。可以使用与音素相比更详细的发音序列来表示要识别的目标单词的发音,并删除该详细的发音序列。为了更准确,当基于隐马尔科夫模型(HMM)执行语音识别时,通常通过多个状态对音素进行建模。该状态序列被视作详细的发音序列,并在该状态水平被删除。这样,与在音素水平的删除相比,可以更准确地设置发音信息。图12是通过HMM的三个状态(t1、t2、t3)对音素/t/进行建模的例子。当通过该状态序列描述图7中的发音时,可能是图13中所示的表达。在这种情况下,如果在图13的状态序列中删除第一状态序列,则可以获得图14。
图15A、15B和15C是说明发音(音素)序列的删除和状态序列的删除之间的差异的示意图。在通过HMM的三个状态对所有音素进行建模的情况下,通过如图15A所示的HMM的链接来表示“Tokyo”/tookyoo/的发音序列。如果删除第一音素(/t/),则如图15B所示,删除/t/的所有三个HMM状态。然而,如果通过HMM的状态序列来表示“Tokyo”的详细发音序列,则如图15C所示,有可能只删除HMM的第一状态t1。也就是说,可以通过在状态水平而不是在音素水平的删除来设置更详细的发音信息。作为可选,还可以使用通用的状态转换模型而不是上述的HMM,来执行相同的处理。
第三典型实施例
在可将要识别的目标单词表示为发音序列或详细的发音序列的情况下,设置根据上述典型实施例的发音信息。然而,上述设置还可被应用于基于音素HMM的被广泛使用的独立于说话者的语音识别(不需要登记型的语音识别方法)。更具体地,在依赖于说话者的语音识别(需要登记型的语音识别方法)中,不能从参考模式中识别音素或状态序列。在依赖于说话者的语音识别中,在使用语音识别前通过语音来登记参考模式。因此,不能使用在以上典型实施例中所述的方法。然而,如果直接使用该参考模式的特征参数序列,则有可能对遗漏的语音设置发音信息。
图4是示出需要登记型的语音识别方法的模块结构的框图。由于从语音输入单元401到结果输出单元404的模块与语音输入单元301至到结果输出单元304的相同,因此,省略对这些单元的说明。通过语音预先登记要识别的目标单词。参考模式405被保持为登记的语音的特征参数序列。假定该特征参数序列被保存为第十二阶倒频谱和作为第十二阶倒频谱的基本回归系数的差量倒频谱(deltacepstrum)(c1-c12,Δc1-Δc12)。在这种情况下,单词“Tokyo”的所登记的语音的特征参数序列被保持为如图16A中所示的参考模式序列(24维的矢量序列)(T1是在分析所登记的语音中的帧数)。如果在步骤S504判定语音被遗漏,则从该参考模式中删除前几帧,如图16B(删除第一帧)或图16C(删除第一和第二帧)所示。通过对包括删除过的特征参数序列进行语音识别,对于语音的开头被遗漏的语音输入,也能以较小的性能下降实现语音识别。
还可以通过将存储实现上述典型实施例的功能的软件的程序代码的存储介质提供给系统和装置,并由该系统或装置的计算机(或CPU或MPU)读取并执行存储在该存储介质中的程序代码来实现本发明的目。
在这种情况下,从存储介质读取的程序代码本身实现上述典型实施例的功能,并且存储该程序代码的存储介质可构成本发明。
用来提供该程序代码的存储介质的例子包括:软盘、硬盘、光盘、磁光盘、CD-ROM、CD-R、磁带、非易失性存储卡以及ROM。
而且,除了通过由计算机执行所读取的程序代码来实现上述典型实施例的功能外,本发明还包括以下情况:运行在计算机上的操作系统(OS)根据该程序代码的指令执行部分或全部实际处理,该处理实现上述典型实施例的功能。
而且,本发明还包括以下情况:在从存储介质中读取程序代码并将该程序代码加载到插入计算机中的功能扩展板、或与计算机连接的功能扩展单元中的存储器之后,在该功能扩展板或功能扩展单元中的CPU根据该程序代码的指令执行部分或全部实际处理,该处理实现上述典型实施例的功能。
当然,可以在硬件中或通过硬件和软件的结合来实现本发明。
尽管参考典型实施例说明了本发明,但应当理解,本发明不局限于所公开的实施例。下面的权利要求书的范围符合最宽的解释,以包含所有修改、等同结构和功能。

Claims (12)

1.一种语音识别方法,包括:
语音导入步骤,用于根据用户输入开始导入由用户发出的语音;
判定步骤,用于判定所导入的语音的开头是否有缺失;
设置步骤,用于基于该判定步骤的结果,设置要识别的目标单词的发音信息;以及
语音识别步骤,用于使用所设置的发音信息识别所导入的语音。
2.一种语音识别方法,包括:
语音导入步骤,用于根据用户输入开始导入由用户发出的语音;
判定步骤,用于判定是否在由用户发出语音的中间开始语音的导入;
设置步骤,用于基于该判定步骤的结果,设置要识别的目标单词的发音信息;以及
语音识别步骤,用于使用所设置的发音信息识别所导入的语音。
3.根据权利要求1或2所述的语音识别方法,其特征在于,使用关于语音波形功率、过零率、谱信息和表示谐波结构的特征参数中的至少一个信息,进行该判定步骤中的该判定。
4.根据权利要求1或2所述的语音识别方法,其特征在于,该发音信息是与要识别的目标单词的读音有关的发音序列、与发音序列有关的详细发音序列和与要识别的目标单词相关的参考模式序列中的至少一个。
5.根据权利要求4所述的语音识别方法,其特征在于,该详细发音序列是已通过状态转换模型进行了建模的发音序列的状态序列。
6.根据权利要求4所述的语音识别方法,其特征在于,该参考模式序列是在需要登记型的语音识别装置中的所登记的语音的特征参数序列。
7.根据权利要求1或2所述的语音识别方法,其特征在于,该语音导入步骤根据用户的操作开始语音的导入。
8.根据权利要求1或2所述的语音识别方法,其特征在于,该语音导入步骤根据由传感器检测到的用户的动作开始语音的导入。
9.一种语音识别装置,包括:
语音导入单元,用于根据用户输入开始导入由用户发出的语音;
判定单元,用于判定所导入的语音的开头是否有缺失;
设置单元,用于基于该判定单元的结果,对要识别的目标单词设置发音信息;以及
语音识别单元,用于使用所设置的发音信息识别所导入的语音。
10.一种语音识别装置,包括:
语音导入单元,用于根据用户输入开始导入由用户发出的语音;
判定单元,用于判定是否在用户语音的中间开始语音的导入;
设置单元,用于基于该判定单元的结果,设置要识别的目标单词的发音信息;以及
语音识别单元,用于使用所设置的发音信息识别所导入的语音。
11.根据权利要求9或10所述的语音识别装置,其特征在于,使用关于语音波形功率、过零率、谱信息和表示谐波结构的特征参数中的至少一个信息,进行该判定单元中的该判定。
12.根据权利要求9或10所述的语音识别装置,其特征在于,在该设置单元中的发音信息是与要识别的目标单词的读音有关的发音序列、与发音序列有关的详细发音序列和与要识别的目标单词有关的参考模式序列中的至少一个。
CN200610057222A 2005-03-09 2006-03-09 语音识别方法和语音识别装置 Expired - Fee Related CN100587806C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005065355A JP4667082B2 (ja) 2005-03-09 2005-03-09 音声認識方法
JP2005065355 2005-03-09

Publications (2)

Publication Number Publication Date
CN1831939A true CN1831939A (zh) 2006-09-13
CN100587806C CN100587806C (zh) 2010-02-03

Family

ID=36250777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200610057222A Expired - Fee Related CN100587806C (zh) 2005-03-09 2006-03-09 语音识别方法和语音识别装置

Country Status (8)

Country Link
US (1) US7634401B2 (zh)
EP (1) EP1701338B1 (zh)
JP (1) JP4667082B2 (zh)
KR (1) KR100742888B1 (zh)
CN (1) CN100587806C (zh)
AT (1) ATE401644T1 (zh)
DE (1) DE602006001764D1 (zh)
ES (1) ES2310893T3 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833578A (zh) * 2016-09-15 2018-03-23 东芝泰格有限公司 声音识别装置、声音识别方法及计算机可读存储介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4282704B2 (ja) * 2006-09-27 2009-06-24 株式会社東芝 音声区間検出装置およびプログラム
JP4950930B2 (ja) * 2008-04-03 2012-06-13 株式会社東芝 音声/非音声を判定する装置、方法およびプログラム
KR20130133629A (ko) * 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
US9799328B2 (en) * 2012-08-03 2017-10-24 Veveo, Inc. Method for using pauses detected in speech input to assist in interpreting the input during conversational interaction for information retrieval
CN103971685B (zh) * 2013-01-30 2015-06-10 腾讯科技(深圳)有限公司 语音命令识别方法和系统
US10121493B2 (en) * 2013-05-07 2018-11-06 Veveo, Inc. Method of and system for real time feedback in an incremental speech input interface
US20160063990A1 (en) * 2014-08-26 2016-03-03 Honeywell International Inc. Methods and apparatus for interpreting clipped speech using speech recognition
JP6972287B2 (ja) * 2016-09-15 2021-11-24 東芝テック株式会社 音声認識装置、音声認識方法及び音声認識プログラム
US10283117B2 (en) * 2017-06-19 2019-05-07 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of response cue at peripheral device
US10586529B2 (en) 2017-09-14 2020-03-10 International Business Machines Corporation Processing of speech signal
JP7092708B2 (ja) * 2019-05-20 2022-06-28 ヤフー株式会社 情報処理プログラム、情報処理装置及び情報処理方法
JP7404664B2 (ja) * 2019-06-07 2023-12-26 ヤマハ株式会社 音声処理装置及び音声処理方法
US11545143B2 (en) 2021-05-18 2023-01-03 Boris Fridman-Mintz Recognition or synthesis of human-uttered harmonic sounds

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4761815A (en) * 1981-05-01 1988-08-02 Figgie International, Inc. Speech recognition system based on word state duration and/or weight
US4712242A (en) * 1983-04-13 1987-12-08 Texas Instruments Incorporated Speaker-independent word recognizer
US5774851A (en) * 1985-08-15 1998-06-30 Canon Kabushiki Kaisha Speech recognition apparatus utilizing utterance length information
US4882757A (en) * 1986-04-25 1989-11-21 Texas Instruments Incorporated Speech recognition system
JP2882791B2 (ja) * 1986-10-03 1999-04-12 株式会社リコー パターン比較方式
JP2829014B2 (ja) 1989-01-12 1998-11-25 株式会社東芝 音声認識装置及び方法
JP2708566B2 (ja) * 1989-09-06 1998-02-04 株式会社日立製作所 音声認識制御装置
DE4031421C2 (de) * 1989-10-05 1995-08-24 Ricoh Kk Musteranpassungssystem für eine Spracherkennungseinrichtung
JP3004749B2 (ja) * 1990-05-14 2000-01-31 株式会社リコー 標準パターン登録方法
EP0474496B1 (en) * 1990-09-07 1998-03-04 Kabushiki Kaisha Toshiba Speech recognition apparatus
US5692104A (en) * 1992-12-31 1997-11-25 Apple Computer, Inc. Method and apparatus for detecting end points of speech activity
DE4306508A1 (de) * 1993-03-03 1994-09-08 Philips Patentverwaltung Verfahren und Anordnung zum Ermitteln von Wörtern in einem Sprachsignal
US5765130A (en) * 1996-05-21 1998-06-09 Applied Language Technologies, Inc. Method and apparatus for facilitating speech barge-in in connection with voice recognition systems
US5835890A (en) * 1996-08-02 1998-11-10 Nippon Telegraph And Telephone Corporation Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon
JP3588929B2 (ja) 1996-08-27 2004-11-17 日産自動車株式会社 音声認識装置
US6167374A (en) * 1997-02-13 2000-12-26 Siemens Information And Communication Networks, Inc. Signal processing method and system utilizing logical speech boundaries
EP0867856B1 (fr) 1997-03-25 2005-10-26 Koninklijke Philips Electronics N.V. "Méthode et dispositif de detection d'activité vocale"
JPH10319991A (ja) * 1997-05-20 1998-12-04 Sony Corp 電子機器の音声認識起動方法及び装置
JP4520555B2 (ja) * 1999-09-09 2010-08-04 クラリオン株式会社 音声認識装置および音声認識ナビゲーション装置
EP1083545A3 (en) * 1999-09-09 2001-09-26 Xanavi Informatics Corporation Voice recognition of proper names in a navigation apparatus
US6389394B1 (en) * 2000-02-09 2002-05-14 Speechworks International, Inc. Method and apparatus for improved speech recognition by modifying a pronunciation dictionary based on pattern definitions of alternate word pronunciations
JP4880136B2 (ja) 2000-07-10 2012-02-22 パナソニック株式会社 音声認識装置および音声認識方法
US7277853B1 (en) * 2001-03-02 2007-10-02 Mindspeed Technologies, Inc. System and method for a endpoint detection of speech for improved speech recognition in noisy environments
US7308404B2 (en) * 2001-09-28 2007-12-11 Sri International Method and apparatus for speech recognition using a dynamic vocabulary
JP2003330491A (ja) * 2002-05-10 2003-11-19 Nec Corp 音声認識装置および音声認識方法ならびにプログラム
KR100474253B1 (ko) * 2002-12-12 2005-03-10 한국전자통신연구원 단어의 첫 자음 발성을 이용한 음성인식 방법 및 이를 저장한 기록 매체
US7024360B2 (en) * 2003-03-17 2006-04-04 Rensselaer Polytechnic Institute System for reconstruction of symbols in a sequence
US7343289B2 (en) * 2003-06-25 2008-03-11 Microsoft Corp. System and method for audio/video speaker detection
US20050033571A1 (en) * 2003-08-07 2005-02-10 Microsoft Corporation Head mounted multi-sensory audio input system
CA2473195C (en) * 2003-07-29 2014-02-04 Microsoft Corporation Head mounted multi-sensory audio input system
KR100577387B1 (ko) 2003-08-06 2006-05-10 삼성전자주식회사 음성 대화 시스템에서의 음성 인식 오류 처리 방법 및 장치
JP3890326B2 (ja) * 2003-11-07 2007-03-07 キヤノン株式会社 情報処理装置、情報処理方法ならびに記録媒体、プログラム
JP4516863B2 (ja) * 2005-03-11 2010-08-04 株式会社ケンウッド 音声合成装置、音声合成方法及びプログラム
TWI319152B (en) * 2005-10-04 2010-01-01 Ind Tech Res Inst Pre-stage detecting system and method for speech recognition
JP4282704B2 (ja) * 2006-09-27 2009-06-24 株式会社東芝 音声区間検出装置およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833578A (zh) * 2016-09-15 2018-03-23 东芝泰格有限公司 声音识别装置、声音识别方法及计算机可读存储介质
CN107833578B (zh) * 2016-09-15 2021-11-23 东芝泰格有限公司 声音识别装置、声音识别方法及计算机可读存储介质

Also Published As

Publication number Publication date
KR100742888B1 (ko) 2007-07-25
EP1701338A1 (en) 2006-09-13
EP1701338B1 (en) 2008-07-16
DE602006001764D1 (de) 2008-08-28
JP2006251147A (ja) 2006-09-21
US20060206326A1 (en) 2006-09-14
JP4667082B2 (ja) 2011-04-06
CN100587806C (zh) 2010-02-03
ATE401644T1 (de) 2008-08-15
ES2310893T3 (es) 2009-01-16
KR20060097647A (ko) 2006-09-14
US7634401B2 (en) 2009-12-15

Similar Documents

Publication Publication Date Title
CN100587806C (zh) 语音识别方法和语音识别装置
US11887582B2 (en) Training and testing utterance-based frameworks
JP6665305B2 (ja) 数字音声認識における音声デコーディングネットワークを構築するための方法、装置及び記憶媒体
Chang et al. Large vocabulary Mandarin speech recognition with different approaches in modeling tones
CN1167045C (zh) 语音识别的方法和装置
US20080189106A1 (en) Multi-Stage Speech Recognition System
KR100766761B1 (ko) 화자-독립형 보이스 인식 시스템용 보이스 템플릿을구성하는 방법 및 장치
EP2048655A1 (en) Context sensitive multi-stage speech recognition
US20030088412A1 (en) Pattern recognition using an observable operator model
US20090240499A1 (en) Large vocabulary quick learning speech recognition system
CN113643693A (zh) 以声音特征为条件的声学模型
Jain et al. Speech Recognition Systems–A comprehensive study of concepts and mechanism
Grewal et al. Isolated word recognition system for English language
US20120330664A1 (en) Method and apparatus for computing gaussian likelihoods
Hasija et al. Recognition of Children Punjabi Speech using Tonal Non-Tonal Classifier
JP4230142B2 (ja) 悪環境下でのキーパッド/音声を用いたハイブリッドな東洋文字認識技術
JP2000194392A (ja) 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
US9928832B2 (en) Method and apparatus for classifying lexical stress
Kokkinidis et al. Finding the optimum training solution for Byzantine music recognition—A Max/Msp approach
Karmacharya Design of Keyword Spotting System Based on Segmental Time Warping of Quantized Features
CN117995206A (zh) 一种语音转换方法及系统
JP2014056216A (ja) 音声認識装置、音声認識方法、及び、プログラム
SAINI SPEECH RECOGNITION IN THE PRESENCE OF WIDEBAND NOISE
KR20060075533A (ko) 안티워드 모델을 이용한 음성인식 방법
Pisarn et al. Thai spelling analysis for automatic spelling speech recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100203

Termination date: 20160309

CF01 Termination of patent right due to non-payment of annual fee