JP2001312296A - 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体 - Google Patents

音声認識システム、音声認識方法およびコンピュータ可読な記録媒体

Info

Publication number
JP2001312296A
JP2001312296A JP2000133973A JP2000133973A JP2001312296A JP 2001312296 A JP2001312296 A JP 2001312296A JP 2000133973 A JP2000133973 A JP 2000133973A JP 2000133973 A JP2000133973 A JP 2000133973A JP 2001312296 A JP2001312296 A JP 2001312296A
Authority
JP
Japan
Prior art keywords
phoneme
recognized
recognition
words
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000133973A
Other languages
English (en)
Other versions
JP3542026B2 (ja
Inventor
Kazuo Nemoto
和郎 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2000133973A priority Critical patent/JP3542026B2/ja
Priority to US09/846,122 priority patent/US6968310B2/en
Publication of JP2001312296A publication Critical patent/JP2001312296A/ja
Application granted granted Critical
Publication of JP3542026B2 publication Critical patent/JP3542026B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

(57)【要約】 【課題】 音声認識における認識精度、特に複数の読み
が与えられてる文字、単語等の認識精度を向上する。 【解決手段】 同一人物は同一会話内で一定して同じ読
みを維持するという傾向、つまり、たとえば「7」を
「しち」と発音した人物は、その会話内で一貫して「し
ち」と発音し続ける傾向がある。この傾向を活用して、
会話における1回目の応答においてその人物が使わない
読みに対応する認識確率を下げ、2回目以降の認識を実
行する。また、システムが音声合成により認識結果を復
唱する場合に、既に認識した話者の読み方に対応して復
唱する。たとえば話者が「7」を「しち」と発音した場
合には、システムからの復唱時に「しち」と発音する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識システム
または音声認識方法に関する。特に、複数の読みがある
文字、単語等の認識精度の向上に適用して有効なもので
ある。
【0002】
【従来の技術】たとえば、「ViaVoice(商標)」等の音
声認識システムにおいては、マイクロフォン、ヘッドセ
ット等の入力デバイスにより入力された音声を音素に分
解し、この解析された音素とデータベースに蓄積された
音素とを対比して入力音声に対応する文字、単語等を抽
出して音声認識を行っている。ここで、データベースに
蓄積されている音素は個別独立的に記録されるのではな
く、一定の規則に則った文法に関連付けて記録される。
すなわち、たとえば図9(a)に示すように、4桁の数
字を認識する場合には、<digits>として4桁の<num1>を
定義し、<num1>には0〜9のアラビア数字が入り得るこ
とを規定する。このような文法定義の下に、図9(b)
に示すように、音素表記表を定義する。つまり、「0」
には「ree」(れえ)、「ree:」(れー)、「rei」(れ
い)、「zero」(ぜろ)の4つの音素が対応し、「1」
には「ichi」(いち)の1つの音素を対応させる。その
他同様に数字「2」には3音素が、「3」には1音素
が、「4」には4音素が対応し、「5」以下の各数字も
同様である。 図9(a)の文法に図9(b)の音素表
記を適用した例を図9(c)に示す。 図9(c)の文
法および音素表記が実用的なベースフォームとして用い
られる。
【0003】<digits>に対応した入力音声がたとえば
「ぜろいちにーさん」であれば、この音声を音素列に分
けて「ぜろ」(zero)、「いち」(ichi)、「にー」
(nii:)、「さん」(sa_n)が得られ、各音素列に対応
する数字「0」、「1」、「2」、「3」が音素対応表
から得られる。各数字は文法定義に当てはめられ、認識
結果の<digits>として「0123」の4文字が得られ
る。
【0004】なお、「ViaVoice(商標)」等の音声認識
システムでは、エンロールメントと称される処理で入力
音声の個人的相違を検出し、その個人に適合した音響特
性を学習して認識精度を向上する手法が適用されてい
る。
【0005】
【発明が解決しようとする課題】ところが、たとえば日
本語数字の読み上げを考えた場合、数字音声認識の認識
精度は必ずしも高いとはいえない。その原因として、以
下のような事項が考えられる。
【0006】まず、「いち」「に」「さん」等、日本語
数字は概して単語長が短く、音の冗長性が少ないことが
挙げられる。短い音の音素間にはその相違が少なく、認
識における音素の取り違えが発生しやすい。日本語数字
では「に」「し」「ご」「く」等の一音節のものもあ
り、音の冗長性の少なさは特に顕著である。
【0007】次に、ひとつの数字に複数の読みが与えら
れていることが挙げられる。たとえば、「0」という数
字には「ぜろ」「れい」「まる」等の読みが与えられ、
「4」という数字には「し」「よん」等、「7」という
数字には「なな」「しち」等、「9」という数字には
「きゅう」「く」という読みが与えられる。複数の読み
が与えられると認識すべき音素の候補が多くなり、誤認
識を誘発する確率が高くなる。
【0008】また、異なる数字との間に類似する音素の
ものが多い点が挙げられる。たとえば「しち」(7)と
いう音素と「いち」(1)という音素と「はち」(8)
という音素は互いに類似しており、「し」(4)という
音素と「しち」(7)という音素が類似する。また、
「に」(2)、「し」(4)とうい音素間も類似し、
「さん」(3)、「よん」(4)間も類似する。これら
互いに類似する音素間では、その音の類似性により音素
の識別が難しくなり、音の取り違えによる誤認識を生ず
る確率が高くなる。特に電話等を介した音声識別では、
入力音の低周波成分が少なくなり、低周波成分での識別
が必要となるイ段の音の聞き分けが困難になる状況が生
じ、この問題が顕著になる。
【0009】さらに、必ずしも長母音が付くとは限らな
い長母音付き一音節の発音では、繰り返しが識別し難く
なる問題がある。たとえば「に」「にー」「にーにー」
あるいは「ご」「ごー」「ごーごー」等である。特に通
常は「ごー」と発音される「5」の文字が、「753」
の場合には「しちごさん」と発音されたり、「358」
の場合には「さんごっぱ」と発音されたりして「ごー」
が「ご」あるいは「ごっ」と短母音化することがあり、
かえって問題を複雑にしている。
【0010】ところで、数字の音声認識は、たとえば電
話による取引等のビジネスの場面を考えた場合、会員番
号や商品選択等の入力に多用されることが想定され、ビ
ジネスへの展開を考慮した場合には、特に数字の音声認
識精度の向上が強く求められている。
【0011】なお、前記エンロールメントでは、音響特
性を個人に適合させて認識精度を向上することがある程
度可能であるが、入力される音素自体が類似する場合や
音素に冗長性がない前記のような場合には認識精度の更
なる向上には自ずと限界がある。
【0012】本発明の目的は、音声認識における認識精
度をさらに向上することにある。特に複数の読みが与え
られてる文字、単語等の認識精度を向上することにあ
る。
【0013】また、本発明の他の目的は、冗長性の少な
い音たとえば日本語における数字や、異なる文字あるい
は単語に類似の音が与えられている文字等の認識精度を
向上することにある。
【0014】本発明のさらに他の目的は、長母音付き一
音節文字が短母音化されて繰り返される場合の認識精度
を向上することにある。
【0015】
【課題を解決するための手段】本願発明は、同一人物は
一回の同一会話内で一定して同じ読みを維持するという
本発明者らによる知見を活用するものである。つまり、
たとえば「7」を「しち」と発音した人物は、その会話
内で一貫して「しち」と発音し続ける傾向がある。この
傾向を活用して、会話における1回目の応答においてそ
の人物が使わない読みに対応する音素列を認識候補から
はずす、またはその認識確率を下げ、2回目以降の認識
を実行するものである。
【0016】すなわち、本願発明の音声認識システム
は、認識単語とそれを発音表記する音素列との対応が記
録された対応情報を有し、入力された音声から生成され
る音素列と前記対応情報内の音素列との対比によって、
前記音声から一以上の認識単語を認識する音声認識シス
テムであって、同一人物の一定期間内の会話において、
既に行われた認識処理で認識された音素列に対する認識
単語に複数の音素列が対応付けられて記録されている場
合、前記複数の音素列のうち前記認識された音素列と異
なる少なくとも1つの音素列の発声予想確率を低下させ
るものである。また、本願発明の音声認識方法は、同一
人物の一定期間内の会話において、第1音声を入力し、
前記第1音声から音素列を生成するステップと、認識単
語とそれを発音表記する音素列との対応が記録された対
応情報を検索し、前記第1音声で生成された音素列と前
記対応情報内の音素列との対比から一以上の認識単語を
生成するステップと、認識された音素列に対応する認識
単語に複数の音素列が対応付けられて記録されている場
合、前記複数の音素列のうち前記認識された音素列と異
なる少なくとも1つの音素列の発声予想確率を低下させ
るステップと、第2音声を入力し、前記第2音声から音
素列を生成するステップと、前記音素列の発声予想確率
を低下させた対応情報を検索し、前記第2音声で生成さ
れた音素列と前記対応情報内の音素列との対比から一以
上の認識単語を生成するステップとを含む。これにより
2回目以降の誤認識の確率を低下して認識精度を向上で
きる。
【0017】なお、前記認識単語には字、詞または単語
を含めることができ、前記対応情報には、前記認識単語
が所定の規則で配列される文法情報を含めることができ
る。また、前記認識単語は、日本語または英語の数字、
数詞または数を表す単語とすることができる。このよう
な数字の認識において本願発明の効果は特に著しい。
【0018】なお、認識された音素列に対応する認識単
語に複数の音素列が対応付けられて記録されている場
合、前記複数の音素列のうち前記認識された音素列と異
なる少なくとも1つの音素列の発声予想確率を低下させ
る態様については、前記認識された音素列と異なる音素
列を前記対応情報から除外し、発声予想確率をゼロにす
る態様も含まれる。
【0019】また、同一の前記認識単語を発音表記する
異なる音素列について、予め測定された発声予想確率に
適合する数の前記音素列とそれに対応する前記認識単語
とを前記対応情報に含めることができる。これによりさ
らに認識精度を高めることができる。
【0020】また、前記一定期間は、連続した会話内の
期間または当日内の複数の会話を含む期間とすることが
できる。発音者の発音傾向は1日単位等の短時間特に同
一会話内では維持される傾向が強い。しかし、逆に時間
が経過した後には発音者の発音傾向が変化することもあ
る。このような場合本願発明では長時間の同一発音者の
発音傾向を維持することなく、前記一定期間が経過した
後には認識に用いる前記情報を初期状態に戻すことがで
きる。このような操作が可能なのは、本願発明がたとえ
ば1会話内のその場限りの学習という手法を採用する効
果に基づくものである。
【0021】なお、前記一定期間内の会話が連続した会
話でない場合には、パスワード、会員番号、発呼側電話
番号、音声を解析して話者を特定する手法、またはこれ
らの組み合わせで、話者を特定する手法を用いることが
できる。
【0022】また、認識された一以上の認識単語のうち
の少なくとも一部を話者に照会して前記一以上の認識単
語の認識に誤りがあるか否かを判断し、前記誤りが認め
られたときには、前記一以上の認識単語をそれが誤認識
されやすい一以上の認識単語に置換することができる。
このような手段または方法をとることによりたとえばチ
ェックディジットつきの長い数字の連続発声の認識精度
を向上できる。
【0023】また、認識された前記一以上の認識単語の
数が前記認識システムにおいて予め登録された数に一致
しなかったときには、前記認識された一以上の認識単語
のうち長母音一音節を有する音素に対応する認識単語
を、前記長母音に対応する短母音音素に対応する認識単
語の繰り返しに置換する、または、前記認識された一以
上の単語のうち短母音一音節を有する音素に対応する認
識単語の繰り返しを、前記短母音に対応する長母音音素
に対応する認識単語に置換することができる。このよう
な手段または方法を備えることにより長母音一音節で与
えられる文字等が短母音化されて繰り返される場合、あ
るいは短母音の繰り返しで与えられる文字等が長母音一
音節の文字等と誤認される場合の認識精度を向上でき
る。
【0024】
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。ただし、本発明は多くの異
なる態様で実施することが可能であり、本実施の形態の
記載内容に限定して解釈すべきではない。なお、実施の
形態の全体を通して同じ要素には同じ番号を付するもの
とする。
【0025】以下の実施の形態では、主に方法またはシ
ステムについて説明するが、当業者であれば明らかなと
おり、本発明は方法、システムの他、コンピュータで使
用可能なプログラムコードが記録された媒体としても実
施できる。したがって、本発明は、ハードウェアとして
の実施形態、ソフトウェアとしての実施形態またはソフ
トウェアとハードウェアとの組合せの実施形態をとるこ
とができる。プログラムコードが記録された媒体として
は、ハードディスク、CD−ROM、光記憶装置または
磁気記憶装置を含む任意のコンピュータ可読媒体を例示
できる。
【0026】本実施の形態で利用できるコンピュータシ
ステムには、中央演算処理装置(CPU)、主記憶装置
(メインメモリ:RAM(Random Access Memory))、不
揮発性記憶装置(ROM(Read Only Memory))等を有
し、これらがバスで相互に接続される。バスには、その
他コプロセッサ、画像アクセラレータ、キャッシュメモ
リ、入出力制御装置(I/O)等が接続される。バスに
は、適当なインターフェイスを介して外部記憶装置、デ
ータ入力デバイス、表示デバイス、通信制御装置等が接
続されてもよい。その他、一般的にコンピュータシステ
ムに備えられるハードウェア資源を備えることが可能な
ことは言うまでもない。外部記憶装置は代表的にはハー
ドディスク装置が例示できるが、これに限られず、光磁
気記憶装置、光記憶装置、フラッシュメモリ等半導体記
憶装置も含まれる。なお、データの読み出しのみに利用
できるCD−ROM等の読み出し専用記憶装置もデータ
あるいはプログラムの読み出しにのみ適用する場合には
外部記憶装置に含まれる。データ入力デバイスには、キ
ーボード等の入力装置、マウス等ポインティングデバイ
スを備えることができる。データ入力デバイスには音声
入力装置も含む。表示装置としては、CRT、液晶表示
装置、プラズマ表示装置が例示できる。本実施の形態の
コンピュータシステムには、パーソナルコンピュータ、
ワークステーション、メインフレームコンピュータ等各
種のコンピュータが含まれる。
【0027】各コンピュータシステムで利用されるプロ
グラムは、他のコンピュータシステムに記録されていて
も良い。つまり、コンピュータシステムで利用する一部
のプログラムをリモートコンピュータで分散的に処理ま
たは実行できる。なお、他のコンピュータシステムに記
録されたプログラムをアドレスで参照する場合には、D
NS、URL等を用ることができる。
【0028】(実施の形態1)図1は、本発明の一実施
の形態である音声認識システムの概要を示したブロック
図である。本実施の形態の音声認識システムは、ユーザ
1の音声が入力される音声認識エンジン2と、音声認識
エンジン2に適用される文法データ(グラマー)3と、
文法データ3に適用される音素表記表4とを有する。
【0029】ユーザ1からの音声信号は、たとえばマイ
クロフォン、ヘッドセット等の入力装置で電気信号に変
換され、さらにA/D(アナログデジタル)変換等が行
われて、ディジタルデータで表された波形データに変換
される。この波形データは、音声認識エンジン2で音素
に分解され、文法データ3と比較されて音声認識が行わ
れる。
【0030】音声認識エンジン2では、入力された音素
に最も適合する文法データ3が選択される。 文法デー
タ3には音素表記表4が適用されており、入力される音
声が則る可能性のある文法、あるいは発声される可能性
がある音素を含む形態で多数の文法データ3(音素表記
表4に基づいた音素が配置されている)が用意され、こ
の文法データ3のデータベースを参照して入力音素に適
合する文法データ3が選択される。
【0031】本実施の形態で用いる文法は図9(a)に
示すものと同等のものである。しかし、本実施の形態で
用いる音素表記表は図9(b)のものとは相違する。
【0032】図2は、本実施の形態で用いる音素表記表
の一例を示す表図である。従来、たとえば「0」の場
合、文字「0」と4つの音素(「ree」「ree:」
「rei」「zero」)を対応させていたのみである
が、本実施の形態では、文字「0」の読みとして「レ
イ」と「ゼロ」の2種類を考え、各音素に読み(「0」
の場合「レイ」と「ゼロ」)の情報を付加している。な
お、「0」にはほかに「マル」という読みも考えられる
が、ここでは2種類の読みがあるとして例示している。
【0033】また、「4」については「シ」と「ヨン」
の読みを、「7」については「シチ」と「ナナ」の読み
を、「9」については「ク」と「キュウ」の読みを考え
る。本実施の形態では、「0」「4」「7」「9」につ
いて上記のような複数の読みを考えているがあくまでも
例示であり、その他の読みが考えられるときには音素表
記表に加えても良いことは勿論である。また、上記以外
の数字に複数の読みが考えられるときにはその複数の読
みを加えても良いことは勿論である。さらに、本実施の
形態では数字を例示するが、数字に限らず、その他漢
字、英字等を適用できるし、その読みに複数の候補があ
るときには、前記同様にそれらを含めて音素表記表を作
成しても良い。
【0034】このような文法と音素表記を用いて音声認
識する場合の手順を以下に説明する。図3は、本実施の
形態の音声認識方法の一例を示したフローチャートであ
る。ここでは、たとえば電話を介して取引データを音声
により入力する場合を考える。
【0035】まず、本実施の形態の音声認識システムに
ベースとなるベース文法データを導入する(ステップ1
0)。導入されるベース文法データは、図2に示すよう
に、読みの情報が付加されている以外は図9(c)と同
様である。
【0036】次に、システム側の音声発声手段から「電
話番号をどうぞ」というメッセージをユーザ側に流す
(ステップ11)。仮に、ユーザ側の発声が「シチヨン
ゼロ」であるとすると、この音声入力に応答してベース
文法データにより認識を行う(ステップ12)。ここ
で、システムが「740」を認識すれば、システム側か
ら「740で正しいですか」というメッセージを発する
(ステップ13)。ユーザが「はい」と応答すれば認識
結果は「740」で確定する。仮に、認識結果が誤りで
あれば、ステップ11に戻って再度音声入力を行う。
【0037】この1回目の音声認識の結果、「740」
が確定すれば、ユーザは、「7」については「シチ」と
読み、「4」については「ヨン」と読み、「0」につい
ては「ゼロ」と読むことがわかる。ここで、このユーザ
については、少なくとも同一会話内あるいは短時間(た
とえば1日内)の会話では、同一の読みをすると仮定す
ることが可能になる。これは、同一人物は、同一会話内
で同じ読み方を維持する傾向があるという本発明者らの
知見に基づく。この傾向を利用し、このユーザが「7」
について「ナナ」と発音する確率は少ないと考えること
ができる。同様に、「4」については「シ」と、「0」
について「レイ」と発音する確率は小さいと考えること
ができる。よって、次ステップでは、減縮した文法デー
タを挿入する(ステップ14)。
【0038】図4は、減縮した文法データを示すリスト
図面である。この文法データはBNF表記によるグラマ
ーに相当する。すなわち、文字「7」については、「ナ
ナ」に対応する音素「nana」を削除し、「シチ」に
対応する音素「hichi」「shichi」に限定す
る(20)。同様に、「4」については、「シ」に対応
する音素「shi」「shii」「shii:」を削除
し、「ヨン」に対応する音素「yo_n」に限定する
(21)。「0」については、「レイ」に対応する音素
「ree」「ree:」「rei」を削除し、「ゼロ」
に対応する音素「zero」に限定する(22)。この
ように、発声される確率の少ない音素を削除し、この削
除した音素が適用された文法データを用いて認識を行え
ば、より認識率を向上することができる。
【0039】その後、この減縮した文法データを適用し
て次ステップに進み、2回目の音声入力を促すメッセー
ジを発し(ステップ15)、音声入力に応答して認識を
行う(ステップ16)。音声入力が「ゼロサンのイチシ
チキュウ」とすれば、本来識別が困難な「イチ」と「シ
チ」のような発声でも、「シチ」が「7」に限定されて
いるので、ベース文法データを用いる場合よりも認識の
精度を向上することができる。
【0040】さらに、2回目の認識でこのユーザは
「9」を「キュウ」と発声してるので、音素「ku」を
削除してさらに減縮した文法データを適用できる(ステ
ップ18)。図5はさらに減縮した文法データを示すリ
スト図である。「9」について音素「ku」を削除して
いる(23)。
【0041】なお、音素対応表に関連付けた文法データ
は、1回目の認識の前に各読みの組み合わせの数だけ予
め作成しておき、2回目の認識以降で不要な文法データ
を削除する方法をとることができる。
【0042】本実施の形態によれば、同一人物による発
声では、数字等の読み方が一貫しており、同一会話内で
は同じ読みが維持されるという傾向を利用し、2回目以
降の認識では、読まれる可能性の低い音素を削除して認
識を行える。これにより、2回目以降の認識率を向上す
ることができる。なお、本発明は、発声者に固有な音響
特性を学習するようなものではなく、その場限りの学習
に止まり、他の発声者の場合や、同じ発声者でも日が異
なるような場合では、再度ベース文法データを用いて最
初のステップから認識が開始される。このため、発声者
ごとのデータベースを作成する必要がなく、どのような
発声者にも同じ構成のシステムを適用できる。このた
め、発声者ごとにカスタマイズする必要がなく、簡単に
本発明を実施適用できる。
【0043】(実施の形態2)クレジットカードのよう
に入力される数字の特定の桁にチェックディジットが含
まれるような場合には、このチェックディジットを用い
て、推定される誤りを入れ替えて誤り訂正を行い、訂正
後の認識結果で次ステップに進めることができる。図6
は実施の形態2の認識方法の一例を示したフローチャー
トである。
【0044】まず、ベース文法データを導入し(ステッ
プ30)、カード番号の入力を促すメッセージ(ステッ
プ31)の後、ベース文法データを適用した認識を行う
(ステップ32)。仮に入力音声が「イチニサンシコ゛ウロクシチハチク
セ゛ロイチニサンシコ゛ロク」であったとき、「1234567890123456」
と認識しない誤認識の確率は1回目の認識ゆえ低くはな
い。通常クレジットカードの場合は、チェックディジッ
トは下2桁の「56」なので、このチェックディジット
が合っているかどうかの照合を行う(ステップ33)。
照合の結果が合わないときには誤認識の可能性のある数
字を交換して(ステップ34)、再度照合を行う(ステ
ップ33)。この結果、照合にパスすれば次ステップに
進め、誤り訂正後の認識結果(数字)で確認を行う(ス
テップ35)。
【0045】誤認識の可能性のある数字は、たとえば1
「イチ」と7「シチ」と8「ハチ」(「7」が「シチ」
と発声されているときあるいは「7」が認識されていな
いとき)、1「イチ」と8「ハチ」(「7」が「ナナ」
と発声されているとき)、4「シ」と7「シチ」
(「4」が「シ」と発声され、「7」が「シチ」と発声
されているとき)、あるいは6「ロク」と9「ク」
(「9」が「ク」と発声されているとき)、が挙げられ
る。これらを相互に置換することによりステップ34の
交換が行える。
【0046】最後に、1回目の認識結果と前記誤り訂正
処理で確定した認識結果から、不要な音素を削除し、減
縮した文法データを作成し、2回目以降の認識のために
これを導入する(ステップ36)。
【0047】本実施の形態の音声認識方法によれば、チ
ェックディジットを用いて誤り訂正を行い、ユーザの入
力回数を少なくしてユーザに対する利便性を向上し、ト
ータルの処理時間も短くできる。
【0048】(実施の形態3)文法で5桁の数字が要求
されているにもかかわらず、4桁の数字しか認識できな
い場合には、長母音一音節の音声(たとえば2「ni
i:」)が短母音化して2「ni」が繰り返されていた
可能性がある。この場合の誤り訂正の方法が図7に示さ
れている。図7(a)は、本実施の形態の音声認識方法
の一例を示したフローチャートであり、図7(b)は適
用される文法データである。 図7(b)に示すよう
に、ここでは5桁の数字が文法として要求されている
(40)。
【0049】図7(a)に示すように、まず、ベース文
法データを導入し(ステップ41)、番号の入力を促す
メッセージ(ステップ42)の後、ベース文法データを
適用した認識を行う(ステップ43)。ここで、音声入
力として「イチニニサンシ」が入力されたとすると、
「1234」と誤認識する可能性がある。ステップ44
で5文字認識できたかどうかを判断し(ステップ4
4)、4文字しか認識できていないときには、長母音1
音節の文字「2」が誤認識されたと推定する。よって、
「2」を「22」に置換し(ステップ45)、確認ステ
ップ(ステップ46)に進む。5桁の文字が正常に認識
されていたときにはそのままステップ46に進む。その
後、1回目の認識結果と前記誤り訂正処理で確定した認
識結果から、不要な音素を削除し、減縮下文法データを
作成し、2回目以降の認識のためにこれを導入する(ス
テップ47)。
【0050】本実施の形態の音声認識方法によれば、長
母音一音節の音に誤認識されやすい短母音の繰り返しを
誤り訂正することができる。これにより、ユーザの入力
回数を少なくしてユーザに対する利便性を向上し、トー
タルの処理時間も短くできる。なお、上記実施の形態で
は、短母音の繰り返しが長母音の一文字に誤認された例
を示したが、長母音の一文字が短母音の繰り返しに誤認
されて、本来の文字数より多く誤認識された場合につい
ても、上記と同様に誤りの訂正ができることは勿論であ
る。
【0051】以上、本発明者によってなされた発明を発
明の実施の形態に基づき具体的に説明したが、本発明は
前記実施の形態に限定されるものではなく、その要旨を
逸脱しない範囲で種々変更可能である。
【0052】たとえば、図8に示すように、文法に非一
様な確率分布を適用できる。すなわち、「0」について
いえば、「ゼロ」と発音される確率が「レイ」と発音さ
れる確率より経験的に大きいことが判明している。この
ようなとき、図8に示すように<0>に「zero」の
音素を3つ割り当て、<rei>を1つ割り当てる。こ
の場合、「セロ」と発声される確率が75%、「レイ」
と発声される確率が25%と仮定している。なお、「レ
イ」の発声には「ree」[ree:」「rei」の音
素が均等に割り当てられている。このような非一様確率
分布を適用することにより、より認識精度を向上するこ
とができる。
【0053】また、本発明は、英語に対しても適用が可
能である。たとえば「1-800-1122」の読み方は、(1)
「one eight hundred double one double two」、
(2)「one eight oh oh eleven twelve」、(3)「o
ne eight hundred one one two two」という各種の読み
方がある。このような読み方についても同様に一会話内
で維持されることが考えられる。このような1つの表記
に対して複数の読みがある場合には、日本語に限られ
ず、英語に対しても本発明を適用して2回目以降の認識
精度を高めることができる。また、英語での文字につい
ても同様である。たとえば「0」について、「zero」あ
るいは「oh」の複数の読みがある。このような場合も同
様に本発明を適用できる。
【0054】また、英語では、数字の並びに対して、
(1)2桁づつ区切って桁読みする読み方、(2)続け
て数字を読む読み方(べた読み)、(3)正式な桁読
み、(4)同じ数字の連続をdouble-xx triple-xx と表
現する読み方等がある。たとえば「1999」について、
「nineteen ninety nine」、「one nine nine nine」、
「one thousand nine hundred ninety nine」、「one t
riple nine」、「nineteen double nine」、等の読み方
がある。このような複数の読み方に対してはそれに対応
した文法データが各々必要になる。1回目の認識の際に
は全ての読み方を含む文法を用意する必要があるが、2
回目以降の認識では、本発明を適用して、不要と思われ
る文法データを削除できる。これにより、英語において
も2回目以降の認識率を高めることができる。
【0055】また、数字に限らず、通常の単語に対して
も本発明を適用できる。たとえば、「青/ブルー」、「
空飛ぶ円盤/ユーフォー/ユーエフオー」、「いりぐち/
はいりくち」など、同じ意味を持っていても複数の表現
が可能な単語がある。このような単語に対しても本発明
を提供して、2回目以降の認識では1回目で表現されな
かった単語を削除して2回目以降の認識率を高めること
ができる。
【0056】また、たとえば助動詞に対しても本発明を
適用できる。たとえば「**だ。」「**です。」のよ
うに通常何れかの表現が安定して用いられる。このよう
な場合にも、1回目で用いられなかった表現を削除し
て、2回目以降の認識率を向上できる。
【0057】さらに、本発明は、動詞、形容詞その他の
品詞に対しても複数の読み、表現がある場合にこれを適
用することができ、認識精度を向上できる。
【0058】
【発明の効果】本願で開示される発明のうち、代表的な
ものによって得られる効果は、以下の通りである。
【0059】すなわち、音声認識における認識精度、特
に複数の読みが与えられている文字、単語等の認識精度
を向上できる。また、冗長性の少ない音たとえば日本語
における数字や、異なる文字あるいは単語に類似の音が
与えられている文字等の認識精度を向上できる。また、
長母音付き一音節文字が短母音化されて繰り返される場
合の認識精度を向上できる。
【図面の簡単な説明】
【図1】本発明の一実施の形態である音声認識システム
の概要を示したブロック図である。
【図2】実施の形態1で用いる音素表記表の一例を示す
表図である。
【図3】実施の形態の音声認識方法の一例を示したフロ
ーチャートである。
【図4】減縮した文法データを示すリスト図面である。
【図5】さらに減縮した文法データを示すリスト図であ
る。
【図6】実施の形態2の認識方法の一例を示したフロー
チャートである。
【図7】(a)は、実施の形態3の音声認識方法の一例
を示したフローチャートであり、(b)は適用される文
法データである。
【図8】非一様な確率分布を適用した文法データの一例
を示すリスト図である。
【図9】(a)は、4桁の数字を認識する場合の文法を
示すリスト図であり、(b)は、実用的な音素表記を示
す表図であり、(c)は、(b)の音素表記を適用した
文法データの例を示すリスト図である。
【符号の説明】
1…ユーザ、2…音声認識エンジン、3…文法データ、
4…音素表記表。

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 認識単語とそれを発音表記する音素列と
    の対応が記録された対応情報を有し、入力された音声か
    ら生成される音素列と前記対応情報内の音素列との対比
    によって、前記音声から一以上の認識単語を認識する音
    声認識システムであって、 同一人物の一定期間内の会話において、既に行われた認
    識処理で認識された音素列に対する認識単語に複数の音
    素列が対応付けられて記録されている場合、前記複数の
    音素列のうち前記認識された音素列と異なる少なくとも
    1つの音素列の発声予想確率を低下させることを特徴と
    する音声認識システム。
  2. 【請求項2】 同一の前記認識単語を発音表記する異な
    る音素列について、予め測定された発声予想確率に適合
    する数の前記音素列とそれに対応する前記認識単語とを
    前記対応情報に含める請求項1記載の音声認識システ
    ム。
  3. 【請求項3】 前記一定期間は、連続した会話内の期間
    または当日内の複数の会話を含む期間である請求項1ま
    たは2記載の音声認識システム。
  4. 【請求項4】 認識された一以上の認識単語のうちの少
    なくとも一部を話者に照会して前記一以上の認識単語の
    認識に誤りがあるか否かを判断する手段と、前記誤りが
    認められたときには、前記一以上の認識単語をそれが誤
    認識されやすい一以上の認識単語に置換する手段と、 をさらに備えた請求項1〜3の何れか一項に記載の音声
    認識システム。
  5. 【請求項5】 認識された前記一以上の認識単語の数が
    前記認識システムにおいて予め登録された数に一致しな
    かったときには、前記認識された一以上の単語のうち長
    母音一音節を有する音素に対応する認識単語を、前記長
    母音に対応する短母音音素に対応する認識単語の繰り返
    しに置換する手段、または、前記認識された一以上の単
    語のうち短母音一音節を有する音素に対応する認識単語
    の繰り返しを、前記短母音に対応する長母音音素に対応
    する認識単語に置換する手段をさらに備えた請求項1〜
    4の何れか一項に記載の音声認識システム。
  6. 【請求項6】 同一人物の一定期間内の会話において、 第1音声を入力し、前記第1音声から音素列を生成する
    ステップと、 認識単語とそれを発音表記する音素列との対応が記録さ
    れた対応情報を検索し、前記第1音声で生成された音素
    列と前記対応情報内の音素列との対比から一以上の認識
    単語を生成するステップと、 認識された音素列に対応する認識単語に複数の音素列が
    対応付けられて記録されている場合、前記複数の音素列
    のうち前記認識された音素列と異なる少なくとも1つの
    音素列の発声予想確率を低下させるステップと、 第2音声を入力し、前記第2音声から音素列を生成する
    ステップと、 前記音素列の発声予想確率を低下させた対応情報を検索
    し、前記第2音声で生成された音素列と前記対応情報内
    の音素列との対比から一以上の認識単語を生成するステ
    ップと、 を含む音声認識方法。
  7. 【請求項7】 同一の前記認識単語を発音表記する異な
    る音素列について、予め測定された発声予想確率に適合
    する数の前記音素列とそれに対応する前記認識単語とを
    前記対応情報に含める請求項6記載の音声認識方法。
  8. 【請求項8】 前記一定期間は、連続した会話内の期間
    または当日内の複数の会話を含む期間である請求項6ま
    たは7記載の音声認識方法。
  9. 【請求項9】 認識された一以上の認識単語のうち少な
    くとも一部を話者に照会して前記一以上の認識単語の認
    識に誤りがあるか否かを判断するステップと、 前記誤りが認められたときには、前記一以上の認識単語
    をそれが誤認識されやすい一以上の認識単語に置換する
    ステップと、 をさらに含む請求項6〜8の何れか一項に記載の音声認
    識方法。
  10. 【請求項10】 認識された前記一以上の認識単語の数
    が前記認識システムにおいて予め登録された数に一致し
    なかったときには、前記認識された一以上の認識単語の
    うち長母音一音節を有する音素に対応する認識単語を、
    前記長母音に対応する短母音音素に対応する認識単語の
    繰り返しに置換するステップ、または、前記認識された
    一以上の単語のうち短母音一音節を有する音素に対応す
    る認識単語の繰り返しを、前記短母音に対応する長母音
    音素に対応する認識単語に置換するステップ、をさらに
    含む請求項6〜9の何れか一項に記載の音声認識方法。
  11. 【請求項11】 音声を認識するプログラムコードが記
    録されたコンピュータ可読な記録媒体であって、前記プ
    ログラムコードには、 音声を入力し、前記音声から音素列を生成するプログラ
    ムコードと、 認識単語とそれを発音表記する音素列との対応が記録さ
    れた対応情報を検索し、前記音声で生成された音素列と
    前記対応情報内の音素列との対比から一以上の認識単語
    を生成するプログラムコードと、 認識された音素列に対応する認識単語に複数の音素列が
    対応付けられて記録されている場合、前記複数の音素列
    のうち前記認識された音素列と異なる少なくとも1つの
    音素列の発声予想確率を低下させるプログラムコード
    と、 を含むコンピュータ可読な記録媒体。
JP2000133973A 2000-05-02 2000-05-02 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体 Expired - Fee Related JP3542026B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000133973A JP3542026B2 (ja) 2000-05-02 2000-05-02 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体
US09/846,122 US6968310B2 (en) 2000-05-02 2001-04-30 Method, system, and apparatus for speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000133973A JP3542026B2 (ja) 2000-05-02 2000-05-02 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体

Publications (2)

Publication Number Publication Date
JP2001312296A true JP2001312296A (ja) 2001-11-09
JP3542026B2 JP3542026B2 (ja) 2004-07-14

Family

ID=18642340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000133973A Expired - Fee Related JP3542026B2 (ja) 2000-05-02 2000-05-02 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体

Country Status (2)

Country Link
US (1) US6968310B2 (ja)
JP (1) JP3542026B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3943983B2 (ja) * 2002-04-18 2007-07-11 キヤノン株式会社 音声認識装置及びその方法、プログラム
US7676366B2 (en) * 2003-01-13 2010-03-09 Art Advanced Recognition Technologies Inc. Adaptation of symbols
US20040236581A1 (en) * 2003-05-01 2004-11-25 Microsoft Corporation Dynamic pronunciation support for Japanese and Chinese speech recognition training
DE102004028724A1 (de) * 2004-06-14 2005-12-29 T-Mobile Deutschland Gmbh Verfahren zur natürlichsprachlichen Erkennung von Nummern
US8923838B1 (en) 2004-08-19 2014-12-30 Nuance Communications, Inc. System, method and computer program product for activating a cellular phone account
JP4570509B2 (ja) * 2005-04-22 2010-10-27 富士通株式会社 読み生成装置、読み生成方法及びコンピュータプログラム
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
JP5238205B2 (ja) * 2007-09-07 2013-07-17 ニュアンス コミュニケーションズ,インコーポレイテッド 音声合成システム、プログラム及び方法
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US9386154B2 (en) * 2007-12-21 2016-07-05 Nuance Communications, Inc. System, method and software program for enabling communications between customer service agents and users of communication devices
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US9502025B2 (en) 2009-11-10 2016-11-22 Voicebox Technologies Corporation System and method for providing a natural language content dedication service
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
US8391464B1 (en) 2010-06-24 2013-03-05 Nuance Communications, Inc. Customer service system, method, and software program product for responding to queries using natural language understanding
US8762939B1 (en) 2010-07-02 2014-06-24 Nuance Communications, Inc. System and method for displaying key performance indicators in an application design tool
US9881609B2 (en) * 2014-04-18 2018-01-30 General Motors Llc Gesture-based cues for an automatic speech recognition system
CN107003996A (zh) 2014-09-16 2017-08-01 声钰科技 语音商务
WO2016044321A1 (en) 2014-09-16 2016-03-24 Min Tang Integration of domain information into state transitions of a finite state transducer for natural language processing
CN107003999B (zh) 2014-10-15 2020-08-21 声钰科技 对用户的在先自然语言输入的后续响应的系统和方法
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
WO2018023106A1 (en) 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
US10013971B1 (en) 2016-12-29 2018-07-03 Google Llc Automated speech pronunciation attribution
CN108831476A (zh) * 2018-05-31 2018-11-16 平安科技(深圳)有限公司 语音采集方法、装置、计算机设备及存储介质
CN111145756B (zh) * 2019-12-26 2022-06-14 北京搜狗科技发展有限公司 一种语音识别方法、装置和用于语音识别的装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60172100A (ja) * 1984-02-16 1985-09-05 電子計算機基本技術研究組合 音声認識装置
JPS61235900A (ja) * 1985-04-12 1986-10-21 株式会社日立製作所 音声認識方法
JPS6361300A (ja) * 1986-09-01 1988-03-17 富士通株式会社 音声認識方式
JPH02214990A (ja) * 1989-02-16 1990-08-27 Nippon Telegr & Teleph Corp <Ntt> パターン認識後処理方式
JPH0421897A (ja) * 1990-05-17 1992-01-24 Nec Corp 音声入力装置
JPH0534679B2 (ja) * 1983-02-04 1993-05-24 Hitachi Ltd
JPH07104779A (ja) * 1993-10-01 1995-04-21 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH07168592A (ja) * 1993-12-14 1995-07-04 Ricoh Co Ltd 音声認識装置
JPH0844388A (ja) * 1994-08-04 1996-02-16 Sharp Corp 特定話者用単語音声認識装置
JPH1039892A (ja) * 1996-07-24 1998-02-13 Denso Corp 音声認識方法及び音声認識装置
JPH10207685A (ja) * 1996-12-04 1998-08-07 At & T Corp ハイパーリンク化された情報との音声化されたインターフェースのためのシステムおよび方法
JP2000056794A (ja) * 1998-08-11 2000-02-25 Fujitsu Ltd 音声認識システム及び記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4696042A (en) * 1983-11-03 1987-09-22 Texas Instruments Incorporated Syllable boundary recognition from phonological linguistic unit string data
JPH02150899A (ja) * 1988-12-02 1990-06-11 Toshiba Corp 音声認識方式
JPH10511252A (ja) * 1995-09-29 1998-10-27 エイ・ティ・アンド・ティ・コーポレーション 音声をタッチトーン(信号)に変換するための電話網サービス
US5829000A (en) * 1996-10-31 1998-10-27 Microsoft Corporation Method and system for correcting misrecognized spoken words or phrases
US5937385A (en) * 1997-10-20 1999-08-10 International Business Machines Corporation Method and apparatus for creating speech recognition grammars constrained by counter examples
US6182039B1 (en) * 1998-03-24 2001-01-30 Matsushita Electric Industrial Co., Ltd. Method and apparatus using probabilistic language model based on confusable sets for speech recognition

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0534679B2 (ja) * 1983-02-04 1993-05-24 Hitachi Ltd
JPS60172100A (ja) * 1984-02-16 1985-09-05 電子計算機基本技術研究組合 音声認識装置
JPS61235900A (ja) * 1985-04-12 1986-10-21 株式会社日立製作所 音声認識方法
JPS6361300A (ja) * 1986-09-01 1988-03-17 富士通株式会社 音声認識方式
JPH02214990A (ja) * 1989-02-16 1990-08-27 Nippon Telegr & Teleph Corp <Ntt> パターン認識後処理方式
JPH0421897A (ja) * 1990-05-17 1992-01-24 Nec Corp 音声入力装置
JPH07104779A (ja) * 1993-10-01 1995-04-21 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JPH07168592A (ja) * 1993-12-14 1995-07-04 Ricoh Co Ltd 音声認識装置
JPH0844388A (ja) * 1994-08-04 1996-02-16 Sharp Corp 特定話者用単語音声認識装置
JPH1039892A (ja) * 1996-07-24 1998-02-13 Denso Corp 音声認識方法及び音声認識装置
JPH10207685A (ja) * 1996-12-04 1998-08-07 At & T Corp ハイパーリンク化された情報との音声化されたインターフェースのためのシステムおよび方法
JP2000056794A (ja) * 1998-08-11 2000-02-25 Fujitsu Ltd 音声認識システム及び記録媒体

Also Published As

Publication number Publication date
JP3542026B2 (ja) 2004-07-14
US20010039492A1 (en) 2001-11-08
US6968310B2 (en) 2005-11-22

Similar Documents

Publication Publication Date Title
JP3542026B2 (ja) 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US6684185B1 (en) Small footprint language and vocabulary independent word recognizer using registration by word spelling
US7974843B2 (en) Operating method for an automated language recognizer intended for the speaker-independent language recognition of words in different languages and automated language recognizer
US7657430B2 (en) Speech processing apparatus, speech processing method, program, and recording medium
US7275034B2 (en) Word-specific acoustic models in a speech recognition system
JP4267385B2 (ja) 統計的言語モデル生成装置、音声認識装置、統計的言語モデル生成方法、音声認識方法、およびプログラム
US5680510A (en) System and method for generating and using context dependent sub-syllable models to recognize a tonal language
US6694296B1 (en) Method and apparatus for the recognition of spelled spoken words
US7299179B2 (en) Three-stage individual word recognition
US20130090921A1 (en) Pronunciation learning from user correction
US20070073540A1 (en) Apparatus, method, and computer program product for speech recognition allowing for recognition of character string in speech input
WO2012073275A1 (ja) 音声認識装置及びナビゲーション装置
JP2006251800A (ja) ユーザ適応型の音声認識方法及び音声認識装置
JP2003022089A (ja) オーディオ専用インターフェースにおけるボイス・スペリング
JP2010020102A (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
WO2004047075A1 (ja) 音声処理装置および方法、記録媒体並びにプログラム
CN116324974A (zh) 长语境端到端语音识别系统
EP0562138A1 (en) Method and apparatus for the automatic generation of Markov models of new words to be added to a speech recognition vocabulary
US7302381B2 (en) Specifying arbitrary words in rule-based grammars
JP4966324B2 (ja) 音声翻訳装置、および方法
KR102299269B1 (ko) 음성 및 스크립트를 정렬하여 음성 데이터베이스를 구축하는 방법 및 장치
JP3790038B2 (ja) サブワード型不特定話者音声認識装置
CA2597826C (en) Method, software and device for uniquely identifying a desired contact in a contacts database based on a single utterance
JPH09179578A (ja) 単音節認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040317

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20040317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080409

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees