JP2007538278A - 音声認識システム - Google Patents

音声認識システム Download PDF

Info

Publication number
JP2007538278A
JP2007538278A JP2007517102A JP2007517102A JP2007538278A JP 2007538278 A JP2007538278 A JP 2007538278A JP 2007517102 A JP2007517102 A JP 2007517102A JP 2007517102 A JP2007517102 A JP 2007517102A JP 2007538278 A JP2007538278 A JP 2007538278A
Authority
JP
Japan
Prior art keywords
data
word
word data
dictionary
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007517102A
Other languages
English (en)
Inventor
マティアス シュルツ,
フランツ ゲール,
マルクス シュワルツ,
アンドレアス コスマラ,
バーベル ジェシュク,
Original Assignee
ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー filed Critical ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Publication of JP2007538278A publication Critical patent/JP2007538278A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Telephonic Communication Services (AREA)
  • Character Discrimination (AREA)

Abstract

本発明は、音声認識器のために語彙を自動的に生成する方法に関する。デジタル単語データ(特に名称データ)を受け取り、受信した単語データの少なくとも一部が一致する、所定の辞書(各単語項目について音訳を含む)内の単語項目を自動的に検索し、一致する単語項目がないと決定された場合、受信した単語データの各部分を自動的に音訳するステップを含む。ある名称について、辞書に二つの異なる音訳が存在(例えば、第一の音訳が英語の発音に対応し、第二の音訳がドイツ語の発音に対応する)し得、このため、スピーカが異なる発音を使用しても認識され得る。本発明は、低減されたメモリおよび演算能力条件で音声認識器を使用できるような音声認識システムおよび方法を提供する。

Description

本発明は、音声認識システム、および音声認識器のために自動的に語彙を生成する方法に関する。
音声認識システムの用途は、多くの異なる分野に見出され得る。例えば、音声認識システムはテキストを生成するために使用され得る。この場合、テキストがユーザによって発話(口述)され、音声認識システムによって文書(written text)に文書化(transcribe)される。
他の多くの分野において、音声対話システムが人間ユーザと機械との間の快適で自然なやり取りを提供するために使用される。ユーザがやり取りを希望する装置によっては、ユーザによる情報の取得、発注、または装置を他の方法で制御することに、音声対話システムが使用され得る。例えば、ユーザが移動電話、カーラジオ、ナビゲーションシステム、および/または空調システムなどの異なる装置の制御ができるように、音声対話システムが車に用いられ得る。
異なる種類の音声認識器が活用され得る。例えば、音声認識器は独立型の単語認識器あるいは複合型の単語認識器であり得る。前者の場合、システムが単語の始めと終りを判断できるように、ユーザは入力する連続した単語を十分に長い休止により分離する必要がある。一方、後者の場合、単語の始めと終りが複合型単語認識器自体により認識されるので、ユーザはもっと自然に話すことが可能である。
音声認識器は、音声入力が辞書の、事前に保存された音声パターンと比較される原理に基づく。入力された単語が、保存された音声パターンに「十分」類似する(特定の判断基準または距離計測値に従って)場合、単語は相応に認識される。音声認識アルゴリズムは、テンプレートマッチング、ヒドンマルコブモデル(Hidden Markov Model、HMM)および/または人工神経ネットワークなど、他の方法に基づき得る。
多くの異なる用途において、音声認識システムは接続する他の装置との関連で組込型システムとして使用される。そのような組込型システムの典型的な例が移動電話、PDA、またはカーラジオ/CDプレーヤやナビゲーションシステムを含むカーエンターテインメントシステムおよび制御システムである。
特に組込型システムの場合、音声認識部分のために提供されるCPU能力やメモリは限られている。その一方で、さらに他の用途において、異なる適切な名称を認識するために多大な語彙と演算能力が必要である。例えば、音声認識器が移動電話の電話帳の項目にアクセスし、音声コマンドのみを介して通話を開始する場合や、名称を発話することによりラジオ局を選択することでカーラジオが制御される場合である。
以上の観点から、本発明の課題は、低減されたメモリおよび演算能力条件で音声認識器を使用できるような音声認識システムおよび方法を提供することにある。
この課題は、請求項1に記載の方法、および請求項13に記載の音声認識システムにより解決される。
それゆえ、音声認識器のために自動的に語彙を生成する、方法であって、
a)デジタル単語データ、特に名称データを受信するステップと、
b)受信した単語データの少なくとも一部分に一致する、所定の辞書の単語項目を自動的に検索するステップであって、辞書が各単語項目について音訳(phonetic transcription)を含む、ステップと、
c)受信した単語データであって、一致する単語項目がないと決定された、受信した単語データの各部分を自動的に、音訳するステップと
を包含する、方法が提供される。
以降、「単語」または「単語データ」という用語は、キャラクタの配列を意味し、「キャラクタ」という用語は文字(letter)、数字(number)(デジット)、およびダッシュ、ブランク、ドットなどの特殊文字を含む。例えば、異なる英数字がブランクにより分離され得る。単語データは、デジタル形態で受信される。単語または単語の一部を音訳すると、結果的にその単語またはその単語の一部の発音様態に対応する音声パターンになる。
従来技術の場合に比較して、本方法は、事前に起こり得る全ての音声入力を包含する、膨大な数の項目を含む大きな辞書を保存する必要がなく、音声認識を可能にする。本方法は、該当する単語データを受信すると、音声認識器のための語彙を動的に生成することを可能にする。このように、音声認識器のための音声パターンは、動作時点でのユーザおよび音声認識器の条件および要件により良く適合される。特に、単語データが受信されると、所定の辞書が、受信された単語データあるいはその一部に一致する項目をすでに含むかの確認が行われる。含む場合、単語またはその一部に対応する音訳はすでに存在する。含まない場合、受信された単語データの残りの部分(受信された単語データの全てでもあり得る)が、対応する音声パターンが取得されるように、音訳される。
ステップb)は、所定のカテゴリに基づいて単語データをデータフラグメントに分解することと、データフラグメントに一致するか、またはデータフラグメントの配列に一致する、辞書の中のフラグメント項目を検索することとを含み得る。さらに、ステップc)は、一致するフラグメント項目がないと決定された各データフラグメントを音訳することを含み得る。
データフラグメントは、単一のキャラクタまたはいくつかのキャラクタ(例えば、文字、数字、または特殊文字)の配列(ストリング)から形成される。辞書のフラグメント項目は、単語データの単一のデータフラグメントまたはデータフラグメントの配列に一致し得、そのような配列内のデータフラグメントは同じカテゴリに属する必要はない。一致するフラグメント項目が決定されるデータフラグメントのカテゴリに対応する、辞書の一部のみを検索することが可能である。よって、各項目が所定のカテゴリに関連した辞書が提供され得る。換言すると、サブ辞書であって、サブ辞書の項目が所定の共通カテゴリに属する、サブ辞書を辞書が備えるように、辞書の項目は分類され得る。これは、各データフラグメントについて、辞書の、データフラグメントのカテゴリに対応する部分のみを検索するので、必要な演算能力および演算時間を低減する。
分解するステップは、単語データを、文字のみで形成されるデータフラグメント、数字のみで形成されるデータフラグメント、および/または特殊文字のみで形成されるデータフラグメントに分解することを含み得る。
これらのカテゴリにより、文字フラグメント、数字フラグメント、および特殊文字フラグメントが取得され、単一のキャラクタまたはキャラクタの配列から形成されている、各フラグメントは全て、これらのカテゴリの中の一つのみに属する。このような分類は、このような場合には対応する単語データが通常、文字と数字の両方を含むので、住所録またはラジオ局との関連で特に有益である。
データフラグメントは、単語データストリングに連続して出現するキャラクタのストリングから形成され得る。一方、データフラグメントのキャラクタは、ブランク、ダッシュ、または他の特殊文字により分離され得る。好適には、少なくとも一つの特殊文字により分離される英数字の二つの配列から形成される単語データは、英数字の配列に各々が対応する二つのフラグメント、および該当する少なくとも一つの特殊文字から形成されるフラグメントに分解され得る。英数字は、文字または数字である。例えば、単語データの文字の二つの配列がブランクで分離されている場合、二つのフラグメントが形成され、各々が二つの文字フラグメントのうちの一つに対応し、第三のフラグメントはブランクから形成される。多くの場合、ダッシュやブランクで分離される単語データの英数字の配列は別々の要素(例えば、名前と苗字)を形成し得るので、以後の処理のための単語データの効果的な分解を生じる。他のカテゴリ(例えば、文字カテゴリ、数字カテゴリなど)に基づく追加的な分解を行うことも可能であり、これらの分解の順序は変られ得る。
ステップc)は、これらの受信された単語データの一部を音訳して綴り形態にするのか、発音形態にするのか、または綴りと発音の複合形態にするのかを所定の基準に基づいて判断することを含み得る。
綴り形態では、フラグメントの各々のキャラクタが綴り文字となる音訳となり、一方、発音形態では、キャラクタの配列が、キャラクタから形成される完全な形の単語として発音されるか、または発話される。複合形態では、データフラグメントの一部が綴り上げられ、他の部分が発音される。
所定の基準は、データフラグメントの長さ(キャラクタの数)、隣接のフラグメント、大文字小文字、および/または子音および母音の出現に依存し得る。
特に、子音のみで形成される、受信された単語データの一部の中の個々の文字は、綴り形態で音訳され得る。このため、話者により発音されるデータフラグメントの発音(すなわち、綴り)に最も対応するであろうデータフラグメントの文字の配列の音訳となる。
ステップa)は、デジタル単語データをラジオデータシステム(RDS)またはラジオブロードキャストデータシステム(RBDS)を介して受信することを含み得る。
RDSまたはRBDSは、オーディオ信号自体に加えて、デジタルデータ(例えば、ラジオ局の名称や他の情報)の送信を可能にする。このため、本方法は、ラジオ(例えば、カーラジオ)特に、音声コマンドによるラジオの制御のための音声認識器として効果的に使用され得る。RDSまたはRBDSの無線信号もデジタル単語データを含むので、これらの単語データは、対応する語彙を音声認識器のために生成するために好適に使用される。
デジタル単語データの自動要求が、ステップa)に先行され得る、この要求ステップは、ラジオ周波数帯のスキャンを開始することと、受信可能なラジオ局を検索することとを含み得る。そうすることにより、ラジオを制御する音声認識器のために動的に生成された語彙は、動作時点の条件(すなわち、受信可能なラジオ局)に常に適合される。このようにして取得された語彙は、当該時点で使用され得る必要なデータを含む。
ステップa)は名称データベース(特に、住所録データベースまたは電話帳データベース)から単語データをアップロードすることを含み得る。そうすることにより、音声認識器によるその固有の名称の認識率がより高くなるように、固有の名称のセットを含む名称データベースが音声認識器のための語彙を特に拡張することを可能にする。例えば、名称データベースがラジオ局の名称のリストを含み得るなど、他の名称データベースも可能である。
上記の方法において、単語項目の少なくとも一つに対して、同義語、および/または省略形、および/または少なくとも二つの音訳をさらに含む辞書が用いられ得る。
このように、ユーザは、異なるやり方で音声コマンドを入力する可能性を有する。例えば、ユーザは、用語を完全な形で発話し得るし、またはその省略形を使用し得る。両方が辞書に存在する場合、選択肢が認識される。ある場合においては、たとえば英語発音またはドイツ発音など、用語の異なった発音がされる可能性があり得る。二つの音訳が辞書の一部である場合、これらの異なる発音も認識される。
上記方法はさらに、受信された単語データの音訳された部分の各々とその対応する部分を音声認識器に提供するステップを含み得る。このように、音声認識器の語彙は拡張され、また音声認識器の機能性は改善される。
ステップb)およびステップc)は、所定の基準に基づいて(特に、音声認識器の動作時間中の所定の時間間隔で、および/または単語データが受信されるたび)、繰り返され得る。さらに、音訳された部分の各々を音声認識器に提供するステップも所定の基準に基づいて繰り返され得る。
そうすることにより、語彙の定期的更新が可能になる。例えば、RDSまたはRBDSを介してデジタル単語データを受信する場合、新しいラジオ局が受信可能になるたび、および/またはラジオ局がもはや受信可能でなくなるたびに、これらのステップが繰り返され得る。したがって、上記方法は車両内の音声認識器にとって特に有用である。
「動作時間」という用語は、音声認識器が使用できる期間(プッシュツートーク(PTT)キーが押されていなくても)を意味し、音声認識器が動作中(例えば、PTTキーが押され、実際に音声入力を処理している)の期間のみを意味するものではない。
本発明はまた、前記の方法のうちの一つの方法のステップを実行するためのコンピュータ実行可能な命令を有する、コンピュータ可読媒体を含む、コンピュータプログラム製品を提供する。
本発明はまた、以下を含む音声認識システムを提供する:
音声入力を認識するための音声認識器と、
単語データ、特に名称データを受信するように構成されたインターフェイスと、
デジタル単語項目および各単語項目に対して音訳を含む辞書が保存されているメモリと、
受信された単語データの少なくとも一部と一致する、辞書の中の単語項目を自動的に検索ように構成された検索手段と、
受信された単語データであって、一致する項目がないと決定された、受信された単語データの各部分を自動的に音訳するように構成された音訳手段。
このような音声認識システムにおいて、上記方法は有益に実行され得る。特に、音声認識器のための語彙は動的に生成され、更新され得る。音声認識システムの異なる部分が異なる可能形態で構成され得るということは、理解される。例えば、所定の辞書が保存されているメモリは、別の要素として提供され得るし、あるいは音声認識器がこのメモリを含み得る。
検索手段は、所定のカテゴリに基づいて単語データをデータフラグメントに分解し、データフラグメントに一致する、またはデータフラグメントの配列に一致する、辞書内のフラグメント項目を検索するように構成することができ得るし、また音訳手段は、データフラグメントであって、一致するフラグメントの項目がないと決定されたデータフラグメントの各々を音訳するように構成され得る。
検索手段は、単語データを、文字のみで形成されるデータフラグメント、数字のみで形成されるデータフラグメント、および/または特殊文字のみで形成されるデータフラグメントに分解するように構成され得る。
検索手段は、少なくとも一つの特殊文字により分離されている英数字の二つの配列を含む単語データが、各々が英数字の配列に対応する二つのフラグメントおよび少なくとも一つの特殊文字から形成されるフラグメントに分解され得るように構成され得る。
音訳手段は、受信した単語データの一部を所定の基準に基づいて、どう(綴り形態、発音形態、または綴りと発音形態の複合)音訳するかを決定するように構成され得る。
音訳手段は、受信した単語データの子音のみで形成される部分の文字を綴り形態で音訳するように構成され得る。
インターフェイスは、デジタル単語データをラジオデータシステム(RDS)またはラジオブロードキャストデータシステム(RBDS)を介して受信するように構成され得る。
インターフェイスは、自動的にデジタル単語データを要求するように構成され得る。
インターフェイスは、名称データベース(特に、住所録データベースまたは電話帳データベース)から単語データをアップロードするように構成され得る。
辞書は、単語項目のうちの少なくとも一つについて、同義語、および/または省略形、および/または少なくとも二つの音訳をさらに含み得る。
音訳手段は、受信した単語データの各々の音訳された部分、およびその対応する部分を音声認識器がアクセスできるメモリに保存するように構成され得る。
検索手段および音訳手段は、特に、音声認識器の動作時間中に、所定の時間間隔でおよび/または単語データが受信されるたびに、所定の基準に基づいて、検索および音訳を繰り返すように構成され得る。
さらに特徴や利点を図に関連付けて以下に説明する。
下に、異なる実施形態および図に関連付けて本発明を説明するが、その詳細説明および図は、本発明をここに開示される具体的な例示的実施形態により限定するものではなく、説明される例示的実施形態は本発明の多様な局面を単に例示するものであり、本発明の範囲は添付の特許請求の範囲により限定されることが理解されるべきである。
図1は、音声認識システムの例の異なる構成要素の配置を示す。具体的に、音声認識システムは、音声入力を認識する役割の音声認識器101を含む。そのような音声入力は、マイクロフォン102を介して音声認識器101により受信される。
一般に、音声認識器は、一つのマイクロフォン、またはいくつかのマイクロフォン、特にマイクロフォンアレイ(非表示)、に接続され得る。マイクロフォンアレイが使用される場合、そのようなマイクロフォンアレイから発信される信号はビームフォーマにより処理されて特定の指向性を有する複合信号を取得する。これは、車両内など、騒がしい環境で音声認識システムが使用される場合に特に有益である。
図1に示す音声認識システムは、音声コマンドを介してラジオ103を制御するように意図されている。音声認識器は、独立した単語認識器、または複合単語認識器であり得る。その認識アルゴリズムは、例えば、テンプレートマッチング、ヒドンマルコブモデルおよび/または人工神経ネットワークなどの方法に基づき得る。いずれの場合も、音声認識器101はユーザからの音声入力をメモリ104内に前に保存された音声パターンと比較する。保存されている音声パターンの一つに音声入力が十分類似する(所定の距離計測値に準じて)場合、その音声入力はその該当する音声パターンだと認識される。メモリ104においては、ラジオ103などの接続された装置の機能を制御するために標準語彙が保存される。一方、ナビゲーションシステムあるいは空調などの他の装置も音声認識器に接続され得る。
例えば、ユーザは「ボリューム」および「アップ」という単語を発話し得る。これら二つの単語に対応する音声パターンが音声認識器に存在する場合、「ボリュームアップ」というコマンドが認識され、ボリュームを上げるために、対応する電気信号が音声認識器からラジオ103へ送信される。
ラジオの場合(特に、カーラジオ)、対応する音声コマンドを介してラジオ局を選択したい場合がある。しかし、ラジオ局の名称は、音声認識器の標準語彙の一部を形成しない、特別な固有名詞である場合が多い。これは特にメモリの限度に関連する。
このため、異なるラジオ局の名称をデジタル形態で受信するように機能するインターフェイス105が提供される。このインターフェイスは、例えば、ラジオ局から無線形態で、適切なネットワークを介してデータを受信するように構成される。
特に、インターフェイス105は、ラジオデータシステム(RDS)またはラジオブロードキャストデータシステム(RBDS)を介してデジタルデータを受信するように構成され得る。これらのシステムに基づくと、ラジオ局から受信される信号は、音声データだけでなく、追加情報も含む。例えば、局の名称がデジタル形態で同時に送信され得る。多くのRDSまたはRBDS受信器は局の名称をディスプレイに表示することが可能である。
ここでは、名称情報は、音声認識器に追加語彙データを提供するのに使用される。これを達成するため、検索手段106がインターフェイス105に接続される。下にさらに詳しく説明するように、検索手段106はメモリ107に保存された所定の辞書にインターフェイス105により受信された名称の少なくとも一部が存在するかを判断する役割を有する。
メモリ107は、検索手段106だけでなく、音声認識器101にも接続されている。特に、音声認識器はメモリ107に保存されている辞書へもアクセス可能である。図1に示す例において、メモリ107は音声認識器の外部の追加部分として示されている。一方、他の形態もまた可能であり、例えば、メモリは検索手段または音声認識器の一部であり得る。
さらに、音訳手段108は検索手段106および音声認識器101に接続されている。入ってくる名称データのいくつかの部分、または全ての部分がメモリ107に保存されている辞書に見つからない場合、音訳する音訳手段108へこれらの部分が送られる。音訳手段は、いずれの音訳(綴り形態、発音形態、綴りおよび発音の複合形態)を行うかを判断するように構成され得る。
各々の音訳は、音声認識器101へ送られ、音声認識器により使用され得るようにメモリ104に保存される。このように、追加語彙が音声認識器のために動的に生成される。
この場合さらに、追加語彙は他のやり方でも保存され得る。例えば、音訳手段108はこの追加語彙が保存されるメモリも含み得る。あるいは、すでに存在する辞書に加えて、音訳された部分もメモリ107に保存され得える。この場合、音訳手段108は音声認識器101に直接接続される必要はなく、例えば、直接または検索手段106を介してメモリ107に接続されるべきである。
下に、語彙をどう生成するかの例を図2に照らして説明する。本方法のステップを、図1に示すラジオを制御するための音声認識システムの例に沿って説明する。しかしながら、本方法のステップは、移動電話など、他の例にも適用することが理解されるべきである。
第一のステップ201において、デジタル単語データが受信される。ラジオ用の音声認識システムの場合、単語データはラジオ局の名称である。一方、例えば、本方法が移動電話に使用される場合、単語データは住所録または電話帳の項目を含み得る。
例えば、受信された単語データが「SWR 4HN」を含み得る。これは、ラジオ局
Figure 2007538278
を表す。このラジオ局の名称を受信すると、ラジオ信号が送信される、対応する周波数も判明する。つまり、その周波数が、名称情報が受信された信号の周波数である。
次のステップ202において、名称データ「SWR 4 HN」は、所定のカテゴリ、本例の場合、「文字」および「数字」、に沿って分解される。キャラクタの配列は、次のように分析され得る。
「S」であり、「文字」のカテゴリに属する第一のキャラクタから開始する。続くキャラクタである「W」および「R」は、同じカテゴリに属する。これら三つの文字の後、ブランクがあり、数字である「4」が後続する。すなわち、カテゴリ「文字」である、同じカテゴリに属するキャラクタの配列が終結され、第一のデータフラグメント「SWR」決定される。後続するブランクは、次のフラグメントを形成する。
数字「4」にブランクが後続し、そして文字である、キャラクタ「H」が後続する。すなわち、同じカテゴリに属するキャラクタの配列は、ここでは数字「4」である、単一のキャラクタのみで形成される。これもフラグメントである。次のフラグメントとなるブランクが後続する。この後、文字「H」および「N」で形成される最終フラグメントが決定される。結果として、単語データ「SWR 4 HN」がフラグメント「SWR」、「4」、および「HN」、ならびにそれぞれ一個のブランクで形成される二つの特殊文字フラグメントに分解される。
名称データの他の分解形態も可能である。例えば、まず第一に、データが、ブランク、あるいはダッシュまたはドットなどの特殊文字により他から分離された、異なる部分に分解され得る。その後、上記のように、文字や数字への分解が行われ得る。上記の例「SWR 4 HN」の場合、ブランクで分離される英数キャラクタの配列への分解により、三つのフラグメント「SWR」、「4」、「HN」と二つの特殊文字フラグメントに分解される。文字フラグメントおよび数字フラグメントへのさらなる分解がこの分解を変化させることはない。
分解の異なるステップが置き換えられ得ることも理解されるべきである。
次のステップ203において、辞書が検索され、データフラグメントの中のひとつ、または配列に一致する項目が存在するかを決定する。辞書は、主要なラジオ局の名称または省略形を含み得る。各データフラグメント、あるいはデータフラグメントの配列に対して、辞書が検索される。辞書はまた、各々が所定のカテゴリに属する項目を含む、異なるサブ辞書へ分解され得る。例えば、あるサブ辞書は、文字のみで形成される項目を含み得、またあるサブ辞書は、数字のみで形成される項目を含み得る。すなわち、文字データフラグメントに関しては、文字サブ辞書のみが検索され、数字データフラグメントに関しては、数字サブ辞書が検索される。この場合、処理時間は多大に低減され得る。
次のステップ204において、一致するフラグメント項目が辞書に見つからないデータフラグメントが存在するかチェックが行われる。見つかった場合、完全な名称データがすでに辞書に存在するので、本方法は終了され得る。辞書がその項目の各々に対して音訳を含んでいるので、音声認識器は、これらのフラグメントを認識するために必要な全ての情報を有する。
一方、一致する項目が辞書に見つからないデータフラグメントが一つ、あるいはいくつか存在する場合、本方法は、ステップ205へ進む。このステップでは、データフラグメントの各々が音訳される。つまり、データフラグメントの発音に対応する音声パターンが生成される。そのために、本分野で知られているテキストツー音声(TTS)合成器が使用され得る。このステップにおいて、所定の基準に沿って、どの音訳が行われるかが判断される。例えば、ある基準に沿った場合、所定数未満のキャラクタから形成されるデータフラグメントについては、綴り形態の音訳が常に選択される。この基準はまた、大文字小文字キャラクタの出現、隣接(先行、または後続)フラグメントなどにも(追加的に、または代替的に)左右され得る。
文字データフラグメントが子音のみで形成される場合、そのフラグメントを綴り形態でも音訳することが有益である。換言すると、結果として生じる音訳パターンは、データフラグメントの文字の綴りと対応することになる。これは、特に、母音を全く含まない、ユーザも通常、綴ることになる省略形に対して有益である。他方、綴り形態および発音形態の音訳から形成される、複合音訳を行うことが有益であり得る場合もある。
最終ステップ206において、音訳および対応する単語データフラグメントが(例えば、音訳を対応するデータフラグメントとともに音声認識器のメモリへ送り、メモリに保存することにより)、音声認識器に提供される。こうして、音声認識のための語彙が拡張される。
図3は、ラジオ(特に、カーラジオ)の場合、受信される単語データがどう取得されるのかの例を示す。第一のステップ301に沿って、ラジオ周波数帯がスキャンされる。これは、音声認識器による要求に応答して行われ得る。周波数帯のスキャンの最中、ラジオ信号が受信される全ての周波数が決定される。
次のステップ302において、受信可能な局のリストが決定される。周波数帯をスキャンするとき、ラジオ信号が受信される周波数に遭遇するたび、その周波数が、音声信号とともにデジタル信号として受信される、対応するラジオ局の名称とともに、保存される。
受信可能なラジオ局の、結果として生じるリストの例を図4に示す。左欄は、RDSまたはRBDSを介して受信したラジオ局の名称であり、右欄は、これらのラジオ局が受信され得る、対応する周波数を記載している。このようなリストが異なる形態で保存され得ることが理解されるべきである。
次のステップ303において、受信可能なラジオ局のリストがすでに存在するのか、あるいは以前保存されたラジオ局のリストに関連して現時点でのリストが修正されるのかをチェックする。後者は、カーラジオの場合に起こり得る。例えば、ドライバが送信器の異なるカバー範囲を移動しているとき、ある時点において、あるラジオ局が受信可能になり、他のラジオ局がもはや受信可能でなくなることがあり得る。
以前保存されたラジオ局リストがない場合、または受信可能なラジオ局のリストが修正されていた場合、本方法はステップ304へ進み、ラジオ局のリストに対応する語彙が生成される。これは、図2に説明する方法に沿って行われる。そうない場合、本方法はステップ301へ戻る。
これらのステップは、連続して、または所定の時間間隔で定期的に行われ得る。
図5は、図2に示されている方法のステップ203で検索される辞書を示す。辞書の各フラグメント項目に対し、対応する音訳が関連付けられる。例えば、ある項目が「SWR」であり得、省略形である。この項目に対し、辞書はまた、音訳とともに、対応する完全な単語
Figure 2007538278
を含む。「Radio Energy」と称されるラジオ局が存在する場合、辞書はまた、フラグメント「Energy」を含み得る。この項目に対し、二つの異なる音訳が存在し、第一の音訳が(正しい)英語の発音に対応し、第二の音訳が単語「energy」のドイツ語発音に対応する。このため、「energy」という用語は、スピーカがドイツ語発音を使用しても認識され得る。
周波数により識別されるラジオ局の場合、辞書はまた、この周波数を発音または綴る異なる方法に対応する項目を含み得る。例えば、ラジオ局が94.3MHzで受信される場合、辞書は「ninety−four dot three」、「ninety−four three」、「nine four three」、などに対応する項目を含み得る。このため、ユーザは「dot」を発音してもしなくてもよく、周波数はいずれの場合にも認識される。
前記において、音声認識器のために語彙を発生する方法がラジオ(特に、カーラジオ)との関連で説明された。本方法が、他の分野においても使用され得ることが理解されるべきである。
移動電話のための音声認識器の使用が一例である。ユーザが音声コマンドを介して移動電話を制御することを希望する場合、音声認識器は、ユーザが呼ぶ異なる固有名詞を認識する必要がある。そのような場合、例えば、移動電話のSIMカードに保存されている住所録に基づいて語彙が生成され得る。そのような場合、例えば、移動電話のスイッチが入れられるとき、住所録データベースがアップロードされ、図2に沿った方法が行われ得る。換言すると、本方法のステップは住所録の異なる項目に対して行われる。この場合また、名称およびその発音をすでに含む辞書が提供され得る。さらに、辞書は、項目のいくつか、または全てに対して同義語、省略形、および/または異なる発音を含み得る。例えば、「Dad」の項目が「Father」および「Daddy」と関連付けられ得る。
本発明のさらなる改良形態および変化形態は、ここでの説明に照らし、当業者にとって明らかである。このことから、ここでの説明は、例示的のみと解釈されるべきであり、当業者に対して本発明を実行するための一般的な方法を教示する目的のためのものである。ここで示される、および説明される本発明の形態は、現時点における好適実施形態として解釈されるべきことが理解されるべきである。
ラジオを制御するための音声認識システムの例を示す。 音声認識器のために語彙を生成するための方法例の手順を示す。 音声認識器のためにラジオ局の語彙を生成する例の手順を示す。 ラジオ局のリストの例を示す。 ラジオ局の辞書項目の例を示す。

Claims (25)

  1. 音声認識器のために自動的に語彙を生成する方法であって、該方法は、
    a)デジタル単語データ、特に名称データを受信するステップと、
    b)所定の辞書の中において、該受信された単語データの少なくとも一部と一致する単語項目を検索するステップであって、該辞書は、各単語項目の音訳を含む、ステップと、
    c)該受信された単語データの中の、一致する単語項目がないと決定された各部分を自動的に音訳するステップと
    を包含する、方法。
  2. ステップb)が、所定のカテゴリに従って、前記単語データをデータフラグメントに分解することと、データフラグメントまたはデータフラグメントの配列に一致するフラグメント項目を前記辞書の中において検索することとを包含し、ステップc)が、一致するフラグメント項目ががないと決定された各データフラグメントを音訳することを包含する、請求項1に記載の方法。
  3. 前記分解するステップが、前記単語データを、文字のみで形成するデータフラグメント、数字のみで形成するデータフラグメント、および/または特殊文字のみで形成するデータフラグメントに分解することを包含する、請求項2に記載の方法。
  4. 少なくとも一つの特殊文字により分離されている英数字の二つの配列を含んでいる単語データが、英数字の配列に各々対応する二つのフラグメント、および該少なくとも一つの特殊文字で形成するフラグメントへ分解される、請求項2または3に記載の方法。
  5. ステップc)が、前記受信した単語データの一部を、所定の基準に基づいて、綴り形態、発音形態、または綴り形態と発音形態の複合形態で音訳するかを判断することを包含する、請求項1〜4のいずれか一項に記載の方法。
  6. ステップc)において、前記受信された単語データの子音のみで形成される部分の各文字が綴り形態で音訳される、請求項1〜5のいずれか一項に記載の方法。
  7. ステップa)が、ラジオデータシステム(RDS)またはラジオブロードキャストデータシステム(RBDS)を介してデジタル単語データを受信することを包含する、請求項1〜6のいずれか一項に記載の方法。
  8. ステップa)が、デジタル単語データを自動的に要求することに先行される、請求項1〜7のいずれか一項に記載の方法。
  9. ステップa)が、名称データベース、特に住所録データベースまたは電話帳データベースから単語データをアップロードすることを包含する、請求項1〜8のいずれか一項に記載の方法。
  10. 前記単語項目の少なくとも一つに対して、同義語、および/または短縮形、および/または少なくとも二つの音訳をさらに含む辞書が使用される、請求項1〜9のいずれか一項に記載の方法。
  11. 前記受信された単語データの音訳された部分とその対応する部分の各々を、前記音声認識器に提供するステップをさらに包含する、請求項1〜10のいずれか一項に記載の方法。
  12. ステップb)およびステップc)が、所定の基準に基づいて、特に所定の時間間隔で、および/または単語データが受信されるたびに前記音声認識器の動作時間の最中に繰り返される、請求項1〜11のいずれか一項に記載の方法。
  13. 請求項1〜12のいずれか一項に記載の方法の前記ステップを行うための、コンピュータが実行可能な命令を有する、一つ以上のコンピュータ可読媒体を備えているコンピュータプログラム製品。
  14. 音声認識システムであって、該音声認識システムは、
    音声入力を認識するための音声認識器と、
    単語データ、特に名称データを受信するように構成されたインターフェイスと、
    デジタル単語項目および各単語項目に対する音訳を含む所定の辞書が保存されているメモリと、
    該受信された単語データのうちの少なくとも一部分に一致する該辞書内の単語項目を自動的に検索するように構成された検索手段と、
    一致する単語項目がないと決定された、該単語データの各部分を自動的に音訳するように構成された音訳手段と
    を備える、音声認識器。
  15. 前記検索手段が、前記単語データを所定のカテゴリに従ってデータフラグメントに分解するように構成されており、また、データフラグメントに一致するかまたはデータフラグメントの配列に一致する、前記辞書内のフラグメント項目を検索するように構成されており、前記音訳手段が、一致するフラグメント項目がないと決定された各データフラグメントを音訳するように構成されている、請求項14に記載の音声認識器。
  16. 前記検索手段が、前記単語データを、文字のみで形成されるデータフラグメント、数字のみで形成されるデータフラグメント、および/または特殊文字のみで形成されるデータフラグメントに分解するように構成されている、請求項15に記載の音声認識システム。
  17. 前記検索手段が、少なくとも一つの特殊文字で分離された英数字の二つの配列を含んでいる単語データが、英数字の配列に各々が対応する二つのフラグメント、および該少なくとも一つの特殊文字で形成されるフラグメントに分解されるように構成されている、請求項15または16に記載の音声認識システム。
  18. 前記音訳手段が、前記受信された単語データの一部を、綴り形態、発音形態、または綴り形態と発音形態の複合形態で音訳するかを、所定の基準に基づいて判断するように構成されている、請求項14〜17のいずれか一項に記載の音声認識システム。
  19. 前記音訳手段が、前記受信された単語データの、子音のみで形成される部分を綴り形態で音訳するように構成されている、請求項14〜18のいずれか一項に記載の音声認識システム。
  20. 前記インターフェイスが、ラジオデータシステム(RDS)またはラジオブロードキャストデータシステム(RBDS)を介してデジタル単語データを受信するように構成されている、請求項14〜19のいずれか一項に記載の音声認識システム。
  21. 前記インターフェイスが、デジタル単語データを自動的に要求するように構成されている、請求項14〜20のいずれか一項に記載の音声認識システム。
  22. 前記インターフェイスが、名称データベース、特に住所録データベースまたは電話帳データベースから、単語データをアップロードするように構成されている、請求項14〜21のいずれか一項に記載の音声認識システム。
  23. 前記辞書が、前記単語項目のうちの少なくとも一つに対して、同義語、および/または省略形、および/または二つの音訳をさらに含んでいる、請求項14〜22のいずれか一項に記載の音声認識システム。
  24. 前記音訳手段が、前記受信された単語データの各音訳部分および該単語データの対応する部分を、前記音声認識器がアクセスできるメモリに保存するように構成されている、請求項14〜23のいずれか一項に記載の音声認識システム。
  25. 前記検索手段および前記音訳手段が、前記音声認識器の動作中、所定の基準に基づいて、特に所定の時間間隔で、および/または単語データが受信されるたびに、検索および音訳を繰り返すように構成されている、請求項14〜24のいずれか一項に記載の音声認識システム。
JP2007517102A 2004-05-21 2005-05-23 音声認識システム Pending JP2007538278A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04012134A EP1600942B1 (en) 2004-05-21 2004-05-21 Automatic word pronunciation generation for speech recognition
PCT/EP2005/005568 WO2005114652A1 (en) 2004-05-21 2005-05-23 Speech recognition system

Publications (1)

Publication Number Publication Date
JP2007538278A true JP2007538278A (ja) 2007-12-27

Family

ID=34925081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007517102A Pending JP2007538278A (ja) 2004-05-21 2005-05-23 音声認識システム

Country Status (6)

Country Link
US (1) US20070156405A1 (ja)
EP (1) EP1600942B1 (ja)
JP (1) JP2007538278A (ja)
AT (1) ATE449401T1 (ja)
DE (1) DE602004024172D1 (ja)
WO (1) WO2005114652A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259275A (ja) * 2006-03-24 2007-10-04 Nec Corp 通信端末におけるニックネーム登録方法及びその装置
JP2011033874A (ja) * 2009-08-03 2011-02-17 Alpine Electronics Inc 多言語音声認識装置及び多言語音声認識辞書作成方法
WO2022030913A1 (ko) * 2020-08-04 2022-02-10 삼성전자 주식회사 음역 검색을 위한 방법 및 이를 지원하는 전자 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005059630A1 (de) * 2005-12-14 2007-06-21 Bayerische Motoren Werke Ag Verfahren zur Erzeugung von Sprachmustern für eine sprachgesteuerte Senderwahl
US9514746B2 (en) * 2006-09-26 2016-12-06 Storz Endoskop Produktions Gmbh System and method for hazard mitigation in voice-driven control applications
JP4859642B2 (ja) * 2006-11-30 2012-01-25 富士通株式会社 音声情報管理装置
US20090034750A1 (en) * 2007-07-31 2009-02-05 Motorola, Inc. System and method to evaluate an audio configuration
US9349367B2 (en) * 2008-04-24 2016-05-24 Nuance Communications, Inc. Records disambiguation in a multimodal application operating on a multimodal device
TWI536366B (zh) 2014-03-18 2016-06-01 財團法人工業技術研究院 新增口說語彙的語音辨識系統與方法及電腦可讀取媒體
US20160062832A1 (en) 2014-09-02 2016-03-03 Netapp. Inc. Wide spreading data storage architecture
US9823969B2 (en) 2014-09-02 2017-11-21 Netapp, Inc. Hierarchical wide spreading of distributed storage
US9767104B2 (en) * 2014-09-02 2017-09-19 Netapp, Inc. File system for efficient object fragment access
US9431061B1 (en) 2015-04-24 2016-08-30 Netapp, Inc. Data write deferral during hostile events
US9817715B2 (en) 2015-04-24 2017-11-14 Netapp, Inc. Resiliency fragment tiering
US10379742B2 (en) 2015-12-28 2019-08-13 Netapp, Inc. Storage zone set membership
US10514984B2 (en) 2016-02-26 2019-12-24 Netapp, Inc. Risk based rebuild of data objects in an erasure coded storage system
US10055317B2 (en) 2016-03-22 2018-08-21 Netapp, Inc. Deferred, bulk maintenance in a distributed storage system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61236598A (ja) * 1985-04-12 1986-10-21 株式会社リコー 単語音声登録方式
JPH08292873A (ja) * 1995-04-21 1996-11-05 Ricoh Co Ltd 音声合成装置
JPH1011090A (ja) * 1996-06-20 1998-01-16 Sony Corp 音声合成装置
JPH11213514A (ja) * 1998-01-22 1999-08-06 Sony Corp ディスク再生装置
JP2000029490A (ja) * 1998-07-15 2000-01-28 Denso Corp 音声認識装置用の単語辞書データ構築方法、音声認識装置及びナビゲーションシステム
JP2001092485A (ja) * 1999-09-10 2001-04-06 Internatl Business Mach Corp <Ibm> 音声情報の登録方法、認識文字列の特定方法、音声認識装置、音声情報の登録のためのソフトウエア・プロダクトを格納した記憶媒体、及び認識文字列の特定のためのソフトウエア・プロダクトを格納した記憶媒体
JP2002023782A (ja) * 2000-07-13 2002-01-25 Sharp Corp 音声合成装置および方法、情報処理装置、並びに、プログラム記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5131045A (en) * 1990-05-10 1992-07-14 Roth Richard G Audio-augmented data keying
US5224190A (en) * 1992-03-31 1993-06-29 At&T Bell Laboratories Underwater optical fiber cable having optical fiber coupled to grooved metallic core member
US5410475A (en) * 1993-04-19 1995-04-25 Mead Data Central, Inc. Short case name generating method and apparatus
US5724481A (en) 1995-03-30 1998-03-03 Lucent Technologies Inc. Method for automatic speech recognition of arbitrary spoken words
US5761640A (en) * 1995-12-18 1998-06-02 Nynex Science & Technology, Inc. Name and address processor
US5864789A (en) * 1996-06-24 1999-01-26 Apple Computer, Inc. System and method for creating pattern-recognizing computer structures from example text
US6035268A (en) * 1996-08-22 2000-03-07 Lernout & Hauspie Speech Products N.V. Method and apparatus for breaking words in a stream of text
US6092044A (en) * 1997-03-28 2000-07-18 Dragon Systems, Inc. Pronunciation generation in speech recognition
US6108627A (en) * 1997-10-31 2000-08-22 Nortel Networks Corporation Automatic transcription tool
US6195641B1 (en) * 1998-03-27 2001-02-27 International Business Machines Corp. Network universal spoken language vocabulary
US6078885A (en) * 1998-05-08 2000-06-20 At&T Corp Verbal, fully automatic dictionary updates by end-users of speech synthesis and recognition systems
US6243680B1 (en) * 1998-06-15 2001-06-05 Nortel Networks Limited Method and apparatus for obtaining a transcription of phrases through text and spoken utterances
ATE320650T1 (de) * 1999-06-30 2006-04-15 Ibm Verfahren zur erweiterung des wortschatzes eines spracherkennungssystems
ES2208212T3 (es) * 2000-12-18 2004-06-16 Siemens Aktiengesellschaft Procedimiento y disposicion para el reconocimiento de voz indenpendiente del locutor para un terminal de telecomunicaciones o terminales de datos.
GB2373670B (en) * 2001-03-20 2005-09-21 Mitel Knowledge Corp Method and apparatus for extracting voiced telephone numbers and email addresses from voice mail messages
US6876970B1 (en) * 2001-06-13 2005-04-05 Bellsouth Intellectual Property Corporation Voice-activated tuning of broadcast channels
US6804330B1 (en) * 2002-01-04 2004-10-12 Siebel Systems, Inc. Method and system for accessing CRM data via voice
US20050043067A1 (en) * 2003-08-21 2005-02-24 Odell Thomas W. Voice recognition in a vehicle radio system
US7590533B2 (en) * 2004-03-10 2009-09-15 Microsoft Corporation New-word pronunciation learning using a pronunciation graph

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61236598A (ja) * 1985-04-12 1986-10-21 株式会社リコー 単語音声登録方式
JPH08292873A (ja) * 1995-04-21 1996-11-05 Ricoh Co Ltd 音声合成装置
JPH1011090A (ja) * 1996-06-20 1998-01-16 Sony Corp 音声合成装置
JPH11213514A (ja) * 1998-01-22 1999-08-06 Sony Corp ディスク再生装置
JP2000029490A (ja) * 1998-07-15 2000-01-28 Denso Corp 音声認識装置用の単語辞書データ構築方法、音声認識装置及びナビゲーションシステム
JP2001092485A (ja) * 1999-09-10 2001-04-06 Internatl Business Mach Corp <Ibm> 音声情報の登録方法、認識文字列の特定方法、音声認識装置、音声情報の登録のためのソフトウエア・プロダクトを格納した記憶媒体、及び認識文字列の特定のためのソフトウエア・プロダクトを格納した記憶媒体
JP2002023782A (ja) * 2000-07-13 2002-01-25 Sharp Corp 音声合成装置および方法、情報処理装置、並びに、プログラム記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259275A (ja) * 2006-03-24 2007-10-04 Nec Corp 通信端末におけるニックネーム登録方法及びその装置
JP4640228B2 (ja) * 2006-03-24 2011-03-02 日本電気株式会社 通信端末におけるニックネーム登録方法及びその装置
JP2011033874A (ja) * 2009-08-03 2011-02-17 Alpine Electronics Inc 多言語音声認識装置及び多言語音声認識辞書作成方法
WO2022030913A1 (ko) * 2020-08-04 2022-02-10 삼성전자 주식회사 음역 검색을 위한 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
DE602004024172D1 (de) 2009-12-31
EP1600942A1 (en) 2005-11-30
ATE449401T1 (de) 2009-12-15
EP1600942B1 (en) 2009-11-18
WO2005114652A1 (en) 2005-12-01
US20070156405A1 (en) 2007-07-05

Similar Documents

Publication Publication Date Title
JP2007538278A (ja) 音声認識システム
KR100769029B1 (ko) 다언어의 이름들의 음성 인식을 위한 방법 및 시스템
KR100679042B1 (ko) 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US8126714B2 (en) Voice search device
US9570066B2 (en) Sender-responsive text-to-speech processing
US9997155B2 (en) Adapting a speech system to user pronunciation
US20020198715A1 (en) Artificial language generation
US9911408B2 (en) Dynamic speech system tuning
US20020178004A1 (en) Method and apparatus for voice recognition
JP2002511154A (ja) ユーザにオーディオ・フィードバックを与える拡張可能音声認識システム
US9881609B2 (en) Gesture-based cues for an automatic speech recognition system
EP1754220A1 (en) Synthesizing audible response to an utterance in speaker-independent voice recognition
EP2092514A2 (en) Content selection using speech recognition
JP2003022089A (ja) オーディオ専用インターフェースにおけるボイス・スペリング
US20150310853A1 (en) Systems and methods for speech artifact compensation in speech recognition systems
US20020087317A1 (en) Computer-implemented dynamic pronunciation method and system
US7181397B2 (en) Speech dialog method and system
JP3911178B2 (ja) 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体
KR101250897B1 (ko) 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법
JPH11184495A (ja) 音声認識装置
CA2597826C (en) Method, software and device for uniquely identifying a desired contact in a contacts database based on a single utterance
KR20120130399A (ko) 하이브리드 방식의 음성인식을 통한 문자 입력 방법 및 장치, 그리고 이를 위한 하이브리드 방식 음성인식을 통한 문자입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JPWO2005076259A1 (ja) 音声入力システム、音声入力方法、および、音声入力用プログラム
JP2020034832A (ja) 辞書生成装置、音声認識システムおよび辞書生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110719

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101