JP2002014693A - 音声認識システム用辞書提供方法、および音声認識インタフェース - Google Patents

音声認識システム用辞書提供方法、および音声認識インタフェース

Info

Publication number
JP2002014693A
JP2002014693A JP2000199326A JP2000199326A JP2002014693A JP 2002014693 A JP2002014693 A JP 2002014693A JP 2000199326 A JP2000199326 A JP 2000199326A JP 2000199326 A JP2000199326 A JP 2000199326A JP 2002014693 A JP2002014693 A JP 2002014693A
Authority
JP
Japan
Prior art keywords
dictionary
user
recognition system
voice recognition
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000199326A
Other languages
English (en)
Inventor
Yuzo Maruta
裕三 丸田
Yoshiharu Abe
芳春 阿部
Hirotaka Goi
啓恭 伍井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000199326A priority Critical patent/JP2002014693A/ja
Publication of JP2002014693A publication Critical patent/JP2002014693A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 ユーザの登録作業を軽減することができ、ユ
ーザが語彙を登録しなくても、自動的に語彙が増える音
声認識システム用辞書作成方法を実現する。 【解決手段】 ネットワーク6上の大量のテキストを自
動的に解析して未知語を抽出し、抽出された未知語の表
記からその発音を推定して、それら抽出された未知語の
表記と推定された発音とをユーザに提供し、また、その
未知語について、ユーザが作成したテキストまたはユー
ザの発話に基づいて、言語的な特徴をデータとして保存
している、音声認識システム用辞書12の表記辞書およ
び発音辞書の更新を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は音声認識システム
にて用いられる音声認識システム用辞書を提供する音声
認識システム用辞書提供の作成方法、および提供された
音声認識システム用辞書を用いた音声認識インタフェー
スに関するものである。
【0002】
【従来の技術】図5は、例えば特開平10−18718
4号公報に開示された、従来の音声認識システムの構成
を示すブロック図である。図において、1は音声認識処
理を行うディクテーションコンポーネント、2は認識し
た結果を編集するディクテーション編集コンポーネン
ト、3はアプリケーションプログラムである。また、図
6はこのように構成された従来の音声認識システムにお
いて、誤った認識部分を修正し、未知の単語を登録する
場合に動作するディクテーション編集コンポーネント2
の動作を示したフローチャートである。
【0003】次に動作について説明する。ここでは、上
記図5と図6とを用いて、誤った認識部分を修正する場
合の動作について説明する。まずステップST1におい
て、ディクテーションが完了したか否かを判定し、完了
した場合には、ディクテーション編集コンポーネント2
の処理が終了となる。完了していなければ、ステップS
T2において次の発音を入力してステップST3へ処理
を進める。ディクテーションコンポーネント1はこのス
テップST3において発音の認識処理を行い、ディクテ
ーション編集コンポーネント2はディクテーションコン
ポーネント1から認識されたワードのリストを受け取
る。次に、ステップST4にてワードを修正するか否か
が判定され、話された発音が、ユーザにより誤って認識
されたワードを修正するよう試みられる場合、ディクテ
ーション編集コンポーネント2はステップST5に分岐
し、さもなくば、ステップST6に分岐する。
【0004】ステップST5では、ディクテーション編
集コンポーネント2は、認識されたワードのリストから
修正されているワード以外のワードを選択してステップ
ST7に遷移する。また、ステップST6では、ディク
テーション編集コンポーネント2は、認識されたワード
のリストから最も確率の高いワードを選択してステップ
ST7に遷移する。ディクテーション編集コンポーネン
ト2はこのように選択されたワードを、ステップST7
において表示する。次に、ステップST8において、話
し手が修正モードに入ることを指示したか否かについて
判定し、指示があった場合、ディクテーション編集コン
ポーネント2はステップST9に処理を進め、さもなく
ば、ステップST1に処理を戻して、ディクテーション
の完了判定以降の処理を繰り返す。
【0005】ステップST9では、ディクテーション編
集コンポーネント2が、表示されたワードに対する修正
を受け取る。次にステップST10において、その修正
がキーボードよりタイプ打ち入力されたものであるか否
かの判定が行われる。タイプ打ちされたものである場合
には、ディクテーション編集コンポーネント2はステッ
プST11に処理を進め、さもなくば、ステップST1
へ処理を戻して、ディクテーションの完了判定以降の処
理を繰り返す。ステップST11ではタイプ打ちされた
ワードが既に語彙にあるか否かが判定され、ない場合に
はステップST12の処理を行った後、また、ある場合
には直接、ステップST13へ処理が遷移する。ディク
テーション編集コンポーネント2は、ステップST12
ではタイプ打ちされたワードを語彙に加え、ステップS
T13ではタイプ打ちされたワードに対して認識システ
ムのトレーニングを行う。ステップST13の処理が終
了するとステップST1へ戻り、ディクテーションの完
了判定以降の処理を繰り返す。
【0006】なお、このような従来の音声認識システム
に関連のある記載がなされている文献としては、この他
にも、例えば、特開平7−92991号公報、特開20
00−20092号公報などがある。
【0007】
【発明が解決しようとする課題】従来の音声認識システ
ムは以上のように構成されているので、登録されていな
い語彙に対しては表記と発音を登録する作業が必要であ
り、また、ユーザが語彙を登録しなければ、語彙が増え
ることはないという課題があった。
【0008】この発明は上記のような課題を解決するた
めになされたもので、ユーザの登録作業を軽減すること
ができ、ユーザが語彙を登録しなくても、自動的に語彙
が増える音声認識システム用辞書提供方法を得ることを
目的とする。
【0009】また、この発明はユーザの言語の特性を検
出して、それに適応した個人辞書をもった音声認識イン
タフェースを得ることを目的とする。
【0010】
【課題を解決するための手段】この発明に係る音声認識
システム用辞書提供方法は、ネットワークを巡回して、
ネットワーク上のテキストを自動解析することにより未
知語の表記を抽出して、その未知語の発音を推定し、そ
れら未知語の表記と発音とをユーザに提供するようにし
たものである。
【0011】この発明に係る音声認識システム用辞書提
供方法は、テキストの自動解析によって未知語の表記を
抽出し、その未知語の発音を、ユーザの作成したテキス
トまたは発話に基づいて決定し、それら未知語の表記と
発音とをユーザに提供するようにしたものである。
【0012】この発明に係る音声認識インタフェース
は、上記方法で提供された音声認識システム用辞書を用
いるようにしたものである。
【0013】この発明に係る音声認識インタフェース
は、ネットワークより音声データを取得してその認識処
理を行い、その認識結果をネットワークに送信するよう
にしたものである。
【0014】この発明に係る音声認識インタフェース
は、各ユーザが個別に音声認識システム用辞書をもつよ
うにしたものである。
【0015】この発明に係る音声認識インタフェース
は、ネットワークを介して認識結果の修正情報を受信
し、各音声認識システム用辞書の更新を、その修正情報
とユーザからの音声データをもとに行うようにしたもの
である。
【0016】
【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1を示すブ
ロック図である。図において、4は入力された音声の認
識処理を行って、その認識結果を出力する音声認識シス
テムである。5は携帯電話機、ウェアラブルコンピュー
タなどの音声入力手段(図示省略)を備えた端末であ
る。6はこれら音声認識システム4や端末5などが収容
されたネットワークであり、ここでは代表的なネットワ
ークであるインターネットが用いられている。
【0017】また、音声認識システム4内において、1
1は音声認識の処理を行う音声認識手段である。12は
音声認識システム用辞書としての個人辞書であり、音響
的な特徴をデータとして保持する音響モデルと、言語的
な特徴をデータとして保持する言語モデルとから構成さ
れており、その言語モデルはユーザ毎に適応された表記
辞書および発音辞書および単語の出現確率情報などから
なっている。なお、この音声認識システム用辞書として
の個人辞書は、例えば特開平7−92991号公報に開
示されているような公知のものが使用可能である。13
はインターネット6を自動巡回してインターネット6上
の大量のテキストを自動的に解析し、登録されていない
未知語(新語)を抽出する自動巡回ソフトウェアであ
る。14はこの自動巡回ソフトウェア13にて抽出され
た未知語の表記からその発音を推定する発音推定手段を
備え、当該未知語の表記および推定されたその読みが登
録される大規模音声辞書である。15はユーザの作成し
た文書またはユーザの発話から、個人辞書の単語の出現
確率情報などを更新し、さらに抽出された未知語の表記
と発音を個人辞書に追加提供する自動適応化手段であ
る。
【0018】なお、図2はこのように構成された実施の
形態1において、音声を認識し、個人辞書12を更新す
る動作を示したフローチャートであり、図3はこの実施
の形態1において、インターネット6を自動巡回し、語
彙を更新する動作を示したフローチャート、図4はこの
語彙の更新動作における未知語の読みの推定処理の動作
を示した説明図である。なお、図4において、21は単
漢字によるサブワード、および複数の漢字でひとまとま
りの読みをなす語によるサブワードが、それぞれの読み
とともに登録されているサブワード辞書である。22は
単語の読みに関する知識や統計データ、撥音便や促音便
のルールなどが登録されている知識・統計辞書である。
【0019】次に動作について説明する。まず、インタ
ーネット6からの音声データの認識処理を行い、個人辞
書12を更新する動作について、上記図1および図2を
用いて説明する。ユーザは暗証番号などの認証手段(図
示省略)により、ユーザを特定するための情報をインタ
ーネット6を通じて音声認識システム4に送出する。そ
の後、ステップST21において、ユーザは端末5の音
声入力手段(図示省略)に音声を入力し、それがインタ
ーネット6を通じて音声認識システム4に入力される。
音声認識システム4はステップST22において、この
端末5よりインターネット6を介して受け取った音声デ
ータを一時的に記憶する。次にステップST23に進
み、音声認識システム4は音声認識手段11において、
上記暗証番号などで特定されているユーザに対応する個
人辞書12を用いて、記憶している上記音声データの認
識処理を実行する。
【0020】この音声認識の処理が終了すると、音声認
識手段11はステップST24において、認識結果をイ
ンターネット6に出力する。この認識結果はインターネ
ット6を通じて端末5に転送されてその表示手段(図示
省略)に表示される。ユーザはこの表示された認識結果
をステップST25で確認して、必要であればその修正
を行う。なお、この修正はユーザの作成したテキストま
たはユーザの発話による修正情報の端末5への入力によ
って行われる。修正が行われた場合、その修正情報がス
テップST26に遷移して、端末5よりインターネット
6を通じて音声認識システム4に転送される。これによ
って音声認識インタフェースをとることができる。
【0021】修正情報を受け取った音声認識システム4
では、自律適応化手段15がステップST27におい
て、はじめに認識した認識結果とユーザが修正した修正
情報とを付きあわせることにより、使用頻度の高い単語
や、連鎖の可能性の高い単語列を検出して、そのユーザ
に対応付けられた個人辞書12の単語の出現確率情報な
どを更新する。次にステップST28に遷移して、自律
適応化手段15はユーザが修正した修正情報に、そのユ
ーザの個人辞書12にない語彙が存在するか否かを、大
規模音声辞書14を参照しながら調べる。そのユーザの
個人辞書12にない語彙が存在する場合には、ステップ
ST29においてその読みを大規模音声辞書14から推
定し、その語彙を当該ユーザの個人辞書12に追加す
る。このようにして、個人辞書12の表記辞書と発音辞
書の更新が行われる。
【0022】次に、大規模音声辞書14が自動的に最新
の語彙を維持する動作について、図1および図3、図4
を用いて説明する。図3のステップST31にて、自動
巡回ソフトウエア13は定期的にインターネット6上の
各ホームページを巡回しており、ステップST32にお
いて、このインターネット6のホームページ上にあるテ
キストを取得する。この自動巡回ソフトウェア13で取
得されたテキストは大規模音声辞書14に送られ、大規
模音声辞書14は、ステップST33においてそのテキ
ストを単語毎に分割する。次にステップST34に遷移
し、当該大規模音声辞書14内にまだ登録されていない
単語(未知語)があるか否かを調べる。その結果、未知
語が存在している場合にはステップST35に進み、大
規模音声辞書14は内蔵する発音推定手段(図示省略)
を用いて、既に登録されている当該未知語の構成漢字と
同一の漢字の読みから、その未知語の読みを推定する。
【0023】ここで、このステップST35による未知
語の読みの推定動作について、図4を用いて詳細に説明
する。まず、ステップST41において未知語を入力
し、ステップST42において、その未知語をサブワー
ド辞書21中に存在するサブワードに分割する。サブワ
ード辞書21にはサブワードとして、「未」「知」など
の各単漢字による語と、「長谷」のような複数の漢字で
ひとまとまりの読みをなす語とが登録されており、それ
らとともにその読みも登録されている。今、図4のよう
に、ステップST41で「弾性」という単語(未知語)
が入力されると、それがステップST42において
「弾」と「性」という単漢字によるサブワードに分割さ
れる。
【0024】次にステップST43において、このよう
にして分割されたサブワードについて、サブワード辞書
21からそれぞれの読みを検索し、ステップST44に
おいて、もとの未知語「弾性」の読み候補を作成する。
図4に示すように、サブワード辞書21にはサブワード
の読みとして、「弾」には「ダン」…「はじ(く)」…
などが存在し、「性」には「セイ」…「さが」…などが
存在するので、ステップST44では「弾性」の読み候
補として、「ダンセイ」「ダンショウ」…「はじセイ」
…などが作成される。
【0025】次にステップST45に進み、知識・統計
辞書22の知識や統計データを用いて、上記ステップS
T44で作成された未知語「弾性」読み候補の中から尤
もらしい読みの選択を行う。すなわち、この知識・統計
辞書22に入っている、“2文字熟語は音読みの連続が
多い”、“「性」が末尾にある場合には「セイ」と読む
ことが多い”といった知識や統計データに従って、入力
された未知語「弾性」に対して、音読みの連続で、
「性」を「セイ」と読む、「ダンセイ」という読みを選
択して付与する。
【0026】なお、端末5にて入力されたユーザの発話
(この場合は「だんせい」という発話)を利用して、未
知語の読みを付与することも可能である。さらに、本実
施例では、ユーザは未知語を実際に発声や修正した後に
個人辞書12に追加しているが、ユーザの言語のくせを
表わしている個人辞書12の単語の出現確率情報などと
大規模音声辞書14をつきあわせることにより、今後の
ユーザが発声するであろう未知語について、発声を確定
してあらかじめ個人辞書12に登録しておくことも可能
である。
【0027】図3のステップST35にて、大規模音声
辞書14の発音推定手段が図4に示す手順で推定された
未知語の読みは、ステップST36において、当該未知
語の表記とともに大規模音声辞書14に登録される。以
下、処理はステップST31に戻ってこの一連の動作が
繰り返される。
【0028】以上のように、この実施の形態1によれ
ば、大規模音声辞書14には常に最新の語彙が登録され
ており、ユーザが未知語をいちいち登録しなくても、こ
の大規模音声辞書14を参照することによって個人辞書
12の言語モデルを更新することが可能であり、また、
個人辞書12は各ユーザごとに存在するので、ユーザの
言語的な癖や特徴などを各ユーザごとに反映させた最適
な辞書を構築することができるなどの効果が得られる。
【0029】また、この発明の実施の形態1によれば、
ユーザの言語的な特徴を解析することにより、今後この
ユーザが新たに使用するであろう未知語を大規模音声辞
書14から選択し、予め自動的に個人辞書12に登録す
ることができ、さらに、個人辞書12のうちの音響辞書
も個人ごとに適応させることにより、ユーザの音響的な
癖や特徴などを各ユーザに反映させた最適な辞書を構築
することも可能となるとともに、認識処理そのものは端
末5では行っていないので、端末5の処理の負担増もな
く、ハードウエア/ソフトウエアの追加が不要となって
機器のコストアップなどを招かないという効果も得られ
る。
【0030】
【発明の効果】以上のように、この発明によれば、抽出
した未知語の表記と、それより推定したその未知語の発
音とをユーザに提供するように構成したので、大規模音
声辞書には常に最新の語彙が登録されており、ユーザが
未知語をいちいち登録しなくても、大規模音声辞書を参
照することによって、音声認識システム用辞書の言語モ
デルを更新することが可能となり、いちいち未知語を登
録する手順が不要な音声認識システム用辞書の提供方法
が得られるという効果がある。
【0031】また、この発明によれば、ユーザのテキス
トまたは発話に基づいて、未知語の発音を決定するよう
に構成したので、大規模音声辞書に登録されている未知
語に加えて、ユーザの作成したテキストやユーザの発話
から、ユーザ独自の単語を登録したり、大規模音声辞書
に登録されている未知語にユーザの作成したテキストま
たはユーザの発話を用いて独自な読みを付与することが
可能となり、各ユーザ独自の音声認識システム用辞書を
作成することができる音声認識システム用辞書提供方法
が得られるという効果がある。
【0032】また、この発明によれば、上記方法で提供
された音声認識システム用辞書を用いるように構成した
ので、いちいち未知語を登録しなくても、未知語を認識
することができる音声認識インタフェースが得られると
いう効果がある。
【0033】また、この発明によれば、ネットワークよ
り取得した音声データの認識結果をネットワークに送信
するように構成したので、いちいち未知語を登録しなく
ても未知語を認識することができる、ネットワークを介
した音声認識インタフェースが得られるという効果があ
る。
【0034】また、この発明によれば、音声認識システ
ム用辞書を各ユーザ毎に個別にもたせるように構成した
ので、複数のユーザがそれぞれの使用状況の癖に応じた
音声認識システム用辞書を個別に持ち、それらの音声認
識システム用辞書はいちいち未知語の登録を行わなくて
も未知語の認識が可能であるため、高い音声認識性能を
実現できるという効果がある。
【0035】また、この発明によれば、各音声認識シス
テム用辞書の更新を、ネットワークを介して受信した認
識結果の修正情報と、ユーザからの音声データをもとに
行うように構成したので、いちいち未知語の登録を行わ
なくても未知語の識別を行うことができ、また各音声認
識システム用辞書の学習のために、認識結果の修正情報
をネットワークを介して用いているので、高い音声認識
性能を実現できるなどの効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1における音声認識シ
ステムを示すブロック図である。
【図2】 この実施の形態1における個人辞書の更新動
作を示すフローチャートである。
【図3】 この実施の形態1における語彙の更新動作を
示すフローチャートである。
【図4】 この実施の形態1における未知語の読みの推
定動作を示す説明図である。
【図5】 従来の音声認識システムを示すブロック図で
ある。
【図6】 従来の音声認識システムにおけるディクテー
ション編集コンポーネントの動作を示すフローチャート
である。
【符号の説明】
4 音声認識システム、5 端末、6 インターネット
(ネットワーク)、11 音声認識手段、12 個人辞
書(音声認識システム用辞書)、13 自動巡回ソフト
ウェア、14 大規模音声辞書、15 自律適応化手
段、21 サブワード辞書、22 知識・統計辞書。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 伍井 啓恭 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5D015 AA03 GG01 GG02 GG03 HH00 LL04 LL05

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 ユーザに対して、単語の表記と発音から
    なる音声認識システム用辞書を提供する音声認識システ
    ム用辞書提供方法において、 ネットワーク上のテキストを自動的に解析して未知語を
    抽出する工程と、 抽出された前記未知語の表記からこの未知語の発音を推
    定する工程と、 抽出された前記未知語の表記と推定されたその未知語の
    発音とをユーザに提供する工程とを有することを特徴と
    する音声認識システム用辞書提供方法。
  2. 【請求項2】 ユーザに対して、単語の表記と発音から
    なる音声認識システム用辞書を提供する音声認識システ
    ム用辞書提供方法において、 ネットワーク上のテキストを自動的に解析して未知語を
    抽出する工程と、 前記未知語の発音としてユーザが作成したテキストまた
    はユーザの発話に基づいて、未知語の発音を決定する工
    程とを有することを特徴とする音声認識システム用辞書
    提供方法。
  3. 【請求項3】 請求項1または請求項2記載の音声認識
    システム用辞書提供方法によって提供された音声認識シ
    ステム用辞書を用いたことを特徴とする音声認識インタ
    フェース。
  4. 【請求項4】 ネットワークを介してユーザから取得し
    た音声データの認識処理を行い、 当該認識処理の認識結果を、ネットワークを介して前記
    ユーザに送信することを特徴とする請求項3記載の音声
    認識インタフェース。
  5. 【請求項5】 複数のユーザのそれぞれが、個別に音声
    認識システム用辞書をもつことを特徴とする請求項4記
    載の音声認識インタフェース。
  6. 【請求項6】 認識結果を受信したユーザが修正した当
    該認識結果の修正情報を、ネットワークを介して受信
    し、 その修正情報とユーザからの音声データをもとに、前記
    ユーザが個別に持つ音声認識システム用辞書の更新を行
    うことを特徴とする請求項5記載の音声認識インタフェ
    ース。
JP2000199326A 2000-06-30 2000-06-30 音声認識システム用辞書提供方法、および音声認識インタフェース Pending JP2002014693A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000199326A JP2002014693A (ja) 2000-06-30 2000-06-30 音声認識システム用辞書提供方法、および音声認識インタフェース

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000199326A JP2002014693A (ja) 2000-06-30 2000-06-30 音声認識システム用辞書提供方法、および音声認識インタフェース

Publications (1)

Publication Number Publication Date
JP2002014693A true JP2002014693A (ja) 2002-01-18

Family

ID=18697365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000199326A Pending JP2002014693A (ja) 2000-06-30 2000-06-30 音声認識システム用辞書提供方法、および音声認識インタフェース

Country Status (1)

Country Link
JP (1) JP2002014693A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255982A (ja) * 2002-02-28 2003-09-10 Fujitsu Ltd 音声認識システムおよび音声ファイル記録システム
JP2005099741A (ja) * 2003-09-02 2005-04-14 Gf:Kk 音声辞書作成装置、音声辞書作成方法、及びプログラム
JP2005128076A (ja) * 2003-10-21 2005-05-19 Ntt Docomo Inc 端末からの音声データを認識する音声認識システム及び方法
JP2005227510A (ja) * 2004-02-12 2005-08-25 Ntt Docomo Inc 音声認識装置及び音声認識方法
JP2005258443A (ja) * 2004-03-10 2005-09-22 Microsoft Corp 発音グラフを使用して新しい単語の発音学習を改善すること
JP2006350090A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
WO2007083496A1 (ja) * 2006-01-23 2007-07-26 Nec Corporation 音声認識用言語モデル作成用のシステム、方法およびプログラムならびに音声認識システム
WO2008007688A1 (fr) * 2006-07-13 2008-01-17 Nec Corporation Terminal téléphonique ayant une fonction de reconnaissance vocale, dispositif de support de mise à jour de dictionnaire de reconnaissance vocale, et procédé de support associé
JP2008529101A (ja) * 2005-02-03 2008-07-31 ボイス シグナル テクノロジーズ インコーポレイテッド 移動通信装置の音声語彙を自動的に拡張するための方法及び装置
JP2010139744A (ja) * 2008-12-11 2010-06-24 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法
JP2013178384A (ja) * 2012-02-28 2013-09-09 Nec Corp 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
US8719021B2 (en) 2006-02-23 2014-05-06 Nec Corporation Speech recognition dictionary compilation assisting system, speech recognition dictionary compilation assisting method and speech recognition dictionary compilation assisting program
JP2014098785A (ja) * 2012-11-14 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成装置、言語モデル生成方法、プログラム、記録媒体
US9471568B2 (en) 2013-09-19 2016-10-18 Kabushiki Kaisha Toshiba Speech translation apparatus, speech translation method, and non-transitory computer readable medium thereof
JP2017097062A (ja) * 2015-11-19 2017-06-01 日本電信電話株式会社 読み付与装置、音声認識装置、読み付与方法、音声認識方法、およびプログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255982A (ja) * 2002-02-28 2003-09-10 Fujitsu Ltd 音声認識システムおよび音声ファイル記録システム
US7979278B2 (en) 2002-02-28 2011-07-12 Fujitsu Limited Speech recognition system and speech file recording system
JP4515186B2 (ja) * 2003-09-02 2010-07-28 株式会社ジー・エフグループ 音声辞書作成装置、音声辞書作成方法、及びプログラム
JP2005099741A (ja) * 2003-09-02 2005-04-14 Gf:Kk 音声辞書作成装置、音声辞書作成方法、及びプログラム
JP2005128076A (ja) * 2003-10-21 2005-05-19 Ntt Docomo Inc 端末からの音声データを認識する音声認識システム及び方法
JP2005227510A (ja) * 2004-02-12 2005-08-25 Ntt Docomo Inc 音声認識装置及び音声認識方法
JP2005258443A (ja) * 2004-03-10 2005-09-22 Microsoft Corp 発音グラフを使用して新しい単語の発音学習を改善すること
JP2008529101A (ja) * 2005-02-03 2008-07-31 ボイス シグナル テクノロジーズ インコーポレイテッド 移動通信装置の音声語彙を自動的に拡張するための方法及び装置
JP2013047809A (ja) * 2005-02-03 2013-03-07 Naunce Communications Inc 移動通信装置の音声語彙を自動的に拡張するための方法及び装置
JP4603429B2 (ja) * 2005-06-17 2010-12-22 日本電信電話株式会社 クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
JP2006350090A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
WO2007083496A1 (ja) * 2006-01-23 2007-07-26 Nec Corporation 音声認識用言語モデル作成用のシステム、方法およびプログラムならびに音声認識システム
US8719021B2 (en) 2006-02-23 2014-05-06 Nec Corporation Speech recognition dictionary compilation assisting system, speech recognition dictionary compilation assisting method and speech recognition dictionary compilation assisting program
WO2008007688A1 (fr) * 2006-07-13 2008-01-17 Nec Corporation Terminal téléphonique ayant une fonction de reconnaissance vocale, dispositif de support de mise à jour de dictionnaire de reconnaissance vocale, et procédé de support associé
JP2010139744A (ja) * 2008-12-11 2010-06-24 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法
JP2013178384A (ja) * 2012-02-28 2013-09-09 Nec Corp 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
JP2014098785A (ja) * 2012-11-14 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成装置、言語モデル生成方法、プログラム、記録媒体
US9471568B2 (en) 2013-09-19 2016-10-18 Kabushiki Kaisha Toshiba Speech translation apparatus, speech translation method, and non-transitory computer readable medium thereof
JP2017097062A (ja) * 2015-11-19 2017-06-01 日本電信電話株式会社 読み付与装置、音声認識装置、読み付与方法、音声認識方法、およびプログラム

Similar Documents

Publication Publication Date Title
US7848926B2 (en) System, method, and program for correcting misrecognized spoken words by selecting appropriate correction word from one or more competitive words
JP5040909B2 (ja) 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US5787230A (en) System and method of intelligent Mandarin speech input for Chinese computers
US9786273B2 (en) Multimodal disambiguation of speech recognition
US7873508B2 (en) Apparatus, method, and computer program product for supporting communication through translation between languages
KR100769029B1 (ko) 다언어의 이름들의 음성 인식을 위한 방법 및 시스템
US20050283364A1 (en) Multimodal disambiguation of speech recognition
US6801892B2 (en) Method and system for the reduction of processing time in a speech recognition system using the hidden markov model
KR100825690B1 (ko) 음성 인식 시스템에서의 인식 오류 수정 방법
JP5141687B2 (ja) 音声認識用照合ルール学習システム、音声認識用照合ルール学習プログラムおよび音声認識用照合ルール学習方法
JP2002258890A (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
JP2012063536A (ja) 端末装置、音声認識方法および音声認識プログラム
JP2002014693A (ja) 音声認識システム用辞書提供方法、および音声認識インタフェース
US5706397A (en) Speech recognition system with multi-level pruning for acoustic matching
JP4966324B2 (ja) 音声翻訳装置、および方法
KR101250897B1 (ko) 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법
JP2000056795A (ja) 音声認識装置
JP2006031278A (ja) 音声検索システムおよび方法ならびにプログラム
WO2002027535A1 (en) Method and system for expanding a word graph to a phone graph based on a cross-word acoustical model to improve continuous speech recognition
KR100308274B1 (ko) 가변어휘인식시스템
JP2001013992A (ja) 音声理解装置
KR20030010979A (ko) 의미어단위 모델을 이용한 연속음성인식방법 및 장치
JP3575904B2 (ja) 連続音声認識方式及び標準パタン訓練方式
JP2002189490A (ja) ピンイン音声入力の方法