JP2003140691A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JP2003140691A
JP2003140691A JP2001341363A JP2001341363A JP2003140691A JP 2003140691 A JP2003140691 A JP 2003140691A JP 2001341363 A JP2001341363 A JP 2001341363A JP 2001341363 A JP2001341363 A JP 2001341363A JP 2003140691 A JP2003140691 A JP 2003140691A
Authority
JP
Japan
Prior art keywords
voice
recognition
information
voice recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001341363A
Other languages
English (en)
Inventor
Manabu Niie
学 新江
Makoto Shiotani
真 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001341363A priority Critical patent/JP2003140691A/ja
Publication of JP2003140691A publication Critical patent/JP2003140691A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【課題】話者や対話内容や周囲ノイズに応じて音声認識
処理アルゴリズムを変更することができないことや、誤
認識や認識エラーが生じた場合は、訂正処理や正解を入
力するための対話が余分に必要であり、対話の実行効率
の低下を避けることができないという課題があった。 【解決手段】複数の音声対話制御部110で、各々音声
認識処理アルゴリズムの異なる音声認識エンジン110
A、110Bを具備し、これらを切り替えることで音声
認識処理アルゴリズムを変更する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声を入出力手段
とする音声利用システムおよびこれに関する装置もしく
はコンピュータプログラムに関する。この中でも特に、
複数の音声認識エンジンが準備され、これらのうちの少
なくとも1つを用いて音声認識を実行する音声利用シス
テムに関する。また、本発明には、これらの音声認識エ
ンジンを有するコンピュータがネットワークを介して接
続されるシステムなども含まれる。
【0002】
【従来の技術】音声を情報サービス提供システムのHMI
(Human Machine Interface)として利用することに関
しては、例えば特開平11-249867や特開2000-172483等の
従来技術がある。特開平11-249867はサーバ(センタ)
にて音声認識を行なうシステムであり、特開2000-17248
3はクライアント(端末)にて音声認識を行なうシステ
ムである。
【0003】ここで音声認識とは、音声から、話者が伝
えようと意図した言語的内容を機械的に抽出することで
ある。音声認識技術については、例えば、古井貞煕著の
「ディジタル音声処理」(東海大学出版)等に詳しく述
べられている。これら文献を考慮すると、音声認識技術
は表1のように分類できる。
【0004】
【表1】 前述の文献「ディジタル音声処理」によれば、音声認識
技術には次のような課題があると言われている。
【0005】まず、現状の不特定話者対応の音声認識は
認識できる語彙数が限られており、その上極めて認識率
の低い話者が生ずるという問題点があり、誰の声でも認
識できる方式の実現が求められている。
【0006】これに対して、発話に関する音響的なモデ
ルを適応させることで認識率を改善する方法や、n-best
と呼ぶ方法で複数の認識候補を出力し、それらを基にア
プリケーションで認識語を特定する方法や、特開2001-1
34285のように話者の発話しようとする内容や話者に応
じて言語モデルを選択することで、誤認識を減らし、あ
らかじめ学習されていない表現や言い回しを認識する方
法がある。
【0007】
【発明が解決しようとする課題】前記従来技術より以下
に述べる課題を導き出した。 (1)前記従来技術の特開2001-134285の場合、発話内
容や話者に応じて言語モデルを変更することができて
も、音声認識処理アルゴリズムそのものを変更すること
はできない。
【0008】例えば従来技術では、状況に応じてbi-gra
mの認識処理とtri-gramの認識処理を切り替えて使用す
るといったことはできない。
【0009】このため、話者や発話内容や周囲ノイズに
応じて音声認識処理アルゴリズムを変更することができ
ないという問題がある。
【0010】ここで、bi-gramやtri-gramは確率文法の
ことであり、bi-gramは2単語の連続出現確率を表わし、
tri-gramは3単語の連続出現確率を表わす。このようにN
個の単語の連続出現確率(隣接共起確率)を持つ確率文
法をN-gramのように表わし、連続単語認識処理(ディク
テーション型音声認識)を行なう場合に使用する。
【0011】(2)また、前述のように話者や発話内容
に応じて言語モデルを変更した場合であっても、誤認識
や認識エラーは避けられない。誤認識や認識エラーが生
じた場合は、訂正処理や正解を入力するための対話が余
分に必要であり、対話の実行効率の低下は避けられない
という問題がある。
【0012】ここで、対話の実行効率とは、チケットの
予約や天気情報の入手といったタスクを完遂するために
要する対話時間もしくは対話の繰り返し回数を表わすも
のとし、対話時間や繰り返し回数が少ない方が効率が高
いものと定義する。
【0013】前記従来技術で述べたように、n-bestと呼
ぶ方法で一つの音声認識エンジンから複数の認識候補を
出力する場合は、どの認識候補も同一の音声認識処理ア
ルゴリズムで同一の言語モデルや音響モデルを使って導
いた結果であり、誤ったモデルを使用した場合は、いず
れの認識候補も正しくない場合があるという問題があ
る。
【0014】本発明の目的は、言語モデルや音響モデル
だけでなく、音声認識処理アルゴリズムも選択して使用
することができる音声利用システムを提供することであ
る。
【0015】また本発明の目的は、誤認識や認識エラー
が生じても対話の実行効率を落とさず音声対話を実行す
ることができる音声利用システムを提供することであ
る。
【0016】
【課題を解決するための手段】前記課題を解決するた
め、本発明においては、複数の音声認識エンジンを準備
し、音声認識に関する状況を検知し、検知結果に応じた
音声認識エンジンもしくはその組み合わせを決定し、決
定した音声認識エンジン(組み合わせ)で入力される音
声の認識を実行する。ここで、本発明には、記憶装置に
記憶された、複数の音声認識エンジンを識別する情報と
上記の状況を示す情報を関連付けた情報を用いることも
含まれる。また、上記の状況を示す情報には、話者に関
する情報、使用される単語に関する情報およびノイズの
状況のうち少なくとも1つが含まれる。ここで、話者に
関する情報には、話者を特定する情報および話者の特徴
を示す情報(性別、話し方、話すスピード、方言、な
ど)のうち少なくとも一方が含まれる。
【0017】より具体的には、本発明の構成は、以下の
とおりである。 (1)第1の発明は、ユーザとの間で音声の入出力を行
なう端末装置と、端末装置との間で音声入出力を行ない
装置内で音声の分配を行なう音声通信・分配部と、音声
認識と音声合成と音声対話制御を行なう音声対話制御部
と、複数の音声対話制御部から出力される認識結果を統
合する認識結果統合部と、ユーザとの対話のシナリオを
生成する対話管理部を基本構成とする音声利用装置から
成る音声利用システムである。
【0018】該音声利用装置は、複数の音声対話制御
部、すなわち音声認識エンジンを具備し、これらを同時
使用することで、誤認識時や認識エラー時の対話実行効
率を落とさずに音声対話を実行することができる。
【0019】これは、発話音声を複数の音声認識エンジ
ンで同時に認識した時に、例えばAという音声認識エン
ジンでは認識できなかった単語が、別のBという音声認
識エンジンで認識できていれば、再度同じ発話をしなく
て済むことから言える。
【0020】使用する複数の音声認識エンジンは、異種
の音声認識エンジンを組み合せる場合や、同種であるが
異なる処理アルゴリズムおよび異なる実装方法の音声認
識エンジンを組み合せる場合や、全く同一であるが異な
る音声認識用データを使用する音声認識エンジンを組み
合せる場合や、これらの音声認識エンジンを組み合せる
場合がある。このように特性の異なる音声認識エンジン
を組み合せる。
【0021】ここで述べている音声認識エンジンの種類
とは、前記表1の認識対象からの分類で表わす単語音声
認識と文章音声認識であり、その内異種の組合せとは単
語音声認識の音声認識エンジンと文章音声認識の音声認
識エンジンの組合せである。同種の組合せとは、例えば
単語音声認識の音声認識エンジンを使用していて、それ
らが異なる処理アルゴリズム、もしくは同じ処理アルゴ
リズムでも異なる実装方法をとっているか、またはそれ
らが同一の処理アルゴリズムで同じ実装方法を取ってお
り、異なる音声認識用データを使用している場合であ
る。
【0022】音声認識用データとは、音響モデル、語彙
辞書、認識文法のことである。音響モデルとは、音声の
特徴を音素(母音と子音)毎に確率論的に表わしたもの
であり、各母音、子音毎の平均的な波形の特徴と各音の
ばらつき具合で表わされる。語彙辞書とは、認識すべき
言葉を定義したものである。認識文法とは、認識すべき
言葉の繋がりを定義したものである。
【0023】複数の音声認識エンジンを同時に使用する
場合、それらから出力される複数個の認識結果の取り扱
いが重要である。
【0024】異種の音声認識エンジンを組み合せて同時
に使用する場合は各々の認識対象が異なるため、複数の
認識結果を統合して認識語を決定する。また、同種の音
声認識エンジンを組み合せて同時に使用する場合は各々
の認識対象も同一であるため、複数の認識結果から選択
的に認識語を決定する。
【0025】本発明には、認識語の決定に以下の手段を
用いることが含まれる。 (1.1)複数の認識結果を統合して認識語を決定する
場合 (a)文例を用いて統合 前記第1の発明である音声利用システムを構成する音声
利用装置は、認識辞書記憶部を使用する文法型連続単語
音声認識の音声認識エンジンから成る音声対話制御部
と、言語モデル記憶部を使用する文章音声認識(ディク
テーション型)の音声認識エンジンから成る音声対話制
御部から成り、前者の文法型音声認識エンジンを備える
音声対話制御部から出力される認識結果と、後者のディ
クテーション型音声認識エンジンを備える音声対話制御
部から出力される認識結果を、統合知識や文例を用いて
統合し、それを認識語とする。
【0026】(b)文法を用いて統合 前記第1の発明である音声利用システムを構成する音声
利用装置は、数字認識を行なう音声認識エンジンから成
る音声対話制御部と、単語認識を行なう音声認識エンジ
ンから成る音声対話制御部から成り、前者の数字認識を
行なう音声認識エンジンを備える音声対話制御部から出
力される認識結果と、後者の単語認識を行なう音声認識
エンジンを備える音声対話制御部から出力される認識結
果を、各々文法に当てはめ、その統合結果を認識語とす
る。
【0027】また、音声対話制御部が、日本語認識を行
なう音声認識エンジンから成るものと、英語認識を行な
う音声認識エンジンから成るものであっても同様にして
認識語を決定する。
【0028】また、音声対話制御部を全て文法型連続単
語音声認識の音声認識エンジンで構成し、各々が異なる
語彙辞書の場合も同様にして認識語を決定する。
【0029】(1.2)複数の認識結果から選択的に認
識語を決定する場合 (a)多数決により決定 前記第1の発明である音声利用システムを構成する音声
利用装置において、複数の音声対話制御部は、同種であ
るが異なる処理アルゴリズムおよび異なる実装方法の音
声認識エンジンで構成するか、全く同一であるが異なる
音声認識用データを使用する音声認識エンジンで構成し
ており、認識結果統合部が奇数個の音声対話制御部から
出力される認識結果から多数決によって認識語を決定す
る。
【0030】(b)時間により決定 前記第1の発明である音声利用システムを構成する音声
利用装置において、複数の音声対話制御部は、同種であ
るが異なる処理アルゴリズムおよび異なる実装方法の音
声認識エンジンで構成するか、全く同一であるが異なる
音声認識用データを使用する音声認識エンジンで構成し
ており、認識結果統合部は音声対話制御部から出力され
る認識結果を受信した時間が最早のものを認識語とす
る。
【0031】(c)信頼度により決定 前記第二の発明である音声利用システムを構成する音声
利用装置において、複数の音声対話制御部は、同種であ
るが異なる処理アルゴリズムおよび異なる実装方法の音
声認識エンジンで構成するか、全く同一であるが異なる
音声認識用データを使用する音声認識エンジンで構成し
ており、認識結果統合部は音声対話制御部から出力され
る認識結果に付与された認識信頼度を比較し、信頼度の
高いものを認識語とする。
【0032】(2)第2の発明は、話者(ユーザ)との
間で音声の入出力を行なう端末装置と、端末装置との間
で音声入出力を行ない装置内で音声の分配を行なう音声
通信・分配部と、使用する音声認識エンジンの決定を行
なう音声認識エンジン判定部と、音声認識と音声合成と
音声対話制御を行なう音声対話制御部と、ユーザとの対
話のシナリオを生成する対話管理部を基本構成とする音
声利用装置から成る音声利用システムである。
【0033】該音声利用装置は、複数の音声対話制御
部、すなわち音声認識エンジンを具備しこれらを切り替
えることで、音声認識処理アルゴリズムを変更すること
ができる。具体的には以下の手段により行なう。
【0034】(2.1)前記第2の発明である音声利用
システムを構成する音声利用装置に、ユーザについて音
声対話制御部毎の認識率を管理する音声認識実績管理部
を加え、前記音声認識エンジン判定部はユーザIDを入力
として適切な音声対話制御部を判定し、音声利用装置の
利用前に入力したユーザID等のユーザを特定する情報と
それに対応する使用音声対話制御部情報を用いること
で、ユーザに適した音声認識エンジンを選択する。
【0035】さらに電話番号とユーザIDの関係を管理す
るユーザ管理部を加え、着信電話番号からユーザIDを導
出し、そのユーザIDによってユーザに適した音声認識エ
ンジンを選択する場合もある。
【0036】(2.2)前記第2の発明である音声利用
システムを構成する音声利用装置において、前記音声認
識エンジン判定部は、使用言語とそれに対応する使用音
声対話制御部情報を用いて、ユーザの発声する言語に適
した音声認識エンジンを選択する。
【0037】(2.3)前記第2の発明である音声利用
システムを構成する音声利用装置において、音声認識エ
ンジン判定部は、各音声対話制御部が出力する信頼度が
最も高い音声対話制御部を選択する。
【0038】ここで、認識信頼度とは、認識した音声を
構成する各音素の出現確率を基に算出するものである。
例えば、全ての構成音素についての出現確率の平均値と
する。
【0039】(2.4)前記第2の発明である音声利用
システムを構成する音声利用装置に、ノイズ発生の時間
帯とそのノイズレベルを予測するノイズ発生予測部を加
え、音声認識エンジン判定部は、前記ノイズ発生予測情
報とそれに対応する使用音声対話制御部情報を用いて、
周囲ノイズに適した音声認識エンジンを選択する。
【0040】また、前記音声利用装置内のノイズ発生予
測部の代わりに、端末装置内にノイズ解析を行なうノイ
ズ解析部を設け、集音した周辺ノイズをこれに入力し、
その解析結果を音声利用装置内の音声認識エンジン判定
部に送り、周囲ノイズに適した音声認識エンジンを選択
する場合もある。
【0041】(2.5)前記第2の発明である音声利用
システムを構成する音声利用装置において、音声認識エ
ンジン判定部は、応答しようとする対話データから辞書
情報を抽出し、それを基に判断した認識タイプとそれに
対応する使用音声対話制御部情報を用いて、対話シナリ
オに適した音声認識エンジンを選択する。
【0042】ここで対話シナリオに適した音声認識エン
ジンとは、数字認識や単語認識や連続語認識や、日本語
認識その他の言語の認識を行なう。
【0043】上記手段により以下の効果を得ることがで
きる。本発明に含まれる上記の手段によれば、複数の音
声対話制御部で、各々音声認識処理アルゴリズムの異な
る音声認識エンジンを具備し、これらを切り替えること
で音声認識処理アルゴリズムを変更することができる。
【0044】また本発明に含まれる上記の手段によれ
ば、複数の音声対話制御部で、各々特性の異なる音声認
識エンジンを具備し、これらを同時使用することで、誤
認識時や認識エラー時の対話実行効率を落とさず音声対
話を実行することができる。
【0045】
【発明の実施の形態】以下、本発明の実施の形態を、図
面を用いて説明する。図1は、本発明の音声利用システ
ムの基本構成を示す図であり、音声利用装置10、ユー
ザとの間で音声の入出力を行なう端末装置310と音声
入出力手段であるマイク321やスピーカ322で構成
する。
【0046】音声利用装置10は、端末装置から送られ
た音声入力に対応する要求に変換を行なうものであり、
音声認識と音声合成と音声対話制御を行なう音声対話制
御部群110、複数の音声対話制御部から出力される認
識結果の統合を行なう認識結果統合部120、ユーザと
の対話シナリオの生成や対話進捗管理を行なう対話管理
部130、端末装置310との間で音声入出力を行ない
装置内で音声の分配を行なう音声通信・分配部140、
音声認識エンジン判定部150、音声認識実績管理部1
60、ノイズ発生予測部170、ユーザ管理部180、
データ通信部190で構成する。
【0047】図2は、本発明の音声利用システムの全体
構成を示す図である。音声利用システムは、サービス要
求装置30と音声利用装置10がネットワーク1を介し
て、サービス仲介装置20とサービス提供装置40がネ
ットワーク2を介して接続されている。無論、サービス
要求装置30は複数台あってよい。
【0048】ネットワーク1は携帯電話網や狭帯域通信
網等の無線通信網であり、ネットワーク2は広域通信網
等である。
【0049】ユーザからの音声入力を受け付けるサービ
ス要求装置30は、端末装置310とマイク321、ス
ピーカ322、ディスプレイ323、キーボタン32
4、センサ325、集音マイク326で構成する。
【0050】端末装置310は、音声入出力部311、
音声通信部312、データ入出力部313、データ通信
部314、ノイズ解析部315で構成する。
【0051】対話シナリオに沿って音声認識と音声合成
を行なう音声対話制御部群110は音声対話制御部11
0A、音声対話制御部110Bで構成する。そして、音声
対話制御部110Aは、対話シナリオ解析部111A、音
声認識エンジン112A、音声合成エンジン113Aで構
成する。音声対話制御部110Bについても同様であ
る。
【0052】音声利用装置で変換された要求に対応する
サービスの中継を行なうサービス仲介装置20は、サー
ビス判定部210、コンテンツ収集部220、データ通
信部230で構成する。
【0053】サービス仲介装置で中継されたサービスの
提供を行なうサービス提供装置40は、ナビゲーション
サービスを提供するナビサーバ40A、交通情報サービ
スを提供する交通情報サーバ40B、タウン情報サービ
スを提供するタウン情報サーバ40C等のサーバ群から
成る。
【0054】以下、処理の詳細について、サービス要求
装置30は自動車に搭載する車載型情報端末装置で、音
声利用装置10およびサービス仲介装置20は自動車向
けのテレマティクスサービスの提供を行なうテレマティ
クスセンタが運営・管理し、サービス提供装置40Aの
ナビサーバとサービス提供装置40Cのタウン情報サー
バに対して、目的地までのルート検索と目的地のタウン
情報を要求する場面を例として説明する。
【0055】以下、図3のフローチャートに従って処理
内容を説明する。サービス要求装置30はマイク321
を通して、端末装置310の音声入出力部311でユー
ザからの音声による要求を受け付ける(ステップ500
1)。ここでは「熱海までの最短ルートと熱海のタウン
情報を教えて。」という音声入力があったものとする。
【0056】音声通信部312から音声利用装置10に
対して音声データを送信する(ステップ5002)。
【0057】音声利用装置10は、音声通信・分配部1
40にて音声データを受信し(ステップ5101)、音
声対話制御部110Aと音声対話制御部110Bに対して
音声データを分配する(ステップ5102)。ここで
は、音声対話制御部110Aは認識辞書記憶部を使用す
る文法型単語音声認識の音声認識エンジン112Aを有
し、音声対話制御部110Bは言語モデル記憶部を使用
する文章音声認識(ディクテーション型)の音声認識エ
ンジン112Bを有するものとする。
【0058】音声対話制御部110Aに入力された音声
データは、認識辞書記憶部114Aに格納されている、
対話シナリオ指定の認識辞書(語彙および認識文法)1
141Aを使って、音声認識エンジン112Aが音声認識
を行なう(ステップ5103)。図4に示す認識辞書1
141Aは、認識文法が<地名>という語彙のワードス
ポッティングを行なう文法であり、その語彙が箱根、小
田原、熱海、・・・であることを表わす。
【0059】音声対話制御部110Bに入力された音声
データは、言語モデル記憶部114Bに格納されている
言語モデル1151Aを使って、音声認識エンジン11
2Bが音声認識を行なう(ステップ5104)。図4に
示す言語モデル1151Aは、2単語の連続出現数を表わ
すものであり、これを基に2単語の連続出現率を算出す
る。ここでは、全サンプル数に対する該当2単語の連続
出現数の割合を出現率とする。なお、本実施の形態にお
いては、全サンプルとしたが、所定の条件を満たすサン
プルとしてもよい。
【0060】音声対話制御部110Aと音声対話制御部
110Bから各々出力された音声認識の結果は、認識結
果統合部120にて、統合知識記憶部126および文例
記憶部127に格納している知識およびデータを用いて
複数の認識結果を統合し、認識語を決定する(ステップ
5105)。詳細な処理方法については図5に示す通り
である。これについては後述する。
【0061】対話管理部130では、認識結果統合部1
20で決定した認識語の内容と、要求受付のための対話
の全体シナリオから、要求受付のシナリオが終了したか
どうかを判断する(ステップ5106)。
【0062】ステップ5106において、終了でないと
判断すれば、対話の全体シナリオから次の対話シナリオ
を決定し、対話シナリオを記述する対話ドキュメントデ
ータを生成する(ステップ5107)。
【0063】対話ドキュメントデータは、音声対話制御
部110Aもしくは音声対話制御部110Bに入力する。
ここでは音声対話制御部110Aに入力したとすると、
対話ドキュメントデータは対話シナリオ解析部111A
にて解析され、音声合成エンジン113Aを使ってテキ
ストを音声合成する(ステップ5108)。
【0064】使用する音声対話制御部を決定する方法
は、あらかじめ常に一方を使用するように決めておく、
または、負荷分散するために処理負荷の小さい方を選択
する、または、対話シナリオで指定した方を選択する、
と言った方法が取り得る。
【0065】音声合成により生成された音声データは、
音声通信・分配部140からサービス要求装置30に対
して送信する(ステップ5109)。
【0066】サービス要求装置30の端末装置310
は、音声通信部312で音声データを受信すると、音声
入出力部311からスピーカ322を通して音声を出力
する(ステップ5003)。それと同時に、その音声出
力に対応する音声入力をユーザからマイク321を通し
て受け付ける(ステップ5001)。
【0067】一方、ステップ5106にて終了であると
判断すれば、認識結果統合部120で決定した認識語の
内容から要求を抽出し、それをサービス仲介装置20に
対して送信する(ステップ5110)。
【0068】サービス仲介装置20はサービス判定部2
10にて、音声利用装置10からの要求を受信すると、
要求を認識し仲介すべきサービス内容の判定を行なう
(ステップ5201)。
【0069】コンテンツ収集部220は、判定したサー
ビス内容に基づきサービス収集のための処理を行ない、
データ通信部230を介してサービス提供装置40Aや
サービス提供装置40Cに対してサービス提供要求とサ
ービス応答の受信を行ない、必要なサービス・情報の収
集処理を行なう(ステップ5202)。
【0070】サービス提供装置40Aは、最短ルートの
検索処理を行ない、その結果をサービス仲介装置20に
応答し(ステップ5301)、サービス提供装置40C
はタウン情報の検索処理を行い、その結果をサービス仲
介装置20に応答する(ステップ5401)。
【0071】コンテンツ収集部220は、必要なサービ
ス・情報の収集処理が終了すると、それを音声利用装置
10に対して応答する(ステップ5203)。
【0072】音声利用装置10の対話管理部130は、
サービス仲介装置20からサービス・情報を受け取る
と、それをユーザに提供するための対話シナリオを決定
し対話ドキュメントデータを生成する(ステップ511
1)。
【0073】サービス・情報の内でテキスト情報や画像
情報等の音声化しないデータについては、データ通信部
190からサービス要求装置30に対してデータ送信す
る(ステップ5113)。
【0074】サービス・情報の内で音声化するデータに
ついては、対話ドキュメントデータに基づき、音声対話
制御部110Aもしくは音声対話制御部110Bにて対話
シナリオ解析を行ない、テキストの音声合成を行ない
(ステップ5112)、生成された音声データは音声通
信・分配部140からサービス要求装置30に対して音
声データ送信する(ステップ5114)。
【0075】サービス要求装置30は、音声データを音
声通信部312で受信し音声入出力部311からスピー
カ322を通して音声出力し、一方、非音声データをデ
ータ通信部314で受信しデータ入出力部313からデ
ィスプレイ323を通して画面出力を行なう(ステップ
5004)。
【0076】以上の処理により、目的地までの最短ルー
トの検索と、目的地付近の情報検索を行なうアプリケー
ションを実現する。
【0077】図5のフローチャートおよび図6のブロッ
ク構成図を用いて、前述の音声認識結果統合処理(ステ
ップ5105)について詳細に説明する。
【0078】前述の「箱根までの最短ルートと箱根のタ
ウン情報を教えて。」という音声データを、音声認識処
理(ステップ5103)を行なうと「熱海*****熱
海******」という認識結果51031が得られ、
また別の音声認識処理(ステップ5104)を行なうと
「あった味までの最短ルートと肩身のタウン情報を教え
て」という認識結果51041が得られたものとする。
ここでステップ5103の音声認識処理は文法型単語認
識であり、ステップ5104の音声認識処理はディクテ
ーション型の音声認識である。
【0079】認識結果統合部120の認識結果受信部1
21は、これら2つの認識結果について同期を取って受
信する(ステップ601)。同期は、認識結果に付随す
る変数名(例えば、「要求内容」)やシーケンシャルな
識別値を相互に参照することで可能である。
【0080】認識結果抽出部122は認識結果5103
1から認識単語を抽出する(ステップ602)。ここで
は「熱海、熱海」という抽出結果6021を得たものと
する。
【0081】形態素解析実行部123は認識結果510
41について形態素解析を行なう(ステップ603)。
ここでは図5の解析結果6031に示すような結果を得
たものとする。
【0082】統合知識照合部124にて、前述の抽出結
果6021と解析結果6031について各々統合知識記
憶部126に格納する統合知識を用いて照合を行なう
(ステップ604)。ここでは図5の照合結果6041
や6042に示すような結果を得たものとする。
【0083】文例照合部125にて、前述の照合結果6
041と6042について、文例記憶部127に格納す
る文例を用いて照合を行なう(ステップ605)。ここ
では図5の照合結果6051を得る。
【0084】そして、照合結果6051より「固有名詞
-地域」や「条件」等のラベル部分を除いて「熱海まで
の最短ルートと熱海のタウン情報を教えて」という認識
語6061を決定する(ステップ606)。
【0085】以上の処理により、複数の音声認識エンジ
ンから出力される認識結果を統合することができる。
【0086】以上のように、異種の音声認識エンジンを
組合せて同時に使用する場合は、各々の認識対象語が異
なるため、それらから出力される複数個の認識結果を統
合して認識語を決定する。
【0087】上記のように音声利用装置10は、複数の
音声対話制御部、すなわち音声認識エンジンを具備し、
これらを同時使用することで、誤認識時や認識エラー時
の対話実行効率を落とさずに音声対話を実行することが
できた。
【0088】これは、発話音声を複数の音声認識エンジ
ンで同時に認識した時に、例えばAという音声認識エン
ジンでは認識できなかった単語が、別のBという音声認
識エンジンで認識できていれば、再度同じ発話をしなく
て済むことから言える。
【0089】同種の音声認識エンジンを組み合せて同時
に使用する場合は各々の認識対象も同一であるため、複
数の認識結果から選択的に認識語を決定する。具体的に
は以下の手段により行なう。
【0090】複数の認識結果を統合して認識語を決定す
る場合について説明する。
【0091】文例を用いて統合する場合については上記
図1から図6を用いて説明した通りである。
【0092】次に、文法を用いて統合する場合の方法
を、図7を用いて説明する。前記図1および図2の音声
利用システムを構成する音声利用装置は、数字認識を行
なう音声認識エンジンから成る音声対話制御部と、単語
認識を行なう音声認識エンジンから成る音声対話制御部
から成り、前者の数字認識を行なう音声認識エンジンを
備える音声対話制御部から出力される認識結果と、後者
の単語認識を行なう音声認識エンジンを備える音声対話
制御部から出力される認識結果を、各々文法に当ては
め、その統合結果を認識語とする。
【0093】また、音声対話制御部が、日本語認識を行
なう音声認識エンジンから成るものと、英語認識を行な
う音声認識エンジンから成るものであっても同様にして
認識語を決定する。
【0094】また、音声対話制御部を全て文法型連続単
語音声認識の音声認識エンジンで構成し、各々が異なる
語彙辞書の場合も同様にして認識語を決定する。
【0095】続いて、同種の音声認識エンジンを組み合
せて同時に使用する場合は各々の認識対象も同一である
ため、複数の認識結果から選択的に認識語を決定する。
【0096】複数の認識結果から選択的に認識語を決定
する場合は、多数決による方法と、時間による方法と、
認識信頼度による方法がある。
【0097】多数決により決定する場合は、前記図1お
よび図2の音声利用システムを構成する音声利用装置に
おいて、複数の音声対話制御部は、同種であるが異なる
処理アルゴリズムおよび異なる実装方法の音声認識エン
ジンで構成するか、全く同一であるが異なる音声認識用
データを使用する音声認識エンジンで構成しており、認
識結果統合部が奇数個の音声対話制御部から出力される
認識結果から多数決によって認識語を決定する。
【0098】時間により決定する場合は、前記図1およ
び図2の音声利用システムを構成する音声利用装置にお
いて、複数の音声対話制御部は、同種であるが異なる処
理アルゴリズムおよび異なる実装方法の音声認識エンジ
ンで構成するか、全く同一であるが異なる音声認識用デ
ータを使用する音声認識エンジンで構成しており、認識
結果統合部は音声対話制御部から出力される認識結果を
受信した時間が最早のものを認識語とする。
【0099】認識信頼度により決定する場合は、前記図
1および図2の音声利用システムを構成する音声利用装
置において、複数の音声対話制御部は、同種であるが異
なる処理アルゴリズムおよび異なる実装方法の音声認識
エンジンで構成するか、全く同一であるが異なる音声認
識用データを使用する音声認識エンジンで構成してお
り、認識結果統合部は音声対話制御部から出力される認
識結果に付与された認識信頼度を比較し、信頼度の高い
ものを認識語とする。
【0100】続いて実施例について図8から図14を用
いて説明する。話者(ユーザ)との間で音声の入出力を
行なう端末装置310と、端末装置との間で音声入出力
を行ない装置内で音声の分配を行なう音声通信・分配部
140と、使用する音声認識エンジンの決定を行なう音
声認識エンジン判定部150と、音声認識処理と音声合
成処理と音声対話制御処理を行なう音声対話制御部11
0と、ユーザとの対話のシナリオを生成する対話管理部
130を基本構成とする音声利用装置10から成る音声
利用システムである。
【0101】該音声利用装置は、複数の音声対話制御
部、すなわち音声認識エンジンを具備しこれらを切り替
えることで、音声認識処理アルゴリズムを変更すること
ができる。具体的には以下の手段により行なう。
【0102】一つ目は、前記音声利用システムを構成す
る音声利用装置に、ユーザについて音声対話制御部毎の
認識率を管理する音声認識実績管理部160を加え、音
声認識エンジン判定部150は、音声利用装置の利用前
に入力したユーザID等のユーザを特定する情報とそれに
対応する使用音声対話制御部情報を用いることで、ユー
ザに適した音声認識エンジンを選択する(図8)。
【0103】さらに電話番号とユーザIDの関係を管理す
るユーザ管理部180を加え、着信電話番号からユーザ
IDを導出し、そのユーザIDによってユーザに適した音声
認識エンジンを選択する場合もある(図9)。
【0104】二つ目は、前記音声利用システムを構成す
る音声利用装置において、音声認識エンジン判定部15
0は、使用言語とそれに対応する使用音声対話制御部情
報を用いて、ユーザの発声する言語に適した音声認識エ
ンジンを選択する(図10)。
【0105】三つ目は、前記音声利用システムを構成す
る音声利用装置において、音声認識エンジン判定部15
0は、各音声対話制御部が出力する信頼度が最も高い音
声対話制御部を選択する(図11)。
【0106】ここで、認識信頼度とは、認識した音声を
構成する各音素の出現確率を基に算出する。例えば、全
ての構成音素についての出現確率の平均値とする。
【0107】四つ目は、前記音声利用システムを構成す
る音声利用装置に、ノイズ発生の時間帯とそのノイズレ
ベルを予測するノイズ発生予測部170を加え、音声認
識エンジン判定部150は、ノイズ発生予測情報とそれ
に対応する使用音声対話制御部情報を用いて、周囲ノイ
ズに適した音声認識エンジンを選択する(図12)。
【0108】また、前記音声利用装置内のノイズ発生予
測部の代わりに、端末装置310内にノイズ解析を行な
うノイズ解析部315を設け、集音した周辺ノイズをこ
れに入力し、その解析結果を音声利用装置内の音声認識
エンジン判定部150に送り、周囲ノイズに適した音声
認識エンジンを選択する場合もある(図13)。
【0109】五つ目は、前記音声利用システムを構成す
る音声利用装置において、音声認識エンジン判定部15
0は、応答しようとする対話データから辞書情報を抽出
し、それを基に判断した認識タイプとそれに対応する使
用音声対話制御部情報を用いて、対話シナリオに適した
音声認識エンジンを選択する(図14)。
【0110】ここで、対話シナリオに適した音声認識エ
ンジンとは、数字認識や単語認識や連続語認識や、日本
語認識その他の言語の認識を行なうものである。
【0111】サービス要求装置30と音声利用装置20
間の音声データのやり取り、および音声利用装置内の音
声データのハンドリングに関して、サービス要求装置3
0と音声利用装置20の間の音声データはVoIP(Voice
over IP)等でパケット化したデータでやり取りを行な
ってよい。また、音声利用装置20内の音声通信・分配
部140と音声対話制御部110の間の音声データはVo
IP等でパケット化したデータでやり取りを行なって良
い。
【0112】図15は、本発明の音声利用システムを用
いた音声利用センタシステムの概念図である。音声利用
センタシステムは、音声利用センタ3と、ナビサーバ4
0A、交通情報サーバ40B、タウン情報サーバ40Cな
どのアプリケーションサーバと、サービス要求装置30
A、30B、30C等で構成する。
【0113】音声利用センタ3は音声利用装置10とサ
ービス仲介装置20から成る。サービス要求装置30A
および30Bは、自動車に端末装置310A、310Bや
モニタ等を組込んだものであり、サービス要求装置30
Cは、携帯情報端末に端末装置310Cやマイク等を組込
んだものである。
【0114】本システムにより、自動車や携帯情報端末
からサービスアプリケーションから音声で情報を受け取
ることが可能となる。
【0115】上記の実施の形態によれば、複数の音声対
話制御部で、各々音声認識処理アルゴリズムの異なる音
声認識エンジンを具備し、これらを切り替えることで音
声認識処理アルゴリズムを変更することができる。ま
た、複数の音声対話制御部で、各々特性の異なる音声認
識エンジンを具備し、これらを同時使用することで、誤
認識時や認識エラー時の対話実行効率を落とさず音声対
話を実行することができる。
【0116】
【発明の効果】本発明によれば、音声の認識率を向上さ
せることが可能になる。
【図面の簡単な説明】
【図1】音声利用システムの基本構成を表わす図であ
る。
【図2】音声利用システムの全体構成図である。
【図3】音声利用システムの動作を説明するフローチャ
ートである。
【図4】音声対話制御部と認識辞書、言語モデルを説明
する図である。
【図5】知識と文例を使った認識結果統合処理の動作を
説明するフローチャートである。
【図6】認識結果統合部と統合知識、文例を説明する図
である。
【図7】文法を使った認識結果統合処理について説明す
る図である。
【図8】入力されたユーザIDに応じて音声認識エンジン
を切り替える処理について説明する図である。
【図9】着信した電話番号に応じて音声認識エンジンを
切り替える処理について説明する図である。
【図10】言語に応じて音声認識エンジンを切り替える
処理について説明する図である。
【図11】認識信頼度に応じて音声認識エンジンを切り
替える処理について説明する図である。
【図12】ノイズ発生予測に応じて音声認識エンジンを
切り替える処理について説明する図である。
【図13】周辺ノイズに応じて音声認識エンジンを切り
替える処理について説明する図である。
【図14】対話内容に応じて音声認識エンジンを切り替
える処理について説明する図である。
【符号の説明】
10…音声利用装置、20…サービス仲介装置、30…
サービス要求装置、40…サービス提供装置、110…
音声対話制御部群、120…認識結果統合部、130…
対話管理部、140…音声通信・分配部、150…音声
認識エンジン判定部、160…音声認識実績管理部、1
70…ノイズ発生予測部、180…ユーザ管理部、19
0…データ通信部、310…端末装置、321…マイ
ク、322…スピーカ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551A 15/06 537G 15/08 531W 15/10 571A 15/18 571U 15/22 521V R Fターム(参考) 5D015 KK02 KK04 LL02 LL06 LL09 LL12 5D045 AB01 AB26

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】利用者から発せられる音声を入力し、入力
    された前記音声の認識処理を実行する音声認識装置にお
    いて、 前記音声を含む音声情報を入力する手段と、 前記音声の認識に関する状況を検知する手段と、 検知された前記状況を示す状況情報に基づいて、それぞ
    れが入力された音声の認識処理を実行する複数の音声認
    識手段のうち、少なくとも1つ選択する手段を有し、 選択された少なくとも1つの音声認識手段を用いて、入
    力された前記音声の認識処理を実行することを特徴とす
    る音声認識装置。
  2. 【請求項2】請求項1に記載の音声認識装置において、 音声の認識に関する状況を示す状況情報と前記複数の音
    声認識手段の少なくとも1つを対応付けて記憶する手段
    をさらに有し、 前記選択する手段は、前記記憶する手段の内容を用い
    て、前記選択を実行することを特徴とする音声認識装
    置。
  3. 【請求項3】請求項1または2のいずれかに記載の音声
    認識装置において、 前記選択する手段は、前記状況情報に含まれる前記利用
    者に関する情報、前記音声に含まれる言葉に関する情報
    および前記音声情報に含まれるノイズ情報のうち少なく
    ともに基づいて、前記選択を実行することを特徴とする
    音声認識装置。
  4. 【請求項4】それぞれが所定のサービスを提供するため
    の情報処理を実行する複数のサービス提供装置と、前記
    サービスの利用者が利用する端末装置とネットワークを
    介して接続された音声利用システムにおいて、 前記端末装置を介して入力された前記利用者の音声であ
    って、前記サービスに関する音声を入力する手段と、 前記音声の認識に関する状況を示す検知情報を入力する
    手段と、 入力された前記状況情報に基づいて、それぞれが入力さ
    れた音声の認識処理を実行する複数の音声認識手段のう
    ち、少なくとも1つ選択する手段と、 選択された少なくとも1つの音声認識手段を用いて、実
    行された入力された前記音声の認識処理の結果に基づい
    て、前記複数のサービス提供装置のうち少なくとも1つ
    を選択する手段と、 選択された前記少なくとも1つのサービス提供装置に対
    して、前記認識結果に応じたサービス要求を送信する手
    段とを有し、 前記利用者が前記サービスの提供を受けることを可能と
    する音声利用システム。
  5. 【請求項5】請求項4に記載の音声利用システムにおい
    て、 選択された前記少なくとも1つのサービス提供装置か
    ら、前記サービス要求に応じた情報を受信する手段と、 受信された前記情報に対応した音声情報を合成する手段
    と、 合成された前記音声情報を、前記端末装置に送信する手
    段とをさらに有することを特徴とする音声利用システ
    ム。
  6. 【請求項6】請求項4または5のいずれかに記載の音声
    利用システムにおいて、 音声の認識に関する状況を示す状況情報と前記複数の音
    声認識手段の少なくとも1つを対応付けて記憶する手段
    をさらに有し、 前記選択する手段は、前記記憶する手段の内容を用い
    て、前記選択を実行することを特徴とする音声利用シス
    テム。
  7. 【請求項7】請求項4乃至6のいずれかに記載の音声利
    用システムにおいて、 前記選択する手段は、前記状況情報に含まれる前記利用
    者に関する情報、前記音声に含まれる言葉に関する情報
    および前記音声情報に含まれるノイズ情報のうち少なく
    ともに基づいて、前記選択を実行することを特徴とする
    音声利用システム。
JP2001341363A 2001-11-07 2001-11-07 音声認識装置 Pending JP2003140691A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001341363A JP2003140691A (ja) 2001-11-07 2001-11-07 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001341363A JP2003140691A (ja) 2001-11-07 2001-11-07 音声認識装置

Publications (1)

Publication Number Publication Date
JP2003140691A true JP2003140691A (ja) 2003-05-16

Family

ID=19155394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001341363A Pending JP2003140691A (ja) 2001-11-07 2001-11-07 音声認識装置

Country Status (1)

Country Link
JP (1) JP2003140691A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031758A (ja) * 2003-07-07 2005-02-03 Canon Inc 音声処理装置及び方法
WO2005010868A1 (ja) * 2003-07-29 2005-02-03 Mitsubishi Denki Kabushiki Kaisha 音声認識システム及びその端末とサーバ
JP2009505140A (ja) * 2005-08-09 2009-02-05 モバイル・ヴォイス・コントロール・エルエルシー 音声制御型ワイヤレス通信デバイス・システム
WO2009019783A1 (ja) * 2007-08-09 2009-02-12 Panasonic Corporation 音声認識装置及び音声認識方法
JP2010169861A (ja) * 2009-01-22 2010-08-05 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにプログラム
JPWO2011121978A1 (ja) * 2010-03-29 2013-07-04 日本電気株式会社 音声認識システム、装置、方法、およびプログラム
JP2013257598A (ja) * 2013-09-30 2013-12-26 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにプログラム
JP2014056258A (ja) * 2008-08-29 2014-03-27 Mmodal Ip Llc 片方向通信を使用する分散型音声認識
WO2014068788A1 (ja) * 2012-11-05 2014-05-08 三菱電機株式会社 音声認識装置
JP2014182307A (ja) * 2013-03-19 2014-09-29 Sharp Corp 音声認識システム、および発話システム
JP2016180915A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、クライアント装置、音声認識方法、プログラム
JP2016180914A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、音声認識方法、プログラム
JP2016180916A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、音声認識方法、プログラム
JP2017078753A (ja) * 2015-10-19 2017-04-27 株式会社日立情報通信エンジニアリング コールセンタシステム、および、その音声認識制御方法
EP3220388A1 (en) 2016-03-15 2017-09-20 Panasonic Intellectual Property Management Co., Ltd. Method for correcting false recognition contained in recognition result of speech of user
US9934780B2 (en) 2012-01-17 2018-04-03 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance spoken dialogue by modifying dialogue's prompt pitch
CN110058677A (zh) * 2017-12-26 2019-07-26 泰雷兹公司 航空电子系统与传感器之间的电子接口装置
JP2020140473A (ja) * 2019-02-28 2020-09-03 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、音声認識方法、及び音声認識プログラム
JP2023007960A (ja) * 2021-07-02 2023-01-19 株式会社アドバンスト・メディア 情報処理装置、情報処理システム、情報処理方法及びプログラム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031758A (ja) * 2003-07-07 2005-02-03 Canon Inc 音声処理装置及び方法
WO2005010868A1 (ja) * 2003-07-29 2005-02-03 Mitsubishi Denki Kabushiki Kaisha 音声認識システム及びその端末とサーバ
JP2009505140A (ja) * 2005-08-09 2009-02-05 モバイル・ヴォイス・コントロール・エルエルシー 音声制御型ワイヤレス通信デバイス・システム
WO2009019783A1 (ja) * 2007-08-09 2009-02-12 Panasonic Corporation 音声認識装置及び音声認識方法
JP2014056258A (ja) * 2008-08-29 2014-03-27 Mmodal Ip Llc 片方向通信を使用する分散型音声認識
JP2010169861A (ja) * 2009-01-22 2010-08-05 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにプログラム
JPWO2011121978A1 (ja) * 2010-03-29 2013-07-04 日本電気株式会社 音声認識システム、装置、方法、およびプログラム
US9934780B2 (en) 2012-01-17 2018-04-03 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance spoken dialogue by modifying dialogue's prompt pitch
JP5677650B2 (ja) * 2012-11-05 2015-02-25 三菱電機株式会社 音声認識装置
WO2014068788A1 (ja) * 2012-11-05 2014-05-08 三菱電機株式会社 音声認識装置
CN104756185A (zh) * 2012-11-05 2015-07-01 三菱电机株式会社 语音识别装置
US9378737B2 (en) 2012-11-05 2016-06-28 Mitsubishi Electric Corporation Voice recognition device
JP2014182307A (ja) * 2013-03-19 2014-09-29 Sharp Corp 音声認識システム、および発話システム
JP2013257598A (ja) * 2013-09-30 2013-12-26 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにプログラム
JP2016180914A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、音声認識方法、プログラム
JP2016180916A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、音声認識方法、プログラム
JP2016180915A (ja) * 2015-03-25 2016-10-13 日本電信電話株式会社 音声認識システム、クライアント装置、音声認識方法、プログラム
JP2017078753A (ja) * 2015-10-19 2017-04-27 株式会社日立情報通信エンジニアリング コールセンタシステム、および、その音声認識制御方法
EP3220388A1 (en) 2016-03-15 2017-09-20 Panasonic Intellectual Property Management Co., Ltd. Method for correcting false recognition contained in recognition result of speech of user
US10535337B2 (en) 2016-03-15 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Method for correcting false recognition contained in recognition result of speech of user
CN110058677A (zh) * 2017-12-26 2019-07-26 泰雷兹公司 航空电子系统与传感器之间的电子接口装置
JP2020140473A (ja) * 2019-02-28 2020-09-03 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、音声認識方法、及び音声認識プログラム
JP2023007960A (ja) * 2021-07-02 2023-01-19 株式会社アドバンスト・メディア 情報処理装置、情報処理システム、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2003140691A (ja) 音声認識装置
Cox et al. Speech and language processing for next-millennium communications services
EP1171871B1 (en) Recognition engines with complementary language models
JP5957269B2 (ja) 音声認識サーバ統合装置および音声認識サーバ統合方法
US7835914B2 (en) Dialog supporting apparatus
US6487534B1 (en) Distributed client-server speech recognition system
JP4267081B2 (ja) 分散システムにおけるパターン認識登録
JP4709887B2 (ja) 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム
JP3991914B2 (ja) 移動体用音声認識装置
EP1181684B1 (en) Client-server speech recognition
JP4468264B2 (ja) 多言語による名称の音声認識のための方法とシステム
US20060100871A1 (en) Speech recognition method, apparatus and navigation system
JP4902617B2 (ja) 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
JP2001005488A (ja) 音声対話システム
EP0769184B1 (en) Speech recognition methods and apparatus on the basis of the modelling of new words
US20060129409A1 (en) Dialog supporting apparatus
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
WO2001099096A1 (fr) Systeme de communication a entree vocale, terminal d'utilisateur et systeme central
KR19980070329A (ko) 사용자 정의 문구의 화자 독립 인식을 위한 방법 및 시스템
WO2007108500A1 (ja) 音声認識システム、音声認識方法および音声認識用プログラム
US20070016420A1 (en) Dictionary lookup for mobile devices using spelling recognition
WO2000010160A1 (fr) Dispositif et procede de reconnaissance vocale, dispositif de navigation, telephone portable et processeur d'informations
JP6233867B2 (ja) 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
JP3911178B2 (ja) 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体
Seide et al. Towards an automated directory information system.