JPH06274190A - ナビゲーションシステムおよび音声認識装置 - Google Patents

ナビゲーションシステムおよび音声認識装置

Info

Publication number
JPH06274190A
JPH06274190A JP5058276A JP5827693A JPH06274190A JP H06274190 A JPH06274190 A JP H06274190A JP 5058276 A JP5058276 A JP 5058276A JP 5827693 A JP5827693 A JP 5827693A JP H06274190 A JPH06274190 A JP H06274190A
Authority
JP
Japan
Prior art keywords
microphone
voice
model
state
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5058276A
Other languages
English (en)
Inventor
Kazuo Ishii
和夫 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP5058276A priority Critical patent/JPH06274190A/ja
Publication of JPH06274190A publication Critical patent/JPH06274190A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 装置の利便性を向上させる。 【構成】 例えば、運転席に固定され、運転者専用とさ
れる固定のマイク8と、運転者だけでなく、助手席や後
部座席の同乗者が使用することのできる移動可能な可搬
のマイク2を設ける。システムコントローラ12では、
マイク2または8に入力された音声に基づいて、例えば
CDROM15に記憶された地図情報の表示部14への
表示などの所定の制御が行われる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば自動車などに装
備されるオーディオ装置やナビゲーションシステムなど
に用いて好適なナビゲーションシステム、並びに音声認
識装置に関する。
【0002】
【従来の技術】例えば、自動車などに装備されたカーオ
ーディオ装置やナビゲーションシステムなどの装置を、
運転中に操作することは、運転者にとって困難であるば
かりでなく、運転者のよそ見運転につながり、交通安全
上、好ましいことではなかった。
【0003】そこで、音声により操作を行うことのでき
る、音声認識装置を適用したカーオーディオ装置やナビ
ゲーションシステムが知られている。このような装置で
は、運転者の近く(例えば、サンバイザなど)に設置さ
れたマイクに音声を入力することにより、所定の動作が
行われるようになされている。
【0004】
【発明が解決しようとする課題】ところで、運転者の近
くに設置されるマイクは、環境ノイズを考慮して指向性
の強いものが用いられる。従って、例えば助手席や後部
座席の同乗者は、そのマイクを利用することが困難であ
り、不便であった。
【0005】そこで、マイクを、運転者の近くだけでな
く、助手席や後部座席付近にも設置する方法があるが、
運転者の近くに設置したマイクと、助手席や後部座席付
近に設置したマイクとの特性の違いや、音場により、音
声の認識率が低下する課題があった。
【0006】本発明は、このような状況に鑑みてなされ
たものであり、装置の利便性および音声の認識率を向上
させるものである。
【0007】
【課題を解決するための手段】請求項1に記載のナビゲ
ーションシステムは、音声を入力する、固定および可搬
の入力手段としてのマイク8および2と、マイク8およ
び2の出力を分析する分析手段としての分析部10と、
分析部10の分析結果に基づいて、音声を認識する認識
手段としての認識部11と、認識部11の認識結果に基
づいて、所定の制御を行う制御手段としてのシステムコ
ントローラ12とを備えることを特徴とする。
【0008】請求項2に記載のナビゲーションシステム
は、ナビゲーションシステムを操作するための操作手段
としてのリモコン1をさらに備え、マイク2と、リモコ
ン1とが一体に構成されていることを特徴とする。
【0009】請求項3に記載の音声認識装置は、音声を
入力する入力手段としてのマイク2または8と、マイク
2または8の特性に基づいて、マイク2または8の出力
を補正する補正手段としての補正部52または推定補正
部72と、補正部52または推定補正部72によって補
正されたマイク2または8の出力を分析する分析手段と
しての分析部10と、分析部10の分析結果に基づい
て、音声を認識する認識手段としての認識部11とを備
えることを特徴とする。
【0010】請求項4に記載の音声認識装置は、入力手
段が、例えばマイク2および8などのように、複数設け
られていることを特徴とする。
【0011】請求項5に記載の音声認識装置は、マイク
2および8のうちの少なくとも1つ(例えば、マイク
2)が、その特性があらかじめ判っている基準入力手段
であり、推定補正部72が、マイク2の特性に基づい
て、マイク8の特性とともに音場を推定し、その推定結
果に基づいて、マイク8の出力を補正することを特徴と
する。
【0012】
【作用】請求項1に記載のナビゲーションシステムにお
いては、固定および可搬のマイク8および2に入力され
た音声に基づいて、所定の制御が行われる。従って、例
えば固定のマイク8を運転者専用とし、自由に移動する
ことのできる可搬のマイク2を、助手席や後部座席の同
乗者用とすることができるので、装置の利便性を向上さ
せることができる。
【0013】請求項2に記載のナビゲーションシステム
においては、可搬のマイク2と、リモコン1とが一体に
構成されているので、装置の利便性をさらに向上させる
ことができる。
【0014】請求項3に記載の音声認識装置において
は、マイク2または8の特性に基づいて、マイク2また
は8の出力を補正した後、マイク2または8に入力され
た音声を認識する。従って、マイク2または8の特性に
よって、音声の認識率が劣化することが防止される。
【0015】請求項4に記載の音声認識装置において
は、入力手段が、例えばマイク2および8などのよう
に、複数設けられているので、装置の利便性を向上させ
ることができる。
【0016】請求項5に記載の音声認識装置において
は、推定補正部72が、あらかじめ判っているマイク2
の特性に基づいて、マイク8の特性とともに音場を推定
し、その推定結果に基づいて、マイク8の出力を補正す
る。従って、マイク2とマイク8との特性や音場の違い
による、音声の認識率の劣化が防止される。
【0017】
【実施例】図1は、本発明のナビゲーションシステムの
一実施例の構成を示すブロック図である。このナビゲー
ションシステムは、自動車などに搭載され、ジョイステ
ィック5、操作ボタン6、および7の操作だけでなく、
音声により所定の動作をさせることができるようになさ
れている。
【0018】即ち、リモコン1には、図2に示すよう
に、マイク2、ランプ3、マイクボタン4、ジョイステ
ィック5、操作ボタン6、および7が設けられている。
ジョイスティック5、操作ボタン6、および7は、この
ナビゲーションシステムに所定の動作(例えば、表示部
14に地図情報や現在地情報などを表示させたりなど)
を行わせるときに操作される。マイク2は、可搬なマイ
クで、リモコン1とともに自由な位置に移動させること
ができ、即ち自動車の運転席や助手席、後部座席などに
移動させることができ、音声により、このナビゲーショ
ンシステムに所定の動作をさせるときに用いられる。ラ
ンプ3は、通常、消灯しており、マイク2が有効である
とき点灯するようになされている。
【0019】マイクボタン4は、例えばシーソー型のボ
タンで、マイク2またはマイク8に対する発話の開始時
と、終了時に操作される。即ち、マイクボタン4が、a
側に一度押されると、マイク2が有効にされ、さらにも
う一度a側に押されると、マイク2が無効にされる。ま
た、マイクボタン4が、b側に一度押されると、マイク
8が有効にされ、さらにもう一度b側に押されると、マ
イク8が無効にされる。
【0020】なお、マイクボタン4は、上述の他、例え
ばそれが、a側およびb側のいずれにも押されていない
ときは、マイク2および8が両方とも無効にされ、a側
に押されている間は、マイク2が有効にされ、b側に押
されている間は、マイク8が有効にされるようにするこ
とができる。
【0021】マイク8は、固定のマイクで、例えば運転
席のサンバイザなど運転者の近くに固定され、音声によ
り、このナビゲーションシステムに所定の動作をさせる
ときに用いられる。さらに、マイク8は、優先マイク
で、所定のキーワードの音声入力があると、システムコ
ントローラ12によって、有効/無効が切り換えられる
ようになされている。ランプ9は、マイク8に設けられ
ており、通常は消灯しているが、マイク8が有効にされ
ると点灯するようになされている。
【0022】なお、マイク2(マイク8)が有効にされ
るとは、マイク2への音声入力によって、このナビゲー
ションシステムに所定の動作をさせることができる状態
にされることを意味し、マイク2が無効にされるとは、
マイク2への音声入力によって、ナビゲーションシステ
ムに所定の動作をさせることができない状態にされるこ
とを意味する。従って、マイク2および8が無効にされ
ているときは、上述したように、ジョイスティック5、
操作ボタン6、および7を操作して、このナビゲーショ
ンシステムに所定の動作を行わせることになる。
【0023】スイッチSW1は、通常は端子b1側を選択
しており、マイク2が有効にされたとき、端子a1側を
選択する。分析部10は、マイク2または8に入力さ
れ、スイッチSW1を介して出力される音声を分析し、
その分析結果を認識部11に供給する。
【0024】ここで、分析部10においては、音声か
ら、その特徴量としての、例えばケプストラム係数とデ
ルタケプストラム係数を、図3のフローチャートにした
がって抽出するようになされている。即ち、分析部10
は、まず入力された音声信号を、サンプリング周波数f
s(例えばfs=12kHz)でA/D変換し、高域強調
して(例えば、1−0.97z-1の伝達関数を有するデ
ィジタルフィルタでフィルタリングして)、スペクトル
の傾斜を平坦化する(ステップS1)。
【0025】そして、A/D変換した音声信号に、例え
ば次式で示されるハミングウインドウwH(n)(nは
時間)を128点(≒10.7ms)ずつずらしながら
かけて、256点(≒21.3ms)分の音声信号を1
フレームとして順次切り出す(ステップS2)。 wH(n)=0.54−0.46cos(2πn/N) 但し、N=256(1フレーム)−1=255,n=
0,1,・・・,N。
【0026】1フレームごとの音声信号は、順次LPC
分析(線形予測分析)され(ステップS3)、例えば1
6次の線形予測係数ai(i=1,2,・・・,16)
が算出される。さらに、線形予測係数aiから、例えば
16次のケプストラム係数(いわゆるLPCケプストラ
ム)Cj(j=1,2,・・・,16)が算出される
(ステップS4)。
【0027】なお、ケプストラム係数は、1フレームの
音声信号から直接算出する(音声信号をフーリエ変換
し、その対数をとって逆フーリエ変換する)ようにして
も良い。
【0028】ここで、ケプストラム係数Cjと同様に、
そのダイナミックな変化が、音声の重要な特徴量である
ことに注目して、本実施例では、現在のフレームfrか
ら前後2フレーム離れたケプストラム係数どうしの差分
をデルタケプストラム係数△Cjとして算出するように
なされている。
【0029】即ち、ケプストラム係数Cjの算出後、フ
レームfr+2のケプストラム係数Cj[f+2]と、
フレームfr−2のケプストラム係数Cj[f−2]と
の差分(Cj[f+2]−Cj[f−2])が、フレーム
frのデルタケプストラム係数△Cjとして算出される
(ステップS5)。
【0030】ケプストラム係数Cjとデルタケプストラ
ム係数△Cjは、それぞれベクトル量子化され、シンボ
ル化(コード化)されて(ステップS6)、処理を終了
する。即ち、ケプストラム係数Cj(デルタケプストラ
ム係数△Cjも同様)は、それに最も近い、あらかじめ
作成されたコードブック(例えば、学習用のデータか
ら、いわゆるLBGアルゴリズムにしたがって作成され
たもの)のセントロイドに付されたシンボル(コード)
にシンボル化(コード化)される。
【0031】図1に戻り、認識部11は、分析部10の
分析結果、即ちコード化されたケプストラム係数および
デルタケプストラム係数から、マイク2または8に入力
された音声を、例えばHMM(Hidden Markov Model)
法に基づいて認識する。即ち、認識部11は、HMM記
憶部18にあらかじめ記憶されたモデル(HMM)を用
いて、マイク2または8に入力された音声を認識する。
【0032】ここでHMM法について簡単に説明する。
HMMは観測不可能な(Hidden)基礎統計過程を有する
2重統計過程であり、そのモデルは、図4(a)に示す
ように、いくつかの状態S1,S2,・・・,SN(Nは
状態数)と、その状態間の遷移を表すパスから構成さ
れ、状態が遷移するときにコードを出力(生起)する。
【0033】なお、音声認識では、図4(b)に示すよ
うな自分自身と、次の状態に遷移するパスのみを有する
モデルが一般的に使用される。
【0034】音声認識に通常適用される離散型HMMで
は、音声から生成されたコード列としてのコード系列Y
={y1,y2,・・・,yT}が、各モデルで生起され
る確率(事後確率)が計算され、その確率が最も大きい
モデルが認識結果とされる。
【0035】即ち、HMMでは、 N:モデルの有する状態数 Y(={y1,y2,・・・,yT}):コード系列 T:コード系列長 aij:状態iから状態jへ遷移する遷移確率 bij(k):状態iから状態jへ遷移するときにコード
kが生起される生起確率 コード数(コードの種類の数):K π(=π1,π2,・・・,πN):初期状態が状態iで
ある初期状態確率 のようにパラメータを表すとすると、モデルからコード
系列Yは、次のようにして生起される。
【0036】(ST1)初期状態確率πに基づいて初期
状態iS(INITIAL)を決定 (ST2)遷移確率aijに基づいて状態のiからjへの
遷移を決定 (ST3)生起確率bij(k)に基づいて、状態がiか
らjに遷移するときに出力(生起)されるコードyt
決定 (ST4)t<Tであれば、ST2へ戻る
【0037】従って、モデルは、 状態数N コード数K 遷移確率aij 生起確率bij(k) 初期状態確率πi により特徴づけられることになる。
【0038】なお、音声認識においては、初期状態また
は最終状態は、それぞれ1つであるとするのが一般的で
あり、以下、初期状態(時刻t=1における状態)を、
S( INITIAL)だけに限定したモデルを考える。
【0039】従って、初期状態確率はπiS(INITIAL)
み1となり、他はすべて0となる。
【0040】さらに、最終状態(時刻t=Tにおける状
態)も、以下iS(FINAL)だけに限定したモデルを考え
る。
【0041】モデルλがコード系列y1,y2,・・・,
tを出力して、状態iにいる前方予測確率をαi(t)
とすると、上述したモデルのコードの出力の定義((S
T1)乃至(ST4))から、モデルλがコード系列Y
={y1,y2,・・・,yT}を出力する確率P(Y|
λ)は、次の漸化式によって計算することができる。
【0042】
【数1】 なお、上式のjに関するサメーションは、与えられたモ
デルにおいて、状態jから状態iへの遷移が許されてい
る場合にのみとられる。
【0043】そして、HMM法を用いた音声認識では、
音声から生成されたコード列としてのコード系列Y=
{y1,y2,・・・,yT}に対して、上式から計算さ
れる確率P(Y|λ)を最大にするモデルλが認識結果
とされることになる。
【0044】次に、コード系列Y={y1,y2,・・
・,yT}に対して、確率P(Y|λ)を最大にするモ
デルのパラメータとしての遷移確率aij、生起確率bij
(k)は、以下のようにして求められる。
【0045】即ち、モデルの学習では、まず、学習用の
コード系列Yから、上述したαi(t)が求められると
ともに、時刻tにおいて、状態iにいて、以後、コード
系列yt+1,yt+2,・・・,yTを出力する後方予測確
率βi(t)が、次式により求められる。
【0046】
【数2】 なお、上式のjに関するサメーションは、与えられたモ
デルにおいて、状態iから状態jへの遷移が許されてい
る場合にのみとられる。
【0047】そして、次式にしたがってモデルのパラメ
ータとしての遷移確率aij、生起確率bij(k)が更新
(学習)される。
【0048】
【数3】 なお、上式においてバー(−)を付したaij、またはb
ij(k)は、更新した遷移確率または生起確率をそれぞ
れ意味する。また、上式のhに関するサメーションは、
状態iから状態hへの遷移が許されている場合にのみと
られる。さらに、t:yt=kに関するサメーション
は、時刻tにおいて、kなるコードytが生起される場
合についてのみとられる。
【0049】上式にしたがって、遷移確率aij、生起確
率bij(k)が更新(再推定)されることにより、それ
ぞれは、局所的に最適な値へ収束する。即ち、モデルの
学習が行われる。
【0050】なお、上述のようにして遷移確率aij、生
起確率bij(k)を更新(再推定)する方法は、Baum-W
elchの再推定法と呼ばれる。
【0051】ここで、式(2)で計算される遷移確率a
ij、生起確率bij(k)は、ある学習用のコード系列1
つに対してだけであり、これにより学習が行われたモデ
ルは、ある1つのコード系列を高い確率で出力するよう
になる。しかしながら、音声認識では、調音結合や話者
による音声(音声のコード系列)のばらつきがあり、単
一のコード系列のみ高い確率で出力するモデルでは、こ
のばらつきに対処することができない。
【0052】そこで、いくつかのコード系列を高い確率
で出力するように、モデルλの学習を行う必要がある。
これには、例えばQ種類のコード系列の、q番目のコー
ド系列をYq={y1 q,y2 q,・・・,yT q}としたと
き、各コード系列Yq(q=1,2,・・・,Q)が観
測される確率P(Yq|λ)の積が最大になるように、
モデルλの学習を行えばよい。
【0053】これは、上述したBaum-Welchの再推定法を
多重系列に拡張することにより、次のように再帰的に求
めることができる。
【0054】
【数4】
【0055】次に、上式(3)により遷移確率aij、生
起確率bij(k)を更新(再推定)することは、モデル
の学習を個別に行っていることに他ならない。過去、H
MM法を用いて音声認識を行う場合においては、単語認
識に適用されるときが多く、単語に対応するモデルの学
習を、上述したように個別に行うだけで問題はなかっ
た。
【0056】しかしながら、最近は、音韻や音素に対応
するモデルを連結して、意味のある音声(単語や文)を
認識するのが一般的になり、このため、モデルの連結学
習を行う必要が生じできた。
【0057】モデルの連結学習では、例えば、あらかじ
め用意した単語辞書に登録されている単語に基づき、音
韻または音素モデルどうしを連結し、それを単語モデル
とみなして、単語のコード系列として用意されたコード
系列Yqに対する学習が行われる。
【0058】即ち、M個の音韻または音素モデルの学習
を個別に行った場合、そのうちのm番目のモデル(モデ
ルm)のパラメータ(遷移確率、生起確率それぞれ)を
ij m,bij m(k)と表し、そのモデルmに音韻または
音素モデルを連結したモデル(連結モデル)の状態をu
またはvと表すとともに、連結モデルの状態のuからv
への遷移において、状態uがモデルmに属する状態であ
るときを(u→v)∈mと表すと、式(3)を変形した
次式にしたがって、モデルmの遷移確率aij m、生起確
率bij m(k)が更新(再推定)される。
【0059】
【数5】
【0060】ここで、連結モデルがモデルmを複数使用
して構成されている場合、即ち連結モデルが、例えば3
状態S1,S2,S3からなるモデルmを2回使用して構
成されている場合、連結モデルは、S1,S2,S3
1,S2,S3の6状態を有することになる。従って、
この場合、モデルmの状態S1,S2,S3のうちの、例
えば先頭の状態S1は、連結モデルの状態S1,S2
3,S1,S2,S3の先頭の状態、および先頭から4番
目の状態と同一であり、このように連結モデルの複数の
状態u(v)が、モデルmの1つ状態i(j)と同一で
あるときがある。
【0061】上式(4)において、u≡i,v≡jに関
するサメーション、およびu≡iに関するサメーション
は、上述したように連結モデルの状態u(v)が、モデ
ルmの状態i(j)と同一である場合についてとられる
ことを意味する。
【0062】また、h:(u→h)∈mに関するサメー
ションは、連結モデルの状態uから状態hへの遷移が許
されている場合に、連結モデルの状態uが、モデルmに
属するときのみとられる。
【0063】さらに、上式(4)において、モデルmの
後続にモデルが連結されており、連結モデルの状態u
が、モデルmの最終状態(u=iS(FINAL))となった場
合、状態uからの遷移先である状態vは、モデルmの直
後に連結したモデルの初期状態となるものとする。
【0064】次に、以上説明したHMM法を用いて、例
えば図5に示すようなS1,S2,S3の3状態からな
り、自分自身と、次の状態に遷移するパスのみを有する
とともに、初期状態または最終状態を、それぞれS1
たはS3とするモデルにより音声認識が行われる場合に
は、まず上述した式(3)または(4)(以下、式
(4)におけるaij m,bij m(k)は、式(3)におけ
る場合と同様にそれぞれaij,bij(k)と記載する)
にしたがってモデルの学習(連結学習)が行われ、モデ
ルの遷移確率aijおよび生起確率bij(k)が求められ
る。
【0065】ここで、コードが、例えばaとbの2つだ
けであり、学習により、例えばモデルλの遷移確率aij
および生起確率bij(k)が、次のように算出されたと
する。
【0066】a11=0.2,b11(a)=0.6,b11
(b)=0.4,a12=0.8,b12(a)=0.5,
12(b)=0.5,a22=0.4,b22(a)=0.
2,b22(b)=0.8,a23=0.6,b23(a)=
0.4,b23(b)=0.6
【0067】そして、音声から、例えばコード系列a,
b,aが観測された場合、このモデルλがそのコード系
列を出力(生起)する確率P({a,b,a}|λ)
が、式(1)にしたがって計算される。
【0068】以上の処理が、モデルλ以外のモデルにも
対して行われ、前述したように、確率Pが最も大きいモ
デルが認識結果とされることになる。
【0069】なお、確率Pの計算にあたっては、式
(1)にしたがった、いわゆるフォワード法の他、例え
ばビタビアルゴリズムを用いるようにすることができ
る。
【0070】ところで、HMM法により音声認識を行う
場合、式(1)の確率P(Y|λ)の計算(ビタビアル
ゴリズムを用いる場合も同様)は、一般的にトレリス
(トレリスダイヤグラム)を描くことによって行われ
る。図6は、学習結果が上述のようになった図5のモデ
ルλがコード系列{a,b,a}を出力する確率P
({a,b,a}|λ)を計算する場合に描かれるトレ
リスを示している。
【0071】図5のモデルλのトレリスを示す図6にお
いては、箱が各時刻における状態を示し、その中には、
各時刻においてその状態にいる確率が書き入れてある。
さらに、矢印は、状態の遷移を示しており、図5のモデ
ルλは、前述したように自分自身と、次の状態にしか状
態が遷移しないので、1つの箱から出る矢印は、自分自
身への遷移を示す水平方向の1つの矢印と、次の状態へ
の遷移を示す斜め上方向の1つの矢印のみとなってい
る。
【0072】また、図5のモデルは、最終状態が状態S
3であり、前述したように最終状態からの状態の遷移は
ないものとしたので、図6において、状態S3の箱から
状態の遷移を示す矢印は書き込まれていない。
【0073】さらに、図6のトレリスにおいては、縦方
向はモデルの状態の並びになっており、横方向は時間の
進みを表している。
【0074】このようなトレリスにしたがって、図5の
モデルλがコード系列{a,b,a}を出力する確率P
({a,b,a}|λ)が計算される場合、まず、時刻
t=1においては、前述したように初期状態は、必ず状
態iS(INITIAL)となるから(使用するモデルを、初期状
態が状態iS(INITIAL)となるモデルとしたから)、状態
S(INITIAL)としての状態S1にいる確率が1で、他の
状態S2,S3にいる確率は0であり、従って状態S1
箱のみ1が書き込まれ、他の状態S2,S3の箱には0が
書き込まれる。
【0075】そして、状態が遷移してコードaが出力さ
れた場合に、状態S1にいる確率は、時刻t=1に状態
1にいて、コードaを出力しながら状態S1に遷移する
確率であるから、 1.0×a11×b11(a)=1.0×0.2×0.6 =0.12 となり、時刻t=2における状態S1の箱には、0.1
2が書き込まれる。
【0076】また、この場合に、状態S2にいる確率
は、時刻t=1に状態S1にいて、コードaを出力しな
がら状態S2に遷移する確率と、時刻t=1に状態S2
いて、コードaを出力しながら状態S2に遷移する確率
との和であるから、 1.0×a12×b12(a)+0.0×a22×b22(a) =1.0×0.8×0.5 +0.0×0.4×0.2 =0.4 +0 =0.4 となり、時刻t=2における状態S2の箱には、0.4
が書き込まれる。
【0077】さらに、この場合に、状態S3にいる確率
は、時刻t=1に状態S2にいて、コードaを出力しな
がら状態S3に遷移する確率であるから、 0.0×a23×b23(a)=0.0×0.6×0.4 =0 となり、時刻t=2における状態S3の箱には、0が書
き込まれる。
【0078】次に、コードaが出力された後に、さらに
状態が遷移してコードbが出力された場合に、状態S1
にいる確率は、時刻t=2に状態S1にいて、コードb
を出力しながら状態S1に遷移する確率であるから、 0.12×a11×b11(b)=0.12×0.2×0.
4 =0.0096 となり、時刻t=3における状態S1の箱には、0.0
096が書き込まれる。
【0079】また、この場合に、状態S2にいる確率
は、時刻t=2に状態S1にいて、コードbを出力しな
がら状態S2に遷移する確率と、時刻t=2に状態S2
いて、コードbを出力しながら状態S2に遷移する確率
との和であるから、 0.12×a12×b12(b)+0.4×a22×b
22(a) =0.12×0.8×0.5 +0.4×0.4×0.
8 =0.176 となり、時刻t=2における状態S2の箱には、0.1
76が書き込まれる。
【0080】さらに、この場合に、状態S3にいる確率
は、時刻t=2に状態S2にいて、コードbを出力しな
がら状態S3に遷移する確率であるから、 0.4×a23×b23(b)=0.4×0.6×0.6 =0.144 となり、時刻t=2における状態S3の箱には、0.1
44が書き込まれる。
【0081】そして、以上のようにコードa,bが出力
された後に、さらに状態が遷移してコードaが出力され
た場合における、各状態S1,S2,S3にいる確率が上
述したときと同様にして計算され、図中最右端の各状態
1,S2,S3の箱に書き込まれる。
【0082】確率P({a,b,a}|λ)は、式
(1)の定義から、図中、最も左上にある箱に書き込ま
れた確率であるから、モデルλがコード系列{a,b,
a}を出力する確率(P({a,b,a}|λ))は、
0.0422となる。
【0083】以上の処理が、モデルλ以外のモデルにも
対して行われ、確率Pが最も大きいモデルが認識結果と
されることになる。
【0084】認識部11では、上述したようにして、分
析部10からのコード(コード化されたケプストラム係
数およびデルタケプストラム係数の組)から、マイク2
または8に入力された音声が認識される。
【0085】図1に戻り、HMM記憶部18には、上述
したようにして、分析部10からのコード(コード化さ
れたケプストラム係数およびデルタケプストラム係数の
組)から学習されたモデルがあらかじめ記憶されてい
る。なお、HMM記憶部18には、認識対象語のモデル
が、所定のグループに分けて記憶されており、認識部1
1では、認識しようとしている対象語に対応して、認識
に用いるモデルのグループを変更するようになされてい
る。
【0086】システムコントローラ12は、リモコン1
からの制御信号または認識部11の認識結果に基づい
て、装置全体を制御する。応答部13は、システムコン
トローラ12からの指示にしたがって、例えば道案内の
ための音声などの所定の音声を出力する(音声応答す
る)。表示部14は、システムコントローラ12からの
指示にしたがって、CDROM15に記憶された地図情
報など、所定の情報を表示する。CDROM15には、
地図情報や交通情報などがあらかじめ記憶されている。
アンテナ16は、GPS(図示せず)からの電波を受信
し、受信部17に出力する。受信部17は、アンテナ1
6からの信号を復調する。
【0087】次に、その動作について説明する。まず、
マイク2および8がともに有効にされていない場合、シ
ステムコントローラ12において、ジョイスティック5
や操作ボタン6、7の操作に対応して、装置が制御され
る。
【0088】即ち、システムコントローラ12におい
て、ジョイスティック5や操作ボタン6、7の操作に対
応して、CDROM15に記憶された地図情報が読み出
され、表示部14に表示される。また、アンテナ16お
よび受信部17を介して入力されるGPSからの信号を
基に、現在地が算出され、表示部14に表示される。あ
るいは、例えば地図情報表示や、現在地表示、目的地の
設定、目的地までの道案内などのメニューの選択、表示
された地図情報の拡大/縮小/スクロールなどが行われ
る。
【0089】次に、マイクボタン4が操作されたりなど
して、マイク2またはマイク8のいずれかが有効にされ
た場合、有効にされたマイクに、例えば目的地、あるい
は表示部14に表示させたい位置としての地名や、コマ
ンドなどの、音声による入力があると、それが分析部1
0を介して認識部11で、上述したようにして認識され
る。
【0090】そして、システムコントローラ12におい
て、認識部11の認識結果に基づいて、装置が制御され
る。即ち、認識部11の認識結果が、例えば地名であっ
た場合、システムコントローラ12において、その地名
付近の地図が表示部14に表示される。また、認識部1
1の認識結果が、例えばコマンドであった場合、そのコ
マンドに対応して、地図情報や現在地情報が表示部14
に表示されたり、メニューの選択、表示された地図情報
の拡大/縮小/スクロールなどが行われる。
【0091】なお、音声によるコマンド入力があった場
合、必要に応じて、音声応答部13からは、音声による
応答(例えば入力された音声の確認や、さらなるコマン
ドの入力の催促)が出力されるようになされており、こ
れにより使用者が、対話形式で装置を使用することがで
きるようになされている。
【0092】以上のように、例えば運転者専用の固定の
マイク8と、運転者だけでなく、助手席や後部座席の同
乗者が使用することのできる可搬のマイク2をナビゲー
ションシステムに設けるようにしたので、装置の利便性
を向上させることができる。
【0093】また、周囲からの雑音レベルが高く、固定
のマイク8に入力された音声の認識率が低下する場合、
運転者は、可搬のマイク2を口元に移動させて使用する
ことができ、これにより音声の認識率の劣化が防止さ
れ、装置を確実に動作させることができる。
【0094】なお、図1において、リモコン1やマイク
8は、ワイヤードリモコンやワイヤードマイクとして設
けられているが、ワイヤレスリモコンやワイヤレスマイ
クとして設けるようにすることができる。
【0095】さらに、図1において、マイク2は、リモ
コン1と一体に設けられているが、独立に設けるように
することができる。
【0096】また、固定のマイクとしてのマイク8を1
つだけでなく、複数設けるようにして、運転席ととも
に、助手席や後部座席に固定するようにすることができ
る。但し、固定のマイクを自動者内に複数設けると、内
装が損なわれる場合があるので、図1に示すように、固
定と可搬のマイクを、それぞれ1つずつ設けるようにし
た方が良いと考えられる。
【0097】さらに、このナビゲーションシステムに
は、音声を入力するためのマイク2および8の他に、例
えば指向性生成や雑音除去のためのマイクを設けるよう
にすることができる。
【0098】ところで、図1の認識部11において音声
認識のときに使用されるHMM記憶部18に記憶された
モデルが、例えばマイク2および8のうちのいずれかの
特性だけ考慮されて作成されていた場合、あるいはいず
れの特性も考慮されずに作成されていた場合、マイク2
または8から入力された音声の認識率が劣化することが
考えられる。
【0099】そこで、図7は、本発明の音声認識装置の
一実施例の構成を示している。なお、図中、図1におけ
る場合と対応する部分については、同一の符号を付して
ある。この音声認識装置においては、マイク21a(2
1b)の後段に、その特性を補正する補正部22a(2
2b)が設けられており、HMM記憶部23には、装置
を製作する、例えば工場などにおいて使用される、所定
の周波数特性のモデル作成用マイク(図示せず)に入力
された音声から作成されたモデル(HMM)があらかじ
め記憶されている。補正部22a(または22b)は、
例えばイコライザで、マイク21a(または21b)の
周波数特性を、上述のモデル作成用マイクの周波数特性
と同一になるように補正する。
【0100】以上のように構成される音声認識装置で
は、マイク21a(または21b)が有効にされた場
合、まずスイッチSW2が端子a2側(または端子b
2側)に切り換えられる。そして、マイク21a(また
は21b)に音声が入力されると、その音声は電気信号
としての音声信号に変換され、補正部22a(または2
2b)に出力される。
【0101】補正部22a(または22b)では、マイ
ク21a(または21b)からの音声信号に含まれるマ
イク22a(または22b)の特性が、上述のモデル作
成用マイクの周波数特性と同一になるように補正され、
スイッチSW2を介して分析部10に出力される。そし
て、上述した場合と同様にして、分析部10において、
入力された音声信号が分析され、認識部11において、
HMM記憶部23に記憶されたモデルに基づいて、音声
の認識が行われる。
【0102】以上のように、補正部22a(または22
b)によって、マイク21a(または21b)の出力を
補正するようにしたので、音声の認識率を劣化させるこ
とが防止される。
【0103】なお、マイクの特性に基づく音声の認識率
の劣化を防止する音声認識装置としては、図7に示すも
のの他、例えば図8や図9に示すものが考えられる。
【0104】即ち、図8の音声認識装置においては、マ
イク21aまたは21bより入力された音声から作成さ
れたモデルが、HMM記憶部31aまたは31bに、そ
れぞれあらかじめ記憶されており、マイク21aまたは
21bが有効にされた場合、スイッチSW3が、端子a3
またはb3側に切り換えられ、認識部11が、HMM記
憶部31aまたは31bに記憶されたモデルをそれぞれ
使用して、音声認識を行うようになされている。
【0105】また、図9の音声認識装置においては、マ
イク21aと21bより入力された音声の両方から、上
述した多重系列に拡張したモデル(以下、混合モデルと
記載する)が作成され、HMM記憶部41に記憶されて
おり、認識部11が、HMM記憶部41に記憶された混
合モデルを使用して、音声認識を行うようになされてい
る。
【0106】ところで、図8および図9の音声認識装置
は、それに設けられるマイク21aおよび21bを使用
して、モデルを作成しなければならず、大量生産するに
は不向きである。さらに、複数のマイクが設けられる場
合、図8の音声認識装置においては、マイクの数に比例
してモデルの記憶容量が増加するので、装置が大型化す
る。
【0107】従って、マイクの特性に基づく音声の認識
率の劣化を防止する音声認識装置としては、図7に示す
ようなものが好ましい。
【0108】次に、図10は、図7の音声認識装置を適
用したナビゲーションシステムの構成例を示している。
図中、図1における場合と対応する部分については、同
一の符号を付してある。即ち、このナビゲーションシス
テムにおいては、マイク2の周波数特性を、マイク8の
周波数特性と同一の特性に補正する補正部52が、マイ
ク2(リモコン1)の後段に設けられているとともに、
マイク8より入力された音声のみから作成されたモデル
が記憶されたHMM記憶部51が、HMM記憶部18に
代えて設けられている他は、図1における場合と同様に
構成されている。
【0109】従って、認識部11においては、マイク8
が有効にされている場合、マイク8より入力された音声
のみから作成されたモデルが記憶されたHMM記憶部5
1を利用して音声認識が行われ、またマイク2が有効に
されている場合、マイク2にからの音声に含まれるマイ
ク2の特性が、マイク8の周波数特性と同一になるよう
に補正された後、マイク8より入力された音声のみから
作成されたモデルが記憶されたHMM記憶部51を利用
して音声認識が行われることになる。
【0110】よって、マイクの特性に基づく音声の認識
率の劣化を防止することができる。
【0111】ところで、図10のナビゲーションシステ
ムにおいては、使用者の口元で使用されるマイク2はと
もかく、所定の位置に固定されるマイク8には、周囲の
環境雑音が、発声者(使用者)の音声に、かなり混入し
て入力される。周囲の環境雑音は、環境によって変化す
るので、これにより音声の認識率が劣化することが考え
られる。即ち、上述したマイクの特性だけでなく、音場
の違いによって音声の認識率が劣化することが考えられ
る。
【0112】そこで、次に、マイクの特性だけでなく、
音場の違いを補正する音声認識装置を適用したナビゲー
ションシステムについて説明するが、その前段階の準備
として、その原理について説明する。
【0113】まず、例えば図11(a)に示すように、
マイク61乃至63の3つのマイクを有する装置を考
え、マイク61乃至63のうちの、例えばマイク61を
基準マイクとし、それを口元から所定の短い距離(例え
ば、10cmなど)に配置して音声を入力したとき(発
声したとき)のインパルス応答H1(f)(fは周波
数)をあらかじめ測定しておく。
【0114】即ち、マイク61の周波数特性を含む口元
からマイク61までの伝達関数H1(f)を、あらかじ
め測定しておく。
【0115】ここで、口元に近い距離にマイク61を配
置して発声することにより、反射音は近似的に無視する
ことができ、従ってマイク61の周波数特性を含む口元
からマイク61までの伝達関数H1(f)は、マイク6
1に直接入力される音声(直接音)の近接効果による周
波数特性を考えるだけで決定することができる。
【0116】そして、発声者60の口元における音声を
s(t)(tは時間)、マイク61乃至63の周波数特
性を含む、発声者60の口元からマイク61乃至63ま
でのインパルス応答を、それぞれh1(t),h2
(t),h3(t)とすると、発声者60が音声s
(t)を発声したときのマイク61乃至63の出力x1
(t),x2(t),x3(t)は、音声s(t)と、
インパルス応答h1(t),h2(t),h3(t)と
をそれぞれ畳み込んだものになる。
【0117】時間軸上での畳み込みは、周波数軸上での
乗算となるから、s(t),h1(t),h2(t),
h3(t),x1(t),x2(t),x3(t)をフ
ーリエ変換したものを、S(f),H1(f),H2
(f),H3(f),X1(f),X2(f),X3
(f)とすると、マイク61乃至63の出力X1(f)
乃至X3(f)は、それぞれ次のように表すことができ
る。
【0118】X1(f)=H1(f)S(f) X2(f)=H2(f)S(f) X3(f)=H3(f)S(f)
【0119】上式を変形すると、 S(f)=X1(f)/H1(f) (5a) S(f)=X2(f)/H2(f) (5b) S(f)=X3(f)/H3(f) (5c) となる。
【0120】従って、上式から、図11(a)に示すよ
うに、マイク61乃至63より出力された音声に、伝達
関数1/H1(f),1/H2(f),1/H3(f)
をそれぞれ乗算することにより(時間軸上においては、
畳み込むことにより)、音場やマイクの特性に無関係な
音声信号S(f)が得られることになる。
【0121】さらに、上式から、インパルス応答H1
(f)乃至H3(f)のうちのいずれか1つ(例えば、
上述したようにあらかじめ測定されたH1(f))を用
いて、他のインパルス応答(例えば、H2(f)および
H3(f))をそれぞれ表すことができ、それは式 H2(f)=X2(f)/S(f) =H1(f)X2(f)/X1(f) (6a) H3(f)=X3(f)/S(f) =H1(f)X3(f)/X1(f) (6b) となる。
【0122】従って、3つのマイク61乃至63のうち
の、例えばマイク61に対応するインパルス応答H1
(f)があらかじめ判っていれば、他のマイク62(ま
たは63)に対応するインパルス応答H2(f)(また
はH3(f))は、式(6a)(または(6b))に基
づいて、マイク61に対応するインパルス応答H1
(f)、マイク61および62(または63)から出力
される音声X1(f)およびX2(f)(またはX3
(f))から推定(算出)することができることにな
る。
【0123】なお、インパルス応答H2(f)またはH
3(f)は、短時間フーリエ変換したものの、例えば時
間平均などをとることにより、その精度の向上を図るこ
とができる。
【0124】以上から、3つのマイク61乃至63のう
ちのいずれかに対応するインパルス応答(本実施例にお
いては、マイク61に対応するインパルス応答H1
(f))があらかじめ判っていれば、マイク61乃至6
3より出力された音声から、音場やマイクの特性に無関
係な音声信号S(f)が得られることが判る。
【0125】そして、このようにして得られた音声S
(f)を、例えば上述のHMM法に基づいて認識する場
合には、インパルス応答のあらかじめ判っているマイク
(装置に設けられるマイク61乃至63のうちのいずれ
かのマイクでなくても良い)を用い、そのマイクから出
力される音声を、判っているインパルス応答の逆関数で
変換(周波数軸上では乗算、時間軸上では畳み込み)す
ることにより得られる、音場やマイクの特性に無関係な
音声で学習を行うようにすれば良い。
【0126】これにより、学習時および認識時における
音声は、音場やマイクの特性に無関係なものとなり、マ
イクの特性だけでなく、音場の違いによって音声の認識
率が劣化することが防止されることになる。
【0127】なお、学習を行う場合、インパルス応答が
あらかじめ判っているマイクとしての、例えばマイク6
1より出力された音声を、そのまま用いるようにするこ
とができる。但し、この場合、認識時には、図11
(b)に示すように、学習に用いたマイク61からの音
声は、そのまま出力するようにし、マイク62または6
3からの音声は、伝達関数(インパルス応答の逆関数)
1/H2(f)または1/H3(f)ではなく、それに
マイク61に対応するインパルス応答H1(f)を乗算
した伝達関数H1(f)/H2(f)またはH1(f)
/H3(f)でそれぞれ変換する必要がある。
【0128】次に、図12は、以上の原理に基づいてマ
イクの特性だけでなく、音場の違いを補正する音声認識
装置を適用したナビゲーションシステムの構成例を示し
ている。図中、図1における場合と対応する部分につい
ては、同一の符号を付してある。即ち、このナビゲーシ
ョンシステムにおいては、マイク8に対応するインパル
ス応答H'を、基準マイクとしてのマイク2に対応す
る、あらかじめ判っているインパルス応答Hから、上述
したように推定(算出し)、マイク8の出力を、マイク
2の出力と同一の特性に補正する推定補正部72が、マ
イク8の後段に設けられているとともに、マイク2を用
いて、マイク2からの音声そのものから作成(学習)さ
れたモデル(HMM)があらかじめ記憶されているHM
M記憶部71が、HMM記憶部18に代えて設けられて
いる他は、図1における場合と同様に構成されている。
【0129】以上のように構成されるナビゲーションシ
ステムにおいて、まず、使用者の口元から所定の短い距
離(例えば、10cmなど)に、可搬のマイク2が移動
された後、推定モードボタンとされた、例えば操作ボタ
ン7が操作されると、装置のモードが、基準マイクとし
てのマイク2に対応する、あらかじめ判っているインパ
ルス応答Hから、マイク8に対応するインパルス応答
H'を推定する推定モードになる。
【0130】そして、使用者によって、所定の長さの発
声が行われると、推定補正部72において、マイク2に
対応するインパルス応答(マイク2の特性を含む、使用
者(発声者)の口元からマイク2までの伝達関数)、並
びにマイク2および8より出力される音声から、上述し
たようにしてマイク8に対応するインパルス応答H'が
推定(算出)される。
【0131】なお、マイク2に対応するインパルス応答
Hは、上述したように工場などにおいて、口元から所定
の短い距離(上述したように10cm)にマイク2を配
置して、あらかじめ測定され、推定補正部72の内蔵す
るメモリ(図示せず)に記憶されている。
【0132】マイク8に対応するインパルス応答H'が
推定(算出)されると、装置のモードが通常モードにな
り、その後、マイク2が有効にされた場合には、マイク
2から出力された音声は、そのまま分析部10で分析さ
れ、認識部11で、HMM記憶部71に記憶されている
マイク2からの音声そのものから作成(学習)されたモ
デル(HMM)を用いて音声認識される。
【0133】また、マイク8が有効にされた場合には、
マイク8から出力された音声は、推定補正部72におい
て、推定モード時に推定されたマイク8に対応するイン
パルス応答H'の逆関数1/H'に、マイク2に対応する
インパルス応答Hが乗算された伝達関数H/H'によっ
て変換(時間軸上では畳み込み、周波数軸上では乗算)
される。
【0134】即ち、推定補正部72において、マイク8
から出力された音声が、マイク2から出力された音声の
特性と同様の特性になるように変換される。
【0135】そして、この特性の変換された音声は、分
析部10で分析され、認識部11で、HMM記憶部71
に記憶されているモデル(HMM)を用いて音声認識さ
れる。
【0136】即ち、認識部11では、マイク2から出力
される音声と同様の特性に変換されたマイク8からの音
声が、マイク2からの音声そのものから作成(学習)さ
れたモデル(HMM)を用いて音声認識される。
【0137】従って、マイク8の特性だけでなく、音場
の違いを補正することができるので、音声の認識率の劣
化を防止することができる。さらに、HMM記憶部71
に記憶させるモデルを作成するときのマイクと音場は、
装置を使用するときと一致させる必要がなく、装置を容
易に大量生産することができる。
【0138】なお、この場合、図に示したように、マイ
ク2とマイク8などのマイクを常に複数設けておく必要
はない。即ち、マイク8に対応するインパルス応答H'
の推定(算出)後、基準マイクとしてのマイク2を取り
外し、装置に設けるマイクをマイク8の1つだけにする
ようにすることができる。
【0139】以上、本発明の音声認識装置をナビゲーシ
ョンシステムに適用した場合について説明したが、本発
明は、ナビゲーションシステムの他、例えばオーディオ
装置など、音声によって操作を行わせる場合に適用する
ことができる。
【0140】なお、本実施例においては、分析部10
で、音声の特徴量として、ケプストラム係数とデルタケ
プストラム係数を算出するようにしたが、これに限られ
るものではなく、例えば所定の周波数帯域ごとのパワー
などの他の特徴量を算出するようにすることができる。
【0141】さらに、本実施例では、認識部11で、H
MM法に基づいて音声認識を行うようにしたが、マルチ
テンプレート化の可能なあらゆるアルゴリズムに基づい
て音声認識を行うようにすることができる。
【0142】
【発明の効果】請求項1に記載のナビゲーションシステ
ムによれば、固定および可搬の入力手段に入力された音
声に基づいて、所定の制御が行われる。従って、例えば
固定の入力手段を運転者専用とし、可搬の入力手段を、
助手席や後部座席の同乗者用とすることができるので、
装置の利便性を向上させることができる。
【0143】請求項2に記載のナビゲーションシステム
によれば、可搬の入力手段と、操作手段とが一体に構成
されているので、装置の利便性をさらに向上させること
ができる。
【0144】請求項3に記載の音声認識装置によれば、
入力手段の特性に基づいて、入力手段の出力を補正した
後、入力手段に入力された音声を認識する。従って、入
力手段の特性によって、音声の認識率が劣化することが
防止される。
【0145】請求項4に記載の音声認識装置によれば、
入力手段が、複数設けられているので、装置の利便性を
向上させることができる。
【0146】請求項5に記載の音声認識装置によれば、
補正手段が、あらかじめ判っている基準入力手段の特性
に基づいて、入力手段の特性とともに音場を推定し、そ
の推定結果に基づいて、入力手段の出力を補正する。従
って、入力手段の特性や音場の違いによる、音声の認識
率の劣化が防止される。
【図面の簡単な説明】
【図1】本発明のナビゲーションシステムの一実施例の
構成を示すブロック図である。
【図2】図1の実施例のリモコン1の拡大図である。
【図3】図1の実施例の分析部10の動作を説明するフ
ローチャートである。
【図4】モデル(HMM)を示す図である。
【図5】モデル(HMM)を示す図である。
【図6】モデル(HMM)からコード系列a,b,aが
生起される確率を計算するためのトレリスを説明する図
である。
【図7】本発明の音声認識装置の一実施例の構成を示す
ブロック図である。
【図8】マイクの特性に基づく音声の認識率の劣化を防
止する音声認識装置の構成例を示すブロック図である。
【図9】マイクの特性に基づく音声の認識率の劣化を防
止する音声認識装置の構成例を示すブロック図である。
【図10】本発明の音声認識装置を適用したナビゲーシ
ョンシステムの一実施例の構成を示すブロック図であ
る。
【図11】マイクから出力される音声の特性を補正する
原理を説明するための図である。
【図12】本発明の音声認識装置を適用したナビゲーシ
ョンシステムの第2実施例の構成を示すブロック図であ
る。
【符号の説明】
1 リモコン 2 マイク 3 ランプ 4 マイクボタン 5 ジョイスティック 6,7 操作ボタン 8 マイク 9 ランプ 10 分析部 11 認識部 12 システムコントローラ 13 応答部 14 表示部 15 CDROM 16 アンテナ 17 受信部 18 HMM記憶部 21a,21b マイク 22a,22b 補正部 23,31a,31b,41,51 HMM記憶部 52 補正部 60 発声者 61乃至63 マイク 71 HMM記憶部 72 推定補正部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 音声を入力する、固定および可搬の入力
    手段と、 前記入力手段の出力を分析する分析手段と、 前記分析手段の分析結果に基づいて、前記音声を認識す
    る認識手段と、 前記認識手段の認識結果に基づいて、所定の制御を行う
    制御手段とを備えることを特徴とするナビゲーションシ
    ステム。
  2. 【請求項2】 前記ナビゲーションシステムを操作する
    ための操作手段をさらに備え、 前記可搬の入力手段と、前記操作手段とは一体に構成さ
    れていることを特徴とする請求項1に記載のナビゲーシ
    ョンシステム。
  3. 【請求項3】 音声を入力する入力手段と、 前記入力手段の特性に基づいて、前記入力手段の出力を
    補正する補正手段と、 前記補正手段によって補正された前記入力手段の出力を
    分析する分析手段と、 前記分析手段の分析結果に基づいて、前記音声を認識す
    る認識手段とを備えることを特徴とする音声認識装置。
  4. 【請求項4】 前記入力手段は、複数設けられているこ
    とを特徴とする請求項3に記載の音声認識装置。
  5. 【請求項5】 前記複数の入力手段のうちの少なくとも
    1つは、その特性があらかじめ判っている基準入力手段
    であり、 前記補正手段は、前記基準入力手段の特性に基づいて、
    前記入力手段の特性とともに音場を推定し、その推定結
    果に基づいて、前記入力手段の出力を補正することを特
    徴とする請求項4に記載の音声認識装置。
JP5058276A 1993-03-18 1993-03-18 ナビゲーションシステムおよび音声認識装置 Pending JPH06274190A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5058276A JPH06274190A (ja) 1993-03-18 1993-03-18 ナビゲーションシステムおよび音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5058276A JPH06274190A (ja) 1993-03-18 1993-03-18 ナビゲーションシステムおよび音声認識装置

Publications (1)

Publication Number Publication Date
JPH06274190A true JPH06274190A (ja) 1994-09-30

Family

ID=13079670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5058276A Pending JPH06274190A (ja) 1993-03-18 1993-03-18 ナビゲーションシステムおよび音声認識装置

Country Status (1)

Country Link
JP (1) JPH06274190A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09244866A (ja) * 1996-03-07 1997-09-19 Daimler Benz Ag 自動車における構成要素に対する操作装置
US5956684A (en) * 1995-10-16 1999-09-21 Sony Corporation Voice recognition apparatus, voice recognition method, map displaying apparatus, map displaying method, navigation apparatus, navigation method and car
US6067521A (en) * 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
JP2001222291A (ja) * 2000-02-08 2001-08-17 Kenwood Corp 音声認識装置を用いた制御装置
JP2002175096A (ja) * 2000-12-06 2002-06-21 Denso Corp マイク制御装置
JP2002304192A (ja) * 2001-04-05 2002-10-18 Denso Corp 音声認識装置
JP2003515177A (ja) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク 自然言語インターフェースコントロールシステム
JP2004505327A (ja) * 2000-07-28 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声命令で装置を制御するシステム
JP2006199159A (ja) * 2005-01-20 2006-08-03 Univ Nagoya 運転行動認識装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956684A (en) * 1995-10-16 1999-09-21 Sony Corporation Voice recognition apparatus, voice recognition method, map displaying apparatus, map displaying method, navigation apparatus, navigation method and car
US6067521A (en) * 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
JPH09244866A (ja) * 1996-03-07 1997-09-19 Daimler Benz Ag 自動車における構成要素に対する操作装置
US6411934B1 (en) 1996-03-07 2002-06-25 Daimlerchrysler Ag Operating system, particularly for components in a motor vehicle using speech recognition
JP2003515177A (ja) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク 自然言語インターフェースコントロールシステム
JP2001222291A (ja) * 2000-02-08 2001-08-17 Kenwood Corp 音声認識装置を用いた制御装置
JP2004505327A (ja) * 2000-07-28 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声命令で装置を制御するシステム
JP2002175096A (ja) * 2000-12-06 2002-06-21 Denso Corp マイク制御装置
JP2002304192A (ja) * 2001-04-05 2002-10-18 Denso Corp 音声認識装置
JP4724943B2 (ja) * 2001-04-05 2011-07-13 株式会社デンソー 音声認識装置
JP2006199159A (ja) * 2005-01-20 2006-08-03 Univ Nagoya 運転行動認識装置

Similar Documents

Publication Publication Date Title
EP1933303B1 (en) Speech dialog control based on signal pre-processing
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
US8688451B2 (en) Distinguishing out-of-vocabulary speech from in-vocabulary speech
US8880402B2 (en) Automatically adapting user guidance in automated speech recognition
US8831938B2 (en) Speech recognition adjustment based on manual interaction
US7826945B2 (en) Automobile speech-recognition interface
US7676363B2 (en) Automated speech recognition using normalized in-vehicle speech
US8423362B2 (en) In-vehicle circumstantial speech recognition
US7219058B1 (en) System and method for processing speech recognition results
US20040215458A1 (en) Voice recognition apparatus, voice recognition method and program for voice recognition
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
US20110161079A1 (en) Grammar and Template-Based Speech Recognition of Spoken Utterances
US20130080172A1 (en) Objective evaluation of synthesized speech attributes
JP2003532163A (ja) 車載音声認識システムのための選択的話者適合方法
US20120323577A1 (en) Speech recognition for premature enunciation
EP1471501A2 (en) Speech recognition apparatus, speech recognition method, and recording medium on which speech recognition program is computer-readable recorded
JP4104313B2 (ja) 音声認識装置、プログラム及びナビゲーションシステム
JPH06274190A (ja) ナビゲーションシステムおよび音声認識装置
CN110580901A (zh) 语音识别设备、包括该设备的车辆及该车辆控制方法
KR20010024521A (ko) 음성 인식 장치 및 방법, 내비게이션 장치, 휴대 전화장치 및 정보 처리 장치
JPH07319383A (ja) 地図表示装置
JPH08211897A (ja) 音声認識装置
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
JP7274901B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP4565768B2 (ja) 音声認識装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020531