JP2006071792A - Speech recognition device for vehicle - Google Patents
Speech recognition device for vehicle Download PDFInfo
- Publication number
- JP2006071792A JP2006071792A JP2004252785A JP2004252785A JP2006071792A JP 2006071792 A JP2006071792 A JP 2006071792A JP 2004252785 A JP2004252785 A JP 2004252785A JP 2004252785 A JP2004252785 A JP 2004252785A JP 2006071792 A JP2006071792 A JP 2006071792A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- recognition
- information
- vehicle information
- mahalanobis distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車室内で発せられた音声を正確に認識する車両の音声認識装置に関する。 The present invention relates to a vehicle voice recognition apparatus for accurately recognizing a voice uttered in a passenger compartment.
近年、車両においては、ドライバの利便性を図るため、煩わしいスイッチ入力等を省き、ドライバの発する音声を感知して、該当する車載装置の作動が行える様々なシステムが開発されている。 2. Description of the Related Art In recent years, various systems have been developed in vehicles, in which troublesome switch input and the like are omitted, and the sound generated by the driver can be sensed to operate the corresponding on-vehicle device for the convenience of the driver.
例えば、特開2000−20090号公報では、予め複数の言葉を記憶した単語辞書の中から使用者が発話した言葉を検索して特定することにより音声認識を行う車両の音声認識装置において、使用者の要求を、最初に少なくとも1つ一次要求として推定し、その一次要求から使用者の現在状態と未来状態とを推定して、その推定した状態から他の要求を推定する装置が開示されている。
しかしながら、上述の特許文献1で開示される音声認識装置では、使用者は一次要求を推定させるための発話に加えて、個人情報を入力する操作が必要であり設定に時間がかかり煩わしいという問題がある。また、使用者の要求を推定して、単語辞書の検索範囲を絞り、或いは、順序を変えたとしても、最終的には単語辞書で設定される単語の順位に縛られるため、精度の良い認識結果を得るには限界があるという問題がある。すなわち、単語辞書の順位は、前回までの単語の使用頻度等に影響されるものが多く、今回、使用者が置かれている状況が全く異なってしまっている場合でも、前回までの状況が考慮されて設定されてしまい誤認識となる場合がある。
However, in the speech recognition apparatus disclosed in the above-mentioned
本発明は上記事情に鑑みてなされたもので、使用者に段階的な入力操作を行わせることなく簡単に、使用者の発話フレーズを精度良く認識可能な車両の音声認識装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a vehicle voice recognition device that can easily recognize a user's utterance phrase with high accuracy without causing the user to perform stepwise input operations. Objective.
本発明は、音声を入力する音声入力手段と、自車情報を入力する自車情報入力手段と、上記入力した音声を予め設定しておいた単語辞書を検索して認識候補を選択する単語辞書検索手段と、上記認識候補が複数存在する際に、各認識候補毎に予め設定しておいた情報群を読み込み、該読み込んだ情報群と現在の自車情報とのマハラノビス距離を演算するマハラノビス距離演算手段と、上記各認識候補毎に演算したマハラノビス距離に基づき上記各認識候補の中から発話フレーズを決定する発話フレーズ決定手段とを備えたことを特徴としている。 The present invention relates to a voice input means for inputting voice, a vehicle information input means for inputting own vehicle information, and a word dictionary for selecting a recognition candidate by searching a word dictionary in which the input voice is preset. Mahalanobis distance that reads the information group set in advance for each recognition candidate and calculates the Mahalanobis distance between the read information group and the current vehicle information when there are a plurality of recognition candidates and the search means It is characterized by comprising a calculation means and an utterance phrase determination means for deciding an utterance phrase from among each of the recognition candidates based on the Mahalanobis distance calculated for each of the recognition candidates.
本発明による車両の音声認識装置によれば、使用者に段階的な入力操作を行わせることなく簡単に、使用者の発話フレーズを精度良く認識可能となる。 According to the vehicle speech recognition apparatus of the present invention, it is possible to easily recognize a user's utterance phrase with high accuracy without causing the user to perform stepwise input operations.
以下、図面に基づいて本発明の実施の形態を説明する。
図1〜図6は本発明の実施の一形態を示し、図1は車両の音声認識装置の機能ブロック図、図2は音声認識プログラムのフローチャート、図3は発話フレーズ毎に設定される情報とマハラノビス距離を演算する各値の表の説明図、図4は「厚い」「厚木」を発話フレーズの一例として設定される情報とマハラノビス距離を演算する各値の表の説明図、図5は図4における自車位置情報の説明図、図6は図4におけるマハラノビス距離を求める際の自車運転情報と自車位置情報の分布を示す説明図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 6 show an embodiment of the present invention, FIG. 1 is a functional block diagram of a vehicle voice recognition device, FIG. 2 is a flowchart of a voice recognition program, and FIG. 3 is information set for each utterance phrase. FIG. 4 is an explanatory diagram of a table of values for calculating the Mahalanobis distance, FIG. 4 is an explanatory diagram of a table of values to calculate the Mahalanobis distance, information set with “thick” and “Atsugi” as examples of utterance phrases, and FIG. 4 is an explanatory diagram of the own vehicle position information in FIG. 4, and FIG. 6 is an explanatory diagram showing the distribution of the own vehicle driving information and the own vehicle position information when obtaining the Mahalanobis distance in FIG.
図1において、符号1は車両の音声認識装置を示し、この音声認識装置1には、車両に構築した自車情報入力手段としての車内CAN通信(Controller Area Network(ISO規格)に準拠した通信)網2と接続されている。この車内CAN通信網2には、車載した様々な制御ユニット(例えば、エンジン制御ユニット、トランスミッション制御ユニット、ブレーキ制御ユニット等)が連結されており、車両に設けた車内温度センサ、車速センサ、ワイパースイッチ、ブレーキスイッチ等のセンサ、スイッチ類の信号や、各制御ユニットで演算されたデータが共有可能となっている。
In FIG. 1,
また、音声認識装置1には、同じく自車情報入力手段としてのナビゲーション装置3が接続されている。このナビゲーション装置3は、GPS受信器、4輪の車輪速センサ、その他の必要なセンサ・スイッチ類から構成されており、これらにより得られる車両の走行情報とCD−ROM等に記録された地図情報とをマップマッチング等の演算をしながら合成し、車両の現在位置及びその周辺の地図、目的地までの最適経路、距離、方角等を液晶ディスプレイ上に表示させたり、スピーカから音声による経路誘導を行ってガイドするようになっている。
In addition, a
更に、音声認識装置1には、ドライバ(使用者)からの音声を捉える音声入力手段としてのマイク4が接続されている。
Furthermore, the
そして、音声認識装置1は、後述する如く、マイク4から入力されるドライバからの音声を、車内CAN通信網2及びナビゲーション装置3からの情報を基に認識処理を行って発話フレーズを認識し、認識結果を、例えば、ナビゲーション装置3の入力システムや車内エアコンの入力システム等に出力して、これら必要な装置の設定を可変させる。
Then, as will be described later, the
すなわち、音声認識装置1は、音声抽出部11、辞書検索部12、マハラノビス距離演算部13、発話フレーズ決定出力部14から主要に構成されている。
That is, the
音声抽出部11は、マイク4から入力される音声をノイズ等を除去して音声のみを抽出し、辞書検索部12に出力する。
The
辞書検索部12は、単語辞書検索手段として設けられており、音声抽出部11から入力される音声に対し、対応する単語を予め設定しておいた単語辞書を検索し、認識候補として選出して、マハラノビス距離演算部13に出力する。ここで、辞書検索部12は、例えば「厚い」と「暑い」のような同音異義語以外にも、「暑い」と「厚木」のような語尾の部分が不明瞭な場合であっても、それらの単語を全て認識候補として検索し、今までの使用頻度等から順位を付けて出力するようになっている。
The
また、辞書検索部12には、発話フレーズ決定出力部14からドライバの発話フレーズVに該当する認識結果が入力され、予め設定される単語辞書の認識候補の順番が学習更新される。
The
マハラノビス距離演算部13は、辞書検索部12から認識候補が入力され、車内CAN通信網2から例えば車内温度、車速等の自車運転情報が入力され、ナビゲーション装置3から認識候補の方向と自車両の走行する方角との角度等の自車位置情報や認識候補までの自車両の距離等の目的地情報が入力される。
The Mahalanobis
マハラノビス距離演算部13により行われる処理を、図3の表を基に説明する。
すなわち、ドライバの実際の発話フレーズをVとし、この発話フレーズVに対して辞書検索部12で検索された認識候補をA、B、Cとする。これら認識候補A、B、Cには、予め複数の車両情報(Ai、Bi、Ci:i=1,2,…)が設定されており、それぞれの車両情報(Ai、Bi、Ci:i=1,2,…)は、車内CAN通信網2からの自車運転情報Pi(i=1,2,…)、ナビゲーション装置3からの自車位置情報Qi(i=1,2,…)、目的地情報Ri(i=1,2,…)から成っている(Ai=(P1,P2,…,Q1,Q2,…,R1,R2,…)、Bi=(P1,P2,…,Q1,Q2,…,R1,R2,…)、Ci=(P1,P2,…,Q1,Q2,…,R1,R2,…))。
Processing performed by the Mahalanobis
That is, let V be the actual utterance phrase of the driver, and A, B, and C be the recognition candidates searched by the
そして、それぞれの車両情報(Ai、Bi、Ci:i=1,2,…)毎に群が構成されている。すなわち、群GAはA1、A2、…から構成され、群GBはB1、B2、…から構成され、群GCはC1、C2、…から構成される。 A group is formed for each vehicle information (Ai, Bi, Ci: i = 1, 2,...). That is, the group GA is composed of A1, A2,..., The group GB is composed of B1, B2,..., And the group GC is composed of C1, C2,.
また、平均MAは、群GAにおける各情報毎に設定され、MA=(Pav1,Pav2,…,Qav1,Qav2,…,Rav1,Rav2,…)である。ここで、Pav1は車両情報Aiにおける自車運転情報P1の平均、Pav2は車両情報Aiにおける自車運転情報P2の平均、Qav1は車両情報Aiにおける自車位置情報Q1の平均、Qav2は車両情報Aiにおける自車位置情報Q2の平均、Rav1は車両情報Aiにおける目的地情報R1の平均、Rav2は車両情報Aiにおける目的地情報R2の平均である。 The average MA is set for each piece of information in the group GA, and MA = (Pav1, Pav2,..., Qav1, Qav2,..., Rav1, Rav2,...). Here, Pav1 is an average of own vehicle driving information P1 in vehicle information Ai, Pav2 is an average of own vehicle driving information P2 in vehicle information Ai, Qav1 is an average of own vehicle position information Q1 in vehicle information Ai, and Qav2 is vehicle information Ai. The average of the vehicle position information Q2 in the vehicle information, Rav1 is the average of the destination information R1 in the vehicle information Ai, and Rav2 is the average of the destination information R2 in the vehicle information Ai.
同様に、平均MBは、群GBにおける各情報毎に設定され、MB=(Pav1,Pav2,…,Qav1,Qav2,…,Rav1,Rav2,…)である。ここで、Pav1は車両情報Biにおける自車運転情報P1の平均、Pav2は車両情報Biにおける自車運転情報P2の平均、Qav1は車両情報Biにおける自車位置情報Q1の平均、Qav2は車両情報Biにおける自車位置情報Q2の平均、Rav1は車両情報Biにおける目的地情報R1の平均、Rav2は車両情報Biにおける目的地情報R2の平均である。 Similarly, the average MB is set for each piece of information in the group GB, and MB = (Pav1, Pav2,..., Qav1, Qav2,..., Rav1, Rav2,...). Here, Pav1 is the average of the own vehicle driving information P1 in the vehicle information Bi, Pav2 is the average of the own vehicle driving information P2 in the vehicle information Bi, Qav1 is the average of the own vehicle position information Q1 in the vehicle information Bi, and Qav2 is the vehicle information Bi. The average of the vehicle position information Q2 at Rv1, Rav1 is the average of the destination information R1 in the vehicle information Bi, and Rav2 is the average of the destination information R2 in the vehicle information Bi.
更に、平均MCは、群GCにおける各情報毎に設定され、MC=(Pav1,Pav2,…,Qav1,Qav2,…,Rav1,Rav2,…)である。ここで、Pav1は車両情報Ciにおける自車運転情報P1の平均、Pav2は車両情報Ciにおける自車運転情報P2の平均、Qav1は車両情報Ciにおける自車位置情報Q1の平均、Qav2は車両情報Ciにおける自車位置情報Q2の平均、Rav1は車両情報Ciにおける目的地情報R1の平均、Rav2は車両情報Ciにおける目的地情報R2の平均である。 Further, the average MC is set for each piece of information in the group GC, and MC = (Pav1, Pav2,..., Qav1, Qav2,..., Rav1, Rav2,...). Here, Pav1 is an average of own vehicle driving information P1 in vehicle information Ci, Pav2 is an average of own vehicle driving information P2 in vehicle information Ci, Qav1 is an average of own vehicle position information Q1 in vehicle information Ci, and Qav2 is vehicle information Ci. The vehicle position information Q2 in the vehicle information Ci, Rav1 is the average of the destination information R1 in the vehicle information Ci, Rav2 is the average of the destination information R2 in the vehicle information Ci.
分散共分散行列の成分は、各群における車両情報の各成分から算出される分散と共分散である。σAは、群GAにおける、各Pi毎の分散、各Qi毎の分散、各Ri毎の分散、Piの各組み合わせ毎の共分散、Qiの各組み合わせ毎の共分散、及び、Riの各組み合わせごとの共分散を成分にもつ行列である。σBは、群GBにおける、各Pi毎の分散、各Qi毎の分散、各Ri毎の分散、Piの各組み合わせ毎の共分散、Qiの各組み合わせ毎の共分散、及び、Riの各組み合わせごとの共分散を成分にもつ行列である。σCは、群GCにおける、各Pi毎の分散、各Qi毎の分散、各Ri毎の分散、Piの各組み合わせ毎の共分散、Qiの各組み合わせ毎の共分散、及び、Riの各組み合わせごとの共分散を成分にもつ行列である。具体的には、σAについて述べると、σAは、P1の分散、P2の分散、…、Q1の分散、Q2の分散、…、R1の分散、R2の分散、…、P1とP2とによる共分散、P2とP3との共分散、…、Q1とQ2とによる共分散、Q2とQ3との共分散、…、R1とR2とによる共分散、及び、R2とR3との共分散、…の成分をもつ。σB、σCについては、σAと同様であるため具他的な説明は省略する。 The components of the variance-covariance matrix are the variance and covariance calculated from each component of the vehicle information in each group. σA is dispersion for each Pi, dispersion for each Qi, dispersion for each Ri, covariance for each combination of Pi, covariance for each combination of Qi, and each combination of Ri in the group GA Is a matrix with the covariance of. σB is the variance for each Pi, variance for each Qi, variance for each Ri, covariance for each combination of Pi, covariance for each combination of Qi, and each combination of Ri in the group GB Is a matrix with the covariance of. σC is the variance for each Pi, variance for each Qi, variance for each Ri, covariance for each combination of Pi, covariance for each combination of Qi, and each combination of Ri in the group GC Is a matrix with the covariance of. Specifically, σA will be described. ΣA is P1 dispersion, P2 dispersion,..., Q1 dispersion, Q2 dispersion,... R1 dispersion, R2 dispersion,..., P1 and P2 covariance , P2 and P3 covariance, ..., Q1 and Q2 covariance, Q2 and Q3 covariance, ..., R1 and R2 covariance, and R2 and R3 covariance, ... It has. Since σB and σC are the same as σA, specific descriptions thereof are omitted.
そして、ドライバが発話フレーズVを発話した際の車内CAN通信網2から入力される車両情報Inが、どの群GA、GB、GCに所属するのかを決めるために、車両情報Inと各群のマハラノビス距離を演算する。車両情報Inと群GAのマハラノビス距離DAは、以下の(1)式により演算される。
DA・DA=XA・(σA)−1・YA …(1)
ここで、(σA)−1は分散共分散行列σAの逆行列、XAは車両情報Inと平均MAの差の行ベクトル表示、YAは車両情報Inと平均MAの差の縦ベクトル表示である。
Then, in order to determine which group GA, GB, GC the vehicle information In inputted from the in-vehicle
DA · DA = XA · (σA) −1 · YA (1)
Here, (σA) −1 is an inverse matrix of the variance-covariance matrix σA, XA is a row vector display of the difference between the vehicle information In and the average MA, and YA is a vertical vector display of the difference between the vehicle information In and the average MA.
同様に、車両情報Inと群GBのマハラノビス距離DBは、以下の(2)式により演算される。
DB・DB=XB・(σB)−1・YB …(2)
ここで、(σB)−1は分散共分散行列σBの逆行列、XBは車両情報Inと平均MBの差の行ベクトル表示、YBは車両情報Inと平均MBの差の縦ベクトル表示である。
Similarly, the vehicle information In and the Mahalanobis distance DB of the group GB are calculated by the following equation (2).
DB · DB = XB · (σB) −1 · YB (2)
Here, (σB) −1 is an inverse matrix of the variance-covariance matrix σB, XB is a row vector display of the difference between the vehicle information In and the average MB, and YB is a vertical vector display of the difference between the vehicle information In and the average MB.
また、車両情報Inと群GCのマハラノビス距離DCは、以下の(3)式により演算される。
DC・DC=XC・(σC)−1・YC …(3)
ここで、(σC)−1は分散共分散行列σCの逆行列、XCは車両情報Inと平均MCの差の行ベクトル表示、YCは車両情報Inと平均MCの差の縦ベクトル表示である。
Further, the vehicle information In and the Mahalanobis distance DC of the group GC are calculated by the following equation (3).
DC · DC = XC · (σC) −1 · YC (3)
Here, (σC) −1 is an inverse matrix of the variance-covariance matrix σC, XC is a row vector display of the difference between the vehicle information In and the average MC, and YC is a vertical vector display of the difference between the vehicle information In and the average MC.
このようにして、各群GA、GB、GCについて演算されたマハラノビス距離DA、DB、DCは、発話フレーズ決定出力部14に出力される。すなわち、マハラノビス距離演算部13は、マハラノビス距離演算手段として設けられている。
In this way, the Mahalanobis distances DA, DB, and DC calculated for the groups GA, GB, and GC are output to the utterance phrase
発話フレーズ決定出力部14は、マハラノビス距離演算部13から各群GA、GB、GCについて演算されたマハラノビス距離DA、DB、DCが入力され、マハラノビス距離DA、DB、DCが最小となった群を、その車両情報Inが所属する群として決定し、ドライバの発話フレーズVに該当する認識結果として決定し、辞書検索部12、及び、音声認識装置1から外部に対して出力する。すなわち、発話フレーズ決定出力部14は発話フレーズ決定手段として設けられている。
The utterance phrase
尚、辞書検索部12での単語辞書検索の結果、認識候補が1つのみであった場合には、マハラノビス距離演算部13ではその認識候補についてマハラノビス距離を演算することはせず、そのまま発話フレーズ決定出力部14に出力し、発話フレーズ決定出力部14はこの認識候補をドライバの発話フレーズVに該当する認識結果として決定し出力する。
Note that if the result of word dictionary search in the
また、発話フレーズ決定出力部14は、マハラノビス距離演算部13から全く同じ値のマハラノビス距離の群が入力された場合には、辞書検索部12で検索された認識候補順のもっとも上位の認識候補をドライバの発話フレーズVに該当する認識結果として決定し出力する。
In addition, when a group of Mahalanobis distances having exactly the same value is input from the Mahalanobis
次に、音声認識装置1で実行される音声認識プログラムを、図2のフローチャートで説明する。
まず、ステップ(以下、「S」と略称)101で、音声抽出部11は、マイク4から入力される音声をノイズ等を除去して音声のみを抽出する。
Next, the speech recognition program executed by the
First, in step (hereinafter abbreviated as “S”) 101, the
次いで、S102に進み、辞書検索部12は、S101で抽出された音声に対し、対応する単語を予め設定しておいた単語辞書を検索し、認識候補として選出する。
Next, in S102, the
そして、S103に進み、S102の認識候補は1つか否か判定し、1つの場合にはS104に進んで、発話フレーズ決定出力部14は、発話フレーズをその認識候補に決定し、S105に進んで、認識結果を出力し、プログラムを抜ける。
And it progresses to S103, it is determined whether the recognition candidate of S102 is one, and when it is one, it progresses to S104, the utterance phrase
一方、S103で認識候補が1つではない、すなわち複数と判定した場合には、S106に進み、マハラノビス距離演算部13は、各認識候補A、B、Cに設定されている車両情報(Ai、Bi、Ci:i=1,2,…)を読み込む。
On the other hand, if it is determined in S103 that there is not one recognition candidate, that is, a plurality of recognition candidates, the process proceeds to S106, and the Mahalanobis
次いで、S107に進み、マハラノビス距離演算部13は、現在の車両情報Inを読み込み、S108に進んで、マハラノビス距離演算部13は、前述の如く、車両情報Inの各認識候補A、B、Cに対する各群GA、GB、GCのマハラノビス距離DA、DB、DCを演算する。
Next, the process proceeds to S107, the Mahalanobis
次に、S108に進み、発話フレーズ決定出力部14は、マハラノビス距離DA、DB、DCが最小となった群を、その車両情報Inが所属する群として決定し、ドライバの発話フレーズVに該当する認識結果として決定し出力してプログラムを抜ける。
Next, proceeding to S108, the utterance phrase
また、発話フレーズ決定出力部14は、全く同じ値のマハラノビス距離があった場合には、辞書検索部12で検索された認識候補順のもっとも上位の認識候補をドライバの発話フレーズVに該当する認識結果として決定し出力してプログラムを抜ける。
The utterance phrase
次に、音声認識装置1で実行される音声認識を、より具体的な例で説明する。ここでは、ドライバが「暑い」と発話し、すなわち、ドライバの発話フレーズVが「暑い」の場合で説明する。
Next, speech recognition executed by the
これに対して、辞書検索部12は、予め設定しておいた単語辞書を検索し、認識候補として「暑い」「厚木」を選出したものとする。この「暑い」「厚木」に対して、図3に対応して作成した表を図4に示す。すなわち、認識候補「暑い」に対して予め設定されている車両情報はA1〜A4であり、認識候補「厚木」に対して予め設定されている車両情報はB1〜B4である。そして、自車両情報としては、P1のみが設定されており、これは車内温度である。また、自車位置情報としては、Q1のみが設定されており、これは認識候補の地名の位置を目的地として、現在の車両進行方向との角度である(図5参照)。また、目的地情報は設定されていない。
In contrast, it is assumed that the
こうして、車内温度を横軸に角度を縦軸にとり座標に示したものが図6である。認識候補「暑い」の車両情報A1〜A4の分布は白丸でプロットされ、認識候補「厚木」の車両情報B1〜B4の分布は×点でプロットされる。また、図6中のInの点(車内温度25℃,角度60度)は現在の車両情報の点とする。このような分布状態において、現在の車両情報Inが認識候補「暑い」の車両情報A1〜A4の分布の群GAに属するのか、認識候補「厚木」の車両情報B1〜B4の分布の群GBに属するのかをマハラノビス距離を演算することにより判断するのである。
FIG. 6 shows the in-vehicle temperature in the horizontal axis and the angle in the vertical axis. The distribution of the vehicle information A1 to A4 of the recognition candidate “hot” is plotted with white circles, and the distribution of the vehicle information B1 to B4 of the recognition candidate “Atsugi” is plotted with x points. Further, the In point (in-
こうして、現在の車両情報Inと認識候補「暑い」の車両情報A1〜A4の分布の群GAまでのマハラノビス距離DAが現在の車両情報Inと認識候補「厚木」の車両情報B1〜B4の分布の群GBまでのマハラノビス距離DBより小さい場合には、現在の車両情報Inは、認識候補「暑い」の車両情報A1〜A4の分布の群GAに所属していると判断し、「暑い」を認識結果として出力するのである。 Thus, the Mahalanobis distance DA to the group GA of the distribution of the current vehicle information In and the recognition candidate “hot” vehicle information A1 to A4 is the distribution of the current vehicle information In and the vehicle information B1 to B4 of the recognition candidate “Atsugi”. If it is smaller than the Mahalanobis distance DB to the group GB, the current vehicle information In is judged to belong to the group GA of the distribution of the vehicle information A1 to A4 of the recognition candidate “hot”, and “hot” is recognized. The result is output.
このように、本発明の実施の形態によれば、ドライバの発話フレーズVが認識候補のどれに属するのか、マハラノビス距離という統計的分析により判断するので、現在の状況を反映した精度の良い認識結果を得ることができる。 As described above, according to the embodiment of the present invention, it is determined by the statistical analysis of Mahalanobis distance to which of the recognition candidates the driver's utterance phrase V belongs, so that the accurate recognition result reflecting the current situation is obtained. Can be obtained.
また、認識に際しては現在の状況を反映して判断されるため、ドライバは発話以外の入力操作をする必要もなく使い勝手が良い。 Further, since the determination is made by reflecting the current situation at the time of recognition, the driver does not need to perform an input operation other than the utterance and is easy to use.
尚、本発明の実施の形態では、認識候補として「暑い」「厚木」の例を説明しているが、これに限るものではない。 In the embodiment of the present invention, examples of “hot” and “Atsugi” are described as recognition candidates, but the present invention is not limited to this.
1 音声認識装置
2 車内CAN通信網(自車情報入力手段)
3 ナビゲーション装置(自車情報入力手段)
4 マイク(音声入力手段)
11 音声抽出部
12 辞書検索部(単語辞書検索手段)
13 マハラノビス距離演算部(マハラノビス距離演算手段)
14 発話フレーズ決定出力部(発話フレーズ決定手段)
代理人 弁理士 伊 藤 進
1
3. Navigation device (vehicle information input means)
4 Microphone (voice input means)
11
13 Mahalanobis distance calculator (Mahalanobis distance calculator)
14 Utterance phrase determination output section (utterance phrase determination means)
Agent Patent Attorney Susumu Ito
Claims (2)
自車情報を入力する自車情報入力手段と、
上記入力した音声を予め設定しておいた単語辞書を検索して認識候補を選択する単語辞書検索手段と、
上記認識候補が複数存在する際に、各認識候補毎に予め設定しておいた情報群を読み込み、該読み込んだ情報群と現在の自車情報とのマハラノビス距離を演算するマハラノビス距離演算手段と、
上記各認識候補毎に演算したマハラノビス距離に基づき上記各認識候補の中から発話フレーズを決定する発話フレーズ決定手段と、
を備えたことを特徴とする車両の音声認識装置。 Voice input means for inputting voice;
Own vehicle information input means for inputting own vehicle information;
A word dictionary search means for selecting a recognition candidate by searching a word dictionary in which the input voice is set in advance;
When there are a plurality of recognition candidates, a Mahalanobis distance calculation means for reading a preset information group for each recognition candidate and calculating a Mahalanobis distance between the read information group and current vehicle information;
An utterance phrase determining means for determining an utterance phrase from the recognition candidates based on the Mahalanobis distance calculated for each of the recognition candidates;
A voice recognition device for a vehicle, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004252785A JP2006071792A (en) | 2004-08-31 | 2004-08-31 | Speech recognition device for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004252785A JP2006071792A (en) | 2004-08-31 | 2004-08-31 | Speech recognition device for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006071792A true JP2006071792A (en) | 2006-03-16 |
Family
ID=36152535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004252785A Pending JP2006071792A (en) | 2004-08-31 | 2004-08-31 | Speech recognition device for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006071792A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100929589B1 (en) | 2007-10-31 | 2009-12-03 | 한양대학교 산학협력단 | Sound quality evaluation method using MTS |
-
2004
- 2004-08-31 JP JP2004252785A patent/JP2006071792A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100929589B1 (en) | 2007-10-31 | 2009-12-03 | 한양대학교 산학협력단 | Sound quality evaluation method using MTS |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5315289B2 (en) | Operating system and operating method | |
US9715877B2 (en) | Systems and methods for a navigation system utilizing dictation and partial match search | |
US10950233B2 (en) | Dialogue system, vehicle having the same and dialogue processing method | |
JP3948441B2 (en) | Voice recognition method and in-vehicle device | |
US11240342B2 (en) | Agent device, method of controlling agent device, and computer-readable non-transient storage medium | |
JP5217838B2 (en) | In-vehicle device operating device and in-vehicle device operating method | |
JP2020149106A (en) | Agent device, agent system, server device, method for controlling agent device, and program | |
CN114758653A (en) | Dialogue system, vehicle with dialogue system, and method for controlling dialogue system | |
JP5218459B2 (en) | Vehicle information terminal and program | |
JP2020144712A (en) | Agent device, control method of agent device, and program | |
JP4770374B2 (en) | Voice recognition device | |
US11783806B2 (en) | Dialogue system and dialogue processing method | |
JP2006071792A (en) | Speech recognition device for vehicle | |
JP4938719B2 (en) | In-vehicle information system | |
JP2020144275A (en) | Agent device, control method of agent device, and program | |
US20140136204A1 (en) | Methods and systems for speech systems | |
JP7175221B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
JP4637793B2 (en) | Facility search device | |
US20200294502A1 (en) | Agent device, method for controlling agent device, and storage medium | |
WO2019234486A1 (en) | Speech recognition system, information processing device and server | |
KR101804766B1 (en) | Voice recognition apparatus, vehicle having the same and control method for the vehicle | |
KR20060098673A (en) | Method and apparatus for speech recognition | |
JP2006071791A (en) | Speech recognition device for vehicle | |
WO2022208783A1 (en) | Voice recognition device and voice recognition method | |
JP7274901B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM |