JPH11126092A - Voice recognition device and on-vehicle voice recognition device - Google Patents

Voice recognition device and on-vehicle voice recognition device

Info

Publication number
JPH11126092A
JPH11126092A JP9289502A JP28950297A JPH11126092A JP H11126092 A JPH11126092 A JP H11126092A JP 9289502 A JP9289502 A JP 9289502A JP 28950297 A JP28950297 A JP 28950297A JP H11126092 A JPH11126092 A JP H11126092A
Authority
JP
Japan
Prior art keywords
voice
recognition
surrounding environment
user
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9289502A
Other languages
Japanese (ja)
Inventor
Ryuji Yamaguchi
竜司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP9289502A priority Critical patent/JPH11126092A/en
Publication of JPH11126092A publication Critical patent/JPH11126092A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a voice recognition device capable of suitably dealing with the situation when a voice uttered by a user isn't recognized due to a bad ambient environment. SOLUTION: The user's voice is inputted from a microphone 16 to be recognized by a voice recognition part 18 through processing in an acoustic processing part 14. When the voice isn't recognized, a signal processing control part 12 specifies the cause of nonrecognition. When the voice is buried in the noise, it is judged that the cause of the nonrecognition exists in the ambient environment of the microphone 16. Then, a body ECU 30 controls an equipment deteriorating the ambient environment of the microphone 16 to improve the ambient enviforment. For instance, when a power window 32 is opened, this window 32 is closed. Since the ambient environment is improved, the voice uttered next can be recognized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声認識装置、特
に、ユーザの発声した音声を認識する音声認識装置に関
する。本発明の音声認識装置は、車両へ搭載するのに適
している。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device, and more particularly to a voice recognition device for recognizing a voice uttered by a user. The voice recognition device of the present invention is suitable for mounting on a vehicle.

【0002】[0002]

【従来の技術】従来、自動車の車室内には、パワーウィ
ンドウやヘッドライト等の各種の車載機器に接続された
操作スイッチが設置されており、ユーザは、操作スイッ
チを使って車載機器を操作していた。しかし、ユーザが
運転に対してより集中できるように、機器操作をできる
だけ容易にすることが望まれる。このような要求に応え
るためには、音声認識装置を設けることが効果的と考え
られる。音声コマンドの発声による機器操作が可能とな
り、操作性の向上が図られる。
2. Description of the Related Art Conventionally, operation switches connected to various on-vehicle devices such as a power window and a headlight are installed in a vehicle cabin. A user operates the on-vehicle devices using the operation switches. I was However, it is desirable to make the device operation as easy as possible so that the user can concentrate on driving. In order to meet such a demand, it is considered effective to provide a voice recognition device. The device can be operated by uttering a voice command, thereby improving operability.

【0003】音声認識装置は、人が発声した音声を認識
する装置であり、各種の電子機器等の入力装置として音
声認識装置を利用することが提案されている。ユーザが
発声した音声はデジタルデータに変換される。「音声」
は、文、単語、文字、記号、数字などである。一例で
は、デジタル音声データに対してケプストラム(cepust
rum)を使うデータ処理が行われ、ユーザが何を言った
のかが認識される。音声認識装置については、例えば、
「音響・音声工学」(古井貞煕、近代科学社、174頁
〜)にて説明されている。
[0003] A voice recognition device is a device for recognizing voice uttered by a person, and it has been proposed to use a voice recognition device as an input device for various electronic devices. The voice uttered by the user is converted to digital data. "voice"
Is a sentence, word, character, symbol, number, and the like. In one example, cepstrum (cepust) is applied to digital audio data.
rum), and recognizes what the user said. For a speech recognition device, for example,
This is described in "Sound and Speech Engineering" (Sadahiro Furui, Modern Science Co., pp. 174-).

【0004】現状では、100%の確率で正しく音声を
認識することは難しので、トークバック機能を備えるこ
とが周知である。音声認識装置には音声合成装置が設け
られる。音声が認識されると、認識結果を示す合成音声
が生成され、出力される。ユーザは、認識結果を知り、
認識結果が正しいか否かを判断する。そして、認識結果
が誤っているときには、再度、ユーザは音声を発声して
認識装置へ入力する。このようなトークバック機能によ
り、正しい認識結果が確実に得られる。トークバック機
能を備えた音声認識装置は、例えば、特開昭63−38
996号公報や特開平1−177192号公報に記載さ
れている。
At present, it is difficult to correctly recognize voice with a probability of 100%, and therefore, it is well known that a talkback function is provided. The speech recognition device is provided with a speech synthesis device. When the speech is recognized, a synthesized speech indicating the recognition result is generated and output. The user knows the recognition result,
It is determined whether the recognition result is correct. When the recognition result is incorrect, the user utters a voice again and inputs the voice to the recognition device. With such a talkback function, a correct recognition result can be reliably obtained. A speech recognition device having a talkback function is disclosed in, for example,
No. 996 and JP-A-1-177192.

【0005】[0005]

【発明が解決しようとする課題】音声認識装置では、ユ
ーザが音声を発声したにもかかわらず、その音声を認識
できないことがある(以下、不認識という)。不認識の
原因は、ユーザの話し方にあることがあり、例えばユー
ザの話す速さが遅すぎるときに不認識が発生する。ま
た、不認識の原因が、マイク等の音声入力手段の周囲環
境にあることもある。典型的には、マイクに入る周囲雑
音にユーザの音声が埋もれてしまう結果、不認識が発生
する。
In the speech recognition apparatus, there are cases where the speech cannot be recognized even though the user utters the speech (hereinafter referred to as non-recognition). The cause of the unrecognition may be in how the user speaks. For example, the unrecognition occurs when the user speaks too slowly. Further, the cause of the non-recognition may be in the environment around the voice input means such as a microphone. Typically, the user's voice is buried in ambient noise entering the microphone, resulting in unrecognition.

【0006】特開平1−177192号公報では、周囲
雑音に起因する不認識を防止するため、認識装置本体か
ら脱着可能な音声入力手段としての受話器が設けられて
いる。ユーザが受話器を口に近づけて持つことで、騒音
環境下での音声認識を確実にしている。すなわち、受話
器という特別な構造を設けることで、周囲環境に左右さ
れない音声認識の実現を図っている。
In Japanese Patent Application Laid-Open No. 1-177192, a handset is provided as voice input means which is detachable from the recognition device main body in order to prevent non-recognition due to ambient noise. When the user holds the receiver close to the mouth, voice recognition in a noisy environment is ensured. In other words, by providing a special structure called a receiver, voice recognition independent of the surrounding environment is realized.

【0007】しかしながら、車両では、ユーザが運転し
ながら音声認識機能を利用する。ユーザが運転中に受話
器を取り上げるような構成では、手を使わずに車載機器
を操作できるという音声認識装置の利点が十分に生かさ
れない。また、受話器のためのスペースを車室内に設け
なければならないという不利がある。従って、周囲環境
による音声の不認識発生を防止するために受話器を設け
るというのは、車両では得策とはいえない。また、車両
に限らずに他の場面でも、受話器のような構成は不要で
あることが、操作性の面からも、装置スペースの面から
も望ましい。
However, in a vehicle, a user utilizes a voice recognition function while driving. In a configuration in which the user picks up the handset while driving, the advantage of the voice recognition device that can operate the in-vehicle device without using the hand is not sufficiently utilized. Another disadvantage is that a space for the handset must be provided in the vehicle interior. Therefore, providing a handset to prevent non-recognition of voice due to the surrounding environment is not a good idea for a vehicle. Further, it is desirable not only in a vehicle but also in other situations that a configuration like a receiver is not necessary from the viewpoint of operability and the space of the device.

【0008】本発明は上記課題に鑑みてなされたもので
あり、その目的は、周囲環境が悪いために音声の不認識
が発生したときに好適な対応ができる音声認識装置を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a voice recognition apparatus capable of appropriately coping with a case where voice recognition is not performed due to a bad surrounding environment. .

【0009】[0009]

【課題を解決するための手段】本発明の音声認識装置
は、ユーザの発声した音声を入力する音声入力手段と、
入力された音声を認識する音声認識手段と、音声認識手
段にて音声の不認識が発生した場合に、不認識の原因を
特定する原因特定手段と、不認識の原因が音声入力手段
の周囲環境にある場合に、周囲環境を改善する改善処理
を行う周囲環境改善手段と、を有する。
According to the present invention, there is provided a voice recognition apparatus comprising: a voice input unit for inputting a voice uttered by a user;
Voice recognition means for recognizing the input voice, cause identification means for specifying the cause of the non-recognition when the voice recognition means does not recognize the voice, and the surrounding environment of the voice input means And a surrounding environment improving means for performing an improving process for improving the surrounding environment.

【0010】また、本発明の車両用音声認識装置は、車
両に搭載され、ユーザの発声した音声を認識する装置で
あって、ユーザの発声した音声を入力する音声入力手段
と、入力された音声を認識する音声認識手段と、音声認
識手段にて音声の不認識が発生した場合に、不認識の原
因を特定する原因特定手段と、音声入力手段の周囲環境
に影響を及ぼす少なくとも1の車載機器を制御する機器
制御手段と、を有し、前記機器制御手段は、前記不認識
の原因が前記周囲環境にある場合に、前記周囲環境を悪
化させている車載機器を制御して、前記周囲環境を改善
する。
Further, the vehicle voice recognition device of the present invention is a device mounted on a vehicle for recognizing a voice uttered by a user, comprising: voice input means for inputting a voice uttered by the user; Recognizing means for recognizing voice, cause specifying means for specifying a cause of non-recognition when voice non-recognition occurs in the voice recognizing means, and at least one in-vehicle device which affects the surrounding environment of the voice input means Device control means for controlling the on-vehicle device that is deteriorating the surrounding environment when the cause of the unrecognition is in the surrounding environment, To improve.

【0011】本発明によれば、不認識が発生したとき
に、原因特定手段により、不認識の原因が周囲環境にあ
るか否かが調べられる。周囲環境は、典型的には、騒音
に関するものである。騒音が大きいとユーザの音声がノ
イズに埋もれ、不認識が発生しやすい。そして、不認識
の原因が周囲環境にある場合には、車載機器の制御によ
り、周囲環境が改善される。これにより、不認識の原因
が除去され、以降の不認識の発生を低減することができ
る。ユーザは、自分の発声した音声が認識されなかった
ときでも、次の発声により音声を音声認識装置に認識さ
せることができ、認識装置をより便利に使うことができ
る。ここでは、特に車両用音声認識装置を取り上げて本
発明の作用効果を説明したが、車両以外に設けられる音
声認識装置に本発明が適用された場合も同様である。
According to the present invention, when unrecognition occurs, the cause identification means checks whether or not the cause of the unrecognition is in the surrounding environment. The surrounding environment is typically related to noise. If the noise is loud, the user's voice is buried in the noise, and non-recognition easily occurs. If the cause of the non-recognition is the surrounding environment, the surrounding environment is improved by controlling the on-vehicle device. Thereby, the cause of the non-recognition is removed, and the occurrence of subsequent non-recognition can be reduced. The user can make the speech recognition device recognize the voice by the next utterance even when the voice uttered by the user is not recognized, and can use the recognition device more conveniently. Here, the operation and effects of the present invention have been described with particular reference to a vehicle voice recognition device, but the same applies to a case where the present invention is applied to a voice recognition device provided other than in a vehicle.

【0012】なお、上記の騒音は、音声認識にとっての
騒音である。従って、上記の騒音には、オーディオ出力
やエアーコンディショナの送風音のように通常は騒音と
言われないものも含まれる。
The above noise is noise for voice recognition. Therefore, the above-mentioned noises include those which are not usually called noises, such as audio output and air-conditioner blowing noise.

【0013】また、本発明で制御される機器には、例え
ば、エアーコンディショナのように、自らの出す音によ
って周囲環境を悪化させているものもある。また、窓の
ように、自らは騒音等を発していないが、周囲環境を悪
化させてしまっているものもある。本発明の制御対象機
器には、上記の両者が含まれる。すなわち、機器制御手
段は、騒音発生自体を抑制したり、遮蔽等をもって騒音
の伝達を防止したりすることによって、周囲環境を改善
する。
Further, some of the devices controlled by the present invention, such as an air conditioner, deteriorate the surrounding environment due to a sound emitted from the device itself. Some windows, such as windows, do not emit noise or the like, but deteriorate the surrounding environment. The control target device of the present invention includes both of the above. That is, the device control unit improves the surrounding environment by suppressing the noise generation itself or preventing the transmission of the noise by shielding or the like.

【0014】好ましくは、本発明の音声認識装置は、前
記周囲環境の改善の後、再発声を促す案内音声を出力す
る。案内に従ってユーザが音声を再発声したとき、再発
声音声は、改善された周囲環境下で入力される。
Preferably, the voice recognition device of the present invention outputs a guidance voice prompting a re-speak after the surrounding environment is improved. When the user re-voices according to the guidance, the re-voiced voice is input under the improved ambient environment.

【0015】また好ましくは、周囲環境の改善の実行に
先だって、改善実行を予告する案内音声を出力する。こ
れにより、環境改善のための機器動作などが前もってユ
ーザに分かり、ユーザは機器動作に備えることができ
る。ユーザは、自分が望まない機器動作の実行を禁止す
ることもできる。
[0015] Preferably, prior to the execution of the improvement of the surrounding environment, a guidance sound for notifying the execution of the improvement is output. This allows the user to know in advance the operation of the device for improving the environment, and the user can prepare for the operation of the device. The user can also prohibit the execution of undesired device operations.

【0016】また好ましくは、上記の車両用音声認識装
置において、前記案内音声に従った再発声が行われた
後、前記機器制御手段は、周囲環境の改善のために動作
させた車載機器を、動作前の状態に復帰させる。
[0016] Preferably, in the above-mentioned vehicle speech recognition device, after the re-utterance in accordance with the guidance voice is performed, the device control means controls the vehicle-mounted device operated to improve the surrounding environment. Return to the state before operation.

【0017】[0017]

【発明の実施の形態】以下、本発明の好適な実施の形態
(以下、実施形態という)について、図面を参照し説明
する。図1は、本発明が適用された音声認識装置を示す
ブロック図である。本実施形態では、音声認識装置10
が、ナビゲーションECU100の入力装置として設け
られている。ユーザは、ナビゲーションの目的地の入力
などを、音声の発声により行うことができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention (hereinafter, referred to as embodiments) will be described below with reference to the drawings. FIG. 1 is a block diagram showing a speech recognition apparatus to which the present invention is applied. In the present embodiment, the speech recognition device 10
Is provided as an input device of the navigation ECU 100. The user can input a destination of navigation or the like by uttering voice.

【0018】音声認識装置10には、CPUを有する信
号処理制御部12が設けられている。信号処理制御部1
2には音響処理部14が接続され、音響処理部14には
マイク16が接続されている。ユーザが発声した音声
は、マイク16にてアナログ電気信号に変換され、音響
処理部14に入力される。音響処理部14では、音声デ
ータがデジタル信号に変換される。さらに、音響処理部
14では、音声認識に必要なデータ処理が施される。例
えば、窓関数処理やフーリエ変換処理が行われ、音声デ
ータのケプストラムが求められる。処理後の音声データ
は信号処理制御部12へ出力される。
The speech recognition apparatus 10 is provided with a signal processing control section 12 having a CPU. Signal processing control unit 1
An acoustic processing unit 14 is connected to 2, and a microphone 16 is connected to the acoustic processing unit 14. The voice uttered by the user is converted into an analog electric signal by the microphone 16 and input to the sound processing unit 14. In the acoustic processing unit 14, the audio data is converted into a digital signal. Further, the acoustic processing unit 14 performs data processing required for speech recognition. For example, window function processing or Fourier transform processing is performed, and the cepstrum of the audio data is obtained. The processed audio data is output to the signal processing control unit 12.

【0019】信号処理制御部12にはトリガースイッチ
26が接続されている。トリガースイッチ26はユーザ
により操作される。信号処理制御部12は、トリガース
イッチ26が押されると、その後に発声された音声のデ
ータを、マイク16から音響処理部14を経由して取り
込む。
The signal processing controller 12 is connected to a trigger switch 26. The trigger switch 26 is operated by the user. When the trigger switch 26 is pressed, the signal processing control unit 12 captures data of a voice uttered thereafter from the microphone 16 via the sound processing unit 14.

【0020】変形例として、トリガースイッチ26の代
わりに、いわゆるプレス・トークスイッチが設けられて
もよい。プレス・トークスイッチを押し続けている間に
発声された音声が、マイク16から信号処理制御部12
に取り込まれる。また、別の変形例として、音声認識装
置10が、常時認識タイプの装置であってもよい。トリ
ガースイッチやプレス・トークスイッチの操作がなくと
も、ユーザによる発声の有無が監視され、検出される。
As a modification, a so-called press-talk switch may be provided instead of the trigger switch 26. The voice uttered while the press-talk switch is kept pressed is transmitted from the microphone 16 to the signal processing controller 12.
It is taken in. Further, as another modification, the voice recognition device 10 may be a device of a constant recognition type. Even if there is no operation of the trigger switch or the press-talk switch, the presence or absence of utterance by the user is monitored and detected.

【0021】また、信号処理制御部12には音声認識部
18が接続されている。信号処理制御部12は、音響処
理部14から取り込んだ音声データを音声認識部18に
送る。音声認識部18はいわゆるDSPやマイコンであ
り、ユーザの発声した音声データを解析する。音声認識
部18は、認識対象の音声に対応する標準音声データを
記憶した認識用辞書記憶部(図示せず)を有する。音声
認識部18は、ユーザの音声データと標準音声データと
を比較して、比較結果に基づいてユーザの音声を認識す
る。このとき、ヒドンマルコフモデルを使った手法等に
より、ユーザの音声データに最も近い標準音声データが
求められる。
Further, a speech recognition unit 18 is connected to the signal processing control unit 12. The signal processing control unit 12 sends the voice data captured from the sound processing unit 14 to the voice recognition unit 18. The voice recognition unit 18 is a so-called DSP or microcomputer, and analyzes voice data uttered by the user. The voice recognition unit 18 has a recognition dictionary storage unit (not shown) that stores standard voice data corresponding to the voice to be recognized. The voice recognition unit 18 compares the user's voice data with the standard voice data, and recognizes the user's voice based on the comparison result. At this time, standard voice data closest to the voice data of the user is obtained by a method using a hidden Markov model or the like.

【0022】音声認識部18の認識結果は、信号処理制
御部12へ送られる。これにより、信号処理制御部12
は、ユーザが何をいったのかが分かる。なお、上記の音
響処理部14および音声認識部18では、周知の原理に
従った音声認識処理が行われればよい。上記の例と異な
る音声認識手法が適用されてもよく、本実施形態には任
意の音声認識手法が適用可能である。
The recognition result of the voice recognition unit 18 is sent to the signal processing control unit 12. Thereby, the signal processing control unit 12
Can tell what the user has done. Note that the sound processing unit 14 and the speech recognition unit 18 only need to perform a speech recognition process according to a known principle. A speech recognition technique different from the above example may be applied, and any speech recognition technique can be applied to the present embodiment.

【0023】さらに、信号処理制御部12には音声合成
部20が接続されている。信号処理制御部12の指示に
従い、音声合成部20は、いろいろなメッセージの合成
音声を生成する。音声合成部20は、メッセージデータ
を記憶したメッセージ記憶部(図示せず)を有し、この
メッセージデータを用いて音声が合成される。生成され
た合成音声はスピーカ22から出力され、ユーザに伝え
られる。
Further, a speech synthesis unit 20 is connected to the signal processing control unit 12. According to the instruction of the signal processing control unit 12, the speech synthesis unit 20 generates synthesized speech of various messages. The voice synthesis unit 20 has a message storage unit (not shown) storing message data, and voice is synthesized using the message data. The generated synthesized voice is output from the speaker 22 and transmitted to the user.

【0024】また、信号処理制御部12は、通信制御部
24を用いてボディECU30との間で、車内LANを
使ったデータ通信を行う。ボディECU30は、各種の
車載機器を制御している。図では、制御対象の機器の一
部として、パワーウィンドウ32、サンルーフ34、エ
アーコンディショナ36、オーディオ装置38、ドアロ
ック40が示されている。ボディECU30は、これら
の機器に制御信号を出力することにより、機器の動作を
制御する。また、ボディECU30には、車両の状態を
知るための各種の信号が入力される。図1ではスピード
メータ42が例示されており、スピードメータ42はボ
ディECU30へ車速データを送る。
The signal processing control unit 12 performs data communication with the body ECU 30 using the in-vehicle LAN by using the communication control unit 24. The body ECU 30 controls various in-vehicle devices. In the drawing, a power window 32, a sunroof 34, an air conditioner 36, an audio device 38, and a door lock 40 are shown as a part of devices to be controlled. The body ECU 30 controls the operation of the devices by outputting control signals to these devices. Further, various signals for knowing the state of the vehicle are input to body ECU 30. FIG. 1 illustrates a speedometer 42, which sends vehicle speed data to the body ECU 30.

【0025】次に、図1のシステムの動作を説明する。
ユーザがトリガースイッチ26を押すと、信号処理制御
部12は、音声合成部20に対し、発声要求メッセージ
の合成を指示する。これにより、例えば、「コマンドを
入力して下さい」という合成音声データが生成される。
この合成音声がスピーカ22から出力され、さらに、ビ
ープ音「ピッ」がスピーカ22から出力される。
Next, the operation of the system shown in FIG. 1 will be described.
When the user presses the trigger switch 26, the signal processing control unit 12 instructs the speech synthesis unit 20 to synthesize a speech request message. As a result, for example, synthesized voice data “Please input a command” is generated.
This synthesized voice is output from the speaker 22, and a beep “beep” is output from the speaker 22.

【0026】発声要求とビープ音を聞いたユーザは、音
声を発声する。例えば、ナビゲーションの目的地の入力
のために、音声「目的地」が発声される。ユーザの音声
はマイク16へ入力され、入力信号が音響処理部14で
のデータ処理を経て信号処理制御部12に取り込まれ
る。音声データは、信号処理制御部12から音声認識部
18へ送られる。音声認識部18では、ユーザの音声デ
ータと標準音声データとが比較する認識処理が行われ、
認識結果が信号処理制御部12へ送り返される。
The user who has heard the utterance request and the beep utters a voice. For example, a voice “destination” is uttered to input a navigation destination. The user's voice is input to the microphone 16, and the input signal is taken into the signal processing control unit 12 through data processing in the sound processing unit 14. The voice data is sent from the signal processing control unit 12 to the voice recognition unit 18. The voice recognition unit 18 performs a recognition process for comparing the voice data of the user with the standard voice data.
The recognition result is sent back to the signal processing control unit 12.

【0027】このようにしてユーザの音声が認識される
と、信号処理制御部12は、音声合成部20に対し、ト
ークバック用のメッセージの生成を命ずる。このトーク
バック用のメッセージには、認識された音声の内容が反
復される。例えば、ユーザが「目的地」と発声したとき
には、「目的地を認識しました」という合成音声が作ら
れる。トークバックの音声が、スピーカ22から出力さ
れ、ユーザに伝えられる。認識結果に誤りがある場合、
ユーザは、トークバックから所定待ち時間以内にトリガ
ースイッチ26を押し下げる。スイッチ押下げがあった
場合には、再発声要求のメッセージとビープ音が出力さ
れ、再びユーザの音声の入力が行われる。トリガースイ
ッチ26の押下げがなければ、信号処理制御部12は、
認識した音声(例えば「目的地」)をナビゲーションE
CU100へ伝える。ここでは、通信制御部24によ
り、車内LANを使ったデータ通信が行われる。
When the user's voice is recognized in this manner, the signal processing control unit 12 commands the voice synthesis unit 20 to generate a talkback message. The content of the recognized voice is repeated in the message for the talkback. For example, when the user utters “destination”, a synthesized speech “destination recognized” is generated. Talkback sound is output from the speaker 22 and transmitted to the user. If the recognition result is incorrect,
The user depresses the trigger switch 26 within a predetermined waiting time after the talkback. When the switch is depressed, a message requesting re-speaking and a beep sound are output, and the user's voice is input again. If the trigger switch 26 is not depressed, the signal processing control unit 12
The recognized voice (for example, “destination”)
Notify CU100. Here, the communication control unit 24 performs data communication using the in-vehicle LAN.

【0028】次に、図2のフローチャートを参照し、音
声の不認識が発生した場合の処理を説明する。音声認識
部18により認識処理において、入力データに近い標準
音声データが存在しなかったとき、音声の不認識が発生
したと判断される。例えば、音声認識手法として、音声
データの行列式を使って入力データと標準音声データの
距離を算出する手法を採用している場合を考えると、所
定距離以下の標準音声データがないときに、不認識が発
生する。また、ヒドンマルコフモデルを使った確率手法
を採用している場合を考えると、所定値より大きな尤度
を与える標準音声データがないときに、不認識が発生す
る。
Next, with reference to the flowchart of FIG. 2, a description will be given of the processing in the case where the speech is not recognized. In the recognition processing by the voice recognition unit 18, when there is no standard voice data close to the input data, it is determined that voice non-recognition has occurred. For example, considering a case where a method of calculating a distance between input data and standard voice data using a determinant of voice data is adopted as a voice recognition method, when there is no standard voice data shorter than a predetermined distance, an error occurs. Recognition occurs. Considering the case where a stochastic method using a Hidden Markov model is adopted, non-recognition occurs when there is no standard voice data giving a likelihood larger than a predetermined value.

【0029】図2に示すように、不認識が発生すると、
まず、信号処理制御部12により、不認識の原因が、周
囲環境にあるのか否かが判断される(S10)。本実施
形態において、周囲環境は、音声入力手段としてのマイ
ク16の周囲の状態である。S10の判断手法について
は後述する。不認識の原因が周囲環境にない場合、不認
識の原因がユーザの話し方にあるか否かを判定する(S
12)。例えば、入力信号に音声が含まれていることは
分かるが、何を言っているかが分からないとき、不認識
原因が話し方にあると考えられる。S12もNOであれ
ば、原因が分からないので、信号処理制御部12は、再
発声要求のメッセージの生成を音声合成部20に命ず
る。再発声要求のメッセージがスピーカ22から出力さ
れ、続いてビープ音が出力される(S14)。
As shown in FIG. 2, when unrecognition occurs,
First, the signal processing control unit 12 determines whether or not the cause of non-recognition is the surrounding environment (S10). In the present embodiment, the surrounding environment is a state around the microphone 16 as a voice input unit. The determination method of S10 will be described later. If the cause of the unrecognition is not in the surrounding environment, it is determined whether the cause of the non-recognition is in the user's way of speaking (S
12). For example, when it is known that the input signal includes voice, but it is not clear what is being said, it is considered that the cause of unrecognition is in the way of speaking. If S12 is also NO, the cause is not known, so the signal processing control unit 12 instructs the speech synthesis unit 20 to generate a message for a re-speaking request. A message for requesting a resound is output from the speaker 22, and then a beep sound is output (S14).

【0030】S12にて、音声の不認識の原因がユーザ
の話し方にあると判断された場合には、図3に示すよう
に、信号処理制御部12の指示により、話し方の指導を
含んだ再発声要求メッセージが生成され、出力される
(S16)。S16では、再発声要求メッセージの出力
に続いてビープ音が出力される。図3には、ユーザの話
し方に起因して発生するエラー内容と、各エラーの発生
時のトークバック内容が示されている。
In S12, if it is determined that the cause of the voice non-recognition is the user's way of speaking, as shown in FIG. A voice request message is generated and output (S16). In S16, a beep sound is output following the output of the reissue request message. FIG. 3 shows the contents of errors that occur due to the way of speaking by the user and the contents of talkback when each error occurs.

【0031】例えば、No.1のエラー内容は、「音声
のスタートが早い(発声タイミングが早すぎる)」であ
る。発声要求のビープ音の開始時点(入力信号から音声
の切り出し開始時点)にてすでに一定レベル以上の音声
が検出されているとき、上記のエラーNo.1が発生し
たと判断される。このとき、従来であれば、単に「発声
タイミングが早すぎます。」というトークバックが行わ
れた。本実施形態では、「ピッという音の後にもう少し
遅くお話ください。」というように、指導付きのトーク
バックが行われる。さらに、本実施形態では、指導付き
トークバックの後、特に、エラー内容に応じて認識関連
処理の変更が行われる(S18)。S18では、エラー
No.1に対応しては、ビープ音を通常よりも大きくす
る制御が行われる。上記のトークバックを聞いたユーザ
は、次に大きなビープ音を聞く。そして、ユーザは、メ
ッセージに従って、前より遅いタイミングで音声を発声
する。
For example, No. The error content of 1 is "early start of voice (timing of voice is too early)". If a sound of a certain level or more has already been detected at the start time of the beep sound of the utterance request (start time of cutting out the sound from the input signal), the above error No. 1 is determined to have occurred. At this time, in the past, a talkback was simply made, "The utterance timing is too early." In the present embodiment, a talkback with guidance is performed, such as "Please speak a little later after the beep." Further, in the present embodiment, after the guidance-added talkback, the recognition-related processing is changed in accordance with the error content (S18). In S18, the error No. In response to 1, control is performed to make the beep sound larger than usual. The user who hears the above talkback hears the next loud beep. Then, the user utters a voice at a later timing than before according to the message.

【0032】また例えば、No.2のエラー内容は、
「音声が長い」である。ビープ音の出力後に所定時間が
経過した時点(すなわち、決められた入力期間(音声切
出し期間)が終了した時点)でまだ一定レベル以上の音
声が検出されているとき、上記のエラーNo.2が発生
したと判断される。このとき、従来であれば、単に「発
声が長すぎます。」というトークバックが行われた。本
実施形態では、「ピッという音の後にもう少し短くお話
ください。」というようなトークバックが行われる。そ
の他、「ピッという音の後に・・秒以内でお話くださ
い。」といったトークバックも好適である。さらに、本
実施形態では、認識関連処理の変更(S18)として、
音声切出し期間が延長される。これにより、ユーザの話
し方に適応した認識処理が行われ、前回は認識できなか
った音声の認識が可能となる。
For example, for example, Error content of 2
"The sound is long." If a predetermined level or more of voice is still detected at the time when a predetermined time has elapsed after the output of the beep sound (that is, at the time when a predetermined input period (voice cutout period) has ended), the above error No. 2 is determined to have occurred. At this time, in the past, a talkback was simply made that "the utterance was too long." In the present embodiment, a talkback such as "Please speak a little shorter after the beep" is performed. In addition, a talkback such as "Please speak within seconds after a beep." Further, in the present embodiment, as the change of the recognition-related processing (S18),
The audio cutout period is extended. As a result, a recognition process adapted to the user's way of speaking is performed, and it is possible to recognize a speech that could not be recognized last time.

【0033】また例えば、No.3のエラー内容は、
「音声が小さい」である。ビープ音の後の入力期間内に
一定レベル以上の音声が検出されなかったとき、上記の
エラーNo.3が発生したと判断される。このとき、従
来であれば、単に「認識できません。」というトークバ
ックが行われた。本実施形態では、「ピッという音の後
にもう少し大きな声でお話ください。」というようなト
ークバックが行われる。さらに、本実施形態では、認識
関連処理の変更(S18)として、音声入力のスレッシ
ョルドが下げられる。これにより、ユーザの話し方への
認識処理の適応が図られ、前回は認識できなかった音声
の認識が可能となる。
For example, for example, Error content of 3
"The sound is low." If no sound above a certain level is detected within the input period after the beep sound, the above error No. 3 is determined to have occurred. At this time, in the past, a talkback "I could not recognize." In the present embodiment, a talkback such as "Please speak a little louder after the beep" is performed. Further, in the present embodiment, the threshold of the voice input is lowered as the change of the recognition-related processing (S18). As a result, the recognition process is adapted to the user's way of speaking, and the speech that could not be recognized last time can be recognized.

【0034】また例えば、No.4のエラー内容は、
「音声が短い」である。ビープ音の後の入力期間内に得
られた一定レベル以上の音声が短すぎたとき、上記のエ
ラーNo.4が発生したと判断される。このとき、従来
であれば、単に「発声が短すぎます。」というトークバ
ックが行われた。本実施形態では、「ピッという音の後
にもう少しゆっくりとお話ください。」というようなト
ークバックが行われる。その他、図3の残りのエラーに
ついても同様の処理が行われる。
For example, for example, Error content of 4 is
"The sound is short." If the sound of a certain level or higher obtained during the input period after the beep is too short, the above error No. 4 is determined to have occurred. At this time, in the past, a talkback was simply made that "the utterance was too short." In the present embodiment, a talkback such as "Please speak a little more slowly after the beep" is performed. In addition, the same processing is performed for the remaining errors in FIG.

【0035】次に、図2に戻り、S10にて、音声の不
認識の原因がマイク16の周囲環境にある(YES)と
判断されたときの処理を説明する。前述のように、本実
施形態での周囲環境は、音声入力手段としてのマイク1
6の周囲の状態である。マイク16の周囲の騒音が大き
いときは、周囲環境が悪く不認識が発生し得る。騒音
は、例えば、窓から入ってくる風切り音や車両周囲の音
である。オーディオ出力やエアコン送風音等も、音声認
識装置にとっては騒音である。特に、人間の声に近い周
波数域の騒音(1kHz周辺)が問題になる。
Next, returning to FIG. 2, a description will be given of the processing when it is determined in S10 that the cause of the voice non-recognition is in the environment around the microphone 16 (YES). As described above, the surrounding environment in the present embodiment is the microphone 1 as a voice input unit.
6. When the noise around the microphone 16 is loud, the surrounding environment is bad and unrecognition may occur. The noise is, for example, a wind noise coming from a window or a sound around the vehicle. Audio output and air-conditioner blowing noise are also noises for the voice recognition device. In particular, noise in a frequency range close to human voice (around 1 kHz) becomes a problem.

【0036】前述のように、発生要求のメッセージの後
には、ビープ音(「ピッ」)がスピーカ22から出力さ
れる。このビープ音の後に周囲雑音が一定レベル以上で
あるとき、例えば、一定レベル以上のパワーの音が検出
されているものの音声の認識ができないとき、周囲環境
に起因する不認識が発生したと判断される。この段階で
は、周囲環境を悪化させている車載機器の特定まではし
ない。オーディオ出力やロードノイズ等の特別の騒音を
除き、騒音データから原因機器を特定することは困難だ
からである。
As described above, a beep ("beep") is output from the speaker 22 after the message of the generation request. When the ambient noise is above a certain level after this beep, for example, when a sound with a power above a certain level is detected but voice cannot be recognized, it is determined that unrecognition due to the surrounding environment has occurred. You. At this stage, it is not necessary to identify the in-vehicle devices that are deteriorating the surrounding environment. This is because it is difficult to identify the cause device from the noise data except for special noise such as audio output and road noise.

【0037】S10がYESのとき、信号処理制御部1
2は、通信制御部24を使って、ボディECU30に、
周囲環境の改善要求を送る。この改善要求に応え、ボデ
ィECU30は、制御対象の各機器の状態を調べること
により、制御対象の機器の中から、周囲環境を悪化させ
ている原因機器を探す(S22)。そして、ボディEC
U30は、環境改善に必要な機器動作を決定し、その機
器動作を信号処理制御部12に知らせる。信号処理制御
部12は、機器動作を予告する案内音声の生成を、音声
合成部20に指示する。生成された案内音声は、スピー
カ22から出力される(S24)。機器動作の予告の
後、ボディECU30は、制御信号を出力することによ
り原因機器を動作させ、これによりマイク16の周囲環
境が改善される(S26)。環境改善の終了がボディE
CU30から信号処理制御部12へ伝えられる。そし
て、音声合成部20により再発声要求メッセージが生成
され、このメッセージとビープ音が出力される(S2
8)。
When S10 is YES, the signal processing controller 1
2 communicates with the body ECU 30 using the communication control unit 24,
Send requests for improvement of the surrounding environment. In response to the request for improvement, the body ECU 30 checks the state of each device to be controlled, thereby searching for a device causing deterioration of the surrounding environment from among the devices to be controlled (S22). And body EC
U30 determines the device operation necessary for the environmental improvement, and notifies the signal processing control unit 12 of the device operation. The signal processing control unit 12 instructs the voice synthesis unit 20 to generate a guidance voice for announcing a device operation. The generated guidance voice is output from the speaker 22 (S24). After the notice of the operation of the device, the body ECU 30 outputs the control signal to operate the cause device, thereby improving the environment around the microphone 16 (S26). End of environmental improvement is body E
The information is transmitted from the CU 30 to the signal processing control unit 12. Then, a re-speaking request message is generated by the voice synthesis unit 20, and this message and a beep sound are output (S2).
8).

【0038】例えば、S22で、ボディECU30は、
パワーウィンドウ32の状態を調べる。パワーウィンド
ウ32が開いているとき、ボディECU30は、パワー
ウィンドウ32を、環境悪化の原因機器であると決定す
る。そして、S24にて「窓を閉めます」という案内音
声が出力され、続いて、ボディECU30は、パワーウ
ィンドウ32を閉める。サンルーフ34に対しても同様
の処理が行われる。サンルーフ34が開いていれば、こ
のサンルーフ34が原因機器の一つであると特定され、
「サンルーフを閉めます。」という案内音声が出力され
る。
For example, in S22, the body ECU 30
The state of the power window 32 is checked. When the power window 32 is open, the body ECU 30 determines that the power window 32 is a device that causes environmental degradation. Then, in S24, a guidance voice saying “Close window” is output, and subsequently, body ECU 30 closes power window 32. Similar processing is performed on the sunroof 34. If the sunroof 34 is open, the sunroof 34 is identified as one of the cause devices,
The guidance sound "Close sunroof." Is output.

【0039】また例えば、S22で、ボディECU30
は、エアーコンディショナ36の状態を調べる。空気吸
込み口の切替モードが内気循環にセットされていれば、
ボディECU30は、エアーコンディショナ36を、環
境悪化の原因機器であると決定する。内気循環モードで
は、外気導入モードとして比較して、大きな送風音が発
生するからである。また、外気導入モードであっても、
吹出量が大きいときは、エアーコンディショナ36が原
因機器であると決定される。そして、S24にて「エア
コンを止めます。」という案内音声が出力され、続い
て、ボディECU30は、エアーコンディショナ36の
送風を停止させる。
For example, in S22, the body ECU 30
Checks the state of the air conditioner 36. If the air inlet switching mode is set to inside air circulation,
The body ECU 30 determines that the air conditioner 36 is a device that causes environmental degradation. This is because in the inside air circulation mode, a large blowing sound is generated as compared with the outside air introduction mode. Also, even in the outside air introduction mode,
When the blowout amount is large, it is determined that the air conditioner 36 is the cause device. Then, in S24, a guidance voice of "Stop the air conditioner" is output, and subsequently, the body ECU 30 stops the air conditioner 36 from blowing air.

【0040】また例えば、S22で、ボディECU30
は、オーディオ装置38の状態を調べる。オーディオ装
置38が音楽等を出力中であり、その音量が所定値以上
であるとき、ボディECU30は、オーディオ装置38
を、環境悪化の原因機器であると決定する。そして、S
24にて「オーディオを止めます。」という案内音声が
出力され、続いて、ボディECU30は、オーディオ装
置38に音量を落とさせる(ミュート)。
For example, in S22, the body ECU 30
Checks the state of the audio device 38. When the audio device 38 is outputting music or the like and the volume is higher than a predetermined value, the body ECU 30
Is determined to be a device causing environmental degradation. And S
At 24, a guidance voice "Stop audio" is output, and then the body ECU 30 causes the audio device 38 to reduce the volume (mute).

【0041】以上の例の他、マイク16の音声入力の周
囲環境に影響を及ぼす機器が任意に、本発明の適用によ
り好適に制御される。例えば、ロードノイズも周囲環境
を悪化させる。そこで、サスペンションを制御する制御
装置がボディECU30の一部として設けられることも
好適である。この制御装置が、ロードノイズ低減のため
にサスペンションを制御する。また、エンジン音やミッ
ション音も車室の壁を透過してマイク16へ到達し、マ
イク16の周囲環境を悪化させる。そこで、例えば、ス
ピードメータ42から入力される速度データが所定値以
上のとき、エンジンが、環境悪化の原因機器として特定
される。そして、「スピードを落として下さい」といっ
た案内音声が出力される。このとき、車載機器制御装置
の一つとしてのエンジンECUが、エンジンブレーキ等
を利用して車速を低下させることも好適である。さら
に、車速の制御は、上記のロードノイズ低減にとっても
効果的である。また、車速低減のために車輪ブレーキが
制御されてもよいことはもちろんである。
In addition to the above examples, any device that affects the surrounding environment of the audio input of the microphone 16 is suitably controlled by applying the present invention. For example, road noise also degrades the surrounding environment. Therefore, it is preferable that a control device for controlling the suspension is provided as a part of the body ECU 30. This control device controls the suspension to reduce road noise. Further, the engine sound and the mission sound also penetrate through the wall of the cabin and reach the microphone 16, thereby deteriorating the surrounding environment of the microphone 16. Thus, for example, when the speed data input from the speedometer 42 is equal to or greater than a predetermined value, the engine is specified as a device causing environmental degradation. Then, a guidance voice such as "Please reduce the speed" is output. At this time, it is also preferable that the engine ECU as one of the in-vehicle device control devices lowers the vehicle speed using an engine brake or the like. Further, the control of the vehicle speed is also effective for reducing the road noise. Further, it goes without saying that the wheel brake may be controlled to reduce the vehicle speed.

【0042】図2に戻り、S28での再発声要求に従っ
て、ユーザは再び音声を発声する。周囲環境が改善され
ているので、再発声された音声は周囲雑音に埋もれず、
従って、今度は音声が認識される。信号処理制御部12
は、認識結果の内容をナビゲーションECU100へ伝
える。そして、必要に応じて、さらに次の音声入力が行
われる。前述の例であれば、「目的地」という音声の入
力後、地名等の入力が行われる。一連の音声入力が終わ
った後、信号処理制御部12あるいはナビゲーション装
置100は、音声入力完了をボディECU30へ伝え
る。ボディECU30は、S26で動作させた車載機器
を元の状態に復帰させる。例えば、S26で窓を閉めて
いた場合、この窓が再び開けられる。また、S26でオ
ーディオがミュートされていた場合、音量が元に戻され
る。
Returning to FIG. 2, the user utters a voice again in accordance with the reissue request in S28. Due to the improved environment, the re-uttered voice is not buried in the ambient noise,
Thus, the speech is now recognized. Signal processing control unit 12
Notifies the navigation ECU 100 of the content of the recognition result. Then, the next voice input is performed as needed. In the case of the above example, after inputting the voice of "destination", input of the place name and the like is performed. After a series of voice input is completed, the signal processing control unit 12 or the navigation device 100 notifies the body ECU 30 of the completion of the voice input. The body ECU 30 returns the in-vehicle device operated in S26 to the original state. For example, if the window was closed in S26, this window is opened again. If the audio is muted in S26, the volume is returned to the original.

【0043】以上、本発明の好適な実施形態を説明し
た。本実施形態では、信号処理制御部12が、本発明の
原因特定手段として機能し、音声の不認識の発声原因を
特定する。また、ボディECU30が、本発明の周囲環
境改善手段として機能し、音声入力手段たるマイク16
の周囲環境を改善する。すなわち、ボディECU30
は、マイク16の周囲環境を悪化させている機器を制御
することにより、前記周囲環境を改善する。本実施形態
によれば、周囲環境の改善により、不認識の原因が除去
され、以降の音声不認識の発生を低減できる。ユーザ
は、自分の発声した音声が認識されなかったときでも、
次に発声した音声を音声認識装置に認識させることがで
き、認識装置をより便利に使うことができる。
The preferred embodiment of the present invention has been described above. In the present embodiment, the signal processing control unit 12 functions as the cause specifying unit of the present invention, and specifies the cause of the unrecognized speech. Further, the body ECU 30 functions as the surrounding environment improving unit of the present invention, and the microphone 16 serving as the voice input unit.
Improve the surrounding environment. That is, the body ECU 30
Improves the surrounding environment by controlling devices that are deteriorating the surrounding environment of the microphone 16. According to the present embodiment, the cause of the non-recognition is removed by improving the surrounding environment, and the occurrence of the subsequent voice non-recognition can be reduced. Even if the user does not recognize his voice,
Next, the uttered voice can be recognized by the voice recognition device, and the recognition device can be used more conveniently.

【0044】以下、本実施形態の変形例を説明する。上
記のように、本実施形態では、マイク16の周囲環境に
影響を及ぼすいろいろな車載機器が制御された。制御対
象の機器が複数ある場合、これらの機器に順位をつける
ことも好適である。順位の高い機器のみを動作させるこ
とで、機器動作を最小限にすることができる。また、制
御対象の機器は一つだけ(例えばウィンドウ)であって
もよい。
Hereinafter, a modified example of this embodiment will be described. As described above, in the present embodiment, various on-vehicle devices that affect the environment around the microphone 16 are controlled. When there are a plurality of devices to be controlled, it is preferable to rank these devices. By operating only the device with the highest rank, the device operation can be minimized. Further, the number of devices to be controlled may be only one (for example, a window).

【0045】また、本実施形態では、音声認識装置が、
ナビゲーション装置の入力装置として用いられている。
音声認識装置は、その他の用途に用いられてもよい。例
えば、図1のボディECU30の入力装置として本発明
の音声認識装置を設けることも好適である。ユーザは、
ボディECU30の制御対象の機器を、音声コマンドを
使って操作することができる。例えば、ドアロック40
の操作のための音声コマンドが認識されなかったとき、
パワーウィンドウ32を閉める制御などが自動的に行わ
れる。
In the present embodiment, the speech recognition device
It is used as an input device of a navigation device.
The speech recognition device may be used for other purposes. For example, it is preferable to provide the voice recognition device of the present invention as an input device of the body ECU 30 in FIG. The user
The device to be controlled by the body ECU 30 can be operated using voice commands. For example, door lock 40
When the voice command for the operation of is not recognized,
Control for closing the power window 32 and the like are automatically performed.

【0046】また、本発明の適用範囲は車両用の音声認
識装置には限られず、本発明は任意の音声認識装置に適
用可能である。例えば、一カ所に固定的に設置されるよ
うなタイプの、音声認識装置付きの電子機器にも適用可
能である。不認識原因が周囲環境にあるときには、周辺
機器の制御によって環境改善が図られる。例えば、周囲
の窓や扉などの遮蔽手段を閉めることで、雑音遮蔽によ
る環境改善が行われる。また例えば、周囲の他の機器
(エアコン等)を止めることで、雑音発生自体の抑制に
よる環境改善が行われる。
The scope of the present invention is not limited to a voice recognition device for a vehicle, and the present invention can be applied to any voice recognition device. For example, the present invention is also applicable to an electronic device with a voice recognition device of a type that is fixedly installed at one place. When the cause of the non-recognition is in the surrounding environment, the environment is improved by controlling the peripheral devices. For example, by closing a shielding means such as a surrounding window or door, the environment is improved by noise shielding. Further, for example, by stopping other peripheral devices (such as an air conditioner), the environment is improved by suppressing noise generation itself.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態の全体構成を示すブロック
図である。
FIG. 1 is a block diagram illustrating an overall configuration of an embodiment of the present invention.

【図2】 音声の不認識発生時の処理を示すフローチャ
ートである。
FIG. 2 is a flowchart illustrating a process performed when non-recognition of voice occurs.

【図3】 不認識の発生原因がユーザの話し方にあると
きのトークバック内容を示す図である。
FIG. 3 is a diagram showing talkback contents when the cause of non-recognition is in the way of speaking by the user.

【符号の説明】[Explanation of symbols]

10 音声認識装置、12 信号処理制御部、14 音
響処理部、16 マイク、18 音声認識部、20 音
声合成部、22 スピーカ、30 ボディECU、32
パワーウィンドウ、34 サンルーフ、36 エアー
コンディショナー、38 オーディオ装置、40 ドア
ロック、42 スピードメータ、100ナビゲーション
ECU。
Reference Signs List 10 voice recognition device, 12 signal processing control unit, 14 sound processing unit, 16 microphone, 18 voice recognition unit, 20 voice synthesis unit, 22 speaker, 30 body ECU, 32
Power window, 34 sunroof, 36 air conditioner, 38 audio equipment, 40 door lock, 42 speedometer, 100 navigation ECU.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの発声した音声を入力する音声入
力手段と、 入力された音声を認識する音声認識手段と、 音声認識手段にて音声の不認識が発生した場合に、不認
識の原因を特定する原因特定手段と、 不認識の原因が音声入力手段の周囲環境にある場合に、
周囲環境を改善する改善処理を行う周囲環境改善手段
と、 を有することを特徴とする音声認識装置。
1. A voice input means for inputting a voice uttered by a user, a voice recognition means for recognizing the input voice, and a cause of the non-recognition when the voice recognition means does not recognize the voice. When the cause identification means to identify and the cause of unrecognition are in the environment around the voice input means,
And a surrounding environment improving means for performing an improving process for improving the surrounding environment.
【請求項2】 請求項1に記載の認識装置において、 前記周囲環境の改善の後、再発声を促す案内音声を出力
することを特徴とする音声認識装置。
2. The recognition device according to claim 1, wherein after the improvement of the surrounding environment, a guidance sound prompting a re-speak is output.
【請求項3】 請求項1または2のいずれかに記載の認
識装置において、 周囲環境の改善の実行に先だって、改善実行を予告する
案内音声を出力することを特徴とする音声認識装置。
3. The recognition device according to claim 1, wherein prior to the execution of the improvement of the surrounding environment, a guidance sound for notifying the execution of the improvement is output.
【請求項4】 車両に搭載され、ユーザの発声した音声
を認識する車両用音声認識装置であって、 ユーザの発声した音声を入力する音声入力手段と、 入力された音声を認識する音声認識手段と、 音声認識手段にて音声の不認識が発生した場合に、不認
識の原因を特定する原因特定手段と、 音声入力手段の周囲環境に影響を及ぼす少なくとも1の
車載機器を制御する機器制御手段と、 を有し、前記機器制御手段は、前記不認識の原因が前記
周囲環境にある場合に、前記周囲環境を悪化させている
車載機器を制御して、前記周囲環境を改善することを特
徴とする車両用音声認識装置。
4. A vehicular voice recognition device mounted on a vehicle and recognizing a voice uttered by a user, comprising: voice input means for inputting a voice uttered by the user; and voice recognition means for recognizing the input voice. And a cause specifying means for specifying a cause of the non-recognition when the voice recognition means does not recognize the voice, and a device control means for controlling at least one in-vehicle device which affects the surrounding environment of the voice input means. And wherein, when the cause of the unrecognition is in the surrounding environment, the device control unit controls the on-vehicle device that deteriorates the surrounding environment to improve the surrounding environment. Vehicle voice recognition device.
【請求項5】 請求項4に記載の認識装置において、 前記周囲環境の改善の後、ユーザに再発声を促す案内音
声を出力することを特徴とする車両用音声認識装置。
5. The voice recognition device for a vehicle according to claim 4, wherein after the improvement of the surrounding environment, a guidance voice prompting the user to re-speak is output.
【請求項6】 請求項5に記載の認識装置において、 前記案内音声に従った再発声が行われた後、前記機器制
御手段は、周囲環境の改善のために動作させた車載機器
を、動作前の状態に復帰させることを特徴とする車両用
音声認識装置。
6. The recognition device according to claim 5, wherein after the re-utterance according to the guidance voice is performed, the device control means operates the on-vehicle device operated to improve the surrounding environment. A vehicle voice recognition device for returning to a previous state.
【請求項7】 請求項4〜6のいずれかに記載の認識装
置において、 周囲環境の改善の実行に先だって、改善実行を予告する
案内音声を出力することを特徴とする車両用音声認識装
置。
7. The vehicle speech recognition device according to claim 4, wherein prior to execution of the improvement of the surrounding environment, a guidance sound for notifying the execution of the improvement is output.
JP9289502A 1997-10-22 1997-10-22 Voice recognition device and on-vehicle voice recognition device Pending JPH11126092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9289502A JPH11126092A (en) 1997-10-22 1997-10-22 Voice recognition device and on-vehicle voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9289502A JPH11126092A (en) 1997-10-22 1997-10-22 Voice recognition device and on-vehicle voice recognition device

Publications (1)

Publication Number Publication Date
JPH11126092A true JPH11126092A (en) 1999-05-11

Family

ID=17744110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9289502A Pending JPH11126092A (en) 1997-10-22 1997-10-22 Voice recognition device and on-vehicle voice recognition device

Country Status (1)

Country Link
JP (1) JPH11126092A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034293A (en) * 1999-06-30 2001-02-09 Internatl Business Mach Corp <Ibm> Method and device for transferring voice
JP2002268668A (en) * 2001-03-13 2002-09-20 Denso Corp Navigation device
JP2003208196A (en) * 2002-01-11 2003-07-25 Matsushita Electric Ind Co Ltd Speech interaction method and apparatus
EP1267590A3 (en) * 2001-06-11 2004-07-07 Pioneer Corporation Contents presenting system and method
WO2004070703A1 (en) * 2003-02-03 2004-08-19 Mitsubishi Denki Kabushiki Kaisha Vehicle mounted controller
JP2006113439A (en) * 2004-10-18 2006-04-27 Ntt Data Corp Speech automatic responding apparatus and program
US7337113B2 (en) 2002-06-28 2008-02-26 Canon Kabushiki Kaisha Speech recognition apparatus and method
WO2008075305A1 (en) * 2006-12-20 2008-06-26 Nxp B.V. Method and apparatus to address source of lombard speech
JP2009025714A (en) * 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
CN104494537A (en) * 2014-12-22 2015-04-08 上海语知义信息技术有限公司 Car window prompting system and method
WO2015151494A1 (en) * 2014-04-04 2015-10-08 株式会社デンソー Speech recognition system and speech recognition program product
US9263040B2 (en) 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition
JP2018142329A (en) * 2018-03-27 2018-09-13 株式会社ユピテル System and program
JP2018169442A (en) * 2017-03-29 2018-11-01 京セラドキュメントソリューションズ株式会社 Voice input system, voice input device and voice input program
JP2020198485A (en) * 2019-05-31 2020-12-10 コニカミノルタ株式会社 Information processing apparatus, peripheral apparatus control method, and computer program
JP2023501536A (en) * 2020-01-20 2023-01-18 ワンダフル プラットフォーム リミテッド Control method and system for artificial intelligence type multimedia device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034293A (en) * 1999-06-30 2001-02-09 Internatl Business Mach Corp <Ibm> Method and device for transferring voice
JP2002268668A (en) * 2001-03-13 2002-09-20 Denso Corp Navigation device
JP4622124B2 (en) * 2001-03-13 2011-02-02 株式会社デンソー Navigation device
EP1267590A3 (en) * 2001-06-11 2004-07-07 Pioneer Corporation Contents presenting system and method
EP1693831A3 (en) * 2001-06-11 2007-09-12 Pioneer Corporation Contents presenting system and method
JP2003208196A (en) * 2002-01-11 2003-07-25 Matsushita Electric Ind Co Ltd Speech interaction method and apparatus
US7337113B2 (en) 2002-06-28 2008-02-26 Canon Kabushiki Kaisha Speech recognition apparatus and method
US7617108B2 (en) 2003-02-03 2009-11-10 Mitsubishi Denki Kabushiki Kaisha Vehicle mounted control apparatus
WO2004070703A1 (en) * 2003-02-03 2004-08-19 Mitsubishi Denki Kabushiki Kaisha Vehicle mounted controller
EP1591979A1 (en) * 2003-02-03 2005-11-02 Mitsubishi Denki Kabushiki Kaisha Vehicle mounted controller
EP1591979A4 (en) * 2003-02-03 2011-03-16 Mitsubishi Electric Corp Vehicle mounted controller
JP2006113439A (en) * 2004-10-18 2006-04-27 Ntt Data Corp Speech automatic responding apparatus and program
WO2008075305A1 (en) * 2006-12-20 2008-06-26 Nxp B.V. Method and apparatus to address source of lombard speech
JP2009025714A (en) * 2007-07-23 2009-02-05 Xanavi Informatics Corp In-vehicle device and speech recognition method
US9263040B2 (en) 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition
WO2015151494A1 (en) * 2014-04-04 2015-10-08 株式会社デンソー Speech recognition system and speech recognition program product
CN104494537A (en) * 2014-12-22 2015-04-08 上海语知义信息技术有限公司 Car window prompting system and method
JP2018169442A (en) * 2017-03-29 2018-11-01 京セラドキュメントソリューションズ株式会社 Voice input system, voice input device and voice input program
JP2018142329A (en) * 2018-03-27 2018-09-13 株式会社ユピテル System and program
JP2020198485A (en) * 2019-05-31 2020-12-10 コニカミノルタ株式会社 Information processing apparatus, peripheral apparatus control method, and computer program
JP2023501536A (en) * 2020-01-20 2023-01-18 ワンダフル プラットフォーム リミテッド Control method and system for artificial intelligence type multimedia device

Similar Documents

Publication Publication Date Title
US6587824B1 (en) Selective speaker adaptation for an in-vehicle speech recognition system
US6839670B1 (en) Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
JPH11126092A (en) Voice recognition device and on-vehicle voice recognition device
EP1933303B1 (en) Speech dialog control based on signal pre-processing
US8639508B2 (en) User-specific confidence thresholds for speech recognition
US20050216271A1 (en) Speech dialogue system for controlling an electronic device
US20090164216A1 (en) In-vehicle circumstantial speech recognition
US20080249779A1 (en) Speech dialog system
US20070150287A1 (en) Method for driving a dialog system
CN111354363A (en) Vehicle-mounted voice recognition method and device, readable storage medium and electronic equipment
US20070198268A1 (en) Method for controlling a speech dialog system and speech dialog system
JPH11119792A (en) Equipment controller with voice recognizing function, and voice recognizing device
JP3524370B2 (en) Voice activation system
JP2018116130A (en) In-vehicle voice processing unit and in-vehicle voice processing method
EP1110207B1 (en) A method and a system for voice dialling
JPH11109987A (en) Speech recognition device
JPH11327593A (en) Voice recognition system
JP4765394B2 (en) Spoken dialogue device
JPH1021049A (en) Voice synthesizer
JP4190735B2 (en) Voice recognition method and apparatus, and navigation apparatus
KR100692488B1 (en) Apparatus and Method for Controling a vehicle
JPS58202498A (en) Voice recognition operation system for apparatus on vehicle
JP3679617B2 (en) Audio transmission method
JP3003130B2 (en) Voice recognition device
KR100331574B1 (en) An Automatic Sunroof Controller and A Method Use Of Speech Recognition