JP2006003450A - Message output control system - Google Patents

Message output control system Download PDF

Info

Publication number
JP2006003450A
JP2006003450A JP2004177354A JP2004177354A JP2006003450A JP 2006003450 A JP2006003450 A JP 2006003450A JP 2004177354 A JP2004177354 A JP 2004177354A JP 2004177354 A JP2004177354 A JP 2004177354A JP 2006003450 A JP2006003450 A JP 2006003450A
Authority
JP
Japan
Prior art keywords
message
speaker
voice
output
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004177354A
Other languages
Japanese (ja)
Inventor
Makoto Tanaka
田中  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004177354A priority Critical patent/JP2006003450A/en
Publication of JP2006003450A publication Critical patent/JP2006003450A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to feel presence when the voice is outputted from a system. <P>SOLUTION: In a message output control system, a plurality of speakers 50a to 50e are disposed. The speaker which outputs the message is determined from among the plurality of the speakers 50a to 50e. Therefore, the message can be outputted by voice even from the speakers 50b to 50e other than the speaker 50a disposed on a driver's seat side. Consequently, the presence is improved as compared to the case the message is outputted from only the speaker 50a disposed on the driver's seat side. As a result, the user can feel the presence when outputting the message from the system by voice. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、メッセージ出力制御システムに関する。   The present invention relates to a message output control system.

従来、例えば、ナビゲーションシステムにおいて、目的地までの経路に関して音声案内を行なう場合、運転席側に設けられているスピーカから、メッセージを音声で出力する。これにより、運転者は、ナビゲーションシステムからの音声案内メッセージを聞き取りやすくなる。   Conventionally, for example, in a navigation system, when voice guidance is given regarding a route to a destination, a message is output by voice from a speaker provided on the driver's seat side. This makes it easier for the driver to hear the voice guidance message from the navigation system.

しかしながら、いかなるメッセージであっても、運転席側に設けられているスピーカのみからしか出力されないと、メッセージを音声で出力する際に、ユーザに対して臨場感の欠けるものになってしまう。   However, if any message is output only from the speaker provided on the driver's seat side, when the message is output by voice, the user will not be realistic.

本発明は、上述した点に鑑みてなされたもので、システムからのメッセージを音声にて出力する際に、ユーザに臨場感を喚起することが可能なメッセージ出力制御システムを提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a message output control system that can evoke a sense of presence when a message from the system is output by voice. To do.

上記目的を達成するために、請求項1に記載のメッセージ出力制御システムは、
車室内の複数箇所に設けられた複数のスピーカと、
スピーカから音声にて出力されるメッセージを生成するメッセージ生成手段と、
メッセージ生成手段によって生成されたメッセージに基づいて、メッセージを出力すべきスピーカを、複数のスピーカの中から決定するスピーカ決定手段と、
スピーカ決定手段によって決定されたスピーカから、メッセージを音声にて出力させる出力制御手段とを備えることを特徴とする。
In order to achieve the above object, the message output control system according to claim 1 comprises:
A plurality of speakers provided at a plurality of locations in the passenger compartment;
Message generating means for generating a message output by voice from a speaker;
Speaker determination means for determining a speaker to output a message from among a plurality of speakers based on the message generated by the message generation means;
Output control means for outputting a message by voice from the speaker determined by the speaker determination means.

上述したように、請求項1に記載のメッセージ出力制御システムでは、メッセージに基づいて、複数のスピーカの中からメッセージを出力するスピーカが決定される。このため、運転席側に設けられたスピーカ以外のスピーカからもメッセージを音声にて出力することができる。この結果、運転席側に設けられたスピーカのみからメッセージが音声にて出力される場合と比較して、臨場感が向上する。これにより、システムからのメッセージを音声にて出力する際に、ユーザに臨場感を喚起することができる。   As described above, in the message output control system according to the first aspect, a speaker that outputs a message is determined from a plurality of speakers based on the message. For this reason, a message can be output by voice from speakers other than the speaker provided on the driver's seat side. As a result, a sense of reality is improved as compared with a case where a message is output by voice only from a speaker provided on the driver's seat side. Thereby, when outputting a message from the system by voice, it is possible to evoke a sense of reality for the user.

請求項2に記載したように、メッセージ生成手段は、ユーザが発話した音声を入力する音声入力手段と、音声入力手段に入力された音声を認識する音声認識手段と、ユーザの発話内容に応答する複数のメッセージを記憶するメッセージ記憶手段と、音声認識手段によって認識された発話内容に基づいて、それに応答するメッセージをメッセージ記憶手段から抽出する抽出手段とから構成することができる。これにより、例えば、音声にて各種の操作を行なう際に、ユーザが意図した操作が行なわれるか否かをメッセージによって確認できる。   As described in claim 2, the message generation means responds to the speech content of the user, the voice input means for inputting the voice spoken by the user, the voice recognition means for recognizing the voice input to the voice input means, A message storage means for storing a plurality of messages and an extraction means for extracting a message in response to the message from the message storage means based on the utterance content recognized by the voice recognition means. Thus, for example, when various operations are performed by voice, it is possible to confirm by a message whether or not an operation intended by the user is performed.

請求項3に記載したように、スピーカ決定手段は、各メッセージに対して、使用すべきスピーカについての対応関係を予め記憶する記憶手段を備え、記憶手段が記憶する対応関係を参照して、メッセージを出力すべきスピーカを決定することもできる。これにより、各メッセージを音声にて出力する際に、最も適切と考えられるスピーカから確実に音声を出力させることができる。   According to a third aspect of the present invention, the speaker determination means includes storage means for storing in advance a correspondence relationship for the speaker to be used for each message, and refers to the correspondence relationship stored in the storage means to Can also be determined. Thereby, when outputting each message by voice, the voice can be surely output from the speaker considered most appropriate.

請求項4に記載したように、音声認識手段によって認識された発話内容に応じて、所定の制御対象機器に対して所定の制御を実行する制御手段を備え、メッセージ生成手段は、制御対象機器に対して所定の制御を実行する旨のメッセージを生成するとともに、スピーカ決定手段は、制御対象機器が存在している方向に設けられたスピーカを、メッセージを出力すべきスピーカとして決定することが好ましい。例えば、ユーザが「サンルーフを開けて」と音声で入力した場合、この発話内容に対応したメッセージ「サンルーフを開けます」が、車室内のルーフに設けられたスピーカから音声にて出力される。これにより、ユーザの意識を、制御対象機器が存在する方向に向けやすくできる。   According to a fourth aspect of the present invention, there is provided control means for executing predetermined control on a predetermined control target device according to the utterance content recognized by the voice recognition means, and the message generation means is provided on the control target device. It is preferable that a message indicating that predetermined control is executed is generated, and the speaker determination unit determines a speaker provided in a direction where the control target device exists as a speaker to which the message is to be output. For example, when the user inputs “open the sunroof” by voice, the message “open the sunroof” corresponding to the utterance content is output by voice from a speaker provided on the roof in the vehicle interior. Thereby, a user's consciousness can be easily turned to the direction where a control object apparatus exists.

請求項5に記載したように、メッセージ生成手段が生成するメッセージに方向に関する情報が含まれる場合、スピーカ決定手段は、メッセージに含まれる方向に存在するスピーカを、メッセージを出力すべきスピーカとして決定しても良い。例えば、本発明によるメッセージ出力制御システムがナビゲーションシステムに適用された場合、経路に関する音声案内メッセージ「200m先で左折をして下さい」が、助手席側に設けられたスピーカから音声で出力される。これにより、ユーザに対して左折すべき事を強く意識させることができる。   As described in claim 5, when the message generated by the message generating unit includes information about the direction, the speaker determining unit determines a speaker existing in the direction included in the message as a speaker to which the message is to be output. May be. For example, when the message output control system according to the present invention is applied to a navigation system, a voice guidance message about a route “Please turn left 200m ahead” is output by voice from a speaker provided on the passenger seat side. As a result, the user can be strongly conscious of what to turn left.

以下、本発明の好ましい実施形態について図面を参照して説明する。本実施形態では、メッセージ出力制御システムが音声認識装置に適用された例を説明する。図1は、本実施形態による音声認識装置100の概略構成を示すブロック図である。以下、本実施形態による音声認識装置100について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the present embodiment, an example in which the message output control system is applied to a voice recognition device will be described. FIG. 1 is a block diagram illustrating a schematic configuration of a speech recognition apparatus 100 according to the present embodiment. Hereinafter, the speech recognition apparatus 100 according to the present embodiment will be described in detail.

図1に示すように、音声認識装置100は、音声認識部30、及び出力制御部40から構成されている。また、音声認識装置100は、音声入力に用いられる音声入力部10、トークスイッチ20、スピーカ50a〜50e、及び制御対象機器60が接続されている。   As shown in FIG. 1, the speech recognition apparatus 100 includes a speech recognition unit 30 and an output control unit 40. In addition, the voice recognition device 100 is connected to a voice input unit 10 used for voice input, a talk switch 20, speakers 50a to 50e, and a control target device 60.

音声入力部10、及びトークスイッチ20は、音声入力に用いられる装置である。音声を入力する場合には、例えば、トークスイッチ20の押しボタンを押すことで、入力トリガが後述する音声認識部30に送信され、この音声認識部30は、入力トリガを受信すると、音声入力部10から音声入力を受け付けるモードに変更される。   The voice input unit 10 and the talk switch 20 are devices used for voice input. When inputting a voice, for example, by pressing a push button of the talk switch 20, an input trigger is transmitted to a voice recognition unit 30 described later. When the voice recognition unit 30 receives the input trigger, the voice input unit 10 is changed to a mode for receiving voice input.

この音声入力を受け付けるモードのとき、ユーザが、例えば「サンルーフを開けて」と発話すると、その音声が音声入力部10によって音声信号に変換され、音声認識部30に送られる。音声認識部30は、この音声を認識して、音声に対応するメッセージを生成し、出力制御部40に与える。例えば、入力された音声が「サンルーフを開けて」と認識されると、それに応答して「サンルーフを開けます」というメッセージが生成される。このメッセージは、音声信号に変換され、出力制御部40にて、スピーカ50a〜50eの中の1つのスピーカから出力される。なお、このメッセージは、後述するメッセージコードからなるものである。   When the user utters “open the sunroof”, for example, in the mode of accepting the voice input, the voice is converted into a voice signal by the voice input unit 10 and sent to the voice recognition unit 30. The voice recognition unit 30 recognizes this voice, generates a message corresponding to the voice, and gives it to the output control unit 40. For example, when the input voice is recognized as “open the sunroof”, a message “open the sunroof” is generated in response thereto. This message is converted into an audio signal, and is output from one speaker among the speakers 50 a to 50 e by the output control unit 40. This message is composed of a message code to be described later.

スピーカ50a〜50eは、車室内の運転席側、助手席側、前方、後方、及びルーフ側
に設けられており、上述したメッセージを音声で出力するために使用するものである。制御対象機器60は、音声認識部30によって認識された発話内容に応じて、所定の制御が実行される機器である。なお、この制御対象機器60は、車両に搭載され、ユーザによって操作可能な全ての機器が含まれる。
The speakers 50a to 50e are provided on the driver's seat side, the passenger seat side, the front side, the rear side, and the roof side in the vehicle interior, and are used for outputting the above-described message by voice. The control target device 60 is a device on which predetermined control is executed according to the utterance content recognized by the voice recognition unit 30. Note that the control target device 60 includes all devices mounted on a vehicle and operable by a user.

次に、音声認識装置100の音声認識部30について、図2を用いて説明する。図2は、音声認識部30の構成を示すブロック図である。同図に示すように音声認識部30は、AD変換回路31、認識プログラム処理部32、音響モデル記憶部33、認識辞書記憶部34、メッセージコード記憶部35、及びコマンドコード記憶部36によって構成される。   Next, the speech recognition unit 30 of the speech recognition apparatus 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the voice recognition unit 30. As shown in the figure, the speech recognition unit 30 includes an AD conversion circuit 31, a recognition program processing unit 32, an acoustic model storage unit 33, a recognition dictionary storage unit 34, a message code storage unit 35, and a command code storage unit 36. The

AD変換回路31は、音声入力部10を介して入力されるアナログの音声信号を受信し、この信号をデジタル化した信号に変換する。変換されたデジタル音声信号は、認識プログラム処理部32に送信される。   The AD conversion circuit 31 receives an analog audio signal input via the audio input unit 10 and converts this signal into a digitized signal. The converted digital audio signal is transmitted to the recognition program processing unit 32.

認識プログラム処理部32は、音響モデル記憶部33、及び認識辞書記憶部34を用いて、デジタル音声信号を認識語コードに変換するものである。まず、認識プログラム処理部32は、音響モデル記憶部33に記憶される、例えば、周知の隠れマルコフモデル等の手法を用いて、デジタル音声信号に対応する発話内容(以後、認識語読みと呼ぶ)を解析する。   The recognition program processing unit 32 uses the acoustic model storage unit 33 and the recognition dictionary storage unit 34 to convert a digital voice signal into a recognition word code. First, the recognition program processing unit 32 uses a technique such as a well-known hidden Markov model, which is stored in the acoustic model storage unit 33, for example, and utterance content corresponding to a digital audio signal (hereinafter referred to as recognition word reading). Is analyzed.

この解析された認識語読みは、認識辞書記憶部34に記憶された認識語読みと照合され、最も確からしい認識語読み、及びその認識語読みに対応する認識語コードが抽出される。この認識辞書記憶部34は、図4に示すように、認識語読みと、その認識語読みと一対一に対応する認識語コードが記憶された構成となっている。   The analyzed recognized word reading is collated with the recognized word reading stored in the recognition dictionary storage unit 34, and the most likely recognized word reading and the recognized word code corresponding to the recognized word reading are extracted. As shown in FIG. 4, the recognition dictionary storage unit 34 is configured to store a recognized word reading and a recognized word code corresponding to the recognized word reading one-on-one.

また、認識プログラム処理部32は、メッセージコード記憶部35、及びコマンドコード記憶部36を参照して、この認識コードに対応するメッセージコード、及びコマンドコードを抽出する。メッセージコード記憶部35は、図5に示すように、認識語コードと、その認識語コードと一対一に対応するメッセージコードが記憶された構成となっている。同様に、コマンドコード記憶部36は、図6に示すように、認識語コードと、その認識語コードと一対一に対応するコマンドコードが記憶された構成となっている。このメッセージコードとは、出力制御部40のメッセージ出力部43が識別可能なコードであり、メッセージコードをメッセージ出力制御部43に与えることで、そのメッセージコードに対応するメッセージを出力することができる。また、このコマンドコードとは、出力制御部40の制御実行部44が識別可能なコードであり、コマンドコードに対応する制御が実行されるよう制御対象器60に制御信号を出力する。   The recognition program processing unit 32 refers to the message code storage unit 35 and the command code storage unit 36 and extracts a message code and a command code corresponding to the recognition code. As shown in FIG. 5, the message code storage unit 35 is configured to store a recognized word code and a message code corresponding to the recognized word code on a one-to-one basis. Similarly, as shown in FIG. 6, the command code storage unit 36 is configured to store a recognized word code and a command code corresponding to the recognized word code on a one-to-one basis. The message code is a code that can be identified by the message output unit 43 of the output control unit 40. By giving the message code to the message output control unit 43, a message corresponding to the message code can be output. The command code is a code that can be identified by the control execution unit 44 of the output control unit 40, and outputs a control signal to the control target device 60 so that the control corresponding to the command code is executed.

そして、認識プログラム処理部32は、上述の処理により得られたメッセージコード、及びコマンドコードを出力制御部40に出力する。   Then, the recognition program processing unit 32 outputs the message code and the command code obtained by the above processing to the output control unit 40.

続いて、音声認識装置100の出力制御部40について、図3を用いて説明する。図3は、出力制御部40の構成を示すブロック図である。同図に示すように出力制御部40は、メッセージ記憶部41、出力先スピーカコード記憶部42、メッセージ出力部43、及び制御実行部44から構成される。   Next, the output control unit 40 of the speech recognition apparatus 100 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration of the output control unit 40. As shown in the figure, the output control unit 40 includes a message storage unit 41, an output destination speaker code storage unit 42, a message output unit 43, and a control execution unit 44.

メッセージ出力部43は、メッセージ記憶部41を参照して、音声認識部30から受け取ったメッセージコードに対応するメッセージを抽出する。メッセージ記憶部41は、図7に示すように、メッセージコードと、そのメッセージコードと一対一に対応するメッセージが記憶された構成となっている。これにより、例えば、音声にて各種の操作を行なう際に、ユーザが意図した操作が行なわれるか否かをメッセージによって確認できる。   The message output unit 43 refers to the message storage unit 41 and extracts a message corresponding to the message code received from the voice recognition unit 30. As shown in FIG. 7, the message storage unit 41 is configured to store a message code and a message corresponding to the message code on a one-to-one basis. Thus, for example, when various operations are performed by voice, it is possible to confirm by a message whether or not an operation intended by the user is performed.

また、メッセージ出力部43は、出力先スピーカコード記憶部42を参照して、音声認識部30から受け取ったメッセージコードに対応する出力先スピーカコードを抽出する。出力先コード記憶部35の構成は、図8に示すように、メッセージコードと、そのメッセージコードと対応する出力先スピーカコードが記憶された構成となっている。このように、各メッセージに対応する出力先のスピーカが予め決定している。   Further, the message output unit 43 refers to the output destination speaker code storage unit 42 and extracts an output destination speaker code corresponding to the message code received from the voice recognition unit 30. As shown in FIG. 8, the output destination code storage unit 35 is configured to store a message code and an output destination speaker code corresponding to the message code. Thus, the output destination speaker corresponding to each message is determined in advance.

メッセージ出力部43は、抽出した出力先スピーカコードに対応するスピーカを介して、抽出したメッセージを出力する。図9に示すように、出力先スピーカコードは、複数のスピーカ50a〜50eの各々に一義的に対応づけられ、スピーカコードによって使用すべきスピーカ50a〜50eが特定できる。   The message output unit 43 outputs the extracted message via a speaker corresponding to the extracted output destination speaker code. As shown in FIG. 9, the output destination speaker code is uniquely associated with each of the plurality of speakers 50a to 50e, and the speakers 50a to 50e to be used can be specified by the speaker code.

制御実行部44は、制御対象機器60に対して、音声認識部30から受け取ったコマンドコードに対応する制御を実行する。制御対象機器60は、例えば、サンルーフ、トランク、ワイパーなどである。例として、サンルーフに対して実行される制御は、サンルーフの開閉である。   The control execution unit 44 executes control corresponding to the command code received from the voice recognition unit 30 for the control target device 60. The control target device 60 is, for example, a sunroof, a trunk, a wiper, or the like. As an example, the control performed on the sunroof is opening and closing the sunroof.

上述の構成を備えることにより、本実施形態により音声認識装置は、メッセージに基づいて、複数のスピーカの中からメッセージを出力するスピーカが決定される。このため、運転席側に設けられたスピーカ以外のスピーカからもメッセージを音声にて出力することができる。この結果、運転席側に設けられたスピーカのみからメッセージが音声にて出力される場合と比較して、臨場感が向上する。これにより、システムからのメッセージを音声にて出力する際に、ユーザに臨場感を喚起することができる。   With the above-described configuration, the speech recognition apparatus according to the present embodiment determines a speaker that outputs a message from a plurality of speakers based on the message. For this reason, a message can be output by voice from speakers other than the speaker provided on the driver's seat side. As a result, a sense of reality is improved as compared with a case where a message is output by voice only from a speaker provided on the driver's seat side. Thereby, when outputting a message from the system by voice, it is possible to evoke a sense of reality for the user.

次に、上述した本実施形態の音声認識装置の処理について、図10〜図12のフローチャートを用いて説明する。図10は、音声認識装置のメインルーチンを示すフローチャートであり、図11は、音声認識処理のルーチンを示すフローチャートである。そして、図12は、メッセージ出力制御処理を示すフローチャートである。なお、具体的な例として、「トランクを開けて」という音声が入力された場合を想定して説明を進める。   Next, the process of the speech recognition apparatus of the present embodiment described above will be described using the flowcharts of FIGS. FIG. 10 is a flowchart showing a main routine of the speech recognition apparatus, and FIG. 11 is a flowchart showing a routine of speech recognition processing. FIG. 12 is a flowchart showing the message output control process. As a specific example, the description will be made assuming that a voice “open the trunk” is input.

まず、図10のステップS10では、トークスイッチ20が操作されたか否かを判定する。操作されなかったと判定された場合、そのまま待機状態となる。一方、操作されたと判定された場合、ステップS20に進む。ステップS20では、音声認識部30が入力モードに切り換わり、音声の入力を受け付ける状態となる。ここで、例えば、「トランクを開けて」と言った音声が入力された場合には、ステップS30に進む。   First, in step S10 of FIG. 10, it is determined whether or not the talk switch 20 has been operated. If it is determined that no operation has been performed, the apparatus is in a standby state. On the other hand, when it determines with having operated, it progresses to step S20. In step S20, the voice recognition unit 30 switches to the input mode, and enters a state of accepting voice input. Here, for example, when a voice saying “Open the trunk” is input, the process proceeds to step S30.

ステップS30では、音声認識処理が実行される。この音声認識処理を図11のフローチャートを用いて説明する。   In step S30, voice recognition processing is executed. This voice recognition process will be described with reference to the flowchart of FIG.

図11のフローチャートにおいて、まず、ステップS110では、入力された音声から認識語読みを解析する。そして、認識語読みに対応する認識語コードを認識辞書記憶部34から抽出する。ここでは、「トランクを開けて」という音声が解析されることで「とらんくをあけて」という認識語読みに判定され、この認識語読みに対応する認識語コードであるR0002が抽出される(図4参照)。   In the flowchart of FIG. 11, first, in step S110, the recognition word reading is analyzed from the input voice. Then, the recognition word code corresponding to the recognition word reading is extracted from the recognition dictionary storage unit 34. Here, the speech “open the trunk” is analyzed to determine the recognition word reading “open the trunk”, and the recognition word code R0002 corresponding to this recognition word reading is extracted. (See FIG. 4).

ステップS120では、ステップS110にて抽出された認識語コードに対応するメッセージコードを、メッセージコード記憶部35から抽出する。ここでは、認識語コードのR0002に対応するメッセージコードM0002が抽出される(図5参照)。   In step S120, the message code corresponding to the recognized word code extracted in step S110 is extracted from the message code storage unit 35. Here, the message code M0002 corresponding to the recognition word code R0002 is extracted (see FIG. 5).

ステップS130では、ステップS110にて抽出された認識語コードに対応するコマンドコードを、コマンドコード記憶部36から抽出する。ここでは、認識語コードのR0002に対応するコマンドコードC0002が抽出される(図6参照)。ステップS140では、抽出されたメッセージコード、及びコマンドコードが出力制御部40に送信される。   In step S130, a command code corresponding to the recognized word code extracted in step S110 is extracted from the command code storage unit 36. Here, the command code C0002 corresponding to the recognized word code R0002 is extracted (see FIG. 6). In step S140, the extracted message code and command code are transmitted to the output control unit 40.

図10のフローチャートに戻り、ステップS40では、メッセージ出力制御処理が実行される。このメッセージ出力制御処理を図12のフローチャートを用いて説明する。   Returning to the flowchart of FIG. 10, in step S40, a message output control process is executed. This message output control process will be described with reference to the flowchart of FIG.

図12のフローチャートにおいて、まず、ステップS210では、メッセージ出力部43は、メッセージコードに対応するメッセージを、メッセージ記憶部41から抽出する。ここでは、メッセージコードはM0002であるため、「トランクを開けます」というメッセージが抽出される(図7参照)。   In the flowchart of FIG. 12, first, in step S210, the message output unit 43 extracts a message corresponding to the message code from the message storage unit 41. Here, since the message code is M0002, the message “open trunk” is extracted (see FIG. 7).

ステップS220では、メッセージ出力部43は、メッセージコードに対応する出力先スピーカコードを、出力先スピーカコード記憶部42から抽出する。ここでは、メッセージコードのM0002に対応する出力先スピーカコードS0004が抽出される(図8参照)。   In step S <b> 220, the message output unit 43 extracts an output destination speaker code corresponding to the message code from the output destination speaker code storage unit 42. Here, the output destination speaker code S0004 corresponding to the message code M0002 is extracted (see FIG. 8).

ステップS230では、メッセージ出力部43は、抽出した出力先スピーカコードに対応するスピーカを介して、抽出したメッセージを音声で出力する。ここでは、出力先スピーカコードは、スピーカ(後)50dに対応している(図9参照)ので、スピーカ(後)50dを介して、「トランクを開けます」という音声が出力される。これにより、各メッセージを音声にて出力する際に、最も適切と考えられるスピーカから確実に音声を出力させることができる。また、ユーザの意識を、トランクが存在する後方向に向けやすくできる。   In step S230, the message output unit 43 outputs the extracted message by voice through a speaker corresponding to the extracted output destination speaker code. Here, since the output destination speaker code corresponds to the speaker (rear) 50d (see FIG. 9), the voice “open the trunk” is output via the speaker (rear) 50d. Thereby, when outputting each message by voice, the voice can be surely output from the speaker considered most appropriate. In addition, the user's consciousness can be easily directed in the backward direction where the trunk exists.

ステップS240では、制御実行部44は、コマンドコードに対応する制御を実行する。ここでは、コマンドコードのC0002に基づいて、トランクを開扉する。   In step S240, the control execution unit 44 executes control corresponding to the command code. Here, the trunk is opened based on the command code C0002.

なお、本発明は、上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することができる。   It should be noted that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

例えば、上述した実施形態においては、ユーザが入力した音声に対応するシステムからのメッセージに対応する出力先のスピーカから音声にて出力する例を説明した。しかしながら、ユーザが音声を入力しなくても、システムからのメッセージ(例えば、音声認識ガイダンス)を出力する際に適用しても良い。例えば、システムから「ステアリング左側のトークスイッチ20を押して発声してください」というメッセージは、スピーカ(助手席)50bを介して音声で出力される。これにより、ユーザの意識を、トークスイッチ20が存在する左方向に向けやすくできる。   For example, in the above-described embodiment, an example has been described in which voice is output from an output destination speaker corresponding to a message from the system corresponding to the voice input by the user. However, the present invention may be applied when outputting a message from the system (for example, voice recognition guidance) even if the user does not input voice. For example, the message “Please press the talk switch 20 on the left side of the steering wheel to speak” is output from the system by voice through the speaker (passenger seat) 50b. Thereby, the user's consciousness can be easily directed to the left direction where the talk switch 20 exists.

また、上述した実施形態においては、音声認識装置100を周知のナビゲーションシステムの入力装置として利用しても良い。例えば、ユーザが「コンビニは?」という音声を入力した場合、ナビゲーションシステムを介して、車両の現在位置の周辺のコンビニを検索し、この検索結果を出力する。例として、「5km先、右側にコンビニがあります」という検索結果のメッセージは、スピーカ(運転席)50aを介して音声で出力される。これにより、ユーザに対して右側にコンビニがある事を強く意識させることができる。   In the embodiment described above, the speech recognition device 100 may be used as an input device of a known navigation system. For example, when the user inputs a voice “What is a convenience store?”, A convenience store around the current position of the vehicle is searched through the navigation system, and the search result is output. As an example, a search result message “There is a convenience store on the right side, 5 km away” is output by voice through a speaker (driver's seat) 50a. Thereby, it is possible to make the user strongly aware that there is a convenience store on the right side.

さらに、上述した実施形態においては、音声認識装置100を周知のナビゲーションシステムの音声出力装置として利用しても良い。例えば、ナビゲーションシステムからの経路に関する音声案内メッセージ「100m先で右折をして下さい」が、運転席側に設けられたスピーカ50aから音声で出力される。これにより、ユーザに対して右折すべき事を強く意識させることができる。   Furthermore, in the above-described embodiment, the voice recognition device 100 may be used as a voice output device of a known navigation system. For example, a voice guidance message “Please turn right 100m ahead” regarding the route from the navigation system is output by voice from the speaker 50a provided on the driver's seat side. As a result, it is possible to make the user strongly aware that the user should turn right.

また、上述した実施形態においては、メッセージをスピーカ毎に異なる声質で出力するようにしても良い。例えば、運転席側と助手席側とのスピーカでそれぞれ異なる声質で
メッセージを出力する。この結果、ユーザはあたかも2人の人間が話をしてくれるように感じる。これにより、1つの固定したスピーカで1つの声質でメッセージを出力する場合と比較して、ユーザは臨場感をより喚起できる。
In the embodiment described above, the message may be output with a different voice quality for each speaker. For example, messages are output with different voice qualities from speakers on the driver's seat side and the passenger seat side. As a result, the user feels as if two people are speaking. Thereby, compared with the case where a message is output with one voice quality with one fixed speaker, the user can evoke a sense of reality more.

本実施形態における、音声認識装置100の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the speech recognition apparatus 100 in this embodiment. 本実施形態における、音声認識部30の構成を示すブロック図である。It is a block diagram which shows the structure of the speech recognition part 30 in this embodiment. 本実施形態における、出力制御部40の構成を示すブロック図である。It is a block diagram which shows the structure of the output control part 40 in this embodiment. 本実施形態における、認識語読みと認識語コードとの対応関係を示す表である。It is a table | surface which shows the correspondence of recognition word reading and recognition word code in this embodiment. 本実施形態における、認識語コードとメッセージコードとの対応関係を示す表である。It is a table | surface which shows the correspondence of a recognition word code and a message code in this embodiment. 本実施形態における、認識語コードとコマンドコードとの対応関係を示す表である。It is a table | surface which shows the correspondence of a recognition word code and command code in this embodiment. 本実施形態における、メッセージコードとメッセージとの対応関係を示す表である。It is a table | surface which shows the correspondence of a message code and a message in this embodiment. 本実施形態における、メッセージコードと出力先スピーカコードとの対応関係を示す表である。It is a table | surface which shows the correspondence of a message code and an output destination speaker code in this embodiment. 本実施形態における、出力先スピーカコードと出力先スピーカとの対応関係を示す表である。It is a table | surface which shows the correspondence of an output destination speaker code | cord | chord and an output destination speaker in this embodiment. 本実施形態における、音声認識装置のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of the speech recognition apparatus in this embodiment. 本実施形態において、音声認識処理のルーチンを示すフローチャートである。In this embodiment, it is a flowchart which shows the routine of a speech recognition process. 本実施形態において、メッセージ出力制御処理のルーチンを示すフローチャートである。In this embodiment, it is a flowchart which shows the routine of a message output control process.

符号の説明Explanation of symbols

10…音声入力部
20…トークスイッチ
30…音声認識部
40…メッセージ出力制御部
50a…スピーカ(運転席)
50b…スピーカ(助手席)
50c…スピーカ(前)
50d…スピーカ(後)
50e…スピーカ(ルーフ)
DESCRIPTION OF SYMBOLS 10 ... Voice input part 20 ... Talk switch 30 ... Voice recognition part 40 ... Message output control part 50a ... Speaker (driver's seat)
50b ... Speaker (passenger seat)
50c ... Speaker (front)
50d ... Speaker (rear)
50e ... Speaker (roof)

Claims (5)

車室内の複数箇所に設けられた複数のスピーカと、
前記スピーカから音声にて出力されるメッセージを生成するメッセージ生成手段と、
前記メッセージ生成手段によって生成されたメッセージに基づいて、当該メッセージを出力すべきスピーカを、前記複数のスピーカの中から決定するスピーカ決定手段と、
前記スピーカ決定手段によって決定されたスピーカから、前記メッセージを音声にて出力させる出力制御手段とを備えることを特徴とするメッセージ出力制御システム。
A plurality of speakers provided at a plurality of locations in the passenger compartment;
Message generating means for generating a message output by voice from the speaker;
Speaker determination means for determining, from the plurality of speakers, a speaker to output the message based on the message generated by the message generation means;
A message output control system comprising: output control means for outputting the message by voice from the speaker determined by the speaker determination means.
前記メッセージ生成手段は、
ユーザが発話した音声を入力する音声入力手段と、
前記音声入力手段に入力された音声を認識する音声認識手段と、
前記ユーザの発話内容に応答する複数のメッセージを記憶するメッセージ記憶手段と、
前記音声認識手段によって認識された発話内容に基づいて、それに応答するメッセージを前記メッセージ記憶手段から抽出する抽出手段とを備えることを特徴とする請求項1に記載のメッセージ出力制御システム。
The message generation means includes:
Voice input means for inputting voice spoken by the user;
Voice recognition means for recognizing voice input to the voice input means;
Message storage means for storing a plurality of messages in response to the user's utterance content;
The message output control system according to claim 1, further comprising: an extraction unit that extracts a message that responds to the content of the utterance recognized by the voice recognition unit from the message storage unit.
前記スピーカ決定手段は、
各メッセージに対して、使用すべきスピーカについての対応関係を予め記憶する記憶手段を備え、
当該記憶手段が記憶する対応関係を参照して、前記メッセージを出力すべきスピーカを決定することを特徴とする請求項1または請求項2に記載のメッセージ出力制御システム。
The speaker determination means
For each message, it is provided with storage means for storing in advance the correspondence relationship for the speaker to be used,
3. The message output control system according to claim 1, wherein a speaker to which the message is to be output is determined with reference to a correspondence relationship stored in the storage unit.
前記音声認識手段によって認識された発話内容に応じて、所定の制御対象機器に対して所定の制御を実行する制御手段を備え、
前記メッセージ生成手段は、前記制御対象機器に対して所定の制御を実行する旨のメッセージを生成するとともに、前記スピーカ決定手段は、前記制御対象機器が存在している方向に設けられたスピーカを、前記メッセージを出力すべきスピーカとして決定することを特徴とする請求項2または請求項3に記載のメッセージ出力制御システム。
In accordance with the utterance content recognized by the voice recognition means, a control means for executing a predetermined control on a predetermined control target device,
The message generation unit generates a message indicating that predetermined control is performed on the control target device, and the speaker determination unit includes a speaker provided in a direction in which the control target device exists. 4. The message output control system according to claim 2, wherein the message is determined as a speaker to be output.
前記メッセージ生成手段が生成するメッセージに方向に関する情報が含まれる場合、前記スピーカ決定手段は、前記メッセージに含まれる方向に存在するスピーカを、前記メッセージを出力すべきスピーカとして決定することを特徴とする請求項1乃至請求項3のいずれかに記載のメッセージ出力制御システム。   When the message generated by the message generation unit includes information about a direction, the speaker determination unit determines a speaker existing in the direction included in the message as a speaker to which the message is to be output. The message output control system according to any one of claims 1 to 3.
JP2004177354A 2004-06-15 2004-06-15 Message output control system Pending JP2006003450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004177354A JP2006003450A (en) 2004-06-15 2004-06-15 Message output control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004177354A JP2006003450A (en) 2004-06-15 2004-06-15 Message output control system

Publications (1)

Publication Number Publication Date
JP2006003450A true JP2006003450A (en) 2006-01-05

Family

ID=35771917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004177354A Pending JP2006003450A (en) 2004-06-15 2004-06-15 Message output control system

Country Status (1)

Country Link
JP (1) JP2006003450A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566792A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Speech input device
JPH0719887A (en) * 1993-06-30 1995-01-20 Aqueous Res:Kk Voice guidance apparatus
JP2001289660A (en) * 2000-04-05 2001-10-19 Denso Corp Navigator
JP2003228390A (en) * 2002-02-01 2003-08-15 Toshiba Corp Voice controller

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566792A (en) * 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd Speech input device
JPH0719887A (en) * 1993-06-30 1995-01-20 Aqueous Res:Kk Voice guidance apparatus
JP2001289660A (en) * 2000-04-05 2001-10-19 Denso Corp Navigator
JP2003228390A (en) * 2002-02-01 2003-08-15 Toshiba Corp Voice controller

Similar Documents

Publication Publication Date Title
JP4131978B2 (en) Voice recognition device controller
US7822613B2 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
JP6400109B2 (en) Speech recognition system
JP4859982B2 (en) Voice recognition device
US10176806B2 (en) Motor vehicle operating device with a correction strategy for voice recognition
WO2017057173A1 (en) Interaction device and interaction method
JP3702867B2 (en) Voice control device
JP2002162993A (en) Dialogue system
JP7023823B2 (en) In-vehicle device and voice recognition method
JP2009251388A (en) Native language utterance device
US6721702B2 (en) Speech recognition method and device
JP2006208486A (en) Voice inputting device
CN110556104B (en) Speech recognition device, speech recognition method, and storage medium storing program
JP4478146B2 (en) Speech recognition system, speech recognition method and program thereof
JP2004301875A (en) Speech recognition device
JP2006003450A (en) Message output control system
JP4608670B2 (en) Speech recognition apparatus and speech recognition method
Ivanecký et al. An in-car speech recognition system for disabled drivers
JP2004184803A (en) Speech recognition device for vehicle
JP2000305596A (en) Speech recognition device and navigator
JP2006023444A (en) Speech dialog system
JP2019191477A (en) Voice recognition device and voice recognition method
JP2008176221A (en) In-vehicle voice recognition system
JP2005084590A (en) Speech recognition device
JP2007286198A (en) Voice synthesis output apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100817