WO2004032113A1 - 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム - Google Patents

車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム Download PDF

Info

Publication number
WO2004032113A1
WO2004032113A1 PCT/JP2003/012848 JP0312848W WO2004032113A1 WO 2004032113 A1 WO2004032113 A1 WO 2004032113A1 JP 0312848 W JP0312848 W JP 0312848W WO 2004032113 A1 WO2004032113 A1 WO 2004032113A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
practice
user
control device
vehicle control
Prior art date
Application number
PCT/JP2003/012848
Other languages
English (en)
French (fr)
Inventor
Tsutomu Matsubara
Masato Hirai
Emiko Kido
Fumitaka Sato
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to EP03754013A priority Critical patent/EP1450349B1/en
Priority to US10/497,695 priority patent/US7822613B2/en
Publication of WO2004032113A1 publication Critical patent/WO2004032113A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a vehicle control apparatus that performs control according to a voice command and a program that executes the operation explanation method in a combination evening.
  • Conventional technology
  • the user when inputting a voice command, the user may not be able to input the command correctly unless he / she is used to the operation. Furthermore, the user may not perform the voice input function that is not used to the command. In addition, it is troublesome to perform registration work to learn the user's voice, and the user may not perform such registration itself.
  • an object of the present invention is to provide an in-vehicle control device that is easy to understand the operation and requires less work for the user, and a program that causes a computer to execute the operation explanation. Disclosure of the invention
  • the in-vehicle control device includes: a voice recognition unit that recognizes an input voice command based on a user's voice; a command execution mode that executes a voice command recognized by the voice recognition unit; and And a control means for displaying an operation description of the in-vehicle control device using the voice command in the practice mode.
  • the speech recognition means acquires practice speech uttered in response to a voice command in the practice mode, and learns the characteristics of the user's speech based on the practice speech.
  • the in-vehicle control device will complete the parameter learning for the user's voice recognition, so in order to make the in-vehicle control device learn the voice,
  • the voice recognition rate can be improved without performing a separate operation of inputting the user, and the user's work can be reduced.
  • FIG. 1 is a functional block diagram showing a navigation device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the overall processing of the in-vehicle control apparatus according to the embodiment of the present invention.
  • FIG. 3 is a flowchart showing the processing of the practice mode in the embodiment of the present invention.
  • FIG. 4 is a diagram showing the display contents of the display device according to the embodiment of the present invention.
  • FIG. 5 shows the display contents of the display device according to the embodiment of the present invention.
  • FIG. 6 is a diagram showing an example of advice in the embodiment of the present invention.
  • FIG. 7 is a view showing the display contents of the display device according to the embodiment of the present invention.
  • FIG. 1 shows an in-vehicle control device according to the first embodiment, and here, a force navigation device is shown as an example.
  • the main unit 1 is a control unit 2 composed of a microprocessor, etc., a memory 3 connected to the control unit 2 for storing programs and various data, and also connected to the control unit 2 for digital map data.
  • a map information storage device 4 for storing the voice signal, and a voice recognition unit 5 for recognizing the voice signal input from the microphone 8.
  • the control unit 2 has a function of controlling the display device 6 connected to the main device 1 and displaying the route information and road information necessary for navigation on the display device 6.
  • a liquid crystal display device is generally used, but any type of display device can be used, and the display device 6 may be configured integrally with the main body device or a part of the interior surface of the car. It may be embedded integrally with the car.
  • Control unit 2 uses G P S (G l obal to perform navigation
  • the position of the device is calculated from signals from a plurality of satellites received by the antenna 7 using a known calculation method.
  • the microphone 8 converts the user's voice into an electrical signal and outputs it to the voice recognition unit 5.
  • Speaking power 9 produces sounds such as voice, sound effects, music, etc. based on the control of the control unit 2. To help.
  • the interface 10 is an air conditioner control device (not shown), a helm dryer, a sensor that detects the on / off status of the wiper and head dryer, etc. It has a function to relay signals to and from the control unit 2.
  • the input device 1 1 is a device that detects a command from the user and outputs a signal corresponding to the command to the control unit 2.
  • the input device 11 includes, for example, one or a plurality of buttons, an evening bullet, an evening sensor provided on the display device 6, a joystick, a lever provided on the vehicle body, and the like.
  • a variety of input devices can be used that can convert these commands into signals.
  • This in-vehicle control device has two operation modes: instruction execution mode and practice mode.
  • the command execution mode is a mode in which normal operation is performed.
  • the voice recognition unit 5 recognizes the user's voice command, and the control unit 2 performs processing corresponding to the voice command. Execute.
  • this command execution mode for example, navigation destination setting and route guidance start, air conditioner control such as air volume control, audio control, e-mail and Internet Intelligent Transport Systems (ITS)
  • ITS Internet Intelligent Transport Systems
  • the practice mode is a mode in which the user is taught how to perform voice input, and the user practiced voice input.
  • the user can speak in the voice input (grammar, loudness, You can learn how to use it while trying speed).
  • the user can control the vehicle.
  • Voice input is performed according to the instructions of the control device.
  • the in-vehicle controller shows an example sentence of a voice command, and the user can practice voice input using the example sentence. Note that switching between the instruction execution mode and the practice mode can be performed by, for example, pressing a selection button or selecting a menu displayed on the display device.
  • Fig. 2 is a flowchart of Control Unit 2 showing the instruction execution mode and practice mode.
  • an initial screen at the time of activation is displayed (step ST1).
  • the control unit 2 displays “Select a user” on the initial screen, and displays a list of a plurality of users registered in the memory 2 in advance. The user who sees this display selects one user from the list.
  • the control unit 2 detects the signal output from the input device 1 1 and identifies the user based on this signal (step ST 2) o
  • control unit 2 detects the input signal of the input device 11 and checks whether the input signal is a signal instructing execution of the practice mode (step ST 3).
  • the process of the practice mode in step ST 4 is executed (the practice mode will be described later with reference to FIG. 3).
  • the control unit 2 executes the process of the instruction execution mode in steps S T 5 and S T 6. First, it waits for an input signal from the input device 11 and / or a voice command from the microphone 8 (step ST5).
  • the voice recognition unit 5 When voice is input to the microphone 8 by the user, the voice recognition unit 5 recognizes the input voice. At this time, the voice recognition unit 5 reads out the recognition parameters for the user specified in step ST2 from the memory 2, and recognizes the voice using these parameters. Next, the control unit 2 identifies which command has been input from among a plurality of commands based on the recognition result of the voice recognition unit 5. The Then, the process corresponding to the specified instruction is executed (step ST 6) o
  • control unit 2 determines whether or not the user has finished the operation of the in-vehicle control device (for example, an operation to turn off the power) from the power key via the input device 11 or the interface. Detect based on electrical signal etc. (Step ST7). Here, when there is no end operation, the control unit 2 repeats the processing from step ST3. On the other hand, if there is a termination operation, the process is terminated.
  • the control unit 2 determines whether or not the user has finished the operation of the in-vehicle control device (for example, an operation to turn off the power) from the power key via the input device 11 or the interface. Detect based on electrical signal etc.
  • FIG. 3 is a flowchart of the program executed by the control unit 2 and the processing of step ST 4 in FIG.
  • the control unit 2 displays the initial screen shown in FIG. 4 (a) on the display device 6 (step ST11).
  • This initial screen is a screen for explaining the overall flow of the process in the practice mode to the user.
  • the control unit 2 detects an instruction input by the user to the input device 11 1, and when the instruction is “start”, the operation explanation screen shown in FIG. 4 (b) is displayed ( Step ST 1 2).
  • the control unit 2 reads out the example sentence of the voice command from the memory 3 and displays it on the display device 6.
  • the general operation including the operation of the input device 11 (for example, pressing of the utterance button at the time of voice input) can be explained.
  • the control unit 2 When the user starts speaking in accordance with the operation description, the control unit 2 records the voice received by the microphone 8 in the memory 2 (step ST 1 3). For example, if the description “Please press the utterance switch and speak to a nearby convenience store” is displayed as the operation description, the user can set the handle on a handle etc. Press the selected utterance switch to start speaking. When the control unit 2 detects that the utterance switch is pressed, the control unit 2 starts recording the audio signal received by the microphone 8. Next, the control unit 2 analyzes and analyzes the audio recorded in step ST 1 3 to the audio recognition unit 5. Instruction of voice feature learning is given (step ST 1 4). The voice recognition unit 5 analyzes voice characteristics according to a known voice recognition algorithm, and records the analysis result in the memory 2.
  • the voice recognition unit 5 compares the standard pattern of voice stored in the memory 2 with the input voice pattern, and has a plurality of characteristics such as volume, speech speed, speech timing, or input. Analyzes are made for each feature, including the likelihood of voice, whether unnecessary words (hereinafter referred to as incidental words) are included, and the analysis results are output.
  • the voice recognition unit 5 analyzes the characteristics of the user's voice by comparing the user's voice with the standard pattern, and learns to correct the parameters of the voice recognition according to the characteristics of the user's voice. Do.
  • Various known techniques can be used for the speech recognition algorithm and the parameter learning method.
  • the speech recognition unit 5 executes step ST by executing a speech recognition method using a hidden Markov model and a user-dependent parameter learning method described in Japanese Patent Laid-Open No. 1-242494. 1 Process 4 can be performed.
  • control unit 2 determines whether or not the input voice is good based on the analysis result performed in step ST 14 (step ST 15). You can use any parameter that indicates the ease of speech recognition as to whether the speech is good, but for example, volume, speech speed, speech timing, likelihood of input speech If “bad” is detected in either the presence or absence of an incidental word, the control unit 2 determines that the comprehensive analysis result is “bad”. On the other hand, if all the analysis results are “good”, Results are “good”.
  • control unit 2 displays a score corresponding to the likelihood and a message “successfully recognized” on the display device 6.
  • the control unit 2 displays the text associated with the analysis result on the display device 6 as the device information (about the text). (See the advice in Figure 6). An example of the text to be displayed is shown in Fig. 4 (c).
  • the control unit 2 may also display a score indicating the likelihood of speech on the display device 6.
  • the score may be displayed as data abstracted according to the score from the score used internally by the control unit 2 so as to be easily understood by the user. For example, when the internal score is in the range of 0 to 100 0 points, the control unit 2 divides this internal score range into 1 0 0 points and converts them to 0 to 1 0 levels. It is displayed on the display device 6 as a score.
  • control unit 2 determines whether or not all the practice items prepared in advance have been completed (step ST 18). If the practice has not been completed, return to step S T 1 2 and repeat the process of practicing for different instructions. On the other hand, when the processing is completed, the control unit 2 displays the comprehensive analysis result and the advice based on the analysis result as shown in FIG. 5 (step ST 19).
  • FIG. 6 shows the classification of the speech input analysis results and the advice text displayed in step ST 18.
  • the control unit 2 when practicing a total of five commands by repeating the practice of steps ST 1 2 to ST 1 8, the control unit 2 performs the first to fifth scores and scores as shown in FIG. Display Dubai together.
  • the control unit 2 displays “1 Please speak loudly” on the display device 6.
  • the text of the advice content is the text of the analysis results (for example, “Your voice seems to be quiet”) and the text of the advice (for example, “Speak loudly”) that guides you to improve speech input. )), But if the text displayed in step ST 1 7 is to be simplified, the control unit 2 may display only the advice text as shown in Fig. 5. Get it right.
  • control unit 2 repeats the processing from step ST 1 1.
  • the control unit 2 stores the parameter learned in step ST 14 in the memory 2 as the parameter for the current user (step ST 2 0) o
  • the control unit 2 stores the parameter parameters learned for each user separately.
  • the control unit 2 displays an inquiry screen for inquiring which storage location to select from among the storage locations for each parameter divided for each user as shown in FIG. .
  • the selection by the user is input to the input device 11 1, and the control unit 2 identifies the storage location based on the input information from the input device 11 1 and stores the learned parameters. If the parameter evening is already registered, the parameter evening already registered and the parameter evening learned this time are combined, and the synthesized parameter evening is stored in the memory.
  • This synthesis can be done by any method that can improve the speech recognition rate.For example, depending on the importance of the average and the latest learning parameters, It is possible to adopt a method of adding and weighting the parameters of each parameter. • Voice analysis details
  • whether or not the input voice is good is determined by the following method (see Fig. 6 for the detection method).
  • the voice recognition unit 5 compares the standard pattern of the incidental word stored in the memory 2 with the input voice, and if there is a pattern that matches the incidental word at the beginning of the voice, the analysis result is set as “bad”. Output. On the other hand, when there are no incidental words, the analysis result is “good”.
  • the voice recognition unit 5 detects whether the volume of the input voice is within a predetermined range, and outputs a “bad” analysis result when the volume is not within the range. On the other hand, if it is within the range, the analysis result is “good”. For example, if the maximum volume that can be detected by the microphone 8 is 0 decibels, the predetermined range is set to a range that is less than 0 decibels and 3 decibels.
  • the voice recognition unit 5 measures the time length of the input voice, compares this time length with the time length of the standard pattern, and determines that it is good when the difference between the two is within a predetermined range. be able to.
  • the predetermined range can be set arbitrarily.
  • the time length of the input voice can be set to + 25% to 1-25% compared to the time length of the standard pattern. it can.
  • the voice recognition unit 5 determines whether the utterance time of the input voice is within a predetermined range.
  • the analysis result is “good”, and when it is out of the range, it is “bad”.
  • the analysis result is “bad” when the input voice is spoken for longer than the maximum input time of the voice command or when the voice input is detected at the end of the above-mentioned voice acquisition period. It becomes. In other cases, the analysis results are good.
  • the voice recognition unit 5 compares the standard pattern stored in the memory 2 with the input voice pattern and detects the likelihood. When the likelihood is greater than or equal to a preset threshold, the analysis result is “good”, and when the likelihood is less than the threshold, the analysis result is “bad”. The likelihood is indicated by the Euclidean distance between the standard pattern and the input speech pattern. At this time, the speech recognition unit 5 calculates a score based on the likelihood. For example, assuming that the score when the likelihood is theoretically the highest is 1 0 0 0 and the score when the likelihood is considered to be practically the lowest is 0, the score changes in proportion to the likelihood. In addition, the score is calculated as a function of likelihood. Note that any value can be set as the threshold value. For example, the threshold value can be set to 600 or more.
  • the speech recognition unit 5 detects whether or not there is an incidental word at the end of the sentence, as in the case of detecting the incidental word in (1), and if the incidental word is detected, the analysis result is determined to be “bad” and not detected. In this case, the analysis result is “good”.
  • control unit 2 uses the following five example sentences
  • the sentences (a) to (e) described above include a plurality of instructions with different grammars, and the speech recognition unit 5 can learn a plurality of sounds uttered with different grammars. Therefore, it is possible to perform learning with higher recognition accuracy than learning a sentence spoken in one monotonous grammar, such as “Nearby convenience store” or “Nearby gas station”.
  • the sentences (a) to (e) described above include words with different parts of speech.
  • nouns and numbers are included, and not only nouns such as place names, but also speaker-dependent recognition parameters can be learned for the pronunciation of numbers. Therefore, it is possible to prevent the recognition rate improvement by learning from being biased only to nouns such as place names.
  • the vehicle-mounted control device is not limited to this example, and any vehicle-mounted control device that operates a car or an electronic device outside the vehicle with voice can be used. But it doesn't matter.
  • on-board control devices include on-board electronic devices such as air conditioners and audio.
  • a control device that controls electronic devices outside the vehicle for example, a control device that controls various electronic devices outside the vehicle via a transmitter connected to the interface 10 can be considered.
  • Select the type of electronic equipment outside the vehicle such as a home or commercial air conditioner, a home security system, a home server, other electrical appliances, a first hood or a gasoline stand, etc. This includes all electronic devices connected via communication lines, such as fee payment devices at retail stores and gate devices installed at entrances and exits of parking lots.
  • control device of FIG. 1 shows an example in which the speech recognition unit 5 is configured by a speech recognition LSI.
  • the speech recognition unit is not limited to being configured by a dedicated circuit, and is stored in the memory 2.
  • a voice recognition program may be used.
  • the speech recognition program is executed by the control unit 2 or a separate processor used exclusively for speech recognition.
  • speech analysis is performed by the speech recognition unit 5 as preprocessing, and the control unit 2 performs processing for displaying advice using the analysis result.
  • Other processing can be performed by the control unit 2.o
  • the recognition parameters of a plurality of users are registered. However, only a specific user may be used, so the recognition parameters registered in the practice mode are divided for each user. Not necessary. If only a specific user is used, the user registration process in step ST2 in Fig. 2 is not required.
  • Memory 2 can be volatile or / and non-volatile memory.
  • a storage means a storage device such as a hard disk or DVD-RAM may be used.
  • advice is given based on the results of practice speech analysis. This is very useful because the user can modify the operation method. Therefore, it can also be used as a practice mode that does not have a learning function for the above recognition parameters.
  • the in-vehicle control device is suitable for use by reducing the work of the user when performing control according to the voice command.

Abstract

 車載制御装置において、制御部2は、表示装置6に音声入力による操作方法を表示し、ユーザに操作の練習をさせ操作方法を習得させる(ステップST4)。このとき、音声認識部5は、ユーザが操作方法を覚えるために試入力した音声を利用して、バックグランドでユーザの音声の特徴を学習し、認識パラメータを算出する。これにより、ユーザは操作方法を知ることができ、そのついでに声の特徴まで車載制御装置に登録することができる。

Description

車載制御装置、 並びにその操作説明方法をコンビュー夕に
実行させるプログラム 技術分野
この発明は、 音声命令に従った制御を行う車裁制御装置並びにその操 作説明方法をコンビユー夕に実行させるプログラムに関する。 従来技術
従来、 会話的に画面や音声で操作説明を出力し、 ユーザによる命令の キー入力を助けるカーナビゲ一シヨ ン装置があった (例えば、 特開 2 0 0 0 - 9 7 7 1 9号公報) 。
また、 会話的な命令の入力によ り、 よ り早く命令の入力ができる方法 として、 操作方法を表示せず、 命令実行モー ドで直接音声による命令の 受け付けが可能な力一ナビゲ一シヨ ン装置もある。
しかし、 音声による命令の入力を行う場合、 ユーザが操作に慣れてい ないと命令を正しく入力できないことがあり、 さらには、 慣れない音声 入力機能自体をユーザが行わないこともある。 また、 ユーザの音声を学 習させるために、 わざわざ登録作業をするのは面倒であり、 ユーザは、 このような登録自体行わない可能性もある。
そこで、 この発明は、 操作が分かりやすくユーザが要求される作業も 少ない車載制御装置、 並びにその操作説明をコンピュータに実行させる プログラムを得ることを目的と している。 発明の開示 この発明の車載制御装置は、 ユーザの音声に基づいて、 入力された音 声命令を認識する音声認識手段と、 音声認識手段で認識された音声命令 を実行する命令実行モー ド、 及びユーザに対して操作方法を説明し、 ュ 一ザに操作の練習をさせる練習モー ドを有し、 練習モー ドにおいて、 音 声命令を用いた車載制御装置の操作説明を表示する制御手段と、 を備え 、 音声認識手段は、 練習モー ドにおいて、 音声命令に対応して発話され た練習音声を取得し、 この練習音声に基づいて前記ユーザの音声の特徴 を学習するものである。
このことによって、 ユーザが操作方法を知りたいときに、 操作の練習 の機会を提供し、 効果的にユーザに操作を習得させることができる。 そ して、 この操作方法を習得するための練習を通じて、 車載制御装置は、 ユーザの音声認識用のパラメ一夕学習をも済ませてしまうため、 車載制 御装置に音声を学習させるために、 音声を入力するという別個の作業を 行なわずとも音声認識率を向上させることができ、 ユーザの作業を減ら すことができるという効果がある。
図面の簡単な説明
第 1図は、 この発明の実施の形態のナビゲーション装置を示す機能ブ ロック図である。
第 2図は、 この発明の実施の形態の車載制御装置の全体処理を示すフ 口—チヤートである。 第 3図、 はこの発明の実施の形態における練習モー ドの処理を示すフ ローチャー トである。
第 4図は、 この発明の実施の形態における表示装置の表示内容を示す 図である。
第 5図は、 この発明の実施の形態における表示装置の表示内容を示す 図である。
第 6図は この発明の実施の形態におけるァ ドバイスの例を示す図で ある。
第 7図は この発明の実施の形態における表示装置の表示内容を示す 図である。 発明を実施するための最良の形態
以下、 この発明をよ り詳細に説明するために、 この発明を実施するた めの最良の形態について、 添付の図面に従って説明する。
実施の形態 1 .
第 1図は、 この実施の形態 1の車載制御装置であり、 ここではその一 例と して力一ナビゲーシヨ ン装置を示している。 第 1図において、 本体 装置 1は、 マイクロプロセッサ等で構成される制御部 2、 制御部 2 に接 続されプログラムや各種データを記憶するメモ リ 3、 同じく制御部 2 に 接続され地図のデジタルデータを記憶する地図情報記憶装置 4、 マイ ク 8から入力された音声信号を認識する音声認識部 5 を有する。 制御部 2 は、 本体装置 1 に接続された表示装置 6 を制御して、 ナビゲーシヨ ンに 必要な経路情報、 道路情報を表示装置 6 に表示させる機能を持っている 。 表示装置 6は、 一般に液晶表示装置が使用されるが、 あらゆるタイ プ の表示装置を用いるこ とができ、 また、 本体装置と一体に構成されてい てもよいし、 車の室内面の一部に車と一体に埋め込まれていてもよい。 制御部 2は、 ナビゲ一シヨンを行うために G P S ( Gl obal
Pos i tion ing System) アンテナ 7が受信した複数の衛星からの信号から 、 公知の技術による計算方法で自装置の位置を計算する。 マイク 8は、 ユーザの声を電気信号に変換し音声認識部 5へ出力するものであり、 ス ピー力 9は制御部 2の制御に基づいて、 音声、 効果音、 音楽等の音を出 力する。
イ ン夕フェース 1 0は、 図示しないェアコンの制御装置、 へヅ ドライ ト、 ワイパーやヘッ ドライ トのオンオフ状態を検知するセンサ等、 自動 車の電子機器の動作状態信号やそれら電子機器への制御信号を制御部 2 との間で中継する機能を有する。
入力デバイス 1 1 は、 ユーザからの命令を検知し、 この命令に対応し た信号を制御部 2へ出力するデバイスである。 この入力デバイス 1 1 と しては、 例えば、 1つ又は複数のボタン、 夕ブレッ ト、 表示装置 6 に設 けられた夕ツチセンサ、 ジョイスティ ック、 車本体に設けられたレバ一 等、 ユーザの命令を信号に変換できる様々な入力デバイスを使用するこ とができる。
この車載制御装置は、 命令実行モー ドと練習モー ドという 2つの動作 モー ドを持つ。
まず、 命令実行モー ドは通常動作を行うモー ドで、 ユーザによる音声 入力があった場合に、 音声認識部 5がユーザの音声命令を認識し、 制御 部 2がその音声命令に対応した処理を実行する。 この命令実行モー ドに よ り、 例えば、 ナビゲーシヨンにおける目的地設定と経路誘導の開始、 風量調節等のエアコンの制御、 オーディオ制御、 電子メールやイ ンター ネッ ト ITS( Inte l l igent Transport Systems )用電子機器の制御など、 様 々な車載電子機器の制御や、 イ ン夕一ネッ トを介した車外の電子機器の 制御が可能である。
一方、 練習モー ドでは、 ユーザに対して音声入力の実行の仕方を説明 し、 ユーザが音声入力の練習を行うモー ドであり、 ユーザは、 音声入力 時の話し方(文法、 声の大きさ、 速さ等)を試しながら、 使い方を覚える ことができる。 このとき、 ユーザが自らの意図に基づいて音声命令を入 力する命令実行モー ドと異なり、 この練習モー ドでは、 ユーザは車載制 御装置の指示に従って音声入力を行う。 例えば、 車載制御装置は音声命 令の例文を示し、 ユーザにその例文を用いて音声入力の練習をしても ら う。 なお、 命令実行モー ドと練習モー ドの切替は、 例えば、 選択ボタン の押下、 表示装置に表示されたメニューの選択等によって行うことがで きる。
第 2図は命令実行モー ドと練習モー ドとを示す制御部 2のフローチヤ ー トである。 最初に、 車載制御装置が起動すると、 起動時の初期画面が 表示される (ステップ S T 1 ) 。 制御部 2は、 初期画面で、 「ユーザを 選択して ください」 という表示を行い、 予めメモリ 2 に登録された複数 のユーザのリス トを表示する。 この表示を見たユーザは、 リス トの中か ら 1人のユーザを選択する。 制御部 2は、 入力デバィス 1 1が出力した 信号を検出し、 この信号に基づいてユーザを特定する (ステップ S T 2 ) o
次に、 制御部 2は入力デバイス 1 1の入力信号を検出し、 その入力信 号が練習モー ドの実行を指示する信号であるかを調べる (ステップ S T 3 ) 。 ここで、 ユーザが練習モードを選択した場合には、 ステップ S T 4の練習モー ドの処理を実行する (練習モー ドは第 3図を用いて後述す る) 。 一方、 練習モー ドが選択されなかった場合には、 制御部 2はステ ヅプ S T 5及び S T 6 において命令実行モー ドの処理を実行する。 まず 、 入力デバイス 1 1からの入力信号及び/又はマイ ク 8からの音声によ る命令の入力を待つ (ステップ S T 5 ) 。
ユーザによって音声がマイク 8に入力されると、 音声認識部 5は入力 された音声を認識する。 このとき、 音声認識部 5は、 ステップ S T 2で 特定されたユーザ用の認識パラメ一夕をメモリ 2から読み出し、 このパ ラメ一夕を用いて音声を認識する。 次に、 制御部 2は音声認識部 5の認 識結果に基づいて、 複数の命令のうちどの命令が入力されたかを特定す る。 そして、 特定された命令に対応する処理を実行する (ステップ S T 6 ) o
最後に、 制御部 2は、 ユーザが車載制御装置の処理を終了する操作 ( 例えば、 電源を切る操作) をしたかを、 入力デバイス 1 1やイ ン夕フエ ースを介して電源キーからの電気信号等に基づき検出する (ステップ S T 7 ) 。 ここで、 終了の操作がない場合には、 制御部 2はステップ S T 3からの処理を繰り返す。 一方、 終了操作があった場合には、 処理を終 了する。
次に練習モー ド時の車載制御装置の動作について説明する。 第 3図は 、 制御部 2が実行するプログラムのフローチャー トであり、 第 2図のス テヅプ S T 4の処理である。
練習モードがユーザにより選択されると、 制御部 2は、 表示装置 6 に 第 4図の ( a ) に示す初期画面を表示する(ステップ S T 1 1 )。 この初 期画面は、 ユーザに対して練習モー ドの処理全体の流れを説明するため の画面である。
次に、 制御部 2は、 ユーザが入力デバイス 1 1 に入力した命令を検知 し、 その命令が 「スター ト」 である場合には、 第 4図 ( b ) に示す操作 説明画面を表示する(ステップ S T 1 2 )。 この操作説明の表示では、 制 御部 2は音声命令の例文をメモリ 3から読み出し、 表示装置 6へ表示す る。 このとき、 第 4図 ( b ) のように、 入力デバイス 1 1の操作(例え ば、 音声入力時の発話ボタンの押下)を含めた全般的な操作まで説明す ることもできる。
ユーザが操作説明に従って発話を開始すると、 制御部 2は、 マイク 8 によって受信された音声をメモリ 2へ記録する(ステップ S T 1 3 )。 例 えば、 操作説明として 「発話スィ ッチを押して、 近くのコンビニと発話 して く ださい」 という説明が表示された場合、 ユーザはハン ドル等に設 けられた発話スィ ッチを押し、 発話を開始する。 制御部 2は発話スィ ッ チの押下を検出すると、 マイク 8が受信した音声信号の記録を開始する 次に、 制御部 2は音声認識部 5へステップ S T 1 3で記録された音声 の分析と声の特徴の学習を指示する(ステップ S T 1 4 )。 音声認識部 5 は、 公知の音声認識アルゴリズムに従って、 音声の特徴を分析し、 分析 結果をメモリ 2に記録する。 例えば、 音声認識部 5は、 メモリ 2 に記憶 された音声の標準パターンと入力された音声のパターンとを比較し、 複 数の特徴、 例えば音量、 発話速度、 発話タイ ミ ング、 又は入力された音 声の尤度、 不要な言葉 (以下、 付帯語という) が含まれていないか等に ついて、 各特徴毎に分析し、 分析結果を出力する。
さらに、 音声認識部 5は、 ユーザの音声を標準パターンと比較するこ とによ り、 ユーザ音声の特徴を分析し、 ユーザの音声の特徴に合わせて 音声認識のパラメ一夕を修正する学習を行う。 なお、 音声認識のァルゴ リズムとパラメ一夕学習法については、 公知の様々な技術を使用するこ とができる。 例えば、 音声認識部 5は、 特開平 1卜 242494号公報に記載 された隠れマルコフモデルを使用した音声認識方法と使用者依存パラメ 一夕の学習方法とを実行するこ とによ り、 ステップ S T 1 4の処理を行 う ことができる。
続いて、 制御部 2はステップ S T 1 4で行った分析結果に基づいて、 入力された音声が良好であるかを判断する (ステップ S T 1 5 ) 。 音声 が良好であるかについては、 音声認識の行いやすさを示すどのようなパ ラメ一夕を用いてもよいが、 例えば、 音量、 発話速度、 発話タイ ミ ング 、 入力された音声の尤度、 又は、 付帯語の有無のいずれかにおいて、 「 不良」 が検出された場合には、 制御部 2は総合的な分析結果を 「不良」 と判断する。 一方、 全ての分析結果が 「良好」 である場合にば、 総合的 な分析結果は 「良好」 となる。
ステップ S T 1 5で、 分析結果が良好と判断された場合には、 制御部 2は尤度に応じたスコアと 「うま く認識できま した」 というメ ッセージ を表示装置 6 に表示する。
一方、 ステップ S T 1 5で分析結果が 「不良」 と判断された場合には 、 制御部 2は表示装置 6 に、 分析結果に関連付けられたテキス トをア ド バイス情報として表示する (テキス トについては、 第 6図のア ドバイス 内容参照) 。 表示するテキス トの例を第 4図 ( c ) に示す。 また、 制御 部 2は、 音声の尤度を示すスコアも表示装置 6 に表示するようにしても よい。 このとき、 スコアは、 ユーザに分かりやすいように制御部 2が内 部的に使用するスコアからこのスコアに応じた抽象化されたデータを表 示するようにしてもよい。 例えば、 内部のスコアが 0 ~ 1 0 0 0点の範 囲である場合に、 制御部 2は、 この内部スコアの範囲を 1 0 0点ずつに 区切り、 0〜 1 0 レベルに変換して、 スコアとして表示装置 6に表示す る。
次に、 制御部 2は予め用意された練習項目全てが終了したかを判断す る (ステップ S T 1 8 ) 。 練習が終了していない場合には、 ステップ S T 1 2 に戻り、 異なる命令について練習を実行する処理を繰り返す。 一方、 終了した場合には、 制御部 2は、 第 5図に示すように総合的な 分析結果と分析結果に基づく ア ドバイスを表示する (ステップ S T 1 9 ) 。 第 6図は、 音声入力の分析結果の分類とステップ S T 1 8で表示さ れるァ ドバイスのテキス ト とを示している。
例えば、 ステップ S T 1 2 〜 S T 1 8の練習の繰り返しによ り、 合計 5項目の命令を練習したとき、 制御部 2は、 第 5図に示すように 1回目 〜 5回目までのスコアとア ドバイスとをまとめて表示する。 例と して、 1回目の練習の結果、 音声の音量が— 3 0デシベル以下であった場合、 制御部 2は表示装置 6 に 「 1 大きな声でお話ください」 と表示する。 ア ドバイス内容のテキス トは、 分析結果のテキス ト (例えば、 「声が小 さいようです。 」 ) と音声入力の改善策を案内するア ドバイスのテキス ト (例えば、 「大きな声でお話ください。 」 ) とを持つが、 ステップ S T 1 7で表示されるテキス トを簡易化したい場合には、 制御部 2は、 第 5図のようにァ ドバイスのテキス トのみを表示するようにすることもで ぎる。
なお、 第 5図の画面が表示されている場合に、 ユーザが入力デバイス 1 1 を用いて 「やり直す」 というアイコンを選択した場合には、 制御部 2はステップ S T 1 1 からの処理を繰り返す。
最後に、 ユーザが 「登録」 のアイコンを選択した場合、 制御部 2は、 ステップ S T 1 4で学習したパラメ一夕を、 現在のユーザ用のパラメ一 夕としてメモリ 2 に記憶する (ステップ S T 2 0 ) o このとき、 制御部 2は、 ユーザ毎に学習したパラメ一夕を分けて記憶する。 まず、 制御部 2は、 表示装置 6 に第 7図に示すように、 ユーザ毎に分けられているパ ラメ一夕の記憶場所のうち、 どの記憶場所を選択するかを問い合わせる 問合せ画面を表示する。 ユーザによる選択は、 入力デバイス 1 1 に入力 され、 制御部 2が入力デバイス 1 1からの入力情報に基づいて記憶場所 を特定し、 学習したパラメ一夕を記憶する。 なお、 既にパラメ一夕が登 録されている場合には、 既に登録されているパラメ一夕と今回学習した パラメ一夕とを合成し、 合成後のパラメ一夕をメモリに記憶する。 この 合成は、 音声認識率を向上させることのできる方法であればどのような 方法でもかまわないが、 例えば、 平均、 最新の学習パラメ一夕の重要度 に応じて、 既存のパラメ一夕と現在のパラメ一夕のそれそれに重み付け を行って、 加算する方法等を採用することができる。 • 音声分析の詳細
例えば、 入力された音声が良好であるか否かは、 以下の方法で判別す る (検出方法については、 第 6図を参照) 。
( 1 ) 文頭付帯語の有無
音声認識部 5は、 メモリ 2 に記憶された付帯語の標準パターンと入力 された音声とを比較し、 音声の頭に付帯語に一致するパターンがある場 合に、 分析結果を 「不良」 として出力する。 一方、 付帯語がない場合に は分析結果は 「良好」 となる。
( 2 ) 音量の大小
音声認識部 5は、 入力された音声の音量が予め定められた範囲にある かを検出し、 音量がその範囲内にない場合に、 「不良」 の分析結果を出 力する。 一方、 範囲内にある場合には、 分析結果は 「良好」 となる。 予 め定められた範囲は、 例えば、 マイ ク 8で検出可能な音量の最大値を 0 デシベルとしたとき、 音量が 0デシベル未満 3 0デシベルの範囲と 設定する。
( 3 ) 発話時間の長短
音声認識部 5は、 入力された音声の時間長を測り、 この時間長と標準 パターンの時間長とを比較して、 両者の差異が予め定められた範囲にあ る場合に、 良好と判断することができる。
予め定められた範囲は、 任意に設定することができるが、 例えば、 入 力された音声の時間長が標準パターンの時間長に比べて、 + 2 5 %〜一 2 5 %に設定することができる。
( 4 ) 発話タイ ミ ング
音声認識部 5は、 入力された音声の発話時期が、 予め定められた範囲 にあるかを判断する。 ここで、 発話時期がその範囲内にある場合には、 分析結果は 「良好」 とな り、 範囲外である場合には、 「不良」 となる。 例えば、 マイク 8が音声を取得する期間において、 期間の最初から音声 が入力されている場合には、 分析結果は 「不良」 となる。 また、 入力さ れた音声が音声命令の最大入力時間を超えて発話されている場合や、 上 述の音声を取得する期間の最後に音声入力が検出された場合にも分析結 果は 「不良」 となる。 なお、 これ以外の場合には、 分析結果は良好とな る。
( 5 ) パターンの尤度
音声認識部 5は、 メモ リ 2 に記憶された標準パターンと入力された音 声のパターンとを比較し、 尤度を検出する。 尤度が予め設定された閾値 以上であった場合に、 分析結果は 「良好」 となり、 閾値未満である場合 には、 分析結果は 「不良」 となる。 尤度は、 標準パターンと入力された 音声のパターンとのユーク リ ッ ド距離によ り示される。 このとき、 音声 認識部 5は、 尤度に基づいてスコアを算出する。 例えば、 理論的に最も 尤度の高いときのスコアを 1 0 0 0 とし、 実用上最も低いと考えられる 尤度のときのスコアを 0 としたとき、 尤度に比例してスコアが変化する ように、 尤度の関数としてスコアを算出する。 なお、 閾値は、 どのよう な値を設定することもできるが、 例えば、 スコアが 6 0 0以上というよ うに設定することができる。
( 6 ) 文末付帯語の有無
音声認識部 5は、 ( 1 ) の文頭付帯語の検出と同様に、 文末に付帯語 がないか検出し、 付帯語が検出された場合に分析結果を 「不良」 と し、 検出されなかった場合に、 分析結果を 「良好」 とする。
• 例文の詳細
練習モー ドでは、 第 3図のステップ S T 1 2及び S T 1 3で説明した ように、 1つの命令だけでなく、 複数の異なる命令も練習することがで きる。 以下に、 命令の例文の構成について説明する。 例文はメモリ 2 に β憶されており 例えば、 制御部 2は以下に示す 5つの例文を使用する
( a ) 周辺施設検索
「近くのコンビニ」
( b ) 住所検索
「東京都港区南青山」
( c ) 施設検索
「東京都の東京 ドーム」
( d ) 目的地設定
「ここに行く」
( e ) ルート設定以外の制御命令
「 2画面」
上述 ( a ) 〜 ( e ) の文には、 複数の異なる文法の命令が含まれてお り、 音声認識部 5は、 異なる文法で発話された複数の音声について学習 をすることができる。 従って、 「近くのコンビニ」 、 「近くのガソリ ン スタン ド」 といったように単調な 1つの文法で話した文を学習する場合 に比べ、 より認識精度の高い学習を行うことができる。
また、 上述 ( a ) 〜 ( e ) の文には、 品詞の異なる単語が含まれてい る。 例えば、 名詞及び数詞が含まれており、 地名のような名詞のみなら ず、 数字の発音についても話者依存の認識パラメ一夕を学習することが できる。 従って、 学習による認識率の向上が地名のような名詞のみに偏 るという ことを抑制できる。
なお、 以上の説明では、 カーナビゲ一シヨ ン装置を中心に説明したが 、 車載制御装置はこの例に限らず、 車又は車外の電子機器を音声で操作 する車載制御装置であればどのようなものでもかまわない。 例えば、 車 載制御装置としては、 車載の電子機器、 例えば、 エアコンやオーディオ 等を制御する制御装置がある。 また、 車外の電子機器を制御する制御装 置と しては、 例えば、 イ ンタフェース 1 0に接続された送信機を介して 、 車外のさまざまな電子機器を制御する制御装置が考えられる。 車外の 電子機器は、 その種類を選ばす、 例えば、 家庭用若しくは業務用のエア コン、 家のセキュ リティ システム、 ホームサーバ、 その他の電化製品、 ファース 卜フー ド若しく はガソ リ ンスタン ド等の販売店での料金支払い 器、 駐車場の出入り 口に設けられたゲー ト装置等、 通信回線で接続され たあらゆる電子機器が含まれる。
また、 第 1 図の制御装置は、 音声認識部 5が音声認識用 L S Iで構成さ れた例を示したが、 音声認識部は専用回路で構成された場合に限らず、 メモリ 2に記憶された音声認識用プログラムを用いてもよい。 この場合 、 音声認識プログラムは、 制御部 2又は音声認識にもっぱら利用される 別個のプロセッサによって実行される。
また、 上述の実施の形態では、 音声分析を、 前処理として音声認識部 5が行い、 制御部 2がその分析結果を用いて、 ア ドバイスを表示する処 理を行ったが、 パターンの尤度以外の処理は、 制御部 2で行う こともで きる o
また、 上述の実施の形態では、 複数のユーザの認識パラメ一夕を登録 したが、 特定のユーザしか使用しない場合もあるため、 練習モードで登 録される認識パラメ一夕は、 ユーザ毎に分けなく ともよい。 特定のユー ザしか使用しない場合には、 第 2図のステップ S T 2の使用者登録の処 理は不要である。
メモリ 2は揮発性又は/及び不揮発性のメモリ を使用することができ る。 また、 記憶手段としては、 ハー ドディスク、 DVD-RAM等の記憶装置 を使用してもかまわない。
また、 上述の練習モー ドは、 練習音声の分析結果からア ドバイスを出 力し、 ユーザが操作方法を修正することができ、 非常に有用である。 従 つて、 上述の認識パラメ一夕の学習機能を持たない練習モー ドとして使 用することもできる。 産業上の利用可能性
以上のように、 この発明に係る車載制御装置は、 音声命令に従う制御 を行う場合にユーザの作業を低減して使用するのに適している。

Claims

1 . ユーザの音声に基づいて、 入力された音声命令を認識する音声認識 手段と、
前記音声認識手段で認識された音声命令を実行する命令実行モー ド、 口
及び前記ユーザに対して操作方法を説明し前記ユーザに操作の練習をさ せる練習モードを有し、 前記練習モー ドにおいて、 音声命令を用いた車 載制御装置の操作説明を表示する制の ^御手段と、 を備え、
前記音声認識手段は、 前記練習モー ドにおいて、 前記音声命令に対応 して発話された練習音声を取得し、 この練習囲音声に基づいて前記ユーザ の音声の特徴を学習する車載制御装置。
2 . 文法の異なる複数の種類の前記音声命令がある場合に、 前記練習モ ードで、 前記文法に従った音声命令の操作説明及び練習音声の入力を練 習対象となる音声命令を替えて複数回行う ことを特徴とする請求の範囲 第 1項記載の車載制御装置。
3 . 前記制御手段は、 前記操作説明に従って発声されたユーザの練習用 音声の分析結果を表示することを特徴とする請求の範囲第 1項記載の車 載制御装置。
4 . 前記制御手段は、 前記分析結果に関連付けられたア ドバイス情報を 前記分析結果に従って表示することを特徴とする請求の範囲第 1項記載 の車載制御装置。
5 . 前記音声認識部は、 予め設定された時間長と前記練習音声の長さと を比較し、 前記制御手段は、 前記音声認識部による比較結果に基づいて 、 前記練習用音声の長さが前記時間長よ り長い場合には、 前記ア ドバイ ス情報と して、 発話の時間長修正を促す表示を出力することを特徴とす る請求の範囲第 4項記載の車載制御装置。
6 . 前記音声認識部は、 前記練習音声が予め定められた閾値以下である かを検出し、 前記制御手段は、 前記音声認識部の検出結果に基づいて、 前記ア ドバイス情報として、 発話音量の増加を促す表示を出力すること を特徴とする請求の範囲第 4項記載の車載制御装置。
7 . 前記音声認識部は、 前記練習音声の一部に前記音声命令に属さない 音声があるか否かを検出し、 前記制御手段は、 前記音声認識部が前記音 声命令に属さない音声を検出した場合には、 前記ァ ドバイス情報として 、 前記音声命令に属さない音声の修正を促す表示を出力することを特徴 する請求の範囲第 4項記載の車載制御装置。
8 . 前記音声認識部は、 前記練習音声の入力タイ ミ ングが予め定められ たタイ ミ ングよ り早いかを検出し、 前記制御手段は、 前記音声認識部の 検出結果に基づいて、 前記ア ドバイス情報として、 発話タイ ミ ングの修 正を促す表示を出力することを特徴とする請求の範囲第 4項記載の車載 制御装置。
9 . 音声認識手段で認識された音声命令を実行する命令実行モー ド、 及 びユーザに対して操作方法を説明し前記ユーザに操作の練習をさせる練 習モー ドを有する車載制御装置の操作説明方法をコンピュー夕に実行さ せるプログラムであって、 前記練習モー ドにおいて記憶装置に記憶された車載制御装置の操作説 明をユーザに対して出力する説明出力ステップと、
この説明出力ステップによる操作説明に基づいて発話された練習音声 を記録する記録ステップと、
前記記録ステップで記録された練習音声に基づいて、 音声認識手段が 音声を認識し、 分析結果をユーザに対して出力する音声認識ステップと 前記記録ステップで記録された前記練習音声に基づいて前記ユーザの 音声の特徴を学習する学習ステップと、
を備えたことを特徴とする車載制御装置の操作説明方法をコ ンピュータ に実行させるプログラム。
1 0 . 前記練習音声に基づいて、 音声入力の修正についてのア ドバイス を前記ユーザへ対して出力する修正案内ステップと、 を備えたことを特 徴とする請求の範囲第 9項記載の車載制御装置の操作説明方法をコンビ ユー夕に実行させるプログラム。
PCT/JP2003/012848 2002-10-07 2003-10-07 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム WO2004032113A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP03754013A EP1450349B1 (en) 2002-10-07 2003-10-07 Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US10/497,695 US7822613B2 (en) 2002-10-07 2003-10-07 Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-293327 2002-10-07
JP2002293327A JP4304952B2 (ja) 2002-10-07 2002-10-07 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム

Publications (1)

Publication Number Publication Date
WO2004032113A1 true WO2004032113A1 (ja) 2004-04-15

Family

ID=32064007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/012848 WO2004032113A1 (ja) 2002-10-07 2003-10-07 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム

Country Status (4)

Country Link
US (1) US7822613B2 (ja)
EP (1) EP1450349B1 (ja)
JP (1) JP4304952B2 (ja)
WO (1) WO2004032113A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448762B2 (en) 2017-09-15 2019-10-22 Kohler Co. Mirror
US10663938B2 (en) 2017-09-15 2020-05-26 Kohler Co. Power operation of intelligent devices
US10887125B2 (en) 2017-09-15 2021-01-05 Kohler Co. Bathroom speaker
US11093554B2 (en) 2017-09-15 2021-08-17 Kohler Co. Feedback for water consuming appliance
US11099540B2 (en) 2017-09-15 2021-08-24 Kohler Co. User identity in household appliances

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
JP4722499B2 (ja) * 2005-01-25 2011-07-13 本田技研工業株式会社 音声認識型機器制御装置および車両
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7949533B2 (en) 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7827032B2 (en) 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP5066668B2 (ja) * 2005-11-08 2012-11-07 株式会社国際電気通信基礎技術研究所 音声認識装置、およびプログラム
WO2007118029A2 (en) * 2006-04-03 2007-10-18 Vocollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
WO2008084575A1 (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corporation 車載用音声認識装置
US20100070932A1 (en) * 2008-09-18 2010-03-18 Nissan Technical Center North America, Inc. Vehicle on-board device
US7953552B2 (en) * 2008-11-21 2011-05-31 Gary Severson GPS navigation code system
US8131460B2 (en) * 2008-11-21 2012-03-06 Gary Severson GPS navigation code system
CN102696029B (zh) * 2010-01-06 2015-05-27 株式会社东芝 信息检索装置、信息检索方法及信息检索程序
JP2012212351A (ja) * 2011-03-31 2012-11-01 Mazda Motor Corp 車両用情報提供装置
JP5673330B2 (ja) * 2011-04-25 2015-02-18 株式会社デンソー 音声入力装置
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
KR101987255B1 (ko) * 2012-08-20 2019-06-11 엘지이노텍 주식회사 음성 인식 장치 및 이의 음성 인식 방법
JP2014071519A (ja) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd 状態判定装置、運転支援システム、状態判定方法及びプログラム
US9691377B2 (en) 2013-07-23 2017-06-27 Google Technology Holdings LLC Method and device for voice recognition training
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9548047B2 (en) 2013-07-31 2017-01-17 Google Technology Holdings LLC Method and apparatus for evaluating trigger phrase enrollment
JP6432233B2 (ja) * 2014-09-15 2018-12-05 株式会社デンソー 車両用機器制御装置、制御内容検索方法
US20160291854A1 (en) * 2015-03-30 2016-10-06 Ford Motor Company Of Australia Limited Methods and systems for configuration of a vehicle feature
CN104902070A (zh) * 2015-04-13 2015-09-09 青岛海信移动通信技术股份有限公司 一种移动终端语音控制的方法及移动终端
US10096263B2 (en) 2015-09-02 2018-10-09 Ford Global Technologies, Llc In-vehicle tutorial
WO2017130486A1 (ja) * 2016-01-28 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6860553B2 (ja) * 2016-03-30 2021-04-14 川崎重工業株式会社 鞍乗型車両の情報出力装置
WO2017168465A1 (ja) * 2016-03-30 2017-10-05 川崎重工業株式会社 鞍乗型車両用処理装置
US10937415B2 (en) * 2016-06-15 2021-03-02 Sony Corporation Information processing device and information processing method for presenting character information obtained by converting a voice
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
WO2019138651A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20210133600A (ko) * 2020-04-29 2021-11-08 현대자동차주식회사 차량 음성 인식 방법 및 장치

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4672668A (en) * 1982-04-12 1987-06-09 Hitachi, Ltd. Method and apparatus for registering standard pattern for speech recognition
JPS62232692A (ja) * 1986-04-03 1987-10-13 株式会社リコー 特定話者音声登録方法
JPH01285998A (ja) * 1988-05-13 1989-11-16 Sharp Corp 音声認識装置
JPH0488399A (ja) * 1990-08-01 1992-03-23 Clarion Co Ltd 音声認識装置
JPH04310045A (ja) * 1991-04-08 1992-11-02 Clarion Co Ltd 練習機能付き音声ダイヤル装置
JPH11194790A (ja) * 1997-12-29 1999-07-21 Kyocera Corp 音声認識作動装置
JP2000097719A (ja) 1999-09-20 2000-04-07 Aisin Aw Co Ltd ナビゲ―ション装置
JP2000352992A (ja) * 1999-06-11 2000-12-19 Fujitsu Ten Ltd 音声認識装置
WO2002021509A1 (en) 2000-09-01 2002-03-14 Snap-On Technologies, Inc. Computer-implemented speech recognition system training

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987007460A1 (en) 1986-05-23 1987-12-03 Devices Innovative Voice activated telephone
US4827520A (en) 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
US5909666A (en) * 1992-11-13 1999-06-01 Dragon Systems, Inc. Speech recognition system which creates acoustic models by concatenating acoustic models of individual words
US5444673A (en) * 1994-07-12 1995-08-22 Mathurin; Trevor S. Audio controlled and activated wristwatch memory aid device
US5710864A (en) * 1994-12-29 1998-01-20 Lucent Technologies Inc. Systems, methods and articles of manufacture for improving recognition confidence in hypothesized keywords
US5970457A (en) * 1995-10-25 1999-10-19 Johns Hopkins University Voice command and control medical care system
US5799279A (en) * 1995-11-13 1998-08-25 Dragon Systems, Inc. Continuous speech recognition of text and commands
US5864338A (en) * 1996-09-20 1999-01-26 Electronic Data Systems Corporation System and method for designing multimedia applications
US5922042A (en) * 1996-09-30 1999-07-13 Visteon Technologies, Llc Automatic resumption of route guidance in vehicle navigation system
JP3820662B2 (ja) 1997-02-13 2006-09-13 ソニー株式会社 車両のナビゲーション装置及び方法
US6006185A (en) * 1997-05-09 1999-12-21 Immarco; Peter System and device for advanced voice recognition word spotting
US6275231B1 (en) * 1997-08-01 2001-08-14 American Calcar Inc. Centralized control and management system for automobiles
US6295391B1 (en) * 1998-02-19 2001-09-25 Hewlett-Packard Company Automatic data routing via voice command annotation
JP3412496B2 (ja) 1998-02-25 2003-06-03 三菱電機株式会社 話者適応化装置と音声認識装置
JP2000009480A (ja) 1998-06-25 2000-01-14 Jatco Corp 位置情報表示装置
US6411926B1 (en) * 1999-02-08 2002-06-25 Qualcomm Incorporated Distributed voice recognition system
WO2001007281A1 (en) * 1999-07-24 2001-02-01 Novtech Co Ltd Apparatus and method for prevention of driving of motor vehicle under the influence of alcohol and prevention of vehicle theft
US6801222B1 (en) * 1999-10-14 2004-10-05 International Business Machines Corporation Method and system for dynamically building application help navigation information
US6535850B1 (en) * 2000-03-09 2003-03-18 Conexant Systems, Inc. Smart training and smart scoring in SD speech recognition system with user defined vocabulary
US6671669B1 (en) * 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
JP2002132287A (ja) * 2000-10-20 2002-05-09 Canon Inc 音声収録方法および音声収録装置および記憶媒体
JP3263696B2 (ja) 2000-11-10 2002-03-04 富士通テン株式会社 ナビゲーション装置の現在位置表示方法
JP4348503B2 (ja) * 2000-12-21 2009-10-21 三菱電機株式会社 ナビゲーション装置
US20020178004A1 (en) * 2001-05-23 2002-11-28 Chienchung Chang Method and apparatus for voice recognition
US7292918B2 (en) * 2002-06-21 2007-11-06 Intel Corporation PC-based automobile owner's manual, diagnostics, and auto care
EP1400951B1 (de) * 2002-09-23 2009-10-21 Infineon Technologies AG Verfahren zur rechnergestützten Spracherkennung, Spracherkennungssystem und Steuereinrichtung zum Steuern eines technischen Systems und Telekommunikationsgerät
GB0224806D0 (en) * 2002-10-24 2002-12-04 Ibm Method and apparatus for a interactive voice response system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4672668A (en) * 1982-04-12 1987-06-09 Hitachi, Ltd. Method and apparatus for registering standard pattern for speech recognition
JPS62232692A (ja) * 1986-04-03 1987-10-13 株式会社リコー 特定話者音声登録方法
JPH01285998A (ja) * 1988-05-13 1989-11-16 Sharp Corp 音声認識装置
JPH0488399A (ja) * 1990-08-01 1992-03-23 Clarion Co Ltd 音声認識装置
JPH04310045A (ja) * 1991-04-08 1992-11-02 Clarion Co Ltd 練習機能付き音声ダイヤル装置
JPH11194790A (ja) * 1997-12-29 1999-07-21 Kyocera Corp 音声認識作動装置
JP2000352992A (ja) * 1999-06-11 2000-12-19 Fujitsu Ten Ltd 音声認識装置
JP2000097719A (ja) 1999-09-20 2000-04-07 Aisin Aw Co Ltd ナビゲ―ション装置
WO2002021509A1 (en) 2000-09-01 2002-03-14 Snap-On Technologies, Inc. Computer-implemented speech recognition system training

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448762B2 (en) 2017-09-15 2019-10-22 Kohler Co. Mirror
US10663938B2 (en) 2017-09-15 2020-05-26 Kohler Co. Power operation of intelligent devices
US10887125B2 (en) 2017-09-15 2021-01-05 Kohler Co. Bathroom speaker
US11093554B2 (en) 2017-09-15 2021-08-17 Kohler Co. Feedback for water consuming appliance
US11099540B2 (en) 2017-09-15 2021-08-24 Kohler Co. User identity in household appliances
US11314214B2 (en) 2017-09-15 2022-04-26 Kohler Co. Geographic analysis of water conditions
US11314215B2 (en) 2017-09-15 2022-04-26 Kohler Co. Apparatus controlling bathroom appliance lighting based on user identity
US11892811B2 (en) 2017-09-15 2024-02-06 Kohler Co. Geographic analysis of water conditions
US11921794B2 (en) 2017-09-15 2024-03-05 Kohler Co. Feedback for water consuming appliance
US11949533B2 (en) 2017-09-15 2024-04-02 Kohler Co. Sink device

Also Published As

Publication number Publication date
EP1450349A1 (en) 2004-08-25
EP1450349B1 (en) 2011-06-22
US20050021341A1 (en) 2005-01-27
US7822613B2 (en) 2010-10-26
EP1450349A4 (en) 2006-01-04
JP2004126413A (ja) 2004-04-22
JP4304952B2 (ja) 2009-07-29

Similar Documents

Publication Publication Date Title
WO2004032113A1 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
US7617108B2 (en) Vehicle mounted control apparatus
JP4131978B2 (ja) 音声認識機器制御装置
JP4260788B2 (ja) 音声認識機器制御装置
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
US20080177541A1 (en) Voice recognition device, voice recognition method, and voice recognition program
US9123327B2 (en) Voice recognition apparatus for recognizing a command portion and a data portion of a voice input
JP2008058409A (ja) 音声認識方法及び音声認識装置
JP3702867B2 (ja) 音声制御装置
JP2007011380A (ja) 自動車インターフェース
JP2002169584A (ja) 音声操作システム
JP2003114698A (ja) コマンド受付装置及びプログラム
JP3842497B2 (ja) 音声処理装置
JP2000322088A (ja) 音声認識マイクおよび音声認識システムならびに音声認識方法
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP3837061B2 (ja) 音信号認識システムおよび音信号認識方法並びに当該音信号認識システムを用いた対話制御システムおよび対話制御方法
JP4796686B2 (ja) 自動音声認識器を訓練する方法
JP2001312297A (ja) 音声認識装置
JP3500948B2 (ja) 音声認識装置
JP2000305596A (ja) 音声認識装置及びナビゲーション装置
WO2015102039A1 (ja) 音声認識装置
JPH08160988A (ja) 音声認識装置
JPH1165592A (ja) 音声入力システム
JP2019120904A (ja) 情報処理装置、方法、及びプログラム
JP2006078791A (ja) 音声認識装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

WWE Wipo information: entry into national phase

Ref document number: 2003754013

Country of ref document: EP

Ref document number: 10497695

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003754013

Country of ref document: EP