JPH0844387A - Voice recognizing device - Google Patents

Voice recognizing device

Info

Publication number
JPH0844387A
JPH0844387A JP20287294A JP20287294A JPH0844387A JP H0844387 A JPH0844387 A JP H0844387A JP 20287294 A JP20287294 A JP 20287294A JP 20287294 A JP20287294 A JP 20287294A JP H0844387 A JPH0844387 A JP H0844387A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
dictionary
identification data
voice
unit
personal identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20287294A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yamakawa
博幸 山川
Original Assignee
Aqueous Res:Kk
株式会社エクォス・リサーチ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PURPOSE:To change over the dictionary for specified speakers in accordance with a user dispensing with a complex operation in a voice recognizing device used as a voice input device in an atuomobile. CONSTITUTION:The dictionary for a voice recognition 43 has plural dictionaries for specified speakers and plural dictionaries for unspecified speakers. A data read-out part 25 reads out personal recognition data held in the personal recognition data holding part of ignition key. A recognition deciding part 45 performs voice recognition by using dictionaries for specified speakers and directories for unspecified speaker in the case the personal recognition data are present while selecting the dictionary corresponding to a specific speaker performing a voice input with the dictionary for the voice recognition 43 based on the personal recognition and by using dictionaries for unspecified speakers in the case the personal recognition data are not present.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【産業上の利用分野】本発明は、自動車内における音声入力装置として用いられる音声認識装置に関する。 The present invention relates to a speech recognition device used as a sound input device in a car.

【0002】 [0002]

【従来の技術】近年、人間の話した音声を言葉として認識する音声認識装置が実用化されつつある。 In recent years, recognizes the human story was the voice as word speech recognition device is being put to practical use. この音声認識装置は、例えば、自動車のナビゲーション装置において目的地や指示情報等を音声入力する場合の音声入力装置として用いることが考えられる。 The speech recognition apparatus, for example, it is considered to use a destination and instruction information such as a sound input device in the case of voice input in the navigation device of an automobile. ところで、音声認識では、不特定の複数の人(不特定話者)の音声を認識する不特定話者認識よりも、特定の人(特定話者)の音声を認識する特定話者認識の方が認識率が高い。 By the way, in the speech recognition, than the non-specific speaker recognition recognizes the voice of unspecified multiple people (unspecified speaker), towards the specific speaker recognition to recognize the voice of a specific person (specific speaker) There is a high recognition rate. そこで、 there,
不特定話者認識を行う音声認識装置においても、音声の特徴を記憶する用辞書を学習させることによって、特定話者用の辞書を形成して、特定話者について特に認識率を向上させることが考えられる。 Also in the speech recognition apparatus for performing speaker-independent recognition by learning use the dictionary to store the characteristics of the voice, by forming a dictionary for a particular speaker, it is possible to improve the particular recognition rate for a particular speaker Conceivable.

【0003】 [0003]

【発明が解決しようとする課題】このような音声認識装置において、特定話者を複数存在させたい場合には、各特定話者毎に辞書を設け、使用者に応じて辞書を切り換える必要がある。 [Problems that the Invention is to Solve In such a speech recognition apparatus, when it is desired to plurality of the specific speaker is provided with a dictionary for each specific speaker, it is necessary to switch the dictionary in accordance with the user . この場合、使用者がスイッチ等を操作して辞書を切り換えるようにすると、操作が煩雑になるという問題点がある。 In this case, when the user to switch the dictionary by operating a switch or the like, there is a problem that the operation becomes complicated. また、音声認識装置が話者認識を行って使用者を判別するようにすることも考えられるが、現状の技術レベルでは実用化が難しい。 Moreover, it is conceivable to make the speech recognition device to determine the user performs speaker recognition, it is difficult practically at present level of technology.

【0004】そこで本発明の目的は、自動車内における音声入力装置として用いられる音声認識装置において、 [0004] An object of the present invention, the speech recognition device used as a sound input device in a car,
複数の特定話者用辞書を有し、煩雑な操作を必要とすることなく、使用者に応じて特定話者用辞書を切り換えることができるようにした音声認識装置を提供することにある。 A plurality of specific speaker dictionary, without the need for complicated operations, is to provide a speech recognition apparatus which can be switched dictionaries for a particular speaker in accordance with the user.

【0005】 [0005]

【課題を解決するための手段】請求項1記載の発明では、自動車のイグニッションキーに設けられ、音声入力を行う特定話者を識別するための個人識別データを保持する個人識別データ保持部と、この個人識別データ保持部に保持された個人識別データを読み取る個人識別データ読み取り手段と、複数の特定話者毎に設けられ、各特定話者の音声の特徴を記憶する複数の特定話者用辞書と、音声を入力する音声入力手段と、この音声入力手段によって入力された音声の特徴を抽出する特徴抽出手段と、個人識別データ読み取り手段によって読み取られた個人識別データに基づいて、音声入力を行う特定話者に対応した特定話者用辞書を選択し、この特定話者用辞書と特徴抽出手段によって抽出された特徴を用いて、入力された音声を認識する In the invention SUMMARY OF THE INVENTION claim 1, provided in a vehicle ignition key, and the personal identification data holding unit for holding a personal identification data for identifying a particular speaker for audio input, and personal identification data read means for reading personal identification data stored in the personal identification data holding unit, provided for each of a plurality of specific speakers, dictionary plurality of specific speakers for storing audio features of each particular speaker performed when a voice input means for inputting a voice, a feature extraction means for extracting a feature of the voice inputted by the voice input means, based on the personal identification data read by the personal identification data read means, a speech input select specific speaker dictionary corresponding to a specific speaker, by using the features extracted by the specific speaker dictionary feature extracting unit recognizes the input speech 識手段とを、自動車内における音声入力装置として用いられる音声認識装置に具備させて、前記目的を達成する。 And identification means, by provided to the speech recognition device used as a sound input device in a car, to achieve the above object. 請求項2記載の音声認識装置は、請求項1記載の音声認識装置において、更に、不特定話者用の音声の特徴を記憶する不特定話者用辞書を備え、認識手段は、個人識別データがある場合には、この個人識別データに基づいて選択した特定話者用辞書と不特定話者用辞書とを用い、個人識別データがない場合には不特定話者用辞書を用いるものである。 The claim 2 speech recognition apparatus, wherein in the speech recognition apparatus of claim 1, further comprising a speaker independent dictionary for storing the audio features for speaker independent recognition means, personal identification data If there has, using the the personal identification data specific speaker dictionary and the dictionary for unspecified speakers were selected based on, if there is no personal identification data is to use a speaker-independent dictionary . 請求項3記載の音声認識装置は、請求項1または2記載の音声認識装置において、ナビゲーション装置の音声入力装置として用いられるものである。 Speech recognition apparatus according to claim 3, wherein, in the speech recognition apparatus according to claim 1 or 2, is used as an audio input device of the navigation device.

【0006】 [0006]

【作用】請求項1記載の音声認識装置では、個人識別データ読み取り手段が、自動車のイグニッションキーの個人識別データ保持部に保持された個人識別データを読み取る。 [Action] In the speech recognition apparatus of claim 1, wherein the personal identification data read means reads the personal identification data stored in the personal identification data holding portion of the ignition key of the motor vehicle. また、特徴抽出手段が、音声入力手段によって入力された音声の特徴を抽出し、認識手段が、個人識別データに基づいて、音声入力を行う特定話者に対応した特定話者用辞書を選択し、この特定話者用辞書と特徴抽出手段によって抽出された特徴を用いて、入力された音声を認識する。 Further, the feature extraction unit extracts the speech features of the input by the voice input means, the recognition means, on the basis of the personal identification data, select a specific speaker dictionary corresponding to a specific speaker for audio input , by using the features extracted by the specific speaker dictionary feature extracting unit recognizes the input speech. 請求項2記載の音声認識装置では、認識手段が、個人識別データがある場合には、この個人識別データに基づいて選択した特定話者用辞書と不特定話者用辞書とを用い、個人識別データがない場合には不特定話者用辞書を用いて、入力された音声を認識する。 In the speech recognition apparatus of claim 2, wherein the recognition means, if there is individual identification data, using a speaker independent dictionary and the dictionary for unspecified speakers that is selected based on this personal identification data, personal identification If there is no data using a non-specific speaker for the dictionary, which recognizes the voice input. 請求項3記載の音声認識装置は、ナビゲーション装置の音声入力装置として用いられる。 Speech recognition apparatus according to claim 3 is used as a sound input device of the navigation device.

【0007】 [0007]

【実施例】以下本発明の音声認識装置における好適な実施例について、図1から図7を参照して詳細に説明する。 The preferred embodiment of the speech recognition apparatus of EXAMPLES Hereinafter the present invention, with reference to FIGS. 1-7 will be described in detail. 図1は本発明の一実施例に係る音声認識装置を音声入力装置として用いたナビゲーション装置の構成を示すブロック図である。 Figure 1 is a block diagram showing a configuration of a navigation apparatus using a voice recognition device according to an embodiment of the present invention as a sound input device. このナビゲーション装置は、演算部10を備え、この演算部10には、タッチパネルとして機能するディスプレイ11aとこのディスプレイ11a This navigation apparatus includes a calculation unit 10, to the operating section 10, the display 11a and the display 11a which functions as a touch panel
の周囲に設けられた操作用のスイッチ11bとを含む表示部11と、この表示部11のタッチパネルやスイッチ11bからの入力を管理するスイッチ入力類管理部12 A display unit 11 including a switch 11b for operation provided around the switch input such management unit for managing the inputs from the touch panel and switches 11b of the display section 11 12
と、現在位置測定部13と、速度センサ14と、地図情報記憶部15と、音声認識部16と、音声出力部17とが接続されている。 When a current position measuring section 13, a speed sensor 14, a map information storage unit 15, a voice recognition unit 16, are connected to an audio output unit 17.

【0008】現在位置測定部13は、緯度と経度による座標データを検出することで、車両が現在走行または停止している現在位置を検出する。 [0008] current location measurement unit 13, by detecting the coordinate data by latitude and longitude, to detect the current position where the vehicle is currently traveling or stopped. この現在位置測定部1 The current position measuring unit 1
3には、人工衛星を利用して車両の位置を測定するGP To 3, GP to measure the position of the vehicle using an artificial satellite
S(Global Position System)レシーバ21と、路上に配置されたビーコンからの位置情報を受信するビーコン受信装置20と、方位センサ22と、距離センサ23とが接続され、現在位置測定部13はこれらからの情報を用いて車両の現在位置を測定するようになっている。 And S (Global Position System) receiver 21, a beacon receiver 20 for receiving position information from being placed on a road beacon, a direction sensor 22, a distance sensor 23 is connected, from these current position measuring section 13 and it measures the current position of the vehicle using the information.

【0009】方位センサ22は、例えば、地磁気を検出して車両の方位を求める地磁気センサ、車両の回転角速度を検出しその角速度を積分して車両の方位を求めるガスレートジャイロや光ファイバジャイロ等のジャイロ、 [0009] azimuth sensor 22, for example, by detecting the geomagnetism geomagnetic sensor for determining the orientation of the vehicle, it detects the rotation angular velocity of the vehicle by integrating the angular velocity such as a gas rate gyro or an optical fiber gyro for determining the orientation of the vehicle gyro,
左右の車輪センサを配置しその出力パルス差(移動距離の差)により車両の旋回を検出することで方位の変位量を算出するようにした車輪センサ、等が使用される。 Left and right wheel sensors and to calculate the amount of displacement of the azimuth by detecting the turning of the vehicle by the output pulse difference wheel sensors arranged (the difference between the moving distance) of, etc. are used. 距離センサ23は、例えば、車輪の回転数を検出して計数し、または加速度を検出して2回積分するもの等の各種の方法が使用される。 The distance sensor 23, for example, counted by detecting the rotational speed of the wheel, or various methods such as those detected by integrating twice the acceleration is used. なお、GPSレシーバ21とビーコン受信装置20は単独で位置測定が可能であるが、G Incidentally, GPS receiver 21 and the beacon receiver 20 but is capable alone position measurement, G
PSレシーバ21やビーコン受信装置20による受信が不可能な場所では、方位センサ22と距離センサ23の双方を用いた推測航法によって現在位置を検出するようになっている。 The location receiver is not possible due to PS receiver 21 and a beacon receiver 20 is adapted to detect the current position by dead reckoning using both the azimuth sensor 22 and distance sensor 23.

【0010】音声認識部16には、音声を入力するためのマイク24と、データ読取部16が接続されている。 [0010] The speech recognition unit 16 includes a microphone 24 for inputting voice, data reading unit 16 are connected.
データ読取部16は、自動車のイグニッションキー38 Data reading unit 16, the motor vehicle ignition key 38
の挿入部内に設けられている。 It is provided to the insertion portion. イグニッションキー38 Ignition key 38
には、音声入力を行う特定話者を識別するための個人識別データを保持する個人識別データ保持部39が設けられている。 The personal identification data holding unit 39 for holding a personal identification data for identifying a particular speaker for audio input is provided. この個人識別データ保持部39は、磁化のパターンや、バーコードのような明暗のパターンや、凹凸のパターン等の形態によって、使用者毎に異なる個人識別データを保持しているデータ読取部25は、この個人識別データ保持部39に保持された個人識別データを、 The personal identification data holding unit 39, and the magnetization pattern, dark pattern or such as a bar code, depending on the form of a pattern or the like irregularities, the data reading unit 25 that holds the different personal identification data for each user the personal identification data stored in the personal identification data holding unit 39,
データ保持の形態に応じて、例えば磁気的、光学的あるいは機械的に読み取るようになっている。 Depending on the form of data retention, for example magnetic, and reads the optical or mechanical. イグニッションキー38に設けられた個人識別データ保持部39、データ読取部25、音声認識部16およびマイク24によって本実施例の音声認識装置が構成されている。 Personal identification data holding unit 39 provided in the ignition key 38, the data reading unit 25, the speech recognition apparatus of this embodiment by the voice recognition unit 16 and the microphone 24 is constituted.

【0011】音声出力部17は、音声を電気信号として出力する音声出力用IC26と、この音声出力用IC2 [0011] The audio output unit 17, an audio output for IC26 for outputting an audio as an electric signal, for the audio output IC2
6の出力を増幅するアンプ27と、このアンプ27の出力をディジタル−アナログ変換するD/Aコンバータ2 An amplifier 27 for amplifying an output of 6, the output of the amplifier 27 a digital - D / A converter 2 to analog conversion
8とを備えている。 And a 8. D/Aコンバータ28の出力端にはスピーカ29が接続されている。 Speaker 29 to the output terminal of the D / A converter 28 is connected.

【0012】演算部10は、速度センサ14および地図情報記憶部15に接続された地図データ読込部31と、 [0012] calculation unit 10 includes a map data reading unit 31 connected to the speed sensor 14 and a map information storage unit 15,
地図描画部32と、地図データ読込部31および地図描画部32を管理する地図管理部33と、地図描画部32 A map drawing unit 32, a map management unit 33 for managing the map data reading unit 31 and the map drawing unit 32, the map drawing unit 32
および表示部11に接続された画面管理部34と、スイッチ入力類管理部12および音声認識部16に接続された入力管理部35と、音声出力部17の音声出力用IC And a screen management unit 34 connected to the display unit 11, an input management unit 35 connected to the switch input such management unit 12 and the voice recognition unit 16, IC for audio output of the audio output unit 17
26に接続された音声出力管理部36と、地図管理部3 An audio output management unit 36 ​​connected to 26, the map management unit 3
3、画面管理部34、入力管理部35および音声出力管理部36を管理する全体管理部37とを備えている。 3, and a system management unit 37 that manages the screen management unit 34, the input management unit 35 and the audio output management unit 36. この演算部10は、CPU(中央処理装置)、ROM(リード・オンリ・メモリ)、RAM(ランダム・アクセス・メモリ)等を備え、CPUがRAMをワーキングエリアとしてROMに格納されたプログラムを実行することによって、上記の各構成を実現するようになっている。 The operating section 10, CPU (central processing unit), ROM (read only memory), RAM provided with a (random access memory) or the like, and executes the CPU is stored in the ROM a RAM as a working area program by, so as to realize the above constitutions.

【0013】図2は、図1における音声認識部16の構成を示すブロック図である。 [0013] Figure 2 is a block diagram showing a configuration of a speech recognition unit 16 in FIG. 1. この図に示すように、音声認識部16は、マイク24から入力される音声信号をディジタル信号に変換する音声入力部41と、この音声入力部41の出力信号から、特徴パラメータを抽出する特徴抽出部42と、不特定話者用辞書と複数の特定話者用辞書を有する音声認識用辞書43と、データ読取部25 As shown in this figure, the speech recognition unit 16, feature extraction for extracting a voice input unit 41 for converting a voice signal input from the microphone 24 into a digital signal, from the output signal of the voice input unit 41, the feature parameters and parts 42, a speech recognition dictionary 43 with unspecified speakers dictionary and a plurality of specific speakers dictionary, data reading unit 25
によって読み取られた個人識別データに対応する特定話者用辞書に、特徴抽出部42によって抽出された特徴パラメータを個人データとして記憶することによって、特定話者用辞書に標準パターンを登録する個人データ記憶処理部44とを備えている。 The specific speaker dictionary corresponding to the individual identification data read by, by storing the characteristic parameters extracted by the feature extraction unit 42 as the personal data, the personal data storage register reference patterns in the dictionary for a specific speaker and a processing unit 44. なお、特徴パラメータとは、音節や単語あるいは音素単位での音声信号の周波数特性である。 Note that the feature parameter, the frequency characteristics of the syllables and words or voice signals in each phoneme. また、特徴抽出部42は、多チャネル・バンドパスフィルタや線形予測分析等によって、この特徴パラメータを抽出する。 The feature extraction unit 42, the multi-channel bandpass filter and the linear prediction analysis such as, for extracting the characteristic parameters.

【0014】音声認識部16は、更に、音声認識用辞書43に記憶された標準パターンと特徴抽出手部42によって抽出された特徴パラメータとを比較して、入力された音声を認識する認識判定部45と、この認識判定部4 [0014] The speech recognition unit 16 further compares the feature parameters extracted by the standard patterns and the feature extraction handle portion 42 which is stored in the voice recognition dictionary 43, recognizes the speech input recognition determination unit 45, the recognition determination section 4
5によって認識された音声の内容に従って、演算部10 In accordance with the contents of the voice recognized by 5, the arithmetic unit 10
に対する入力信号を生成して、演算部10の入力管理部35へ出力する認識結果処理部46とを備えている。 And it generates an input signal for, and a recognition result processing unit 46 to output to the input management unit 35 of the arithmetic unit 10. 認識判定部45は、データ読取部25によって読み取られた個人識別データがある場合には、この個人識別データに基づいて、音声認識用辞書43より、音声入力を行う特定話者に対応した特定話者用辞書を選択し、この特定話者用辞書と不特定話者用辞書とを用い、個人識別データがない場合には不特定話者用辞書を用いるようになっている。 Recognition determination unit 45, if there is individual identification data read by the data reading unit 25, based on the personal identification data, from the voice recognition dictionary 43, specific speaker corresponding to a specific speaker for audio input select Sha dictionary, using the this specific speaker dictionary and the dictionary for unspecified speakers, if there is no personal identification data is made to use a unspecified speakers dictionary. なお、特徴抽出部42は、登録モード指定スイッチ40によって登録モードが指定されているときには、抽出した特徴パラメータを個人データ記憶処理部4 The feature extraction unit 42, when the registration mode by the registration mode designation switch 40 is specified, individuals extracted feature parameter data storage processing unit 4
4に出力し、他のときは抽出した特徴パラメータを認識判定部45に出力するようになっている。 Output to 4, when the other and outputs the feature parameters extracted in the recognition determination unit 45. また、個人データ記憶処理部44は、登録モード指定スイッチ40によって登録モードが指定されているときに動作するようになっている。 Also, personal data storage processing unit 44 is adapted to operate when the registration mode is designated by the registration mode designating switch 40.

【0015】ここで、図1に示したナビゲーション装置の動作の概要について説明する。 [0015] Here, an outline of operation of the navigation apparatus shown in FIG. 運転者は、ナビゲーション装置が必要とする目的地等の情報を、表示部11のタッチパネルやスイッチ11bを用いて手によって、あるいはマイク24を用いて音声によって入力する。 The driver information of the destination, such as required by the navigation device, and inputs a voice by hand or by a microphone 24, using a touch panel or switch 11b of the display unit 11. タッチパネルやスイッチ11bを用いて入力された情報はスイッチ入力類管理部12を経て入力管理部35に入力される。 Information input by using the touch panel or switch 11b is inputted to the input management unit 35 via the switch input such management section 12. また、マイク24を用いて音声によって入力された情報は音声認識部16で認識され、入力管理部35に入力される。 The information input by voice using the microphone 24 is recognized by the voice recognition unit 16, is input to the input management unit 35.

【0016】演算部10は、運転者に対して目的地や経路の選択等の情報の入力を促す場合、必要に応じて、画面管理部34によって表示部11のディスプレイ11a The calculation unit 10, when prompting the user to input information such as the selection of the destination and the route to the driver, if necessary, the display 11a of the display unit 11 by the screen management unit 34
にメッセージを表示したり、音声出力管理部36によって音声出力部17およびスピーカ29を用いて音声ガイダンスを出力する。 And outputs the voice guidance using the voice output unit 17 and the speaker 29 or display a message, the audio output management unit 36 ​​to.

【0017】演算部10は、運転者によって入力された目的地等の情報に基づいて目的地までの走行経路を探索し、この走行経路に従って経路誘導を行う。 The arithmetic unit 10 searches for a traveling route to the destination based on the information of the destination or the like input by the driver performs route guidance according to the travel route. この経路誘導の際には、現在位置測定部13の測定結果を基にして、地図管理部33が必要な地図データを地図データ読込部31より入力し、地図描画部32を用いて地図を描画し、画面管理部34によってディスプレイ11a上に地図を表示する。 During this route guidance is based on the measurement result of the current position measuring section 13, map data necessary map management unit 33 inputs from the map data reading unit 31, drawing a map using the map drawing unit 32 and, on a map on the display 11a by screen managing part 34. また、この画面上に、走行経路や車両の現在位置、進行方向を示す矢印等も表示する。 Further, in this screen, the current position of the travel route and the vehicle also displays arrow for indicating the traveling direction.

【0018】次に、音声認識の動作について説明する。 [0018] Next, a description will be given of the operation of the speech recognition. 音声認識の主要動作の概要 まず、音声認識部16は、音声認識を行うための各種標準パターンが格納されている音声認識用辞書43から、 Overview of the key operation of the speech recognition First, the speech recognition unit 16, from the voice recognition dictionary 43 various standard patterns for speech recognition are stored,
必要な辞書を特定する。 To identify the required dictionary. すなわち、データ読取部25で個人識別データが読み取られないときには図3(c)の太線で示すように、不特定話者用辞書のみが選択され、 That is, when the in-data reading unit 25 without personal identification data is read, as indicated by a bold line of FIG. 3 (c), only the dictionary for unspecified speakers are selected,
個人識別データが読み取られるときには図3(a)の太線で示すように、対応する特定話者用辞書(図3(a) As indicated by a bold line in FIG. 3 (a) when the personal identification data is read, the corresponding dictionary for speaker-independent (FIGS. 3 (a)
では話者A用辞書)および不特定話者用辞書を選択する。 In selecting the speaker dictionary for A) and non-specific speaker for the dictionary. いま図3(a)に示すように、話者A用辞書には、 As shown in now to FIG. 3 (a), in the dictionary for the speaker A,
すでに「動け」と「左」という音声についての特定話者A専用の標準パターンが、不特定話者用辞書を基にして、特徴抽出部42で抽出された特徴パラメータから作成されているものとする。 Already specified speaker A dedicated reference pattern for voice saying the "move", "left", based on the unspecified speakers dictionary, and those created from the feature parameters extracted by the feature extraction unit 42 to.

【0019】ここで、特定話者Aの音声として例えば「右」という音声が、マイク24から音声認識部16の音声入力部41に入力された場合について説明する。 [0019] Here, the speech as for example referred to as "right" audio specific speaker A, a case will be described in which input from the microphone 24 to the audio input unit 41 of the speech recognition unit 16. すると、特徴抽出部42は、入力された「右」という音声から特徴パラメータを抽出する。 Then, the feature extraction unit 42 extracts the feature parameters from the speech that is input "right". 次に、認識判定部45 Then, recognition determination unit 45
では、抽出さた特徴パラメータを、特定話者A用辞書の各標準パターン「動け」、「左」、および、不特定話者用辞書の各標準パターン「動け」、「右」、「止まれ」、「左」のそれぞれと比較し、類似度を求める。 In the feature parameters extracted, "move" the standard pattern dictionary for specific speakers A, "left", and each reference pattern dictionary for unspecified speaker "move", "right", "Stop" , compared to the respective "left", determine the degree of similarity. そして、類似度が最も高い音声、この場合には不特定話者用辞書の標準パターン「右」を入力音声として認識する。 Then, the similarity is the highest voice, recognized as the input voice standard pattern "right" in the dictionary for unspecified speakers in this case. そして、特定話者A用辞書ではなく、不特定話者用辞書の標準パターンを使用して音声認識が行われたので、図3(b)に示すように、特徴抽出部42によって抽出された特定話者Aの音声「右」の特徴パラメータを、特定話者A用辞書に特定話者A専用の標準パターンとして登録する。 Then, instead of the dictionary for a specific speaker A, since the speech recognition is performed using the standard pattern dictionary for unspecified speakers, as shown in FIG. 3 (b), extracted by the feature extractor 42 the feature parameters of the speech "right" of a particular speaker a, is registered as a standard pattern of a particular speaker a dedicated to the dictionary for a particular speaker a.

【0020】音声認識動作の詳細 次に、以上説明した音声認識動作の詳細について、図4 [0020] Details of the speech recognition operation Next, details of the speech recognition operation described above, FIG. 4
のフローチャートを使用して説明する。 It is described using the flowchart of. 音声認識部16 The voice recognition unit 16
は、音声認識用辞書43から音声認識に使用する用辞書を選択するために、データ読取部25の出力から、個人識別データがあるか否かを判断する(ステップ20 In order to select the use dictionary to use from speech recognition dictionary 43 in the speech recognition, from the output of the data reading unit 25, it determines whether there is individual identification data (step 20
1)。 1). 個人識別データがない場合(N)、すなわち個人識別データ保持部39を有しない新しいイグニッショキーやマスターキーが挿入されたときには、音声認識用辞書43のうち、不特定話者用辞書を選択する(ステップ202)。 If no personal identification data (N), that is, when the new Igunisshoki or master key has no personal identification data holding unit 39 is inserted, among the voice recognition dictionary 43, to select the unspecified speakers dictionary (step 202). 一方、個人識別データがある場合には(ステップ201;Y)、個人識別データに対応する特定話者用辞書と不特定話者用辞書の両者を選択する(ステップ203)。 On the other hand, if there is individual identification data (step 201; Y), it selects both the specific speaker dictionary and unspecified speakers dictionary corresponding to the individual identification data (step 203).

【0021】音声認識に使用する辞書が選択されると、 [0021] When the dictionary to be used for speech recognition is selected,
次に、マイク24より音声が入力されるのを待ち(ステップ204)、音声が入力されたら(ステップ204; Then, wait for the voice is input from the microphone 24 (step 204), when sound is input (step 204;
Y)、マイク24から入力された音声信号を音声入力部41でディジタル信号に変換し、この信号から特徴抽出部42によって特徴パラメータを抽出する(ステップ2 Y), the converting voice signals input from the microphone 24 into a digital signal by the voice input unit 41, extracts a characteristic parameter by the feature extraction unit 42 from the signal (Step 2
05)。 05). 次に、認識判定部45は、抽出された特徴パラメータと、ステップ202、203で選択した音声認識用辞書43に格納された各標準パターンとを比較して、 Next, the recognition determination unit 45, the feature parameters extracted, by comparing the respective standard patterns stored in the speech recognition dictionary 43 selected in step 202 and 203,
最も類似度の高い標準パターンから、入力された音声を認識する(ステップ206)。 From the highest similarity standard pattern to recognize the input speech (step 206).

【0022】音声の認識(ステップ206)が終了したら、音声認識部16は、認識した音声(言葉)を確認するメッセージをディスプレイ11aあるいはスピーカ2 The voice recognition If (step 206) is completed, the speech recognition unit 16, a message confirming the recognized voice (word) display 11a or speaker 2
9より出力する(ステップ207)。 Outputs from 9 (step 207). 使用者は、このメッセージから、音声認識部16が認識した音声(言葉) Voice user, from this message, the voice recognition unit 16 has recognized (word)
が正しければ確認のスイッチを押し、正しくなければ再入力のスイッチを押す。 Press the confirmation of the switch If it is correct, press the switch of the re-input to be right. なお、メッセージが正しくないと判断した場合にのみ、使用者が再入力のスイッチを押すように構成してもよい。 Incidentally, only when it is determined that the message is incorrect, the user may be configured to press the switch reentry. 音声認識部16は、使用者によって確認されたか否かを判断し(ステップ208)、 Speech recognition unit 16 determines whether or not confirmed by the user (step 208),
確認されなければ(N)、ステップ204へ戻り、確認されれば(Y)、認識結果処理部46によって認識結果処理を行う(ステップ209)。 If confirmed (N), returns to step 204, if it is confirmed (Y), it performs the recognition result processed by the recognition result processing unit 46 (step 209). すなわち、認識結果処理部46は、認識判定部45で認識した音声の内容に従った、演算部10に対する入力信号を生成し、入力管理部35に供給する。 That is, the recognition result processing unit 46, according to the contents of the voice recognized by the recognition determination unit 45, generates an input signal for the arithmetic unit 10, and supplies the input management unit 35.

【0023】次に、ステップ205で抽出した特徴パラメータを、個人識別データに対応する特定話者用辞書に標準パターンとして登録して(ステップ210)、メインルーチンにリターンする。 Next, the feature parameters extracted in step 205, the specific speaker dictionary corresponding to the individual identification data registered as a standard pattern (step 210), and returns to the main routine. 一方、個人識別データがない場合(ステップ202;N)には特定話者用辞書が選択されていないので、特定話者用辞書への標準パターン登録処理をすることなくメインルーチンにリターンする。 On the other hand, if there is no personal identification data; so (step 202 N) is not selected dictionary for a particular speaker, the processing returns to the main routine without the standard pattern registration process of the dictionary for a specific speaker.

【0024】以上説明したように本実施例では、音声認識用辞書43に複数の特定話者用辞書と不特定話者用辞書とを設け、データ読取部25によってイグニッションキー38の個人識別データ保持部39に保持された個人識別データを読み取って、この個人識別データに基づいて、認識判定部45が、音声入力を行う特定話者に対応した特定話者用辞書を選択するようにしたので、煩雑な操作を必要とすることなく、使用者に応じて特定話者用辞書を切り換えることができる。 The present embodiment as described above, the disposed a plurality of dictionaries for a particular speaker dictionary and speaker independent voice recognition dictionary 43, the personal identification data retention of the ignition key 38 by the data reading unit 25 reads the personal identification data stored in the section 39, on the basis of the personal identification data, recognition determination unit 45, since to choose a specific speaker dictionary corresponding to a specific speaker for audio input, without the need for complicated operation, it is possible to switch the dictionary for a particular speaker in response to the user. また、以上説明した実施例によれば、音声の認識処理と共に、各特定話者の標準パターンを自動的に特定話者用辞書に登録するとこが可能になる。 Further, above according to the embodiment described, the recognition processing of the audio allows Toko registering reference patterns for each specific speaker automatically identifying speakers dictionary.

【0025】次に、第2の実施例による音声認識動作について説明する。 Next, a description will be given speech recognition operation according to the second embodiment. なお、この第2の実施例における音声認識装置の構成は第1の実施例と同様である。 The configuration of the speech recognition apparatus in the second embodiment is the same as that of the first embodiment. 図5は本実施例の音声認識装置において、特定話者用辞書に標準パターンを登録するときの動作を示すフローチャートである。 Figure 5 is the speech recognition apparatus of this embodiment is a flowchart showing an operation for registering a standard pattern dictionary for a particular speaker. この動作は、図2における登録モード指定スイッチ40によって登録モードが指定されたときに開始する。 The operation begins when the registration mode is designated by the registration mode designating switch 40 in FIG. 2. この動作では、まず、データ読取部25が、イグニッションキー38の個人識別データ保持部39に保持された個人識別データを読み取り、個人データ記憶処理部44が、この個人識別データを取得する(ステップ30 In this operation, first, the data reading unit 25 reads the personal identification data stored in the personal identification data holding unit 39 of the ignition key 38, the personal data storage processing section 44 acquires the personal identification data (step 30
1)。 1). 次に、演算部10の制御の下で、登録すべき単語を、文字としてディスプレイ11aより出力、あるいは音声としてスピーカ29より出力する(ステップ30 Then, under the control of the arithmetic unit 10, a word to be registered, the output from the display 11a as character, or to output from the speaker 29 as the sound (step 30
2)。 2).

【0026】次に、マイク24より音声が入力されるのを待ち(ステップ303)、音声が入力されたら(ステップ303;Y)、マイク24から入力された音声信号を音声入力部41によってディジタル信号に変換し、この信号から特徴抽出部42によって特徴パラメータを抽出する(ステップ304)。 Next, wait for the voice is input from the microphone 24 (step 303), when sound is input (step 303; Y), the digital signal by the voice input unit 41 an audio signal input from the microphone 24 It was converted to the extracted characteristic parameters by the feature extraction unit 42 from the signal (step 304). 次に、個人データ記憶処理部44によって、データ読取部25によって読み取られた個人識別データに対応する特定話者用辞書に、特徴抽出部42によって抽出された特徴パラメータを個人データとして記憶することによって、特定話者用辞書に標準パターンを登録する(ステップ305)。 Next, the personal data storage processing unit 44, a speaker-independent dictionary corresponding to the individual identification data read by the data reading unit 25, by storing the characteristic parameters extracted by the feature extraction unit 42 as the personal data , it registers the standard pattern dictionary for a particular speaker (step 305). なお、マイク24より音声を入力する際にエンジン音等の背景音も含めて入力し、背景音を含む音声の特徴パラメータを標準パターンとして特定話者用辞書に登録するようにしても良い。 Note that type, including background sounds such as an engine sound when inputting voice from the microphone 24, may be registered in the dictionary for a specific speaker characteristic parameters of the speech as the standard pattern including a background sound. 次に、登録すべき次の単語があるか否かを判断し(ステップ306)、ある場合(Y)にはステップ30 Next, it is determined whether there is a next word to be registered (step 306), in some cases (Y) step 30
2へ戻り、ない場合(N)には登録時の動作を終了する。 Return to 2, in the case (N) not to terminate the operation at the time of registration. なお、特定話者用辞書には、不特定話者用辞書に登録されている単語のうち、特に必要な単語のみを登録するようにしても良い。 It is to be noted that the dictionary for a particular speaker, one of the words that are registered in the unspecified speaker dictionary, may be registered only a particular word necessary.

【0027】図6は第2の実施例の音声認識装置における音声入力時の動作を示すフローチャートである。 [0027] FIG 6 is a flowchart showing the operation at the time of voice input in the speech recognition apparatus of the second embodiment. この動作では、まず、データ読取部25の出力から、個人識別データがあるか否かを判断する(ステップ401)。 In this operation, first, from the output of the data reading unit 25, it determines whether there is individual identification data (step 401).
個人識別データがない場合(N)、すなわち個人識別データ保持部39を有しない新しいイグニッショキーやマスターキーが挿入されたときには、特定話者用辞書への登録を行うか不特定話者用辞書を使用するかの選択を要求するメッセージをディスプレイ11aあるいはスピーカ29より出力し(ステップ402)、使用者が登録を行うことを選択したか否かを判断する(ステップ40 If no personal identification data (N), namely individuals when new Igunisshoki and master key having no identification data holding unit 39 is inserted, using unspecified speakers dictionary to register for dictionary specific speaker a message requesting of the selected for output from the display 11a or a speaker 29 (step 402), the user determines whether to select to make the registration (step 40
3)。 3). 使用者は、登録を行うことを選択する場合には、 The user, if you choose to carry out the registration,
登録モード指定スイッチ40によって登録モードを指定する。 To specify the registration mode by the registration mode designating switch 40. この場合(ステップ403;Y)は、音声入力時の動作を終了し、図5に示す登録時の動作を行う。 In this case (step 403; Y) ends the operation at the time of voice input, performs the operation at the time of registration shown in FIG.

【0028】使用者は、不特定話者用辞書を使用することを選択する場合には、音声入力時の動作を続行するスイッチを押す。 [0028] The user, in case you choose to use a non-specific speaker for the dictionary, press the switch to continue the operation at the time of voice input. 個人識別データがある場合(ステップ4 If there is individual identification data (Step 4
01;Y)と、個人識別データがない場合において使用者が不特定話者用辞書を使用することを選択した場合(ステップ403;N)には、次に、マイク24より音声が入力されるのを待ち(ステップ404)、音声が入力されたら(ステップ404;Y)、マイク24から入力された音声信号を音声入力部41によってディジタル信号に変換し、この信号から特徴抽出部42によって特徴パラメータを抽出する(ステップ405)。 01; Y) and, when the user in the absence personal identification data has chosen to use the unspecified speakers dictionary (step 403; in N) is then speech is input from the microphone 24 wait for (step 404), when sound is input (step 404; Y), is converted into a digital signal an audio signal input from the microphone 24 by the voice input unit 41, the feature parameters by the feature extraction unit 42 from the signal It is extracted (step 405). 次に、認識判定部45によって、特徴抽出部42によって抽出された特徴パラメータと音声認識用辞書43に登録されている標準パターンとを比較して、入力された音声を認識する(ステップ406)。 Next, the recognition by the judgment unit 45 compares the standard pattern registered in the feature parameters and speech recognition dictionary 43 is extracted by the feature extraction section 42 recognizes the voice input (step 406).

【0029】一方、マスターキーのように個人識別データ保持部39を有しないイグニッションキーが用いられた場合には、個人識別データがないので、認識判定部4 On the other hand, when the ignition key does not have a personal identification data holding unit 39 as the master key is used, because there is no personal identification data, recognition determination section 4
5は、図3(c)の太線で示すように、音声認識用辞書43から不特定話者用辞書のみを選択する。 5, as indicated by a thick line in FIG. 3 (c), to select only dictionary speaker independent from the voice recognition dictionary 43. そして、認識判定部45は、特徴抽出部42によって抽出された特徴パラメータを不特定話者用辞書に記憶された標準パターンと比較して、入力された音声を認識する。 The recognition determination unit 45, the feature parameters extracted by the feature extraction unit 42 as compared with a standard pattern stored in the dictionary for unspecified speakers, recognizes the input speech.

【0030】音声の認識(図6;ステップ406)が終了したら、音声認識部16は、認識した音声(言葉)を確認するメッセージをディスプレイ11aあるいはスピーカ29より出力する(ステップ407)。 The voice recognition (Fig. 6; Step 406) When it ends, the voice recognition unit 16, a message confirming the recognized voice (word) is output from a display 11a or a speaker 29 (step 407). 使用者は、 User,
このメッセージから、音声認識部16が認識した音声(言葉)が正しければ確認のスイッチを押し、正しくなければ再入力のスイッチを押す。 From this message, if correct, audio voice recognition unit 16 has recognized (word) and press the confirmation of the switch, press the switch of the re-input to be right. 音声認識部16は、使用者によって確認されたか否かを判断し(ステップ40 Speech recognition unit 16 determines whether or not confirmed by the user (Step 40
8)、確認されなければ(N)、ステップ404へ戻り、確認されれば(Y)、認識結果処理部46によって認識結果処理を行い(ステップ409)、音声入力時の動作を終了する。 8), to be confirmed (N), returns to step 404, if it is confirmed (Y), the recognition result processing unit 46 performs the recognition result processed by (step 409), and ends the operation when voice input.

【0031】以上説明したように第2の実施例によれば、各特定話者の標準パターンの登録を音声の認識処理と併せて行うことなく、登録モードの指定することで、 According to the second embodiment as described above, without registering the standard pattern of each specific speaker in conjunction with recognition of the speech, by specifying the registration mode,
特定話者の標準パターン登録を単独に行うことが可能になる。 It is possible to perform in a single standard pattern registration of a particular speaker.

【0032】なお、以上説明した実施例では、特定話者の標準パターン登録の再、ステップ302において、登録すべき単語を文字としてディスプレイ11aに出力し、または音声としてスピーカ29から出力するようにしたが、標準パターン登録単語表を予め用意しておき、 [0032] In the embodiments described above, re-reference pattern registered in specific speaker, at step 302, and so output to the display 11a of the word to be registered as a character, or to output from the speaker 29 as sound but, by preparing a standard pattern registration word table in advance,
特定話者はこの表に従って順次音声をマイク24に入力するようにしてもよい。 Specific speaker may be sequentially input audio according to this table microphone 24. この際、各標準パターンに整理番号を付しておき、特定話者は、整理番号をスイッチ1 In this case, leave denoted by the reference number to each standard pattern, a particular speaker, the reference number switch 1
1bから入力することで、その後にマイク24から入力する音声の内容を音声認識部16に認識させるようにしてもよい。 By inputting from 1b, and thereafter the contents of the voice input from the microphone 24 may be caused to recognize the voice recognition unit 16. これによって、特定話者は全ての単語について音声を入力する必要がなくなり、必要とする単語を選択して登録することが可能になる。 Thus, the specific speaker does not need to enter a voice for all of the words, it is possible to register by selecting the word you need.

【0033】図7は本発明の一実施例に係る音声認識装置を音声入力装置として用いたナビゲーション装置の他の構成例を示すブロック図である。 FIG. 7 is a block diagram showing another configuration example of a navigation apparatus using the speech recognition apparatus according to an embodiment of the present invention as a sound input device. このナビゲーション装置は、ディスプレイを用いずに、全て音声によって経路誘導を行うものである。 The navigation system, without using the display, and performs all route guidance by voice. 従って、図1における表示部11、スイッチ入力類管理部12、地図描画部32および画面管理部34は設けられていない。 Thus, the display unit 11 in FIG. 1, switch input such management unit 12, the map drawing unit 32 and the screen management unit 34 is not provided. また、ナビゲーション装置の動作の指示等を行うためのスイッチ51 The switch 51 for instructing the like of the operation of the navigation device
と、このスイッチ51からの入力を管理するスイッチ入力管理部52とが設けられ、スイッチ入力管理部52が入力管理部35に接続されている。 If this and the switch input management unit 52 for managing the input from the switch 51 is provided, the switch input management unit 52 is connected to the input management unit 35. このナビゲーション装置のその他の構成は、図1に示すナビゲーション装置と同様である。 Other constitution of the navigation device is similar to the navigation apparatus shown in FIG.

【0034】なお、本発明は、上記実施例に限定されず、例えば本発明の音声認識装置は、ナビゲーション装置に限らず、ウインカー、パワーウインドウ、バックミラー、アンテナ、カーオーディオ装置等の自動車内の他の装置の操作を音声入力によって行う場合の音声入力装置として用いることができる。 [0034] The present invention is not limited to the above embodiments, for example, voice recognition device of the present invention is not limited to the navigation device, turn signals, power windows, rearview mirrors, antenna, in a vehicle such as a car audio device operation of other devices can be used as a voice input device for performing the voice input.

【0035】 [0035]

【発明の効果】以上説明したように本発明によれば、複数の特定話者用辞書を設け、個人識別データ読み取り手段によって、イグニッションキーの個人識別データ保持部に保持された個人識別データを読み取って、この個人識別データに基づいて、音声入力を行う特定話者に対応した特定話者用辞書を選択するようにしたので、煩雑な操作を必要とすることなく、使用者に応じて特定話者用辞書を切り換えることができる。 According to the present invention described above, according to the present invention, a plurality of specific speaker dictionary, the personal identification data read means, reading the personal identification data stored in the personal identification data holding portion of the ignition key Te, based on the personal identification data, since to choose a specific speaker dictionary corresponding to a specific speaker for audio input, without requiring a complicated operation, specific speaker in accordance with the user it is possible to switch the Sha dictionary.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の一実施例に係る音声認識装置を音声入力装置として用いたナビゲーション装置の構成を示すブロック図である。 [1] The speech recognition apparatus according to an embodiment of the present invention is a block diagram showing a configuration of a navigation apparatus using a voice input device.

【図2】図1における音声認識部の構成を示すブロック図である。 Is a block diagram showing a configuration of a speech recognition unit of FIG. 1;

【図3】図2における音声認識用辞書の概要を示す説明図である。 3 is an explanatory view showing an outline of dictionaries for speech recognition in FIG.

【図4】本実施例における音声入力時の動作を示すフローチャートである。 Is a flowchart showing the operation at the time of voice input in FIG. 4 embodiment.

【図5】本発明の第2の実施例に係る音声認識装置において、特定話者用辞書に標準パターンを登録するときの動作を示すフローチャートである。 In the speech recognition apparatus according to a second embodiment of the present invention; FIG is a flowchart illustrating the operation for registering the reference pattern in the dictionary for a particular speaker.

【図6】本発明の第2の実施例に係る音声認識装置における音声入力時の動作を示すフローチャートである。 Is a flowchart showing the operation at the time of voice input in the speech recognition apparatus according to a second embodiment of the present invention; FIG.

【図7】本発明の実施例に係る音声認識装置を音声入力装置として用いたナビゲーション装置の他の構成例を示すブロック図である。 7 is a block diagram showing another configuration example of a navigation device using as a sound input device speech recognition apparatus according to an embodiment of the present invention.

【符号の説明】 DESCRIPTION OF SYMBOLS

10 演算部 16 音声認識部 24 マイク 25 データ読取部 38 イグニッションキー 39 個人識別データ保持部 41 音声入力部 42 特徴抽出部 43 音声認識用辞書 44 個人データ記憶処理部 45 認識判定部 46 認識結果処理部 10 operation unit 16 speech recognition unit 24 microphone 25 data reading unit 38 the ignition key 39 personal identification data holding unit 41 the audio input unit 42 the feature extraction unit 43 dictionary for speech recognition 44 personal data storage processing unit 45 recognition determination unit 46 recognized voice processing unit

Claims (3)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 自動車内における音声入力装置として用いられる音声認識装置において、 自動車のイグニッションキーに設けられ、音声入力を行う特定話者を識別するための個人識別データを保持する個人識別データ保持部と、 この個人識別データ保持部に保持された個人識別データを読み取る個人識別データ読み取り手段と、 複数の特定話者毎に設けられ、各特定話者の音声の特徴を記憶する複数の特定話者用辞書と、 音声を入力する音声入力手段と、 この音声入力手段によって入力された音声の特徴を抽出する特徴抽出手段と、 前記個人識別データ読み取り手段によって読み取られた個人識別データに基づいて、音声入力を行う特定話者に対応した特定話者用辞書を選択し、この特定話者用辞書と前記特徴抽出手段によって抽出された 1. A speech recognition device used as a sound input device in a car, provided vehicle ignition key, the personal identification data holding unit for holding a personal identification data for identifying a particular speaker for audio input When the personal identification data read means for reading personal identification data stored in the personal identification data holding unit, provided for each of a plurality of specific speakers, a plurality of specific speaker for storing audio features of each particular speaker and use dictionaries, a voice input means for inputting voice, a feature extraction means for extracting a feature of the voice inputted by the voice input means, based on the personal identification data read by the personal identification data read means, voice select specific speaker dictionary corresponding to a specific speaker to input, extracted by the feature extraction means and the specific speaker dictionary 特徴を用いて、 By using the feature,
    入力された音声を認識する認識手段とを具備することを特徴とする音声認識装置。 Speech recognition apparatus characterized by comprising a recognition means for recognizing input speech.
  2. 【請求項2】 更に、不特定話者用の音声の特徴を記憶する不特定話者用辞書を具備し、前記認識手段は、個人識別データがある場合には、この個人識別データに基づいて選択した特定話者用辞書と不特定話者用辞書とを用い、個人識別データがない場合には不特定話者用辞書を用いることを特徴とする請求項1記載の音声認識装置。 Wherein further comprising a non-specific speaker dictionary for storing the audio features for unspecified speakers, the recognition means, if there is individual identification data, based on the personal identification data selected using the speaker independent dictionary and unspecified speakers dictionary, if there is no personal identification data speech recognition system according to claim 1, which comprises using the unspecified speakers dictionary.
  3. 【請求項3】 ナビゲーション装置の音声入力装置として用いられることを特徴とする請求項1または2記載の音声認識装置。 3. A speech recognition apparatus according to claim 1 or 2, wherein the used as a voice input device of the navigation device.
JP20287294A 1994-08-04 1994-08-04 Voice recognizing device Pending JPH0844387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20287294A JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20287294A JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Publications (1)

Publication Number Publication Date
JPH0844387A true true JPH0844387A (en) 1996-02-16

Family

ID=16464601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20287294A Pending JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Country Status (1)

Country Link
JP (1) JPH0844387A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004851A1 (en) * 1998-11-25 2000-05-31 Mannesmann VDO Aktiengesellschaft Adaptive navigation system
EP1035530A2 (en) * 1999-03-11 2000-09-13 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
JP2003515177A (en) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク Natural language interface control system
WO2005048239A1 (en) * 2003-11-12 2005-05-26 Honda Motor Co., Ltd. Speech recognition device
JP2007286174A (en) * 2006-04-13 2007-11-01 Funai Electric Co Ltd Electronic apparatus
JP2007323290A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004851A1 (en) * 1998-11-25 2000-05-31 Mannesmann VDO Aktiengesellschaft Adaptive navigation system
US6308133B1 (en) 1998-11-25 2001-10-23 Mannessmann Vdo Ag Adaptive navigation system
EP1035530A2 (en) * 1999-03-11 2000-09-13 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
EP1035530A3 (en) * 1999-03-11 2001-04-25 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
JP2003515177A (en) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク Natural language interface control system
WO2005048239A1 (en) * 2003-11-12 2005-05-26 Honda Motor Co., Ltd. Speech recognition device
JP2007286174A (en) * 2006-04-13 2007-11-01 Funai Electric Co Ltd Electronic apparatus
JP2007323290A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus

Similar Documents

Publication Publication Date Title
US6108631A (en) Input system for at least location and/or street names
US5452212A (en) Navigation system for vehicle
US5774362A (en) Input device for navigation systems
US5832406A (en) Vehicle navigation apparatus and method for route finding at road crossings
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
US20030014261A1 (en) Information input method and apparatus
JP2001317955A (en) Map display device and route-guiding device
US6480786B2 (en) Method and system for route guiding
US6064323A (en) Navigation apparatus, navigation method and automotive vehicles
US20080065327A1 (en) Navigation device for use in automotive vehicle
JPH1096648A (en) Information indicator with touch panel
JP2000266557A (en) Reporting device, searching device, and storage medium
JP2001216129A (en) Command input device
EP0827124A2 (en) Vehicle navigation system with city name selection accelerator and medium for storage of programs thereof
JPH08124092A (en) On-vehicle navigator device
JP2006329678A (en) In-vehicle navigation device
JP2004126413A (en) On-board controller and program which makes computer perform operation explanation method for the same
JPH0757190A (en) Voice navigation device
JP2001083991A (en) User interface device, navigation system, information processing device and recording medium
US6282494B1 (en) Customer-settled voice navigation apparatus
JPH09152354A (en) Navigation apparatus for vehicle
JPH0916891A (en) Information input device on vehicle
JPH11288296A (en) Information processor
JPH08184455A (en) Navigation device
US20060106615A1 (en) Speech interaction apparatus and speech interaction method