JPH0844387A - Voice recognizing device - Google Patents

Voice recognizing device

Info

Publication number
JPH0844387A
JPH0844387A JP6202872A JP20287294A JPH0844387A JP H0844387 A JPH0844387 A JP H0844387A JP 6202872 A JP6202872 A JP 6202872A JP 20287294 A JP20287294 A JP 20287294A JP H0844387 A JPH0844387 A JP H0844387A
Authority
JP
Japan
Prior art keywords
voice
dictionary
unit
personal identification
identification data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6202872A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yamakawa
博幸 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP6202872A priority Critical patent/JPH0844387A/en
Publication of JPH0844387A publication Critical patent/JPH0844387A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To change over the dictionary for specified speakers in accordance with a user dispensing with a complex operation in a voice recognizing device used as a voice input device in an atuomobile. CONSTITUTION:The dictionary for a voice recognition 43 has plural dictionaries for specified speakers and plural dictionaries for unspecified speakers. A data read-out part 25 reads out personal recognition data held in the personal recognition data holding part of ignition key. A recognition deciding part 45 performs voice recognition by using dictionaries for specified speakers and directories for unspecified speaker in the case the personal recognition data are present while selecting the dictionary corresponding to a specific speaker performing a voice input with the dictionary for the voice recognition 43 based on the personal recognition and by using dictionaries for unspecified speakers in the case the personal recognition data are not present.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自動車内における音声
入力装置として用いられる音声認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device used as a voice input device in an automobile.

【0002】[0002]

【従来の技術】近年、人間の話した音声を言葉として認
識する音声認識装置が実用化されつつある。この音声認
識装置は、例えば、自動車のナビゲーション装置におい
て目的地や指示情報等を音声入力する場合の音声入力装
置として用いることが考えられる。ところで、音声認識
では、不特定の複数の人(不特定話者)の音声を認識す
る不特定話者認識よりも、特定の人(特定話者)の音声
を認識する特定話者認識の方が認識率が高い。そこで、
不特定話者認識を行う音声認識装置においても、音声の
特徴を記憶する用辞書を学習させることによって、特定
話者用の辞書を形成して、特定話者について特に認識率
を向上させることが考えられる。
2. Description of the Related Art In recent years, voice recognition devices for recognizing voices spoken by humans as words have been put into practical use. It is conceivable that this voice recognition device is used as a voice input device when voice inputting a destination, instruction information, etc., in a car navigation system, for example. By the way, in the voice recognition, the specific speaker recognition that recognizes the voice of a specific person (specific speaker) is more preferable than the unspecified speaker recognition that recognizes the voices of multiple unspecified people (unspecified speaker). Has a high recognition rate. Therefore,
Even in a voice recognition device for recognizing an unspecified speaker, it is possible to form a dictionary for a specified speaker by learning a dictionary for storing characteristics of a voice, and particularly improve the recognition rate for the specified speaker. Conceivable.

【0003】[0003]

【発明が解決しようとする課題】このような音声認識装
置において、特定話者を複数存在させたい場合には、各
特定話者毎に辞書を設け、使用者に応じて辞書を切り換
える必要がある。この場合、使用者がスイッチ等を操作
して辞書を切り換えるようにすると、操作が煩雑になる
という問題点がある。また、音声認識装置が話者認識を
行って使用者を判別するようにすることも考えられる
が、現状の技術レベルでは実用化が難しい。
In such a voice recognition device, when it is desired to have a plurality of specific speakers, it is necessary to provide a dictionary for each specific speaker and switch the dictionary according to the user. . In this case, if the user operates a switch or the like to switch the dictionary, the operation becomes complicated. It is also conceivable that the voice recognition device recognizes the speaker to discriminate the user, but it is difficult to put it into practical use at the current technical level.

【0004】そこで本発明の目的は、自動車内における
音声入力装置として用いられる音声認識装置において、
複数の特定話者用辞書を有し、煩雑な操作を必要とする
ことなく、使用者に応じて特定話者用辞書を切り換える
ことができるようにした音声認識装置を提供することに
ある。
Therefore, an object of the present invention is to provide a voice recognition device used as a voice input device in an automobile,
An object of the present invention is to provide a voice recognition device having a plurality of dictionaries for a specific speaker and capable of switching the dictionaries for a specific speaker according to a user without requiring a complicated operation.

【0005】[0005]

【課題を解決するための手段】請求項1記載の発明で
は、自動車のイグニッションキーに設けられ、音声入力
を行う特定話者を識別するための個人識別データを保持
する個人識別データ保持部と、この個人識別データ保持
部に保持された個人識別データを読み取る個人識別デー
タ読み取り手段と、複数の特定話者毎に設けられ、各特
定話者の音声の特徴を記憶する複数の特定話者用辞書
と、音声を入力する音声入力手段と、この音声入力手段
によって入力された音声の特徴を抽出する特徴抽出手段
と、個人識別データ読み取り手段によって読み取られた
個人識別データに基づいて、音声入力を行う特定話者に
対応した特定話者用辞書を選択し、この特定話者用辞書
と特徴抽出手段によって抽出された特徴を用いて、入力
された音声を認識する認識手段とを、自動車内における
音声入力装置として用いられる音声認識装置に具備させ
て、前記目的を達成する。請求項2記載の音声認識装置
は、請求項1記載の音声認識装置において、更に、不特
定話者用の音声の特徴を記憶する不特定話者用辞書を備
え、認識手段は、個人識別データがある場合には、この
個人識別データに基づいて選択した特定話者用辞書と不
特定話者用辞書とを用い、個人識別データがない場合に
は不特定話者用辞書を用いるものである。請求項3記載
の音声認識装置は、請求項1または2記載の音声認識装
置において、ナビゲーション装置の音声入力装置として
用いられるものである。
According to a first aspect of the present invention, a personal identification data holding section is provided in an ignition key of an automobile and holds personal identification data for identifying a specific speaker who inputs a voice. Personal identification data reading means for reading the personal identification data stored in the personal identification data storage unit, and a plurality of specific speaker dictionaries provided for each of a plurality of specific speakers and storing the characteristics of the voice of each specific speaker. And voice input based on the personal identification data read by the personal identification data reading unit and the feature extraction unit that extracts the feature of the voice input by the voice input unit. A specific speaker dictionary corresponding to a specific speaker is selected, and the input voice is recognized using the specific speaker dictionary and the features extracted by the feature extraction means. And identification means, by provided to the speech recognition device used as a sound input device in a car, to achieve the above object. The speech recognition apparatus according to claim 2 is the speech recognition apparatus according to claim 1, further comprising a dictionary for unspecified speakers that stores the characteristics of the speech for unspecified speakers, and the recognition means is personal identification data. If there is, the dictionary for specific speakers and the dictionary for unspecified speakers selected based on this personal identification data are used, and if there is no personal identification data, the dictionary for unspecified speakers is used. . A voice recognition device according to a third aspect is the voice recognition device according to the first or second aspect, which is used as a voice input device of a navigation device.

【0006】[0006]

【作用】請求項1記載の音声認識装置では、個人識別デ
ータ読み取り手段が、自動車のイグニッションキーの個
人識別データ保持部に保持された個人識別データを読み
取る。また、特徴抽出手段が、音声入力手段によって入
力された音声の特徴を抽出し、認識手段が、個人識別デ
ータに基づいて、音声入力を行う特定話者に対応した特
定話者用辞書を選択し、この特定話者用辞書と特徴抽出
手段によって抽出された特徴を用いて、入力された音声
を認識する。請求項2記載の音声認識装置では、認識手
段が、個人識別データがある場合には、この個人識別デ
ータに基づいて選択した特定話者用辞書と不特定話者用
辞書とを用い、個人識別データがない場合には不特定話
者用辞書を用いて、入力された音声を認識する。請求項
3記載の音声認識装置は、ナビゲーション装置の音声入
力装置として用いられる。
In the voice recognition device according to the present invention, the personal identification data reading means reads the personal identification data held in the personal identification data holding portion of the ignition key of the automobile. Further, the feature extraction means extracts the features of the voice input by the voice input means, and the recognition means selects a dictionary for a specific speaker corresponding to the specific speaker who inputs the voice based on the personal identification data. The input voice is recognized by using the special speaker dictionary and the features extracted by the feature extraction means. In the voice recognition device according to claim 2, when the recognition means has personal identification data, the personal identification is performed by using a specific speaker dictionary and an unspecified speaker dictionary selected based on the personal identification data. If there is no data, the input speech is recognized using the unspecified speaker dictionary. The voice recognition device according to claim 3 is used as a voice input device of a navigation device.

【0007】[0007]

【実施例】以下本発明の音声認識装置における好適な実
施例について、図1から図7を参照して詳細に説明す
る。図1は本発明の一実施例に係る音声認識装置を音声
入力装置として用いたナビゲーション装置の構成を示す
ブロック図である。このナビゲーション装置は、演算部
10を備え、この演算部10には、タッチパネルとして
機能するディスプレイ11aとこのディスプレイ11a
の周囲に設けられた操作用のスイッチ11bとを含む表
示部11と、この表示部11のタッチパネルやスイッチ
11bからの入力を管理するスイッチ入力類管理部12
と、現在位置測定部13と、速度センサ14と、地図情
報記憶部15と、音声認識部16と、音声出力部17と
が接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the speech recognition apparatus of the present invention will be described in detail below with reference to FIGS. FIG. 1 is a block diagram showing the configuration of a navigation device using a voice recognition device according to an embodiment of the present invention as a voice input device. The navigation device includes a calculation unit 10, and the calculation unit 10 includes a display 11a that functions as a touch panel and the display 11a.
A display unit 11 including an operation switch 11b provided around the display unit, and a switch input management unit 12 that manages inputs from the touch panel of the display unit 11 and the switch 11b.
The current position measurement unit 13, the speed sensor 14, the map information storage unit 15, the voice recognition unit 16, and the voice output unit 17 are connected to each other.

【0008】現在位置測定部13は、緯度と経度による
座標データを検出することで、車両が現在走行または停
止している現在位置を検出する。この現在位置測定部1
3には、人工衛星を利用して車両の位置を測定するGP
S(Global Position System)レシーバ21と、路上に配
置されたビーコンからの位置情報を受信するビーコン受
信装置20と、方位センサ22と、距離センサ23とが
接続され、現在位置測定部13はこれらからの情報を用
いて車両の現在位置を測定するようになっている。
The current position measuring unit 13 detects the current position where the vehicle is currently traveling or stopped by detecting coordinate data based on latitude and longitude. This current position measurement unit 1
GP which measures the position of the vehicle using the artificial satellite in 3
An S (Global Position System) receiver 21, a beacon receiving device 20 that receives position information from beacons placed on the road, an azimuth sensor 22, and a distance sensor 23 are connected, and the current position measuring unit 13 is connected to them. The current position of the vehicle is measured using the information of.

【0009】方位センサ22は、例えば、地磁気を検出
して車両の方位を求める地磁気センサ、車両の回転角速
度を検出しその角速度を積分して車両の方位を求めるガ
スレートジャイロや光ファイバジャイロ等のジャイロ、
左右の車輪センサを配置しその出力パルス差(移動距離
の差)により車両の旋回を検出することで方位の変位量
を算出するようにした車輪センサ、等が使用される。距
離センサ23は、例えば、車輪の回転数を検出して計数
し、または加速度を検出して2回積分するもの等の各種
の方法が使用される。なお、GPSレシーバ21とビー
コン受信装置20は単独で位置測定が可能であるが、G
PSレシーバ21やビーコン受信装置20による受信が
不可能な場所では、方位センサ22と距離センサ23の
双方を用いた推測航法によって現在位置を検出するよう
になっている。
The direction sensor 22 is, for example, a geomagnetic sensor for detecting the direction of the vehicle by detecting the geomagnetism, a gas rate gyro or an optical fiber gyro for detecting the direction of the vehicle by detecting the rotational angular velocity of the vehicle and integrating the angular velocity. gyro,
A wheel sensor or the like in which left and right wheel sensors are arranged and the amount of displacement of the azimuth is calculated by detecting the turning of the vehicle based on the output pulse difference (difference in moving distance) is used. As the distance sensor 23, for example, various methods such as detecting and counting the number of rotations of the wheel or detecting acceleration and integrating twice are used. Although the GPS receiver 21 and the beacon receiving device 20 can measure the position independently,
In a place where reception by the PS receiver 21 or the beacon receiving device 20 is impossible, the current position is detected by dead reckoning using both the azimuth sensor 22 and the distance sensor 23.

【0010】音声認識部16には、音声を入力するため
のマイク24と、データ読取部16が接続されている。
データ読取部16は、自動車のイグニッションキー38
の挿入部内に設けられている。イグニッションキー38
には、音声入力を行う特定話者を識別するための個人識
別データを保持する個人識別データ保持部39が設けら
れている。この個人識別データ保持部39は、磁化のパ
ターンや、バーコードのような明暗のパターンや、凹凸
のパターン等の形態によって、使用者毎に異なる個人識
別データを保持しているデータ読取部25は、この個人
識別データ保持部39に保持された個人識別データを、
データ保持の形態に応じて、例えば磁気的、光学的ある
いは機械的に読み取るようになっている。イグニッショ
ンキー38に設けられた個人識別データ保持部39、デ
ータ読取部25、音声認識部16およびマイク24によ
って本実施例の音声認識装置が構成されている。
A microphone 24 for inputting voice and a data reading unit 16 are connected to the voice recognizing unit 16.
The data reading unit 16 uses the ignition key 38 of the automobile.
Is provided in the insertion part of the. Ignition key 38
Is provided with a personal identification data holding unit 39 that holds personal identification data for identifying a specific speaker who inputs a voice. The personal identification data storage unit 39 stores the personal identification data that is different for each user depending on the form of the magnetization pattern, the bright and dark pattern such as a bar code, and the uneven pattern. , The personal identification data stored in the personal identification data storage unit 39,
The data is read, for example, magnetically, optically or mechanically depending on the form of data retention. The personal identification data holding section 39, the data reading section 25, the voice recognizing section 16 and the microphone 24 provided on the ignition key 38 constitute a voice recognizing apparatus of this embodiment.

【0011】音声出力部17は、音声を電気信号として
出力する音声出力用IC26と、この音声出力用IC2
6の出力を増幅するアンプ27と、このアンプ27の出
力をディジタル−アナログ変換するD/Aコンバータ2
8とを備えている。D/Aコンバータ28の出力端には
スピーカ29が接続されている。
The voice output section 17 includes a voice output IC 26 for outputting voice as an electric signal, and the voice output IC 2
An amplifier 27 that amplifies the output of 6 and a D / A converter 2 that digital-analog converts the output of the amplifier 27.
8 and. A speaker 29 is connected to the output terminal of the D / A converter 28.

【0012】演算部10は、速度センサ14および地図
情報記憶部15に接続された地図データ読込部31と、
地図描画部32と、地図データ読込部31および地図描
画部32を管理する地図管理部33と、地図描画部32
および表示部11に接続された画面管理部34と、スイ
ッチ入力類管理部12および音声認識部16に接続され
た入力管理部35と、音声出力部17の音声出力用IC
26に接続された音声出力管理部36と、地図管理部3
3、画面管理部34、入力管理部35および音声出力管
理部36を管理する全体管理部37とを備えている。こ
の演算部10は、CPU(中央処理装置)、ROM(リ
ード・オンリ・メモリ)、RAM(ランダム・アクセス
・メモリ)等を備え、CPUがRAMをワーキングエリ
アとしてROMに格納されたプログラムを実行すること
によって、上記の各構成を実現するようになっている。
The calculation unit 10 includes a map data reading unit 31 connected to the speed sensor 14 and the map information storage unit 15,
Map drawing unit 32, map management unit 33 managing map data reading unit 31 and map drawing unit 32, and map drawing unit 32
And a screen management unit 34 connected to the display unit 11, an input management unit 35 connected to the switch input management unit 12 and the voice recognition unit 16, and a voice output IC of the voice output unit 17.
Audio output management unit 36 connected to 26 and map management unit 3
3, a screen management unit 34, an input management unit 35, and an overall management unit 37 that manages the audio output management unit 36. The arithmetic unit 10 includes a CPU (central processing unit), a ROM (read only memory), a RAM (random access memory), etc., and the CPU executes a program stored in the ROM using the RAM as a working area. As a result, each of the above configurations is realized.

【0013】図2は、図1における音声認識部16の構
成を示すブロック図である。この図に示すように、音声
認識部16は、マイク24から入力される音声信号をデ
ィジタル信号に変換する音声入力部41と、この音声入
力部41の出力信号から、特徴パラメータを抽出する特
徴抽出部42と、不特定話者用辞書と複数の特定話者用
辞書を有する音声認識用辞書43と、データ読取部25
によって読み取られた個人識別データに対応する特定話
者用辞書に、特徴抽出部42によって抽出された特徴パ
ラメータを個人データとして記憶することによって、特
定話者用辞書に標準パターンを登録する個人データ記憶
処理部44とを備えている。なお、特徴パラメータと
は、音節や単語あるいは音素単位での音声信号の周波数
特性である。また、特徴抽出部42は、多チャネル・バ
ンドパスフィルタや線形予測分析等によって、この特徴
パラメータを抽出する。
FIG. 2 is a block diagram showing the configuration of the voice recognition unit 16 in FIG. As shown in this figure, the voice recognition unit 16 includes a voice input unit 41 for converting a voice signal input from the microphone 24 into a digital signal, and a feature extraction for extracting a feature parameter from an output signal of the voice input unit 41. Unit 42, voice recognition dictionary 43 having an unspecified speaker dictionary and plural specified speaker dictionaries, and data reading unit 25.
Personal data storage for registering a standard pattern in the specific speaker dictionary by storing the characteristic parameters extracted by the characteristic extraction unit 42 as personal data in the specific speaker dictionary corresponding to the personal identification data read by And a processing unit 44. The characteristic parameter is a frequency characteristic of a voice signal in units of syllables, words, or phonemes. Further, the feature extraction unit 42 extracts this feature parameter by a multi-channel bandpass filter, a linear prediction analysis, or the like.

【0014】音声認識部16は、更に、音声認識用辞書
43に記憶された標準パターンと特徴抽出手部42によ
って抽出された特徴パラメータとを比較して、入力され
た音声を認識する認識判定部45と、この認識判定部4
5によって認識された音声の内容に従って、演算部10
に対する入力信号を生成して、演算部10の入力管理部
35へ出力する認識結果処理部46とを備えている。認
識判定部45は、データ読取部25によって読み取られ
た個人識別データがある場合には、この個人識別データ
に基づいて、音声認識用辞書43より、音声入力を行う
特定話者に対応した特定話者用辞書を選択し、この特定
話者用辞書と不特定話者用辞書とを用い、個人識別デー
タがない場合には不特定話者用辞書を用いるようになっ
ている。なお、特徴抽出部42は、登録モード指定スイ
ッチ40によって登録モードが指定されているときに
は、抽出した特徴パラメータを個人データ記憶処理部4
4に出力し、他のときは抽出した特徴パラメータを認識
判定部45に出力するようになっている。また、個人デ
ータ記憶処理部44は、登録モード指定スイッチ40に
よって登録モードが指定されているときに動作するよう
になっている。
The voice recognition unit 16 further compares the standard pattern stored in the voice recognition dictionary 43 with the feature parameters extracted by the feature extraction unit 42 to recognize the input voice. 45 and this recognition determination unit 4
According to the content of the voice recognized by 5, the calculation unit 10
And a recognition result processing section 46 for generating an input signal to the input management section 35 of the calculation section 10. When there is the personal identification data read by the data reading unit 25, the recognition determination unit 45 uses the personal identification data from the voice recognition dictionary 43 to identify the specific speaker corresponding to the specific speaker who inputs the voice. A dictionary for personal speakers is selected, and the dictionary for specific speakers and the dictionary for unspecified speakers are used. If there is no personal identification data, the dictionary for unspecified speakers is used. When the registration mode is designated by the registration mode designating switch 40, the feature extraction unit 42 sets the extracted feature parameters to the personal data storage processing unit 4.
4 and outputs the extracted characteristic parameter to the recognition determination unit 45 in other cases. The personal data storage processing unit 44 operates when the registration mode is designated by the registration mode designation switch 40.

【0015】ここで、図1に示したナビゲーション装置
の動作の概要について説明する。運転者は、ナビゲーシ
ョン装置が必要とする目的地等の情報を、表示部11の
タッチパネルやスイッチ11bを用いて手によって、あ
るいはマイク24を用いて音声によって入力する。タッ
チパネルやスイッチ11bを用いて入力された情報はス
イッチ入力類管理部12を経て入力管理部35に入力さ
れる。また、マイク24を用いて音声によって入力され
た情報は音声認識部16で認識され、入力管理部35に
入力される。
Here, an outline of the operation of the navigation device shown in FIG. 1 will be described. The driver inputs information such as the destination required by the navigation device by hand using the touch panel or the switch 11b of the display unit 11 or by voice using the microphone 24. Information input using the touch panel or the switch 11b is input to the input management unit 35 via the switch input management unit 12. Information input by voice using the microphone 24 is recognized by the voice recognition unit 16 and input to the input management unit 35.

【0016】演算部10は、運転者に対して目的地や経
路の選択等の情報の入力を促す場合、必要に応じて、画
面管理部34によって表示部11のディスプレイ11a
にメッセージを表示したり、音声出力管理部36によっ
て音声出力部17およびスピーカ29を用いて音声ガイ
ダンスを出力する。
When the arithmetic unit 10 prompts the driver to input information such as selection of a destination or a route, the screen management unit 34 displays the display 11a of the display unit 11 as necessary.
A message is displayed on the screen, or the voice output management unit 36 outputs voice guidance using the voice output unit 17 and the speaker 29.

【0017】演算部10は、運転者によって入力された
目的地等の情報に基づいて目的地までの走行経路を探索
し、この走行経路に従って経路誘導を行う。この経路誘
導の際には、現在位置測定部13の測定結果を基にし
て、地図管理部33が必要な地図データを地図データ読
込部31より入力し、地図描画部32を用いて地図を描
画し、画面管理部34によってディスプレイ11a上に
地図を表示する。また、この画面上に、走行経路や車両
の現在位置、進行方向を示す矢印等も表示する。
The arithmetic unit 10 searches for a travel route to the destination based on information such as the destination input by the driver, and guides the route according to the travel route. At the time of this route guidance, the map management unit 33 inputs necessary map data from the map data reading unit 31 based on the measurement result of the current position measuring unit 13, and draws a map using the map drawing unit 32. Then, the screen management unit 34 displays the map on the display 11a. In addition, a traveling route, the current position of the vehicle, an arrow indicating the traveling direction, and the like are displayed on this screen.

【0018】次に、音声認識の動作について説明する。 音声認識の主要動作の概要 まず、音声認識部16は、音声認識を行うための各種標
準パターンが格納されている音声認識用辞書43から、
必要な辞書を特定する。すなわち、データ読取部25で
個人識別データが読み取られないときには図3(c)の
太線で示すように、不特定話者用辞書のみが選択され、
個人識別データが読み取られるときには図3(a)の太
線で示すように、対応する特定話者用辞書(図3(a)
では話者A用辞書)および不特定話者用辞書を選択す
る。いま図3(a)に示すように、話者A用辞書には、
すでに「動け」と「左」という音声についての特定話者
A専用の標準パターンが、不特定話者用辞書を基にし
て、特徴抽出部42で抽出された特徴パラメータから作
成されているものとする。
Next, the operation of voice recognition will be described. Outline of main operation of voice recognition First, the voice recognition unit 16 reads from a voice recognition dictionary 43 in which various standard patterns for performing voice recognition are stored.
Identify the dictionary you need. That is, when the personal identification data is not read by the data reading unit 25, only the unspecified speaker dictionary is selected, as indicated by the thick line in FIG.
When the personal identification data is read, as indicated by the thick line in FIG. 3A, the corresponding specific speaker dictionary (FIG. 3A)
Then select the speaker A dictionary) and the unspecified speaker dictionary. Now, as shown in FIG. 3A, the dictionary for speaker A is
It is assumed that the standard pattern for the specific speaker A for the voices of “moving” and “left” has already been created from the characteristic parameters extracted by the characteristic extracting unit 42 based on the dictionary for the unspecified speaker. To do.

【0019】ここで、特定話者Aの音声として例えば
「右」という音声が、マイク24から音声認識部16の
音声入力部41に入力された場合について説明する。す
ると、特徴抽出部42は、入力された「右」という音声
から特徴パラメータを抽出する。次に、認識判定部45
では、抽出さた特徴パラメータを、特定話者A用辞書の
各標準パターン「動け」、「左」、および、不特定話者
用辞書の各標準パターン「動け」、「右」、「止ま
れ」、「左」のそれぞれと比較し、類似度を求める。そ
して、類似度が最も高い音声、この場合には不特定話者
用辞書の標準パターン「右」を入力音声として認識す
る。そして、特定話者A用辞書ではなく、不特定話者用
辞書の標準パターンを使用して音声認識が行われたの
で、図3(b)に示すように、特徴抽出部42によって
抽出された特定話者Aの音声「右」の特徴パラメータ
を、特定話者A用辞書に特定話者A専用の標準パターン
として登録する。
Here, a case where a voice "right", for example, as the voice of the specific speaker A is input from the microphone 24 to the voice input unit 41 of the voice recognition unit 16 will be described. Then, the feature extraction unit 42 extracts a feature parameter from the input "right" voice. Next, the recognition determination unit 45
Then, the extracted characteristic parameters are set to the standard patterns “movement” and “left” of the dictionary for the specific speaker A, and the standard patterns “movement”, “right”, and “stop” of the dictionary for the unspecified speaker. , “Left” and the similarity is calculated. Then, the voice having the highest degree of similarity, in this case, the standard pattern “right” of the unspecified speaker dictionary is recognized as the input voice. Since the voice recognition is performed using the standard pattern of the unspecified speaker dictionary instead of the specified speaker A dictionary, it is extracted by the feature extraction unit 42 as shown in FIG. 3B. The characteristic parameter of the voice "right" of the specific speaker A is registered in the dictionary for the specific speaker A as a standard pattern dedicated to the specific speaker A.

【0020】音声認識動作の詳細 次に、以上説明した音声認識動作の詳細について、図4
のフローチャートを使用して説明する。音声認識部16
は、音声認識用辞書43から音声認識に使用する用辞書
を選択するために、データ読取部25の出力から、個人
識別データがあるか否かを判断する(ステップ20
1)。個人識別データがない場合(N)、すなわち個人
識別データ保持部39を有しない新しいイグニッショキ
ーやマスターキーが挿入されたときには、音声認識用辞
書43のうち、不特定話者用辞書を選択する(ステップ
202)。一方、個人識別データがある場合には(ステ
ップ201;Y)、個人識別データに対応する特定話者
用辞書と不特定話者用辞書の両者を選択する(ステップ
203)。
Details of Voice Recognition Operation Next, the details of the voice recognition operation described above will be described with reference to FIG.
This will be described using the flowchart of. Voice recognition unit 16
Determines whether or not there is personal identification data from the output of the data reading unit 25 in order to select a dictionary for use in voice recognition from the voice recognition dictionary 43 (step 20).
1). When there is no personal identification data (N), that is, when a new ignition key or master key having no personal identification data holding unit 39 is inserted, the unspecified speaker dictionary is selected from the voice recognition dictionary 43 (step 202). On the other hand, if there is personal identification data (step 201; Y), both the specific speaker dictionary and the unspecified speaker dictionary corresponding to the personal identification data are selected (step 203).

【0021】音声認識に使用する辞書が選択されると、
次に、マイク24より音声が入力されるのを待ち(ステ
ップ204)、音声が入力されたら(ステップ204;
Y)、マイク24から入力された音声信号を音声入力部
41でディジタル信号に変換し、この信号から特徴抽出
部42によって特徴パラメータを抽出する(ステップ2
05)。次に、認識判定部45は、抽出された特徴パラ
メータと、ステップ202、203で選択した音声認識
用辞書43に格納された各標準パターンとを比較して、
最も類似度の高い標準パターンから、入力された音声を
認識する(ステップ206)。
When a dictionary used for voice recognition is selected,
Next, it waits for a voice to be input from the microphone 24 (step 204), and when voice is input (step 204;
Y), the voice signal input from the microphone 24 is converted into a digital signal by the voice input unit 41, and the feature parameter is extracted from this signal by the feature extraction unit 42 (step 2).
05). Next, the recognition determination unit 45 compares the extracted feature parameter with each standard pattern stored in the voice recognition dictionary 43 selected in steps 202 and 203,
The input voice is recognized from the standard pattern with the highest similarity (step 206).

【0022】音声の認識(ステップ206)が終了した
ら、音声認識部16は、認識した音声(言葉)を確認す
るメッセージをディスプレイ11aあるいはスピーカ2
9より出力する(ステップ207)。使用者は、このメ
ッセージから、音声認識部16が認識した音声(言葉)
が正しければ確認のスイッチを押し、正しくなければ再
入力のスイッチを押す。なお、メッセージが正しくない
と判断した場合にのみ、使用者が再入力のスイッチを押
すように構成してもよい。音声認識部16は、使用者に
よって確認されたか否かを判断し(ステップ208)、
確認されなければ(N)、ステップ204へ戻り、確認
されれば(Y)、認識結果処理部46によって認識結果
処理を行う(ステップ209)。すなわち、認識結果処
理部46は、認識判定部45で認識した音声の内容に従
った、演算部10に対する入力信号を生成し、入力管理
部35に供給する。
When the voice recognition (step 206) is completed, the voice recognition unit 16 displays a message confirming the recognized voice (word) on the display 11a or the speaker 2.
It outputs from 9 (step 207). The user recognizes the voice (word) recognized by the voice recognition unit 16 from this message.
If it is correct, press the confirmation switch. If it is not correct, press the re-input switch. The user may press the re-input switch only when it is determined that the message is incorrect. The voice recognition unit 16 determines whether or not it has been confirmed by the user (step 208),
If it is not confirmed (N), the process returns to step 204, and if it is confirmed (Y), the recognition result processing unit 46 performs recognition result processing (step 209). That is, the recognition result processing unit 46 generates an input signal to the calculation unit 10 according to the content of the voice recognized by the recognition determination unit 45, and supplies the input signal to the input management unit 35.

【0023】次に、ステップ205で抽出した特徴パラ
メータを、個人識別データに対応する特定話者用辞書に
標準パターンとして登録して(ステップ210)、メイ
ンルーチンにリターンする。一方、個人識別データがな
い場合(ステップ202;N)には特定話者用辞書が選
択されていないので、特定話者用辞書への標準パターン
登録処理をすることなくメインルーチンにリターンす
る。
Next, the characteristic parameter extracted in step 205 is registered as a standard pattern in the specific speaker dictionary corresponding to the personal identification data (step 210), and the process returns to the main routine. On the other hand, if there is no personal identification data (step 202; N), the specific speaker dictionary has not been selected, so the process returns to the main routine without performing the standard pattern registration process in the specific speaker dictionary.

【0024】以上説明したように本実施例では、音声認
識用辞書43に複数の特定話者用辞書と不特定話者用辞
書とを設け、データ読取部25によってイグニッション
キー38の個人識別データ保持部39に保持された個人
識別データを読み取って、この個人識別データに基づい
て、認識判定部45が、音声入力を行う特定話者に対応
した特定話者用辞書を選択するようにしたので、煩雑な
操作を必要とすることなく、使用者に応じて特定話者用
辞書を切り換えることができる。また、以上説明した実
施例によれば、音声の認識処理と共に、各特定話者の標
準パターンを自動的に特定話者用辞書に登録するとこが
可能になる。
As described above, in the present embodiment, the voice recognition dictionary 43 is provided with a plurality of specific speaker dictionaries and non-specific speaker dictionaries, and the data reading section 25 holds the personal identification data of the ignition key 38. Since the personal identification data stored in the unit 39 is read and the recognition determination unit 45 selects the specific speaker dictionary corresponding to the specific speaker who inputs the voice based on the personal identification data, It is possible to switch the dictionary for a specific speaker according to a user without requiring a complicated operation. Further, according to the embodiment described above, it becomes possible to automatically register the standard pattern of each specific speaker in the specific speaker dictionary together with the voice recognition process.

【0025】次に、第2の実施例による音声認識動作に
ついて説明する。なお、この第2の実施例における音声
認識装置の構成は第1の実施例と同様である。図5は本
実施例の音声認識装置において、特定話者用辞書に標準
パターンを登録するときの動作を示すフローチャートで
ある。この動作は、図2における登録モード指定スイッ
チ40によって登録モードが指定されたときに開始す
る。この動作では、まず、データ読取部25が、イグニ
ッションキー38の個人識別データ保持部39に保持さ
れた個人識別データを読み取り、個人データ記憶処理部
44が、この個人識別データを取得する(ステップ30
1)。次に、演算部10の制御の下で、登録すべき単語
を、文字としてディスプレイ11aより出力、あるいは
音声としてスピーカ29より出力する(ステップ30
2)。
Next, the voice recognition operation according to the second embodiment will be described. The configuration of the voice recognition device in the second embodiment is the same as that in the first embodiment. FIG. 5 is a flow chart showing the operation of registering a standard pattern in the specific speaker dictionary in the voice recognition device of this embodiment. This operation starts when the registration mode is designated by the registration mode designation switch 40 in FIG. In this operation, first, the data reading unit 25 reads the personal identification data held in the personal identification data holding unit 39 of the ignition key 38, and the personal data storage processing unit 44 acquires this personal identification data (step 30).
1). Next, under the control of the calculation unit 10, the word to be registered is output as a character from the display 11a or as a voice from the speaker 29 (step 30).
2).

【0026】次に、マイク24より音声が入力されるの
を待ち(ステップ303)、音声が入力されたら(ステ
ップ303;Y)、マイク24から入力された音声信号
を音声入力部41によってディジタル信号に変換し、こ
の信号から特徴抽出部42によって特徴パラメータを抽
出する(ステップ304)。次に、個人データ記憶処理
部44によって、データ読取部25によって読み取られ
た個人識別データに対応する特定話者用辞書に、特徴抽
出部42によって抽出された特徴パラメータを個人デー
タとして記憶することによって、特定話者用辞書に標準
パターンを登録する(ステップ305)。なお、マイク
24より音声を入力する際にエンジン音等の背景音も含
めて入力し、背景音を含む音声の特徴パラメータを標準
パターンとして特定話者用辞書に登録するようにしても
良い。次に、登録すべき次の単語があるか否かを判断し
(ステップ306)、ある場合(Y)にはステップ30
2へ戻り、ない場合(N)には登録時の動作を終了す
る。なお、特定話者用辞書には、不特定話者用辞書に登
録されている単語のうち、特に必要な単語のみを登録す
るようにしても良い。
Next, waiting for voice input from the microphone 24 (step 303), when voice is input (step 303; Y), the voice signal input from the microphone 24 is converted into a digital signal by the voice input unit 41. And the characteristic extraction unit 42 extracts characteristic parameters from this signal (step 304). Next, the personal data storage processing unit 44 stores the characteristic parameters extracted by the characteristic extraction unit 42 as personal data in the specific speaker dictionary corresponding to the personal identification data read by the data reading unit 25. , The standard pattern is registered in the specific speaker dictionary (step 305). It is also possible to input a background sound such as an engine sound when the voice is input from the microphone 24, and to register the characteristic parameter of the voice including the background sound as a standard pattern in the specific speaker dictionary. Next, it is judged whether or not there is the next word to be registered (step 306), and if there is (Y), the step 30 is executed.
Returning to 2, if there is no (N), the operation at the time of registration is ended. It should be noted that, in the specific speaker dictionary, only words that are particularly necessary among the words registered in the unspecified speaker dictionary may be registered.

【0027】図6は第2の実施例の音声認識装置におけ
る音声入力時の動作を示すフローチャートである。この
動作では、まず、データ読取部25の出力から、個人識
別データがあるか否かを判断する(ステップ401)。
個人識別データがない場合(N)、すなわち個人識別デ
ータ保持部39を有しない新しいイグニッショキーやマ
スターキーが挿入されたときには、特定話者用辞書への
登録を行うか不特定話者用辞書を使用するかの選択を要
求するメッセージをディスプレイ11aあるいはスピー
カ29より出力し(ステップ402)、使用者が登録を
行うことを選択したか否かを判断する(ステップ40
3)。使用者は、登録を行うことを選択する場合には、
登録モード指定スイッチ40によって登録モードを指定
する。この場合(ステップ403;Y)は、音声入力時
の動作を終了し、図5に示す登録時の動作を行う。
FIG. 6 is a flow chart showing the operation at the time of voice input in the voice recognition apparatus of the second embodiment. In this operation, first, it is judged from the output of the data reading section 25 whether or not there is personal identification data (step 401).
When there is no personal identification data (N), that is, when a new ignition key or master key that does not have the personal identification data holding unit 39 is inserted, it is registered in the specific speaker dictionary or the unspecified speaker dictionary is used. A message requesting selection of whether or not to perform is output from the display 11a or the speaker 29 (step 402), and it is determined whether or not the user has selected registration (step 40).
3). If the user chooses to register,
A registration mode is designated by the registration mode designation switch 40. In this case (step 403; Y), the operation at the time of voice input is ended and the operation at the time of registration shown in FIG. 5 is performed.

【0028】使用者は、不特定話者用辞書を使用するこ
とを選択する場合には、音声入力時の動作を続行するス
イッチを押す。個人識別データがある場合(ステップ4
01;Y)と、個人識別データがない場合において使用
者が不特定話者用辞書を使用することを選択した場合
(ステップ403;N)には、次に、マイク24より音
声が入力されるのを待ち(ステップ404)、音声が入
力されたら(ステップ404;Y)、マイク24から入
力された音声信号を音声入力部41によってディジタル
信号に変換し、この信号から特徴抽出部42によって特
徴パラメータを抽出する(ステップ405)。次に、認
識判定部45によって、特徴抽出部42によって抽出さ
れた特徴パラメータと音声認識用辞書43に登録されて
いる標準パターンとを比較して、入力された音声を認識
する(ステップ406)。
When the user chooses to use the unspecified speaker dictionary, the user presses the switch for continuing the operation at the time of voice input. If there is personal identification data (step 4)
01; Y), and when the user selects to use the unspecified speaker dictionary when there is no personal identification data (step 403; N), the voice is next input from the microphone 24. When the voice is input (step 404; Y), the voice signal input from the microphone 24 is converted into a digital signal by the voice input unit 41, and the feature parameter is extracted from the feature signal by the feature extraction unit 42. Is extracted (step 405). Next, the recognition determination unit 45 compares the feature parameter extracted by the feature extraction unit 42 with the standard pattern registered in the voice recognition dictionary 43 to recognize the input voice (step 406).

【0029】一方、マスターキーのように個人識別デー
タ保持部39を有しないイグニッションキーが用いられ
た場合には、個人識別データがないので、認識判定部4
5は、図3(c)の太線で示すように、音声認識用辞書
43から不特定話者用辞書のみを選択する。そして、認
識判定部45は、特徴抽出部42によって抽出された特
徴パラメータを不特定話者用辞書に記憶された標準パタ
ーンと比較して、入力された音声を認識する。
On the other hand, when an ignition key such as a master key that does not have the personal identification data holding unit 39 is used, there is no personal identification data, and therefore the recognition determination unit 4
5 selects only the unspecified speaker dictionary from the voice recognition dictionary 43, as indicated by the thick line in FIG. 3 (c). Then, the recognition determination unit 45 recognizes the input voice by comparing the feature parameter extracted by the feature extraction unit 42 with the standard pattern stored in the unspecified speaker dictionary.

【0030】音声の認識(図6;ステップ406)が終
了したら、音声認識部16は、認識した音声(言葉)を
確認するメッセージをディスプレイ11aあるいはスピ
ーカ29より出力する(ステップ407)。使用者は、
このメッセージから、音声認識部16が認識した音声
(言葉)が正しければ確認のスイッチを押し、正しくな
ければ再入力のスイッチを押す。音声認識部16は、使
用者によって確認されたか否かを判断し(ステップ40
8)、確認されなければ(N)、ステップ404へ戻
り、確認されれば(Y)、認識結果処理部46によって
認識結果処理を行い(ステップ409)、音声入力時の
動作を終了する。
When the voice recognition (FIG. 6; step 406) is completed, the voice recognition unit 16 outputs a message confirming the recognized voice (word) from the display 11a or the speaker 29 (step 407). The user
From this message, if the voice (word) recognized by the voice recognition unit 16 is correct, the confirmation switch is pressed, and if not, the re-input switch is pressed. The voice recognition unit 16 determines whether or not it has been confirmed by the user (step 40).
8) If it is not confirmed (N), the process returns to step 404. If it is confirmed (Y), the recognition result processing unit 46 performs recognition result processing (step 409), and the operation at the time of voice input ends.

【0031】以上説明したように第2の実施例によれ
ば、各特定話者の標準パターンの登録を音声の認識処理
と併せて行うことなく、登録モードの指定することで、
特定話者の標準パターン登録を単独に行うことが可能に
なる。
As described above, according to the second embodiment, the registration mode is designated without registering the standard pattern of each specific speaker together with the voice recognition process.
It becomes possible to independently register the standard pattern of a specific speaker.

【0032】なお、以上説明した実施例では、特定話者
の標準パターン登録の再、ステップ302において、登
録すべき単語を文字としてディスプレイ11aに出力
し、または音声としてスピーカ29から出力するように
したが、標準パターン登録単語表を予め用意しておき、
特定話者はこの表に従って順次音声をマイク24に入力
するようにしてもよい。この際、各標準パターンに整理
番号を付しておき、特定話者は、整理番号をスイッチ1
1bから入力することで、その後にマイク24から入力
する音声の内容を音声認識部16に認識させるようにし
てもよい。これによって、特定話者は全ての単語につい
て音声を入力する必要がなくなり、必要とする単語を選
択して登録することが可能になる。
In the embodiment described above, the standard pattern of the specific speaker is re-registered, and in step 302, the word to be registered is output as a character to the display 11a or is output as a voice from the speaker 29. However, prepare a standard pattern registration word table in advance,
The specific speaker may sequentially input voices to the microphone 24 according to this table. At this time, a reference number is attached to each standard pattern, and the specific speaker switches the reference number to the switch 1
You may make it the audio | voice recognition part 16 recognize the content of the audio | voice input after that from the microphone 24 by inputting from 1b. As a result, the specific speaker does not need to input voice for all words, and can select and register the necessary words.

【0033】図7は本発明の一実施例に係る音声認識装
置を音声入力装置として用いたナビゲーション装置の他
の構成例を示すブロック図である。このナビゲーション
装置は、ディスプレイを用いずに、全て音声によって経
路誘導を行うものである。従って、図1における表示部
11、スイッチ入力類管理部12、地図描画部32およ
び画面管理部34は設けられていない。また、ナビゲー
ション装置の動作の指示等を行うためのスイッチ51
と、このスイッチ51からの入力を管理するスイッチ入
力管理部52とが設けられ、スイッチ入力管理部52が
入力管理部35に接続されている。このナビゲーション
装置のその他の構成は、図1に示すナビゲーション装置
と同様である。
FIG. 7 is a block diagram showing another example of the configuration of a navigation device using the voice recognition device according to one embodiment of the present invention as a voice input device. This navigation device does not use a display but guides a route by voice. Therefore, the display unit 11, the switch input management unit 12, the map drawing unit 32, and the screen management unit 34 in FIG. 1 are not provided. In addition, a switch 51 for instructing the operation of the navigation device, etc.
And a switch input management unit 52 that manages the input from the switch 51, and the switch input management unit 52 is connected to the input management unit 35. Other configurations of this navigation device are the same as those of the navigation device shown in FIG.

【0034】なお、本発明は、上記実施例に限定され
ず、例えば本発明の音声認識装置は、ナビゲーション装
置に限らず、ウインカー、パワーウインドウ、バックミ
ラー、アンテナ、カーオーディオ装置等の自動車内の他
の装置の操作を音声入力によって行う場合の音声入力装
置として用いることができる。
The present invention is not limited to the above-described embodiments. For example, the voice recognition device of the present invention is not limited to a navigation device, and may be used in winkers, power windows, rearview mirrors, antennas, car audio devices, etc. It can be used as a voice input device when other devices are operated by voice input.

【0035】[0035]

【発明の効果】以上説明したように本発明によれば、複
数の特定話者用辞書を設け、個人識別データ読み取り手
段によって、イグニッションキーの個人識別データ保持
部に保持された個人識別データを読み取って、この個人
識別データに基づいて、音声入力を行う特定話者に対応
した特定話者用辞書を選択するようにしたので、煩雑な
操作を必要とすることなく、使用者に応じて特定話者用
辞書を切り換えることができる。
As described above, according to the present invention, a plurality of specific speaker dictionaries are provided, and the personal identification data reading means reads the personal identification data held in the personal identification data holding portion of the ignition key. Based on this personal identification data, the dictionary for the specific speaker corresponding to the specific speaker who inputs the voice is selected.Therefore, it is possible to select the specific speaker according to the user without complicated operations. You can switch the personal dictionary.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る音声認識装置を音声入
力装置として用いたナビゲーション装置の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a configuration of a navigation device using a voice recognition device according to an embodiment of the present invention as a voice input device.

【図2】図1における音声認識部の構成を示すブロック
図である。
FIG. 2 is a block diagram showing a configuration of a voice recognition unit in FIG.

【図3】図2における音声認識用辞書の概要を示す説明
図である。
FIG. 3 is an explanatory view showing an outline of a voice recognition dictionary in FIG.

【図4】本実施例における音声入力時の動作を示すフロ
ーチャートである。
FIG. 4 is a flowchart showing an operation at the time of voice input in this embodiment.

【図5】本発明の第2の実施例に係る音声認識装置にお
いて、特定話者用辞書に標準パターンを登録するときの
動作を示すフローチャートである。
FIG. 5 is a flowchart showing an operation when registering a standard pattern in a specific speaker dictionary in the voice recognition device according to the second exemplary embodiment of the present invention.

【図6】本発明の第2の実施例に係る音声認識装置にお
ける音声入力時の動作を示すフローチャートである。
FIG. 6 is a flowchart showing an operation at the time of voice input in the voice recognition device according to the second embodiment of the present invention.

【図7】本発明の実施例に係る音声認識装置を音声入力
装置として用いたナビゲーション装置の他の構成例を示
すブロック図である。
FIG. 7 is a block diagram showing another configuration example of a navigation device using the voice recognition device according to the embodiment of the present invention as a voice input device.

【符号の説明】[Explanation of symbols]

10 演算部 16 音声認識部 24 マイク 25 データ読取部 38 イグニッションキー 39 個人識別データ保持部 41 音声入力部 42 特徴抽出部 43 音声認識用辞書 44 個人データ記憶処理部 45 認識判定部 46 認識結果処理部 10 arithmetic unit 16 voice recognition unit 24 microphone 25 data reading unit 38 ignition key 39 personal identification data holding unit 41 voice input unit 42 feature extraction unit 43 voice recognition dictionary 44 personal data storage processing unit 45 recognition determination unit 46 recognition result processing unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 自動車内における音声入力装置として用
いられる音声認識装置において、 自動車のイグニッションキーに設けられ、音声入力を行
う特定話者を識別するための個人識別データを保持する
個人識別データ保持部と、 この個人識別データ保持部に保持された個人識別データ
を読み取る個人識別データ読み取り手段と、 複数の特定話者毎に設けられ、各特定話者の音声の特徴
を記憶する複数の特定話者用辞書と、 音声を入力する音声入力手段と、 この音声入力手段によって入力された音声の特徴を抽出
する特徴抽出手段と、 前記個人識別データ読み取り手段によって読み取られた
個人識別データに基づいて、音声入力を行う特定話者に
対応した特定話者用辞書を選択し、この特定話者用辞書
と前記特徴抽出手段によって抽出された特徴を用いて、
入力された音声を認識する認識手段とを具備することを
特徴とする音声認識装置。
1. A voice recognition device used as a voice input device in a vehicle, the personal identification data holding unit being provided in an ignition key of the vehicle and holding personal identification data for identifying a specific speaker who inputs a voice. A personal identification data reading means for reading the personal identification data stored in the personal identification data storage unit; and a plurality of specific speakers provided for each of the plurality of specific speakers and storing the characteristics of the voice of each specific speaker. Dictionary, voice input means for inputting voice, feature extraction means for extracting features of voice input by this voice input means, and voice recognition based on personal identification data read by the personal identification data reading means. A dictionary for a specific speaker corresponding to a specific speaker to be input is selected and extracted by the dictionary for the specific speaker and the feature extracting means. Using features,
A voice recognition device, comprising: a recognition unit for recognizing an input voice.
【請求項2】 更に、不特定話者用の音声の特徴を記憶
する不特定話者用辞書を具備し、前記認識手段は、個人
識別データがある場合には、この個人識別データに基づ
いて選択した特定話者用辞書と不特定話者用辞書とを用
い、個人識別データがない場合には不特定話者用辞書を
用いることを特徴とする請求項1記載の音声認識装置。
2. A non-specific speaker dictionary for storing the characteristics of the voice for the non-specific speaker, wherein the recognizing means, if there is personal identification data, based on the personal identification data. 2. The voice recognition apparatus according to claim 1, wherein the selected speaker-specific dictionary and the speaker-unspecified speaker dictionary are used, and when there is no personal identification data, the speaker-specific speaker dictionary is used.
【請求項3】 ナビゲーション装置の音声入力装置とし
て用いられることを特徴とする請求項1または2記載の
音声認識装置。
3. The voice recognition device according to claim 1, wherein the voice recognition device is used as a voice input device of a navigation device.
JP6202872A 1994-08-04 1994-08-04 Voice recognizing device Pending JPH0844387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6202872A JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6202872A JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Publications (1)

Publication Number Publication Date
JPH0844387A true JPH0844387A (en) 1996-02-16

Family

ID=16464601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6202872A Pending JPH0844387A (en) 1994-08-04 1994-08-04 Voice recognizing device

Country Status (1)

Country Link
JP (1) JPH0844387A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004851A1 (en) * 1998-11-25 2000-05-31 Mannesmann VDO Aktiengesellschaft Adaptive navigation system
EP1035530A2 (en) * 1999-03-11 2000-09-13 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
JP2003515177A (en) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク Natural language interface control system
WO2005048239A1 (en) * 2003-11-12 2005-05-26 Honda Motor Co., Ltd. Speech recognition device
JP2007286174A (en) * 2006-04-13 2007-11-01 Funai Electric Co Ltd Electronic apparatus
JP2007323290A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1004851A1 (en) * 1998-11-25 2000-05-31 Mannesmann VDO Aktiengesellschaft Adaptive navigation system
US6308133B1 (en) 1998-11-25 2001-10-23 Mannessmann Vdo Ag Adaptive navigation system
EP1035530A2 (en) * 1999-03-11 2000-09-13 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
EP1035530A3 (en) * 1999-03-11 2001-04-25 Mannesmann VDO Aktiengesellschaft Audio and navigation system with automatic setting of user-dependent parameters
JP2003515177A (en) * 1999-10-19 2003-04-22 ソニー エレクトロニクス インク Natural language interface control system
WO2005048239A1 (en) * 2003-11-12 2005-05-26 Honda Motor Co., Ltd. Speech recognition device
JP2007286174A (en) * 2006-04-13 2007-11-01 Funai Electric Co Ltd Electronic apparatus
JP2007323290A (en) * 2006-05-31 2007-12-13 Funai Electric Co Ltd Electronic apparatus

Similar Documents

Publication Publication Date Title
US6253174B1 (en) Speech recognition system that restarts recognition operation when a new speech signal is entered using a talk switch
US6064323A (en) Navigation apparatus, navigation method and automotive vehicles
US6480786B2 (en) Method and system for route guiding
JPH0844387A (en) Voice recognizing device
JP3892338B2 (en) Word dictionary registration device and word registration program
JP3141556B2 (en) Vehicle navigation system
JP2000338993A (en) Voice recognition device and navigation system using this device
JPH11142178A (en) Navigation apparatus
JP2701492B2 (en) Map display device
JP3818352B2 (en) Navigation device and storage medium
JP2002228477A (en) Navigation apparatus and navigation system
JP2947143B2 (en) Voice recognition device and navigation device
JPH0926799A (en) Speech recognition device
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
JP2000122685A (en) Navigation system
JP3378106B2 (en) Navigation device
JPH1063288A (en) Voice recognition device
JPH1049194A (en) Voice recognition device
JPH1038600A (en) Destination route guidance system
JPH11231892A (en) Speech recognition device
WO2006028171A1 (en) Data presentation device, data presentation method, data presentation program, and recording medium containing the program
JPH1049195A (en) Voice recognition device
JP2002267471A (en) On-vehicle navigation system
JP2003021530A (en) Search method and device for in-area facility by voice
JPH08161144A (en) Information input device