JP2001242887A - Speech recognition device and speech recognizing navigation device - Google Patents
Speech recognition device and speech recognizing navigation deviceInfo
- Publication number
- JP2001242887A JP2001242887A JP2000053257A JP2000053257A JP2001242887A JP 2001242887 A JP2001242887 A JP 2001242887A JP 2000053257 A JP2000053257 A JP 2000053257A JP 2000053257 A JP2000053257 A JP 2000053257A JP 2001242887 A JP2001242887 A JP 2001242887A
- Authority
- JP
- Japan
- Prior art keywords
- word
- recognition
- reading
- voice
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 51
- 230000005540 biological transmission Effects 0.000 claims description 7
- 235000016496 Panda oleosa Nutrition 0.000 claims description 3
- 240000000220 Panda oleosa Species 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 25
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- GHIVDTCFLFLOBV-UHFFFAOYSA-N 2-(diethylamino)ethyl 2-acetyloxybenzoate Chemical compound CCN(CC)CCOC(=O)C1=CC=CC=C1OC(C)=O GHIVDTCFLFLOBV-UHFFFAOYSA-N 0.000 description 1
- 241001517310 Eria Species 0.000 description 1
- 101150065817 ROM2 gene Proteins 0.000 description 1
- 229910017435 S2 In Inorganic materials 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、音声認識および音
声認識ナビゲーション装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to voice recognition and a voice recognition navigation device.
【0002】[0002]
【従来の技術】自動車の現在地を表示し、地図の広域・
詳細表示を行い、目的地までの進行方向および残距離を
誘導する車載用ナビゲーション装置(以下、ナビゲーシ
ョン装置と言う)が知られている。また、ナビゲーショ
ン装置の一機能として、運転中のドライバからの操作指
示を音声で行い、ドライバの安全性を高めるいわゆる音
声認識ナビゲーション装置も知られている(例えば特開
平09−292255号公報)。2. Description of the Related Art The present location of a car is displayed, and a wide area
2. Description of the Related Art In-vehicle navigation devices (hereinafter, referred to as navigation devices) that perform detailed display and guide a traveling direction and a remaining distance to a destination are known. Further, as one function of the navigation device, a so-called voice recognition navigation device for improving the safety of the driver by giving an operation instruction from the driver while driving is also known (for example, JP-A-09-292255).
【0003】音声認識ナビゲーション装置で使用する音
声認識ソフトは、一般的に、発話スイッチ等を押し、そ
の後、ユーザが発話した音データと認識辞書内の認識語
との相関値を算出する。その結果、相関値が最大になっ
た認識語を認識結果と判断する。The speech recognition software used in the speech recognition navigation device generally presses a speech switch or the like, and then calculates a correlation value between the sound data spoken by the user and the recognized word in the recognition dictionary. As a result, the recognition word having the maximum correlation value is determined as the recognition result.
【0004】[0004]
【発明が解決しようとする課題】しかし、ユーザが同じ
意味内容の言葉を発話しても、その言葉の一部の読みが
微妙に異なったり、あるいは、他の読みであったりする
場合には、誤認識とされると言う問題があった。However, even if the user utters a word having the same meaning and content, if the reading of a part of the word is slightly different or another reading, There was a problem of being misrecognized.
【0005】本発明の目的は、ユーザが同じ意味内容の
言葉を発話した場合に、その言葉の一部の読みが微妙に
異なったり、あるいは、他の読みであったりしても、確
実に音声認識を成功させることが可能な音声認識装置、
音声認識ナビゲーション装置、およびそのための認識語
生成方法を提供することにある。また、生成されたデー
タあるいは生成のためのプログラムを記録した記録媒体
および伝送する伝送媒体を提供することにある。An object of the present invention is to ensure that when a user utters a word having the same meaning, even if the reading of a part of the word is slightly different or another reading, Speech recognition device that can succeed in recognition,
It is an object of the present invention to provide a speech recognition navigation device and a recognition word generation method therefor. Another object of the present invention is to provide a recording medium on which generated data or a program for generation is recorded and a transmission medium for transmission.
【0006】[0006]
【課題を解決するための手段】実施の形態を示す図1を
使用して、括弧内にその対応する要素の符号をつけて本
発明を以下に説明する。上記目的を達成するために、請
求項1の発明は、音声入力手段(201)と、音声認識
対象の言葉に対応しその言葉の読みを表す認識語を格納
する格納手段(209、210)と、音声入力手段(2
01)により得られた音データと認識語に基づき生成さ
れた音声認識用データとを比較して音声認識処理を行う
音声認識処理手段(208)とを備えた音声認識装置に
適用され、格納手段(209、210)には、一つの音
声認識対象の言葉の一部に予め定めた所定の言葉を含む
場合、その所定の言葉の読みをその所定の言葉の正規の
読みとは異なる読みとした第1の認識語が格納されてい
るようにしたものである。請求項2の発明は、請求項1
記載の音声認識装置において、所定の言葉は複数の音声
認識対象の言葉の一部に共通に含まれる言葉であり、所
定の言葉の正規の読みと異なる読みを、その言葉の通常
発音される読みであるようにしたものである。請求項3
の発明は、請求項1または2記載の音声認識装置におい
て、所定の言葉の正規の読みと異なる読みを、所定の言
葉の正規の読みにおいてのみ五十音のえ段の音節の後に
「い」の音節が並ぶ場合、この「い」の音節を「え」の
音節に置き換えた読みとしたものである。請求項4の発
明は、請求項1または2記載の音声認識装置において、
所定の言葉の正規の読みと異なる読みを、所定の言葉の
正規の読みにおいてのみ五十音のお段の音節の後に
「う」の音節が並ぶ場合、この「う」の音節を「お」の
音節に置き換えた読みとしたものである。請求項5の発
明は、請求項3または4記載の音声認識装置において、
認識語は長音符号「ー」を含む仮名により指定されるも
のであり、所定の言葉の正規の読みとは異なる読みにお
いて、置き換える音節を長音符号「ー」により置き換え
るようにしたものである。請求項6の発明は、請求項1
記載の音声認識装置において、格納手段(209、21
0)に、一つの音声認識対象の言葉に対して、所定の言
葉の正規の読みを含む正規の認識語と第1の認識語とが
共に格納されているようにしたものである。請求項7の
発明は、請求項6記載の音声認識装置において、第1の
認識語において、所定の言葉の正規の読みと異なる読み
を、その言葉の読みをなしとしたものである。請求項8
の発明は、請求項6記載の音声認識装置において、第1
の認識語において、所定の言葉の正規の読みと異なる読
みを、その言葉が漢字で表されるときその漢字の異なる
読みとしたものである。請求項9の発明は、請求項6記
載の音声認識装置において、第1の認識語において、所
定の言葉の正規の読みと異なる読みを、その言葉が有す
る別称あるいは略称としたものである。請求項10の発
明は、請求項1から9のいずれか1項記載の音声認識装
置において、音声認識処理手段(208)が、所定の言
葉を一部に含む一つの音声認識対象の言葉に関連して音
声認識処理を行うときに、第1の認識語を生成して格納
手段(209)に格納ずる生成手段をさらに備えるよう
にしたものである。請求項11の発明は、音声入力手段
(201)と、音声認識対象の言葉に対応しその言葉の
読みを表す認識語を格納する格納手段(209、21
0)と、音声入力手段(201)により得られた音デー
タと認識語に基づき生成された音声認識用データとを比
較して音声認識処理を行う音声認識処理手段(208)
とを備えた音声認識装置に適用され、格納手段(20
9、210)には、音声認識対象の言葉に予め定めた所
定の言葉が含まれない場合、所定の言葉の読みを付加し
た認識語が格納されているようにしたものである。請求
項12の音声認識ナビゲーション装置は、請求項1から
11のいずれか1項記載の音声認識装置(200)と、
地図情報を格納する地図情報格納手段(108)と、少
なくとも音声認識装置(200)の認識結果と地図情報
とに基づき、道案内のための制御を行う制御手段(10
5)とを備えるようにしたものである。請求項13の発
明は、音声認識処理における、音声入力手段(201)
により得られた音データと比較する音声認識用データを
生成するための音声認識対象の言葉の読みを表した認識
語を生成する認識語生成方法に適用され、一つの音声認
識対象の言葉の一部に予め定めた所定の言葉を含む場
合、その所定の言葉の読みをその所定の言葉の正規の読
みとは異なる読みとした認識語を生成するようにしたも
のである。請求項14の記録媒体は、音声認識処理にお
ける、音声入力手段(201)により得られた音データ
と比較する音声認識用データを生成するための音声認識
対象の言葉の読みを表した認識語を生成する認識語生成
プログラムであって、一つの音声認識対象の言葉の一部
に予め定めた所定の言葉を含む場合、その所定の言葉の
読みをその所定の言葉の正規の読みとは異なる読みとし
た認識語を生成する認識語生成プログラムを記録したも
のである。請求項15の記録媒体は、音声認識処理にお
ける、音声入力手段(201)により得られた音データ
と比較する音声認識用データを生成するための音声認識
対象の言葉の読みを表した認識語に関するデータであっ
て、一つの音声認識対象の言葉の一部に予め定めた所定
の言葉を含む場合、その所定の言葉の読みをその所定の
言葉の正規の読みとは異なる読みとした認識語に関する
データを記録したものである。請求項16の伝送媒体
は、音声認識処理における、音声入力手段(201)に
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
を生成する認識語生成プログラムであって、一つの音声
認識対象の言葉の一部に予め定めた所定の言葉を含む場
合、その所定の言葉の読みをその所定の言葉の正規の読
みとは異なる読みとした認識語を生成する認識語生成プ
ログラム伝送するものである。請求項17の伝送媒体
は、音声認識処理における、音声入力手段(201)に
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
に関するデータであって、一つの音声認識対象の言葉の
一部に予め定めた所定の言葉を含む場合、その所定の言
葉の読みをその所定の言葉の正規の読みとは異なる読み
とした認識語に関するデータを伝送するものである。DETAILED DESCRIPTION OF THE INVENTION The present invention will be described below with reference to the embodiment shown in FIG. In order to achieve the above object, the invention according to claim 1 includes a voice input unit (201) and a storage unit (209, 210) for storing a recognized word corresponding to a word to be recognized and representing a reading of the word. , Voice input means (2
01) is applied to a voice recognition device including voice recognition processing means (208) for performing voice recognition processing by comparing voice data obtained based on recognition words with voice data obtained based on a recognition word. In (209, 210), when a part of one speech recognition target word includes a predetermined word, the reading of the predetermined word is different from the normal reading of the predetermined word. The first recognition word is stored. The invention of Claim 2 is Claim 1
In the described speech recognition device, the predetermined word is a word commonly included in a part of a plurality of words to be subjected to voice recognition, and a reading different from a regular reading of the predetermined word is obtained by reading a normal pronunciation of the word. It is made to be. Claim 3
According to the invention of the first or second aspect of the present invention, in the voice recognition device according to claim 1 or 2, a reading different from the normal reading of the predetermined word is performed only after the syllable of the Japanese syllabary in the normal reading of the predetermined word. When the syllables are arranged, the syllable "i" is replaced by the syllable "e". According to a fourth aspect of the present invention, in the voice recognition device according to the first or second aspect,
When a syllabary of "U" is arranged after the syllable of the Japanese syllabary only in the regular reading of the predetermined word, the syllable of "U" is changed to "O". This is a reading that has been replaced with syllables. According to a fifth aspect of the present invention, in the voice recognition device according to the third or fourth aspect,
The recognition word is specified by a kana including a long-sound code "-", and a syllable to be replaced is replaced with a long-sound code "-" in a reading different from a normal reading of a predetermined word. The invention of claim 6 is claim 1
In the voice recognition device described above, the storage means (209, 21)
0), a normal recognition word including a normal reading of a predetermined word and a first recognition word are stored for one speech recognition target word. According to a seventh aspect of the present invention, in the voice recognition device according to the sixth aspect, in the first recognition word, a reading different from a normal reading of a predetermined word is not read. Claim 8
The invention according to claim 6, wherein in the speech recognition apparatus according to claim 6, the first
In the recognition word, a reading different from a regular reading of a predetermined word is a reading different from the kanji when the word is represented by a kanji. According to a ninth aspect of the present invention, in the voice recognition device according to the sixth aspect, in the first recognition word, a reading different from a normal reading of a predetermined word is used as a different name or an abbreviation of the word. According to a tenth aspect of the present invention, in the voice recognition device according to any one of the first to ninth aspects, the voice recognition processing means (208) relates to one voice recognition target word including a predetermined word as a part. When a voice recognition process is performed, a first recognition word is generated and stored in the storage means (209). The invention according to claim 11 is a speech input means (201) and a storage means (209, 21) for storing a recognition word corresponding to a speech recognition target word and representing a reading of the word.
0) and voice recognition processing means (208) for performing voice recognition processing by comparing sound data obtained by the voice input means (201) with data for voice recognition generated based on the recognition word.
And a storage unit (20).
9, 210), a recognition word to which a predetermined word reading is added is stored when a predetermined word is not included in the speech recognition target word. A speech recognition navigation device according to claim 12 includes: a speech recognition device (200) according to any one of claims 1 to 11;
Map information storage means (108) for storing map information, and control means (10) for performing control for route guidance based on at least the recognition result of the voice recognition device (200) and the map information.
5). According to a thirteenth aspect, in the voice recognition processing, a voice input means (201) is provided.
The method is applied to a recognition word generation method for generating a recognition word representing a reading of a speech recognition target word for generating speech recognition data to be compared with the sound data obtained by the method. When a predetermined word is included in the section, a recognition word is generated in which the reading of the predetermined word is different from the normal reading of the predetermined word. A recording medium according to claim 14, wherein in a speech recognition process, a recognition word representing a reading of a speech recognition target word for generating speech recognition data to be compared with sound data obtained by a speech input means (201). In a recognition word generation program to be generated, when a part of one word for speech recognition includes a predetermined word, a reading of the predetermined word is different from a normal reading of the predetermined word. This is a program for recording a recognition word generation program for generating a recognition word. A recording medium according to a fifteenth aspect relates to a recognition word representing a reading of a speech recognition target word for generating speech recognition data to be compared with sound data obtained by a speech input means (201) in a speech recognition process. In the case where the data is a part of one speech recognition target word and includes a predetermined word, the recognition of the predetermined word is related to a recognized word having a reading different from the normal reading of the predetermined word. This is the recorded data. A transmission medium according to claim 16, wherein in the speech recognition processing, a recognition word representing a reading of a speech recognition target word for generating speech recognition data to be compared with the sound data obtained by the speech input means (201). In a recognition word generation program to be generated, when a part of one word for speech recognition includes a predetermined word, a reading of the predetermined word is different from a normal reading of the predetermined word. A recognition word generation program for generating the recognition word described above is transmitted. A transmission medium according to claim 17 relates to a recognition word representing a reading of a word to be subjected to speech recognition for generating speech recognition data to be compared with sound data obtained by the speech input means (201) in speech recognition processing. In the case where the data is a part of one speech recognition target word and includes a predetermined word, the recognition of the predetermined word is related to a recognized word having a reading different from the normal reading of the predetermined word. It transmits data.
【0007】なお、上記課題を解決するための手段の項
では、分かりやすく説明するため実施の形態の図と対応
づけたが、これにより本発明が実施の形態に限定される
ものではない。In the section of the means for solving the above-mentioned problems, the description is made in correspondence with the drawings of the embodiments for easy understanding, but the present invention is not limited to the embodiments.
【0008】[0008]
【発明の実施の形態】−第1の実施の形態− 図1は、本発明の車載用ナビゲーションシステムの第1
の実施の形態の構成を示す図である。車載用ナビゲーシ
ョンシステムは、ナビゲーション装置100および音声
ユニット200により構成される。第1の実施の形態の
ナビゲーションシステムは、認識語の一部に所定の言葉
が含まれる場合に、その所定の言葉の読みを最も音声認
識に成功する読みに置き換えるようにし、確実に音声認
識に成功させるようにしたものである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment FIG. 1 shows a first embodiment of a vehicle-mounted navigation system according to the present invention.
It is a figure showing composition of an embodiment. The in-vehicle navigation system includes a navigation device 100 and a voice unit 200. The navigation system according to the first embodiment, when a predetermined word is included in a part of a recognized word, replaces the reading of the predetermined word with the reading that is most successfully recognized by speech, and ensures that the speech recognition It is intended to be successful.
【0009】ナビゲーション装置100は、GPS受信
機101と、ジャイロセンサ102と、車速センサ10
3と、ドライバ104と、CPU105と、RAM10
6と、ROM107と、CD−ROMドライブ108
と、表示装置109と、バスライン110等から構成さ
れる。A navigation device 100 includes a GPS receiver 101, a gyro sensor 102, and a vehicle speed sensor 10.
3, the driver 104, the CPU 105, and the RAM 10
6, ROM 107, and CD-ROM drive 108
, A display device 109, a bus line 110, and the like.
【0010】音声ユニット200は、マイク201と、
A/D変換部202と、D/A変換部203と、アンプ
204と、スピーカ205と、発話スイッチ206と、
ドライバ207と、CPU208と、RAM209と、
ROM210と、バスライン212等から構成される。
ナビゲーション装置100と音声ユニット200は、通
信ライン211を介して接続される。The audio unit 200 includes a microphone 201,
An A / D converter 202, a D / A converter 203, an amplifier 204, a speaker 205, a speech switch 206,
A driver 207, a CPU 208, a RAM 209,
It comprises a ROM 210, a bus line 212 and the like.
The navigation device 100 and the audio unit 200 are connected via a communication line 211.
【0011】GPS受信機101は、GPS(Global P
ositioning System)衛星からの信号を受信し、自車の
絶対位置、絶対方位を検出する。ジャイロセンサ102
は、例えば振動ジャイロで構成され、車のヨー角速度を
検出する。車速センサ103は、車が所定距離走行毎に
出すパルス数に基づき、車の移動距離を検出する。ジャ
イロセンサ102と車速センサ103により、車の2次
元的な移動が検出できる。ドライバ104は、GPS受
信機101、ジャイロセンサ102、車速センサ103
からの信号をバスライン110に接続するためのドライ
バである。すなわち、それぞれのセンサ出力をCPU1
05が読むことができるデータに変換する。The GPS receiver 101 has a GPS (Global P
ositioning System) Receives signals from satellites and detects the absolute position and azimuth of the vehicle. Gyro sensor 102
Is constituted by, for example, a vibrating gyroscope, and detects the yaw angular velocity of the vehicle. The vehicle speed sensor 103 detects the moving distance of the vehicle based on the number of pulses output every time the vehicle travels a predetermined distance. The two-dimensional movement of the vehicle can be detected by the gyro sensor 102 and the vehicle speed sensor 103. The driver 104 includes a GPS receiver 101, a gyro sensor 102, a vehicle speed sensor 103
Is a driver for connecting the signal from the bus line 110 to the bus line 110. That is, each sensor output is output to the CPU 1
05 is converted to readable data.
【0012】CPU105は、ROM107に格納され
たプログラムを実行することによりナビゲーション装置
100全体を制御する。RAM106は揮発性メモリで
あり、ワークデータ領域を確保する。ROM107は、
不揮発性メモリで、上述した制御プログラム等を格納す
る。CD−ROMドライブ108は、CD−ROMを記
録媒体とし、ベクトル道路データ等の道路地図情報を格
納する。CD−ROMドライブは、DVDを記録媒体と
するDVDドライブやその他の記録装置であってもよ
い。表示装置109は、車の現在地および周辺の道路地
図、目的地までのルート情報、次の誘導交差点情報等を
表示する。例えば、液晶表示装置あるいはCRTで構成
される。バスライン110は、ナビゲーション装置10
0のCPU105等の構成要素をバス接続するラインで
ある。The CPU 105 controls the entire navigation device 100 by executing a program stored in the ROM 107. The RAM 106 is a volatile memory and secures a work data area. ROM 107
The nonvolatile memory stores the above-described control program and the like. The CD-ROM drive 108 uses a CD-ROM as a recording medium and stores road map information such as vector road data. The CD-ROM drive may be a DVD drive using a DVD as a recording medium or another recording device. The display device 109 displays a road map of the current location and the surrounding area of the car, route information to the destination, information of the next guidance intersection, and the like. For example, it is composed of a liquid crystal display device or a CRT. The bus line 110 is connected to the navigation device 10.
0 is a line for connecting components such as the CPU 105 via a bus.
【0013】音声ユニット200は、音声認識、音声合
成等、音声に関する処理を行う。発話スイッチ206
は、ユーザが押すことにより音声認識の開始を指示する
スイッチである。発話スイッチ206が押された後所定
時間、音データの入力がマイク201を介して行われ
る。入力された音は、A/D変換部202およびドライ
バ207により、デジタル音声データに変換される。The voice unit 200 performs voice-related processing such as voice recognition and voice synthesis. Speech switch 206
Is a switch for instructing the start of voice recognition when pressed by the user. Input of sound data is performed via the microphone 201 for a predetermined time after the utterance switch 206 is pressed. The input sound is converted into digital audio data by the A / D converter 202 and the driver 207.
【0014】音声ユニット200のROM210には、
音声認識ソフト(プログラム)、音声合成ソフト(プロ
グラム)、音声認識辞書(以下、単に認識辞書と言
う)、音声合成辞書(以下、単に合成辞書と言う)等が
格納されている。音声認識ソフトは、デジタル音声デー
タと、認識辞書内の全認識語との相関値を算出し、最も
相関値の高い認識語を認識結果として求める。音声合成
ソフトは、指定した文章をスピーカから発声させるため
のデータを算出する。両ソフトウェアについては、公知
な内容であるので詳細な説明は省略する。In the ROM 210 of the audio unit 200,
A speech recognition software (program), a speech synthesis software (program), a speech recognition dictionary (hereinafter simply referred to as a recognition dictionary), a speech synthesis dictionary (hereinafter simply referred to as a synthesis dictionary), and the like are stored. The voice recognition software calculates a correlation value between the digital voice data and all the recognized words in the recognition dictionary, and obtains a recognized word having the highest correlation value as a recognition result. The speech synthesis software calculates data for causing a specified sentence to be uttered from a speaker. Since the contents of both softwares are publicly known, detailed description will be omitted.
【0015】認識辞書は、音声認識の対象となる言葉
(語)を複数集めたひとかたまりのデータである。具体
的には、ひらがなやカタカナやローマ字(実際にはその
文字コード)で指定されたそれぞれの言葉の読みデータ
が格納されている。認識辞書に格納された言葉を認識語
という。各認識語には、読みデータの他その言葉の表示
文字データや、施設名であれば座標情報などの情報が付
帯している。認識辞書の詳細については後述する。合成
辞書は、音声合成のために必要な音源データ等が格納さ
れている。[0015] The recognition dictionary is a set of data obtained by collecting a plurality of words (words) to be subjected to speech recognition. Specifically, reading data of each word specified by Hiragana, Katakana, or Romaji (actually, its character code) is stored. The words stored in the recognition dictionary are called recognized words. Each recognition word is accompanied by information such as read data, display character data of the word, and coordinate information in the case of a facility name. Details of the recognition dictionary will be described later. The synthesis dictionary stores sound source data and the like necessary for speech synthesis.
【0016】発話終了時、CPU208は、RAM20
9、ROM210等を使い音声認識ソフトを実行し、デ
ジタル音声データの音声認識を行う。音声認識ソフト
は、認識辞書内の認識語の読みデータ(ひらがなやカタ
カナやローマ字で指定されたデータ)を参照しながらそ
の言葉の音声認識用データを生成し、デジタル音声デー
タとの相関値を算出する。すべての認識語についてデジ
タル音声データとの相関値を算出し、相関値が最も高く
かつ所定の値以上の認識語を決定して音声認識を完了す
る。その認識語にリンクしたエコーバック語を音声合成
ソフトを使い、発声用のデータに変換する。その後、D
/A変換部203、アンプ204、スピーカ205を用
い、認識結果をエコーバック出力させる。At the end of the utterance, the CPU 208
9. Execute voice recognition software using the ROM 210 or the like to perform voice recognition of digital voice data. Speech recognition software generates speech recognition data for recognition words while referring to the recognition data of the recognition words in the recognition dictionary (data specified in Hiragana, Katakana, or Romaji), and calculates the correlation value with the digital speech data I do. The correlation values with the digital voice data are calculated for all the recognized words, and the recognized words having the highest correlation value and the predetermined value or more are determined, and the speech recognition is completed. The echo-back word linked to the recognition word is converted into utterance data using speech synthesis software. Then D
Using the / A conversion unit 203, the amplifier 204, and the speaker 205, the recognition result is output as an echo back.
【0017】もし、算出したどの相関値も所定の値以下
である場合は、音声認識できなかったとしてナビの操作
を行わないようにする。具体的には、「プップー」等の
認識失敗を意味するビープ音を鳴らすことや、「認識で
きません」と応答(エコーバック)させる。バスライン
212は、音声ユニット200のバスラインである。If any of the calculated correlation values is equal to or less than a predetermined value, it is determined that voice recognition has not been performed, and no navigation operation is performed. More specifically, a beep sound indicating recognition failure such as “puppy” is sounded, and a response (echo back) indicating “unrecognizable” is made. The bus line 212 is a bus line of the audio unit 200.
【0018】次に、認識辞書について詳細に説明する。
図2は、8件の病院名に関する認識語を格納した従来の
病院名認識辞書を示す図である。認識語は、その施設名
(図2では病院名)に関する読みデータである。図2で
は、「読み」はカタカナで記載されているが、ひらがな
あるいはローマ字であってもよい。認識辞書には指定さ
れた文字に対応する文字コードが格納される。各認識語
には、「表示用文字データ」および「付帯情報」がつい
ている。表示用文字データは、表示装置109等でその
施設名の表示すべき文字コードが格納される。図2の例
では、「表示」の欄に示された施設名の漢字コードが格
納される。付帯情報は、その施設の地図上の座標情報、
次に読み込む認識辞書の番号、施設の諸属性情報等の各
種の情報が格納されている。図2では、代表して座標情
報のみを示している。Next, the recognition dictionary will be described in detail.
FIG. 2 is a diagram showing a conventional hospital name recognition dictionary storing recognition words relating to eight hospital names. The recognition word is read data related to the facility name (the hospital name in FIG. 2). In FIG. 2, “Yomi” is described in katakana, but may be in hiragana or romaji. A character code corresponding to the specified character is stored in the recognition dictionary. Each recognition word has "display character data" and "additional information". The display character data stores a character code to be displayed for the facility name on the display device 109 or the like. In the example of FIG. 2, the kanji code of the facility name shown in the column of “display” is stored. Additional information is coordinate information on the map of the facility,
Next, various information such as the number of the recognition dictionary to be read and various attribute information of the facility are stored. In FIG. 2, only coordinate information is shown as a representative.
【0019】図3は、図2の従来の病院名認識辞書に対
応する本発明を適用した病院名認識辞書を示す図であ
る。図3の「表示」および「付帯情報」の内容は、図2
の「表示」および「付帯情報」の内容と同じであり、
「読み」のみが異なる。例えば「王子総合病院」を例に
説明する。図2では、「王子総合病院」の読みは「オウ
ジソウゴウビョウイン」となっているが、図3では「オ
ウジソーゴービョーイン」となっている。すなわち「ソ
ウゴウビョウイン」が「ソーゴービョーイン」に変更さ
れている。次の「小樽病院国立療養所」の読みは、図2
では「オタルビョウインコクリツリョウヨウショ」であ
るが、図3では「オタルビョウインコクリツリョーヨー
ショ」となっている。すなわち「コクリツリョウヨウシ
ョ」が「コクリツリョーヨーショ」に変更されている。FIG. 3 is a diagram showing a hospital name recognition dictionary to which the present invention is applied, corresponding to the conventional hospital name recognition dictionary of FIG. The contents of “display” and “extra information” in FIG.
"Display" and "Supplementary Information"
Only "reading" is different. For example, "Oji General Hospital" will be described as an example. In FIG. 2, the reading of “Oji General Hospital” is “Ojiso Gobyo-in”, but in FIG. 3, it is “Ojiso Gobyo-in”. That is, “Sogo Byoin” has been changed to “Sogo Byoin”. The next reading of "Otaru Hospital National Sanatorium" is Fig. 2.
In FIG. 3, it is "Otarubyoukokkuritsuriyosho", but in FIG. In other words, the term “click” has been changed to “click”.
【0020】上記の「総合病院」の正規の読みは「ソウ
ゴウビョウイン」である。ここで言う正規の読みとは、
辞書などに書かれているその言葉の本来の読みである。
しかし、実際に日常会話などで発音する読みは微妙に異
なり、例えば長音符号「ー」を使用した「ソーゴービョ
ーイン」の方がより実際の発音に近い読みと言える。そ
こで、第1の実施の形態では、そのジャンルで良く出て
くる言葉(キーワード)のより実際の発音に近い読みを
前もって調査しておき、認識辞書の中にそのキーワード
を含む言葉があった場合は、そのキーワードの読みをそ
の実際の発音に近い読みに置き換えた認識語を準備する
ものである。The formal reading of the above "General Hospital" is "Sougo Byoin". The legitimate reading here is
It is the original reading of the word written in a dictionary.
However, the pronunciation that is actually pronounced in daily conversations and the like is slightly different, and for example, it can be said that “Sogaw Byin” using the long note “-” is closer to the actual pronunciation. Therefore, in the first embodiment, if the words (keywords) frequently appearing in the genre are read in advance closer to the actual pronunciation, and a word including the keyword is found in the recognition dictionary. Prepares a recognized word in which the reading of the keyword is replaced with a reading close to the actual pronunciation.
【0021】図3において置き換えているキーワードを
列記すると図4(a)の通りである。なお、図4(b)
に示すような読みに置き換えてもよい。FIG. 4A shows the keywords that are replaced in FIG. FIG. 4 (b)
May be replaced with a reading as shown in FIG.
【0022】図5は、図2の従来から使用されている正
規の読みの認識語が格納された認識辞書301から図3
の新たな認識辞書302をパーソナルコンピュータ(以
下PCと言う)303により生成する構成を示す図であ
る。認識辞書301はCD−ROM等の記録媒体に格納
され、認識辞書302はハードディスク(不図示)上に
生成される。キーワード304は予め調査されてファイ
ルとしてPC303のハードディスクに格納されてい
る。図6は、PC303で実行される処理のフローチャ
ートを示す。キーワード304はキーボード(不図示)
から入力するようにしてもよい。生成された認識辞書3
02はROMに書き込まれて図1の音声ユニット200
のROM210に搭載される。FIG. 5 is a diagram showing the recognition dictionary 301 in FIG.
Is a diagram showing a configuration in which a personal computer (hereinafter, referred to as PC) 303 generates a new recognition dictionary 302 of FIG. The recognition dictionary 301 is stored on a recording medium such as a CD-ROM, and the recognition dictionary 302 is generated on a hard disk (not shown). The keyword 304 is checked in advance and stored as a file on the hard disk of the PC 303. FIG. 6 shows a flowchart of a process executed by the PC 303. Keyword 304 is a keyboard (not shown)
May be input. Generated recognition dictionary 3
02 is written in the ROM and the audio unit 200 shown in FIG.
ROM 210.
【0023】以下、図6の処理について説明する。ステ
ップS1では、図2の正規の読みの認識語が格納された
認識辞書ファイルから一つの認識語を読み込む。該当ジ
ャンルで良く出てくる言葉(キーワード)のより実際の
発音に近い読みは前もって調査され、予めパーソナルコ
ンピュータに格納されている。ステップS2では、読み
込んだ認識語に所定のキーワードが含まれているかどう
か判断し、所定のキーワードが含まれていると判断する
とステップS3に進む。ステップS3では、認識語のそ
のキーワードに該当する読みを前もって調査されたより
実際の発音に近い読みに置き換える。一方、ステップS
2でいずれのキーワードも含まれていないと判断すると
ステップS3をスキップしてステップS4に進む。ステ
ップS4では、すべての認識語について処理が終了した
かを判断し、まだ終了していない場合はステップS1に
戻り処理を繰り返す。終了している場合は処理を終了す
る。Hereinafter, the processing of FIG. 6 will be described. In step S1, one recognition word is read from the recognition dictionary file in which the recognition word of normal reading in FIG. 2 is stored. Readings closer to the actual pronunciation of words (keywords) often appearing in the genre are investigated in advance and stored in advance in a personal computer. In step S2, it is determined whether the read recognition word includes a predetermined keyword. If it is determined that the predetermined keyword is included, the process proceeds to step S3. In step S3, the pronunciation corresponding to the keyword in the recognized word is replaced with a pronunciation closer to the actual pronunciation than previously examined. On the other hand, step S
If it is determined in step 2 that neither keyword is included, step S3 is skipped and the process proceeds to step S4. In step S4, it is determined whether the processing has been completed for all the recognized words, and if not completed, the process returns to step S1 to repeat the processing. If it has been completed, the process ends.
【0024】なお、ステップS3において、正規の読み
の認識語はそのままにして、そのキーワードに該当する
読みを前もって調査されたより実際の発音に近い読みに
置き換えた新たな認識語を追加するようにしてもよい。
これにより、正規の読みの認識語と新たな認識語の双方
を使用して音声認識をすることが可能となる。In step S3, the recognition word of the regular reading is left as it is, and a new recognition word in which the reading corresponding to the keyword is replaced with a reading closer to the actual pronunciation than previously checked is added. Is also good.
Thereby, it is possible to perform voice recognition using both the recognized word of the regular reading and the new recognized word.
【0025】図7は、音声ユニット200において、音
声認識を行う制御のフローチャートを示す図である。制
御プログラムはROM210に格納され、CPU208
がその制御プログラムを実行する。ナビゲーション装置
100および音声ユニット200の電源オンにより本ル
ーチンはスタートする。FIG. 7 is a diagram showing a flowchart of control for performing voice recognition in the voice unit 200. The control program is stored in the ROM 210 and the CPU 208
Executes the control program. This routine starts when the navigation device 100 and the audio unit 200 are turned on.
【0026】本ルーチンでは、例えば、「施設ジャンル
名」を音声入力し、次に「施設名」を音声入力して該当
施設付近の地図を表示装置109に表示する場合を想定
する。ステップS11では、初期認識辞書を準備する。
初期認識辞書には「病院」「警察署」「郵便局」などの
施設ジャンル名に関する認識語が格納されている。ステ
ップS12では、発話スイッチ206が押されたかどう
かを判断し、押されている場合はステップS13へ進
む。押されていない場合は本ステップを繰り返す。ユー
ザは発話スイッチ206を押した後、一定時間内に施設
ジャンル名、例えば「病院」と発話する。ステップS1
3では、マイク201からの音声信号をデジタル音声デ
ータに変換する。ステップS14では、発話が終了した
かどうかを判断する。発話の終了は、一定時間音声信号
が途切れた場合を発話の終了と判断する。発話が終了し
たと判断した場合はステップS15に進み、発話がまだ
終了していないと判断した場合はステップS13に戻
る。In this routine, for example, it is assumed that a voice of "facility genre name" is input, and then a "facility name" is input by voice, and a map near the relevant facility is displayed on the display device 109. In step S11, an initial recognition dictionary is prepared.
The initial recognition dictionary stores recognition words relating to facility genre names such as “hospital”, “police station”, and “post office”. In step S12, it is determined whether or not the utterance switch 206 has been pressed. If the utterance switch 206 has been pressed, the process proceeds to step S13. If not, repeat this step. After pressing the utterance switch 206, the user utters a facility genre name, for example, "hospital" within a certain period of time. Step S1
In 3, the audio signal from the microphone 201 is converted into digital audio data. In step S14, it is determined whether or not the utterance has ended. The end of the utterance is determined to be the end of the utterance when the audio signal is interrupted for a predetermined time. If it is determined that the utterance has ended, the process proceeds to step S15, and if it is determined that the utterance has not ended, the process returns to step S13.
【0027】ステップS15では、ステップS13で取
得したデジタル音声データとステップS11で準備した
初期認識辞書内の全認識語について相関値を算出し、ス
テップS16に進む。ステップS16では、算出された
相関値のうち最も高い相関値が所定の値以上かどうかを
判断する。所定の値以上であれば、その語が認識できた
としてステップS17に進む。ステップS17では、相
関値の最も高かった認識語を「施設ジャンル名」として
認識して該当ジャンルの施設名辞書を準備し、「施設名
称をどうぞ」とエコーバック出力する。該当ジャンルが
「病院」の場合は、図6のルーチンで予め生成された図
3の病院名認識辞書を準備する。In step S15, correlation values are calculated for the digital speech data obtained in step S13 and all recognized words in the initial recognition dictionary prepared in step S11, and the flow advances to step S16. In step S16, it is determined whether the highest correlation value among the calculated correlation values is equal to or greater than a predetermined value. If the value is equal to or more than the predetermined value, it is determined that the word has been recognized, and the process proceeds to step S17. In step S17, the recognized word having the highest correlation value is recognized as the "facility genre name", and a facility name dictionary of the genre is prepared, and echo back is output as "please see the facility name". If the genre is “hospital”, the hospital name recognition dictionary of FIG. 3 generated in advance by the routine of FIG. 6 is prepared.
【0028】一方、ステップS16において、最も高い
相関値が所定の値未満であれば発話された言葉が認識で
きなかったとしてステップS23に進む。ステップS2
3では、「認識できません」と音声によりエコーバック
し、ステップS12に戻る。On the other hand, if the highest correlation value is less than the predetermined value in step S16, it is determined that the uttered word cannot be recognized, and the process proceeds to step S23. Step S2
At 3, the voice is echoed back saying "unrecognizable" and the process returns to step S12.
【0029】ステップS17で「施設名称をどうぞ」と
エコーバック出力されると、ユーザは、例えば図3に示
された病院名を発話する。ステップS18では、マイク
201からの音声信号をデジタル音声データに変換す
る。ステップS19では、発話が終了したかどうかを判
断する。発話の終了は、一定時間音声信号が途切れた場
合を発話の終了と判断する。発話が終了したと判断した
場合はステップS20に進み、発話がまだ終了していな
いと判断した場合はステップS18に戻る。When the echo back message "Please enter the facility name" is output in step S17, the user speaks, for example, the hospital name shown in FIG. In step S18, the audio signal from the microphone 201 is converted into digital audio data. In step S19, it is determined whether or not the utterance has ended. The end of the utterance is determined to be the end of the utterance when the audio signal is interrupted for a predetermined time. If it is determined that the utterance has ended, the process proceeds to step S20, and if it is determined that the utterance has not ended, the process returns to step S18.
【0030】ステップS20では、ステップS18で取
得したデジタル音声データと図3の認識辞書内の全認識
語について相関値を算出し、ステップS21に進む。認
識辞書は、図2の認識辞書においてキーワードの読みが
置き換えられた図3の認識辞書を使用する。ステップS
21では、算出された相関値のうち最も高い相関値が所
定の値以上かどうかを判断する。所定の値以上であれ
ば、その語が認識できたとしてステップS22に進む。
ステップS22では、相関値の最も高かった認識語を音
声によりエコーバックする。In step S20, correlation values are calculated for the digital voice data obtained in step S18 and all the recognized words in the recognition dictionary shown in FIG. 3, and the process proceeds to step S21. As the recognition dictionary, the recognition dictionary of FIG. 3 in which the reading of the keyword is replaced in the recognition dictionary of FIG. 2 is used. Step S
At 21, it is determined whether the highest correlation value among the calculated correlation values is equal to or greater than a predetermined value. If the value is equal to or more than the predetermined value, the word is recognized, and the process proceeds to step S22.
In step S22, the recognized word having the highest correlation value is echoed back by voice.
【0031】さらに、ステップS22では該当病院名
(施設名称)が認識できたことをナビゲーション装置1
00に知らせた後、処理を終了する。ナビゲーション装
置100に知らせるときは、表示文字データや付帯情報
の地図上の座標を知らせる。ナビゲーション装置100
は、通信ライン211を介して送信されてきた該当病院
(施設)の地図上の座標データとCD−ROMドライブ
108の地図情報等に基づき、該当施設近辺の道路地図
を表示装置109に表示する。Further, in step S22, the navigation apparatus 1 confirms that the corresponding hospital name (facility name) has been recognized.
After notifying 00, the process ends. When notifying the navigation device 100, the coordinates of the display character data and the supplementary information on the map are notified. Navigation device 100
Displays a road map near the facility on the display device 109 based on the coordinate data on the map of the hospital (facility) transmitted via the communication line 211 and the map information of the CD-ROM drive 108.
【0032】一方、ステップS21において、最も高い
相関値が所定の値未満であれば発話された言葉が認識で
きなかったとしてステップS24に進む。ステップS2
4では、「認識できません」と音声によりエコーバック
し、ステップS18に戻る。On the other hand, if the highest correlation value is less than the predetermined value in step S21, it is determined that the uttered word cannot be recognized, and the process proceeds to step S24. Step S2
In step 4, echo is returned by voice saying "unrecognizable", and the process returns to step S18.
【0033】以上のようにして、音声認識を行うとき
に、該当ジャンルでよく使用されるキーワードを正規の
読みとは異なる実際の発音に近い読みに置き換えた認識
語を格納した認識辞書を使用するようにしている。これ
により、音声認識に確実に成功することができる。特
に、従来から使用していた認識辞書を使用して、キーワ
ード部分の読みのみを置き換えた認識辞書を作成してい
るので、音声認識のヒット率の向上した新たな認識辞書
の作成が容易かつ短時間かつ低コストで行うことができ
る。また、市販されている正規の読みが格納された認識
辞書を購入し、その購入した認識辞書に基づき、より音
声認識のヒット率を向上させた認識辞書を容易かつ短時
間かつ低コストで作成することもできる。As described above, when speech recognition is performed, a recognition dictionary storing recognition words in which keywords frequently used in a corresponding genre are replaced with pronunciations different from regular pronunciations and close to actual pronunciations is used. Like that. As a result, the speech recognition can be successfully performed. In particular, since a recognition dictionary that replaces only the reading of the keyword portion is created using a recognition dictionary that has been used in the past, it is easy and short to create a new recognition dictionary with an improved voice recognition hit rate. It can be performed in a short time and at low cost. In addition, a commercially available recognition dictionary in which regular readings are stored is purchased, and based on the purchased recognition dictionary, a recognition dictionary with an improved hit rate of voice recognition is created easily, quickly, and at low cost. You can also.
【0034】−第2の実施の形態− 第1の実施の形態では、図5、6に示したとおり、図3
の認識辞書の生成は、パーソナルコンピュータ303で
予め生成し、生成された認識辞書を図1の音声ユニット
200のROM210に搭載する例を示した。第2の実
施の形態では、音声ユニットにおいて、図3の該当認識
辞書を使用する場合に、その時点でその該当認識辞書
(図3)を生成するようにしたものである。第2の実施
の形態の車載用ナビゲーションシステムの構成は、第1
の実施の形態の図1の構成と同様であるのでその説明を
省略する。-Second Embodiment- In the first embodiment, as shown in FIGS.
The example in which the personal computer 303 generates the recognition dictionary in advance and the generated recognition dictionary is mounted in the ROM 210 of the voice unit 200 in FIG. In the second embodiment, when the corresponding recognition dictionary of FIG. 3 is used in the voice unit, the corresponding recognition dictionary (FIG. 3) is generated at that time. The configuration of the vehicle-mounted navigation system according to the second embodiment is the same as that of the first embodiment.
Since the configuration is the same as that of the embodiment shown in FIG. 1, the description is omitted.
【0035】図8は、第2の実施の形態の音声ユニット
200において、音声認識を行う制御のフローチャート
を示す図である。第1の実施の形態の図7とは、ステッ
プS17がステップS31に置き換えられ、ステップS
20がステップS32に置き換えられている点のみが異
なるので、ステップS31とS32の処理を中心に以下
説明する。FIG. 8 is a diagram showing a flowchart of control for performing voice recognition in the voice unit 200 according to the second embodiment. Compared to FIG. 7 of the first embodiment, step S17 is replaced with step S31,
20 is replaced by step S32, and the following description will focus on the processing of steps S31 and S32.
【0036】第2の実施の形態では、音声ユニット20
0のROM210が、図2の従来の認識辞書と該当ジャ
ンルのキーワードの読みデータ(正規の読みデータと置
き換え読みデータ、例えば図4(a))を持つようにす
る。そして、図6の認識辞書の生成と同じ内容を、ステ
ップS31において実行する。すなわち、図8のステッ
プS31では、まず、相関値の最も高かった認識語を
「施設ジャンル名」として認識すると、該当ジャンルの
施設名辞書(図2の認識辞書)を準備する。次に、準備
した施設名辞書とキーワードの正規の読みデータおよび
置き換え読みデータ(図4)に基づき、図6と同様の処
理を行ってキーワードの読みの置き換えを行い新たな施
設名辞書(図3の認識辞書)を生成する。その後、「施
設名称をどうぞ」とエコーバック出力する。ステップS
32では、ステップS18で取得したデジタル音声デー
タとステップS31で生成した新たな認識辞書(図3)
内の全認識語について相関値を算出する。その他の処理
は、第1の実施の形態と同様であるので説明を省略す
る。In the second embodiment, the audio unit 20
The ROM 210 of FIG. 2 has the conventional recognition dictionary of FIG. 2 and the read data of the keyword of the genre (regular read data and replacement read data, for example, FIG. 4A). Then, the same contents as the generation of the recognition dictionary in FIG. 6 are executed in step S31. That is, in step S31 in FIG. 8, when the recognition word having the highest correlation value is recognized as the "facility genre name", a facility name dictionary (recognition dictionary in FIG. 2) of the genre is prepared. Next, based on the prepared facility name dictionary and regular reading data and replacement reading data of the keyword (FIG. 4), the same processing as in FIG. 6 is performed to replace the reading of the keyword, and a new facility name dictionary (FIG. Is generated. Then, echo back the message "Please enter the facility name." Step S
At 32, the digital voice data acquired at step S18 and the new recognition dictionary generated at step S31 (FIG. 3)
The correlation value is calculated for all the recognized words in. Other processes are the same as those in the first embodiment, and a description thereof will be omitted.
【0037】第2の実施の形態では、正規の読みの認識
辞書はROM210に格納されており、新たな認識辞書
はRAM209に格納される。この場合、RAM209
では認識辞書をそっくり新たに作り替えるのではなく、
キーワードが含まれる認識語のみ追加認識語として生成
するようにしてもよい。このようにすることにより、正
規の認識語と追加認識語の両方において相関値を算出す
ることが可能となり、より精度の高い音声認識が可能と
なる。In the second embodiment, the recognition dictionary for normal reading is stored in the ROM 210, and a new recognition dictionary is stored in the RAM 209. In this case, the RAM 209
So instead of recreating the recognition dictionary entirely,
Only a recognized word including a keyword may be generated as an additional recognized word. By doing so, it is possible to calculate the correlation value for both the regular recognition word and the additional recognition word, and it is possible to perform more accurate speech recognition.
【0038】以上のようにして、第2の実施の形態にお
いても、第1の実施の形態と同様に、音声認識に確実に
成功することができる。特に、ROM210には、従来
の認識語に加えてキーワードのデータのみを格納してお
けばよいので、少ない記憶容量でより精度の高い音声認
識が可能となる。As described above, also in the second embodiment, as in the first embodiment, it is possible to surely succeed in voice recognition. In particular, since only the keyword data needs to be stored in the ROM 210 in addition to the conventional recognition word, more accurate voice recognition can be performed with a small storage capacity.
【0039】−第3の実施の形態− 第2の実施の形態では、そのジャンルで良く出てくる言
葉(キーワード)のより実際の発音に近い読みを前もっ
て調査してその読みデータをROM210に格納してお
くものであった。しかし、図4に示されたキーワードの
読みデータの置き換えには一定の法則を見いだすことが
できる。第3の実施の形態では、その法則を利用して新
たな認識語を生成するものである。第3の実施の形態の
車載用ナビゲーションシステムの構成は、第1の実施の
形態の図1の構成と同様であるのでその説明を省略す
る。Third Embodiment In the second embodiment, the pronunciation of words (keywords) frequently appearing in the genre closer to the actual pronunciation is checked in advance, and the read data is stored in the ROM 210. It was something to keep. However, a certain rule can be found for replacing the keyword read data shown in FIG. In the third embodiment, a new recognition word is generated using the rule. The configuration of the on-vehicle navigation system according to the third embodiment is the same as the configuration shown in FIG. 1 of the first embodiment, and a description thereof will be omitted.
【0040】まず、図4(b)の「厚生病院」を例にそ
の法則について説明する。なお、仮名1字で示される音
を1音節という。「厚生病院」の正規の読みは「コウセ
イビョウイン」であり、その置き換えの読みとして「コ
オセエビョオイン」が示されている。これは、正規の読
み「コウセイビョウイン」を、実際には「コオセエビョ
オイン」と発話(発音)する人が多いからである。これ
により、次のような法則が見いだされる。「エ」「ケ」
「セ」「テ」「ネ」等の五十音のえ段の語(音節)の後
に「イ」が並ぶ読みの言葉の場合、その「イ」を「エ」
に置き換えたように発話する人が多い。また、「オ」
「コ」「ソ」「ト」「ノ」等のお段の語(音節)の後に
「ウ」が並ぶ読みの言葉の場合、その「ウ」を「オ」に
置き換えたように発話する人が多い。なお、この法則に
ついては、本出願の発明者が発明者として出願された特
願平11−255983号に開示されている。First, the rules will be described with reference to "Kosei Hospital" in FIG. 4B as an example. Note that a sound indicated by one kana character is called one syllable. The official reading of "Kosei Hospital" is "Koseibyoin", and "Kooseebyoin" is shown as a replacement reading. This is because there are many people who utter (pronounce) the regular reading “Koseibyouin” as “Kooseebyouin”. As a result, the following rule is found. "E""ke"
In the case of a reading word in which "I" follows the Japanese syllabary word (syllable) such as "se", "te" or "ne", the "i" is replaced by "e"
Many people speak as if they were replaced. Also, "O"
In the case of reading words in which "U" follows the word (syllable) such as "ko", "so", "to", "no", the person who speaks as if "u" was replaced with "o" There are many. This rule is disclosed in Japanese Patent Application No. 11-255983 filed by the inventor of the present application as the inventor.
【0041】図9は、第3の実施の形態の音声ユニット
200において、音声認識を行う制御のフローチャート
を示す図である。第2の実施の形態の図8とは、ステッ
プS31がステップS41に置き換えられている点のみ
が異なるので、ステップS41の処理を中心に以下説明
する。FIG. 9 is a diagram showing a flowchart of control for performing voice recognition in the voice unit 200 according to the third embodiment. Since FIG. 8 differs from FIG. 8 of the second embodiment only in that step S31 is replaced by step S41, the following description focuses on the processing in step S41.
【0042】図9のステップS41では、まず、相関値
の最も高かった認識語を「施設ジャンル名」として認識
すると、該当ジャンルの施設名辞書(図2の認識辞書)
を準備する。次に、準備した施設名辞書について後述す
る図10の処理を行って新たな施設名辞書(例えば図3
の認識辞書)を生成する。その後、「施設名称をどう
ぞ」とエコーバック出力する。その他の処理は、第2の
実施の形態と同様であるので説明を省略する。In step S41 of FIG. 9, when the recognition word having the highest correlation value is recognized as the "facility genre name", the facility name dictionary of the corresponding genre (the recognition dictionary of FIG. 2).
Prepare Next, the processing of FIG. 10 described later is performed on the prepared facility name dictionary to obtain a new facility name dictionary (for example, FIG.
Is generated. Then, echo back the message "Please enter the facility name." The other processes are the same as those of the second embodiment, and the description is omitted.
【0043】次に、図10の処理を説明する。図10
は、図6と同様に、従来から使用されている正規の読み
の認識語が格納された認識辞書から新たな認識辞書を生
成する制御を示すフローチャートである。図6と異なる
のは、上述した法則を利用するところである。Next, the processing of FIG. 10 will be described. FIG.
6 is a flowchart showing a control for generating a new recognition dictionary from a recognition dictionary in which conventionally used recognition words of normal reading are stored, as in FIG. 6. The difference from FIG. 6 is that the above-described rule is used.
【0044】ステップS51では、図2の正規の読みの
認識語格納された認識辞書ファイルから一つの認識語を
読み込む。該当ジャンルで良く出てくる言葉(キーワー
ド)は前もって調査され、ROM210に格納されてい
る。この場合、キーワードの正規の読みのデータのみが
格納されている。ステップS52では、読み込んだ認識
語に所定のキーワードが含まれているかどうかを判断
し、所定のキーワードが含まれていると判断するとステ
ップS53に進む。In step S51, one recognition word is read from the recognition dictionary file in FIG. Words (keywords) that frequently appear in the genre are examined in advance and stored in the ROM 210. In this case, only the regular reading data of the keyword is stored. In step S52, it is determined whether the read recognition word includes a predetermined keyword. If it is determined that the predetermined keyword is included, the process proceeds to step S53.
【0045】ステップS53では、キーワードに五十音
のえ段の語(音節)の後に「イ」が並ぶ読み(これを
「え段の法則」と言う)があるかどうかを判断する。ス
テップS53で。え段の法則があると判断するとステッ
プS54に進む。ステップS54では、読み「イ」を
「エ」に置き換える。ステップS53で。え段の法則が
ないと判断するとステップS54をスキップしてステッ
プS55に進む。In step S53, it is determined whether or not the keyword has a reading in which "I" is arranged after the Japanese syllabary word (syllable) (this is called "Edan's law"). In step S53. If it is determined that there is a rule of step, the process proceeds to step S54. In step S54, the reading "A" is replaced with "E". In step S53. If it is determined that there is no step rule, step S54 is skipped and the process proceeds to step S55.
【0046】ステップS55では、キーワードに五十音
のお段の語(音節)の後に「ウ」が並ぶ読み(これを
「お段の法則」と言う)があるかどうかを判断する。ス
テップS55で。お段の法則があると判断するとステッ
プS56に進む。ステップS56では、読み「ウ」を
「オ」に置き換える。ステップS55でお段の法則がな
いと判断するとステップS56をスキップしてステップ
S57に進む。ステップS57では、すべての認識語に
ついて処理が終了したかを判断し、まだ終了していない
場合はステップS51に戻り処理を繰り返す。終了して
いる場合は処理を終了する。In step S55, it is determined whether or not the keyword has a reading in which "U" is arranged after the Japanese syllabary word (syllable) (this is called "dan's rule"). In step S55. If it is determined that there is a lower rule, the process proceeds to step S56. In step S56, the reading “U” is replaced with “O”. If it is determined in step S55 that there is no step rule, step S56 is skipped and the process proceeds to step S57. In step S57, it is determined whether the processing has been completed for all the recognized words, and if not completed, the flow returns to step S51 to repeat the processing. If it has been completed, the process ends.
【0047】なお、図10の処理において、正規の読み
の認識語はそのままにして、え段の法則あるいはお段の
法則によって置き換えられた読みの認識語を新たな認識
語として追加するようにしてもよい。また、「エ」ある
いは「オ」に置き換える代わりに、長音符号「ー」に置
き換えるようにしてもよい。さらには、「エ」または
「オ」に置き換えた認識語と、長音符号「ー」に置き換
えた認識語の両方を追加するようにしてもよい。In the processing shown in FIG. 10, the recognition word of the regular reading is left as it is, and the recognition word of the reading replaced by the law of the spelling or the spelling of the spelling is added as a new recognition word. Is also good. Further, instead of replacing with "e" or "o", it may be replaced with a long code "-". Further, both the recognition word replaced with "e" or "o" and the recognition word replaced with long code "-" may be added.
【0048】上記は、読みの指定をひらがなやカタカナ
で行う音声認識システムの場合である。しかし、ローマ
字で指定する場合も、同様に考えればよい。例えば、
「厚生病院」は、ローマ字では正規の認識語として「ko
useibyouin」と指定される。「o」に続く「u」を「o」
に置き換え「e」に続く「i」を「e」に置き換えると「k
ooseebyooin」という新たな認識語が生成される。The above is the case of the speech recognition system in which the reading is specified in hiragana or katakana. However, the same applies to the case of specifying in Roman characters. For example,
"Kosei Hospital" uses "ko
useibyouin ". "U" following "o" is replaced by "o"
Replace "i" following "e" with "e" to replace "k"
A new recognition word "ooseebyooin" is generated.
【0049】以上のようにして、正規の読みのキーワー
ドにおいて母音が「エイ」と続く場合は「エエ」あるい
は「エー」と置き換え、母音が「オウ」と続く場合は
「オオ」あるいは「オー」と置き換える読みとした。こ
れにより、実際の発話に近い認識語が準備されるため、
音声認識に成功する確率が高くなる。As described above, if the vowel continues with "A" in the regular reading keyword, it is replaced with "Ae" or "A", and if the vowel follows "Oh", "Oh" or "O". Was replaced with a reading. As a result, a recognized word close to the actual utterance is prepared,
The probability of successful speech recognition increases.
【0050】なお、第3の実施の形態では、お段の法
則、え段の法則を認識語全体に適用せず、所定のキーワ
ードにのみ適用している。この理由について説明する。
例えば、地名「若江岩田」に「若江岩田中央病院」とい
う病院名があったとする。この場合の正規の読みは「ワ
カエイワタチュウオウビョウイン」である。この認識語
全体にお段の法則、え段の法則を適用して読み替える
と、「ワカエエワタチュウオオビョオイン」となる。長
音符号を適用した場合は「ワカエーワタチュウオービョ
ーイン」となる。しかし、「若江岩田」の部分は「ワカ
エエワタ」あるいは「ワカエーワタ」と発音することは
ない。Note that, in the third embodiment, the rule of the dan and the rule of the dan are not applied to the entire recognized word, but are applied only to a predetermined keyword. The reason will be described.
For example, assume that the place name "Wakae Iwata" has a hospital name of "Wakae Iwata Central Hospital". The regular reading in this case is "Wakaei Wachuobouin". When the entire recognition word is read by applying the rules of the stanchions and the rules of the stanchions, the result is "Wakae-e-watachiooobyoin". When the prolonged code is applied, the result is “Wakae Watachu Obyoin”. However, "Wakae Iwata" is not pronounced as "Wakae Ewata" or "Waka Ewata".
【0051】このように、認識語全体にお段の法則、え
段の法則を適用すると、本来置き換えるべきでない読み
まで置き換えてしまい、逆に精度の低い音声認識になっ
てしまう。第3の実施の形態では、このような問題を避
けるために、所定のキーワードがある場合にそのキーワ
ードのみ置き換えるようにしたものである。これによ
り、お段の法則、え段の法則を適用して自動的に読みの
置き換え語(言い替え語、新たな認識語)が生成できる
とともに、置き換えたくない読みは確実に置き換えない
ようにすることができる。その結果、精度の高い置き換
え語を自動で生成することができる。As described above, if the rule of the column and the rule of the column are applied to the entire recognition word, even the reading which should not be replaced is replaced, and conversely, the speech recognition becomes low in accuracy. In the third embodiment, in order to avoid such a problem, when there is a predetermined keyword, only the keyword is replaced. As a result, it is possible to automatically generate reading replacement words (paraphrase words, new recognition words) by applying the rules of the dan and the rules of the dan, and ensure that the reading that you do not want to replace is not replaced. Can be. As a result, a highly accurate replacement word can be automatically generated.
【0052】なお、第3の実施の形態では、第2の実施
の形態と同様に、該当ジャンルの音声認識をする時点で
新たな認識辞書を生成するようにした例で説明した。し
かし、第1の実施の形態と同様に、お段の法則、え段の
法則を適用した新たな認識辞書をパーソナルコンピュー
タ303(図5)で予め生成するようにしてもよい。こ
れにより、第1の実施の形態と同様な効果を奏すると同
時に、本来置き換えるべきでない読みの置き換えを回避
することも可能となる。In the third embodiment, as in the second embodiment, an example has been described in which a new recognition dictionary is generated at the time of performing speech recognition of the genre. However, similarly to the first embodiment, a new recognition dictionary to which the rule of the stage and the rule of the stage are applied may be generated in advance by the personal computer 303 (FIG. 5). As a result, the same effect as that of the first embodiment can be obtained, and at the same time, it is possible to avoid the replacement of the reading that should not be replaced.
【0053】−第4の実施の形態− 第1の実施の形態では、所定のキーワードについて、実
際の発音により近い読みに置き換えた新たな認識語を生
成する例を示した。第4の実施の形態では、所定のキー
ワードの読みをいくつか準備し、キーワードのそれぞれ
の読みを含む新たな認識語を認識辞書に追加するように
したものである。第4の実施の形態の車載用ナビゲーシ
ョンシステムの構成は、第1の実施の形態の図1の構成
と同様であるのでその説明を省略する。Fourth Embodiment In the first embodiment, an example has been described in which a new recognized word is generated by replacing a predetermined keyword with a pronunciation that is closer to the actual pronunciation. In the fourth embodiment, several readings of a predetermined keyword are prepared, and a new recognition word including each reading of the keyword is added to the recognition dictionary. The configuration of the in-vehicle navigation system according to the fourth embodiment is the same as the configuration of FIG. 1 according to the first embodiment, and a description thereof will be omitted.
【0054】第4の実施の形態の認識辞書について説明
する。図11は、ジャンルが郵便局、役場、インターラ
ンプに関する認識語を格納した従来の認識辞書を示す図
である。図12は、第4の実施の形態において、本発明
を適用した図11に対応する認識辞書を示す図である。A recognition dictionary according to the fourth embodiment will be described. FIG. 11 is a diagram showing a conventional recognition dictionary in which genres store recognition words relating to post offices, government offices, and inter lamps. FIG. 12 is a diagram showing a recognition dictionary corresponding to FIG. 11 to which the present invention is applied in the fourth embodiment.
【0055】図11(a)のジャンルが「郵便局」のと
きに、施設名称「座間郵便局」を指定する場合について
説明する。ナビゲーションシステムより「ジャンル名を
どうぞ」と促されて「ゆうびんきょく」と発話する。そ
の後「施設名称をどうぞ」と促された場合に、「ざまゆ
うびんきょく」と発話すべきか「ざま」とだけ発話すべ
きか迷うときがある。図12(a)の認識辞書には、
「座間郵便局」に対して「ざまゆうびんきょく」と「ざ
ま」の2つの読みの認識語が格納されている。従って
「ざまゆうびんきょく」と発話しても「ざま」とだけ発
話してもどちらも音声認識に成功する。The case where the facility name "Zama Post Office" is designated when the genre in FIG. 11A is "Post Office" will be described. The navigation system prompts you to select a genre name, and utters "Yubinkoku". After that, when the user is prompted to "Please enter the facility name", there are times when he is confused whether to speak "Zama Yubinkyo" or only "Zama". In the recognition dictionary of FIG.
For the "Zama Post Office", two reading recognition words "Zama Yubinkyo" and "Zama" are stored. Therefore, both "Zamayu Binkyo" and "Zama" can be recognized successfully.
【0056】次に、図11(b)のジャンルが「役場」
のときに、施設名称「愛川町役場」を指定する場合につ
いて説明する。ナビゲーションシステムより「施設名称
をどうぞ」と促されたときに、上記と同様に「あいかわ
まちやくば」と発話すべきか、「あいかわまち」とだけ
発話すべきかに加えて、「あいかわちょうやくば」と発
話すべきか迷うことがある。これは、地方によって
「町」という漢字を「まち」と呼ぶ場合もあれば「ちょ
う」と呼ぶ場合もあるからである。図12(b)の認識
辞書には、「あいかわまちやくば」「あいかわまち」
「あいかわちょうやくば」の3つの認識語が準備されて
いるので、どのように発話されても音声認識に成功す
る。「村役場」の場合も同様である。Next, the genre in FIG.
The case where the facility name "Aikawa Town Office" is designated at the time of will be described. When prompted by the navigation system, "Please select the facility name," in addition to whether to say "Aikawa Machi and Kakuba" or "Aikawa Machi" and "Aikawa Choyaku""". This is because the kanji character "town" may be called "machi" or "cho" depending on the region. In the recognition dictionary of FIG. 12B, “Aikawa Machi Yakuba” and “Aikawa Machi”
Since the three recognition words "Aikawachoyakuba" are prepared, the voice recognition succeeds no matter how it is uttered. The same applies to the “village office”.
【0057】すなわち、図12は、認識語の最後の言葉
の読みが所定のキーワードである場合に、所定のキーワ
ードの複数の読みで置き換えられた新たな認識語が追加
されたものである。図13は、図12におけるキーワー
ドと置き換えられる読みを整理した図である。例えば、
認識語が「あいかわまちやくば」という読みの場合に、
その読みの中に図13のキーワードがあるかどうかを検
索し、「まちやくば」というキーワードを見つけると、
そのキーワードの置き換え読みに置き換えた認識語、す
なわち「あいかわまち」「あいかわちょうやくば」を追
加したものである。That is, in FIG. 12, when the last word of the recognition word is a predetermined keyword, a new recognition word replaced by a plurality of readings of the predetermined keyword is added. FIG. 13 is a diagram in which readings replaced with the keywords in FIG. 12 are arranged. For example,
If the recognition word is "Aikawa Machiyakuba",
When searching for the keyword in FIG. 13 in the reading, and finding the keyword “Machiyakuba”,
Recognition words replaced by the replacement reading of the keyword, that is, "Aikawamachi" and "Aikawachoyakuba" are added.
【0058】なお、置き換える読みには、図13の「ゆ
うびんきょく」や「いんたーちぇんじ」等にも示す通
り、そのキーワードの読みを省略する場合も含む。ま
た、「いんたーちぇんじ」を「あいしー」とか「いんた
ー」とかの読みに置き換えるのは、「インターチェン
ジ」の別称として通常使用されるものであるからであ
る。「さーびすえりあ」を「ぱーきんぐ」と置き換える
のも別称と言えるからである。「ぱーきんぐえりあ」を
「ぱーきんぐ」とするのは略称と言える。また、図11
に示される各ジャンルの各施設名称は、地理的名称と施
設名からなる名称である。従って、キーワードはそのジ
ャンルの施設名とすることも可能である。The reading to be replaced includes a case where the reading of the keyword is omitted, as shown in “Yubinkyo” and “Intarjunji” in FIG. In addition, the reason why "intar-chunji" is replaced with the pronunciation of "ai-shi" or "intar" is because it is generally used as another name of "interchange". It is because it is another name to replace "Sabisu Eria" with "Peking". It can be said that "pink king" is abbreviated as "pink king". FIG.
Is a name composed of a geographical name and a facility name. Therefore, the keyword can be the facility name of the genre.
【0059】図14は、図11の従来から使用されてい
る正規の読みの認識語が格納された認識辞書から図12
の認識辞書を生成する制御のフローチャートを示す。図
12の認識辞書の生成は、図5と同様にパーソナルコン
ピュータ303で実行され、生成された認識辞書はRO
Mに書き込まれて図1の音声ユニット200のROM2
10に搭載される。FIG. 14 is a diagram of FIG. 12 obtained from the recognition dictionary of FIG.
3 is a flowchart of control for generating a recognition dictionary for the "." The generation of the recognition dictionary in FIG. 12 is executed by the personal computer 303 as in FIG. 5, and the generated recognition dictionary is RO
ROM2 of the audio unit 200 of FIG.
10 mounted.
【0060】ステップS61では、図11の正規の読み
の認識語が格納された認識辞書ファイルから一つの認識
語を読み込む。該当ジャンルで良く出てくる言葉(キー
ワード)の置き換え読みは、図13に示すとおり、前も
って調査され予めパーソナルコンピュータ303に格納
されている。ステップS62では、読み込んだ認識語に
所定のキーワードが含まれているかどうかを判断し、所
定のキーワードが含まれていると判断するとステップS
63に進む。ステップS63では、認識語のそのキーワ
ードに該当する読みに置き換えた新たな認識語を生成す
る。一方、ステップS62でいずれのキーワードも含ま
れていないと判断するとステップS63をスキップして
ステップS64に進む。ステップS64では、すべての
認識語について処理が終了したかを判断し、まだ終了し
ていない場合はステップS61に戻り処理を繰り返す。
終了している場合は処理を終了する。In step S61, one recognition word is read from the recognition dictionary file in which the recognition words of normal reading in FIG. 11 are stored. As shown in FIG. 13, replacement reading of words (keywords) frequently appearing in the genre is investigated in advance and stored in the personal computer 303 in advance. In step S62, it is determined whether the read recognition word includes a predetermined keyword. If it is determined that the predetermined keyword is included, step S62 is performed.
Go to 63. In step S63, a new recognized word is generated in which the recognized word is replaced with a reading corresponding to the keyword. On the other hand, if it is determined in step S62 that no keyword is included, step S63 is skipped and the process proceeds to step S64. In step S64, it is determined whether the processing has been completed for all the recognized words, and if not completed, the process returns to step S61 to repeat the processing.
If it has been completed, the process ends.
【0061】第4の実施の形態では、図12の認識辞書
の生成は、図5のパーソナルコンピュータ303で予め
生成し、生成された認識辞書を図1の音声ユニット20
0のROM210に搭載する例を示した。しかし、第2
の実施の形態と同様に、音声ユニットにおいて、該当認
識辞書を使用する時点でその該当認識辞書をRAM20
9上に生成するようにしてもよい。この場合は、図11
の認識辞書と図13のキーワードの置き換えデータのみ
をROM210に持てばよいので、ROM210の容量
が小さくなり、コスト低減につながる。In the fourth embodiment, the recognition dictionary of FIG. 12 is generated in advance by the personal computer 303 of FIG. 5, and the generated recognition dictionary is generated by the voice unit 20 of FIG.
The example shown in FIG. But the second
In the same manner as in the embodiment, when the corresponding recognition dictionary is used in the voice unit, the corresponding recognition dictionary is stored in the RAM 20.
9 may be generated. In this case, FIG.
Since only the recognition dictionary and the replacement data of the keywords in FIG. 13 need to be stored in the ROM 210, the capacity of the ROM 210 is reduced, leading to cost reduction.
【0062】以上の第4の実施の形態では、認識語が予
め定めたあるキーワードを含む場合、そのキーワードの
読みのバリエーションが考慮された認識語が追加される
ので、音声認識に確実に成功することができる。In the above-described fourth embodiment, when the recognition word includes a predetermined keyword, a recognition word in which a variation in the reading of the keyword is taken into account is added, so that the voice recognition is surely successful. be able to.
【0063】なお、第4の実施の形態の内容と第1〜第
3の実施の形態の内容を組み合わせることも可能であ
る。例えば、第1の実施の形態と第4の実施の形態を組
み合わせる場合を考えてみる。図11の「地理的名称」
+「施設名」からなる言葉のうち、地理的名称を第1の
実施の形態の対象キーワードとし、施設名を第4の実施
の形態の対象キーワードとする。例えば、第1の実施の
形態の対象キーワードに「だんごうざか→だんごーざ
か」を追加する。その結果、図11(c)の「談合坂S
A」は、正規の読みは「だんごうざかさーびすえりあ」
であるが、新たに「だんごーざかさーびすえりあ」「だ
んごーざかえすえー」「だんごーざかぱーきんぐ」「だ
んごーざか」の認識語が生成される。The contents of the fourth embodiment can be combined with the contents of the first to third embodiments. For example, consider a case where the first embodiment and the fourth embodiment are combined. "Geographic name" in FIG.
Of the words "+ facility name", the geographical name is the target keyword of the first embodiment, and the facility name is the target keyword of the fourth embodiment. For example, “Dangozaka → Dangozaka” is added to the target keyword in the first embodiment. As a result, “rigging hill S” in FIG.
"A" is a regular reading "Dango Uzakasa Biseria"
However, new recognition words are generated for "Dango-za-ka-e-seria", "dango-za-ka-e-sue", "dango-za-ka-king", and "dango-za-ka".
【0064】−第5の実施の形態− 第4の実施の形態では、例えば図12(a)に示すよう
に、認識語の中に所定のキーワードがある場合、それを
削除した認識語を追加する例を説明した。第5の実施の
形態では、認識語にないキーワード(ジャンル名等)を
追加するものである。例えば、ジャンルが「駅」の場
合、駅の認識辞書にある認識語には通常最後に「えき」
という読みがついているものである。しかし、その「え
き」が認識語に含まれていない場合は、「えき」を追加
した認識語を追加する。第5の実施の形態の車載用ナビ
ゲーションシステムの構成は、第1の実施の形態の図1
の構成と同様であるのでその説明を省略する。-Fifth Embodiment- In the fourth embodiment, as shown in FIG. 12A, for example, when a predetermined keyword is included in a recognition word, a recognition word obtained by deleting the keyword is added. An example of doing this has been described. In the fifth embodiment, a keyword (genre name or the like) that is not included in the recognized word is added. For example, if the genre is "station", the recognition words in the station recognition dictionary will usually end with "eki"
It is the one with the reading. However, if the “Eki” is not included in the recognition word, a recognition word with “Eki” added is added. The configuration of the vehicle-mounted navigation system according to the fifth embodiment is the same as that of the first embodiment shown in FIG.
Since the configuration is the same as that described above, the description is omitted.
【0065】例えば、ジャンルが「駅」の認識辞書に、
「とうきょう」という認識語があった場合、新たに「と
うきょうえき」という認識語を追加する。具体的には、
ROM210に、あるジャンルに対応して付加すべきキ
ーワードデータを有し、認識語を検索しそのキーワード
が含まれていない場合は、そのキーワードを含む認識語
を追加する。このキーワードは複数であってもよい。キ
ーワードが複数の場合は、含まれていないキーワードそ
れぞれを付加した認識語を追加するようにすればよい。
このようにすることによって、ジャンルが「駅」の場合
に「とうきょう」と発話しても「とうきょうえき」と発
話しても音声認識に成功することになる。For example, in a recognition dictionary whose genre is “station”,
If there is a recognition word “Tokyo”, a new recognition word “Tokyo Eki” is added. In particular,
The ROM 210 has keyword data to be added corresponding to a certain genre, and a recognition word is searched. If the keyword is not included, a recognition word including the keyword is added. This keyword may be plural. When there are a plurality of keywords, a recognition word to which each keyword not included is added may be added.
In this manner, when the genre is "station", speech recognition succeeds even if "Tokyo" is uttered or "Tokyo eki" is uttered.
【0066】上記第1〜5の実施の形態では、車載用ナ
ビゲーションシステムについて説明をしたがこの内容に
限定する必要はない。車載用に限らず携帯用のナビゲー
ション装置にも適用できる。さらには、ナビゲーション
装置に限らず音声認識を行うすべての装置に適用でき
る。In the first to fifth embodiments, the on-vehicle navigation system has been described. However, the present invention is not limited to this. The present invention can be applied not only to a vehicle-mounted device but also to a portable navigation device. Furthermore, the present invention is applicable not only to navigation devices but also to all devices that perform voice recognition.
【0067】上記第1〜5の実施の形態では、ナビゲー
ション装置100と音声ユニット200を分離した構成
で説明をしたが、この内容に限定する必要はない。音声
ユニットを内部に含んだ一つのナビゲーション装置とし
て構成してもよい。また、上記制御プログラムや認識辞
書などをCD−ROMなどの記録媒体で提供することも
可能である。さらには、制御プログラムや認識辞書など
をCD−ROMなどの記録媒体で提供し、パーソナルコ
ンピュータやワークステーションなどのコンピュータ上
で上記システムを実現することも可能である。また、制
御プログラムや認識辞書などをインターネットに代表さ
れる電気通信回線(伝送媒体)を通じて提供することも
可能である。In the first to fifth embodiments, the configuration in which the navigation device 100 and the audio unit 200 are separated has been described. However, the present invention is not limited to this. It may be configured as one navigation device including a sound unit inside. Further, the control program, the recognition dictionary, and the like can be provided on a recording medium such as a CD-ROM. Furthermore, it is also possible to provide a control program, a recognition dictionary, and the like on a recording medium such as a CD-ROM, and realize the system on a computer such as a personal computer or a workstation. Further, a control program, a recognition dictionary, and the like can be provided through a telecommunication line (transmission medium) represented by the Internet.
【0068】上記第1〜5の実施の形態では、音声ユニ
ット200で施設名の検索に成功した場合、その内容を
ナビゲーション装置100に知らせ、ナビゲーション装
置100では道案内等のナビゲーション処理の一つとし
てその施設近辺の地図を表示する例で説明をしたが、こ
の内容に限定する必要はない。ナビゲーション装置10
0では、音声ユニット200で検索に成功した結果に基
づき、経路探索や経路誘導その他の各種のナビゲーショ
ン処理が考えられる。In the first to fifth embodiments, when a search for a facility name is successful in the voice unit 200, the content is notified to the navigation apparatus 100, and the navigation apparatus 100 performs one of the navigation processes such as road guidance. Although an example of displaying a map near the facility has been described, the present invention is not limited to this example. Navigation device 10
In the case of 0, a route search, a route guidance and other various navigation processes can be considered based on the result of a successful search by the voice unit 200.
【0069】[0069]
【発明の効果】本発明は、以上説明したように構成して
いるので、次のような効果を奏する。請求項1〜10の
発明は、音声認識を行うときに、例えば、該当ジャンル
でよく使用されるキーワードを正規の読みとは異なる読
みに置き換えた認識語を格納した認識辞書を使用するこ
とができるので、音声認識に確実に成功することができ
る。特に、従来から使用していた認識辞書や市販の認識
辞書を使用して、キーワード部分の読みのみを置き換え
た認識辞書を作成することが可能となるので、音声認識
のヒット率の向上した新たな認識辞書が容易かつ短時間
かつ低コストで作成ができ、音声認識率の向上した装置
の低コスト化が実現できる。特に、請求項2の発明は、
置き換える読みを通常の発音の読みとしているので、音
声認識率がより向上する。請求項3〜5の発明は、読み
の置き換えを一定の法則に基づいて自動で行うようにし
ているので、置き換える読みのデータを予め格納してお
く必要がなく、メモリ容量の削減につながる。また、予
め定めた所定の言葉(キーワード)の読みのみを置き換
えているので、置き換えるべきでない読みは確実に置き
換えないようにできる。すなわち、一定の法則に基づい
て自動で置き換えるために生じる本来置き換えたくない
読みを置き換えてしまうと言う問題が、確実に回避でき
る。請求項6〜9の発明は、予め定めた所定の言葉(キ
ーワード)の読みを、正規の読みに加えて、その言葉の
漢字の異なる読みや、別称、略称に置き換えたものも共
に認識語として格納しているので、ユーザがいろいろな
バリエーションで発話しても確実に音声認識に成功す
る。請求項10の発明は、音声認識処理を実際に行う時
点で第1の認識語を生成しているので、例えば、正規の
読みの認識語や所定の言葉(キーワード)のデータのみ
をROMに予め格納しておき、それらの内容に基づいて
新たな認識語をRAM上に展開することができる。これ
により、ROMの記憶容量を削減できる。これに反し、
RAMの記憶容量は大きくなるが、作業エリアとして随
時上書きされて使用されるので問題にはならない。請求
項11の発明は、所定の言葉(キーワード)を付加して
発話した場合にも確実に音声認識に成功することができ
る。請求項12の発明は、音声認識ナビゲーション装置
において、上述の効果を奏することができる。請求項1
3の発明は、従来から使用していた認識辞書や市販の認
識辞書を使用して、キーワード部分の読みのみを置き換
えた認識辞書を作成することができるので、音声認識の
ヒット率の向上した新たな認識辞書が容易かつ短時間か
つ低コストで作成ができる。Since the present invention is configured as described above, it has the following effects. According to the first to tenth aspects of the present invention, when performing speech recognition, for example, a recognition dictionary storing recognition words in which keywords frequently used in a corresponding genre are replaced with readings different from regular readings can be used. Therefore, it is possible to surely succeed in the speech recognition. In particular, since it is possible to create a recognition dictionary that replaces only the reading of the keyword part using a recognition dictionary that has been used conventionally or a commercially available recognition dictionary, a new speech recognition hit rate has been improved. A recognition dictionary can be easily created in a short time and at low cost, and the cost of an apparatus with an improved speech recognition rate can be reduced. In particular, the invention of claim 2
Since the pronunciation to be replaced is the pronunciation of normal pronunciation, the speech recognition rate is further improved. According to the third to fifth aspects of the present invention, reading replacement is automatically performed based on a certain rule, so that it is not necessary to previously store reading replacement data, which leads to a reduction in memory capacity. Also, since only readings of predetermined words (keywords) are replaced, readings that should not be replaced can be surely not replaced. That is, it is possible to surely avoid the problem of replacing readings that are originally not desired to be replaced due to automatic replacement based on a certain rule. In the invention of claims 6 to 9, in addition to the reading of a predetermined word (keyword) determined in advance, the pronunciation of the word in a different kanji or replaced with another name or abbreviation is also recognized as a recognition word. Since it is stored, even if the user utters in various variations, the voice recognition is successfully achieved. According to the tenth aspect of the present invention, the first recognition word is generated at the time when the speech recognition process is actually performed. It is stored, and a new recognized word can be developed on the RAM based on the contents. Thereby, the storage capacity of the ROM can be reduced. On the contrary,
Although the storage capacity of the RAM is increased, it is not a problem because the RAM is overwritten as needed and used as a work area. According to the eleventh aspect, even when a predetermined word (keyword) is added and uttered, the speech recognition can be successfully completed. According to the twelfth aspect of the present invention, the above effects can be obtained in the voice recognition navigation device. Claim 1
According to the invention of the third aspect, it is possible to create a recognition dictionary in which only the reading of the keyword portion is replaced by using a recognition dictionary conventionally used or a commercially available recognition dictionary. A simple recognition dictionary can be created easily, in a short time and at low cost.
【図1】本発明の車載用ナビゲーションシステムの構成
を示す図である。FIG. 1 is a diagram showing a configuration of an on-vehicle navigation system of the present invention.
【図2】第1の実施の形態における正規の読みの認識辞
書を示す図である。FIG. 2 is a diagram showing a recognition dictionary for normal reading in the first embodiment.
【図3】第1の実施の形態における新たな認識辞書を示
す図である。FIG. 3 is a diagram illustrating a new recognition dictionary according to the first embodiment.
【図4】第1の実施の形態におけるキーワードと置き換
えの読みの一覧を示す図である。FIG. 4 is a diagram showing a list of keyword and replacement readings according to the first embodiment.
【図5】第1の実施の形態における正規の読みの認識辞
書から新たな認識辞書を生成する構成を示す図である。FIG. 5 is a diagram illustrating a configuration for generating a new recognition dictionary from a recognition dictionary of normal reading in the first embodiment.
【図6】第1の実施の形態における正規の読みの認識辞
書から新たな認識辞書を生成する処理のフローチャート
を示す図である。FIG. 6 is a diagram illustrating a flowchart of a process of generating a new recognition dictionary from a recognition dictionary of normal reading in the first embodiment.
【図7】第1の実施の形態における音声認識を行う制御
のフローチャートを示す図である。FIG. 7 is a diagram illustrating a flowchart of control for performing voice recognition according to the first embodiment.
【図8】第2の実施の形態における音声認識を行う制御
のフローチャートを示す図である。FIG. 8 is a diagram illustrating a flowchart of control for performing voice recognition according to the second embodiment.
【図9】第3の実施の形態における音声認識を行う制御
のフローチャートを示す図である。FIG. 9 is a diagram illustrating a flowchart of control for performing voice recognition according to the third embodiment.
【図10】第3の実施の形態における正規の読みの認識
辞書から新たな認識辞書を生成する処理のフローチャー
トを示す図である。FIG. 10 is a diagram illustrating a flowchart of a process of generating a new recognition dictionary from a recognition dictionary of normal reading in the third embodiment.
【図11】第4の実施の形態における正規の読みの認識
辞書を示す図である。FIG. 11 is a diagram showing a recognition dictionary for normal reading in the fourth embodiment.
【図12】第4の実施の形態における新たな認識辞書を
示す図である。FIG. 12 is a diagram illustrating a new recognition dictionary according to the fourth embodiment.
【図13】第4の実施の形態におけるキーワードと置き
換えの読みの一覧を示す図である。FIG. 13 is a diagram showing a list of keyword and replacement readings according to the fourth embodiment.
【図14】第4の実施の形態における正規の読みの認識
辞書から新たな認識辞書を生成する処理のフローチャー
トを示す図である。FIG. 14 is a diagram illustrating a flowchart of a process of generating a new recognition dictionary from a recognition dictionary of normal reading in the fourth embodiment.
100 ナビゲーション装置 101 GPS受信機 102 ジャイロセンサ 103 車速センサ 104 ドライバ 105 CPU 106 RAM 107 ROM 108 CD−ROMドライブ 109 表示装置 110 バスライン 200 音声ユニット 201 マイク 202 A/D変換部 203 D/A変換部 204 アンプ 205 スピーカ 206 発話スイッチ 207 ドライバ 208 CPU 209 RAM 210 ROM 211 通信ライン 212 バスライン 301 正規の読みの認識辞書 302 新たな認識辞書 303 パーソナルコンピュータ 304 キーワード REFERENCE SIGNS LIST 100 Navigation device 101 GPS receiver 102 Gyro sensor 103 Vehicle speed sensor 104 Driver 105 CPU 106 RAM 107 ROM 108 CD-ROM drive 109 Display device 110 Bus line 200 Audio unit 201 Microphone 202 A / D conversion unit 203 D / A conversion unit 204 Amplifier 205 Speaker 206 Speaking switch 207 Driver 208 CPU 209 RAM 210 ROM 211 Communication line 212 Bus line 301 Regular reading recognition dictionary 302 New recognition dictionary 303 Personal computer 304 Keywords
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 561H Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G10L 15/28 G10L 3/00 561H
Claims (17)
語を格納する格納手段と、 前記音声入力手段により得られた音データと前記認識語
に基づき生成された音声認識用データとを比較して音声
認識処理を行う音声認識処理手段とを備えた音声認識装
置において、 前記格納手段には、一つの音声認識対象の言葉の一部に
予め定めた所定の言葉を含む場合、その所定の言葉の読
みをその所定の言葉の正規の読みとは異なる読みとした
第1の認識語が格納されていることを特徴とする音声認
識装置。1. A voice input means, a storage means for storing a recognition word corresponding to a word to be recognized and representing a reading of the word, a generation based on the sound data obtained by the voice input means and the recognition word And a voice recognition processing unit that performs a voice recognition process by comparing the obtained voice recognition data with the obtained voice recognition data. A first recognition word in which the reading of the predetermined word is different from the normal reading of the predetermined word when the first word is included.
共通に含まれる言葉であり、 前記所定の言葉の正規の読みと異なる読みは、その言葉
の通常発音される読みであることを特徴とする音声認識
装置。2. The speech recognition device according to claim 1, wherein the predetermined word is a word commonly included in a part of a plurality of words to be recognized, and is different from a regular reading of the predetermined word. The speech recognition device is characterized in that the pronunciation is a pronunciation that is normally pronounced for the word.
いて、 前記所定の言葉の正規の読みと異なる読みは、前記所定
の言葉の正規の読みにおいてのみ五十音のえ段の音節の
後に「い」の音節が並ぶ場合、この「い」の音節を
「え」の音節に置き換えた読みとしたことを特徴とする
音声認識装置。3. The speech recognition device according to claim 1, wherein a reading different from the normal reading of the predetermined word is performed only after the normal reading of the predetermined word after the syllable of the Japanese syllabary. A voice recognition device characterized in that when syllables of "i" are arranged, the syllable of "i" is replaced by a syllable of "e".
いて、 前記所定の言葉の正規の読みと異なる読みは、前記所定
の言葉の正規の読みにおいてのみ五十音のお段の音節の
後に「う」の音節が並ぶ場合、この「う」の音節を
「お」の音節に置き換えた読みとしたことを特徴とする
音声認識装置。4. The voice recognition device according to claim 1, wherein a reading different from the normal reading of the predetermined word is performed only after the syllable of the Japanese syllabary in the normal reading of the predetermined word. A voice recognition device characterized in that when syllables of "U" are arranged, the syllables of "U" are replaced with syllables of "O".
いて、 前記認識語は長音符号「ー」を含む仮名により指定さ
れ、 前記所定の言葉の正規の読みとは異なる読みにおいて、
前記置き換える音節を長音符号「ー」により置き換える
ことを特徴とする音声認識装置。5. The speech recognition device according to claim 3, wherein the recognition word is specified by a kana including a long code "-", and in a reading different from a normal reading of the predetermined word,
A speech recognition apparatus, wherein the syllable to be replaced is replaced with a long code "-".
して、前記所定の言葉の正規の読みを含む正規の認識語
と前記第1の認識語とが共に格納されていることを特徴
とする音声認識装置。6. The speech recognition apparatus according to claim 1, wherein the storage means stores a regular recognition word including a regular reading of the predetermined word with respect to the one speech recognition target word. A speech recognition device, wherein the speech recognition device is stored together with one recognition word.
みと異なる読みは、その言葉の読みをなしとするもので
あることを特徴とする音声認識装置。7. The speech recognition device according to claim 6, wherein in the first recognition word, a reading different from a normal reading of the predetermined word is a reading of the word. Speech recognition device.
みと異なる読みは、その言葉が漢字で表されるときその
漢字の異なる読みであることを特徴とする音声認識装
置。8. The speech recognition apparatus according to claim 6, wherein, in the first recognition word, a reading different from a normal reading of the predetermined word is a reading different from the normal reading of the kanji when the word is represented by a kanji. A speech recognition device, characterized in that:
みと異なる読みは、その言葉が有する別称あるいは略称
であることを特徴とする音声認識装置。9. The speech recognition apparatus according to claim 6, wherein in the first recognition word, a reading different from a normal reading of the predetermined word is a different name or an abbreviation of the word. Voice recognition device.
声認識装置において、 前記音声認識処理手段が、前記所定の言葉を一部に含む
前記一つの音声認識対象の言葉に関連して音声認識処理
を行うときに、前記第1の認識語を生成して前記格納手
段に格納ずる生成手段をさらに備えることを特徴とする
音声認識装置。10. The speech recognition device according to claim 1, wherein the speech recognition processing unit is configured to associate the speech recognition target word with a part of the predetermined word. A speech recognition apparatus, further comprising: a generation unit configured to generate the first recognition word and store the generated first recognition word in the storage unit when performing the voice recognition process.
語を格納する格納手段と、 前記音声入力手段により得られた音データと前記認識語
に基づき生成された音声認識用データとを比較して音声
認識処理を行う音声認識処理手段とを備えた音声認識装
置において、 前記格納手段には、前記音声認識対象の言葉に予め定め
た所定の言葉が含まれない場合、前記所定の言葉の読み
を付加した認識語が格納されていることを特徴とする音
声認識装置。11. A speech input means, a storage means for storing a recognition word corresponding to a speech recognition target word and representing a reading of the word, a generation based on sound data obtained by the speech input means and the recognition word. A voice recognition processing unit that performs a voice recognition process by comparing the obtained voice recognition data with the obtained voice recognition data, wherein the storage unit includes a predetermined word as the voice recognition target word. If not, the speech recognition device stores a recognition word to which the reading of the predetermined word is added.
音声認識装置と、 地図情報を格納する地図情報格納手段と、 少なくとも前記音声認識装置の認識結果と前記地図情報
とに基づき、道案内のための制御を行う制御手段とを備
えることを特徴とする音声認識ナビゲーション装置。12. A voice recognition device according to claim 1, a map information storage means for storing map information, and a road based on at least a recognition result of said voice recognition device and said map information. A voice recognition navigation device, comprising: control means for performing control for guidance.
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
を生成する認識語生成方法であって、 一つの音声認識対象の言葉の一部に予め定めた所定の言
葉を含む場合、その所定の言葉の読みをその所定の言葉
の正規の読みとは異なる読みとした認識語を生成するこ
とを特徴とする認識語生成方法。13. A recognition word generation method for generating a recognition word representing a reading of a word to be voice recognition for generating voice recognition data to be compared with sound data obtained by voice input means in a voice recognition process. And generating a recognized word in which the reading of the predetermined word is different from the normal reading of the predetermined word when a part of one word to be recognized includes a predetermined word. A recognition word generation method.
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
を生成する認識語生成プログラムであって、一つの音声
認識対象の言葉の一部に予め定めた所定の言葉を含む場
合、その所定の言葉の読みをその所定の言葉の正規の読
みとは異なる読みとした認識語を生成する認識語生成プ
ログラム記録したことを特徴とする記録媒体。14. A recognition word generation program for generating a recognition word representing a reading of a word to be voice recognition for generating voice recognition data to be compared with sound data obtained by voice input means in a voice recognition process. When a part of one target speech recognition word includes a predetermined word, a recognition word is generated in which the reading of the predetermined word is different from the normal reading of the predetermined word. A recording medium characterized by recording a recognition word generation program.
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
に関するデータであって、一つの音声認識対象の言葉の
一部に予め定めた所定の言葉を含む場合、その所定の言
葉の読みをその所定の言葉の正規の読みとは異なる読み
とした認識語に関するデータを記録したことを特徴とす
る記録媒体。15. Data relating to a recognized word representing a reading of a word to be subjected to voice recognition for generating voice recognition data to be compared with sound data obtained by voice input means in voice recognition processing, wherein In the case where a part of one of the words to be recognized includes a predetermined word, the data of the recognized word having the reading of the predetermined word different from the normal reading of the predetermined word is recorded. Characteristic recording medium.
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
を生成する認識語生成プログラムであって、一つの音声
認識対象の言葉の一部に予め定めた所定の言葉を含む場
合、その所定の言葉の読みをその所定の言葉の正規の読
みとは異なる読みとした認識語を生成する認識語生成プ
ログラム伝送することを特徴とする伝送媒体。16. A recognition word generating program for generating a recognition word representing a reading of a word to be voice recognition for generating voice recognition data to be compared with sound data obtained by voice input means in a voice recognition process. When a part of one target speech recognition word includes a predetermined word, a recognition word is generated in which the reading of the predetermined word is different from the normal reading of the predetermined word. A transmission medium characterized by transmitting a recognition word generation program.
より得られた音データと比較する音声認識用データを生
成するための音声認識対象の言葉の読みを表した認識語
に関するデータであって、一つの音声認識対象の言葉の
一部に予め定めた所定の言葉を含む場合、その所定の言
葉の読みをその所定の言葉の正規の読みとは異なる読み
とした認識語に関するデータを伝送することを特徴とす
る伝送媒体。17. A speech recognition process for generating speech recognition data to be compared with sound data obtained by speech input means, the speech recognition data representing recognition words representing readings of words to be recognized. In the case where a part of one of the words to be recognized includes a predetermined word, it is necessary to transmit data on the recognized word in which the reading of the predetermined word is different from the normal reading of the predetermined word. Characteristic transmission medium.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000053257A JP4550207B2 (en) | 2000-02-29 | 2000-02-29 | Voice recognition device and voice recognition navigation device |
EP00307745A EP1083545A3 (en) | 1999-09-09 | 2000-09-07 | Voice recognition of proper names in a navigation apparatus |
US09/659,679 US6708150B1 (en) | 1999-09-09 | 2000-09-11 | Speech recognition apparatus and speech recognition navigation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000053257A JP4550207B2 (en) | 2000-02-29 | 2000-02-29 | Voice recognition device and voice recognition navigation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001242887A true JP2001242887A (en) | 2001-09-07 |
JP4550207B2 JP4550207B2 (en) | 2010-09-22 |
Family
ID=18574667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000053257A Expired - Fee Related JP4550207B2 (en) | 1999-09-09 | 2000-02-29 | Voice recognition device and voice recognition navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4550207B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041081A (en) * | 2000-07-28 | 2002-02-08 | Sharp Corp | Unit/method for preparing voice-recognition dictionary, voice-recognition apparatus, portable terminal, and program-recording media |
JP2003323192A (en) * | 2002-05-08 | 2003-11-14 | Matsushita Electric Ind Co Ltd | Device and method for registering word dictionary |
JP2020155976A (en) * | 2019-03-20 | 2020-09-24 | 東芝映像ソリューション株式会社 | Program name search support device and program name search support method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61128364A (en) * | 1984-11-28 | 1986-06-16 | Matsushita Electric Ind Co Ltd | Retrieving device of dictionary |
JPH0358099A (en) * | 1989-07-27 | 1991-03-13 | Nec Corp | Voicing variation detecting device |
JPH10274996A (en) * | 1997-03-31 | 1998-10-13 | Toshiba Corp | Voice recognition device |
JPH11311991A (en) * | 1998-04-30 | 1999-11-09 | Nec Corp | Device and method for forming voice recognition dictionary and recording medium recording its program |
JP2000010583A (en) * | 1998-06-19 | 2000-01-14 | Fujitsu Ltd | Voice recognition method and apparatus |
JP2000029490A (en) * | 1998-07-15 | 2000-01-28 | Denso Corp | Word dictionary data building method for voice recognition apparatus, voice recognition apparatus, and navigation system |
-
2000
- 2000-02-29 JP JP2000053257A patent/JP4550207B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61128364A (en) * | 1984-11-28 | 1986-06-16 | Matsushita Electric Ind Co Ltd | Retrieving device of dictionary |
JPH0358099A (en) * | 1989-07-27 | 1991-03-13 | Nec Corp | Voicing variation detecting device |
JPH10274996A (en) * | 1997-03-31 | 1998-10-13 | Toshiba Corp | Voice recognition device |
JPH11311991A (en) * | 1998-04-30 | 1999-11-09 | Nec Corp | Device and method for forming voice recognition dictionary and recording medium recording its program |
JP2000010583A (en) * | 1998-06-19 | 2000-01-14 | Fujitsu Ltd | Voice recognition method and apparatus |
JP2000029490A (en) * | 1998-07-15 | 2000-01-28 | Denso Corp | Word dictionary data building method for voice recognition apparatus, voice recognition apparatus, and navigation system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041081A (en) * | 2000-07-28 | 2002-02-08 | Sharp Corp | Unit/method for preparing voice-recognition dictionary, voice-recognition apparatus, portable terminal, and program-recording media |
JP2003323192A (en) * | 2002-05-08 | 2003-11-14 | Matsushita Electric Ind Co Ltd | Device and method for registering word dictionary |
JP2020155976A (en) * | 2019-03-20 | 2020-09-24 | 東芝映像ソリューション株式会社 | Program name search support device and program name search support method |
JP7202938B2 (en) | 2019-03-20 | 2023-01-12 | Tvs Regza株式会社 | Program name search support device and program name search support method |
Also Published As
Publication number | Publication date |
---|---|
JP4550207B2 (en) | 2010-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6708150B1 (en) | Speech recognition apparatus and speech recognition navigation apparatus | |
US8548806B2 (en) | Voice recognition device, voice recognition method, and voice recognition program | |
KR100679042B1 (en) | Speech recognition method and apparatus, navigation system using same | |
US6012028A (en) | Text to speech conversion system and method that distinguishes geographical names based upon the present position | |
US20080177541A1 (en) | Voice recognition device, voice recognition method, and voice recognition program | |
JP3278222B2 (en) | Information processing method and apparatus | |
JP2004510239A (en) | How to improve dictation and command distinction | |
KR20070113665A (en) | Method and apparatus for setting a destination of a navigation terminal | |
JP4642953B2 (en) | Voice search device and voice recognition navigation device | |
JP2008234427A (en) | Device, method, and program for supporting interaction between user | |
JP2008089625A (en) | Voice recognition apparatus, voice recognition method and voice recognition program | |
JP4520555B2 (en) | Voice recognition device and voice recognition navigation device | |
JP3645104B2 (en) | Dictionary search apparatus and recording medium storing dictionary search program | |
JP3911178B2 (en) | Speech recognition dictionary creation device and speech recognition dictionary creation method, speech recognition device, portable terminal, speech recognition system, speech recognition dictionary creation program, and program recording medium | |
JP4550207B2 (en) | Voice recognition device and voice recognition navigation device | |
JPH07319383A (en) | Map display device | |
JP2003029778A (en) | Voice interactive interface processing method in navigation system | |
JP2011180416A (en) | Voice synthesis device, voice synthesis method and car navigation system | |
JP2005114964A (en) | Method and processor for speech recognition | |
JPH11184495A (en) | Speech recognition device | |
JP4639990B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
JP2005157166A (en) | Speech recognition apparatus, speech recognition method and program | |
JP4652504B2 (en) | Voice recognition device and voice recognition navigation device | |
JP2001083982A (en) | Speech recognition device, recording medium having data for speech recognition recorded therein and speech recognition navigation device | |
JP2000330588A (en) | Method and system for processing speech dialogue and storage medium where program is stored |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100125 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100615 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100708 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130716 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |