JP2005114964A - Method and processor for speech recognition - Google Patents
Method and processor for speech recognition Download PDFInfo
- Publication number
- JP2005114964A JP2005114964A JP2003348143A JP2003348143A JP2005114964A JP 2005114964 A JP2005114964 A JP 2005114964A JP 2003348143 A JP2003348143 A JP 2003348143A JP 2003348143 A JP2003348143 A JP 2003348143A JP 2005114964 A JP2005114964 A JP 2005114964A
- Authority
- JP
- Japan
- Prior art keywords
- data
- candidate
- voice
- map
- address
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Abstract
Description
本発明は、住所を音声認識する技術に関する。 The present invention relates to a technique for recognizing an address by voice.
車両の現在位置を算出し、これを液晶ディスプレイなどの画面上に表示するとともに、指定された目的地に向かって車両が進行すべき道路を画面上に表示し、経路誘導を行う車載用ナビゲーション装置が知られている。 A vehicle-mounted navigation device that calculates the current position of the vehicle and displays it on a screen such as a liquid crystal display, as well as displaying on the screen the road on which the vehicle should travel toward the specified destination, and performing route guidance It has been known.
近年、手操作により指示命令などを入力するのに代えて、音声で指示を入力する技術が車載用ナビゲーション装置にも取り入れられている。 In recent years, a technique for inputting an instruction by voice instead of inputting an instruction command or the like by a manual operation has been adopted in an in-vehicle navigation device.
例えば、ナビゲーションの基礎となる地名、制御コマンド名などの諸情報を、使用者の肉声により入力できるナビゲーション装置がある(例えば、特許文献1参照。)。このナビゲーション装置は、音声認識デコーダを備え、マイクを介して入力された音声が表す言葉に近い候補言葉を、予め用意された辞書情報から選択して入力とするものである。 For example, there is a navigation device that can input various information such as a place name and a control command name as a basis of navigation by a user's real voice (see, for example, Patent Document 1). This navigation device includes a speech recognition decoder, and selects and inputs candidate words close to words represented by speech input via a microphone from previously prepared dictionary information.
しかしながら、特許文献1に開示されているナビゲーション装置の場合、音声認識デコーダが入力された音声に近いと判断した候補言葉からなる地名が、当該地名が地図上に存在するか否かに係わらず、認識結果として出力される。従って、地図上に存在しない地名が認識結果として出力された場合、その後の経路認識などの処理を行うことができない。
However, in the case of the navigation device disclosed in
本発明は、このような問題を解決するためになされたもので、音声入力された地名を認識するにあたり、確実に地図上に存在する地名のみを認識結果として出力できる音声認識処理技術を提供することを目的とする。 The present invention has been made to solve such a problem, and provides a speech recognition processing technology that can reliably output only a place name existing on a map as a recognition result when recognizing a place name inputted by voice. For the purpose.
本発明は、音声入力された住所データを処理する音声認識方法において、実際に地図データに存在する住所のみを認識結果として出力する音声認識方法を提供する。 The present invention provides a speech recognition method for processing address data inputted by speech, and outputting only the address actually present in map data as a recognition result.
例えば、本発明の音声認識方法は、地図上の地点を特定する住所データを含む地図データを記憶する地図データ記憶手段を備える装置における、音声によって入力された住所データを認識する音声認識方法であって、操作者から入力される音声を受け付ける音声入力受付ステップと、前記音声入力受付ステップで受け付けた音声に音声認識処理を施し、1以上の音声認識結果を整合性の高いものから順に候補データとして候補データベースに格納する候補データ生成ステップと、前記候補データベースに格納された候補データを、前記整合性の高いものから順に抽出し、当該抽出した候補データに合致する前記住所データが前記地図データ内にあるか否かを判断し、合致するものがある場合、当該抽出した候補データを最終認識結果として出力し、合致するものがない場合、前記候補データベースに格納された全ての候補データを抽出するまで、次に整合性の高いものを抽出して前記合致を判断する処理を繰り返し、前記候補データ全てが、前記地図データ内の前記住所データに合致しない場合は、合致なしを示すデータを最終認識結果の代わりに出力する認識結果確定ステップと、を備える。 For example, the speech recognition method of the present invention is a speech recognition method for recognizing address data input by speech in an apparatus comprising map data storage means for storing map data including address data for specifying a point on a map. A voice input receiving step for receiving voice input from the operator, and performing voice recognition processing on the voice received in the voice input receiving step, and setting one or more voice recognition results as candidate data in descending order of consistency. Candidate data generation step for storing in the candidate database, candidate data stored in the candidate database are extracted in order from the one with the highest consistency, and the address data matching the extracted candidate data is in the map data If there is a match, the extracted candidate data is output as the final recognition result. If there is no match, until all candidate data stored in the candidate database are extracted, the process of extracting the next most consistent data and determining the match is repeated. A recognition result determination step of outputting data indicating no match instead of the final recognition result when the address data in the map data does not match.
また、本発明の他の音声認識方法は、地図上の地点を特定する住所データを含む地図データを記憶する地図データ記憶手段を備える装置における、音声によって入力された住所データを認識する音声認識方法であって、操作者から入力される音声を受け付ける音声入力受付ステップと、前記音声入力受付ステップで受け付けた音声に音声認識処理を施す音声処理ステップと、前記地図データから特定の範囲の住所データを抽出し、当該抽出した住所データが登録された認識候補データベースと、前記音声認識処理ステップにおいて得られた音声認識処理結果とを比較し、最も整合性の高いものを、前記候補データベースから最終認識結果として出力する認識結果確定ステップと、を備える。 Another speech recognition method of the present invention is a speech recognition method for recognizing address data input by voice in an apparatus comprising map data storage means for storing map data including address data for specifying a point on a map. A voice input receiving step for receiving voice input from the operator, a voice processing step for performing voice recognition processing on the voice received in the voice input receiving step, and address data in a specific range from the map data. The recognition candidate database that is extracted and registered with the extracted address data is compared with the speech recognition processing result obtained in the speech recognition processing step, and the most consistent one is compared with the final recognition result from the candidate database. A recognition result determination step for outputting as
本発明によれば、地名を音声入力する装置において、確実に地図上に存在する地名のみを認識結果として出力できる音声認識処理技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, in the apparatus which inputs a place name by voice, the speech recognition processing technique which can output only the place name which exists on a map reliably as a recognition result can be provided.
以下、本発明の一実施形態を、図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本実施形態のナビゲーション装置100のハードウエア構成図である。本図に示すように、本実施形態のナビゲーション装置100は、CPU101と、ROM102と、RAM103と、表示装置104と、入出力インタフェース装置105と、記録媒体ドライブ106と、GPS(Global Positioning System)受信機111と、方位センサ112と、車速センサ113と、D/A変換部121、A/D変換部と、入力装置123と、マイクロフォンなどの音声入力部124と、スピーカなどの音声出力部125とを備える。
FIG. 1 is a hardware configuration diagram of the
GPS受信機111は、GPS衛星からの信号を受信する。方位センサ112は、地磁気センサ、光ジャイロなどからなり、センサ等によって自車の進行方位を検出する基礎となる信号を取得する。車速センサ113は、車輪の回転速度に応じたパルスを発生する。
The
音声入力部124は、マイクロフォンなどからなり、音声の入力を受け付ける。D/A変換部121は、音声入力部124で受け付けた音声にD/A変換を施す。また、音声出力部125は、スピーカなどからなり、A/D変換部122でA/D変換を施された音声信号を出力する。また、発話スイッチ123は、当該スイッチが押された後、予め定められた期間、音声の入力を受け付ける信号を送出する。
The
入出力インタフェース装置105は、GPS受信機111、方位センサ112、車速センサ113、発話スイッチ123、D/A変換部121、A/D変換部122から取得した信号を、バスライン110に送出する。
The input /
記録媒体ドライブ106は、図示しない記録媒体装着部に装填された、デジタル地図データが記録されたCD−ROMやDVDなどの記録媒体からデータを読み出す。ここで、記録媒体に記録されたデジタル地図データには、一般的な経路誘導などのナビゲーション処理が可能なフォーマットの道路データとともに、地図上の位置を特定する情報として住所データが格納されている。
The
表示装置104は、車の現在位置、周辺の道路地図、目的地までのルート情報、誘導情報など、ナビゲーション装置100で表示される目的で処理された各種のデータを表示する。
The
入力装置123は、表示装置104に表示する情報の入力や画面の切り換えなどの指令を操作者から受け付ける。入力装置123は、スイッチ類や、表示装置104の表示画面を用いたタッチパネル、ジョイスティックなどで構成される。また、入力装置123は、ナビゲーション装置100を、音声入力部124から入力された音声を所定時間受け付けるモードに切り換える指示の入力を受け付ける発話スイッチ123aを備える。
The
CPU101は、不揮発性メモリROM102に格納されたプログラムを実行することによりナビゲーション装置100全体を制御する。RAM106は、揮発性メモリであり、ワークデータ領域となる。
The
バスライン110は、ナビゲーション装置100のCPU101などの各構成要素をバス接続する。
The
次に、本実施形態のナビゲーション装置100の機能構成について説明する。図2は、本実施形態のナビゲーション装置100の機能構成図である。
Next, a functional configuration of the
本図に示すように、本実施形態のナビゲーション装置100は、制御部201と、操作/入力部211と、表示/出力部212と、現在位置算出部221と、経路探索部222と、認識結果確定部223と、音声認識部224と、音声合成部225と、地図データ231と、認識辞書232と、比較候補データ233と、を備える。
As shown in the figure, the
現在位置算出部221は、GPS受信機111、方位センサ112、車速センサ113とから得た信号、および、記録媒体ドライブ106を介して記録媒体から得た地図データとを用い、自車の現在位置、進行方向などのナビゲーション処理に必要な情報を算出する。
The current
音声認識部224は、音声入力部124から入力された音声信号に音声認識処理を施し、その結果と認識辞書232内の辞書データとを比較照合し、予め定められた数の候補データを、整合性の高いものから優先順位をつけて生成し、候補データベース233に格納する。その後、処理が完了したことを認識結果確定部232に通知する。
The
候補データベース233に格納される候補データは、後述するように、地図データベース231に住所データとして格納されているデータと比較照合を行うものである。このため、候補データは、この比較照合が可能なフォーマットに変換され、候補データベース233に格納される。
The candidate data stored in the
本実施形態では、住所を、「県名」、「市区町村名」、「大字名」、そして、「丁目番地号」という区分けし、それぞれの構成要素ごとに入力を促し、受け付けた入力をそれぞれ音声認識部224で処理し、後述の認識結果確定部223で確定する構成を例にあげて説明する。従って、候補データは、住所を構成する各構成要素単位で候補データベース233に格納される。
In this embodiment, the address is classified into “prefecture name”, “city name”, “large name”, and “chome street address”, prompting the input for each component, and accepting the input A description will be given by taking, as an example, a configuration in which each processing is performed by the
音声による住所データの入力の方法および認識処理方法は、これに限らず、住所の全ての構成要素の入力を一度に受け付け、メモリなどに格納し、適当な単位で認識処理を進めていく構成としてもよいし、例えば、「丁目番地号」といった数字を含む部分と、その他の部分(県市大字名と呼ぶ)とに分けて入力を受け付けてそれぞれ認識処理を進めるなど、適宜定めることができる。 The method of inputting address data by voice and the recognition processing method are not limited to this, and the configuration is such that all the components of the address are received at once, stored in a memory, etc., and the recognition processing proceeds in appropriate units. Alternatively, for example, it can be determined as appropriate by receiving input separately for a part including a number such as “chome address” and another part (referred to as “prefectural city large name”) and proceeding with the recognition process.
図3に、音声認識部224により処理されて候補データベース233に格納される候補データの一例を示す。ここでは、住所データを構成する要素のうち、「丁目番地号」の入力があった場合に格納されるデータを例にあげて説明する。
FIG. 3 shows an example of candidate data that is processed by the
本図に示すように、候補データベース233は、優先順位を示す優先順位データ233aと、候補データ233bと、それまでに確定した部分の住所の構成要素データを示す確定部データ233cとを備える。
As shown in the figure, the
なお、ここでは、候補データを文字列で示しているが、これに限られない。候補データは、前述したように、地図データの情報と比較照合が可能な形式であればよい。 Here, the candidate data is shown as a character string, but is not limited thereto. As described above, the candidate data may be in a format that can be compared with the map data information.
認識結果確定部223は、候補データベース233に格納されている優先順位に従って、地図データベース231内のデータと比較照合し、合致したものを結果として出力する。
The recognition result
認識結果確定部223は、音声認識部224から処理完了の通知を受け取ると、地図データベース231にアクセスし、候補データベース233の確定部データ233cを抽出し、当該確定部データ232cで定まる住所内の次のレベルの構成要素のデータを抽出する。ここで、次のレベルの構成要素とは、例えば、「県名」まで確定していた場合は、「市区町村名」、「市区町村名」まで確定していれば、「大字名」、「大字名」まで確定していれば、「丁目番地号」のことである。
Upon receiving the processing completion notification from the
次に、候補データベース233の候補データ233bを、その優先順位の高いものから順に、地図データベース231から抽出したデータと比較照合する。合致するものがあった時点で、それを認識結果として出力するとともに、当該構成要素を追加したものを、新たな確定部データ232cとして候補データベース233に登録する。
Next, the candidate data 233b in the
例えば、「大字名」まで確定している住所であって、当該大字の「丁目番地号」の最大が「5丁目7番地40号」であった場合、図3に格納された候補データ233bを用いて比較照合する場合、優先順位1番の「25丁目6番地35号」は、合致なしとして判断され、次の優先順位の候補データの処理に進む。そして、次に、優先順位2番の「2丁目6番地35号」が抽出されて照合されると、合致ありと判断され、認識結果として出力される。 For example, if the address is fixed up to “Large name” and the maximum of the “Chome address number” of the large character is “5 Chome address 7”, the candidate data 233b stored in FIG. When using the comparison and collation, the priority No. 1 “25th Street No. 6 No. 35” is determined as no match, and the process proceeds to the next priority candidate data. Then, when “2-6-6 address 35” having the second priority is extracted and collated, it is determined that there is a match and is output as a recognition result.
ここで、合致するものがあった際、表示装置104および/または音声出力部125に、結果を出力し、操作者の承認を受けるよう構成してもよい。非承認の場合は、承認を受けるまで、次の優先順位のものから同様に比較照合を続け、結果を出力することを繰り返す。承認を受けた後、当該結果は、確定したものとして出力される。
Here, when there is a match, the result may be output to the
なお、全ての候補データについて上記の処理を行ったにも係わらず、合致するものがない、または、承認を得ることができるものがない場合は、認識結果確定部223は、照合不成功を示すデータを、表示装置104および/または音声出力部125から出力し、操作者にその旨提示する。
If there is no match or no approval can be obtained even though the above processing is performed for all candidate data, the recognition
経路探索部222は、入力装置123を介して操作者から受け取った指示に従い、現在位置、目的地、および、地図データベース231内のデータを用いて、経路探索処理を行い、指示された結果を出力する。
The
例えば、入力装置123または音声入力部124を介して経路誘導の処理を行う指示が入力された場合、現在位置算出部221にて算出した現在位置データと、入力装置123を介して入力された目的地データ、または、音声入力部124を介して入力され、音声認識部224および認識結果確定部223にて処理されて得られた目的地データとを用い、現在位置と目的地とを結ぶ道路データおよび経路誘導処理を行うために必要な各種データを、地図データベース231から取得し、ダイクストラ法などを用いて、現在地から目的地までの誘導経路を決定し、結果を表示/出力部212に送信する。
For example, when an instruction to perform route guidance processing is input via the
音声合成部225は、各機能部で処理された結果を、表示/出力部212から音声で出力するために、既存の音声合成ソフトを用い発生用の音声データに変換する。なお、変換された音声データは、後述の表示/出力部212により、D/A変換部122、音声出力部125を介して出力される。
The
操作/入力部211は、入力装置123を介して入力された信号および音声入力部124を介してA/D変換部121でデジタル信号に変換された信号の入力を受け取り、制御部201を介して各機能部に送信する。
The operation /
表示/出力部212は、各機能部で処理された結果を、出力装置104および音声出力部125に出力する。
The display /
制御部201は、ナビゲーション装置100全体の機能動作を制御する。また、本実施形態では、例えば、入力装置123の発話スイッチ123aが押下されると、所定の時間、音声入力部124を介して音声の入力を受け付けるよう制御する。
The
これらの各機能部は、ROM102に格納されたプログラムをCPU101が実行することにより実現される。また、候補データベース232は、RAM106に格納される。一方、地図データベース231および認識辞書232は、記録媒体に格納されていてもよいし、記録媒体が装着された際に記録媒体ドライブ106が読み出し、RAM106に一時的に格納するよう構成されていてもよい。
Each of these functional units is realized by the
以下に、音声により入力された目的地の住所を用い、現在地から当該目的地までの経路探索処理を行う場合の、本実施形態のナビゲーション装置100における処理手順を図を用いて説明する。
Hereinafter, a processing procedure in the
図4は、ナビゲーション装置100における全体の処理フローである。本図に示すように、制御部201は、入力装置123などを介して経路探索の処理の指示を受け付ける(ステップ401)と、目的地の入力を促し、音声認識部224および認識結果確定部223に処理を行わせ、目的地の住所データの各構成要素をそれぞれ確定する(ステップ402〜405)。
FIG. 4 is an overall processing flow in the
目的地が確定したことを認識結果確定部223から通知を受けると、現在位置算出部231は、現在位置を算出し(ステップ406)、それを経路探索部232に通知する。
When receiving a notification from the recognition
認識結果確定部223から目的地を、そして、現在位置算出部231から現在位置の通知を受け取ると、経路探索部222は、地図データベース231を用い、現在地から目的地への経路探索処理を行い、結果を表示/出力部212を介して表示装置に表示させる誘導経路を算出する(ステップ407)。
Upon receiving the destination from the recognition
次に、上記の処理の中で、住所データの各構成要素を確定する処理を、「丁目番地号」を確定する場合を例にあげ、以下に説明する。 Next, in the above process, the process of determining each component of the address data will be described below by taking the case of determining the “chome address” as an example.
図5は、音声認識部224および認識結果確定部223において、入力された音声から「丁目番地号」を確定する場合の処理フローである。住所データの他の構成要素を確定する場合も、基本的に同様の処理が行われる。
FIG. 5 is a processing flow in the case where the
認識結果確定部223において「大字名」まで確定すると、制御部201は、「丁目番地号」の入力を促す表示あるいは出力を行う(ステップ501)。具体的には、表示/出力部212は、表示装置104に目的地の「丁目番地号」の入力を指示する画面を表示する、または、目的地の入力を促す音声を合成してD/A変換部122を介して音声出力部125から出力する。
When the recognition
ここで、制御部201は、操作/入力部211から、発話スイッチ123aを介して音声入力許可の指示を受け付けるのを待つ。当該指示を受け付けると、制御部201は、入出力インタフェース装置105を制御して音声入力を受け付ける状態にし、音声入力部124からの入力を待つ。
Here, the
操作/入力部211は、音声入力部124およびA/D変換部121を介して音声の入力を受け付けると、受け付けた音声信号を音声認識部224に送信する(ステップ502)。
When the operation /
音声認識部224は、受け取った音声信号に音声認識処理を施し、認識辞書232を用いて、「丁目番地号」に関する候補データを、整合性の高いものから順に抽出し、候補データベース233に格納する。そして、認識結果確定部223に格納が完了したことを通知する(ステップ503)。
The
処理完了の通知を受け取った認識結果確定部223は、候補データベース233に格納された候補データ233aを、優先順位順に取り出し、地図データベース231から抽出したデータと比較照合を行い(ステップ504、505、507)、合致すれば、当該候補データを表示装置104または音声出力部125に出力し、承認を得る(ステップ505、506)。
Receiving the processing completion notification, the recognition
承認を得られた場合、認識結果確定部223は、当該候補データを結果として比較候補データベース233の確定部データ233cに加える。このとき、確定した構成要素が、住所データを構成する最後の構成要素の場合、すなわち、「丁目番地号」である場合は、確定部データ233cと処理終了を示すデータを経路探索部222および現在位置算出部231に通知する。その他の構成要素の場合、住所データの次のレベルの構成要素の入力を促す画面を表示するよう制御部201に通知する。
When the approval is obtained, the recognition
ここで、ステップ505で合致しなかった場合、および、ステップ506で、承認を得られなかった場合、認識結果確定部223は、次の優先順位の候補データ233aを抽出し、ステップ504の比較照合処理を繰り返す。
Here, in the case where they do not match in
そして、候補データ全てを比較照合したにも係わらず、合致するのもがない場合、または、承認を得られるものがない場合は、「音声認識失敗」を意味するデータを表示装置104または音声出力部125に表示、出力させ、処理を終了する。
If there is no match even though all candidate data have been compared and collated, or there is no data that can be approved, the data indicating “voice recognition failure” is displayed on the
なお、ここで、処理を終了させず、ステップ501に戻り、再度、「丁目番地号」の入力を促すよう構成してもよい。 Here, the processing may be terminated without returning to step 501 and prompting for the input of the “chome address” again.
以上、第一の実施形態のナビゲーション装置100は、音声で入力された住所データについて、音声認識処理の結果得られた複数の候補データを認識時の整合性の高いものから優先順位をつけて保持し、優先度がより高いものであって、地図データに合致するものを、最終的な結果としてその後の処理機能に出力するよう構成されている。このため、音声入力された住所データの処理結果は、必ず地図データに存在するものとなる。
As described above, the
従って、本実施形態のナビゲーション装置100は、音声入力された住所を誤認識して存在しない住所を認識結果として、その後の処理機能に出力することがなくなり、地図上に存在しない住所データによりその後の処理に不都合を生じさせることがなくなる。
Therefore, the
なお、第一の実施形態において、音声認識部224は、音声認識結果を、候補データベース233に、整合性の高いものから優先順位をつけて格納し、認識結果確定部223では、優先順位に従って合致の有無を判定したが、方法はこれに限られない。例えば、音声認識部224は、所定の整合性以上の結果を優先順位を付けずに候補データベース233に格納し、認識結果確定部223では、合致したものを操作者に提示し、承認を得たものを最終結果とするよう構成してもよい。
In the first embodiment, the
次に、本発明の第二の実施形態について説明する。 Next, a second embodiment of the present invention will be described.
本実施形態のナビゲーション装置100のハードウエア構成は、第一の実施形態と基本的に同様である。
The hardware configuration of the
図6に、本実施形態のナビゲーション装置100の機能構成図を示す。本図に示すように、本実施形態のナビゲーション装置100は、制御部301と、操作/入力部311と、表示/出力部312と、現在位置算出部321と、経路探索部322と、候補データ生成部323と、音声認識部324と、音声合成部325と、地図データベース331と、変換データベース332と、認識候補データベース333と、を備える。
FIG. 6 shows a functional configuration diagram of the
これらの機能部のうち、候補データ生成部323と、音声認識部324と、認識候補データベース333以外は、基本的に第一の実施形態の同じ名称の機能部と同様の機能を備える。また、これらの各機能部が、ROM102に格納されたプログラムをCPU101が実行することにより実現される点、および、地図データ331および認識辞書332が、記録媒体内に記録され、必要に応じて記録媒体ドライブ経由で読み出されるか、または、記録媒体が装填された際に、読み出され、RAM103に一時的に格納されるか、何れでもよい点も同様である。認識候補データベース333は、RAM103に格納される。
Among these function units, except for the candidate data generation unit 323, the speech recognition unit 324, and the recognition candidate database 333, basically the same functions as the function units having the same names in the first embodiment are provided. In addition, each of these functional units is realized by the
以下、候補データ生成部323と、音声認識部324と、変換データベース332、認識候補データベース333について説明する。 Hereinafter, the candidate data generation unit 323, the speech recognition unit 324, the conversion database 332, and the recognition candidate database 333 will be described.
候補データ生成部323は、地図データベース331から候補データを抽出する。具体的には、地図データベース331にアクセスし、後述する音声認識部324が保持する既に確定した構成要素からなる住所の、当該構成要素の次のレベルの構成要素を抽出する。そして、抽出したデータを、変換データベース332を用いて、その読み方を示す表音文字列データに変換し、当該表音文字列データを候補データとして認識候補データベース333に登録する。 The candidate data generation unit 323 extracts candidate data from the map database 331. Specifically, the map database 331 is accessed, and a component at the next level of the component is extracted from an address made up of components that have already been determined and held by the voice recognition unit 324 described later. Then, the extracted data is converted into phonetic character string data indicating how to read using the conversion database 332, and the phonetic character string data is registered in the recognition candidate database 333 as candidate data.
なお、構成要素の次のレベルの構成要素とは、第一の実施形態と同様に、例えば、住所データを、「県名」、「市区町村名」、「大字名」、丁目番地号、の構成要素からなるものとした場合、「県名」まで確定していた場合は、「市区町村名」、「市区町村名」まで確定していれば、「大字名」、「大字名」まで確定していれば、「丁目番地号」のことである。 In addition, the component of the next level of the component is the same as in the first embodiment, for example, the address data includes “prefecture name”, “city name”, “large name”, chome address, If it has been confirmed up to “prefecture name”, “city name”, “city name”, “large name”, “large name” ”Is the“ chome street address ”.
ここで、変換データベース332について説明する。変換データベース332には、地図データベース331に格納されている住所データを、その読み方を示す表音文字列データに変換するための対応表が格納されている。 Here, the conversion database 332 will be described. The conversion database 332 stores a correspondence table for converting the address data stored in the map database 331 into phonetic character string data indicating how to read the address data.
そして、認識候補データベース333は、上記のように、候補データ生成部323において生成された表音文字列からなる候補データが格納される。 And the recognition candidate database 333 stores the candidate data which consists of the phonetic character string produced | generated in the candidate data production | generation part 323 as mentioned above.
音声認識部334は、音声入力部124から音声で入力された住所名に音声認識処理を施し、その結果と認識候補データベース333に格納されている候補データとを比較照合し、最も整合性の高いものを結果として出力する。また、各構成要素単位で住所データを確定する場合、既に確定した構成要素を保持する。
The voice recognition unit 334 performs voice recognition processing on the address name input by voice from the
ここで、最も整合性の高いものとは、本実施形態では、表音文字列の並び順も含め、最も合致する表音文字の多いものとする。これは、適宜定めることができる。 Here, in the present embodiment, the phrase having the highest consistency is assumed to have the most consistent phonetic characters including the arrangement order of the phonetic character strings. This can be determined as appropriate.
また、本実施形態では、音声認識部334において、表音文字列どうしで比較照合しているが、これに限られない。例えば、変換データベース332に、地図データベースに格納される住所データと同等のフォーマットを有するデータから所定の音声パターンに変換するデータを格納しておく。候補データ生成部323では、変換データベース332を用い、地図データベース331内の住所データの音声パターンを生成する。そして、音声認識部334では、入力された音声に音声認識処理を施し、認識候補データベース333に登録された音声パターンと同等の音声パターンを生成し、両音声パターンを比較照合するよう構成してもよい。 In the present embodiment, the voice recognition unit 334 compares and collates phonetic character strings, but is not limited thereto. For example, the conversion database 332 stores data for converting data having a format equivalent to the address data stored in the map database into a predetermined voice pattern. The candidate data generation unit 323 generates a voice pattern of the address data in the map database 331 using the conversion database 332. The voice recognition unit 334 may perform voice recognition processing on the input voice, generate a voice pattern equivalent to the voice pattern registered in the recognition candidate database 333, and compare and collate both voice patterns. Good.
また、結果として出力するものは、最も整合性の高いものとしているが、これに限られない。例えば、所定の整合性以上のものを結果として出力し、操作者から承認を得たものを最終結果として選択するよう構成してもよい。 Moreover, what is output as a result is assumed to have the highest consistency, but is not limited thereto. For example, it is possible to output a result having a predetermined consistency or more as a result, and select a result obtained from the operator as a final result.
次に、音声により入力された目的地の住所を用い、現在地から当該目的地までの経路探索処理を行う場合の、本実施形態のナビゲーション装置100における処理手順を図を用いて説明する。
Next, a processing procedure in the
なお、入力装置123などを介して、経路探索の処理の指示を受け付け、目的地および現在地を確定し、経路探索を行う処理全体の流れは、第一の実施形態と同様であるため、ここでは、説明しない。ここでは、第一の実施形態の図4に示す処理フローの中で、住所データの各構成要素を確定する処理を、「丁目番地号」を確定する場合を例にあげ、説明する。
In addition, since the flow of the whole process which receives the instruction | indication of a route search process via the
図7は、音声認識部324および候補データ生成部323において、入力された音声から「丁目番地号」を確定する場合の処理フローである。住所データの他の構成要素を確定する場合も、基本的に同様の処理が行われる。 FIG. 7 is a processing flow when the speech recognition unit 324 and the candidate data generation unit 323 determine the “chome address” from the input speech. The same processing is basically performed when determining other components of the address data.
音声認識部324において「大字名」まで確定すると、制御部301は、「丁目番地号」の入力を促す表示あるいは出力を行う(ステップ701)。具体的には、表示/出力部312は、表示装置104に目的地の「丁目番地号」の入力を指示する画面を表示する、または、目的地の入力を促す音声を合成してD/A変換部122を介して音声出力部125から出力する。
When the voice recognition unit 324 confirms the “large name”, the control unit 301 performs display or output for prompting the input of the “chome address” (step 701). Specifically, the display / output unit 312 displays a screen for instructing the input of the “chome address” of the destination on the
ここで、制御部301は、操作/入力部311から、発話スイッチ123aを介して音声入力許可の指示を受け付けるのを待つととも、候補データ生成部323に「丁目番地号」の候補データの生成を指示する。
Here, the control unit 301 waits to receive a voice input permission instruction from the operation / input unit 311 via the
候補データ生成の支持を受け付けると、候補データ生成部323は、地図データベース331にアクセスし、地図データベース331から音声認識部324において既に確定した大字の「丁目番地号」データを全て抽出する(ステップ702)。そして抽出した「丁目番地号」データを、変換データベース332を用いて候補データに変換し(ステップ703)、認識候補データベース333に格納する(ステップ704)。 Upon receiving support for candidate data generation, the candidate data generation unit 323 accesses the map database 331 and extracts all large-size “chome street address” data already determined by the voice recognition unit 324 from the map database 331 (step 702). ). The extracted “chome address” data is converted into candidate data using the conversion database 332 (step 703) and stored in the recognition candidate database 333 (step 704).
一方、制御部301は、発話スイッチ123aを介して音声入力受け付け許可の指示を受け付けると、入出力インタフェース装置105を制御して音声入力を受け付ける状態にし、音声入力部124からの入力を待つ。
On the other hand, when the control unit 301 receives a voice input acceptance permission instruction via the
操作/入力部311は、音声入力部124およびA/D変換部121を介して音声の入力を受け付けると、受け付けた音声信号を音声認識部324に送信する。
When the operation / input unit 311 receives a voice input via the
音声認識部324は、受け取った音声信号に音声認識処理を施し(ステップ706)、その結果と認識候補データベース333に格納されている候補データとを比較照合し、最も整合性の高いものを認識結果として、表示装置104または音声出力部125に出力し(ステップ707)、承認の入力を待つ(ステップ708)。
The speech recognition unit 324 performs speech recognition processing on the received speech signal (step 706), compares the result with the candidate data stored in the recognition candidate database 333, and recognizes the result with the highest consistency as the recognition result. Is output to the
承認の指示を受け付けると、音声認識処理部324は、自身が保有する既に確定した構成要素データに追加する。 When the approval instruction is received, the voice recognition processing unit 324 adds to the already determined component data held by itself.
このとき、確定した構成要素が、住所データを構成する最後の構成要素の場合、すなわち、「丁目番地号」である場合は、確定した各構成要素データからなる住所データと処理終了を示すデータとを経路探索部222および現在位置算出部231に通知する。その他の構成要素の場合、住所データの次のレベルの構成要素の入力を促す画面を表示するよう制御部301に通知するとともに、既に確定した構成要素を候補データ生成部323に通知する。
At this time, if the confirmed component is the last component constituting the address data, that is, “chome address”, the address data composed of each confirmed component data and the data indicating the end of processing, To the
一方、ステップ708において、承認を得られなかった場合、音声認識部324は、「音声認識失敗」を意味するデータを表示装置104または音声出力部125に表示、出力させ、処理を終了する。なお、ここで、処理を終了させず、再度、ステップ701に戻り、「丁目番地号」の入力を促すよう構成してもよい。また、ステップ706に戻り、次に整合性の高いものを認識結果として採用し、ステップ707以降の処理を行うよう構成してもよい。
On the other hand, if the approval is not obtained in
なお、本実施形態では、住所の入力を各構成要素ごとに行い、承認を得る構成としたが、これに限られない。「県名」と「市区町村名」となど、複数の連続する構成要素を組み合わせてその単位ごとに音声認識処理を行ってもよい。この場合、候補データは、その単位ごとに生成され、保持される。 In the present embodiment, the address is input for each component and the approval is obtained. However, the present invention is not limited to this. A plurality of continuous components such as “prefecture name” and “city name” may be combined to perform voice recognition processing for each unit. In this case, candidate data is generated and held for each unit.
また、丁目番地号データのように数字により限定される構成要素の場合、地図データベース331内に存在する該当する「大字名」の「丁目番地号」のデータを全て抽出し、候補データを生成するのではなく、丁目、番地、号、それぞれの最大値を抽出し、当該最大値以下の、各、丁目、番地、号を認識可能な候補データを準備するよう構成してもよい。 In addition, in the case of a component limited by numbers such as chome address data, all the data of “chome address” of the corresponding “large name” existing in the map database 331 is extracted, and candidate data is generated. Instead, the maximum value of each chome, address, and number may be extracted, and candidate data that can recognize each chome, address, and number below the maximum value may be prepared.
以上説明したように、第二の実施形態のナビゲーション装置100は、予め地図データから、音声認識の候補データを抽出しておき、その中で認識結果を確定する。音声認識において、候補データが制限されるため、認識率が向上する。さらに、地図データに存在する範囲のデータのみが候補データとなっているため、認識結果として出力される住所データは、必ず地図データに存在するものとなる。従って、地図データに存在しない結果をその後の処理機能に受け渡し、誤動作を誘発することがなくなる。
As described above, the
なお、上記の第一の実施形態および第二の実施形態において、車載用ナビゲーション装置を例にあげて説明したが、本発明の適用対象のナビゲーション装置は車載用には限られない。ハンドキャリーのナビゲーション装置などにも適用可能である。また、ナビゲーション装置に限らず、地図表示装置など、地名を特定する際に住所が入力される装置一般に適用可能である。 In addition, in said 1st embodiment and 2nd embodiment, although demonstrated taking the vehicle-mounted navigation apparatus as an example, the navigation apparatus of the application object of this invention is not restricted to vehicle-mounted. It can also be applied to a hand carry navigation device. Further, the present invention is not limited to a navigation device, and can be applied to a general device that inputs an address when specifying a place name, such as a map display device.
100・・・ナビゲーション装置、101・・・CPU、102・・・ROM、103・・・RAM、104・・・表示装置、105・・・入出力インタフェース装置、106・・・記憶媒体ドライブ、110・・・バス、111・・・GPS受信機、112・・・方位センサ、113・・・車速センサ、121・・・A/D変換部、122・・・D/A変換部、123・・・入力装置、124・・・音声入力部、125・・・音声出力部、201・・・制御部、211・・・操作/入力部、212・・・表示/出力部、221・・・現在位置算出部、222・・・経路探索部、223・・・認識結果確定部、224・・・音声認識部、225・・・音声合成部、231・・・地図データベース、232・・・認識辞書、233・・・比較候補データベース
DESCRIPTION OF
Claims (8)
操作者から入力される音声を受け付ける音声入力受付ステップと、
前記音声入力受付ステップで受け付けた音声に音声認識処理を施し、1以上の音声認識結果を整合性の高いものから順に候補データとして候補データベースに格納する候補データ生成ステップと、
前記候補データベースに格納された候補データを、前記整合性の高いものから順に抽出し、当該抽出した候補データに合致する前記住所データが前記地図データ内にあるか否かを判断し、合致するものがある場合、当該抽出した候補データを最終認識結果として出力し、合致するものがない場合、前記候補データベースに格納された全ての候補データを抽出するまで、次に整合性の高いものを抽出して前記合致を判断する処理を繰り返し、前記候補データ全てが、前記地図データ内の前記住所データに合致しない場合は、合致なしを示すデータを最終認識結果の代わりに出力する認識結果確定ステップと、
を備えることを特徴とする音声認識方法。 A speech recognition method for recognizing address data input by voice in an apparatus comprising map data storage means for storing map data including address data for identifying a point on a map,
A voice input receiving step for receiving voice input from an operator;
A candidate data generation step of performing speech recognition processing on the speech received in the speech input reception step, and storing one or more speech recognition results in a candidate database in order from a highly consistent one;
Candidate data stored in the candidate database is extracted in descending order of the consistency, and it is determined whether the address data matching the extracted candidate data is in the map data. If there is, the extracted candidate data is output as the final recognition result, and if there is no match, the next most consistent data is extracted until all candidate data stored in the candidate database are extracted. Recognizing the match, and if all of the candidate data does not match the address data in the map data, a recognition result confirmation step of outputting data indicating no match instead of the final recognition result;
A speech recognition method comprising:
操作者から入力される音声を受け付ける音声入力受付ステップと、
前記音声入力受付手段で受け付けた音声に音声認識処理を施し、1以上の音声認識結果を整合性の高いものから順に候補データとして候補データベースに格納する候補データ生成ステップと、
前記候補データベースに格納された候補データを、前記整合性の高いものから順に抽出し、当該抽出した候補データに合致する前記丁目番地号データが、前記既に確定している県市大字名データで定まる住所内の丁目番地号データにあるか否かを判断し、合致するものがある場合、当該抽出した候補データを最終認識結果として出力し、合致するものがない場合、前記候補データベースに格納された全ての候補データを抽出するまで、次に整合性の高いものを抽出して前記合致を判断する処理を繰り返し、前記候補データ全てが、前記既に確定している県市大字名データで定まる住所内の丁目番地号データに合致しない場合は、合致なしを示すデータを最終認識結果の代わりに出力する認識結果確定ステップと、
を備えることを特徴とする音声認識方法。 Mounted in an apparatus comprising map data storage means for storing map data including address data consisting of prefecture city large name data and chome street address data for specifying a point on the map, and among the address data, the prefecture city A speech recognition method for recognizing the chome address data of address data for which capitalized name data is confirmed,
A voice input receiving step for receiving voice input from an operator;
A candidate data generation step of performing voice recognition processing on the voice received by the voice input receiving means, and storing one or more voice recognition results in a candidate database in order from a highly consistent one;
Candidate data stored in the candidate database is extracted in order from the one with the highest consistency, and the chome street address data matching the extracted candidate data is determined by the already established prefecture city large name data. It is determined whether or not the data is in the street address data in the address. If there is a match, the extracted candidate data is output as a final recognition result. If there is no match, the candidate database is stored in the candidate database. Until all candidate data is extracted, the process of extracting the next most consistent data and determining the match is repeated, and all the candidate data are within the address determined by the already established prefecture-city large name data. If the data does not match the chome street address data, a recognition result confirmation step for outputting data indicating no match instead of the final recognition result,
A speech recognition method comprising:
操作者から入力される音声を受け付ける音声入力受付ステップと、
前記音声入力受付ステップで受け付けた音声に音声認識処理を施す音声処理ステップと、
前記地図データから特定の範囲の住所データを抽出し、当該抽出した住所データが登録された認識候補データベースと、前記音声認識処理ステップにおいて得られた音声認識処理結果とを比較し、最も整合性の高いものを、前記候補データベースから最終認識結果として出力する認識結果確定ステップと、
を備えることを特徴とする音声認識方法。 A speech recognition method for recognizing address data input by voice in an apparatus comprising map data storage means for storing map data including address data for specifying a point on a map,
A voice input receiving step for receiving voice input from an operator;
A voice processing step for performing voice recognition processing on the voice received in the voice input receiving step;
The address data within a specific range is extracted from the map data, the recognition candidate database in which the extracted address data is registered is compared with the speech recognition processing result obtained in the speech recognition processing step, and the most consistent A recognition result determination step for outputting a higher one as a final recognition result from the candidate database;
A speech recognition method comprising:
操作者から入力される音声を受け付ける音声入力受付ステップと、
前記音声入力受付手段で受け付けた音声に音声認識処理を施す音声処理ステップと、
前記地図データから前記既に確定された県市大字名データによって定まる住所内の丁目番地号データを抽出し、当該抽出した丁目番地号データが登録された認識候補データベースと、前記音声処理ステップにおいて得られた音声認識処理結果とを比較し、最も整合性の高いものを、前記候補データベースから最終認識結果として出力する認識結果確定ステップと、
を備えることを特徴とする音声認識方法。 Mounted in an apparatus comprising map data storage means for storing map data including address data consisting of prefecture city large name data and chome street address data for specifying a point on the map, and among the address data, A speech recognition method for recognizing the street address data of address data for which capitalized name data is fixed,
A voice input receiving step for receiving voice input from an operator;
A voice processing step of performing voice recognition processing on the voice received by the voice input receiving means;
Extracting the street address data in the address determined by the already determined prefecture city large name data from the map data, the recognition candidate database in which the extracted street address data is registered, and obtained in the voice processing step. A speech recognition processing result, and a recognition result confirmation step for outputting the highest consistency as a final recognition result from the candidate database;
A speech recognition method comprising:
操作者から入力される音声を受け付ける音声入力受付手段と、
前記音声入力受付手段で受け付けた音声に音声認識処理を施し、1以上の音声認識結果を整合性の高いものから順に候補データとして候補データベースに格納する候補データ生成手段と、
前記候補データベースに格納された候補データを、前記整合性の高いものから順に抽出し、当該抽出した候補データに合致する前記住所データが前記地図データ内にあるか否かを判断し、合致するものがある場合、当該抽出した候補データを最終認識結果として出力し、合致するものがない場合、前記候補データベースに格納された全ての候補データを抽出するまで、次に整合性の高いものを抽出して前記合致を判断する処理を繰り返し、前記候補データ全てが、前記地図データ内の前記住所データに合致しない場合は、合致なしを示すデータを最終認識結果の代わりに出力する認識結果確定手段と、
を備えることを特徴とする音声認識処理装置。 A speech recognition processing device mounted on an apparatus comprising map data storage means for storing map data including address data for specifying a point on a map,
Voice input receiving means for receiving voice input from an operator;
Candidate data generating means for performing voice recognition processing on the voice received by the voice input receiving means, and storing one or more voice recognition results in a candidate database as candidate data in descending order of consistency;
Candidate data stored in the candidate database is extracted in descending order of the consistency, and it is determined whether the address data matching the extracted candidate data is in the map data. If there is, the extracted candidate data is output as the final recognition result, and if there is no match, the next most consistent data is extracted until all candidate data stored in the candidate database are extracted. Recognizing the match, and if all of the candidate data does not match the address data in the map data, a recognition result determination unit that outputs data indicating no match instead of the final recognition result;
A speech recognition processing apparatus comprising:
操作者から入力される音声を受け付ける音声入力受付手段と、
前記音声入力受付手段で受け付けた音声に音声認識処理を施し、1以上の音声認識結果を整合性の高いものから順に候補データとして候補データベースに格納する候補データ生成手段と、
前記候補データベースに格納された候補データを、前記整合性の高いものから順に抽出し、当該抽出した候補データに合致する前記丁目番地号データが、前記既に確定している県市大字名データで定まる住所内の丁目番地号データにあるか否かを判断し、合致するものがある場合、当該抽出した候補データを最終認識結果として出力し、合致するものがない場合、前記候補データベースに格納された全ての候補データを抽出するまで、次に整合性の高いものを抽出して前記合致を判断する処理を繰り返し、前記候補データ全てが、前記既に確定している県市大字名データで定まる住所内の丁目番地号データに合致しない場合は、合致なしを示すデータを最終認識結果の代わりに出力する認識結果確定手段と、
を備えることを特徴とする音声認識処理装置。 Mounted in a navigation device comprising map data storage means for storing map data including address data consisting of prefectural city capital name data and chome street address data for identifying points on the map, and among the address data, the prefecture A speech recognition processing device for recognizing the street address data of the address data for which the city large name data is fixed,
Voice input receiving means for receiving voice input from an operator;
Candidate data generating means for performing voice recognition processing on the voice received by the voice input receiving means, and storing one or more voice recognition results in a candidate database as candidate data in descending order of consistency;
Candidate data stored in the candidate database is extracted in order from the one with the highest consistency, and the chome street address data matching the extracted candidate data is determined by the already established prefecture city large name data. It is determined whether or not the data is in the street address data in the address. If there is a match, the extracted candidate data is output as a final recognition result. If there is no match, the candidate database is stored in the candidate database. Until all candidate data is extracted, the process of extracting the next most consistent data and determining the match is repeated, and all the candidate data are within the address determined by the already established prefecture-city large name data. If the data does not match the street address data, the recognition result confirmation means for outputting data indicating no match instead of the final recognition result,
A speech recognition processing apparatus comprising:
操作者から入力される音声を受け付ける音声入力受付手段と、
前記音声入力受付手段で受け付けた音声に音声認識処理を施す音声処理手段と、
前記地図データから特定の範囲の住所データを抽出し、当該抽出した住所データが登録された認識候補データベースを生成する候補データベース生成手段と、
前記音声処理手段において得られた結果と前記候補データベースとを比較し、最も整合性の高いものを、前記候補データベースから最終認識結果として抽出して出力する認識結果確定手段と、
を備えることを特徴とする音声認識処理装置。 A speech recognition processing device mounted on a navigation device comprising map data storage means for storing map data including address data for specifying a point on a map,
Voice input receiving means for receiving voice input from an operator;
Voice processing means for performing voice recognition processing on the voice received by the voice input receiving means;
Candidate database generating means for extracting address data in a specific range from the map data and generating a recognition candidate database in which the extracted address data is registered;
A recognition result determination unit that compares the result obtained in the voice processing unit with the candidate database, extracts the highest consistency as a final recognition result from the candidate database, and outputs the final recognition result;
A speech recognition processing apparatus comprising:
操作者から入力される音声を受け付ける音声入力受付手段と、
前記音声入力受付手段で受け付けた音声に音声認識処理を施す音声処理手段と、
前記地図データから前記既に確定された県市大字名データによって定まる住所内の丁目番地号データを抽出し、当該抽出した丁目番地号データが登録された認識候補データベースを生成する候補データベース生成手段と、
前記音声処理手段において得られた結果と前記候補データベースとを比較し、最も整合性の高いものを、前記候補データベースから最終認識結果として抽出して出力する認識結果確定手段と、
を備えることを特徴とする音声認識処理装置。
It is mounted on a navigation device that includes map data storage means for storing map data including address data consisting of prefecture city large name data and chome street address data for specifying a point on the map, and among the address data, the prefecture A speech recognition processing device for recognizing the street address data of the address data for which the city large name data is fixed,
Voice input receiving means for receiving voice input from an operator;
Voice processing means for performing voice recognition processing on the voice received by the voice input receiving means;
Candidate database generating means for extracting chome street address data in an address determined by the already determined prefecture city large name data from the map data, and generating a recognition candidate database in which the extracted chome street address data is registered;
A recognition result determination unit that compares the result obtained in the voice processing unit with the candidate database, extracts the highest consistency as a final recognition result from the candidate database, and outputs the final recognition result;
A speech recognition processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003348143A JP2005114964A (en) | 2003-10-07 | 2003-10-07 | Method and processor for speech recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003348143A JP2005114964A (en) | 2003-10-07 | 2003-10-07 | Method and processor for speech recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005114964A true JP2005114964A (en) | 2005-04-28 |
Family
ID=34540426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003348143A Pending JP2005114964A (en) | 2003-10-07 | 2003-10-07 | Method and processor for speech recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005114964A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007024602A (en) * | 2005-07-13 | 2007-02-01 | Xanavi Informatics Corp | Navigation device |
JP2007201658A (en) * | 2006-01-25 | 2007-08-09 | Megachips System Solutions Inc | Intercom system |
WO2009109170A1 (en) * | 2008-03-03 | 2009-09-11 | Navigon Ag | Method for operating a navigation system |
JP2010021638A (en) * | 2008-07-08 | 2010-01-28 | Denso It Laboratory Inc | Device and method for adding tag information, and computer program |
JP2012093508A (en) * | 2010-10-26 | 2012-05-17 | Nec Corp | Voice recognition support system, voice recognition support device, user terminal, method and program |
JP2016164791A (en) * | 2016-04-04 | 2016-09-08 | クラリオン株式会社 | Server device and search method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62229197A (en) * | 1986-03-29 | 1987-10-07 | 日本電気株式会社 | Numeral voice recognition equipment |
JPH0916191A (en) * | 1995-06-29 | 1997-01-17 | Asahi Chem Ind Co Ltd | Device and method for speech recognition for navigator |
JPH1039892A (en) * | 1996-07-24 | 1998-02-13 | Denso Corp | Method and device for voice recognition |
JPH11337357A (en) * | 1998-05-25 | 1999-12-10 | Mitsubishi Electric Corp | Navigation apparatus |
JP2000029491A (en) * | 1998-07-10 | 2000-01-28 | Mitsubishi Electric Corp | Voice recognition apparatus |
JP2001215994A (en) * | 2000-01-31 | 2001-08-10 | Matsushita Electric Ind Co Ltd | Voice recognition address retrieving device and on- vehicle navigation system |
JP2002073074A (en) * | 2000-08-31 | 2002-03-12 | Pioneer Electronic Corp | Method and device for recognizing numerical string in voice |
-
2003
- 2003-10-07 JP JP2003348143A patent/JP2005114964A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62229197A (en) * | 1986-03-29 | 1987-10-07 | 日本電気株式会社 | Numeral voice recognition equipment |
JPH0916191A (en) * | 1995-06-29 | 1997-01-17 | Asahi Chem Ind Co Ltd | Device and method for speech recognition for navigator |
JPH1039892A (en) * | 1996-07-24 | 1998-02-13 | Denso Corp | Method and device for voice recognition |
JPH11337357A (en) * | 1998-05-25 | 1999-12-10 | Mitsubishi Electric Corp | Navigation apparatus |
JP2000029491A (en) * | 1998-07-10 | 2000-01-28 | Mitsubishi Electric Corp | Voice recognition apparatus |
JP2001215994A (en) * | 2000-01-31 | 2001-08-10 | Matsushita Electric Ind Co Ltd | Voice recognition address retrieving device and on- vehicle navigation system |
JP2002073074A (en) * | 2000-08-31 | 2002-03-12 | Pioneer Electronic Corp | Method and device for recognizing numerical string in voice |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007024602A (en) * | 2005-07-13 | 2007-02-01 | Xanavi Informatics Corp | Navigation device |
JP4646718B2 (en) * | 2005-07-13 | 2011-03-09 | クラリオン株式会社 | Navigation device |
JP2007201658A (en) * | 2006-01-25 | 2007-08-09 | Megachips System Solutions Inc | Intercom system |
WO2009109170A1 (en) * | 2008-03-03 | 2009-09-11 | Navigon Ag | Method for operating a navigation system |
JP2010021638A (en) * | 2008-07-08 | 2010-01-28 | Denso It Laboratory Inc | Device and method for adding tag information, and computer program |
JP2012093508A (en) * | 2010-10-26 | 2012-05-17 | Nec Corp | Voice recognition support system, voice recognition support device, user terminal, method and program |
JP2016164791A (en) * | 2016-04-04 | 2016-09-08 | クラリオン株式会社 | Server device and search method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4270611B2 (en) | Input system | |
US8694323B2 (en) | In-vehicle apparatus | |
JP2009169139A (en) | Voice recognizer | |
JP2001013991A (en) | Voice recognition supporting method and voice recognition system | |
WO2013069060A1 (en) | Navigation device and method | |
JP4930486B2 (en) | Voice recognition system and navigation device | |
JP2004053978A (en) | Device and method for producing speech and navigation device | |
JP4914632B2 (en) | Navigation device | |
JP2005114964A (en) | Method and processor for speech recognition | |
JP4262837B2 (en) | Navigation method using voice recognition function | |
JP4639990B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
US20040015354A1 (en) | Voice recognition system allowing different number-reading manners | |
JP2000122685A (en) | Navigation system | |
JP3700533B2 (en) | Speech recognition apparatus and processing system | |
JP2001083983A (en) | Speech recognition device, recording medium having data for speech recognition recorded therein and speech recognition navigation device | |
JP2011180416A (en) | Voice synthesis device, voice synthesis method and car navigation system | |
JP2008310344A (en) | Presentation device and presentation method | |
JPH11231892A (en) | Speech recognition device | |
JP2007183516A (en) | Voice interactive apparatus and speech recognition method | |
JPH0916191A (en) | Device and method for speech recognition for navigator | |
JP4550207B2 (en) | Voice recognition device and voice recognition navigation device | |
JP2003005781A (en) | Controller with voice recognition function and program | |
JP3911835B2 (en) | Voice recognition device and navigation system | |
JP4645708B2 (en) | Code recognition device and route search device | |
JP2007280104A (en) | Information processor, information processing method, information processing program, and computer readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100413 |