JP2007271901A - Navigation device and its address input method - Google Patents

Navigation device and its address input method Download PDF

Info

Publication number
JP2007271901A
JP2007271901A JP2006097280A JP2006097280A JP2007271901A JP 2007271901 A JP2007271901 A JP 2007271901A JP 2006097280 A JP2006097280 A JP 2006097280A JP 2006097280 A JP2006097280 A JP 2006097280A JP 2007271901 A JP2007271901 A JP 2007271901A
Authority
JP
Japan
Prior art keywords
name
street
voice
character
voice input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006097280A
Other languages
Japanese (ja)
Inventor
Zenichi Hirayama
善一 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Priority to JP2006097280A priority Critical patent/JP2007271901A/en
Publication of JP2007271901A publication Critical patent/JP2007271901A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device which is easy for a user to perform voice input of an address, and improves precision of a recognition result. <P>SOLUTION: The navigation device includes: a means for receiving voice input of the starting one character of a street name, a means of recognizing the received speech; a means for discriminating street names starting with the recognized character as candidates; a means for receiving speech input of the whole street name; and a means for recognizing the received speech by using the candidates. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ナビゲーション装置及びその住所入力方法に関する。   The present invention relates to a navigation device and an address input method thereof.

住所(Address)が、州名、都市名、ストリート名で構成されることから、この順に発話させ、音声認識し、地点を特定するナビゲーション装置がある(特許文献1参照)。一方で、ストリートが膨大にある場合を考慮して、ストリート名に関しては、最初に2文字目までを発話させることが行われている。具体的には、図8に示すように、ストリート名の2文字までを発話させ、認識する。そして、認識した2文字の候補を表示する。その中からユーザに音声により選択させ、選択された2文字で始まるストリートを候補とする。その後、ストリート名の全てを発話させ、ストリート名の候補の中から、最も合致するストリート名を抽出し認識結果とする。   Since an address is composed of a state name, a city name, and a street name, there is a navigation device that utters in this order, recognizes a voice, and identifies a point (see Patent Document 1). On the other hand, in consideration of the case where there are a large number of streets, up to the second character is first spoken regarding the street name. Specifically, as shown in FIG. 8, up to two characters of the street name are uttered and recognized. Then, the recognized two-character candidates are displayed. The user is made to select by voice, and a street starting with the selected two characters is set as a candidate. After that, all the street names are uttered, and the best matching street name is extracted from the street name candidates and used as a recognition result.

特開2003−140682号公報JP 2003-140682 A

しかし、ストリート名によっては、どの文字が最初の2文字目なのか分かりづらい場合がある。例えば、「SOUTH ABC STREET」を、2文字目まで発話する場合、正しくは「S、O」である。しかし、「S ABC ST」と記載される場合が多いことから、ユーザによっては、「S、A」と発話してしまう。これでは、適切な候補を定めることができず、音声認識が正確に行われない。   However, depending on the street name, it may be difficult to determine which character is the first character. For example, when “SOUTH ABC STREET” is uttered up to the second character, “S, O” is correct. However, since “S ABC ST” is often described, some users utter “S, A”. In this case, an appropriate candidate cannot be determined, and speech recognition is not accurately performed.

本発明は、上記課題を解決すべくなされたものであり、住所の音声入力において、ユーザにとって使い勝手がよく、かつ認識結果の精度を向上させることを目的とする。   SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object thereof is to improve the accuracy of a recognition result that is convenient for a user in voice input of an address.

上記課題を解決すべく、本発明では、まず、ストリート名の最初の1文字を受け付ける。   In order to solve the above problem, the present invention first accepts the first character of the street name.

例えば、本発明の第1の態様は、ナビゲーション装置であって、ストリート名の最初の1文字の音声入力を受け付ける手段と、受け付けた音声を認識する手段と、認識した文字で始まるストリート名を候補とする手段と、ストリート名の全ての音声入力を受け付ける手段と、受け付けた音声を前記候補を用いて認識する手段とを備えている。   For example, the first aspect of the present invention is a navigation device that accepts speech input of the first character of a street name, means for recognizing the received speech, and candidates for street names starting with the recognized character. Means for accepting all speech inputs of street names, and means for recognizing the accepted speech using the candidates.

前記ナビゲーション装置は、ストリート名を記憶する記憶手段と、ストリート名の最初の1文字の音声入力を受け付ける手段と、受け付けた音声を認識して最初の1文字の候補を求める1文字目候補算出手段と、前記記憶手段に記憶されているストリート名の中から、前記1文字目候補算出手段で求めた1文字目の候補で始まるストリート名を抽出するストリート名抽出手段と、ストリート名(フルネーム)の音声入力を受け付けるストリート名受付手段と、前記ストリート名抽出手段で抽出したストリート名の中から、前記ストリート名受付手段で受け付けた音声に最も合致するストリート名を抽出する手段とを備えていてもよい。   The navigation device includes a storage unit that stores a street name, a unit that receives voice input of the first character of the street name, and a first character candidate calculation unit that recognizes the received voice and obtains a candidate for the first character. Street name extraction means for extracting a street name starting with the first character candidate obtained by the first character candidate calculation means from among the street names stored in the storage means, and a street name (full name) Street name accepting means for accepting voice input and means for extracting a street name that most closely matches the voice accepted by the street name accepting means from the street names extracted by the street name extracting means .

また、本発明の第2は、ナビゲーション装置であって、州名及び都市名ごとのストリート名を記憶する記憶手段と、州名の音声入力を受け付ける手段と、
受け付けた音声を認識して州名を特定する州名特定手段と、都市名の音声入力を受け付ける手段と、受け付けた音声を認識して都市名を特定する都市名特定手段と、ストリート名の最初の1文字の音声入力を受け付ける手段と、受け付けた音声を認識してアルファベットの文字ごとの信頼度を求める文字信頼度算出手段と、前記信頼度が予め定めた値以上の文字を抽出する文字抽出手段と、前記都市名特定手段で特定した都市名に属するストリート名の中から、前記文字抽出手段で抽出した文字で始まるストリート名を抽出するストリート名抽出手段と、ストリート名の音声入力を受け付けるストリート名受付手段と、前記ストリート名抽出手段で抽出したストリート名の中から、前記ストリート名受付手段で受け付けた音声と最も合致するストリート名を抽出して出力する手段とを備えている。
Further, the second of the present invention is a navigation device, a storage means for storing a street name for each state name and city name, a means for receiving voice input of the state name,
A state name identifying means for recognizing received speech to identify a state name, a means for receiving speech input of a city name, a city name identifying means for recognizing received speech and identifying a city name, and a street name first A means for accepting a voice input of one character, a character reliability calculating means for recognizing the accepted voice to obtain a reliability for each letter of the alphabet, and a character extraction for extracting a character having a reliability equal to or higher than a predetermined value Means, street name extracting means for extracting a street name beginning with the character extracted by the character extracting means from street names belonging to the city name specified by the city name specifying means, and a street that accepts speech input of the street name Of the street names extracted by the name accepting means and the street name extracting means, the voice is the best match with the speech accepted by the street name accepting means. And means for extracting and outputting treat name.

以下に、本発明の一実施形態について、図面を参照して説明する。   An embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態が適用された車載用ナビゲーション装置100の概略構成図である。図示するように、車載用ナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4と、入力装置5と、車輪速センサ6と、ジャイロセンサ8と、GPS(Global Positioning System)受信装置9と、を備えている。   FIG. 1 is a schematic configuration diagram of an in-vehicle navigation device 100 to which an embodiment of the present invention is applied. As shown in the figure, the in-vehicle navigation device 100 includes an arithmetic processing unit 1, a display 2, a storage device 3, a voice input / output device 4, an input device 5, a wheel speed sensor 6, a gyro sensor 8, And a GPS (Global Positioning System) receiver 9.

演算処理部1は、様々な処理を行う中心的ユニットである。例えば各種センサ6〜8やGPS受信装置9から出力される情報を基にして現在位置を検出する。また、音声入出力装置4から入力された音声を認識し、認識した語句から、ユーザの入力内容を特定する。   The arithmetic processing unit 1 is a central unit that performs various processes. For example, the current position is detected based on information output from the various sensors 6 to 8 and the GPS receiver 9. In addition, the voice input from the voice input / output device 4 is recognized, and the input content of the user is specified from the recognized word / phrase.

ディスプレイ2は、演算処理部1で生成されたグラフィックス情報を表示するユニットである。   The display 2 is a unit that displays graphics information generated by the arithmetic processing unit 1.

記憶装置3は、CD-ROMやDVD-ROMやHDDやICカードといった記憶媒体で構成されている。この記憶媒体には、地図データが記憶されている。また、記憶装置3には、住所データベースが記憶されている。図2は、住所データベース300の構成例を示す。図示するように、住所データベース300には、州名301、都市名302、ストリート名303とが階層構造で記憶されている。   The storage device 3 includes a storage medium such as a CD-ROM, DVD-ROM, HDD, or IC card. This storage medium stores map data. The storage device 3 stores an address database. FIG. 2 shows a configuration example of the address database 300. As shown in the figure, the address database 300 stores a state name 301, a city name 302, and a street name 303 in a hierarchical structure.

図1に戻って説明する。   Returning to FIG.

音声入出力装置4には、マイクロホンを備え、ユーザが発話した音声を取得し、演算処理部1に送信する。また、演算処理部1で生成したユーザへのメッセージを音声信号に変換し出力する。   The voice input / output device 4 includes a microphone, acquires voice spoken by the user, and transmits the voice to the arithmetic processing unit 1. Further, the message to the user generated by the arithmetic processing unit 1 is converted into an audio signal and output.

入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、スクロールキー、縮尺変更キーなどのハードスイッチ、ジョイスティック、ディスプレイ上に貼られたタッチパネルなどで構成される。   The input device 5 is a unit that receives instructions from the user. The input device 5 includes a hard switch such as a scroll key and a scale change key, a joystick, a touch panel pasted on a display, and the like.

センサ6〜8およびGPS受信装置9は、車載用ナビゲーション装置100で現在地(自車位置)を検出するために使用されるものである。   The sensors 6 to 8 and the GPS receiver 9 are used for detecting the current location (vehicle position) by the vehicle-mounted navigation device 100.

図3は、演算処理部1の機能ブロック図である。   FIG. 3 is a functional block diagram of the arithmetic processing unit 1.

図示するように、演算処理部1は、ユーザ操作解析部41と、音声認識部42と、ナビゲーション処理部43と、情報記憶部44、表示処理部45と、音声辞書データベース46と、を備えている。   As illustrated, the arithmetic processing unit 1 includes a user operation analysis unit 41, a voice recognition unit 42, a navigation processing unit 43, an information storage unit 44, a display processing unit 45, and a voice dictionary database 46. Yes.

ユーザ操作解析部41は、入力装置5に入力されたユーザからの要求を受け、その要求内容を解析して、その要求内容に対応する処理が実行されるように演算処理部1の各部を制御する。また、音声入出力装置4に入力され音声認識部42により認識された語句からユーザの要求(コマンド)を解析して、その要求内容に対応する処理が実行されるように演算処理部1の各部を制御する。   The user operation analysis unit 41 receives a request from the user input to the input device 5, analyzes the request content, and controls each unit of the arithmetic processing unit 1 so that processing corresponding to the request content is executed. To do. Further, each part of the arithmetic processing unit 1 is analyzed such that a user request (command) is analyzed from the words input to the voice input / output device 4 and recognized by the voice recognition unit 42, and processing corresponding to the request content is executed. To control.

音声認識部42は、音声入出力装置4を介してユーザが発話した音声を取得する。そして、取得した音声を、音声辞書データベース46を用いて認識し、ユーザが発した語句(単語)を特定する。例えば、ユーザが地点を特定するために、住所(州(State)、都市(City)、ストリート(Street))を発話した場合、これらの音声から州名、都市名、ストリート名を認識する。音声から語句を認識する音声認識の手法は、既存の技術を適用できる。例えば、DP(動的計画法)マッチングを用いる方法やHMM(隠れマルコフモデル)を用いる方法などを適用できる。なお、音声辞書データベース46には、音声認識に必要な音声モデルが語句に対応させて格納されている。   The voice recognition unit 42 acquires voice spoken by the user via the voice input / output device 4. Then, the acquired voice is recognized using the voice dictionary database 46, and a phrase (word) uttered by the user is specified. For example, when a user speaks an address (State, City, Street) in order to specify a point, the state name, city name, and street name are recognized from these voices. The existing technology can be applied to the speech recognition method for recognizing words from speech. For example, a method using DP (dynamic programming) matching or a method using HMM (Hidden Markov Model) can be applied. Note that the speech dictionary database 46 stores speech models necessary for speech recognition in association with words.

ナビゲーション処理部43は、各センサ6〜8及びGPS受信装置9の出力から現在位置を求めたり、指定された2地点(現在地、目的地)間を結ぶ推奨経路を探索したりする。また、ディスプレイ2に推奨経路を表示し経路誘導を行う。   The navigation processing unit 43 obtains the current position from the outputs of the sensors 6 to 8 and the GPS receiver 9, and searches for a recommended route connecting between two designated points (current location, destination). In addition, the recommended route is displayed on the display 2 to guide the route.

情報記憶部44は、音声認識部42で認識された語句や、ナビゲーション処理部43により検索された地点の情報を記憶する。   The information storage unit 44 stores words and phrases recognized by the voice recognition unit 42 and information on points searched by the navigation processing unit 43.

表示処理部45は、ディスプレイ2への描画コマンドを生成する。例えば、指定された縮尺、描画方式で、道路、その他の地図構成物や、現在地、目的地、推奨経路のための矢印といったマークを描画するように地図描画コマンドを生成する。   The display processing unit 45 generates a drawing command for the display 2. For example, a map drawing command is generated so as to draw marks such as roads, other map components, current location, destination, and arrows for recommended routes with a specified scale and drawing method.

図4は、演算処理部1のハードウェア構成例を示す図である。   FIG. 4 is a diagram illustrating a hardware configuration example of the arithmetic processing unit 1.

図示するように、演算処理部1は、各デバイス間をバス32で接続した構成としてある。演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、メモリ間およびメモリと各デバイスとの間のデータ転送を実行するDMA(Direct Memory Access)24と、グラフィックス描画を実行し且つ表示制御を行う描画コントローラ25と、グラフィックスイメージデータを蓄えるVRAM(Video Random Access Memory)26と、イメージデータをRGB信号に変換するカラーパレット27と、アナログ信号をデジタル信号に変換するA/D変換器28と、シリアル信号をバスに同期したパラレル信号に変換するSCI(Serial Communication Interface)29と、パラレル信号をバスに同期させてバス上にのせるPIO(Parallel Input/Output)30と、パルス信号を積分するカウンタ31と、を有する。   As illustrated, the arithmetic processing unit 1 has a configuration in which devices are connected by a bus 32. The arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random Access Memory) that stores map data, arithmetic data, and the like read from the storage device 3. ) 22, a ROM (Read Only Memory) 23 for storing programs and data, a DMA (Direct Memory Access) 24 for transferring data between the memories and between the memory and each device, and graphics drawing. In addition, a drawing controller 25 that performs display control, a video random access memory (VRAM) 26 that stores graphics image data, a color palette 27 that converts image data into RGB signals, and an A / D that converts analog signals into digital signals. Converter 28 and an SCI (Serial Communication Interface) that converts the serial signal into a parallel signal synchronized with the bus. ace) 29, a PIO (Parallel Input / Output) 30 that puts a parallel signal on the bus in synchronization with the bus, and a counter 31 that integrates the pulse signal.

[動作の説明]次に、上記構成の車載用ナビゲーション装置100の住所の音声認識に関する動作について図5〜図7を用いて説明する。   [Description of Operation] Next, the operation related to the speech recognition of the address of the vehicle-mounted navigation device 100 having the above-described configuration will be described with reference to FIGS.

図5は、住所の音声認識の流れを示すフロー図である。   FIG. 5 is a flowchart showing the flow of address speech recognition.

音声認識部42は、ユーザから入力装置5を介して住所の音声入力の要求を受け付けたときにこのフローを開始する。   The voice recognition unit 42 starts this flow when receiving a voice input request for an address from the user via the input device 5.

まず、音声認識部42は、「州を発話して下さい」などと、州名の発話を促すメッセージを、音声入出力装置4を介して音声により出力する。このとき、音声認識部42は、図7の表示画面(a)に示すように、ディスプレイ2に、このメッセージを表示してもよい(S11)。   First, the voice recognition unit 42 outputs a message prompting the utterance of the state name such as “Please utter a state” through the voice input / output device 4. At this time, the voice recognition unit 42 may display this message on the display 2 as shown in the display screen (a) of FIG. 7 (S11).

音声認識部42は、音声入出力装置4を介して、ユーザが発話した音声を取得する。そして、ユーザの発話した音声を認識し、州名を特定する。具体的には、住所データベース300の州名301に含まれている州名のうち、入力された音声に最も合致する州名を認識結果として特定する(S12)。   The voice recognition unit 42 acquires the voice uttered by the user via the voice input / output device 4. Then, it recognizes the voice spoken by the user and identifies the state name. Specifically, among the state names included in the state name 301 of the address database 300, the state name that most closely matches the input voice is specified as the recognition result (S12).

次に、音声認識部42は、「都市を発話して下さい」などと、都市名の発話を促すメッセージを、音声入出力装置4を介して音声により出力する。このとき、音声認識部42は、図7の表示画面(b)に示すように、ディスプレイ2に、このメッセージを表示してもよい(S13)。   Next, the voice recognition unit 42 outputs a message prompting the utterance of the city name, such as “Please utter a city” via the voice input / output device 4. At this time, the voice recognition unit 42 may display this message on the display 2 as shown in the display screen (b) of FIG. 7 (S13).

音声認識部42は、音声入出力装置4を介して、ユーザが発話した音声を取得する。そして、ユーザの発話した音声を認識し、都市名を特定する。具体的には、音声認識部42は、住所データベース300を参照して、S12で特定した州名301に属する都市名302を抽出する。そして、抽出した都市名302の中から、入力された音声に最も合致する都市名を認識結果として特定する(S14)。   The voice recognition unit 42 acquires the voice spoken by the user via the voice input / output device 4. And the voice which the user uttered is recognized and a city name is specified. Specifically, the voice recognition unit 42 refers to the address database 300 and extracts a city name 302 belonging to the state name 301 specified in S12. Then, a city name that most closely matches the input voice is identified as a recognition result from the extracted city names 302 (S14).

次に、音声認識部42は、「ストリート名の1文字目を発話して下さい」などと、ストリート名の1文字目の発話を促すメッセージを、音声入出力装置4を介して音声により出力する。このとき、音声認識部42は、図7の表示画面(c)に示すように、ディスプレイ2に、このメッセージを表示してもよい(S15)。   Next, the voice recognition unit 42 outputs a message prompting the first character of the street name, such as “Please utter the first character of the street name” via the voice input / output device 4. . At this time, the voice recognition unit 42 may display this message on the display 2 as shown in the display screen (c) of FIG. 7 (S15).

音声認識部42は、音声入出力装置4を介して、ユーザが発話した音声を取得する。そして、ユーザの発話した音声を認識する。具体的には、図6に示すように、音声認識部42は、ユーザが発話した音声と、アルファベットの文字の音声モデルとの相関性から、文字51ごとの信頼度52を求める(S16)。   The voice recognition unit 42 acquires the voice spoken by the user via the voice input / output device 4. Then, the voice spoken by the user is recognized. Specifically, as shown in FIG. 6, the speech recognition unit 42 obtains the reliability 52 for each character 51 from the correlation between the speech uttered by the user and the speech model of the alphabetic character (S16).

次に、音声認識部42は、信頼度52が予め定めた値以上の文字を抽出する。複数ある場合は、複数の文字を抽出する(S17)。   Next, the voice recognition unit 42 extracts characters whose reliability 52 is greater than or equal to a predetermined value. If there are a plurality of characters, a plurality of characters are extracted (S17).

次に、音声認識部42は、住所データベース300を参照して、S14で特定した都市名302に属するストリート名を抽出し、その抽出したストリート名の中から、S17で抽出した文字で始まるストリート名を抽出する(図6参照)。そして、抽出したストリート名を、ストリート名の候補(待受)とする(S18)。   Next, the speech recognition unit 42 refers to the address database 300, extracts street names belonging to the city name 302 specified in S14, and begins with the characters extracted in S17 from the extracted street names. Is extracted (see FIG. 6). The extracted street name is set as a street name candidate (standby) (S18).

次に、音声認識部42は、「ストリート名を発話して下さい」などと、ストリート名の全ての発話を促すメッセージを、音声入出力装置4を介して音声により出力する。このとき、音声認識部42は、図7の表示画面(d)に示すように、ディスプレイ2に、このメッセージを表示してもよい(S19)。   Next, the voice recognition unit 42 outputs a message prompting all utterances of the street name, such as “Please utter the street name”, via the voice input / output device 4 by voice. At this time, the voice recognition unit 42 may display this message on the display 2 as shown in the display screen (d) of FIG. 7 (S19).

音声認識部42は、音声入出力装置4を介して、ユーザが発話した音声を取得する。そして、ユーザの発話した音声を認識し、音声の相関から、S18で求めたストリート名の各候補について信頼度を求める(S20)。   The voice recognition unit 42 acquires the voice spoken by the user via the voice input / output device 4. Then, the voice spoken by the user is recognized, and the reliability is obtained for each candidate of the street name obtained in S18 from the correlation of the voice (S20).

最後に、音声認識部42は、候補の中から最も信頼度が大きいストリート名を抽出する。そして、図6の表示画面(e)に示すように、ストリート名の音声認識結果として、ディスプレイ2に表示する(S21)。   Finally, the speech recognition unit 42 extracts the street name with the highest reliability from the candidates. Then, as shown in the display screen (e) of FIG. 6, the result is displayed on the display 2 as a street name speech recognition result (S21).

ユーザから、確定要求を受け付けると、音声認識部42は、住所を確定する。その後、音声認識部42は、番地を受け付けるようにしてもよい。そして、表示処理部45に、特定された住所周辺の地図を表示するようにしてもよい。   When receiving a confirmation request from the user, the voice recognition unit 42 confirms the address. Thereafter, the voice recognition unit 42 may accept an address. Then, a map around the specified address may be displayed on the display processing unit 45.

以上、本発明の一実施形態について説明した。   The embodiment of the present invention has been described above.

上記実施形態によれば、ストリート名の全てを音声入力させる前に、ユーザに対して最初の1文字の発話しか要求しない。したがって、ユーザは、2文字目の文字を気にする必要がない。例えば、「SOUTH ABC STREET」などのように、「S ABC ST」と記載されることが多いために、2文字目が「O」なのか「A」なのか分かりづらい場合である。この場合でも、本実施形態によれば、1文字目しか発話する必要がないので、ユーザを迷わすことがない。   According to the above embodiment, the user is not required to speak only the first character before inputting all the street names by voice. Therefore, the user does not have to worry about the second character. For example, since “S ABC ST” is often described as “SOUTH ABC STREET”, it is difficult to determine whether the second character is “O” or “A”. Even in this case, according to the present embodiment, since only the first character needs to be uttered, the user is not lost.

更に本発明の優れているところは、ストリート名の2文字目にアルファベット以外の文字が入っている場合でもユーザが混乱しないところにある。例えば、「O’CONNELL ST」、「L&M RANCH RD」等のストリート名の場合、2文字目をどう読めばよいか分からない可能性がある。1文字目のみの入力でよければ、ユーザは混乱せずに「O」、「L」と発話入力することができる。   A further advantage of the present invention is that the user is not confused even if a second character of the street name contains a character other than the alphabet. For example, in the case of street names such as “O′CONNELL ST”, “L & M RANCH RD”, it may not be understood how to read the second character. If it is sufficient to input only the first character, the user can input utterances “O” and “L” without confusion.

また、ストリート名の全てを発話させ音声認識する際(図5のS20)、先に行った1文字目の音声認識の信頼度に関らず、候補の中から入力された音声と最も合致するストリート名を抽出し、認識結果とする。例えば、1文字目を認識した結果、「M」より「N」の方が信頼度が高かったとしても、ストリート名の全てを発話したときに「M」で始まるストリート名の方が信頼度が大きい場合は、その「M」で始まるストリート名が音声認識の結果となる。したがって、1文字目の音声認識により候補を絞りつつも、1文字目の認識の結果の影響を受け過ぎることなく、ストリート名を精度よく特定することができる。   When all street names are uttered and voice recognition is performed (S20 in FIG. 5), the voice most closely matches the voice input from the candidates regardless of the reliability of the first character voice recognition performed previously. Street names are extracted and used as recognition results. For example, as a result of recognizing the first character, even if “N” is more reliable than “M”, the street name starting with “M” is more reliable when speaking all of the street names. If it is larger, the street name starting with “M” is the result of speech recognition. Therefore, the street name can be accurately identified without being influenced too much by the result of recognition of the first character while narrowing down candidates by voice recognition of the first character.

本発明は、上記実施形態に制限されない。上記実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。   The present invention is not limited to the above embodiment. The above embodiment can be variously modified within the scope of the technical idea of the present invention.

例えば、上記の実施形態では、本発明を車載用ナビゲーション装置に適用した例について説明したが、住所を音声認識する他の機器に適用してもよい。   For example, in the above-described embodiment, an example in which the present invention is applied to an in-vehicle navigation device has been described. However, the present invention may be applied to other devices that recognize voice of an address.

図1は、本発明の一実施形態が適用された車載用ナビゲーション装置の概略構成図である。FIG. 1 is a schematic configuration diagram of an in-vehicle navigation device to which an embodiment of the present invention is applied. 図2は、住所データベースの構成例である。FIG. 2 is a configuration example of the address database. 図3は、演算処理部1の機能構成を示す図である。FIG. 3 is a diagram illustrating a functional configuration of the arithmetic processing unit 1. 図4は、演算処理部1のハードウェア構成を示す図である。FIG. 4 is a diagram illustrating a hardware configuration of the arithmetic processing unit 1. 図5は、住所の音声認識のフロー図である。FIG. 5 is a flowchart of address speech recognition. 図6は、ストリート名の候補を定める様子を説明する図である。FIG. 6 is a diagram for explaining how street name candidates are determined. 図7は、表示画面の遷移例である。FIG. 7 is a transition example of the display screen. 図8は、従来例のストリート名の候補を定める様子を説明する図である。FIG. 8 is a diagram for explaining how to determine candidates for street names in the conventional example.

符号の説明Explanation of symbols

100…車載用ナビゲーション装置、
1…演算処理部、2…ディスプレイ、3…記憶装置、4…音声出入力装置、5…入力装置、6…車輪速センサ、8…ジャイロ、9…GPS受信装置、21…CPU、22…RAM、23…ROM、24…DMA、25…描画コントローラ、26…VRAM、27…カラーパレット、28…A/D変換器、29…SCI、30…PIO、31…カウンタ、
41…ユーザ操作解析部、42…音声認識部、43…ナビゲーション処理部、44…情報記憶部、45…表示処理部、46…音声辞書データベース
100: In-vehicle navigation device,
DESCRIPTION OF SYMBOLS 1 ... Arithmetic processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Audio | voice output / input device, 5 ... Input device, 6 ... Wheel speed sensor, 8 ... Gyro, 9 ... GPS receiver, 21 ... CPU, 22 ... RAM 23 ... ROM, 24 ... DMA, 25 ... drawing controller, 26 ... VRAM, 27 ... color palette, 28 ... A / D converter, 29 ... SCI, 30 ... PIO, 31 ... counter,
DESCRIPTION OF SYMBOLS 41 ... User operation analysis part, 42 ... Voice recognition part, 43 ... Navigation processing part, 44 ... Information storage part, 45 ... Display processing part, 46 ... Voice dictionary database

Claims (4)

ナビゲーション装置であって、
ストリート名の最初の1文字の音声入力を受け付ける手段と、
受け付けた音声を認識する手段と、
認識した文字で始まるストリート名を候補とする手段と、
ストリート名の全ての音声入力を受け付ける手段と、
受け付けた音声を前記候補を用いて認識する手段と
を備えることを特徴とするナビゲーション装置。
A navigation device,
Means to accept voice input of the first letter of the street name;
Means for recognizing the received voice,
A means to suggest street names that start with recognized characters,
A means of accepting all voice input of street names;
A navigation device comprising means for recognizing received speech using the candidate.
請求項1に記載のナビゲーション装置であって、
ストリート名を記憶する記憶手段と、
ストリート名の最初の1文字の音声入力を受け付ける手段と、
受け付けた音声を認識して最初の1文字の候補を求める1文字目候補算出手段と、
前記記憶手段に記憶されているストリート名の中から、前記1文字目候補算出手段で求めた1文字目の候補で始まるストリート名を抽出するストリート名抽出手段と、
ストリート名の音声入力を受け付けるストリート名受付手段と、
前記ストリート名抽出手段で抽出したストリート名の中から、前記ストリート名受付手段で受け付けた音声に最も合致するストリート名を抽出する手段と
を備えることを特徴とするナビゲーション装置。
The navigation device according to claim 1,
Storage means for storing street names;
Means to accept voice input of the first letter of the street name;
First character candidate calculating means for recognizing the received speech and obtaining a candidate for the first character;
Street name extraction means for extracting a street name starting from the first character candidate obtained by the first character candidate calculation means from the street names stored in the storage means;
Street name accepting means for accepting voice input of street names,
A navigation apparatus comprising: means for extracting a street name that most closely matches the voice received by the street name receiving means from the street names extracted by the street name extracting means.
ナビゲーション装置であって、
州名及び都市名ごとのストリート名を記憶する記憶手段と
州名の音声入力を受け付ける手段と、
受け付けた音声を認識して州名を特定する州名特定手段と、
都市名の音声入力を受け付ける手段と、
受け付けた音声を認識して都市名を特定する都市名特定手段と、
ストリート名の最初の1文字の音声入力を受け付ける手段と、
受け付けた音声を認識してアルファベットの文字ごとの信頼度を求める文字信頼度算出手段と、
前記信頼度が予め定めた値以上の文字を抽出する文字抽出手段と、
前記都市名特定手段で特定した都市名に属するストリート名の中から、前記文字抽出手段で抽出した文字で始まるストリート名を抽出するストリート名抽出手段と、
ストリート名の音声入力を受け付けるストリート名受付手段と、
前記ストリート名抽出手段で抽出したストリート名の中から、前記ストリート名受付手段で受け付けた音声と最も合致するストリート名を抽出して出力する手段と
を備えることを特徴とするナビゲーション装置。
A navigation device,
Storage means for storing the street name for each state name and city name, means for receiving voice input of the state name,
A state name identifying means for recognizing the received voice and identifying the state name,
Means for receiving voice input of city names,
A city name identifying means for recognizing the received voice and identifying the city name,
Means to accept voice input of the first letter of the street name;
A character reliability calculation means for recognizing the received speech and calculating the reliability of each letter of the alphabet;
A character extracting means for extracting characters having a reliability equal to or higher than a predetermined value;
Street name extraction means for extracting a street name starting with the character extracted by the character extraction means from street names belonging to the city name specified by the city name specifying means;
Street name accepting means for accepting voice input of street names,
A navigation apparatus comprising: means for extracting and outputting a street name that most closely matches the voice received by the street name receiving means from the street names extracted by the street name extracting means.
ナビゲーション装置の住所入力方法であって、
ストリート名の最初の文字の音声入力を受け付けるステップと、
受け付けた音声を認識するステップと、
認識した文字で始まるストリート名を候補とするステップと、
ストリート名の全ての音声入力を受け付けるステップと、
受け付けた音声を前記候補を用いて認識するステップと
を備えることを特徴とするナビゲーション装置の住所入力方法。
An address input method for a navigation device,
Accepting voice input for the first letter of the street name;
Recognizing the received speech,
Candidate street names starting with recognized characters,
Accepting all voice input of street names;
Recognizing received speech using the candidates, and an address input method for a navigation device.
JP2006097280A 2006-03-31 2006-03-31 Navigation device and its address input method Pending JP2007271901A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006097280A JP2007271901A (en) 2006-03-31 2006-03-31 Navigation device and its address input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006097280A JP2007271901A (en) 2006-03-31 2006-03-31 Navigation device and its address input method

Publications (1)

Publication Number Publication Date
JP2007271901A true JP2007271901A (en) 2007-10-18

Family

ID=38674759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006097280A Pending JP2007271901A (en) 2006-03-31 2006-03-31 Navigation device and its address input method

Country Status (1)

Country Link
JP (1) JP2007271901A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452533B2 (en) 2010-09-07 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for extracting a destination from voice data originating over a communication network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115493A (en) * 1997-03-10 1999-01-22 Daimler Benz Ag Method and device for voice inputting target address to target guide system in real time operation
JP2002297374A (en) * 2001-03-30 2002-10-11 Alpine Electronics Inc Voice retrieving device
JP2005121966A (en) * 2003-10-17 2005-05-12 Nissan Motor Co Ltd Speech recognition device and speech recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115493A (en) * 1997-03-10 1999-01-22 Daimler Benz Ag Method and device for voice inputting target address to target guide system in real time operation
JP2002297374A (en) * 2001-03-30 2002-10-11 Alpine Electronics Inc Voice retrieving device
JP2005121966A (en) * 2003-10-17 2005-05-12 Nissan Motor Co Ltd Speech recognition device and speech recognition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452533B2 (en) 2010-09-07 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for extracting a destination from voice data originating over a communication network

Similar Documents

Publication Publication Date Title
US8340958B2 (en) Text and speech recognition system using navigation information
JP4997796B2 (en) Voice recognition device and navigation system
JP4914632B2 (en) Navigation device
JP2006195576A (en) Onboard voice recognizer
KR101063607B1 (en) Navigation system having a name search function using voice recognition and its method
JP5335165B2 (en) Pronunciation information generating apparatus, in-vehicle information apparatus, and database generating method
JP2008268571A (en) Speech recognition device and speech recognition method therefor
JP4942406B2 (en) Navigation device and voice output method thereof
JP5455355B2 (en) Speech recognition apparatus and program
JP2002350146A (en) Navigation device
JP2010039099A (en) Speech recognition and in-vehicle device
JP3726783B2 (en) Voice recognition device
JP2005275228A (en) Navigation system
JP3645104B2 (en) Dictionary search apparatus and recording medium storing dictionary search program
JP2011232668A (en) Navigation device with voice recognition function and detection result presentation method thereof
JP3700533B2 (en) Speech recognition apparatus and processing system
JP2007271901A (en) Navigation device and its address input method
JP2007025076A (en) On-vehicle voice recognition apparatus
JP4004885B2 (en) Voice control device
JP2006039954A (en) Database retrieval system, program, and navigation system
JP2005114964A (en) Method and processor for speech recognition
JP4645708B2 (en) Code recognition device and route search device
JP2005215474A (en) Speech recognition device, program, storage medium, and navigation device
JP4646718B2 (en) Navigation device
JP2001005480A (en) User uttering discriminating device and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090306

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111115