JP2010038751A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2010038751A
JP2010038751A JP2008202847A JP2008202847A JP2010038751A JP 2010038751 A JP2010038751 A JP 2010038751A JP 2008202847 A JP2008202847 A JP 2008202847A JP 2008202847 A JP2008202847 A JP 2008202847A JP 2010038751 A JP2010038751 A JP 2010038751A
Authority
JP
Japan
Prior art keywords
character string
character
user
name
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008202847A
Other languages
Japanese (ja)
Inventor
Rei Ono
玲 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2008202847A priority Critical patent/JP2010038751A/en
Publication of JP2010038751A publication Critical patent/JP2010038751A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system with improved certainty in searching place names and road names by speech recognition. <P>SOLUTION: A speech recognition dictionary memory 120 memorizes place name speech recognition dictionary information and road name speech recognition dictionary information. When a user select a character or a character string by touching a touch panel 90 with fingers etc. under a condition that a character selection screen is displayed in a display 70, a controlling section 102 extracts character strings for place name and road name having in the forefront the character or the character string selected by the user, from among the place name speech recognition dictionary information and the road name speech recognition dictionary information memorized in the speech recognition dictionary memory 120. Subsequently, when the user speaks, a speech recognizing section 122 generates a character string for user's voice corresponding to the voice, and the controlling section 102 identify one most similar to the character string for user's voice from among the extracted character strings for place name and road name. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、利用者によって設定された目的地までの経路を探索し、当該目的地までの案内を行うナビゲーション装置に関する。   The present invention relates to a navigation device that searches for a route to a destination set by a user and provides guidance to the destination.

ナビゲーション装置は、利用者によって設定された目的地までの経路(誘導経路)を探索し、車両がその誘導経路に沿って目的地まで走行するように、画像や音声によって案内を行う。このようなナビゲーション装置では、利用者の音声を認識する機能を有するものが存在する(例えば、特許文献1及び2参照)。   The navigation device searches for a route (guidance route) to a destination set by the user, and performs guidance by an image or sound so that the vehicle travels to the destination along the guidance route. Some of such navigation apparatuses have a function of recognizing a user's voice (see, for example, Patent Documents 1 and 2).

従来のナビゲーション装置は、目的地となり得る地名や道路名の文字列を含んだ音声認識辞書を用意しておく。そして、ナビゲーション装置は、利用者が地名や道路名を発声した際の音声の認識処理により当該音声に対応する文字列を特定し、音声認識辞書に含まれる地名や道路名の文字列のうち、認識した利用者の音声に対応する文字列に最も類似するものを目的地の候補として特定する機能を有する。また、従来の記載のナビゲーション装置は、利用者の音声からキーワードを抽出し、そのキーワードと利用者の関心事に基づいて、適切な地図情報を取得する。
特開2004−20883号公報 特開平8−50698号公報
A conventional navigation device prepares a speech recognition dictionary including a character string of a place name and a road name that can be a destination. Then, the navigation device identifies a character string corresponding to the voice by voice recognition processing when the user utters a place name or a road name, and among the character strings of the place name and the road name included in the voice recognition dictionary, It has a function of specifying the most similar character string corresponding to the recognized user's voice as a destination candidate. The conventional navigation device extracts a keyword from a user's voice, and acquires appropriate map information based on the keyword and the user's interests.
JP 2004-20883 A JP-A-8-50698

しかしながら、上述した音声認識辞書は、あらゆる地名や道路名毎に設ける必要があり、膨大な量となる。このため、利用者の音声に対応する文字列に最も類似する地名や道路名の文字列を特定する際に、誤りが生じる可能性が高いという問題があった。一方、利用者に地名や道路名の先頭の所定数の文字を発声させ、その音声の認識結果に基づいて、検索対象の音声認識辞書を絞り込み、その後、利用者が利用者が地名や道路名を発声した際の音声を認識した場合には、絞り込んだ後の音声認識辞書に含まれる地名や道路名の文字列のうち、認識した利用者の音声に対応する文字列に最も類似するものを特定する手法も考えられる。しかし、この手法では、利用者が地名や道路名の先頭の所定数の文字を発声した際の音声の認識に誤りが生じると、利用者の意図しない結果が得られてしまう。   However, the above-described speech recognition dictionary needs to be provided for every place name or road name, which is a huge amount. For this reason, there is a problem that an error is highly likely to occur when a character string of a place name or a road name that is most similar to the character string corresponding to the user's voice is specified. On the other hand, the user utters a predetermined number of characters at the beginning of the place name or road name, narrows down the speech recognition dictionary to be searched based on the speech recognition result, and then the user selects the place name or road name. If the voice when the voice is uttered is recognized, the character string of the place name or road name included in the voice recognition dictionary after narrowing down is the most similar to the character string corresponding to the recognized user's voice. A method for identifying the same can also be considered. However, with this method, if an error occurs in speech recognition when a user utters a predetermined number of characters at the beginning of a place name or road name, a result unintended by the user is obtained.

本発明の目的は、上述した問題を解決するものであり、音声認識に基づく地名や道路名の検索の確実性を向上させたナビゲーション装置を提供するものである。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems, and to provide a navigation device that improves the certainty of searching for place names and road names based on voice recognition.

本発明に係るナビゲーション装置は、設定地点となり得る地名及び道路名の文字列を記憶した記憶手段と、利用者による操作部の操作によって選択された文字又は文字列を取得する取得手段と、前記記憶手段に記憶された地名及び道路名の文字列のうち、前記取得手段により取得された文字又は文字列を先頭に含むものを抽出する文字列抽出手段と、前記利用者が発する音声を認識し、認識結果を生成する音声認識手段と、前記文字列抽出手段により抽出された地名及び道路名の文字列のうち、前記音声認識手段により生成された認識結果に対応する地名又は道路名の文字列を検索する文字列検索手段とを有する。   The navigation device according to the present invention includes a storage unit that stores character strings of place names and road names that can be set points, an acquisition unit that acquires a character or a character string selected by an operation of an operation unit by a user, and the storage unit Recognizing the character string extraction means for extracting the character string or the character string acquired by the acquisition means among the character strings of the place name and road name stored in the means, and the voice uttered by the user, A speech recognition unit that generates a recognition result, and a character string of a place name or a road name corresponding to the recognition result generated by the speech recognition unit among the place name and road name character strings extracted by the character string extraction unit. And a character string search means for searching.

この構成によれば、利用者が操作部を操作して文字又は文字列を選択すると、予め記憶された地名及び道路名の文字列のうち、利用者によって選択された文字又は文字列を先頭に含むものが抽出され、その後に利用者が音声を発すると、その音声の認識結果が生成されて、抽出した地名及び道路名の文字列のうち、音声の認識結果に対応する地名又は道路名が検索される。従って、予め記憶された地名及び道路名の文字列が絞り込まれた上で、利用者が発した音声に基づく検索の対象となるため、検索対象となる地名又は道路名の量を減らし、検索の確実性が向上する。また、予め記憶された地名及び道路名の文字列の絞り込みは、利用者が操作部を操作して選択した文字又は文字列に基づいてなされており、従来のようにその絞り込みの際に音声認識を用いるものではないため、誤りが生じにくく、検索の確実性が向上する。   According to this configuration, when the user operates the operation unit to select a character or a character string, the character or character string selected by the user from among the character strings of the place name and the road name stored in advance is set to the top. When a user utters a speech, the speech recognition result is generated, and the place name or road name corresponding to the speech recognition result is extracted from the extracted place name and road name character strings. Searched. Therefore, since the character strings of the place names and road names stored in advance are narrowed down and searched based on the voice uttered by the user, the amount of place names or road names to be searched is reduced, and the search is performed. Certainty is improved. In addition, narrowing down of character strings of place names and road names stored in advance is performed based on characters or character strings selected by the user by operating the operation unit. Is not used, errors are unlikely to occur, and the reliability of search is improved.

同様の観点から、本発明に係るナビゲーション装置は、前記音声認識手段が、前記利用者が発する音声に対応する文字列を認識結果として生成し、前記文字列検索手段が、前記文字列抽出手段により抽出された地名及び道路名の文字列のうち、前記音声認識手段により生成された利用者が発する音声に対応する文字列に最も類似する地名及び道路名の文字列を特定する。   From the same point of view, in the navigation device according to the present invention, the voice recognition unit generates a character string corresponding to the voice uttered by the user as a recognition result, and the character string search unit uses the character string extraction unit. Of the extracted character strings of place names and road names, the character strings of the place names and road names that are most similar to the character strings corresponding to the voices uttered by the user generated by the voice recognition means are specified.

また、本発明に係るナビゲーション装置は、前記文字列検索手段により検索された地名又は道路名の文字列を出力する出力手段を有する。   The navigation apparatus according to the present invention further includes an output unit that outputs a character string of a place name or a road name searched by the character string search unit.

また、本発明に係るナビゲーション装置は、前記出力手段が、前記文字列検索手段により検索された地名又は道路名の文字列に対応する音声を出力する。   In the navigation device according to the present invention, the output means outputs a voice corresponding to the character string of the place name or road name searched by the character string search means.

また、本発明に係るナビゲーション装置は、タッチパネル方式の表示ユニットに文字選択画面を表示する表示処理手段を有し、前記取得手段が、前記利用者による前記表示ユニットに接触する操作によって選択された文字又は文字列を取得する。   The navigation device according to the present invention further includes display processing means for displaying a character selection screen on a touch panel type display unit, and the acquisition means selects a character selected by an operation of touching the display unit by the user. Or get a string.

本発明によれば、予め記憶された地名及び道路名の文字列が絞り込まれた上で、利用者が発した音声に対応する地名又は道路名の検索対象となるため、検索対象となる地名又は道路名の量を減らし、検索の確実性が向上する。また、予め記憶された地名及び道路名の文字列の絞り込みの際に音声認識を用いるものではないため、誤りが生じにくく、検索の確実性が向上する。   According to the present invention, since the place name and road name character strings stored in advance are narrowed down, the place name or road name corresponding to the voice uttered by the user is searched. Reduces the amount of road names and improves search certainty. In addition, since voice recognition is not used when narrowing down character strings of place names and road names stored in advance, errors are unlikely to occur and the reliability of search is improved.

以下、本発明の実施の形態について、図面を参照して具体的に説明する。図1は、本発明のナビゲーション装置が適用されたナビゲーション装置の構成を示す図である。図1に示すナビゲーション装置100は、車両に搭載されており、本体10、ハードディスクドライブ(HDD)20、操作ボタン30、通信部40、GPS受信部50、自律航法センサ60、ディスプレイ70、スピーカ80、タッチパネル90及びマイクロホン92により構成される。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. FIG. 1 is a diagram showing a configuration of a navigation device to which the navigation device of the present invention is applied. A navigation device 100 shown in FIG. 1 is mounted on a vehicle, and includes a main body 10, a hard disk drive (HDD) 20, operation buttons 30, a communication unit 40, a GPS reception unit 50, an autonomous navigation sensor 60, a display 70, a speaker 80, A touch panel 90 and a microphone 92 are included.

HDD20は、ハードディスク22を搭載しており、当該ハードディスク22に記録された地図データを読み出す。地図データは、段階的な縮尺毎の矩形領域の地図に対応する複数の図葉データを含む。この図葉データは、縮尺の情報と、矩形領域の四隅の経度及び緯度とを含んでおり、これらの縮尺、経度及び緯度によって一意に特定される。   The HDD 20 is equipped with a hard disk 22 and reads map data recorded on the hard disk 22. The map data includes a plurality of leaf data corresponding to a map of a rectangular area at each stepwise scale. The figure data includes scale information and the longitude and latitude of the four corners of the rectangular area, and is uniquely identified by the scale, longitude, and latitude.

また、地図データは、道路情報を含む。この道路情報は、緯度及び経度によって特定される道路上の複数の位置(ノード)の集合と、道路名の仮名の文字列(道路名文字列)とを含む。また、地図データは、地域情報を含む。この地域情報は、地域の外周部の経度及び緯度の集合と、代表点の経度及び緯度と、地名の仮名の文字列とを含む。   The map data includes road information. The road information includes a set of a plurality of positions (nodes) on the road specified by latitude and longitude, and a kana character string (road name character string) of the road name. The map data includes regional information. This area information includes a set of longitude and latitude of the outer periphery of the area, the longitude and latitude of the representative point, and a kana character string of the place name.

なお、地図データの記録媒体は、ハードディスク22に限られず、DVD、CD−ROM等であってもよく、記録媒体に応じたドライブが用意される。   The map data recording medium is not limited to the hard disk 22, and may be a DVD, a CD-ROM, or the like, and a drive corresponding to the recording medium is prepared.

操作ボタン30は、誘導経路検索時の目的地の設定等において、利用者によって操作される。通信部40は、例えば、携帯電話機であり、ナビゲーション装置100に必要な各種情報を取得するために、外部との通信を行う。GPS受信部50は、車両の位置の検出に必要なGPS衛星からのGPS信号を受信する。自律航法センサ60は、車両の進行方向を検出するためのジャイロ等と、一定の走行距離毎にパルス(車速パルス)を発生する距離センサとにより構成される。   The operation button 30 is operated by the user in setting a destination when searching for a guidance route. The communication unit 40 is, for example, a mobile phone, and communicates with the outside in order to acquire various information necessary for the navigation device 100. The GPS receiver 50 receives GPS signals from GPS satellites necessary for detecting the position of the vehicle. The autonomous navigation sensor 60 includes a gyro and the like for detecting the traveling direction of the vehicle, and a distance sensor that generates a pulse (vehicle speed pulse) at every constant travel distance.

ディスプレイ70は、地図画像や操作画面の画像等の各種の画像を表示する。タッチパネル90は、操作部に対応し、ディスプレイ70の表示面に取り付けられて、当該ディスプレイ70とともにタッチパネル方式の表示ユニットを構成する。このタッチパネル90は、利用者の指等が接触すると、その接触位置の情報を出力する。マイクロホン92は、利用者の音声を検出し、対応する音声信号を生成して出力する。   The display 70 displays various images such as a map image and an operation screen image. The touch panel 90 corresponds to the operation unit, is attached to the display surface of the display 70, and constitutes a touch panel type display unit together with the display 70. When the user's finger or the like touches, the touch panel 90 outputs information on the contact position. The microphone 92 detects the user's voice and generates and outputs a corresponding voice signal.

本体10は、制御部102、バッファメモリ104、地図描画部106、操作画面・マーク描画部108、誘導経路記憶部110、誘導経路描画部112、画像合成部118、音声認識辞書メモリ120及び音声認識部122により構成される。   The main body 10 includes a control unit 102, a buffer memory 104, a map drawing unit 106, an operation screen / mark drawing unit 108, a guidance route storage unit 110, a guidance route drawing unit 112, an image composition unit 118, a voice recognition dictionary memory 120, and voice recognition. The unit 122 is configured.

制御部102は、ナビゲーション装置100の全体を制御する。具体的には、制御部102は、GPS受信部50によって受信されたGPS信号や、自律航法センサ60によって検出された車両の進行方向、車速パルスの出力間隔に基づいて、車両の位置、方位及び速度を算出する。また、制御部102は、HDD20に対して、ハードディスク22に記録された地図データの読み出しを指示する。制御部102の指示に応じてHDD104が読み出した地図データは、バッファメモリ104に格納される。更に、制御部102は、地図描画部106に対して、地図画像の描画を指示する。地図描画部106は、この指示に応じて、バッファメモリ104に格納された地図データを読み出し、当該地図データに基づいて地図画像を生成する。   The control unit 102 controls the entire navigation device 100. Specifically, the control unit 102 determines the position, direction, and position of the vehicle based on the GPS signal received by the GPS receiving unit 50, the traveling direction of the vehicle detected by the autonomous navigation sensor 60, and the output interval of the vehicle speed pulse. Calculate the speed. Further, the control unit 102 instructs the HDD 20 to read the map data recorded on the hard disk 22. The map data read out by the HDD 104 in response to an instruction from the control unit 102 is stored in the buffer memory 104. Further, the control unit 102 instructs the map drawing unit 106 to draw a map image. In response to this instruction, the map drawing unit 106 reads the map data stored in the buffer memory 104 and generates a map image based on the map data.

また、制御部102は、利用者による操作ボタン30の操作や、タッチパネル90の操作、ナビゲーション装置100の動作状態等に応じて、操作画面・マーク描画部108に画像描画の指示を出す。操作画面・マーク描画部108は、この指示に応じて、各種操作画面や自車位置マーク、カーソル位置の画像を描画する。   Further, the control unit 102 issues an image drawing instruction to the operation screen / mark drawing unit 108 according to the operation of the operation button 30 by the user, the operation of the touch panel 90, the operation state of the navigation device 100, and the like. In response to this instruction, the operation screen / mark drawing unit 108 draws various operation screens, a vehicle position mark, and an image of the cursor position.

また、制御部102は、利用者による操作ボタン30の誘導経路検索のための操作に応じて、バッファメモリ104に格納された地図データを読み出し、当該地図データに基づいて、所定の経路探索アルゴリズムを用いて目的地までの誘導経路を設定する。設定された誘導経路の情報(例えば、出発地から目的地までの誘導経路に対応する複数のノード(経度及び緯度)の集合)は、誘導経路記憶部110に記憶される。更に、制御部102は、経路誘導の開始等の所定のタイミングで、誘導経路描画部112に対して、誘導経路の画像の描画を指示する。誘導経路描画部112は、この指示に応じて、誘導経路記憶部110に記憶された誘導経路情報に基づいて、誘導経路画像を生成する。   Further, the control unit 102 reads out map data stored in the buffer memory 104 in accordance with an operation for searching the guidance route of the operation button 30 by the user, and executes a predetermined route search algorithm based on the map data. Use to set the guide route to the destination. Information on the set guide route (for example, a set of nodes (longitude and latitude) corresponding to the guide route from the departure point to the destination) is stored in the guide route storage unit 110. Further, the control unit 102 instructs the guidance route drawing unit 112 to draw an image of the guidance route at a predetermined timing such as the start of route guidance. In response to this instruction, the guidance route drawing unit 112 generates a guidance route image based on the guidance route information stored in the guidance route storage unit 110.

また、制御部102は、利用者による操作ボタン30の操作や、タッチパネル90の操作、ナビゲーション装置100の動作状態等に応じて、画像合成部118に、画像合成を指示する。画像合成部118は、この指示に応じて、地図描画部106、操作画面・マーク描画部108及び誘導経路描画部112によって生成された各種画像を適宜合成し、得られた画像をディスプレイ70に表示させる。   Further, the control unit 102 instructs the image composition unit 118 to perform image composition in accordance with the operation of the operation button 30 by the user, the operation of the touch panel 90, the operation state of the navigation device 100, or the like. In response to this instruction, the image synthesis unit 118 appropriately synthesizes various images generated by the map drawing unit 106, the operation screen / mark drawing unit 108, and the guidance route drawing unit 112, and displays the obtained image on the display 70. Let

また、制御部102は、利用者による操作ボタン30の操作や、タッチパネル90の操作、ナビゲーション装置100の動作状態等に応じて、音声を生成し、スピーカ80に出力させる。例えば、制御部102は、経路誘導中に誘導経路情報に基づいて、交差点を曲がる指示等の案内音声を生成し、スピーカ80に出力させる。   In addition, the control unit 102 generates sound according to the operation of the operation button 30 by the user, the operation of the touch panel 90, the operation state of the navigation device 100, and the like, and outputs the sound to the speaker 80. For example, the control unit 102 generates guidance voice such as an instruction to turn at an intersection based on the guidance route information during route guidance, and causes the speaker 80 to output the guidance voice.

本実施形態のナビゲーション装置100では、音声認識による目的地設定が行われる。この音声認識による目的地設定に先立って、制御部102は、地名認識辞書情報及び道路名認識辞書情報を生成し、音声認識辞書情報メモリ120に記憶させる。具体的には、制御部102は、HDD20に対して、地図データ内の地域情報及び道路情報の読み出しを指示する。HDD20は、この指示に応じて、ハードディスク22から地図データ内の全ての地域情報及び道路情報を読み出し、バッファメモリ104へ記憶させる。   In the navigation device 100 of the present embodiment, destination setting is performed by voice recognition. Prior to the destination setting by voice recognition, the control unit 102 generates place name recognition dictionary information and road name recognition dictionary information and stores them in the voice recognition dictionary information memory 120. Specifically, the control unit 102 instructs the HDD 20 to read out the area information and road information in the map data. In response to this instruction, the HDD 20 reads all area information and road information in the map data from the hard disk 22 and stores them in the buffer memory 104.

制御部102は、バッファメモリ104に記憶された地域情報及び道路情報を読み出す。次に、制御部102は、各地域情報内の地名文字列を抽出し、これらからなる地名音声認識辞書情報を生成する。また、制御部102は、各道路情報内の道路名文字列を抽出し、これらからなる道路名音声認識辞書情報を生成する。図2(a)は地名音声認識辞書情報の構成を示し、図2(b)は道路名音声認識辞書情報の構成を示す。   The control unit 102 reads the area information and road information stored in the buffer memory 104. Next, the control part 102 extracts the place name character string in each area information, and produces | generates the place name speech recognition dictionary information which consists of these. Further, the control unit 102 extracts a road name character string in each road information, and generates road name speech recognition dictionary information including these. FIG. 2A shows the configuration of place name speech recognition dictionary information, and FIG. 2B shows the configuration of road name speech recognition dictionary information.

更に、制御部102は、生成した地名音声認識辞書情報及び道路名音声認識辞書情報を音声認識辞書メモリ120に記憶させる。音声認識辞書メモリ120は、これら地名音声認識辞書情報及び道路名音声認識辞書情報を記憶する。   Further, the control unit 102 stores the generated place name speech recognition dictionary information and road name speech recognition dictionary information in the speech recognition dictionary memory 120. The speech recognition dictionary memory 120 stores the place name speech recognition dictionary information and the road name speech recognition dictionary information.

上述した地名認識辞書情報及び道路名認識辞書情報の生成及び記憶がなされた後、音声認識による目的地設定が行われる。図2は、音声認識による目的地設定の動作を示すフローチャートである。   After the above-described place name recognition dictionary information and road name recognition dictionary information are generated and stored, destination setting is performed by voice recognition. FIG. 2 is a flowchart showing a destination setting operation by voice recognition.

制御部102は、利用者により操作ボタン30が操作されて、目的地の地名及び道路名の音声認識が指示されたか否かを判定する(S101)。目的地の地名及び道路名の音声認識が指示された場合、制御部102は、操作画面・マーク描画部108に対して、利用者が文字を選択するための操作画面(文字選択画面)の画像の描画を指示する。操作画面・マーク描画部108は、この指示に応じて、文字選択画面の画像を描画する。   The control unit 102 determines whether or not the user has operated the operation button 30 to instruct voice recognition of the place name and road name of the destination (S101). When voice recognition of a destination place name and a road name is instructed, the control unit 102 displays an operation screen (character selection screen) for the user to select characters on the operation screen / mark drawing unit 108. Instruct to draw. In response to this instruction, the operation screen / mark drawing unit 108 draws an image of the character selection screen.

文字選択画面の画像は、画像合成部118を介してディスプレイ70に出力され、当該ディスプレイに表示される。図4は、文字選択画面の構成を示す図である。図4に示す文字選択画面は、五十音の各文字のボタン201と、選択された文字又は文字列の表示欄202と、選択された文字又は文字列を確定させるための確定ボタン203の各画像を含んで構成される。   The image of the character selection screen is output to the display 70 via the image composition unit 118 and displayed on the display. FIG. 4 is a diagram showing the configuration of the character selection screen. The character selection screen shown in FIG. 4 includes a button 201 for each character of Japanese syllabary, a display column 202 for a selected character or character string, and a confirmation button 203 for confirming the selected character or character string. Consists of images.

次に、制御部102は、利用者によって文字又は文字列が選択されたか否かを判定する(S103)。具体的には、ディスプレイ70に文字選択画面が表示されている状態において、利用者がタッチパネル90に指等を接触すると、当該タッチパネル90は、制御部102に対して、接触位置を出力する。制御部102は、その接触位置と、文字選択画面における、文字ボタン201及び確定ボタン203の位置とに基づいて、利用者がどの文字ボタン201を選択したか否か、あるいは、確定ボタン203を選択したか否かを判定することができる。   Next, the control unit 102 determines whether or not a character or character string has been selected by the user (S103). Specifically, when the user touches the touch panel 90 with a character or the like being displayed on the display 70, the touch panel 90 outputs a contact position to the control unit 102. Based on the contact position and the positions of the character button 201 and the confirmation button 203 on the character selection screen, the control unit 102 selects which character button 201 the user has selected or selects the confirmation button 203. It can be determined whether or not.

そして、1又は複数の文字ボタン201を選択した後、確定ボタン203を選択した場合には、1又は複数の文字ボタン201に対応する文字又は文字列が選択されたと判定する。文字又は文字列が選択された場合には、制御部102は、その文字又は文字列を生成する(S104)。ここで、文字列は、文字ボタン201の選択順に対応する文字の配列となる。   If one or more character buttons 201 are selected and then the confirm button 203 is selected, it is determined that a character or character string corresponding to the one or more character buttons 201 has been selected. When a character or a character string is selected, the control unit 102 generates the character or character string (S104). Here, the character string is an array of characters corresponding to the selection order of the character buttons 201.

次に、制御部102は、音声認識辞書メモリ120に記憶された地名音声認識辞書情報を構成する地名文字列のうち、生成した文字又は文字列を先頭に含む地名文字列、及び、音声認識辞書メモリ120に記憶された道路名音声認識辞書情報を構成する道路名文字列のうち、生成した文字又は文字列を先頭に含む道路名文字列を抽出する(S105)。   Next, the control unit 102 generates a place name character string including a generated character or a character string at the head of the place name character strings constituting the place name speech recognition dictionary information stored in the speech recognition dictionary memory 120, and the speech recognition dictionary. Of the road name character strings constituting the road name speech recognition dictionary information stored in the memory 120, a road name character string including the generated character or character string at the head is extracted (S105).

次に、制御部102は、音声認識部122に対して、音声認識を指示する。音声認識部122は、この指示に応じて、マイクロホン92から送られる利用者の音声に対応する音声信号入力すると、利用者の音声認識を行い、利用者の音声に対応するビット列であるパターン情報(利用者音声パターン)を生成する。更に、音声認識部122は、その利用者音声パターンに対応する文字列(利用者音声文字列)を生成する(S106)。生成された利用者音声文字列は、制御部102へ出力される。   Next, the control unit 102 instructs the voice recognition unit 122 to perform voice recognition. In response to this instruction, when the voice recognition unit 122 receives a voice signal corresponding to the user's voice sent from the microphone 92, the voice recognition unit 122 recognizes the user's voice and performs pattern information (a bit string corresponding to the user's voice). User voice pattern). Further, the voice recognition unit 122 generates a character string (user voice character string) corresponding to the user voice pattern (S106). The generated user voice character string is output to the control unit 102.

次に、制御部102は、利用者音声文字列をキーとして、S105において抽出した地名文字列及び道路名文字列を検索し、これら抽出した地名文字列及び道路名文字列のうち、利用者音声文字列に最も類似するものを特定する(S107)。ここでは、例えば、制御部102は、抽出した地名文字列及び道路名文字列のうち、利用者音声文字列と完全一致するものを特定し、完全一致するものが存在しない場合には、利用者音声文字列と1文字違いのものを特定するというように、類似の度合を徐々に下げて特定処理を行うことで、抽出した地名文字列及び道路名文字列のうち、利用者音声文字列に最も類似するものを特定する。   Next, the control unit 102 searches the place name character string and road name character string extracted in S105 using the user voice character string as a key, and the user voice is extracted from the extracted place name character string and road name character string. The most similar character string is specified (S107). Here, for example, the control unit 102 identifies a place name character string and a road name character string extracted that completely match the user voice character string, and if there is no exact match, the user By specifying the process by gradually decreasing the degree of similarity, such as specifying a character that differs from the phonetic character string by one character, the user's phonetic character string is extracted from the extracted place name character string and road name character string. Identify the most similar.

次に、制御部102は、S107において特定した地名文字列又は道路名文字列に対応する音声パターンを生成し、更に、その音声パターンに対応する音声信号を生成する。更に、制御部102は、生成した音声信号に対応する音声をスピーカ80から出力させる(S108)。   Next, the control unit 102 generates a sound pattern corresponding to the place name character string or the road name character string specified in S107, and further generates a sound signal corresponding to the sound pattern. Further, the control unit 102 causes the speaker 80 to output sound corresponding to the generated sound signal (S108).

その後、制御部102は、利用者によって、出力した音声に対応する地名又は道路名が目的地として確定されたか否かを判定する(S109)。例えば、利用者が操作ボタン30の確定ボタン(図示せず)を押下した場合には、制御部102は、出力した音声に対応する地名又は道路名が目的地をして確定されたと判定する。   Thereafter, the control unit 102 determines whether or not the place name or road name corresponding to the output voice has been determined as the destination by the user (S109). For example, when the user presses a confirmation button (not shown) of the operation button 30, the control unit 102 determines that the place name or road name corresponding to the output voice has been decided as the destination.

地名又は道路名が目的地として確定した場合には、制御部102は、その確定した地名又は道路名を目的地として設定する(S110)。具体的には、制御部102は、バッファメモリ104に記憶されている地域情報及び道路情報のうち、確定した地名に対応する地名文字列を含む地域情報又は確定した道路名に対応する道路名文字列を含む道路情報を特定する。更に、制御部102は、地域情報を特定した場合には、その地域情報内の代表点の経度及び緯度を目的地として設定し、道路情報を特定した場合には、その道路情報内の複数のノードのいずれかの緯度及び経度(例えば、車両の位置に最も近いノードの経度及び緯度)を目的地として設定する。その後は、その設定された目的地までの誘導経路が探索される。   When the place name or road name is confirmed as the destination, the control unit 102 sets the decided place name or road name as the destination (S110). Specifically, the control unit 102 includes, in the area information and road information stored in the buffer memory 104, the area information including the place name character string corresponding to the confirmed place name or the road name character corresponding to the confirmed road name. Identify road information including columns. Furthermore, when specifying the area information, the control unit 102 sets the longitude and latitude of the representative point in the area information as the destination, and when specifying the road information, the control unit 102 sets a plurality of points in the road information. The latitude and longitude of any one of the nodes (for example, the longitude and latitude of the node closest to the vehicle position) is set as the destination. Thereafter, a guidance route to the set destination is searched.

一方、利用者によって、出力した音声に対応する地名又は道路名が目的地として確定されなかった場合、例えば、利用者が操作ボタン30の取り消しボタン(図示せず)を押下した場合には、制御部102は、S107において特定した地名文字列又は道路名文字列を、その後にS107において地名文字列又は道路名文字列を特定する際の対象から除外する(S111)。その後は、S107以降の動作が繰り返され、制御部102は、残りの地名文字列及び道路名文字列のうち、利用者音声文字列に最も類似するものを特定する(S107)。   On the other hand, when the place name or road name corresponding to the output voice is not determined by the user as the destination, for example, when the user presses a cancel button (not shown) of the operation button 30, control is performed. The unit 102 excludes the place name character string or the road name character string specified in S107 from the target when the place name character string or the road name character string is specified in S107 (S111). Thereafter, the operations after S107 are repeated, and the control unit 102 identifies the most similar place name character string and road name character string to the user voice character string (S107).

上述した実施形態において、制御部102は、取得手段、文字列抽出手段及び文字列検索手段に対応し、音声認識辞書メモリ120は、記憶手段に対応する。また、音声認識部122は、音声認識手段に対応し、スピーカ80は、出力手段に対応し、操作画面・マーク描画部108は、表示処理手段に対応する。   In the embodiment described above, the control unit 102 corresponds to an acquisition unit, a character string extraction unit, and a character string search unit, and the speech recognition dictionary memory 120 corresponds to a storage unit. The voice recognition unit 122 corresponds to a voice recognition unit, the speaker 80 corresponds to an output unit, and the operation screen / mark drawing unit 108 corresponds to a display processing unit.

このように、本実施形態のナビゲーション装置100では、ディスプレイ70に文字選択画面が表示されている状態において、利用者がタッチパネル90に指等を接触させて文字又は文字列を選択すると、制御部102は、音声認識辞書メモリ120に記憶された地名音声認識辞書情報を構成する地名文字列及び道路名音声認識辞書情報を構成する道路名文字列のうち、利用者によって選択された文字又は文字列を先頭に含む地名文字列及び道路名文字列を抽出する。その後、利用者が音声を発すると、音声認識部122は、その音声に対応する利用者音声文字列を生成し、制御部102は、抽出した地名文字列及び道路名文字列のうち、利用者音声文字列に最も類似するものを特定する。この特定された地名文字列に対応する地名又は道路名文字列に対応する道路名が目的地候補となる。   As described above, in the navigation device 100 of the present embodiment, when the user selects a character or a character string by touching the touch panel 90 with a finger or the like while the character selection screen is displayed on the display 70, the control unit 102 Is a character or character string selected by the user among the place name character string constituting the place name voice recognition dictionary information and the road name character string constituting the road name voice recognition dictionary information stored in the voice recognition dictionary memory 120. The place name character string and road name character string included in the head are extracted. Thereafter, when the user utters a voice, the voice recognition unit 122 generates a user voice character string corresponding to the voice, and the control unit 102 selects the user among the extracted place name character string and road name character string. Identify the most similar to the phonetic string. A place name corresponding to the specified place name character string or a road name corresponding to the road name character string is a destination candidate.

従って、利用者の文字又は文字列の選択に応じて、地名音声認識辞書情報を構成する地名文字列及び道路名音声認識辞書情報を構成する道路名文字列が絞り込まれた上で、更に、音声認識による地名音声認識辞書情報及び道路名音声認識辞書情報の絞り込みと、音声認識による目的地候補の検索とが同時に行われており、検索の対象となる地名音声認識辞書情報を構成する地名文字列及び道路名音声認識辞書情報を構成する道路名文字列の量を減らし、検索の確実性が向上する。また、地名音声認識辞書情報を構成する地名文字列及び道路名音声認識辞書情報を構成する道路名文字列の絞り込みは、利用者がタッチパネル90に指等を接触させて選択した文字又は文字列に基づいてなされており、従来のようにその絞り込みの際に音声認識を用いるものではないため、誤りが生じにくく、検索の確実性が向上する。   Therefore, according to the selection of the user's character or character string, the place name character string constituting the place name speech recognition dictionary information and the road name character string constituting the road name speech recognition dictionary information are further narrowed down, and then the voice Location name speech recognition dictionary information and road name speech recognition dictionary information by recognition and destination candidate search by speech recognition are simultaneously performed, and place name character strings constituting location name speech recognition dictionary information to be searched And the amount of road name character strings constituting the road name speech recognition dictionary information is reduced, and the certainty of search is improved. Further, the narrowing of the place name character string constituting the place name speech recognition dictionary information and the road name character string constituting the road name speech recognition dictionary information is performed by selecting the character or character string selected by the user by touching the touch panel 90 with a finger or the like. This is based on this, and since speech recognition is not used when narrowing down as in the prior art, errors are unlikely to occur and the certainty of search is improved.

なお、上述した実施形態では、図3のS108において、S107にて特定した地名文字列又は道路名文字列に対応する地名又は道路名の音声を出力したが、ディスプレイ70に表示させるようにしてもよい。また、上述した実施形態では、地名音声認識辞書情報及び道路名音声認識辞書情報から抽出した地名文字列及び道路名文字列のうち、利用者音声文字列に最も類似するものを特定したが、利用者音声文字列に類似する複数の地名文字列及び道路名文字列を特定するようにしてもよい。この場合、例えば、利用者音声文字列に完全一致する地名文字列及び道路名文字列と、1文字違いの地名文字列及び道路名文字列とが特定される。   In the above-described embodiment, the sound of the place name or road name corresponding to the place name character string or the road name character string specified in S107 is output in S108 of FIG. 3, but may be displayed on the display 70. Good. Further, in the above-described embodiment, the place name character string and the road name character string extracted from the place name speech recognition dictionary information and the road name speech recognition dictionary information are identified as being most similar to the user speech character string. A plurality of place name character strings and road name character strings similar to the person voice character string may be specified. In this case, for example, a place name character string and a road name character string that completely match the user voice character string, and a place name character string and a road name character string that are different by one character are specified.

また、上述した実施形態では、目的地が設定地点となる場合における、当該目的地の音声認識による設定について説明したが、他の設定地点、例えば、目的地に至るまでに経由する経由地等の音声認識による設定においても、同様に本発明を適用することができる。   Further, in the above-described embodiment, the setting by the voice recognition of the destination when the destination is the setting point has been described. However, other setting points, for example, a waypoint through which the destination is reached The present invention can be similarly applied to settings by voice recognition.

以上、説明したように、本発明に係るナビゲーション装置は、音声認識に基づく地名や道路名の検索の確実性を向上させることができ、ナビゲーション装置として有用である。   As described above, the navigation device according to the present invention can improve the certainty of searching for place names and road names based on voice recognition, and is useful as a navigation device.

ナビゲーション装置の構成を示す図である。It is a figure which shows the structure of a navigation apparatus. 地名音声認識辞書情報及び道路名音声認識辞書情報の構成を示す図である。It is a figure which shows the structure of place name speech recognition dictionary information and road name speech recognition dictionary information. 音声認識による目的地設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the destination setting by speech recognition. 文字選択画面の一例を示す図である。It is a figure which shows an example of a character selection screen.

符号の説明Explanation of symbols

10 本体
20 ハードディスクドライブ(HDD)
22 ハードディスク
30 操作ボタン
40 通信部
50 GPS受信部
60 自律航法センサ
70 ディスプレイ
80 スピーカ
90 タッチパネル
92 マイクロホン
100 ナビゲーション装置
102 制御部
104 バッファメモリ
106 地図描画部
108 操作画面・マーク描画部
110 誘導経路記憶部
112 誘導経路描画部
118 画像合成部
120 音声認識辞書メモリ
122 音声認識部
10 Main body 20 Hard disk drive (HDD)
DESCRIPTION OF SYMBOLS 22 Hard disk 30 Operation button 40 Communication part 50 GPS receiving part 60 Autonomous navigation sensor 70 Display 80 Speaker 90 Touch panel 92 Microphone 100 Navigation apparatus 102 Control part 104 Buffer memory 106 Map drawing part 108 Operation screen and mark drawing part 110 Guidance path memory | storage part 112 Guide route drawing unit 118 Image composition unit 120 Speech recognition dictionary memory 122 Speech recognition unit

Claims (5)

設定地点となり得る地名及び道路名の文字列を記憶した記憶手段と、
利用者による操作部の操作によって選択された文字又は文字列を取得する取得手段と、
前記記憶手段に記憶された地名及び道路名の文字列のうち、前記取得手段により取得された文字又は文字列を先頭に含むものを抽出する文字列抽出手段と、
前記利用者が発する音声を認識し、認識結果を生成する音声認識手段と、
前記文字列抽出手段により抽出された地名及び道路名の文字列のうち、前記音声認識手段により生成された認識結果に対応する地名又は道路名の文字列を検索する文字列検索手段とを有するナビゲーション装置。
Storage means for storing character strings of place names and road names that can be set points;
An acquisition means for acquiring a character or a character string selected by an operation of an operation unit by a user;
A character string extracting unit that extracts a character string or a character string acquired by the acquiring unit from a character string of a place name and a road name stored in the storage unit;
Voice recognition means for recognizing the voice emitted by the user and generating a recognition result;
Navigation having character string search means for searching a character string of a place name or road name corresponding to a recognition result generated by the voice recognition means among character strings of place names and road names extracted by the character string extraction means. apparatus.
前記音声認識手段は、前記利用者が発する音声に対応する文字列を認識結果として生成し、
前記文字列検索手段は、前記文字列抽出手段により抽出された地名及び道路名の文字列のうち、前記音声認識手段により生成された利用者が発する音声に対応する文字列に最も類似する地名及び道路名の文字列を特定する請求項1に記載のナビゲーション装置。
The voice recognition means generates a character string corresponding to the voice uttered by the user as a recognition result,
The character string search means includes a place name that is most similar to a character string corresponding to a voice generated by the user and generated by the voice recognition means among character strings of place names and road names extracted by the character string extraction means. The navigation device according to claim 1, wherein a character string of a road name is specified.
前記文字列検索手段により検索された地名又は道路名の文字列を出力する出力手段を有する請求項1又は2に記載のナビゲーション装置。   The navigation apparatus according to claim 1, further comprising an output unit that outputs a character string of a place name or a road name searched by the character string search unit. 前記出力手段は、前記文字列検索手段により検索された地名又は道路名の文字列に対応する音声を出力する請求項3に記載のナビゲーション装置。   The navigation device according to claim 3, wherein the output unit outputs a voice corresponding to a character string of a place name or a road name searched by the character string search unit. タッチパネル方式の表示ユニットに文字選択用の画面を表示する表示処理手段を有し、
前記取得手段は、前記利用者による前記表示ユニットに接触する操作によって選択された文字又は文字列を取得する請求項1乃至4のいずれかに記載のナビゲーション装置。
Display processing means for displaying a screen for character selection on a touch panel type display unit;
The navigation device according to claim 1, wherein the acquisition unit acquires a character or a character string selected by an operation of touching the display unit by the user.
JP2008202847A 2008-08-06 2008-08-06 Navigation system Withdrawn JP2010038751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008202847A JP2010038751A (en) 2008-08-06 2008-08-06 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008202847A JP2010038751A (en) 2008-08-06 2008-08-06 Navigation system

Publications (1)

Publication Number Publication Date
JP2010038751A true JP2010038751A (en) 2010-02-18

Family

ID=42011457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008202847A Withdrawn JP2010038751A (en) 2008-08-06 2008-08-06 Navigation system

Country Status (1)

Country Link
JP (1) JP2010038751A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8547779B2 (en) 2009-02-24 2013-10-01 Taiwan Semiconductor Manufacturing Company, Ltd. Memory circuits, systems, and method of interleavng accesses thereof
JP2015010979A (en) * 2013-07-01 2015-01-19 株式会社 ミックウェア Information processor, information processing method and program
CN110111781A (en) * 2018-01-31 2019-08-09 丰田自动车株式会社 Information processing unit and information processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8547779B2 (en) 2009-02-24 2013-10-01 Taiwan Semiconductor Manufacturing Company, Ltd. Memory circuits, systems, and method of interleavng accesses thereof
JP2015010979A (en) * 2013-07-01 2015-01-19 株式会社 ミックウェア Information processor, information processing method and program
CN110111781A (en) * 2018-01-31 2019-08-09 丰田自动车株式会社 Information processing unit and information processing method
CN110111781B (en) * 2018-01-31 2023-02-17 丰田自动车株式会社 Information processing apparatus, information processing method, and computer program

Similar Documents

Publication Publication Date Title
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
US20060074661A1 (en) Navigation apparatus
JP4466379B2 (en) In-vehicle speech recognition device
JP2008014818A (en) Operation control device and program
JP2010145262A (en) Navigation apparatus
JP2011179917A (en) Information recording device, information recording method, information recording program, and recording medium
JP2007248523A (en) Voice recognition apparatus and navigation system
JP4967519B2 (en) Voice recognition device
JP2006012081A (en) Content output device, navigation device, content output program and content output method
JP5217838B2 (en) In-vehicle device operating device and in-vehicle device operating method
JP5364412B2 (en) Search device
JP2010038751A (en) Navigation system
JP2008134308A (en) Facility retrieving device
JP2007286358A (en) Navigation device and its address input method
JP2002350163A (en) Navigation device
JP5455355B2 (en) Speech recognition apparatus and program
WO2009122773A1 (en) Speech device, speech control program, and speech control method
EP1895508B1 (en) Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2006171305A (en) Navigation device, and information retrieval method using speech recognition for the navigation device
JP2006039954A (en) Database retrieval system, program, and navigation system
JP4705398B2 (en) Voice guidance device, control method and program for voice guidance device
WO2019124142A1 (en) Navigation device, navigation method, and computer program
US20150192425A1 (en) Facility search apparatus and facility search method
JP2007280104A (en) Information processor, information processing method, information processing program, and computer readable recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101