JP2013015732A - Navigation device, voice recognition method using navigation device, and program - Google Patents

Navigation device, voice recognition method using navigation device, and program Download PDF

Info

Publication number
JP2013015732A
JP2013015732A JP2011149488A JP2011149488A JP2013015732A JP 2013015732 A JP2013015732 A JP 2013015732A JP 2011149488 A JP2011149488 A JP 2011149488A JP 2011149488 A JP2011149488 A JP 2011149488A JP 2013015732 A JP2013015732 A JP 2013015732A
Authority
JP
Japan
Prior art keywords
language
voice
navigation device
unit
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011149488A
Other languages
Japanese (ja)
Other versions
JP5851740B2 (en
Inventor
Hisashi Takahashi
久 高橋
Hiroaki Kokubo
浩明 小窪
Takeshi Honma
健 本間
Hiroaki Takatsuki
宏明 高月
Takaaki Ishii
隆昭 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011149488A priority Critical patent/JP5851740B2/en
Publication of JP2013015732A publication Critical patent/JP2013015732A/en
Application granted granted Critical
Publication of JP5851740B2 publication Critical patent/JP5851740B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technique which can reduce time and effort of a user in re-inputting voice when a part of input voice is erroneously recognized.SOLUTION: A navigation device 100 having a plurality of selection buttons, comprises: a storage unit for storing language groups which can be divided into a plurality of components and have hierarchy structure; a voice input unit for inputting voice; a voice recognition unit for determining a candidate for a language group corresponding to the voice input by the voice input unit among language groups stored in the storage unit; and a display unit for displaying the language group candidate determined by the voice recognition unit by dividing the language group candidate into components by the number of the selection buttons. When one of the components included in the displayed language group is selected by the selection button, the voice recognition unit re-determines a language group candidate changed based on the selected component and components lower in hierarchy than the selected component.

Description

本発明は、ナビゲーション装置、ナビゲーション装置を用いた音声認識方法、および、プログラムに関する。   The present invention relates to a navigation device, a voice recognition method using the navigation device, and a program.

ナビゲーション装置の中には、音声認識機能を有するものがある。音声認識機能を用いた音声の認識率は、近年めざましく向上してきている(例えば、特許文献1)。   Some navigation devices have a voice recognition function. The speech recognition rate using the speech recognition function has been remarkably improved in recent years (for example, Patent Document 1).

しかし、音声認識が行われる環境によっては、誤認識してしまう場合がある。そして、入力された音声が誤認識されると、ユーザは発話によって音声の再入力を行わなければならない。   However, depending on the environment in which voice recognition is performed, it may be erroneously recognized. If the input voice is erroneously recognized, the user must re-input the voice by speaking.

一般的には、このような音声の再入力では、ユーザは、一度入力した音声(言葉)の全内容を入力(発話)し直す必要がある。   In general, in such re-input of voice, the user needs to input (speak) all the contents of the voice (word) once input.

特開2008−20872号JP 2008-20872 A

しかし、入力した音声のうち一部分だけが誤認識されている場合には、全内容を入力し直すことは、ユーザにとって負担となる。   However, when only a part of the input voice is erroneously recognized, it is burdensome for the user to input all the contents again.

本発明は、入力した音声のうちの一部分が誤認識された場合に、音声の再入力にかかるユーザの手間を軽減する技術を提供することを目的とする。   An object of the present invention is to provide a technique for reducing a user's trouble of re-inputting a voice when a part of the inputted voice is erroneously recognized.

上記課題を解決するための本願発明は、複数の選択ボタンを備えるナビゲーション装置であって、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部と、音声を入力する音声入力部と、前記記憶部に格納されている言語系列の中から、前記音声入力部から入力された音声に対応する言語系列の候補を特定する音声認識部と、前記音声認識部によって特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示部と、を備える。前記音声認識部は、表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する。   The present invention for solving the above problem is a navigation device having a plurality of selection buttons, a storage unit storing a language sequence that can be divided into a plurality of components and has a hierarchical structure, and a voice is input A speech input unit, a speech recognition unit that identifies language sequence candidates corresponding to speech input from the speech input unit, among the language sequences stored in the storage unit, and the speech recognition unit A display unit that divides the language sequence candidates into components of the number of selection buttons. When one component included in the displayed language sequence is selected using the selection button, the speech recognition unit changes the selected component and a component lower than the component. Re-specify language sequence candidates.

本発明の一実施形態が適用されたナビゲーション装置の概略構成図である。1 is a schematic configuration diagram of a navigation device to which an embodiment of the present invention is applied. (A)地図データの概略データ構造を示す図である。(B)施設情報の詳細なデータ構造を示す図である。(A) It is a figure which shows the schematic data structure of map data. (B) It is a figure which shows the detailed data structure of facility information. 住所情報の詳細なデータ構造(階層構造)を示す図である。It is a figure which shows the detailed data structure (hierarchical structure) of address information. (A)ステアリングの概観図である。(B)ステアリングスイッチの詳細について示す図である。(A) It is a general-view figure of steering. (B) It is a figure shown about the detail of a steering switch. 演算処理部の機能ブロック図である。It is a functional block diagram of an arithmetic processing part. 音声認識処理の概要を示すフロー図である。It is a flowchart which shows the outline | summary of a speech recognition process. (A)〜(E)音声認識処理中の画面遷移図である。(A)-(E) It is a screen transition diagram during voice recognition processing.

以下、本発明の実施形態の一例を図面を参照して説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態が適用されたナビゲーション装置100の概略構成図である。図示するようにナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(マイクロフォン41、スピーカ42)と、入力装置5(タッチパネル51、ダイヤルスイッチ52、ステアリングスイッチ53)と、車速センサ6と、ジャイロセンサ7と、GPS受信装置8と、を備えている。ナビゲーション装置100は、車両に載置されている車載用ナビゲーション装置としてもよいし、携帯電話やPDAなどの携帯端末としてもよい。   FIG. 1 is a schematic configuration diagram of a navigation device 100 to which an embodiment of the present invention is applied. As illustrated, the navigation device 100 includes an arithmetic processing unit 1, a display 2, a storage device 3, a voice input / output device 4 (microphone 41, speaker 42), and an input device 5 (touch panel 51, dial switch 52, steering wheel). A switch 53), a vehicle speed sensor 6, a gyro sensor 7, and a GPS receiver 8. The navigation device 100 may be an in-vehicle navigation device mounted on a vehicle, or a mobile terminal such as a mobile phone or a PDA.

演算処理部1は、様々な処理を行う中心的ユニットである。例えば、演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1に接続するためのI/F(インタフェース)24と、を有する。そして、演算処理部1は、各デバイスをバス25で相互に接続した構成からなる。そして、後述する各機能部(101〜104)は、CPU21がRAM22などのメモリに読み出したプログラムを実行することで実現される。   The arithmetic processing unit 1 is a central unit that performs various processes. For example, the arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random) that stores map data, arithmetic data, and the like read from the storage device 3. (Access Memory) 22, ROM (Read Only Memory) 23 for storing programs and data, and I / F (interface) 24 for connecting various types of hardware to the arithmetic processing unit 1. The arithmetic processing unit 1 has a configuration in which devices are connected to each other via a bus 25. And each function part (101-104) mentioned later is implement | achieved when CPU21 runs the program read to memory, such as RAM22.

例えば、演算処理部1は、車速センサ6、ジャイロセンサ7、GPS受信装置8から出力される情報を基にして現在地を算出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置3から読み出す。また、読み出した地図データをグラフィック展開し、そこに現在地マーク(或いは、移動体の位置を示す移動体マーク)を重ねてディスプレイ2に表示する。また、記憶装置3に記憶されている地図データを用いて、ユーザから指示された出発地、又は演算処理部1で算出された現在地と、目的地と、を結ぶ最適な経路(以下では「推奨経路」という)を探索する。また、音声入出力装置4のスピーカ42やディスプレイ2を用いてユーザを誘導する。   For example, the arithmetic processing unit 1 calculates the current location based on information output from the vehicle speed sensor 6, the gyro sensor 7, and the GPS receiver 8. Further, map data necessary for display is read out from the storage device 3 based on the obtained current location information. Further, the read map data is developed in a graphic form, and a current location mark (or a moving body mark indicating the position of the moving body) is superimposed on the map data and displayed on the display 2. Further, using the map data stored in the storage device 3, an optimal route (hereinafter referred to as “recommended”) that connects the starting point instructed by the user or the current position calculated by the arithmetic processing unit 1 and the destination. Search for “route”. The user is guided using the speaker 42 and the display 2 of the voice input / output device 4.

ディスプレイ2は、文字や画像の表示を行うための画面を備え、演算処理部1等で生成されたグラフィックス情報を前記画面上に表示するユニットである。ディスプレイ2は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどで構成される。   The display 2 includes a screen for displaying characters and images, and is a unit that displays graphics information generated by the arithmetic processing unit 1 and the like on the screen. The display 2 is configured by a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

記憶装置3は、CD−ROMやDVD−ROMやHDDやICカードといった記憶媒体で構成される。この記憶媒体には、例えば、地図データ310、辞書データ、音声データ、動画データ、等が記憶されている。また、記憶媒体は、電源供給が停止した場合でも必要なデータを保持可能なフラッシュメモリなどで構成されていてもよい。   The storage device 3 is composed of a storage medium such as a CD-ROM, DVD-ROM, HDD, or IC card. In this storage medium, for example, map data 310, dictionary data, audio data, moving image data, and the like are stored. The storage medium may be configured by a flash memory or the like that can hold necessary data even when power supply is stopped.

図2(A)は、地図データ310の概略データ構造を示す図である。図示するように、地図データ310は、地図上の区画された領域であるメッシュの識別コード(メッシュID)311ごとに、そのメッシュ領域に含まれている道路を構成する各リンクのリンクデータ320を含んでいる。   FIG. 2A is a diagram illustrating a schematic data structure of the map data 310. As shown in the figure, the map data 310 includes link data 320 of each link constituting the road included in the mesh area for each mesh identification code (mesh ID) 311 that is a partitioned area on the map. Contains.

リンクデータ320は、リンクの識別コード(リンクID)321ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報322、リンクを含む道路の種別情報を示す道路種別323、リンクの長さを示すリンク長情報324、リンク旅行時間325、2つのノードにそれぞれ接続するリンクの識別コード(接続リンクID)326、リンクの周辺に位置する施設情報327、などを含んでいる。なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードを区別することで、道路の上り方向と下り方向を、それぞれ別のリンクとして管理することができる。また、地図データ310には、地図表示における道路や施設を表示するための描画データが格納されている。   For each link identification code (link ID) 321, link data 320 includes coordinate information 322 of two nodes (start node and end node) constituting the link, road type 323 indicating road type information including the link, link Link length information 324 indicating the length of the link, link travel time 325, identification code (connection link ID) 326 of the link connected to each of the two nodes, facility information 327 located around the link, and the like. Here, by distinguishing the start node and the end node for the two nodes constituting the link, the upward direction and the downward direction of the road can be managed as different links. The map data 310 stores drawing data for displaying roads and facilities in the map display.

図2(B)は、施設情報327の詳細なデータ構造を示す図である。図示するように、施設情報327は、施設位置3271と、施設名称3272と、電話番号3273と、住所情報3274と、を少なくとも含んでいる。   FIG. 2B is a diagram illustrating a detailed data structure of the facility information 327. As illustrated, the facility information 327 includes at least a facility position 3271, a facility name 3272, a telephone number 3273, and address information 3274.

施設位置3271は、施設の位置を示す情報を含み、例えば、座標データからなる。   The facility position 3271 includes information indicating the position of the facility, and includes, for example, coordinate data.

施設名称3272は、施設の名称を示す情報を含み、例えば「大阪第一ホテル」等の文字列からなる。   The facility name 3272 includes information indicating the name of the facility, and includes a character string such as “Osaka Daiichi Hotel”, for example.

電話番号3273は、施設の電話番号を示す情報を含み、例えば、数字列からなる。   The telephone number 3273 includes information indicating the telephone number of the facility, and includes, for example, a numeric string.

住所情報3274は、施設の所在地を示す情報を含み、例えば「東京都文京区白山○−○○−○」等の一般的な住所データからなる。   The address information 3274 includes information indicating the location of the facility, and is made up of general address data such as “Bakuyo-ku Hakusan ○-○○-○”, for example.

図3は、住所情報3274の詳細なデータ構造(階層構造)を示す図である。図示するように、住所情報3274は、階層構造を有するデータである。   FIG. 3 is a diagram showing a detailed data structure (hierarchical structure) of the address information 3274. As illustrated, the address information 3274 is data having a hierarchical structure.

例えば、住所情報3274は、図示するように、「県名」を示す上位データ(階層1)と、「市区町村名」を示す中位データ(階層2)と、「町・字、番地」を示す下位データ(階層3)と、を含む。   For example, the address information 3274 includes upper data (level 1) indicating “prefecture name”, middle level data (level 2) indicating “city name”, and “town / character / address” as illustrated. And subordinate data (hierarchy 3).

住所情報3274は、複数の上位データを有し、上位データ(図示する例では「東京都」)ごとに、複数の中位データ(図示する例では「文京区」や「新宿区」)を有する。また、住所情報3274は、中位データ(図示する例では「文京区」)ごとに、複数の下位データ(図示する例では「白山○−○○−○」や「白山○−○○−△」等)を有する。   The address information 3274 has a plurality of high-order data, and each of the high-order data (“Tokyo” in the illustrated example) has a plurality of middle-order data (“Bunkyo-ku” and “Shinjuku-ku” in the illustrated example). . The address information 3274 includes a plurality of subordinate data (“Hakusan ○-○○-○” in the example shown in the figure and “Hakusan ○-○○ -Δ” for each of the intermediate data (“Bunkyo Ward in the example shown in the figure) Etc.).

なお、図示する例では、住所情報3274の階層数は、後述するステアリングスイッチ53に備わる選択ボタン53A〜Cの個数となるように設定されている。   In the illustrated example, the number of hierarchical levels of the address information 3274 is set to be the number of selection buttons 53A to 53C provided in a steering switch 53 described later.

また、住所情報3274を各階層に分割する方法は、これに限定されず、例えば、中位データ(階層2)を「市区町村名」を示すデータに変更し、下位データ(階層3)を「町・字、番地」を示すデータ等に変更してもよい。   The method of dividing the address information 3274 into each hierarchy is not limited to this. For example, the middle-level data (hierarchy 2) is changed to data indicating “city name”, and the lower data (hierarchy 3) is changed. It may be changed to data indicating “town / character / address”.

図1に戻り、音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、運転手やその他の搭乗者から発された音声などを取得する。スピーカ42は、演算処理部1で生成された音声信号を出力する。これらのマイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配置されている。   Returning to FIG. 1, the voice input / output device 4 includes a microphone 41 as a voice input device and a speaker 42 as a voice output device. The microphone 41 acquires voices and the like emitted from the driver and other passengers. The speaker 42 outputs the audio signal generated by the arithmetic processing unit 1. The microphone 41 and the speaker 42 are separately arranged at a predetermined part of the vehicle.

入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、ステアリングスイッチ53と、その他のハードスイッチ(図示せず)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、ナビゲーション装置100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報をナビゲーション装置100に送出することができる。   The input device 5 is a unit that receives instructions from the user. The input device 5 includes a touch panel 51, a dial switch 52, a steering switch 53, a scroll key that is another hard switch (not shown), a scale change key, and the like. In addition, the input device 5 includes a remote controller that can perform operation instructions to the navigation device 100 remotely. The remote controller includes a dial switch, a scroll key, a scale change key, and the like, and can send information on operation of each key or switch to the navigation device 100.

タッチパネル51は、ディスプレイ2の表示面に貼られた透過性のある操作パネルである。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。   The touch panel 51 is a transparent operation panel attached to the display surface of the display 2. The touch panel 51 specifies a touch position corresponding to the XY coordinates of the image displayed on the display 2, converts the touch position into coordinates, and outputs the coordinate. The touch panel 51 includes a pressure-sensitive or electrostatic input detection element.

ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、ダイヤルスイッチ52の回転角度を求める。   The dial switch 52 is configured to be rotatable clockwise and counterclockwise, generates a pulse signal for every rotation of a predetermined angle, and outputs the pulse signal to the arithmetic processing unit 1. The arithmetic processing unit 1 obtains the rotation angle of the dial switch 52 from the number of pulse signals.

ステアリングスイッチ53は、車両の進行方向を変更するためのステアリング200に配置され、ユーザ(ドライバー)がステアリング200を操作しながらタッチ可能なボタン群で構成される。   The steering switch 53 is disposed on the steering 200 for changing the traveling direction of the vehicle, and includes a button group that a user (driver) can touch while operating the steering 200.

図4(A)は、ステアリング200の概観図である。図示するように、ステアリングスイッチ200は、例えば、ステアリング200の操作時においてユーザ(ドライバー)が左手を添える部分(点線で囲まれた部分)に配置される。   FIG. 4A is an overview diagram of the steering 200. As shown in the figure, the steering switch 200 is disposed, for example, in a portion (a portion surrounded by a dotted line) where the user (driver) attaches his left hand when operating the steering 200.

また、図4(B)は、ステアリングスイッチ53の詳細について示す図である。図示するように、ステアリングスイッチ53は、複数(例えば、3つ)の選択ボタン53A〜Cと、確定ボタン53Dと、修正ボタン53Eと、を備える。   FIG. 4B is a diagram showing details of the steering switch 53. As illustrated, the steering switch 53 includes a plurality of (for example, three) selection buttons 53A to 53C, a confirmation button 53D, and a correction button 53E.

選択ボタン53A〜Cは、ディスプレイ2に選択可能に表示された複数の候補の中から、1つの候補を選択する指示を行うためのボタンである。例えば、ナビゲーション装置100で行われた音声認識について複数の結果(候補)がディスプレイ2に表示された場合には、ユーザ(ドライバー)は、いずれか1つの選択ボタン53A〜Cをタッチすることによって、1つの音声認識結果(候補)を選択することができる。   The selection buttons 53 </ b> A to 53 </ b> C are buttons for giving an instruction to select one candidate from a plurality of candidates displayed on the display 2 so as to be selectable. For example, when a plurality of results (candidates) are displayed on the display 2 for voice recognition performed by the navigation device 100, the user (driver) touches one of the selection buttons 53A to 53C, thereby One speech recognition result (candidate) can be selected.

確定ボタン53Dは、選択ボタン53A〜Cを用いて選択された1つの候補に確定する指示を行うためのボタンである。例えば、選択ボタン53A〜Cを用いて1つの音声認識結果(候補)が選択された後に、ユーザ(ドライバー)は、確定ボタン53Dをタッチすることによって、選択された1つの音声認識結果(候補)が正しいものとして確定することができる。   The confirmation button 53D is a button for giving an instruction to confirm one candidate selected using the selection buttons 53A to 53C. For example, after one speech recognition result (candidate) is selected using the selection buttons 53A to 53C, the user (driver) touches the confirmation button 53D to select one selected speech recognition result (candidate). Can be determined as correct.

修正ボタン53Eは、選択ボタン53A〜Cを用いて選択された1つの候補について修正する指示を行うためのボタンである。例えば、選択ボタン53A〜Cを用いて1つの音声認識結果(候補)が選択された後に、ユーザ(ドライバー)は、修正ボタン53Eをタッチすることによって、選択された1つの音声認識結果(候補)について修正することができる。   The correction button 53E is a button for giving an instruction to correct one candidate selected using the selection buttons 53A to 53C. For example, after one speech recognition result (candidate) is selected using the selection buttons 53A to 53C, the user (driver) touches the correction button 53E to select one speech recognition result (candidate). Can be corrected.

図1に戻り、車速センサ6、ジャイロセンサ7、及び、GPS受信装置8は、移動体(ナビゲーション装置100)の現在地(自車位置)などを算出するために使用される。車速センサ6は、車速を算出するために用いる車速データを出力するセンサである。ジャイロセンサ7は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置8は、GPS衛星からの信号を受信し、移動体とGPS衛星間の距離とその距離の変化率を3個以上の衛星に対して測定することで、移動体の現在地や進行速度を測定する。   Returning to FIG. 1, the vehicle speed sensor 6, the gyro sensor 7, and the GPS receiver 8 are used to calculate the current location (own vehicle position) of the moving body (navigation device 100). The vehicle speed sensor 6 is a sensor that outputs vehicle speed data used for calculating the vehicle speed. The gyro sensor 7 is composed of an optical fiber gyro, a vibration gyro, or the like, and detects an angular velocity due to the rotation of the moving body. The GPS receiver 8 receives a signal from a GPS satellite, and measures the distance between the mobile body and the GPS satellite and the rate of change of the distance with respect to three or more satellites. Measure.

図5は、演算処理部1の機能ブロック図である。図示するように、演算処理部1は、基本制御部101と、入力受付部102と、出力処理部103と、音声認識部104と、を有する。   FIG. 5 is a functional block diagram of the arithmetic processing unit 1. As illustrated, the arithmetic processing unit 1 includes a basic control unit 101, an input receiving unit 102, an output processing unit 103, and a voice recognition unit 104.

基本制御部101は様々な処理を行う中心的な機能部であり、処理内容に応じて、他の機能部を制御する。例えば、基本制御部101は、各種センサ6、7、GPS受信装置8等の情報を取得し、マップマッチング処理等を行って現在地を特定する。また、基本制御部101は、随時、走行した日付および時刻と、位置と、を対応付けて、リンクごとに走行履歴を記憶装置3に記憶する。さらに、基本制御部101は、各機能部からの要求に応じて、GPS受信装置8によって受信したGPS情報に含まれる現在時刻を出力する。また、基本制御部101は、他の機能部から推奨経路の情報を要求されると、当該情報を出力する。   The basic control unit 101 is a central functional unit that performs various processes, and controls other functional units according to the processing content. For example, the basic control unit 101 acquires information on the various sensors 6 and 7, the GPS receiver 8, and the like, and performs map matching processing and the like to specify the current location. In addition, the basic control unit 101 stores the travel history in the storage device 3 for each link, associating the travel date and time with the position as needed. Further, the basic control unit 101 outputs the current time included in the GPS information received by the GPS receiving device 8 in response to a request from each function unit. In addition, when the basic control unit 101 is requested for information on a recommended route from another functional unit, the basic control unit 101 outputs the information.

また、基本制御部101は、地図データ310を用いて、出発地又は現在地と、目的地と、を結ぶ最適な経路(推奨経路)を探索する。当該経路探索においては、ダイクストラ法等の経路探索ロジックを用いて、道路の所定の区間(例えば、リンク)に対して予め設定されたリンクコスト(図2のリンク旅行時間325でもよい)に基づいて経路を探索する。なお、基本制御部101は、現在の日時に基づいて予測した到着日時・日の種類に対応する統計情報に含まれるリンクコストを用いて、推奨経路を探索してもよい。   In addition, the basic control unit 101 uses the map data 310 to search for an optimal route (recommended route) that connects the departure point or current location and the destination. In the route search, using route search logic such as Dijkstra method, based on a link cost (which may be the link travel time 325 in FIG. 2) set in advance for a predetermined section (for example, a link) of the road. Search for a route. Note that the basic control unit 101 may search for a recommended route using the link cost included in the statistical information corresponding to the arrival date / time type predicted based on the current date / time.

また、基本制御部101は、車両の現在地が推奨経路から逸脱しないように、推奨経路に基づいて誘導情報を生成し、出力処理部103へ出力する。   In addition, the basic control unit 101 generates guidance information based on the recommended route so that the current location of the vehicle does not deviate from the recommended route, and outputs the guidance information to the output processing unit 103.

入力受付部102は、入力装置5またはマイクロフォン41を介して入力されたユーザ(搭乗者)からの指示を受け付け、他の機能部に出力する。例えば、入力受付部102は、ステアリングスイッチ53のいずれかのボタン(選択ボタン53A〜C、確定ボタン53D、修正ボタン53E、等)がタッチされると、タッチされたボタンを特定する情報を、後述する音声認識部104へ出力する。また、入力受付部102は、マイクロフォン41を介して音声(ユーザから発された音声)が入力されると、入力された音声を電気信号(或いはデータ)に変換し、後述する音声認識部104へ出力する。また、入力受付部102は、入力装置5を介して電源の投入や切断等が指示されると、その指示を基本制御部101へ出力する。   The input receiving unit 102 receives an instruction from a user (passenger) input via the input device 5 or the microphone 41 and outputs the received instruction to another functional unit. For example, when any of the buttons (selection buttons 53A to 53C, confirmation button 53D, correction button 53E, etc.) of the steering switch 53 is touched, the input reception unit 102 specifies information for specifying the touched button, which will be described later. To the voice recognition unit 104. Further, when a voice (voice emitted from the user) is input via the microphone 41, the input receiving unit 102 converts the input voice into an electric signal (or data), and the voice receiving unit 104 described later. Output. Further, when an instruction to turn on or off the power is given through the input device 5, the input receiving unit 102 outputs the instruction to the basic control unit 101.

出力処理部103は、ディスプレイ2に、地図、推奨経路、ユーザに通知する各種メッセージ、等を表示させる。具体的には、表示処理部103は、他の機能部からの指示に基づき、ディスプレイ2の画面上に表示させるためのグラフィックス情報を生成してディスプレイ2に送信する。また、出力処理部103は、ディスプレイ2に表示させた地図上に、車両の位置を示す車両マークや各種設定画面などを表示するグラフィック情報を生成してディスプレイ2へ送信する。また、出力処理部103は、基本制御部101から出力された誘導情報に基づく音声信号を、スピーカ42から音声出力させる。   The output processing unit 103 causes the display 2 to display a map, a recommended route, various messages notified to the user, and the like. Specifically, the display processing unit 103 generates graphics information to be displayed on the screen of the display 2 based on an instruction from another functional unit, and transmits the graphics information to the display 2. The output processing unit 103 generates graphic information for displaying a vehicle mark indicating the position of the vehicle, various setting screens, and the like on the map displayed on the display 2, and transmits the graphic information to the display 2. Further, the output processing unit 103 causes the speaker 42 to output a sound signal based on the guidance information output from the basic control unit 101.

音声認識部104は、例えば、目的地となる施設を検索する場合に音声認識処理を行う。具体的には、音声認識部104は、ユーザから発された音声に対応する言語系列の候補を特定する。なお、音声認識部104は、地図データ310の施設情報327に含まれる施設名称3272、電話番号3273、住所情報3274の中から、ユーザから発された音声に対応する言語系列の候補を検索するようにする。   The voice recognition unit 104 performs voice recognition processing, for example, when searching for a destination facility. Specifically, the speech recognition unit 104 identifies language sequence candidates corresponding to speech uttered by the user. Note that the speech recognition unit 104 searches for a language sequence candidate corresponding to the speech uttered by the user from the facility name 3272, the telephone number 3273, and the address information 3274 included in the facility information 327 of the map data 310. To.

また、音声認識部104は、ユーザから発された音声に対応する言語系列の候補のうち、ユーザに選択された候補を、部分的に修正することができる。例えば、音声認識部104は、ユーザに選択された候補を、複数の構成要素に分割する。そして、分割された複数の構成要素の中から、修正する1つの構成要素が選択されると、選択された構成要素について音声の再入力をユーザに対して促す。それから、音声認識部104は、再入力された音声に対応する構成要素の候補を特定し、修正する構成要素として選択されたものと入れ替える。   In addition, the speech recognition unit 104 can partially correct a candidate selected by the user among language sequence candidates corresponding to speech uttered by the user. For example, the voice recognition unit 104 divides the candidate selected by the user into a plurality of components. Then, when one component to be corrected is selected from the plurality of divided components, the user is prompted to re-input voice for the selected component. Then, the voice recognition unit 104 identifies candidate constituent elements corresponding to the re-input voice and replaces them with those selected as the constituent elements to be corrected.

なお、上記した各構成要素は、ナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。   In addition, in order to make an understanding of the structure of the navigation apparatus 100 easy, each above-mentioned component is classified according to the main processing content. The invention of the present application is not limited by the way of classifying the components or their names. The configuration of the navigation device 100 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、各機能部(101〜104)は、ハードウェア(ASICなど)により構築されてもよい。また、各機能部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   Moreover, each function part (101-104) may be constructed | assembled by hardware (ASIC etc.). Further, the processing of each functional unit may be executed by one hardware or may be executed by a plurality of hardware.

次に、上記構成からなるナビゲーション装置100の特徴的な動作について説明する。   Next, a characteristic operation of the navigation device 100 configured as described above will be described.

<音声認識処理>
図6は、ナビゲーション装置100が行う音声認識処理の概要を示すフローチャートである。
<Voice recognition processing>
FIG. 6 is a flowchart showing an outline of the voice recognition process performed by the navigation device 100.

図示するように、入力受付部102は、音声認識処理の開始の指示を受け付けるまで待機する(ステップS101;No)。   As shown in the figure, the input receiving unit 102 waits until an instruction to start the speech recognition process is received (step S101; No).

そして、入力受付部102は、音声認識処理の開始の指示を受け付けると(ステップS101;Yes)、音声認識処理(本フローのステップS102以降の処理)を開始する。例えば、入力受付部102は、目的地を設定する指示が入力装置5を介して入力されると、処理をステップS102に移行する。ただし、音声認識処理を開始するタイミングは、これに限定されない。   When the input receiving unit 102 receives an instruction to start the voice recognition process (step S101; Yes), the input receiving unit 102 starts the voice recognition process (the process after step S102 in this flow). For example, when an instruction to set a destination is input via the input device 5, the input receiving unit 102 proceeds to step S <b> 102. However, the timing for starting the speech recognition process is not limited to this.

処理がステップS102に移行すると、入力受付部102は、マイクロフォン41を介して音声(ユーザから発された音声)が入力されるのを待機する。そして、入力受付部102は、マイクロフォン41を介して音声が入力されると、入力された音声を電気信号(或いはデータ)に変換し、音声認識部104へ出力する(ステップS102)。   When the process proceeds to step S <b> 102, the input reception unit 102 waits for a voice (voice emitted from the user) to be input via the microphone 41. Then, when voice is input via the microphone 41, the input receiving unit 102 converts the input voice into an electrical signal (or data) and outputs it to the voice recognition unit 104 (step S102).

次に、音声認識部104は、入力受付部102から入力された電気信号(或いはデータ)に基づき、ユーザから発された音声に対応する言語系列の候補を特定する(ステップS103)。具体的には、音声認識部104は、入力受付部102から入力された電気信号(或いはデータ)と、記憶装置3に格納されている辞書データと、を比較しながら、ユーザから発せられた音声の特徴に近い言語系列(例えば、施設名称3272、電話番号3273、住所情報3274)の上位数個を、候補として特定する。   Next, the speech recognition unit 104 identifies language sequence candidates corresponding to the speech uttered by the user based on the electrical signal (or data) input from the input receiving unit 102 (step S103). Specifically, the voice recognizing unit 104 compares the electric signal (or data) input from the input receiving unit 102 with the dictionary data stored in the storage device 3 while comparing the voice generated by the user. The top several language series (for example, facility name 3272, telephone number 3273, address information 3274) close to the above feature are identified as candidates.

なお、記憶装置3に格納されている辞書データには、地図データ310に含まれる施設情報327(例えば、施設名称3272、電話番号3273、住所情報3274)ごとに、当該施設情報327について発話するときの音声の特徴データが格納されている。   In the dictionary data stored in the storage device 3, for each facility information 327 (for example, facility name 3272, telephone number 3273, address information 3274) included in the map data 310, the facility information 327 is uttered. Is stored.

また、本実施形態では、音声認識部104は、ステップS103で特定する言語系列の候補の個数を、ステアリングスイッチ53に備わる選択ボタン53A〜Cの個数(すなわち、3個)とする。   Further, in the present embodiment, the speech recognition unit 104 sets the number of language series candidates specified in step S103 as the number of selection buttons 53A to 53C provided on the steering switch 53 (that is, three).

それから、音声認識部104は、ステップS103で特定された言語系列の候補を、ディスプレイ2に表示する(ステップS104)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上にステップS103で特定された言語系列の候補を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ステップS103で特定された言語系列の候補を、選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS103で音声認識部104によって特定された言語系列の候補が選択可能に表示される。   Then, the speech recognition unit 104 displays the language sequence candidates specified in step S103 on the display 2 (step S104). Specifically, the voice recognition unit 104 outputs an instruction to display the language sequence candidates specified in step S <b> 103 on the screen of the display 2 to the output processing unit 103. Based on the instruction from the speech recognition unit 104, the output processing unit 103 generates graphics information for selectively displaying the language sequence candidates specified in step S103, and transmits the graphics information to the display 2. As a result, the language series candidates identified by the speech recognition unit 104 in step S103 are displayed on the screen of the display 2 in a selectable manner.

図7(A)は、ステップS103で特定された言語系列の候補の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ステップS103で特定された言語系列の候補として、第1の候補「神奈川県座間市広野台○−○○−△」と、第2の候補「東京都新宿区西新宿○−○○−○」と、第3の候補「神奈川県座間市広野台○−△△−△」と、の文字列が表示されている。これとともに、各候補を選択可能に表示するために、各候補に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、第1の候補「神奈川県座間市広野台○−○○−△」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、第2の候補「東京都新宿区西新宿○−○○−○」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、第3の候補「神奈川県座間市広野台○−△△−△」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。   FIG. 7A is a diagram showing a display example of language sequence candidates identified in step S103. In the illustrated example, on the screen of the display 2, the first candidate “Hironodai, Zama City, Kanagawa Prefecture ○ -XX-Δ” and the second candidate “ A character string of “Nishishinjuku ○-○○-○” in Shinjuku-ku, Tokyo and a third candidate “Hironodai ○ -ΔΔ-Δ” in Zama City, Kanagawa Prefecture is displayed. At the same time, in order to display each candidate in a selectable manner, a character string that is associated with each of the selection buttons 53A to 53C is displayed. For example, the character string “A” associated with the first selection button 53A is displayed side by side on the first candidate “Hironodai ○ -OO-Δ in Zama City, Kanagawa Prefecture”. Similarly, the character string “B” reminiscent of the second selection button 53B is displayed side by side in the second candidate “Nishishinjuku ○-○○-○ in Shinjuku-ku, Tokyo”. In addition, a character string “C” reminiscent of the third selection button 53C is displayed side by side on the third candidate “Hironodai ○ -ΔΔ-Δ” in Zama City, Kanagawa Prefecture.

入力受付部102は、図7(A)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。   The input receiving unit 102 stands by until any one of the selection buttons 53A to 53C is touched in a state where a screen as shown in FIG. Then, when any one of the selection buttons 53A to 53C is touched by the user, the input reception unit 102 notifies the voice recognition unit 104 of information specifying the touched selection buttons 53A to 53C.

そして、音声認識部104は、ユーザに選択された候補に対して、修正せずに確定するのか、修正を加えるのか、を指示するための画面をディスプレイ2に表示する(ステップS105)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上に、確定を指示するための確定アイコンと、修正を指示するための修正アイコン「修正」と、を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、確定を指示するための確定アイコンと、修正を指示するための修正アイコンと、を選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、確定を指示するための確定アイコンと、修正を指示するための修正アイコンと、が選択可能に表示される。   Then, the voice recognition unit 104 displays on the display 2 a screen for instructing whether the candidate selected by the user is to be confirmed without correction or to be corrected (step S105). Specifically, the voice recognition unit 104 displays a confirmation icon for instructing confirmation and a correction icon “correction” for instructing correction on the screen of the display 2 to the output processing unit 103. Output instructions to be displayed. Then, based on the instruction from the voice recognition unit 104, the output processing unit 103 displays graphics information for selectively displaying a confirmation icon for instructing confirmation and a correction icon for instructing correction. Generate and send to display 2. As a result, a confirmation icon for instructing confirmation and a correction icon for instructing correction are displayed on the screen of the display 2 so as to be selectable.

図7(B)は、ユーザに選択された候補に対して、修正せずに確定するのか、修正を加えるのか、を指示するための画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、確定アイコンと、修正アイコンと、が表示されている。これとともに、各アイコンを選択可能に表示するために、各アイコンに並べて、ステアリングボタン53内の確定ボタン53Dと修正ボタン53Eを連想させる文字列が表示される。例えば、確定アイコンには、確定ボタン53Dを連想させる文字列「確定」が並べて表示される。同様に、修正アイコンには、修正ボタン53Eを連想させる文字列「修正」が並べて表示される。   FIG. 7B is a diagram showing a display example of a screen for instructing whether the candidate selected by the user is to be confirmed without correction or to be corrected. In the illustrated example, a confirmation icon and a correction icon are displayed on the screen of the display 2. At the same time, in order to display each icon in a selectable manner, a character string reminiscent of the confirmation button 53D and the correction button 53E in the steering button 53 is displayed along with each icon. For example, on the confirmation icon, a character string “confirmation” associated with the confirmation button 53D is displayed side by side. Similarly, on the correction icon, a character string “correction” associated with the correction button 53E is displayed side by side.

入力受付部102は、図7(B)に示すような画面がディスプレイ2に表示されている状態で、確定ボタン53D又は修正ボタン53Eがタッチされるまで待機する。そして、入力受付部102は、確定ボタン53D又は修正ボタン53Eがユーザによってタッチされると、タッチされたボタン53D、Eを特定する情報を、音声認識部104へ通知する。   The input receiving unit 102 waits until the confirmation button 53D or the correction button 53E is touched in a state where a screen as shown in FIG. When the confirmation button 53D or the correction button 53E is touched by the user, the input reception unit 102 notifies the voice recognition unit 104 of information specifying the touched buttons 53D and E.

ここで、音声認識部104は、確定ボタン53Dを特定する情報が入力受付部102から通知された場合には、修正の指示はないと判定する(ステップS105;No)。この場合には、音声認識部104は、図7(A)に示す画面がディスプレイ2に表示されている状態でユーザに選択された候補を、目的地として設定する施設として確定する。そのために、音声認識部104は、まず、ステップS104で入力受付部102から通知された情報(選択ボタン53A〜Cを特定する情報)に基づいて、ユーザにタッチされた選択ボタン53A〜Cを特定する。それから、音声認識部104は、特定した選択ボタン53A〜Cに対応する候補を、目的地として設定する施設として確定する。なお、本実施形態では、第1の選択ボタン53Aと第1の候補が対応し、第2の選択ボタン53Bと第2の候補が対応し、第3の選択ボタン53Cと第3の候補が対応しているものとする。   Here, when the information for specifying the confirmation button 53D is notified from the input reception unit 102, the voice recognition unit 104 determines that there is no correction instruction (No in step S105). In this case, the voice recognition unit 104 determines the candidate selected by the user in a state where the screen illustrated in FIG. 7A is displayed on the display 2 as a facility to be set as the destination. For this purpose, the voice recognition unit 104 first identifies the selection buttons 53A to 53C touched by the user based on the information (information for identifying the selection buttons 53A to 53C) notified from the input reception unit 102 in step S104. To do. Then, the voice recognition unit 104 determines candidates corresponding to the identified selection buttons 53A to 53C as facilities to be set as destinations. In the present embodiment, the first selection button 53A corresponds to the first candidate, the second selection button 53B corresponds to the second candidate, and the third selection button 53C corresponds to the third candidate. Suppose you are.

目的地として設定する施設を確定後、音声認識部104は、処理をステップS111に移行する。   After determining the facility to be set as the destination, the voice recognition unit 104 moves the process to step S111.

そして、基本制御部101は、ステップS105で確定された施設に基づく各種処理を実行する(ステップS111)。例えば、基本制御部101は、処理がステップS111に移行すると、ステップS105で特定された施設の施設情報327を記憶装置3から読み出し、読み出した施設情報327に含まれる施設位置3271で特定される位置を目的地として設定する。   Then, the basic control unit 101 executes various processes based on the facility determined in step S105 (step S111). For example, when the process proceeds to step S111, the basic control unit 101 reads the facility information 327 of the facility specified in step S105 from the storage device 3, and the position specified by the facility position 3271 included in the read facility information 327. Is set as the destination.

ステップS111の処理を終了後、基本制御部101は、本フローを終了する。   After completing the process of step S111, the basic control unit 101 ends this flow.

一方、ステップS105において、音声認識部104は、修正ボタン53Eを特定する情報が入力受付部102から通知された場合には、修正の指示があると判定する(ステップS105;Yes)。   On the other hand, when the information for specifying the correction button 53E is notified from the input receiving unit 102 in step S105, the voice recognition unit 104 determines that there is a correction instruction (step S105; Yes).

この場合には、音声認識部104は、図7(A)に示す画面がディスプレイ2に表示されている状態でユーザに選択された候補に対して、構成要素への分割を行う(ステップS106)。具体的には、音声認識部104は、ユーザに選択された候補(例えば、第2の候補が選択された場合には「東京都新宿区西新宿○−○○−○」という言語系列)を、住所情報3724で設定されている「県名」「市区町村名」「町・字、番地」という各階層に分割する。すなわち、この例では、「東京都」「新宿区」「西新宿○−○○−○」という3要素に分割される。   In this case, the voice recognizing unit 104 divides the candidate selected by the user in a state where the screen shown in FIG. 7A is displayed on the display 2 into components (step S106). . Specifically, the speech recognition unit 104 selects the candidate selected by the user (for example, the language series “Shinjuku-ku Nishi-Shinjuku ○-○○-○” when the second candidate is selected). The address information 3724 is divided into each level of “prefecture name”, “city / town / village name”, and “town / character / address”. That is, in this example, it is divided into three elements of “Tokyo,” “Shinjuku-ku,” and “Nishi-Shinjuku ○-○○-○”.

なお、本実施形態の説明では、住所の選択を例として挙げているが、住所以外のものであっても、階層構造が定義できる選択対象であれば、構成要素への分割を行うことができる。例えば、楽曲を選択する場合を挙げる。1個の楽曲は「アーティスト名」「アルバム名」「楽曲名」という3層の階層構造の中に分類することができる。よって、楽曲名を選択する操作に本実施形態を適用する場合、「アーティスト名」「アルバム名」「楽曲名」という3要素に分割すればよい。   In the description of the present embodiment, address selection is given as an example. However, even if the address is other than an address, it can be divided into components as long as the hierarchical structure can be defined. . For example, the case where a music is selected is given. One piece of music can be classified into a three-layer hierarchical structure of “artist name”, “album name”, and “music name”. Therefore, when the present embodiment is applied to the operation of selecting a song name, it may be divided into three elements “artist name”, “album name”, and “song name”.

また、住所情報3724に示すような各階層の内訳を示すデータが利用できない場合であっても、形態素解析を使用すれば、構成要素へ分割することが可能である。具体的には、音声認識部104は、ユーザに選択された候補(例えば、第2の候補が選択された場合には「東京都新宿区西新宿○−○○−○」という言語系列)を、記憶装置3に格納されている形態素解析用の辞書データを用いて複数の構成要素(単語)に分割する。このような形態素解析については、汎用プログラム(例えば、「茶筌システム」http://chasen.naist.jp/hiki/ChaSen/)等を使用すればよい。   Even if data indicating the breakdown of each hierarchy as shown in the address information 3724 is not available, it can be divided into components by using morphological analysis. Specifically, the speech recognition unit 104 selects the candidate selected by the user (for example, the language series “Shinjuku-ku Nishi-Shinjuku ○-○○-○” when the second candidate is selected). Then, the data is divided into a plurality of components (words) using dictionary data for morphological analysis stored in the storage device 3. For such morphological analysis, a general-purpose program (for example, “tea bowl system” http://chasen.naist.jp/hiki/ChaSen/) may be used.

なお、本実施形態では、ステップS106において、音声認識部104は、ユーザに選択された候補についての分割数(構成要素の個数)を、ステアリングスイッチ53に備わる選択ボタン53A〜Cの個数となるようにする。   In the present embodiment, in step S106, the speech recognition unit 104 sets the number of divisions (number of components) for the candidate selected by the user to be the number of selection buttons 53A to 53C provided in the steering switch 53. To.

そして、音声認識部104は、ステップS106で複数の構成要素に分割された候補(言語系列)を、ディスプレイ2に表示する(ステップS107)。具体的には、音声認識部104は、出力処理部103に対して、ユーザに選択された候補(言語系列)を、ステップS106で分割された構成要素ごとに区切って表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、分割された構成要素ごとに選択可能となるように表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS106で分割された構成要素が選択可能に表示される。   Then, the speech recognition unit 104 displays the candidates (language series) divided into a plurality of components in step S106 on the display 2 (step S107). Specifically, the speech recognition unit 104 outputs an instruction to the output processing unit 103 to display the candidate (language series) selected by the user for each component divided in step S106. The output processing unit 103 generates graphics information to be displayed so as to be selectable for each divided component based on an instruction from the voice recognition unit 104 and transmits the generated graphics information to the display 2. Thereby, the component divided | segmented by step S106 is displayed on the screen of the display 2 so that selection is possible.

図7(C)は、分割された構成要素のうち、修正する構成要素を指示するための画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、分割された3つの構成要素(「東京都」、「新宿区」、「西新宿○−○○−○」)が表示されている。これとともに、各構成要素を選択可能に表示するために、各構成要素に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、先頭の構成要素「東京都」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、中間の構成要素「新宿区」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、末尾の構成要素「西新宿○−○○−○」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。   FIG. 7C is a diagram illustrating a display example of a screen for instructing a component to be corrected among divided components. In the illustrated example, three divided components (“Tokyo”, “Shinjuku-ku”, and “Nishi-Shinjuku ○-○○-○”) are displayed on the screen of the display 2. At the same time, in order to display each component in a selectable manner, a character string that is associated with each of the selection buttons 53A to 53C is displayed side by side with each component. For example, a character string “A” reminiscent of the first selection button 53A is displayed side by side on the top component “Tokyo”. Similarly, a character string “B” reminiscent of the second selection button 53B is displayed side by side in the middle component “Shinjuku-ku”. In addition, a character string “C” reminiscent of the third selection button 53C is displayed side by side on the last component “Nishishinjuku ◯◯◯◯”.

なお、図示する例では、階層構造を有する住所情報3274が複数の構成要素に分割されているが、もちろん、階層構造を有さない施設名称3272や電話番号3273が複数の構成要素に分割されてもよい。   In the illustrated example, the address information 3274 having a hierarchical structure is divided into a plurality of components. Of course, a facility name 3272 and a telephone number 3273 having no hierarchical structure are divided into a plurality of components. Also good.

入力受付部102は、図7(C)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。   The input receiving unit 102 waits until any one of the selection buttons 53A to 53C is touched in a state where a screen as shown in FIG. Then, when any one of the selection buttons 53A to 53C is touched by the user, the input reception unit 102 notifies the voice recognition unit 104 of information specifying the touched selection buttons 53A to 53C.

そして、音声認識部104は、ユーザに選択された構成要素について、音声(発話)の再入力をユーザに対して促す画面を、ディスプレイ2に表示する(ステップS108)。具体的には、音声認識部104は、出力処理部103に対して、ユーザに選択された構成要素と、当該構成要素より下位の構成要素をハイライト表示させるとともに、音声(発話)の再入力を促すメッセージを表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ユーザに選択された構成要素と、当該構成要素より下位の構成要素について音声(発話)の再入力を促す画面を表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、修正する構成要素について音声(発話)の再入力を促す画面が表示される。   Then, the voice recognition unit 104 displays on the display 2 a screen that prompts the user to re-input voice (speech) for the component selected by the user (step S108). Specifically, the voice recognition unit 104 causes the output processing unit 103 to highlight the component selected by the user and the component lower than the component and re-input the voice (utterance). An instruction to display a message prompting the user is output. Then, the output processing unit 103 displays a screen that prompts the user to re-input voice (utterance) for the component selected by the user and the component lower than the component based on the instruction from the voice recognition unit 104. The graphics information is generated and transmitted to the display 2. As a result, on the screen of the display 2, a screen that prompts the user to re-input voice (utterance) for the component to be corrected is displayed.

図7(D)は、修正対象としてユーザに選択された構成要素と、当該構成要素より下位の構成要素について、音声(発話)の再入力をユーザに促す画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ユーザに選択された構成要素(図示する例では「新宿区」)と、当該構成要素より下位の構成要素(図示する例では「西新宿○−○○−○」)がハイライト表示されている。これとともに、音声(発話)の再入力を促すメッセージ(例えば、「修正部分を正しく発音して下さい!」)が表示されている。   FIG. 7D is a diagram illustrating a display example of a screen that prompts the user to re-input voice (utterance) for a component selected by the user as a correction target and a component lower than the component. In the illustrated example, on the screen of the display 2, the component selected by the user (“Shinjuku-ku” in the illustrated example) and a component lower than the component (“Nishi-Shinjuku ○ − in the illustrated example)” are illustrated. ○○ − ○ ”) is highlighted. Along with this, a message (for example, “Please pronounce the corrected part correctly!”) Prompting re-input of voice (utterance) is displayed.

それから、入力受付部102は、マイクロフォン41を介して修正対象の構成要素と、当該構成要素より下位の構成要素について音声(ユーザから発された音声)が再入力されるのを待機する。そして、入力受付部102は、マイクロフォン41を介して音声が再入力されると、再入力された音声を電気信号(或いはデータ)に変換し、音声認識部104へ出力する。   Then, the input receiving unit 102 waits for the voice (voice emitted from the user) to be re-input for the component to be corrected and the component lower than the component via the microphone 41. When the voice is re-input via the microphone 41, the input receiving unit 102 converts the re-input voice into an electrical signal (or data) and outputs it to the voice recognition unit 104.

次に、音声認識部104は、入力受付部102から再入力された電気信号(或いはデータ)に基づき、ユーザから発された音声に対応する構成要素と、当該構成要素より下位の構成要素の候補を特定する(ステップS109)。具体的には、音声認識部104は、入力受付部102から再入力された電気信号(或いはデータ)と、記憶装置3に格納されている辞書データと、を比較しながら、ユーザから発せられた音声の特徴に近い構成要素と、当該構成要素より下位の構成要素(住所情報3274に部分的に含まれる文字列)の上位数個を、候補として特定する。   Next, the voice recognition unit 104, based on the electrical signal (or data) re-input from the input receiving unit 102, the component corresponding to the voice uttered by the user and the candidate for the component lower than the component Is specified (step S109). Specifically, the voice recognition unit 104 is issued from the user while comparing the electrical signal (or data) re-input from the input receiving unit 102 with the dictionary data stored in the storage device 3. The constituent elements close to the characteristics of the voice and the top several constituent elements lower than the constituent elements (character strings partially included in the address information 3274) are identified as candidates.

ただし、音声認識部104は、ステップS109においては、記憶装置3に格納されている辞書データのうち、ステップS107で修正する構成要素として選択された構成要素より上位の構成要素(図示する例では「東京都」)を、上位データに有する住所情報3274に絞って検索を行う。そのため、本実施形態の音声認識処理では、不要なデータ(すなわち、上位データに「東京都」以外のデータを有する住所情報3274)を検索対象から除外できる。そのため、ユーザから発せられた音声の特徴に近い構成要素を検索する速度が高速化し、音声認識の精度も向上する。   However, in step S109, the voice recognizing unit 104 has a higher-order component than the component selected as the component to be corrected in step S107 among the dictionary data stored in the storage device 3 (in the illustrated example, “ "Tokyo") is narrowed down to address information 3274 in the upper data. Therefore, in the speech recognition process of the present embodiment, unnecessary data (that is, address information 3274 having data other than “Tokyo” in the upper data) can be excluded from search targets. For this reason, the speed of searching for a component close to the feature of the voice emitted from the user is increased, and the accuracy of voice recognition is improved.

それから、音声認識部104は、修正する構成要素としてユーザに選択された構成要素(ステップS107で選択された構成要素)と、当該構成要素より下位の構成要素を、ステップS109で特定された構成要素で置き換える。そして、音声認識部104は、この置き換えによって生成される言語系列の候補を、ディスプレイ2に表示する(ステップS110)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上にステップS109で特定された構成要素で置き換えられた言語系列の候補を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ステップS109で特定された構成要素で置き換えられた言語系列の候補を、選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS109で音声認識部104によって特定された構成要素で置き換えられた言語系列の候補が選択可能に表示される。   The speech recognition unit 104 then identifies the component selected by the user as the component to be modified (the component selected in step S107) and the component lower than the component identified in step S109. Replace with. Then, the voice recognition unit 104 displays language sequence candidates generated by the replacement on the display 2 (step S110). Specifically, the voice recognition unit 104 outputs to the output processing unit 103 an instruction to display the language series candidates replaced with the components identified in step S109 on the screen of the display 2. Based on the instruction from the speech recognition unit 104, the output processing unit 103 generates graphics information for selectively displaying language sequence candidates replaced with the components identified in step S109. Send to display 2 Thereby, on the screen of the display 2, the candidate of the language series replaced with the component specified by the speech recognition unit 104 in step S109 is displayed so as to be selectable.

図7(E)は、一部の構成要素が修正された言語系列の候補の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ステップS109で特定された構成要素と、当該構成要素より下位の構成要素で置き換えられた言語系列の候補として、第1の候補「東京都文京区白山○−○○−○」と、第2の候補「東京都文京区白山○−○△−△」と、第3の候補「東京都文京区白山△−△△−△」と、の文字列が表示されている。これとともに、各候補を選択可能に表示するために、各候補に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、第1の候補「東京都文京区白山○−○○−○」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、第2の候補「東京都文京区白山○−○△−△」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、第3の候補「東京都文京区白山△−△△−△」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。   FIG. 7E is a diagram illustrating a display example of language sequence candidates in which some of the components are corrected. In the example shown in the drawing, the first candidate “Bunkyo-ku, Tokyo” is displayed on the screen of the display 2 as the language sequence candidate replaced with the component identified in step S109 and the component lower than the component. Characters of “Hakusan ○-○○-○”, the second candidate “Hakusan Bunkyo-ku Tokyo ○-○ △-△”, and the third candidate “Bunkyo-ku Hakusan Tokyo- △△△-△” A column is displayed. At the same time, in order to display each candidate in a selectable manner, a character string that is associated with each of the selection buttons 53A to 53C is displayed. For example, a character string “A” reminiscent of the first selection button 53A is displayed side by side in the first candidate “Bakuyo-ku Hakusan ○ -OO-O” in Bunkyo-ku, Tokyo. Similarly, the character string “B” reminiscent of the second selection button 53B is displayed side by side on the second candidate “Hakusan Bunkyo-ku ○-○ Δ-Δ”. In addition, a character string “C” reminiscent of the third selection button 53C is displayed side by side on the third candidate “Hakusan Δ-ΔΔ-Δ” in Bunkyo-ku, Tokyo.

なお、音声認識部104は、ステップS107で修正する構成要素として選択された構成要素より上位の構成要素(図示する例では「東京都」)の部分については、正しく音声認識できているものとして変更しない。そのため、図7(E)に示す第1〜第3の候補には、共通して「東京都」の文字列が含まれている。   Note that the voice recognition unit 104 changes that the component higher than the component selected as the component to be corrected in step S107 (“Tokyo” in the illustrated example) is correctly recognized. do not do. For this reason, the first to third candidates shown in FIG. 7E include the character string “Tokyo” in common.

入力受付部102は、図7(E)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。   The input receiving unit 102 stands by until any one of the selection buttons 53A to 53C is touched in a state where a screen as shown in FIG. Then, when any one of the selection buttons 53A to 53C is touched by the user, the input reception unit 102 notifies the voice recognition unit 104 of information specifying the touched selection buttons 53A to 53C.

それから、音声認識部104は、処理をステップS105に戻し、修正箇所がなくなるまで(ステップS105;No)、ステップS105からステップS110までの処理を繰り返し実行する。   Then, the voice recognition unit 104 returns the process to step S105, and repeatedly executes the processes from step S105 to step S110 until there is no correction part (step S105; No).

こうして、本実施形態の音声認識処理では、入力した音声のうちの一部分が誤認識された場合において、誤認識された一部分についてのみ音声を再入力して音声認識をやり直すことができる。そのため、長文となる音声の再入力が不要となり、音声の再入力にかかる手間が軽減される。   Thus, in the voice recognition process of this embodiment, when a part of the input voice is erroneously recognized, the voice can be re-input by re-inputting only the part of the erroneously recognized voice. This eliminates the need for re-inputting speech that is a long sentence, thus reducing the effort required for re-inputting speech.

特に、本実施形態の住所情報3274のように階層構造を有するデータの音声認識処理においては、修正する構成要素としてユーザに選択された構成要素と、当該構成要素より下位の構成要素について音声を再入力して音声認識をやり直すことができる。そして、再度、音声認識を行う際には、上述した通り、不要なデータ(すなわち、上位データに「東京都」以外のデータを有する住所情報3274)を検索対象から除外できるため、ユーザから発せられた音声の特徴に近い構成要素を検索(特定)する速度が高速化し、音声認識の精度も向上する。   In particular, in the speech recognition processing of data having a hierarchical structure such as the address information 3274 of the present embodiment, the sound is replayed with respect to the component selected by the user as the component to be corrected and the component lower than the component. Can input and redo voice recognition. When speech recognition is performed again, as described above, unnecessary data (that is, address information 3274 having data other than “Tokyo” in the upper data) can be excluded from the search target. The speed of searching (identifying) components close to the characteristics of the voice is increased, and the accuracy of voice recognition is improved.

なお、上記したフローの各処理単位は、ナビゲーション装置100の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。   Each processing unit of the above-described flow is divided according to main processing contents in order to facilitate understanding of the processing of the navigation device 100. The invention of the present application is not limited by the method of classification of the processing steps and the names thereof. The processing performed by the navigation device 100 can be divided into more processing steps. One processing step may execute more processes.

また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。   Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.

以下に、上記実施形態の変形例を挙げる。   Below, the modification of the said embodiment is given.

例えば、音声認識の結果(すなわち、ユーザから入力された音声に基づいて予測(特定)された言語系列)の一部を削除したい場合にも適用できる。   For example, the present invention can also be applied to a case where it is desired to delete a part of a result of speech recognition (that is, a language sequence predicted (specified) based on speech input from a user).

この場合には、例えば、上記ステップS107において、図7(C)に示すように「※長押しで削除」等のメッセージを追加して表示すればよい。そして、この画面がディスプレイ2に表示されている状態で、削除したい構成要素がある場合には、ユーザは、複数の選択ボタン53A〜Cを長く(1秒以上)タッチすればよい。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによって長くタッチされると、長くタッチされた選択ボタン53A〜Cを削除する指示を、音声認識部104へ通知する。   In this case, for example, in step S107, as shown in FIG. 7C, a message such as “* Delete by long press” may be added and displayed. When the screen is displayed on the display 2 and there is a component to be deleted, the user may touch the selection buttons 53A to 53C for a long time (1 second or longer). Then, when any one of the selection buttons 53A to 53C is touched for a long time by the user, the input reception unit 102 notifies the voice recognition unit 104 of an instruction to delete the selection buttons 53A to 53C that have been touched for a long time.

それから、音声認識部104は、上記のステップS108、S109の処理を省略し、処理をステップS110へ移行する。ステップS110では、音声認識部104は、削除する構成要素としてユーザに選択された構成要素(ステップS107で選択された構成要素)を削除する。そして、音声認識部104は、一部の構成要素が削除されて生成される言語系列(1つの言語系列)を、ディスプレイ2に表示し、処理をステップS105に戻す。   Then, the voice recognition unit 104 omits the processes in steps S108 and S109 and moves the process to step S110. In step S110, the voice recognition unit 104 deletes the component selected by the user as the component to be deleted (the component selected in step S107). Then, the speech recognition unit 104 displays a language sequence (one language sequence) generated by deleting some components on the display 2, and the process returns to step S105.

このように、音声認識の結果の一部を削除したい場合には、音声の再入力を省略して該当箇所を削除できるため、誤認識された箇所を効率良く修正することができる。   As described above, when it is desired to delete a part of the result of voice recognition, it is possible to delete the corresponding part by omitting the re-input of the voice, so that the erroneously recognized part can be corrected efficiently.

また、上記実施形態では、ステアリングスイッチ53には、3つの選択ボタン53A〜Cと、1つの確定ボタン53Dと、1つの修正ボタン53Eと、が設けられている。しかし、本発明はこれに限定されない。例えば、選択ボタン53A〜Cは、2つ、或いは、4つ以上設けられてもよい。また、確定ボタン53Dと修正ボタン53Eを別個に設けず、1つのボタンで兼用するようにしてもよい。この場合には、当該ボタンが1回タッチされれば、上記で説明した確定ボタン53Dがタッチされたものとみなし、当該ボタンが長く(1秒以上)タッチされれば、上記で説明した修正ボタン53Eがタッチされたものとみなせばよい。   In the above embodiment, the steering switch 53 is provided with three selection buttons 53A to 53C, one confirmation button 53D, and one correction button 53E. However, the present invention is not limited to this. For example, two or four or more selection buttons 53A to 53C may be provided. Further, the confirmation button 53D and the correction button 53E may not be provided separately and may be shared by one button. In this case, if the button is touched once, it is considered that the confirmation button 53D described above is touched, and if the button is touched for a long time (1 second or longer), the correction button described above. It may be considered that 53E is touched.

また、選択ボタン53A〜C、確定ボタン53D、修正ボタン53Eは、それぞれ、車両のステアリング53以外の位置に配置されてもよく、車両内の任意の位置に配置可能である。また、選択ボタン53A〜C、確定ボタン53D、修正ボタン53Eは、ディスプレイ2の画面上にアイコンとして表示されてもよい。   Further, the selection buttons 53A to 53C, the confirmation button 53D, and the correction button 53E may be arranged at positions other than the steering 53 of the vehicle, respectively, and can be arranged at arbitrary positions in the vehicle. In addition, the selection buttons 53A to 53C, the confirmation button 53D, and the correction button 53E may be displayed as icons on the screen of the display 2.

1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、5・・・入力装置、6・・・車速センサ、7・・・ジャイロセンサ、8・・・GPS受信装置、21・・・CPU、22・・・RAM、23・・・ROM、24・・・インタフェース(I/F)、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、53・・・ステアリングスイッチ、53A〜C・・・選択ボタン、53D・・・確定ボタン、53E・・・修正ボタン、100・・・ナビゲーション装置、101・・・基本制御部、102・・・入力受付部、103・・・表示処理部、104・・・音声認識部、310・・・地図データ、311・・・メッシュID、320・・・リンクデータ、321・・・リンクID、322・・・開始ノード・終了ノード、323・・・道路種別、324・・・リンク長、325・・・リンク旅行時間、326・・・開始接続リンク・終了接続リンク、327・・・施設情報、3271・・・施設位置、3272・・・施設名称、3273・・・電話番号、3274・・・住所情報。   DESCRIPTION OF SYMBOLS 1 ... Operation processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice input / output device, 5 ... Input device, 6 ... Vehicle speed sensor, 7 ... Gyro sensor , 8 ... GPS receiver, 21 ... CPU, 22 ... RAM, 23 ... ROM, 24 ... Interface (I / F), 41 ... Microphone, 42 ... Speaker, 51 ... Touch panel, 52 ... Dial switch, 53 ... Steering switch, 53A-C ... Selection button, 53D ... Confirm button, 53E ... Correction button, 100 ... Navigation device, DESCRIPTION OF SYMBOLS 101 ... Basic control part, 102 ... Input reception part, 103 ... Display processing part, 104 ... Voice recognition part, 310 ... Map data, 311 ... Mesh ID, 320 ... Link day 321 ... Link ID, 322 ... Start node / End node, 323 ... Road type, 324 ... Link length, 325 ... Link travel time, 326 ... Start connection link / End connection Link, 327 ... Facility information, 3271 ... Facility position, 3272 ... Facility name, 3273 ... Phone number, 3274 ... Address information.

Claims (7)

複数の選択ボタンを備えるナビゲーション装置であって、
複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部と、
音声を入力する音声入力部と、
前記記憶部に格納されている言語系列の中から、前記音声入力部から入力された音声に対応する言語系列の候補を特定する音声認識部と、
前記音声認識部によって特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示部と、を備え、
前記音声認識部は、
表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する、
ことを特徴とするナビゲーション装置。
A navigation device comprising a plurality of selection buttons,
A storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure;
A voice input unit for inputting voice;
A speech recognition unit that identifies a language sequence candidate corresponding to the speech input from the speech input unit, out of the language sequences stored in the storage unit;
A display unit that divides and displays language sequence candidates identified by the speech recognition unit into components of the number of selection buttons;
The voice recognition unit
When one constituent element included in the displayed language series is selected using the selection button, the language series candidates changed for the selected constituent element and the constituent elements lower than the constituent element are again displayed. Identify,
A navigation device characterized by that.
請求項1に記載のナビゲーション装置であって、
前記音声認識部は、
再度特定された言語系列に含まれる1つの構成要素について、前記選択ボタンを用いてさらに選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する、
ことを特徴とするナビゲーション装置。
The navigation device according to claim 1,
The voice recognition unit
When one of the constituent elements included in the re-identified language series is further selected using the selection button, the language series changed for the selected constituent element and the constituent elements lower than the constituent element are selected. Identify candidates again,
A navigation device characterized by that.
請求項2に記載のナビゲーション装置であって、
前記表示部は、
再度特定された言語系列に含まれる構成要素のうち、変更された構成要素をさらに前記選択ボタン数の構成要素に分割して表示する、
ことを特徴とするナビゲーション装置
The navigation device according to claim 2,
The display unit
Of the constituent elements included in the language series identified again, the changed constituent elements are further divided into constituent elements of the number of selection buttons and displayed.
Navigation device characterized by that
請求項1乃至3のいずれか1項に記載のナビゲーション装置であって、
前記選択ボタンは、車両のステアリングに設けられる、
ことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 3,
The selection button is provided on the steering of the vehicle.
A navigation device characterized by that.
請求項1乃至4のいずれか1項に記載のナビゲーション装置であって、
前記言語系列には、少なくとも住所情報が含まれる、
ことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 4,
The language series includes at least address information.
A navigation device characterized by that.
複数の選択ボタンを備えるナビゲーション装置を用いた音声認識方法であって、
前記ナビゲーション装置は、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部を備えており、
音声を入力する音声入力ステップと、
前記記憶部に格納されている言語系列の中から、前記音声入力ステップで入力された音声に対応する言語系列の候補を特定する音声認識ステップと、
前記音声認識ステップで特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示ステップと、
前記表示ステップで表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する音声再認識ステップと、を行う、
ことを特徴とする音声認識方法。
A speech recognition method using a navigation device having a plurality of selection buttons,
The navigation device includes a storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure,
A voice input step for inputting voice;
A speech recognition step for identifying a language sequence candidate corresponding to the speech input in the speech input step from among the language sequences stored in the storage unit;
A display step of dividing and displaying the language sequence candidates identified in the speech recognition step into components of the number of selection buttons;
When one component included in the language sequence displayed in the display step is selected using the selection button, the language sequence changed for the selected component and the component lower than the component A speech re-recognition step for re-identifying candidates
A speech recognition method characterized by the above.
コンピューターを、複数の選択ボタンを備えるナビゲーション装置として機能させるためのプログラムであって、
前記ナビゲーション装置は、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部を備えており、
音声を入力する音声入力ステップと、
前記記憶部に格納されている言語系列の中から、前記音声入力ステップで入力された音声に対応する言語系列の候補を特定する音声認識ステップと、
前記音声認識ステップで特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示ステップと、
前記表示ステップで表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する音声再認識ステップと、を前記コンピューターに実行させる、
ことを特徴とするプログラム。
A program for causing a computer to function as a navigation device having a plurality of selection buttons,
The navigation device includes a storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure,
A voice input step for inputting voice;
A speech recognition step for identifying a language sequence candidate corresponding to the speech input in the speech input step from among the language sequences stored in the storage unit;
A display step of dividing and displaying the language sequence candidates identified in the speech recognition step into components of the number of selection buttons;
When one component included in the language sequence displayed in the display step is selected using the selection button, the language sequence changed for the selected component and the component lower than the component A voice re-recognition step for re-identifying the candidate,
A program characterized by that.
JP2011149488A 2011-07-05 2011-07-05 Navigation device, speech recognition method using navigation device, and program Expired - Fee Related JP5851740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011149488A JP5851740B2 (en) 2011-07-05 2011-07-05 Navigation device, speech recognition method using navigation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011149488A JP5851740B2 (en) 2011-07-05 2011-07-05 Navigation device, speech recognition method using navigation device, and program

Publications (2)

Publication Number Publication Date
JP2013015732A true JP2013015732A (en) 2013-01-24
JP5851740B2 JP5851740B2 (en) 2016-02-03

Family

ID=47688455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149488A Expired - Fee Related JP5851740B2 (en) 2011-07-05 2011-07-05 Navigation device, speech recognition method using navigation device, and program

Country Status (1)

Country Link
JP (1) JP5851740B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042277A1 (en) * 2021-09-14 2023-03-23 ファナック株式会社 Operation training device, operation training method, and computer-readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259178A (en) * 1999-03-08 2000-09-22 Fujitsu Ten Ltd Speech recognition device
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP2004240244A (en) * 2003-02-07 2004-08-26 Nissan Motor Co Ltd Voice recognition device
JP2007065347A (en) * 2005-08-31 2007-03-15 Denso Corp Speech recognition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259178A (en) * 1999-03-08 2000-09-22 Fujitsu Ten Ltd Speech recognition device
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP2004240244A (en) * 2003-02-07 2004-08-26 Nissan Motor Co Ltd Voice recognition device
JP2007065347A (en) * 2005-08-31 2007-03-15 Denso Corp Speech recognition system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042277A1 (en) * 2021-09-14 2023-03-23 ファナック株式会社 Operation training device, operation training method, and computer-readable storage medium

Also Published As

Publication number Publication date
JP5851740B2 (en) 2016-02-03

Similar Documents

Publication Publication Date Title
JP2007052397A (en) Operating apparatus
JP4725731B2 (en) Car navigation system
JP4626607B2 (en) Vehicle navigation device
JP2012251865A (en) Navigation apparatus, navigation method and navigation program
JP4760792B2 (en) Vehicle navigation device
JP5865668B2 (en) Information terminal, program, and search method
JP2007212857A (en) Navigation device
JP2007033209A (en) Navigation system
JP4664775B2 (en) Navigation device
JP5851740B2 (en) Navigation device, speech recognition method using navigation device, and program
JP5890187B2 (en) Navigation device, software update program, and update method
JP4381632B2 (en) Navigation system and its destination input method
JP4885645B2 (en) In-vehicle information terminal
JP2007065206A (en) Institution retrieval system
JP2007113940A (en) Route searching apparatus for vehicle
JP2006153866A (en) Navigation system for vehicle, and storage medium
JP2010127770A (en) Navigation device and navigation method
JP2013011466A (en) Navigation device, voice recognition method using the navigation device, and program
JP2009025105A (en) Data retrieval system
JP2009250779A (en) Navigation device, program, and navigation method
JP2009026004A (en) Data retrieval device
JP2009115593A (en) Navigation apparatus and program
JP2014081239A (en) Route search device, navigation device, route search method, route search program, and navigation program
JPH10222059A (en) Bird&#39;s-eye viewing display controller
JP5240567B2 (en) Search device and search program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151203

R150 Certificate of patent or registration of utility model

Ref document number: 5851740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees