JP2013015732A - Navigation device, voice recognition method using navigation device, and program - Google Patents
Navigation device, voice recognition method using navigation device, and program Download PDFInfo
- Publication number
- JP2013015732A JP2013015732A JP2011149488A JP2011149488A JP2013015732A JP 2013015732 A JP2013015732 A JP 2013015732A JP 2011149488 A JP2011149488 A JP 2011149488A JP 2011149488 A JP2011149488 A JP 2011149488A JP 2013015732 A JP2013015732 A JP 2013015732A
- Authority
- JP
- Japan
- Prior art keywords
- language
- voice
- navigation device
- unit
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ナビゲーション装置、ナビゲーション装置を用いた音声認識方法、および、プログラムに関する。 The present invention relates to a navigation device, a voice recognition method using the navigation device, and a program.
ナビゲーション装置の中には、音声認識機能を有するものがある。音声認識機能を用いた音声の認識率は、近年めざましく向上してきている(例えば、特許文献1)。 Some navigation devices have a voice recognition function. The speech recognition rate using the speech recognition function has been remarkably improved in recent years (for example, Patent Document 1).
しかし、音声認識が行われる環境によっては、誤認識してしまう場合がある。そして、入力された音声が誤認識されると、ユーザは発話によって音声の再入力を行わなければならない。 However, depending on the environment in which voice recognition is performed, it may be erroneously recognized. If the input voice is erroneously recognized, the user must re-input the voice by speaking.
一般的には、このような音声の再入力では、ユーザは、一度入力した音声(言葉)の全内容を入力(発話)し直す必要がある。 In general, in such re-input of voice, the user needs to input (speak) all the contents of the voice (word) once input.
しかし、入力した音声のうち一部分だけが誤認識されている場合には、全内容を入力し直すことは、ユーザにとって負担となる。 However, when only a part of the input voice is erroneously recognized, it is burdensome for the user to input all the contents again.
本発明は、入力した音声のうちの一部分が誤認識された場合に、音声の再入力にかかるユーザの手間を軽減する技術を提供することを目的とする。 An object of the present invention is to provide a technique for reducing a user's trouble of re-inputting a voice when a part of the inputted voice is erroneously recognized.
上記課題を解決するための本願発明は、複数の選択ボタンを備えるナビゲーション装置であって、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部と、音声を入力する音声入力部と、前記記憶部に格納されている言語系列の中から、前記音声入力部から入力された音声に対応する言語系列の候補を特定する音声認識部と、前記音声認識部によって特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示部と、を備える。前記音声認識部は、表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する。 The present invention for solving the above problem is a navigation device having a plurality of selection buttons, a storage unit storing a language sequence that can be divided into a plurality of components and has a hierarchical structure, and a voice is input A speech input unit, a speech recognition unit that identifies language sequence candidates corresponding to speech input from the speech input unit, among the language sequences stored in the storage unit, and the speech recognition unit A display unit that divides the language sequence candidates into components of the number of selection buttons. When one component included in the displayed language sequence is selected using the selection button, the speech recognition unit changes the selected component and a component lower than the component. Re-specify language sequence candidates.
以下、本発明の実施形態の一例を図面を参照して説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態が適用されたナビゲーション装置100の概略構成図である。図示するようにナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(マイクロフォン41、スピーカ42)と、入力装置5(タッチパネル51、ダイヤルスイッチ52、ステアリングスイッチ53)と、車速センサ6と、ジャイロセンサ7と、GPS受信装置8と、を備えている。ナビゲーション装置100は、車両に載置されている車載用ナビゲーション装置としてもよいし、携帯電話やPDAなどの携帯端末としてもよい。
FIG. 1 is a schematic configuration diagram of a
演算処理部1は、様々な処理を行う中心的ユニットである。例えば、演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1に接続するためのI/F(インタフェース)24と、を有する。そして、演算処理部1は、各デバイスをバス25で相互に接続した構成からなる。そして、後述する各機能部(101〜104)は、CPU21がRAM22などのメモリに読み出したプログラムを実行することで実現される。
The arithmetic processing unit 1 is a central unit that performs various processes. For example, the arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes various processes such as numerical calculation and control of each device, and a RAM (Random) that stores map data, arithmetic data, and the like read from the
例えば、演算処理部1は、車速センサ6、ジャイロセンサ7、GPS受信装置8から出力される情報を基にして現在地を算出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置3から読み出す。また、読み出した地図データをグラフィック展開し、そこに現在地マーク(或いは、移動体の位置を示す移動体マーク)を重ねてディスプレイ2に表示する。また、記憶装置3に記憶されている地図データを用いて、ユーザから指示された出発地、又は演算処理部1で算出された現在地と、目的地と、を結ぶ最適な経路(以下では「推奨経路」という)を探索する。また、音声入出力装置4のスピーカ42やディスプレイ2を用いてユーザを誘導する。
For example, the arithmetic processing unit 1 calculates the current location based on information output from the
ディスプレイ2は、文字や画像の表示を行うための画面を備え、演算処理部1等で生成されたグラフィックス情報を前記画面上に表示するユニットである。ディスプレイ2は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどで構成される。 The display 2 includes a screen for displaying characters and images, and is a unit that displays graphics information generated by the arithmetic processing unit 1 and the like on the screen. The display 2 is configured by a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.
記憶装置3は、CD−ROMやDVD−ROMやHDDやICカードといった記憶媒体で構成される。この記憶媒体には、例えば、地図データ310、辞書データ、音声データ、動画データ、等が記憶されている。また、記憶媒体は、電源供給が停止した場合でも必要なデータを保持可能なフラッシュメモリなどで構成されていてもよい。
The
図2(A)は、地図データ310の概略データ構造を示す図である。図示するように、地図データ310は、地図上の区画された領域であるメッシュの識別コード(メッシュID)311ごとに、そのメッシュ領域に含まれている道路を構成する各リンクのリンクデータ320を含んでいる。
FIG. 2A is a diagram illustrating a schematic data structure of the map data 310. As shown in the figure, the map data 310 includes
リンクデータ320は、リンクの識別コード(リンクID)321ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報322、リンクを含む道路の種別情報を示す道路種別323、リンクの長さを示すリンク長情報324、リンク旅行時間325、2つのノードにそれぞれ接続するリンクの識別コード(接続リンクID)326、リンクの周辺に位置する施設情報327、などを含んでいる。なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードを区別することで、道路の上り方向と下り方向を、それぞれ別のリンクとして管理することができる。また、地図データ310には、地図表示における道路や施設を表示するための描画データが格納されている。
For each link identification code (link ID) 321,
図2(B)は、施設情報327の詳細なデータ構造を示す図である。図示するように、施設情報327は、施設位置3271と、施設名称3272と、電話番号3273と、住所情報3274と、を少なくとも含んでいる。
FIG. 2B is a diagram illustrating a detailed data structure of the facility information 327. As illustrated, the facility information 327 includes at least a
施設位置3271は、施設の位置を示す情報を含み、例えば、座標データからなる。
The
施設名称3272は、施設の名称を示す情報を含み、例えば「大阪第一ホテル」等の文字列からなる。 The facility name 3272 includes information indicating the name of the facility, and includes a character string such as “Osaka Daiichi Hotel”, for example.
電話番号3273は、施設の電話番号を示す情報を含み、例えば、数字列からなる。
The
住所情報3274は、施設の所在地を示す情報を含み、例えば「東京都文京区白山○−○○−○」等の一般的な住所データからなる。
The
図3は、住所情報3274の詳細なデータ構造(階層構造)を示す図である。図示するように、住所情報3274は、階層構造を有するデータである。
FIG. 3 is a diagram showing a detailed data structure (hierarchical structure) of the
例えば、住所情報3274は、図示するように、「県名」を示す上位データ(階層1)と、「市区町村名」を示す中位データ(階層2)と、「町・字、番地」を示す下位データ(階層3)と、を含む。
For example, the
住所情報3274は、複数の上位データを有し、上位データ(図示する例では「東京都」)ごとに、複数の中位データ(図示する例では「文京区」や「新宿区」)を有する。また、住所情報3274は、中位データ(図示する例では「文京区」)ごとに、複数の下位データ(図示する例では「白山○−○○−○」や「白山○−○○−△」等)を有する。
The
なお、図示する例では、住所情報3274の階層数は、後述するステアリングスイッチ53に備わる選択ボタン53A〜Cの個数となるように設定されている。
In the illustrated example, the number of hierarchical levels of the
また、住所情報3274を各階層に分割する方法は、これに限定されず、例えば、中位データ(階層2)を「市区町村名」を示すデータに変更し、下位データ(階層3)を「町・字、番地」を示すデータ等に変更してもよい。
The method of dividing the
図1に戻り、音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、運転手やその他の搭乗者から発された音声などを取得する。スピーカ42は、演算処理部1で生成された音声信号を出力する。これらのマイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配置されている。
Returning to FIG. 1, the voice input /
入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、ステアリングスイッチ53と、その他のハードスイッチ(図示せず)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、ナビゲーション装置100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報をナビゲーション装置100に送出することができる。
The input device 5 is a unit that receives instructions from the user. The input device 5 includes a
タッチパネル51は、ディスプレイ2の表示面に貼られた透過性のある操作パネルである。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。
The
ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、ダイヤルスイッチ52の回転角度を求める。
The
ステアリングスイッチ53は、車両の進行方向を変更するためのステアリング200に配置され、ユーザ(ドライバー)がステアリング200を操作しながらタッチ可能なボタン群で構成される。
The
図4(A)は、ステアリング200の概観図である。図示するように、ステアリングスイッチ200は、例えば、ステアリング200の操作時においてユーザ(ドライバー)が左手を添える部分(点線で囲まれた部分)に配置される。
FIG. 4A is an overview diagram of the
また、図4(B)は、ステアリングスイッチ53の詳細について示す図である。図示するように、ステアリングスイッチ53は、複数(例えば、3つ)の選択ボタン53A〜Cと、確定ボタン53Dと、修正ボタン53Eと、を備える。
FIG. 4B is a diagram showing details of the
選択ボタン53A〜Cは、ディスプレイ2に選択可能に表示された複数の候補の中から、1つの候補を選択する指示を行うためのボタンである。例えば、ナビゲーション装置100で行われた音声認識について複数の結果(候補)がディスプレイ2に表示された場合には、ユーザ(ドライバー)は、いずれか1つの選択ボタン53A〜Cをタッチすることによって、1つの音声認識結果(候補)を選択することができる。
The
確定ボタン53Dは、選択ボタン53A〜Cを用いて選択された1つの候補に確定する指示を行うためのボタンである。例えば、選択ボタン53A〜Cを用いて1つの音声認識結果(候補)が選択された後に、ユーザ(ドライバー)は、確定ボタン53Dをタッチすることによって、選択された1つの音声認識結果(候補)が正しいものとして確定することができる。
The confirmation button 53D is a button for giving an instruction to confirm one candidate selected using the
修正ボタン53Eは、選択ボタン53A〜Cを用いて選択された1つの候補について修正する指示を行うためのボタンである。例えば、選択ボタン53A〜Cを用いて1つの音声認識結果(候補)が選択された後に、ユーザ(ドライバー)は、修正ボタン53Eをタッチすることによって、選択された1つの音声認識結果(候補)について修正することができる。
The
図1に戻り、車速センサ6、ジャイロセンサ7、及び、GPS受信装置8は、移動体(ナビゲーション装置100)の現在地(自車位置)などを算出するために使用される。車速センサ6は、車速を算出するために用いる車速データを出力するセンサである。ジャイロセンサ7は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置8は、GPS衛星からの信号を受信し、移動体とGPS衛星間の距離とその距離の変化率を3個以上の衛星に対して測定することで、移動体の現在地や進行速度を測定する。
Returning to FIG. 1, the
図5は、演算処理部1の機能ブロック図である。図示するように、演算処理部1は、基本制御部101と、入力受付部102と、出力処理部103と、音声認識部104と、を有する。
FIG. 5 is a functional block diagram of the arithmetic processing unit 1. As illustrated, the arithmetic processing unit 1 includes a
基本制御部101は様々な処理を行う中心的な機能部であり、処理内容に応じて、他の機能部を制御する。例えば、基本制御部101は、各種センサ6、7、GPS受信装置8等の情報を取得し、マップマッチング処理等を行って現在地を特定する。また、基本制御部101は、随時、走行した日付および時刻と、位置と、を対応付けて、リンクごとに走行履歴を記憶装置3に記憶する。さらに、基本制御部101は、各機能部からの要求に応じて、GPS受信装置8によって受信したGPS情報に含まれる現在時刻を出力する。また、基本制御部101は、他の機能部から推奨経路の情報を要求されると、当該情報を出力する。
The
また、基本制御部101は、地図データ310を用いて、出発地又は現在地と、目的地と、を結ぶ最適な経路(推奨経路)を探索する。当該経路探索においては、ダイクストラ法等の経路探索ロジックを用いて、道路の所定の区間(例えば、リンク)に対して予め設定されたリンクコスト(図2のリンク旅行時間325でもよい)に基づいて経路を探索する。なお、基本制御部101は、現在の日時に基づいて予測した到着日時・日の種類に対応する統計情報に含まれるリンクコストを用いて、推奨経路を探索してもよい。
In addition, the
また、基本制御部101は、車両の現在地が推奨経路から逸脱しないように、推奨経路に基づいて誘導情報を生成し、出力処理部103へ出力する。
In addition, the
入力受付部102は、入力装置5またはマイクロフォン41を介して入力されたユーザ(搭乗者)からの指示を受け付け、他の機能部に出力する。例えば、入力受付部102は、ステアリングスイッチ53のいずれかのボタン(選択ボタン53A〜C、確定ボタン53D、修正ボタン53E、等)がタッチされると、タッチされたボタンを特定する情報を、後述する音声認識部104へ出力する。また、入力受付部102は、マイクロフォン41を介して音声(ユーザから発された音声)が入力されると、入力された音声を電気信号(或いはデータ)に変換し、後述する音声認識部104へ出力する。また、入力受付部102は、入力装置5を介して電源の投入や切断等が指示されると、その指示を基本制御部101へ出力する。
The
出力処理部103は、ディスプレイ2に、地図、推奨経路、ユーザに通知する各種メッセージ、等を表示させる。具体的には、表示処理部103は、他の機能部からの指示に基づき、ディスプレイ2の画面上に表示させるためのグラフィックス情報を生成してディスプレイ2に送信する。また、出力処理部103は、ディスプレイ2に表示させた地図上に、車両の位置を示す車両マークや各種設定画面などを表示するグラフィック情報を生成してディスプレイ2へ送信する。また、出力処理部103は、基本制御部101から出力された誘導情報に基づく音声信号を、スピーカ42から音声出力させる。
The
音声認識部104は、例えば、目的地となる施設を検索する場合に音声認識処理を行う。具体的には、音声認識部104は、ユーザから発された音声に対応する言語系列の候補を特定する。なお、音声認識部104は、地図データ310の施設情報327に含まれる施設名称3272、電話番号3273、住所情報3274の中から、ユーザから発された音声に対応する言語系列の候補を検索するようにする。
The
また、音声認識部104は、ユーザから発された音声に対応する言語系列の候補のうち、ユーザに選択された候補を、部分的に修正することができる。例えば、音声認識部104は、ユーザに選択された候補を、複数の構成要素に分割する。そして、分割された複数の構成要素の中から、修正する1つの構成要素が選択されると、選択された構成要素について音声の再入力をユーザに対して促す。それから、音声認識部104は、再入力された音声に対応する構成要素の候補を特定し、修正する構成要素として選択されたものと入れ替える。
In addition, the
なお、上記した各構成要素は、ナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
In addition, in order to make an understanding of the structure of the
また、各機能部(101〜104)は、ハードウェア(ASICなど)により構築されてもよい。また、各機能部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。 Moreover, each function part (101-104) may be constructed | assembled by hardware (ASIC etc.). Further, the processing of each functional unit may be executed by one hardware or may be executed by a plurality of hardware.
次に、上記構成からなるナビゲーション装置100の特徴的な動作について説明する。
Next, a characteristic operation of the
<音声認識処理>
図6は、ナビゲーション装置100が行う音声認識処理の概要を示すフローチャートである。
<Voice recognition processing>
FIG. 6 is a flowchart showing an outline of the voice recognition process performed by the
図示するように、入力受付部102は、音声認識処理の開始の指示を受け付けるまで待機する(ステップS101;No)。
As shown in the figure, the
そして、入力受付部102は、音声認識処理の開始の指示を受け付けると(ステップS101;Yes)、音声認識処理(本フローのステップS102以降の処理)を開始する。例えば、入力受付部102は、目的地を設定する指示が入力装置5を介して入力されると、処理をステップS102に移行する。ただし、音声認識処理を開始するタイミングは、これに限定されない。
When the
処理がステップS102に移行すると、入力受付部102は、マイクロフォン41を介して音声(ユーザから発された音声)が入力されるのを待機する。そして、入力受付部102は、マイクロフォン41を介して音声が入力されると、入力された音声を電気信号(或いはデータ)に変換し、音声認識部104へ出力する(ステップS102)。
When the process proceeds to step S <b> 102, the
次に、音声認識部104は、入力受付部102から入力された電気信号(或いはデータ)に基づき、ユーザから発された音声に対応する言語系列の候補を特定する(ステップS103)。具体的には、音声認識部104は、入力受付部102から入力された電気信号(或いはデータ)と、記憶装置3に格納されている辞書データと、を比較しながら、ユーザから発せられた音声の特徴に近い言語系列(例えば、施設名称3272、電話番号3273、住所情報3274)の上位数個を、候補として特定する。
Next, the
なお、記憶装置3に格納されている辞書データには、地図データ310に含まれる施設情報327(例えば、施設名称3272、電話番号3273、住所情報3274)ごとに、当該施設情報327について発話するときの音声の特徴データが格納されている。
In the dictionary data stored in the
また、本実施形態では、音声認識部104は、ステップS103で特定する言語系列の候補の個数を、ステアリングスイッチ53に備わる選択ボタン53A〜Cの個数(すなわち、3個)とする。
Further, in the present embodiment, the
それから、音声認識部104は、ステップS103で特定された言語系列の候補を、ディスプレイ2に表示する(ステップS104)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上にステップS103で特定された言語系列の候補を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ステップS103で特定された言語系列の候補を、選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS103で音声認識部104によって特定された言語系列の候補が選択可能に表示される。
Then, the
図7(A)は、ステップS103で特定された言語系列の候補の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ステップS103で特定された言語系列の候補として、第1の候補「神奈川県座間市広野台○−○○−△」と、第2の候補「東京都新宿区西新宿○−○○−○」と、第3の候補「神奈川県座間市広野台○−△△−△」と、の文字列が表示されている。これとともに、各候補を選択可能に表示するために、各候補に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、第1の候補「神奈川県座間市広野台○−○○−△」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、第2の候補「東京都新宿区西新宿○−○○−○」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、第3の候補「神奈川県座間市広野台○−△△−△」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。
FIG. 7A is a diagram showing a display example of language sequence candidates identified in step S103. In the illustrated example, on the screen of the display 2, the first candidate “Hironodai, Zama City, Kanagawa Prefecture ○ -XX-Δ” and the second candidate “ A character string of “Nishishinjuku ○-○○-○” in Shinjuku-ku, Tokyo and a third candidate “Hironodai ○ -ΔΔ-Δ” in Zama City, Kanagawa Prefecture is displayed. At the same time, in order to display each candidate in a selectable manner, a character string that is associated with each of the
入力受付部102は、図7(A)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。
The
そして、音声認識部104は、ユーザに選択された候補に対して、修正せずに確定するのか、修正を加えるのか、を指示するための画面をディスプレイ2に表示する(ステップS105)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上に、確定を指示するための確定アイコンと、修正を指示するための修正アイコン「修正」と、を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、確定を指示するための確定アイコンと、修正を指示するための修正アイコンと、を選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、確定を指示するための確定アイコンと、修正を指示するための修正アイコンと、が選択可能に表示される。
Then, the
図7(B)は、ユーザに選択された候補に対して、修正せずに確定するのか、修正を加えるのか、を指示するための画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、確定アイコンと、修正アイコンと、が表示されている。これとともに、各アイコンを選択可能に表示するために、各アイコンに並べて、ステアリングボタン53内の確定ボタン53Dと修正ボタン53Eを連想させる文字列が表示される。例えば、確定アイコンには、確定ボタン53Dを連想させる文字列「確定」が並べて表示される。同様に、修正アイコンには、修正ボタン53Eを連想させる文字列「修正」が並べて表示される。
FIG. 7B is a diagram showing a display example of a screen for instructing whether the candidate selected by the user is to be confirmed without correction or to be corrected. In the illustrated example, a confirmation icon and a correction icon are displayed on the screen of the display 2. At the same time, in order to display each icon in a selectable manner, a character string reminiscent of the confirmation button 53D and the
入力受付部102は、図7(B)に示すような画面がディスプレイ2に表示されている状態で、確定ボタン53D又は修正ボタン53Eがタッチされるまで待機する。そして、入力受付部102は、確定ボタン53D又は修正ボタン53Eがユーザによってタッチされると、タッチされたボタン53D、Eを特定する情報を、音声認識部104へ通知する。
The
ここで、音声認識部104は、確定ボタン53Dを特定する情報が入力受付部102から通知された場合には、修正の指示はないと判定する(ステップS105;No)。この場合には、音声認識部104は、図7(A)に示す画面がディスプレイ2に表示されている状態でユーザに選択された候補を、目的地として設定する施設として確定する。そのために、音声認識部104は、まず、ステップS104で入力受付部102から通知された情報(選択ボタン53A〜Cを特定する情報)に基づいて、ユーザにタッチされた選択ボタン53A〜Cを特定する。それから、音声認識部104は、特定した選択ボタン53A〜Cに対応する候補を、目的地として設定する施設として確定する。なお、本実施形態では、第1の選択ボタン53Aと第1の候補が対応し、第2の選択ボタン53Bと第2の候補が対応し、第3の選択ボタン53Cと第3の候補が対応しているものとする。
Here, when the information for specifying the confirmation button 53D is notified from the
目的地として設定する施設を確定後、音声認識部104は、処理をステップS111に移行する。
After determining the facility to be set as the destination, the
そして、基本制御部101は、ステップS105で確定された施設に基づく各種処理を実行する(ステップS111)。例えば、基本制御部101は、処理がステップS111に移行すると、ステップS105で特定された施設の施設情報327を記憶装置3から読み出し、読み出した施設情報327に含まれる施設位置3271で特定される位置を目的地として設定する。
Then, the
ステップS111の処理を終了後、基本制御部101は、本フローを終了する。
After completing the process of step S111, the
一方、ステップS105において、音声認識部104は、修正ボタン53Eを特定する情報が入力受付部102から通知された場合には、修正の指示があると判定する(ステップS105;Yes)。
On the other hand, when the information for specifying the
この場合には、音声認識部104は、図7(A)に示す画面がディスプレイ2に表示されている状態でユーザに選択された候補に対して、構成要素への分割を行う(ステップS106)。具体的には、音声認識部104は、ユーザに選択された候補(例えば、第2の候補が選択された場合には「東京都新宿区西新宿○−○○−○」という言語系列)を、住所情報3724で設定されている「県名」「市区町村名」「町・字、番地」という各階層に分割する。すなわち、この例では、「東京都」「新宿区」「西新宿○−○○−○」という3要素に分割される。
In this case, the
なお、本実施形態の説明では、住所の選択を例として挙げているが、住所以外のものであっても、階層構造が定義できる選択対象であれば、構成要素への分割を行うことができる。例えば、楽曲を選択する場合を挙げる。1個の楽曲は「アーティスト名」「アルバム名」「楽曲名」という3層の階層構造の中に分類することができる。よって、楽曲名を選択する操作に本実施形態を適用する場合、「アーティスト名」「アルバム名」「楽曲名」という3要素に分割すればよい。 In the description of the present embodiment, address selection is given as an example. However, even if the address is other than an address, it can be divided into components as long as the hierarchical structure can be defined. . For example, the case where a music is selected is given. One piece of music can be classified into a three-layer hierarchical structure of “artist name”, “album name”, and “music name”. Therefore, when the present embodiment is applied to the operation of selecting a song name, it may be divided into three elements “artist name”, “album name”, and “song name”.
また、住所情報3724に示すような各階層の内訳を示すデータが利用できない場合であっても、形態素解析を使用すれば、構成要素へ分割することが可能である。具体的には、音声認識部104は、ユーザに選択された候補(例えば、第2の候補が選択された場合には「東京都新宿区西新宿○−○○−○」という言語系列)を、記憶装置3に格納されている形態素解析用の辞書データを用いて複数の構成要素(単語)に分割する。このような形態素解析については、汎用プログラム(例えば、「茶筌システム」http://chasen.naist.jp/hiki/ChaSen/)等を使用すればよい。
Even if data indicating the breakdown of each hierarchy as shown in the address information 3724 is not available, it can be divided into components by using morphological analysis. Specifically, the
なお、本実施形態では、ステップS106において、音声認識部104は、ユーザに選択された候補についての分割数(構成要素の個数)を、ステアリングスイッチ53に備わる選択ボタン53A〜Cの個数となるようにする。
In the present embodiment, in step S106, the
そして、音声認識部104は、ステップS106で複数の構成要素に分割された候補(言語系列)を、ディスプレイ2に表示する(ステップS107)。具体的には、音声認識部104は、出力処理部103に対して、ユーザに選択された候補(言語系列)を、ステップS106で分割された構成要素ごとに区切って表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、分割された構成要素ごとに選択可能となるように表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS106で分割された構成要素が選択可能に表示される。
Then, the
図7(C)は、分割された構成要素のうち、修正する構成要素を指示するための画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、分割された3つの構成要素(「東京都」、「新宿区」、「西新宿○−○○−○」)が表示されている。これとともに、各構成要素を選択可能に表示するために、各構成要素に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、先頭の構成要素「東京都」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、中間の構成要素「新宿区」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、末尾の構成要素「西新宿○−○○−○」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。
FIG. 7C is a diagram illustrating a display example of a screen for instructing a component to be corrected among divided components. In the illustrated example, three divided components (“Tokyo”, “Shinjuku-ku”, and “Nishi-Shinjuku ○-○○-○”) are displayed on the screen of the display 2. At the same time, in order to display each component in a selectable manner, a character string that is associated with each of the
なお、図示する例では、階層構造を有する住所情報3274が複数の構成要素に分割されているが、もちろん、階層構造を有さない施設名称3272や電話番号3273が複数の構成要素に分割されてもよい。
In the illustrated example, the
入力受付部102は、図7(C)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。
The
そして、音声認識部104は、ユーザに選択された構成要素について、音声(発話)の再入力をユーザに対して促す画面を、ディスプレイ2に表示する(ステップS108)。具体的には、音声認識部104は、出力処理部103に対して、ユーザに選択された構成要素と、当該構成要素より下位の構成要素をハイライト表示させるとともに、音声(発話)の再入力を促すメッセージを表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ユーザに選択された構成要素と、当該構成要素より下位の構成要素について音声(発話)の再入力を促す画面を表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、修正する構成要素について音声(発話)の再入力を促す画面が表示される。
Then, the
図7(D)は、修正対象としてユーザに選択された構成要素と、当該構成要素より下位の構成要素について、音声(発話)の再入力をユーザに促す画面の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ユーザに選択された構成要素(図示する例では「新宿区」)と、当該構成要素より下位の構成要素(図示する例では「西新宿○−○○−○」)がハイライト表示されている。これとともに、音声(発話)の再入力を促すメッセージ(例えば、「修正部分を正しく発音して下さい!」)が表示されている。 FIG. 7D is a diagram illustrating a display example of a screen that prompts the user to re-input voice (utterance) for a component selected by the user as a correction target and a component lower than the component. In the illustrated example, on the screen of the display 2, the component selected by the user (“Shinjuku-ku” in the illustrated example) and a component lower than the component (“Nishi-Shinjuku ○ − in the illustrated example)” are illustrated. ○○ − ○ ”) is highlighted. Along with this, a message (for example, “Please pronounce the corrected part correctly!”) Prompting re-input of voice (utterance) is displayed.
それから、入力受付部102は、マイクロフォン41を介して修正対象の構成要素と、当該構成要素より下位の構成要素について音声(ユーザから発された音声)が再入力されるのを待機する。そして、入力受付部102は、マイクロフォン41を介して音声が再入力されると、再入力された音声を電気信号(或いはデータ)に変換し、音声認識部104へ出力する。
Then, the
次に、音声認識部104は、入力受付部102から再入力された電気信号(或いはデータ)に基づき、ユーザから発された音声に対応する構成要素と、当該構成要素より下位の構成要素の候補を特定する(ステップS109)。具体的には、音声認識部104は、入力受付部102から再入力された電気信号(或いはデータ)と、記憶装置3に格納されている辞書データと、を比較しながら、ユーザから発せられた音声の特徴に近い構成要素と、当該構成要素より下位の構成要素(住所情報3274に部分的に含まれる文字列)の上位数個を、候補として特定する。
Next, the
ただし、音声認識部104は、ステップS109においては、記憶装置3に格納されている辞書データのうち、ステップS107で修正する構成要素として選択された構成要素より上位の構成要素(図示する例では「東京都」)を、上位データに有する住所情報3274に絞って検索を行う。そのため、本実施形態の音声認識処理では、不要なデータ(すなわち、上位データに「東京都」以外のデータを有する住所情報3274)を検索対象から除外できる。そのため、ユーザから発せられた音声の特徴に近い構成要素を検索する速度が高速化し、音声認識の精度も向上する。
However, in step S109, the
それから、音声認識部104は、修正する構成要素としてユーザに選択された構成要素(ステップS107で選択された構成要素)と、当該構成要素より下位の構成要素を、ステップS109で特定された構成要素で置き換える。そして、音声認識部104は、この置き換えによって生成される言語系列の候補を、ディスプレイ2に表示する(ステップS110)。具体的には、音声認識部104は、出力処理部103に対して、ディスプレイ2の画面上にステップS109で特定された構成要素で置き換えられた言語系列の候補を表示させる指示を出力する。そして、出力処理部103は、音声認識部104からの指示に基づき、ステップS109で特定された構成要素で置き換えられた言語系列の候補を、選択可能に表示するためのグラフィックス情報を生成してディスプレイ2に送信する。これにより、ディスプレイ2の画面上には、ステップS109で音声認識部104によって特定された構成要素で置き換えられた言語系列の候補が選択可能に表示される。
The
図7(E)は、一部の構成要素が修正された言語系列の候補の表示例を示す図である。図示する例では、ディスプレイ2の画面上には、ステップS109で特定された構成要素と、当該構成要素より下位の構成要素で置き換えられた言語系列の候補として、第1の候補「東京都文京区白山○−○○−○」と、第2の候補「東京都文京区白山○−○△−△」と、第3の候補「東京都文京区白山△−△△−△」と、の文字列が表示されている。これとともに、各候補を選択可能に表示するために、各候補に並べて各選択ボタン53A〜Cを連想させる文字列が表示される。例えば、第1の候補「東京都文京区白山○−○○−○」には、第1の選択ボタン53Aを連想させる文字列「A」が並べて表示される。同様に、第2の候補「東京都文京区白山○−○△−△」には、第2の選択ボタン53Bを連想させる文字列「B」が並べて表示される。また、第3の候補「東京都文京区白山△−△△−△」には、第3の選択ボタン53Cを連想させる文字列「C」が並べて表示される。
FIG. 7E is a diagram illustrating a display example of language sequence candidates in which some of the components are corrected. In the example shown in the drawing, the first candidate “Bunkyo-ku, Tokyo” is displayed on the screen of the display 2 as the language sequence candidate replaced with the component identified in step S109 and the component lower than the component. Characters of “Hakusan ○-○○-○”, the second candidate “Hakusan Bunkyo-ku Tokyo ○-○ △-△”, and the third candidate “Bunkyo-ku Hakusan Tokyo- △△△-△” A column is displayed. At the same time, in order to display each candidate in a selectable manner, a character string that is associated with each of the
なお、音声認識部104は、ステップS107で修正する構成要素として選択された構成要素より上位の構成要素(図示する例では「東京都」)の部分については、正しく音声認識できているものとして変更しない。そのため、図7(E)に示す第1〜第3の候補には、共通して「東京都」の文字列が含まれている。
Note that the
入力受付部102は、図7(E)に示すような画面がディスプレイ2に表示されている状態で、いずれか1つの選択ボタン53A〜Cがタッチされるまで待機する。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによってタッチされると、タッチされた選択ボタン53A〜Cを特定する情報を、音声認識部104へ通知する。
The
それから、音声認識部104は、処理をステップS105に戻し、修正箇所がなくなるまで(ステップS105;No)、ステップS105からステップS110までの処理を繰り返し実行する。
Then, the
こうして、本実施形態の音声認識処理では、入力した音声のうちの一部分が誤認識された場合において、誤認識された一部分についてのみ音声を再入力して音声認識をやり直すことができる。そのため、長文となる音声の再入力が不要となり、音声の再入力にかかる手間が軽減される。 Thus, in the voice recognition process of this embodiment, when a part of the input voice is erroneously recognized, the voice can be re-input by re-inputting only the part of the erroneously recognized voice. This eliminates the need for re-inputting speech that is a long sentence, thus reducing the effort required for re-inputting speech.
特に、本実施形態の住所情報3274のように階層構造を有するデータの音声認識処理においては、修正する構成要素としてユーザに選択された構成要素と、当該構成要素より下位の構成要素について音声を再入力して音声認識をやり直すことができる。そして、再度、音声認識を行う際には、上述した通り、不要なデータ(すなわち、上位データに「東京都」以外のデータを有する住所情報3274)を検索対象から除外できるため、ユーザから発せられた音声の特徴に近い構成要素を検索(特定)する速度が高速化し、音声認識の精度も向上する。
In particular, in the speech recognition processing of data having a hierarchical structure such as the
なお、上記したフローの各処理単位は、ナビゲーション装置100の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
Each processing unit of the above-described flow is divided according to main processing contents in order to facilitate understanding of the processing of the
また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。 Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.
以下に、上記実施形態の変形例を挙げる。 Below, the modification of the said embodiment is given.
例えば、音声認識の結果(すなわち、ユーザから入力された音声に基づいて予測(特定)された言語系列)の一部を削除したい場合にも適用できる。 For example, the present invention can also be applied to a case where it is desired to delete a part of a result of speech recognition (that is, a language sequence predicted (specified) based on speech input from a user).
この場合には、例えば、上記ステップS107において、図7(C)に示すように「※長押しで削除」等のメッセージを追加して表示すればよい。そして、この画面がディスプレイ2に表示されている状態で、削除したい構成要素がある場合には、ユーザは、複数の選択ボタン53A〜Cを長く(1秒以上)タッチすればよい。そして、入力受付部102は、いずれか1つの選択ボタン53A〜Cがユーザによって長くタッチされると、長くタッチされた選択ボタン53A〜Cを削除する指示を、音声認識部104へ通知する。
In this case, for example, in step S107, as shown in FIG. 7C, a message such as “* Delete by long press” may be added and displayed. When the screen is displayed on the display 2 and there is a component to be deleted, the user may touch the
それから、音声認識部104は、上記のステップS108、S109の処理を省略し、処理をステップS110へ移行する。ステップS110では、音声認識部104は、削除する構成要素としてユーザに選択された構成要素(ステップS107で選択された構成要素)を削除する。そして、音声認識部104は、一部の構成要素が削除されて生成される言語系列(1つの言語系列)を、ディスプレイ2に表示し、処理をステップS105に戻す。
Then, the
このように、音声認識の結果の一部を削除したい場合には、音声の再入力を省略して該当箇所を削除できるため、誤認識された箇所を効率良く修正することができる。 As described above, when it is desired to delete a part of the result of voice recognition, it is possible to delete the corresponding part by omitting the re-input of the voice, so that the erroneously recognized part can be corrected efficiently.
また、上記実施形態では、ステアリングスイッチ53には、3つの選択ボタン53A〜Cと、1つの確定ボタン53Dと、1つの修正ボタン53Eと、が設けられている。しかし、本発明はこれに限定されない。例えば、選択ボタン53A〜Cは、2つ、或いは、4つ以上設けられてもよい。また、確定ボタン53Dと修正ボタン53Eを別個に設けず、1つのボタンで兼用するようにしてもよい。この場合には、当該ボタンが1回タッチされれば、上記で説明した確定ボタン53Dがタッチされたものとみなし、当該ボタンが長く(1秒以上)タッチされれば、上記で説明した修正ボタン53Eがタッチされたものとみなせばよい。
In the above embodiment, the
また、選択ボタン53A〜C、確定ボタン53D、修正ボタン53Eは、それぞれ、車両のステアリング53以外の位置に配置されてもよく、車両内の任意の位置に配置可能である。また、選択ボタン53A〜C、確定ボタン53D、修正ボタン53Eは、ディスプレイ2の画面上にアイコンとして表示されてもよい。
Further, the
1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、5・・・入力装置、6・・・車速センサ、7・・・ジャイロセンサ、8・・・GPS受信装置、21・・・CPU、22・・・RAM、23・・・ROM、24・・・インタフェース(I/F)、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、53・・・ステアリングスイッチ、53A〜C・・・選択ボタン、53D・・・確定ボタン、53E・・・修正ボタン、100・・・ナビゲーション装置、101・・・基本制御部、102・・・入力受付部、103・・・表示処理部、104・・・音声認識部、310・・・地図データ、311・・・メッシュID、320・・・リンクデータ、321・・・リンクID、322・・・開始ノード・終了ノード、323・・・道路種別、324・・・リンク長、325・・・リンク旅行時間、326・・・開始接続リンク・終了接続リンク、327・・・施設情報、3271・・・施設位置、3272・・・施設名称、3273・・・電話番号、3274・・・住所情報。
DESCRIPTION OF SYMBOLS 1 ... Operation processing part, 2 ... Display, 3 ... Memory | storage device, 4 ... Voice input / output device, 5 ... Input device, 6 ... Vehicle speed sensor, 7 ... Gyro sensor , 8 ... GPS receiver, 21 ... CPU, 22 ... RAM, 23 ... ROM, 24 ... Interface (I / F), 41 ... Microphone, 42 ... Speaker, 51 ... Touch panel, 52 ... Dial switch, 53 ... Steering switch, 53A-C ... Selection button, 53D ... Confirm button, 53E ... Correction button, 100 ... Navigation device, DESCRIPTION OF
Claims (7)
複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部と、
音声を入力する音声入力部と、
前記記憶部に格納されている言語系列の中から、前記音声入力部から入力された音声に対応する言語系列の候補を特定する音声認識部と、
前記音声認識部によって特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示部と、を備え、
前記音声認識部は、
表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する、
ことを特徴とするナビゲーション装置。 A navigation device comprising a plurality of selection buttons,
A storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure;
A voice input unit for inputting voice;
A speech recognition unit that identifies a language sequence candidate corresponding to the speech input from the speech input unit, out of the language sequences stored in the storage unit;
A display unit that divides and displays language sequence candidates identified by the speech recognition unit into components of the number of selection buttons;
The voice recognition unit
When one constituent element included in the displayed language series is selected using the selection button, the language series candidates changed for the selected constituent element and the constituent elements lower than the constituent element are again displayed. Identify,
A navigation device characterized by that.
前記音声認識部は、
再度特定された言語系列に含まれる1つの構成要素について、前記選択ボタンを用いてさらに選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する、
ことを特徴とするナビゲーション装置。 The navigation device according to claim 1,
The voice recognition unit
When one of the constituent elements included in the re-identified language series is further selected using the selection button, the language series changed for the selected constituent element and the constituent elements lower than the constituent element are selected. Identify candidates again,
A navigation device characterized by that.
前記表示部は、
再度特定された言語系列に含まれる構成要素のうち、変更された構成要素をさらに前記選択ボタン数の構成要素に分割して表示する、
ことを特徴とするナビゲーション装置 The navigation device according to claim 2,
The display unit
Of the constituent elements included in the language series identified again, the changed constituent elements are further divided into constituent elements of the number of selection buttons and displayed.
Navigation device characterized by that
前記選択ボタンは、車両のステアリングに設けられる、
ことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
The selection button is provided on the steering of the vehicle.
A navigation device characterized by that.
前記言語系列には、少なくとも住所情報が含まれる、
ことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 4,
The language series includes at least address information.
A navigation device characterized by that.
前記ナビゲーション装置は、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部を備えており、
音声を入力する音声入力ステップと、
前記記憶部に格納されている言語系列の中から、前記音声入力ステップで入力された音声に対応する言語系列の候補を特定する音声認識ステップと、
前記音声認識ステップで特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示ステップと、
前記表示ステップで表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する音声再認識ステップと、を行う、
ことを特徴とする音声認識方法。 A speech recognition method using a navigation device having a plurality of selection buttons,
The navigation device includes a storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure,
A voice input step for inputting voice;
A speech recognition step for identifying a language sequence candidate corresponding to the speech input in the speech input step from among the language sequences stored in the storage unit;
A display step of dividing and displaying the language sequence candidates identified in the speech recognition step into components of the number of selection buttons;
When one component included in the language sequence displayed in the display step is selected using the selection button, the language sequence changed for the selected component and the component lower than the component A speech re-recognition step for re-identifying candidates
A speech recognition method characterized by the above.
前記ナビゲーション装置は、複数の構成要素に分割可能であって階層構造を有する言語系列を格納する記憶部を備えており、
音声を入力する音声入力ステップと、
前記記憶部に格納されている言語系列の中から、前記音声入力ステップで入力された音声に対応する言語系列の候補を特定する音声認識ステップと、
前記音声認識ステップで特定された言語系列の候補を、前記選択ボタン数の構成要素に分割して表示する表示ステップと、
前記表示ステップで表示された言語系列に含まれる1つの構成要素が前記選択ボタンを用いて選択されると、選択された構成要素と、当該構成要素より下位の構成要素と、について変更した言語系列の候補を再度特定する音声再認識ステップと、を前記コンピューターに実行させる、
ことを特徴とするプログラム。 A program for causing a computer to function as a navigation device having a plurality of selection buttons,
The navigation device includes a storage unit that stores a language sequence that can be divided into a plurality of components and has a hierarchical structure,
A voice input step for inputting voice;
A speech recognition step for identifying a language sequence candidate corresponding to the speech input in the speech input step from among the language sequences stored in the storage unit;
A display step of dividing and displaying the language sequence candidates identified in the speech recognition step into components of the number of selection buttons;
When one component included in the language sequence displayed in the display step is selected using the selection button, the language sequence changed for the selected component and the component lower than the component A voice re-recognition step for re-identifying the candidate,
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149488A JP5851740B2 (en) | 2011-07-05 | 2011-07-05 | Navigation device, speech recognition method using navigation device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149488A JP5851740B2 (en) | 2011-07-05 | 2011-07-05 | Navigation device, speech recognition method using navigation device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013015732A true JP2013015732A (en) | 2013-01-24 |
JP5851740B2 JP5851740B2 (en) | 2016-02-03 |
Family
ID=47688455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011149488A Expired - Fee Related JP5851740B2 (en) | 2011-07-05 | 2011-07-05 | Navigation device, speech recognition method using navigation device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5851740B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023042277A1 (en) * | 2021-09-14 | 2023-03-23 | ファナック株式会社 | Operation training device, operation training method, and computer-readable storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259178A (en) * | 1999-03-08 | 2000-09-22 | Fujitsu Ten Ltd | Speech recognition device |
JP2002287792A (en) * | 2001-03-27 | 2002-10-04 | Denso Corp | Voice recognition device |
JP2004240244A (en) * | 2003-02-07 | 2004-08-26 | Nissan Motor Co Ltd | Voice recognition device |
JP2007065347A (en) * | 2005-08-31 | 2007-03-15 | Denso Corp | Speech recognition system |
-
2011
- 2011-07-05 JP JP2011149488A patent/JP5851740B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259178A (en) * | 1999-03-08 | 2000-09-22 | Fujitsu Ten Ltd | Speech recognition device |
JP2002287792A (en) * | 2001-03-27 | 2002-10-04 | Denso Corp | Voice recognition device |
JP2004240244A (en) * | 2003-02-07 | 2004-08-26 | Nissan Motor Co Ltd | Voice recognition device |
JP2007065347A (en) * | 2005-08-31 | 2007-03-15 | Denso Corp | Speech recognition system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023042277A1 (en) * | 2021-09-14 | 2023-03-23 | ファナック株式会社 | Operation training device, operation training method, and computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5851740B2 (en) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007052397A (en) | Operating apparatus | |
JP4725731B2 (en) | Car navigation system | |
JP4626607B2 (en) | Vehicle navigation device | |
JP2012251865A (en) | Navigation apparatus, navigation method and navigation program | |
JP4760792B2 (en) | Vehicle navigation device | |
JP5865668B2 (en) | Information terminal, program, and search method | |
JP2007212857A (en) | Navigation device | |
JP2007033209A (en) | Navigation system | |
JP4664775B2 (en) | Navigation device | |
JP5851740B2 (en) | Navigation device, speech recognition method using navigation device, and program | |
JP5890187B2 (en) | Navigation device, software update program, and update method | |
JP4381632B2 (en) | Navigation system and its destination input method | |
JP4885645B2 (en) | In-vehicle information terminal | |
JP2007065206A (en) | Institution retrieval system | |
JP2007113940A (en) | Route searching apparatus for vehicle | |
JP2006153866A (en) | Navigation system for vehicle, and storage medium | |
JP2010127770A (en) | Navigation device and navigation method | |
JP2013011466A (en) | Navigation device, voice recognition method using the navigation device, and program | |
JP2009025105A (en) | Data retrieval system | |
JP2009250779A (en) | Navigation device, program, and navigation method | |
JP2009026004A (en) | Data retrieval device | |
JP2009115593A (en) | Navigation apparatus and program | |
JP2014081239A (en) | Route search device, navigation device, route search method, route search program, and navigation program | |
JPH10222059A (en) | Bird's-eye viewing display controller | |
JP5240567B2 (en) | Search device and search program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140528 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5851740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |