JP4219047B2 - Navigation device and destination setting method - Google Patents
Navigation device and destination setting method Download PDFInfo
- Publication number
- JP4219047B2 JP4219047B2 JP14388599A JP14388599A JP4219047B2 JP 4219047 B2 JP4219047 B2 JP 4219047B2 JP 14388599 A JP14388599 A JP 14388599A JP 14388599 A JP14388599 A JP 14388599A JP 4219047 B2 JP4219047 B2 JP 4219047B2
- Authority
- JP
- Japan
- Prior art keywords
- destination
- voice
- operator
- information
- specifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はナビゲーション装置、及び目的地設定方法に関し、詳細には音声入力による操作(音声操作)が可能なナビゲーション装置、及び目的地設定方法に関する。
【0002】
【従来の技術】
従来の車載用ナビゲーション装置には、例えば音声認識部を備えて音声操作が可能なものが知られている。この種の車載用ナビゲーション装置では、操作者が手を使わずに目的地の設定等の操作を行えることから、操作者が運転者である場合、運転者の操作負担を軽減でき、運転の安全性を確保できる点で非常に好ましい。一般に、車載用ナビゲーション装置では、目的地を設定入力すると、出発地点からの走行経路を探索し、この走行経路や車両の現在位置、進行方向を示す矢印等を道路地図と共に表示手段に表示しながら経路案内を行うようになっている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記した従来の車載用ナビゲーション装置では、操作者が目的地を音声により設定入力する際、操作者が目的地を正しく発声できることが前提となっている。また音声認識部は、予め設定された、目的地となる地名や施設名等の音声の標準パターンと、入力された音声の特徴パターンとを比較照合し、最も近いものを入力された音声内容として認識する。したがって、例えば読みの難解な地名を目的地として設定しようとする場合、読み方が不明で操作者が発声(音声入力)できないか、あるいは誤った読み方で発声してしまうと、目的地が認識されないため、音声操作による目的地の設定が不可能となる。
【0004】
本発明は上記課題に鑑みなされたものであって、目的地の読み方が不明であっても、音声操作により読み方が不明な目的地を設定することができるナビゲーション装置、及び目的地設定方法を提供することを目的としている。
【0005】
【課題を解決するための手段及びその効果】
上記課題を解決するために本発明に係るナビゲーション装置(1)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
また本発明に係るナビゲーション装置(2)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、目的地に関連する周辺情報の音声入力を指示する指示手段と、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
また本発明に係るナビゲーション装置(3)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、音声認識した内容を地名として受け付ける地名受付手段と、前記地名を目的地名に設定する設定手段と、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段と、前記地名受付手段と、前記目的地周辺情報受付手段とを選択する選択手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
【0006】
上記したナビゲーション装置(1)〜(3)によれば、設定したい目的地の名称が明確である(音声認識され易い)にもかかわらず目的地の読み方が不明である場合や、誤った読み方で発声してしまうことにより音声認識されない場合においても、前記目的地特定手段が、前記目的地周辺情報受付手段により受け付けられた目的地周辺情報、すなわち、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報に基づいて目的地を特定するため、音声操作による目的地の設定を行うことができる。よって、例えば操作者が運転中である場合、リモートコントローラやキー等の手動操作を行うことなく目的地の設定を行えるので、運転者の操作負担を軽減できるとともに、運転の安全性を確保することができる。
また本発明に係る目的地設定方法(1)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置における目的地設定方法であって、目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、該受け付けた目的地周辺情報に関連する地名を提示し、該提示した地名に基づいて目的地を設定することを特徴としている。
上記した目的地設定方法(1)によれば、目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、該受け付けた目的地周辺情報に関連する地名を提示し、該提示した地名に基づいて目的地が設定されるため、設定したい目的地の名称が明確である(音声認識され易い)にもかかわらず目的地の読み方が不明である場合や、誤った読み方で発声してしまうことにより音声認識されない場合においても、音声操作による目的地の設定を行うことができる。
【0016】
【発明の実施の形態】
以下、本発明に係るナビゲーション装置、及び目的地設定方法の実施の形態を図面に基づいて説明する。
図1は実施の形態(1)に係る車載用ナビゲーション装置(以下、単にナビゲーション装置と記す)の概略構成を示すブロック図である。図1に示すようにこのナビゲーション装置10は、音声認識部11とナビゲーション部15とを主要な構成要素として備えている。
【0017】
音声認識部11は、操作者の発声によりマイクロホン12から入力された音声の認識を行うものである。この音声認識部11には、例えば、ROM等から構成されて単語や音素等の音声の基本的な単位の標準パターン(モデル)を記憶した音素辞書13と、RAM等で構成されてナビゲーション装置10の使用状況に応じてナビゲーション部15の後述する認識語全辞書(以下、単に全辞書と記す)18から読み出された複数の認識語を一時的に記憶する認識辞書14とが接続されている。そして音声認識部11は、マイクロホン12から入力された音声のアナログ信号をデジタル信号に変換し、このデジタル信号から特徴パラメータを抽出するとともに、認識辞書14に記憶された認識語の標準パターンを音素辞書13から読み出し、この標準パターンと抽出した特徴パラメータとを比較照合することによって入力された音声を認識するようになっている。
【0018】
ナビゲーション部15は、操作者の発声により音声認識部11において認識された音声内容に基づき、目的地の特定、目的地への経路探索、現在位置から目的地までの経路案内等の処理を行うものである。この実施の形態(1)においてナビゲーション部15は、CD−ROM16、CD−ROMドライブ17、全辞書18、マイコン19、手動入力部20、ディスプレイ21、車両位置検出部22、音声出力部23等を備えて構成されている。
【0019】
CD−ROM16は、本発明における記憶手段となるものであり、地図情報や、操作者が読み方不明とした目的地の特定に必要な情報等を記憶している。またCD−ROMドライブ17は、マイコン19による制御に基づきCD−ROM16から必要な情報を読み出すものとなっている。このCD−ROM16に記憶された地図情報は、地図を表示するのに必要な情報や経路探索等に必要な緯度、経度の座標情報等を含んで構成されている。
【0020】
またCD−ROM16に記憶された目的地の特定に必要な特定情報は、読み方不明の目的地の周辺の少なくとも位置情報を含んで構成されている。この目的地周辺の位置情報は、ディスプレイ21に画面表示される地図上の名称と一致する情報であり、例えば目的地周辺の都道府県名、市区町村名等からなる地名や、高速道路名、国道○○号といったような道路名、また公園、図書館、学校、役所、病院、ゴルフ場、遊園地、海水浴場、駅、空港、神社、寺、名所になっている建造物等の各種施設の名称(施設名)を含んで構成されている。なお、CD−ROM16には、地図上の各目的地毎、つまり目的地として選択される可能性のある各地点毎に、目的地周辺の位置情報が複数記憶されている。
【0021】
全辞書18は、ナビゲーション装置10を音声により操作するための様々な音声認識語が予め設定登録されているものであり、例えばフロッピーディスク、ハードディスク、CD−ROM等の磁気的、光学的に記録することで情報を記憶する記憶媒体からなる。登録された認識語としては、音声操作を行うにあたって必要な基本の言葉や、ナビゲーション装置10が各処理を行うに際して必要となる可能性のある言葉が挙げられる。
【0022】
後者の各処理を行うに際して必要となる可能性のある言葉としては、例えば、目的地の名称や、地名、道路名、施設名等の目的地周辺の位置情報、距離情報、時間情報、方角情報等といった目的地を特定するのに必要な情報、目的地設定、目的地特定等の処理を指示する言葉、ディスプレイ21に画面表示されるエリアを指示する言葉等が挙げられる。なお、目的地の名称からなる認識語や、目的地周辺の位置情報となる地名、道路名、施設名等の認識語は、上記の地図情報に含まれる緯度、経度に関連づけて記憶されている。
【0023】
マイコン19は、目的地の設定、現在位置の検出、目的地への経路探索、現在位置から目的地までの経路案内等の処理に基づき、また操作者からの音声入力、手動入力にしたがって、マイコン19に接続された音声認識部11、CD−ROMドライブ17、全辞書18、車両位置検出部22等の各部を制御するものである。例えば、各部を制御するための演算処理を行う処理部(図示略)と、この演算処理を行うプログラムを格納したROMと、音声認識部11や車両位置検出部22、CD−ROMドライブ17、手動入力部20から入力された情報及び演算処理結果等を一時記憶するRAMを備えて構成されている。なお、マイコン19には、音声操作による処理の開始、終了を操作者が音声入力するための図示しない操作スイッチが接続されている。
【0024】
マイコン19はさらに、操作者の音声操作により目的地を設定する際に、操作者によって目的地の読み方が判らない(不明)との不明操作がなされた場合、この読み方不明の目的地の特定を可能とする不明検出手段19aと指示手段19bと目的地特定手段19cとを備えている。すなわち、不明検出手段19aが、「読み方が判らない」というような読み方不明を意味する音声が操作者から入力されたこと、あるいは読み方不明を意味する信号が後述の手動入力部20より入力されたことを不明操作として検出し、不明検出手段19aにより不明操作が検出されると指示手段19bが目的地周辺の位置情報を発声するように操作者に指示する。そして、目的地特定手段19cが、不明操作検出後の操作者の発声により音声認識部11で認識された目的地周辺の少なくとも位置情報を含む特定情報を基に目的地を特定するように構成されている。
【0025】
またこの実施の形態(1)において指示手段19bは、図示しないが本発明における方角指示手段と距離指示手段と時間指示手段とを包含するものとして構成されている。つまり、指示手段19bは目的地周辺の位置情報を発声するように操作者に指示する際、所定の方角における位置情報を発声するように操作者に指示し、所定の方角における位置情報が音声入力されて音声認識部で認識された時、さらに認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地から認識された位置情報に到達するまでに要する所要時間を発声するように操作者に指示する。したがって、実施の形態(1)における目的地特定手段19cは、操作者の発声により音声認識部11で認識された直線距離又は道路に沿った走行距離又は所要時間の情報と、認識された位置情報と、上記方角の情報とを含む特定情報を基に目的地を特定するものとして構成されている。
【0026】
なお、本発明における目的地特定手段は、この実施の形態(1)のように必ずしも直線距離又は道路に沿った走行距離又は所要時間の情報と、認識された位置情報と、方角の情報の全てを含む特定情報で目的地を特定するものとして構成される必要はない。例えば、上記の情報のうちの1つの情報あるいは任意の情報の組み合わせを含む特定情報で目的地を特定するものとして目的地特定手段を構成することも可能である。
【0027】
さらにこの実施の形態(1)における指示手段19bは、目的地を特定するまで目的地周辺の異なる位置情報の音声入力を複数回、操作者に指示し、目的地特定手段19cは入力された複数の異なる位置情報を基に目的地の特定を行うものとなっている。
【0028】
このように構成されたマイコン19にはさらに、手動入力部20、ディスプレイ21、車両位置検出部22、音声出力部23が接続されている。手動入力手段20は、ナビゲーション装置10を手動で操作するためのもので、例えば、操作ボタン、タッチパネル等で構成されている。タッチパネルは、経路案内するための地図や設定された目的地の地図等を画面表示するディスプレイ21と一体的に構成されていてもよく、また操作ボタン等は、リモートコントローラに装備されたものであってもよい。
【0029】
車両位置検出部22は、車両の現在位置を検出するもので、例えば、人工衛生を利用して車両の位置を検出するGPS(Global Positioning System)レシーバ22a、車両の車輪の回転数を検出し、検出結果から走行速度を求める車速センサ22b、車両の回転角速度を検出してその角速度を積分し、車両の方位を求めるジャイロセンサ22cとを含んで構成されている。車両位置検出部22では、通常、GPSレシーバ22a単独で車両の位置を検出することが可能であるが、トンネル内やビルの陰など衛星からの電波の届きにくい場所ではGPSレシーバ22aによる位置検出が困難となるため、車速センサ22b及びジャイロセンサ22cを用いた自律航法による位置の検出で補間されるようになっている。
【0030】
音声出力部23は、ナビゲーション装置10を操作するに際しての操作者に向けての指示(案内)の音声や、経路案内を行う際の案内情報の音声をマイコン19の制御に基づき合成し出力するものである。音声出力部23は、例えば、RAMで構成されて所要の音声を合成するためのテキストデータを記憶する音声辞書23aと、音声辞書23aからテキストデータを読み出して音声合成処理を行い、合成した音声をアナログ信号に変換して出力する音声合成手段23bと、音声合成手段23bから出力された音声のアナログ信号を増幅するアンプ23cと、アンプ23cから出力されたアナログ信号を音声として出力するスピーカ23dとを含んで構成されている。
【0031】
次に、このように構成されたナビゲーション装置10の目的地設定モードにおける目的地の特定処理時のマイコン19の行う動作例を説明するが、これに先立ち、目的地設定モードにおいてマイコン19が行う一連の動作例を図2に示したフローチャートを用いて説明する。
【0032】
まず、操作者から目的地の設定を行う旨の音声が発せられたことを認識した旨が音声認識部11から出力されると、マイコン19は設定モードとして地名設定又は施設名設定を選択する内容の音声入力を操作者が行うように操作者に向けた音声案内を音声出力部23に行わせる。その後、ステップS1に示すように音声出力部23からの出力に基づき、操作者が設定モードの入力を行ったことを検知すると、ステップS2に示すように設定モードとして例えば地名設定モードが選択されたか否かを判断する。地名設定モードが選択されたと判断すると、ステップS3に示す都道府県入力処理を行う。
【0033】
都道府県入力処理では、後に詳述するが、操作者に対して目的地の都道府県名の入力を指示し、操作者から都道府県名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しい(音声入力した都道府県名である)としてOKの入力が行われると、認識した都道府県名に決定する。
【0034】
ステップS3の後、続いてマイコン19は、操作者が例えば目的地の設定をこれ以降は手動で行いたい場合等、操作者から目的地の設定を終了する旨の音声が入力されてこれを認識した旨が音声認識部11から出力されたか否か、すなわち、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断する(ステップS4)。目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS5に示す市町村入力処理を行う。この処理も上記した都道府県入力処理と同様に、操作者に対して目的地の市町村名の入力を指示し、操作者から市町村名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しいとの入力が行われると、認識した市町村名に決定する。
【0035】
ステップS5の後、再びマイコン19は、操作者から目的地の設定を終了する旨の音声が入力されてこれを認識した旨が音声認識部11から出力されたか否か、すなわち、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断する(ステップS6)。目的地の設定を終了する旨の音声入力がなされていないと判断すると、次いでステップS7に示す市町村より下位の住所入力、例えば○○市の後に続く××区等の入力処理を行う。この処理も上記した都道府県入力処理(ステップS3)、市町村入力処理(ステップS5)と同様に、操作者に対して目的地の下位の住所入力を指示し、操作者から例えば区名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しいとの入力が行われると、認識した区名を目的地の区名に決定する。
【0036】
そして、ステップS6と同様に、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断し(ステップS8)、目的地の設定を終了する旨の音声が入力されていないと判断すると、次いで丁目・番地の入力処理を行う(ステップS9)。この処理も、上記した都道府県入力処理(ステップS3)、市町村入力処理(ステップS5)、下位の住所入力処理(ステップS7)と同様に行い、操作者から認識内容が正しいとの入力が行われて認識した音声内容を目的地の丁目・番地に決定すると、ステップS3、ステップS5、ステップS7、ステップS9で決定した音声内容に関連する緯度、経度の情報に基づき、CD−ROMドライブ17を介してCD−ROM16から対応する地図情報を読み出して目的地の候補の地図をディスプレイ21に表示させる(ステップS10)。
【0037】
なお、ステップS4、ステップS6、ステップS8のいずれにおいても、操作者が目的地の設定を終了する旨の音声入力を行ったと判断すると、マイコン19はステップS10に進む。そして、ステップS4からステップS10に進んだ場合にはステップS3にて決定された音声内容に対応する地図、ステップS6からステップS10に進んだ場合にはステップS3及びステップS5にて決定された音声内容に対応する地図、ステップS8からステップS10に進んだ場合にはステップS3、ステップS5、ステップS7にて決定された音声内容に対応する地図をそれぞれディスプレイ21に表示させる。
【0038】
次いでマイコン19は、操作者より手動入力部20からさらに目的地の設定のための情報が入力された場合、入力された情報に基づき目的地の設定処理を行い、その後に最終的に目的地を決定する処理を行う。なお、手動入力部20からさらに目的地の設定のための情報が入力されなかった場合、ステップS10に続いて最終的に目的地を決定する処理を行う(ステップS11)。
【0039】
一方、マイコン19は、ステップS2にて目的地の設定モードとして地名を設定するモードが選択されなかったと判断すると、設定モードとして施設名を設定するモードが選択されたとしてステップS12に示す施設種別入力処理を行う。この処理は、例えば公園、図書館、遊園地、ゴルフ場等のように施設の種類を入力させる処理である。ステップS3の都道府県入力処理と同様に、操作者に対して目的地となる施設の種別の入力を指示し、操作者から施設の種別が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しい(音声入力した施設の種別の音声である)としてOKの入力が行われると、認識した施設の種別を目的とする施設の種別に決定する。
【0040】
ステップS12の後、続いてマイコン19は、操作者が目的地の設定を終了する音声入力を行ったか否かを判断する(ステップS13)。目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS14に示す都道府県名の入力処理を行う。この処理は上記したステップS3の処理と同様である。その後、再びマイコン19は、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断し(ステップS15)、目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS16に示す施設名の入力処理を行う。この処理も、上記した都道府県入力処理(ステップS3)と同様に行い、操作者から認識内容が正しいとの入力が行われて認識した音声内容に目的地の設定を決定すると、ステップS10に進み、ステップS12、ステップS14、ステップS16で決定した音声内容に関連する緯度、経度の情報に基づき、CD−ROMドライブ17を介してCD−ROM16から対応する地図情報を読み出して目的地の候補の地図をディスプレイ21に表示させる。
【0041】
またマイコン19は、ステップS13、ステップS15のいずれにおいても、操作者が目的地の設定を終了する旨の音声入力を行ったと判断するとステップS10に進む。そして、ステップS13からステップS10に進んだ場合にはステップS12にて決定された音声内容に対応する地図、ステップS15からステップS10に進んだ場合にはステップS12及びステップS14にて決定された音声内容に対応する地図をそれぞれディスプレイ21に表示させる。
【0042】
次に、図2に示した一連の目的地設定処理において、ステップS3、ステップS5、ステップS7、ステップS9、ステップS12、ステップS14、ステップS16の各入力処理時に、操作者が目的地の読み方を不明を意味する不明操作を行った場合の目的地特定手段19cによる目的地の特定の動作例を説明する。ここでは、目的地設定時にナビゲーション装置10が行う操作者との対話例を交えて述べる。また、図2のステップS5における市町村入力処理にて操作者が不明操作を行った場合を例にとって目的地特定手段19cによる目的地の特定処理を説明する。
【0043】
図3は実施の形態(1)に係るナビゲーション装置10の目的地設定時における操作者との対話例を示す図であり、図中ドットで示したステップがナビゲーション装置10から出力される操作者に向けての案内を示している。また図3では、図2のステップS5の市町村入力処理の際に操作者が目的地の読み方を不明とした場合の対話例を示してある。また、図4は図3の各入力処理においてマイコン19の行う動作例を示すフローチャートであり、図5は図4の各入力処理においてマイコン19の行う動作例を示すフローチャートである。
【0044】
例えば図3のステップS11に示すように、操作者から「目的地設定。」の音声が発声され、発せられた音声を認識した旨が音声認識部11から出力されると、図示していないがマイコン19は「設定方法をどうぞ。」というような設定モードの入力を指示する旨の音声の案内を音声出力部23に行わせる。そして、操作者より例えば「地名。」の音声が入力され、この音声を認識した旨が音声認識部11から出力されると、マイコン19は図4に示したルーチンにしたがって都道府県入力処理を行う。
【0045】
すなわち、図4のステップS31に示すように、まず都道府県入力処理における音声入力の案内を音声出力部23に行わせる。ここでの案内は、例えば図3のステップS12に示す「(目的地の)都道府県名をお話し下さい。」というような案内となる。次いで、マイコン19の不明検出手段19aは、操作者から読み方不明を意味する音声が入力されて認識した旨が音声認識部11から出力されたか否か、すなわち不明操作が操作者よりなされたか否かを判断する(図4のステップS32)。
【0046】
図4のステップS31の音声案内に対して操作者が例えば図3のステップS13に示すように「兵庫県。」と発声してこの音声を認識した旨が音声認識部11から出力されると、不明検出手段19aは読み方不明の音声が認識されず、したがって不明操作が操作者によりなされなかったと判断する。そして、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示し、認識内容が正しいとの音声を認識した旨が音声認識部11から出力されたか否かを判断する。つまり、操作者が認識内容が発声した都道府県名であるとしてOKしたか否かを判断する(ステップS33)。認識内容がOKであるとされたと判断すると、目的とする都道府県名を認識した都道府県名に決定し(ステップS34)、図2のステップS3における都道府県入力処理を終了する。
【0047】
都道府県入力処理を終了するとマイコン19は、図4に示したルーチンにしたがって市町村入力処理を行う。まず、図4のステップS31に示すように市町村入力処理における音声入力の案内を音声出力部23に行わせる。ここでの案内は、例えば図3のステップS14に示す「(目的地の)市町村名をお話し下さい。」というような案内となる。次いで、マイコン19は操作者から読み方不明の音声が入力されて認識した旨が音声認識部11から出力されたか否かを判断する(図4のステップS32)。
【0048】
図4のステップS31における音声案内に対して操作者が市町村名を発声してこの音声を認識した旨が音声認識部11から出力されると、不明操作が操作者よりなされなかったと判断する。そして、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示し、認識内容でOKであるとの音声を認識した旨が音声認識部11から出力されたか否かを判断する(図4のステップS33)。認識内容がOKであるとされたと判断すると、目的とする市町村名を認識した市町村名に決定し(図4のステップS34)、図2のステップS5における市町村入力処理を終了する。
【0049】
一方、図3のステップS14の音声案内に対して、操作者が「読み方が判らない。」、「読めません。」といったような目的地の読み方不明を意味する音声を発声し(図3のステップS15)、その音声を認識した旨が音声認識部11から出力されると、図4のステップS32に示すように不明検出手段19aが操作者から読み方不明の音声が入力されたことを、不明操作が操作者によりなされたとして判断する。これによりマイコン19は、目的地特定モードとなって図4のステップS35以降の動作を行う。まずステップS35に示すようにマイコン19の指示手段19bが、目印となるものの方角を発声するよう操作者に指示する。例えば、図3のステップS16に示すように「目印となるものの方角をどうぞ。」というような音声案内を音声出力部23に行わせる。
【0050】
この案内に対して操作者が例えば図3のステップS17に示すように「南。」と発声してこの音声を認識した旨が音声認識部11から出力されると、続いて指示手段19bは南の方角における読み方不明の目的地周辺の位置情報を発声するよう操作者に指示する(図4のステップS36)。例えば、図3のステップS18に示すように「南にある目印の名称をどうぞ。」というような音声案内を音声出力部23に行わせる。この案内に対して操作者が例えば図3のステップS19に示すように「神戸市。」と発声してこの音声を認識した旨が音声認識部11から出力されると、さらに指示手段19bは、音声認識部11で認識された位置情報と目的地との直線距離、又は道路に沿った走行距離、又は目的地から認識された位置情報に到達するまでに要する所要時間を発声するように操作者に指示する入力処理を行う(図4のステップS37)。
【0051】
ここで、図4のステップS37において直線距離、道路に沿った走行距離、所要時間のいずれを入力するかの選択は、例えば手動入力部20での手動操作によって行うことができる。また「直線で○○キロメートル。」、「道路経由で××キロメートル。」のように音声入力によってもステップS37において入力する情報の切り替えを行うことができる。さらに所要時間の入力にあたっては、「車で○○時間。」「徒歩で×○分。」のように移動条件を情報に加えることも可能になっている。
【0052】
この実施の形態(1)では、例えば図3のステップS20に示すように「神戸市からの距離をどうぞ。」というような音声案内を音声出力部23に行わせる。そして、これに対して「10キロメートル。」(図3のステップS21)のように操作者が直線距離又は道路に沿った走行距離の情報を発声すると、この発声により音声認識部11で認識された距離情報(10キロメートル)と、図2のステップS3で認識された位置情報である都道府県名(兵庫県)と、方角(南)の情報とを基に特定する目的地の候補を選択する(図4のステップS38)。続いて、選択した候補を例えば「三木市ですか。」(図3のステップS22)のように操作者に音声出力部23からの音声出力によって報知する(図4のステップS39)とともに報知した候補が読み方不明の目的地であるか否かの確認を指示する。(図4のステップS40)。
【0053】
報知された候補でOKである内容の音声を認識した旨が音声認識部11から出力されると、特定完了したとし(図3のステップS23)、図4のステップS34に進んで特定した市町村名に決定し、図2のステップS5における市町村入力処理を終了する。また図4のステップS40において、報知された候補ではOKでない内容の音声を認識した旨が音声認識部11から出力されると、目的地特定手段19cは図4のステップS38において選択した候補を全て操作者に報知したか否かを判断する(図4のステップS41)。
【0054】
報知していない候補が残っていると判断すると、図4のステップS39に戻って報知していない候補を操作者に報知する。また選択した候補を全て操作者に報知したかあるいは報知した以外の候補がなく、報知していない候補が残っていないと判断すると、図4のステップS35に戻る。そして、図3のステップS24の「その他の目印となるものの方角をどうぞ。」のように、指示手段19bが再び方角を指定するよう操作者に指示し、目的地を特定するまで図3のステップS17以降の動作を繰り返し行って、目的地周辺の異なる位置情報の音声入力を複数回操作者に指示する。
【0055】
このように目的地の特定を終えた後は、マイコン19は目的地設定モードに戻り、前述したように図2のステップS6における目的地の設定を終了するか否かの判断にしたがって動作する。つまり、図2のステップS7に進んでさらに限定した目的地の特定を行うか、又は図2のステップS10に進んで図2のステップS5において特定された目的地に対応する地図を表示させる処理を行う。
【0056】
ところで、マイコン19は、図4のステップS35における目印となるものの方角を入力する処理、図4のステップS36における目印となるものの名称を入力する処理(位置情報の入力処理)、図4のステップS37における距離又は所要時間を入力する処理においてそれぞれ図5に示す動作を行う。
【0057】
すなわち、例えば図4のステップS35における方角を入力する処理では、マイコン19の指示手段19bが目印となるものの方角を発声するよう操作者に指示する音声案内を行わせた(ステップS51)後、この案内に対して操作者が音声を発声してこの音声を認識した旨が音声認識部11から出力されたことを検出する(ステップS52)。続いて、操作者の発声に対する返答(トークバック)を、例えば次の操作者に対する指示(音声案内)とともに行い(ステップS53)、さらにこれに対する操作者の発声から、音声認識部11が認識した音声内容でOKである内容の音声を認識した旨が音声認識部11から出力されたか否かを判断する(ステップS54)。
【0058】
例えば図3のステップS17において操作者が発声した「南。」という音声を音声認識部11が認識した場合、同図のステップS18に示したように、認識内容である「南」を次の処理の音声案内の出だしに付けて「南にある目印の名称をどうぞ。」とすることにより上記のトークバックを行う。このようにすると、次の処理の音声案内と認識内容との確認とを同時に行えるため、処理を簡略化できる利点がある。そして目的地特定手段19cは、ステップS54において操作者が認識内容と発声した音声とが一致したとして認識内容でOKであるとの入力が行われたと判断すると、目的地を認識内容に決定する。また操作者が認識内容と発声した音声とが一致していないとして認識内容ではOKでないとの入力が行われたと判断すると、再びステップS51に戻り、目印となるものの方角を発声するよう操作者に指示する音声案内を行わせる。
【0059】
以上のように実施の形態(1)に係るナビゲーション装置10によれば、設定したい目的地の名称が明確であるにもかかわらず目的地の読み方が不明である場合や、誤った読み方をしているために音声認識されない場合においても、目的地特定手段19cが操作者から入力された目的地周辺の少なくとも位置情報を含む特定情報を基に目的地を特定するので、音声操作による目的地の設定を行うことができる。よって、例えば操作者が運転中である場合、リモートコントローラやキー等の手動操作を行うことなく目的地の設定を行えるので、運転者の操作負担を軽減できるとともに、運転の安全性を確保することができる。
【0060】
また、ナビゲーション部15のCD−ROM16に、読み方不明の目的地を特定するための目的地周辺の位置情報が目的地毎に複数記憶されているので、操作者の発声により音声入力される多種多様な目的地周辺の位置情報に柔軟に対応して目的地の設定を行うことができる。したがって、音声操作による目的地の設定を確実に行うことができる。
【0061】
さらにCD−ROM16に記憶された目的地周辺の位置情報が、ディスプレイ21にて画面表示される地図上の名称と一致する情報であることから、操作者が地図上の名称を参照して位置情報を発声した場合の目的地の特定に対応できるナビゲーション装置10を実現できる。また通常、操作者は地図を見ながら目的地を決定したり、確認することが多いことから、目的地を特定するための位置情報の音声入力を操作者が行い易いという点で有効である。
【0062】
またナビゲーション装置10では、CD−ROM16に記憶された目的地周辺の位置情報が、地名、道路名、施設名のそれぞれであるので、操作者が地名、道路名、施設名のいずれを位置情報として発声しても目的地の特定に対応できるものとなる。またこれら地名、道路名、施設名は操作者が目的地の位置情報として着目する頻度が高い情報である。よって操作者が、目的地の特定のための位置情報の音声入力をスムーズに行うことができ、目的地を特定するための音声入力を煩わしく感じ難いという利点もある。
【0063】
さらに目的地特定手段19cが、音声認識部11で認識された所定の方角における位置情報と、その方角と、認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地からの所要時間とを基に目的地の特定を行うため、入力される位置情報がどのような情報であっても、目的地を特定する範囲を容易にかつ確実に絞り込むことができる。しかも目的地特定手段19cが、目的地を特定するまで、目的地周辺の異なる位置情報の音声入力を複数回操作者に行わせる。このことからも、確実に目的地を特定できる効果が得られることになる。
【0064】
なお、上記した実施の形態(1)では、本発明における記憶手段がCD−ROMからなる例を述べたが、読み方不明の目的地を特定するための目的地周辺の位置情報を目的地毎に複数記憶したものであればよく、記憶手段はCD−ROMに限定されるものではない。
【0065】
また上記した実施の形態(1)では、目的地特定手段が、認識された所定の方角における位置情報と、その方角の情報と、認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地から認識された位置情報までの所要時間の情報とを基に目的地の特定を行うものである場合を説明したが、別の実施の形態では、認識された所定の方角における位置情報とその方角の情報とから目的地の特定を行うものとして構成されていてもよい。この場合にも、位置情報のみで目的地の特定を行う場合に比較して目的地を特定する範囲を絞り込むことができるとともに、入力される位置情報がどのような情報であっても、目的地を特定する範囲を絞り込み易くなる。
【0066】
さらに、特定情報に、認識された位置情報と目的地との直線距離、道路に沿った走行距離、目的地からの所要時間のいずれかではなく、これらのうち2つ以上の情報を含むものを用いて目的地の特定を行うものとして本発明における目的地特定情報を構成することも可能である。その場合には、目的地を特定する範囲をさらに絞り込むことができるとともに、入力される位置情報がどのような情報であっても、目的地の特定がより容易となる。
【図面の簡単な説明】
【図1】本発明の実施の形態(1)に係るナビゲーション装置の概略構成を示すブロック図である。
【図2】実施の形態(1)に係るナビゲーション装置の目的地設定時におけるマイコンの行う動作を示すフローチャートである。
【図3】実施の形態(1)に係るナビゲーション装置の目的地設定時における操作者との対話例を示す図である。
【図4】図3の各入力処理におけるマイコンの行う動作例を示すフローチャートである。
【図5】図4の各入力処理におけるマイコンの行う動作例を示すフローチャートである。
【符号の説明】
10 ナビゲーション装置
11 音声認識部
15 ナビゲーション部
16 CD−ROM
19a 不明検出手段
19b 指示手段
19c 目的地特定手段
21 ディスプレイ[0001]
BACKGROUND OF THE INVENTION
The present invention is a navigation device. And destination setting method In particular, a navigation device that can be operated by voice input (voice operation) And destination setting method About.
[0002]
[Prior art]
As a conventional in-vehicle navigation device, for example, a device that includes a voice recognition unit and can perform voice operation is known. In this type of in-vehicle navigation system, the operator can perform operations such as setting the destination without using his / her hands. Therefore, when the operator is a driver, the operation burden on the driver can be reduced and driving safety can be reduced. It is very preferable in terms of securing the property. In general, when a destination is set and input in an in-vehicle navigation device, a travel route from a departure point is searched for, and an arrow indicating the travel route, the current position of the vehicle, and a traveling direction is displayed on a display unit together with a road map. Route guidance is provided.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional vehicle-mounted navigation device, it is assumed that the operator can correctly speak the destination when the operator sets and inputs the destination by voice. In addition, the voice recognition unit compares and collates preset standard voice patterns such as place names and facility names as destinations with input voice feature patterns, and sets the closest one as the input voice content. recognize. Therefore, for example, when trying to set a difficult-to-read place name as the destination, the destination is not recognized if the operator cannot speak (speech input) or the voice cannot be spoken because the reading is unknown. The destination cannot be set by voice operation.
[0004]
The present invention has been made in view of the above problems, and a navigation device capable of setting a destination whose reading is unknown by voice operation even if the reading of the destination is unknown. And destination setting method The purpose is to provide.
[0005]
[Means for solving the problems and effects thereof]
In order to solve the above problems, a navigation device (1) according to the present invention is a navigation device that provides route guidance to a destination based on speech-recognized content, and accepts the speech-recognized content as peripheral information related to the destination. Destination surrounding information receiving means and destination specifying means for specifying a destination based on the destination surrounding information The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
The navigation device (2) according to the present invention is a navigation device that provides route guidance to a destination based on the voice-recognized content, and voice recognition is performed with an instruction unit that instructs voice input of peripheral information related to the destination. Destination peripheral information receiving means for receiving the contents as peripheral information related to the destination, and destination specifying means for specifying the destination based on the destination peripheral information The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
The navigation device (3) according to the present invention is a navigation device that provides route guidance to a destination based on voice-recognized contents, and sets a place name receiving means for receiving the voice-recognized contents as a place name and the place name as a destination name. Setting means, destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination, destination specifying means for specifying a destination based on the destination peripheral information, and the place name receiving means And a selection means for selecting the destination periphery information receiving means. The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
[0006]
According to the navigation devices (1) to (3) described above, when the name of the destination to be set is clear (easy to be recognized by voice) but the way of reading the destination is unknown, Even when the voice is not recognized due to uttering, the destination specifying means is the destination peripheral information received by the destination peripheral information receiving means, that is, Information on at least one of direction, distance, and time for identifying the destination Therefore, the destination can be set by voice operation. Therefore, for example, when the operator is driving, the destination can be set without manually operating the remote controller, keys, etc., so that the operational burden on the driver can be reduced and driving safety can be ensured. Can do.
A destination setting method (1) according to the present invention is a destination setting method in a navigation device that performs route guidance to a destination based on the voice-recognized content, and includes peripheral information related to the destination. Information on at least one of direction, distance, and time as Is received as information for specifying the destination, a place name related to the received destination periphery information is presented, and the destination is set based on the presented place name.
According to the destination setting method (1) described above, the peripheral information related to the destination Information on at least one of direction, distance, and time as As the information for specifying the destination, the place name related to the received destination surrounding information is presented, and the destination is set based on the presented place name, so the name of the destination to be set is clear Even if it is (easy to be recognized by voice) but the way of reading the destination is unknown, or even if the voice is not recognized due to uttering in the wrong way, the destination should be set by voice operation Can do.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, according to the present invention Navigation device and destination setting method Embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an in-vehicle navigation device (hereinafter simply referred to as a navigation device) according to Embodiment (1). As shown in FIG. 1, the
[0017]
The
[0018]
The
[0019]
The CD-
[0020]
Further, the specific information necessary for specifying the destination stored in the CD-
[0021]
The
[0022]
Examples of words that may be necessary when performing each of the latter processes include, for example, the name of the destination, location information around the destination such as a place name, road name, and facility name, distance information, time information, and direction information. The information necessary for specifying the destination such as, destination setting, a word for instructing processing such as destination specification, a word for instructing an area displayed on the
[0023]
The
[0024]
Further, when setting the destination by the operator's voice operation, the
[0025]
In this embodiment (1), the instruction means 19b is configured to include a direction instruction means, a distance instruction means, and a time instruction means in the present invention (not shown). In other words, when the instruction means 19b instructs the operator to speak the position information around the destination, the instruction means 19b instructs the operator to speak the position information in a predetermined direction, and the position information in the predetermined direction is input by voice. When it is recognized by the voice recognition unit, it further utters the distance required to reach the position information recognized from the linear distance between the recognized position information and the destination, the travel distance along the road, or the destination. Instruct the operator to Therefore, the destination specifying means 19c in the embodiment (1) includes the straight line distance recognized by the
[0026]
The destination specifying means in the present invention is not necessarily limited to the straight distance or the travel distance or required time information along the road, the recognized position information, and the direction information as in the embodiment (1). It is not necessary to be configured as identifying information with specific information including For example, the destination specifying means can be configured to specify the destination with specific information including one piece of information or a combination of arbitrary information.
[0027]
Further, the instruction means 19b in this embodiment (1) instructs the operator to input voices of different position information around the destination a plurality of times until the destination is specified, and the destination specifying means 19c The destination is specified based on different location information.
[0028]
The
[0029]
The vehicle
[0030]
The
[0031]
Next, an example of the operation performed by the
[0032]
First, when the
[0033]
In the prefecture input processing, which will be described in detail later, when the operator is instructed to input the name of the destination prefecture, and the operator inputs the name of the prefecture, the voice recognized by the
[0034]
After step S3, the
[0035]
After step S5, the
[0036]
Then, as in step S6, it is determined whether or not the operator has made a voice input to end the destination setting (step S8), and no voice to end the destination setting has been input. If it is determined, the chome / address input process is performed (step S9). This process is also performed in the same manner as the prefecture input process (step S3), the municipality input process (step S5), and the lower address input process (step S7), and the operator inputs that the recognition content is correct. When the voice content recognized in step S3 is determined as the destination chome / address, the information on the latitude and longitude related to the voice content determined in step S3, step S5, step S7, and step S9 is used. The corresponding map information is read out from the CD-
[0037]
In any of step S4, step S6, and step S8, if it is determined that the operator has made a voice input to end the destination setting, the
[0038]
Next, when information for destination setting is further input from the
[0039]
On the other hand, if the
[0040]
After step S12, the
[0041]
If the
[0042]
Next, in the series of destination setting processes shown in FIG. 2, the operator determines how to read the destination during each input process of step S3, step S5, step S7, step S9, step S12, step S14, and step S16. An example of the operation of specifying the destination by the destination specifying means 19c when an unknown operation that means unknown is performed will be described. Here, an example of dialogue with the operator performed by the
[0043]
FIG. 3 is a diagram showing an example of dialogue with the operator at the time of destination setting of the
[0044]
For example, as shown in step S <b> 11 of FIG. 3, when a voice of “Destination setting” is uttered by the operator and the fact that the uttered voice is recognized is output from the
[0045]
That is, as shown in step S31 of FIG. 4, first, the
[0046]
When the operator utters “Hyogo Prefecture” in response to the voice guidance in step S31 of FIG. 4 and recognizes this voice, for example, as shown in step S13 of FIG. The unknown detection means 19a determines that the unknown voice is not recognized and therefore the unknown operation has not been performed by the operator. Then, the
[0047]
When the prefecture input process is completed, the
[0048]
When the operator recognizes this voice by outputting the name of the municipality in response to the voice guidance in step S31 in FIG. 4 and is output from the
[0049]
On the other hand, in response to the voice guidance in step S14 in FIG. 3, the operator utters a voice meaning that the destination is unclear, such as “I do not know how to read” or “I cannot read” (FIG. 3). Step S15) When the
[0050]
When the operator utters “south” in response to this guidance, for example, as shown in step S17 in FIG. 3 and the fact that the voice is recognized is output from the
[0051]
Here, in step S37 in FIG. 4, the selection of whether to input a linear distance, a travel distance along the road, or a required time can be performed by a manual operation using the
[0052]
In this embodiment (1), for example, as shown in step S20 of FIG. 3, the
[0053]
When the
[0054]
If it is determined that candidates that have not been notified remain, the process returns to step S39 in FIG. 4 to notify the operator of candidates that have not been notified. If it is determined that all the selected candidates have been notified to the operator or that there are no candidates other than those notified and there are no candidates not notified, the process returns to step S35 in FIG. Then, the instruction means 19b instructs the operator to specify the direction again as in step S24 of FIG. 3 "Please select the direction of other landmarks." Until the destination is specified, the step of FIG. The operation after S17 is repeatedly performed to instruct the operator to input voices of different position information around the destination a plurality of times.
[0055]
After finishing specifying the destination in this way, the
[0056]
By the way, the
[0057]
That is, for example, in the process of inputting the direction in step S35 of FIG. 4, after the voice guidance for instructing the operator to speak the direction of the direction of the indication means 19b of the
[0058]
For example, when the
[0059]
As described above, according to the
[0060]
Further, since the CD-
[0061]
Further, since the position information around the destination stored in the CD-
[0062]
Further, in the
[0063]
Further, the destination specifying means 19c is provided with position information in a predetermined direction recognized by the
[0064]
In the above-described embodiment (1), the example in which the storage means in the present invention is a CD-ROM has been described. However, position information around the destination for identifying a destination whose reading is unknown is provided for each destination. The storage means is not limited to the CD-ROM, as long as a plurality of storage means are stored.
[0065]
In the above-described embodiment (1), the destination specifying unit is configured to recognize the position information in the recognized predetermined direction, the information on the direction, the linear distance between the recognized position information and the destination, or the road. In this embodiment, the destination is identified based on the travel distance or the information on the required time from the destination to the recognized position information. It may be configured to identify the destination from the position information and the direction information. In this case as well, the range for specifying the destination can be narrowed compared to the case where the destination is specified only by the position information, and the destination information can be obtained regardless of the input position information. It becomes easy to narrow down the range to specify.
[0066]
Further, the specific information includes not only one of the recognized distance information and the straight line distance between the destination, the travel distance along the road, and the required time from the destination, but two or more of these information. The destination specifying information in the present invention can also be configured to be used to specify the destination. In this case, the range for specifying the destination can be further narrowed down, and the destination can be specified more easily regardless of the input position information.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a navigation device according to an embodiment (1) of the present invention.
FIG. 2 is a flowchart showing an operation performed by the microcomputer at the time of destination setting of the navigation device according to the embodiment (1).
FIG. 3 is a diagram showing an example of dialogue with an operator when setting a destination in the navigation device according to the embodiment (1).
4 is a flowchart showing an operation example performed by the microcomputer in each input process of FIG. 3;
5 is a flowchart showing an operation example performed by the microcomputer in each input process of FIG. 4;
[Explanation of symbols]
10 Navigation device
11 Speech recognition unit
15 Navigation part
16 CD-ROM
19a Unknown detection means
19b Instruction means
19c Destination identification means
21 display
Claims (4)
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。In a navigation device that provides route guidance to a destination based on the content of voice recognition,
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
A destination specifying means for specifying a destination based on the destination periphery information ,
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
目的地に関連する周辺情報の音声入力を指示する指示手段と、
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。In a navigation device that provides route guidance to a destination based on the content of voice recognition,
Instruction means for instructing voice input of peripheral information related to the destination;
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
A destination specifying means for specifying a destination based on the destination periphery information ,
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
音声認識した内容を地名として受け付ける地名受付手段と、
前記地名を目的地名に設定する設定手段と、
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段と、
前記地名受付手段と、前記目的地周辺情報受付手段とを選択する選択手段とを備え、
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。In a navigation device that provides route guidance to a destination based on the content of voice recognition,
A place name receiving means for receiving the speech-recognized content as a place name;
Setting means for setting the place name as a destination name;
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
Destination specifying means for specifying a destination based on the destination periphery information;
A selection means for selecting the place name receiving means and the destination surrounding information receiving means ;
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、
該受け付けた目的地周辺情報に関連する地名を提示し、
該提示した地名に基づいて目的地を設定することを特徴とする目的地設定方法。A destination setting method in a navigation device that performs route guidance to a destination based on the content of voice recognition,
Accept at least one of direction, distance, and time as peripheral information related to the destination as information for specifying the destination,
Show the place name related to the information around the accepted destination,
A destination setting method, wherein a destination is set based on the presented place name.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14388599A JP4219047B2 (en) | 1999-05-24 | 1999-05-24 | Navigation device and destination setting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14388599A JP4219047B2 (en) | 1999-05-24 | 1999-05-24 | Navigation device and destination setting method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000337912A JP2000337912A (en) | 2000-12-08 |
JP2000337912A5 JP2000337912A5 (en) | 2006-07-06 |
JP4219047B2 true JP4219047B2 (en) | 2009-02-04 |
Family
ID=15349299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14388599A Expired - Fee Related JP4219047B2 (en) | 1999-05-24 | 1999-05-24 | Navigation device and destination setting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4219047B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102401377B1 (en) * | 2017-06-07 | 2022-05-24 | 현대자동차주식회사 | Method and apparatus for searching geographic information using interactive speech recognition |
-
1999
- 1999-05-24 JP JP14388599A patent/JP4219047B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000337912A (en) | 2000-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6253174B1 (en) | Speech recognition system that restarts recognition operation when a new speech signal is entered using a talk switch | |
US6480786B2 (en) | Method and system for route guiding | |
US7472020B2 (en) | Navigation system with voice controlled presentation of secondary information | |
JP2907079B2 (en) | Navigation device, navigation method and automobile | |
US5956684A (en) | Voice recognition apparatus, voice recognition method, map displaying apparatus, map displaying method, navigation apparatus, navigation method and car | |
JPH07272193A (en) | Vehicle guiding device | |
US20070156331A1 (en) | Navigation device | |
JPH09292255A (en) | Navigation method and navigation system | |
JP2701492B2 (en) | Map display device | |
TWI411768B (en) | Navigation apparatus | |
JP4219047B2 (en) | Navigation device and destination setting method | |
JP2001027540A (en) | Navigation method to use function of voice recognition | |
JP2947143B2 (en) | Voice recognition device and navigation device | |
JP4295674B2 (en) | Navigation device and navigation program | |
JP4274913B2 (en) | Destination search device | |
JPH09114491A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JPWO2006028171A1 (en) | Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program | |
JPH09114488A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JPH08166797A (en) | Voice interactive control system | |
KR100455108B1 (en) | A voice recognition device, a voice recognition method, a map display device, a navigation device, a navigation method and a navigation function | |
KR100466737B1 (en) | Navigation devices, navigation methods and automobiles | |
JP2002286487A (en) | Navigation device | |
JP3484818B2 (en) | Voice recognition device and navigation device | |
JP2877045B2 (en) | Voice recognition device, voice recognition method, navigation device, navigation method, and automobile | |
JP2001215127A (en) | Navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080814 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131121 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131121 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |