JP4219047B2 - Navigation device and destination setting method - Google Patents

Navigation device and destination setting method Download PDF

Info

Publication number
JP4219047B2
JP4219047B2 JP14388599A JP14388599A JP4219047B2 JP 4219047 B2 JP4219047 B2 JP 4219047B2 JP 14388599 A JP14388599 A JP 14388599A JP 14388599 A JP14388599 A JP 14388599A JP 4219047 B2 JP4219047 B2 JP 4219047B2
Authority
JP
Japan
Prior art keywords
destination
voice
operator
information
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14388599A
Other languages
Japanese (ja)
Other versions
JP2000337912A5 (en
JP2000337912A (en
Inventor
昌宏 神谷
和広 崎山
英樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP14388599A priority Critical patent/JP4219047B2/en
Publication of JP2000337912A publication Critical patent/JP2000337912A/en
Publication of JP2000337912A5 publication Critical patent/JP2000337912A5/en
Application granted granted Critical
Publication of JP4219047B2 publication Critical patent/JP4219047B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はナビゲーション装置、及び目的地設定方法に関し、詳細には音声入力による操作(音声操作)が可能なナビゲーション装置、及び目的地設定方法に関する。
【0002】
【従来の技術】
従来の車載用ナビゲーション装置には、例えば音声認識部を備えて音声操作が可能なものが知られている。この種の車載用ナビゲーション装置では、操作者が手を使わずに目的地の設定等の操作を行えることから、操作者が運転者である場合、運転者の操作負担を軽減でき、運転の安全性を確保できる点で非常に好ましい。一般に、車載用ナビゲーション装置では、目的地を設定入力すると、出発地点からの走行経路を探索し、この走行経路や車両の現在位置、進行方向を示す矢印等を道路地図と共に表示手段に表示しながら経路案内を行うようになっている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記した従来の車載用ナビゲーション装置では、操作者が目的地を音声により設定入力する際、操作者が目的地を正しく発声できることが前提となっている。また音声認識部は、予め設定された、目的地となる地名や施設名等の音声の標準パターンと、入力された音声の特徴パターンとを比較照合し、最も近いものを入力された音声内容として認識する。したがって、例えば読みの難解な地名を目的地として設定しようとする場合、読み方が不明で操作者が発声(音声入力)できないか、あるいは誤った読み方で発声してしまうと、目的地が認識されないため、音声操作による目的地の設定が不可能となる。
【0004】
本発明は上記課題に鑑みなされたものであって、目的地の読み方が不明であっても、音声操作により読み方が不明な目的地を設定することができるナビゲーション装置、及び目的地設定方法を提供することを目的としている。
【0005】
【課題を解決するための手段及びその効果】
上記課題を解決するために本発明に係るナビゲーション装置(1)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
また本発明に係るナビゲーション装置(2)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、目的地に関連する周辺情報の音声入力を指示する指示手段と、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
また本発明に係るナビゲーション装置(3)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、音声認識した内容を地名として受け付ける地名受付手段と、前記地名を目的地名に設定する設定手段と、音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、前記目的地周辺情報に基づいて目的地を特定する目的地特定手段と、前記地名受付手段と、前記目的地周辺情報受付手段とを選択する選択手段とを備え、前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴としている。
【0006】
上記したナビゲーション装置(1)〜(3)によれば、設定したい目的地の名称が明確である(音声認識され易い)にもかかわらず目的地の読み方が不明である場合や、誤った読み方で発声してしまうことにより音声認識されない場合においても、前記目的地特定手段が、前記目的地周辺情報受付手段により受け付けられた目的地周辺情報、すなわち、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報に基づいて目的地を特定するため、音声操作による目的地の設定を行うことができる。よって、例えば操作者が運転中である場合、リモートコントローラやキー等の手動操作を行うことなく目的地の設定を行えるので、運転者の操作負担を軽減できるとともに、運転の安全性を確保することができる。
また本発明に係る目的地設定方法(1)は、音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置における目的地設定方法であって、目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、該受け付けた目的地周辺情報に関連する地名を提示し、該提示した地名に基づいて目的地を設定することを特徴としている。
上記した目的地設定方法(1)によれば、目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、該受け付けた目的地周辺情報に関連する地名を提示し、該提示した地名に基づいて目的地が設定されるため、設定したい目的地の名称が明確である(音声認識され易い)にもかかわらず目的地の読み方が不明である場合や、誤った読み方で発声してしまうことにより音声認識されない場合においても、音声操作による目的地の設定を行うことができる。
【0016】
【発明の実施の形態】
以下、本発明に係るナビゲーション装置、及び目的地設定方法の実施の形態を図面に基づいて説明する。
図1は実施の形態(1)に係る車載用ナビゲーション装置(以下、単にナビゲーション装置と記す)の概略構成を示すブロック図である。図1に示すようにこのナビゲーション装置10は、音声認識部11とナビゲーション部15とを主要な構成要素として備えている。
【0017】
音声認識部11は、操作者の発声によりマイクロホン12から入力された音声の認識を行うものである。この音声認識部11には、例えば、ROM等から構成されて単語や音素等の音声の基本的な単位の標準パターン(モデル)を記憶した音素辞書13と、RAM等で構成されてナビゲーション装置10の使用状況に応じてナビゲーション部15の後述する認識語全辞書(以下、単に全辞書と記す)18から読み出された複数の認識語を一時的に記憶する認識辞書14とが接続されている。そして音声認識部11は、マイクロホン12から入力された音声のアナログ信号をデジタル信号に変換し、このデジタル信号から特徴パラメータを抽出するとともに、認識辞書14に記憶された認識語の標準パターンを音素辞書13から読み出し、この標準パターンと抽出した特徴パラメータとを比較照合することによって入力された音声を認識するようになっている。
【0018】
ナビゲーション部15は、操作者の発声により音声認識部11において認識された音声内容に基づき、目的地の特定、目的地への経路探索、現在位置から目的地までの経路案内等の処理を行うものである。この実施の形態(1)においてナビゲーション部15は、CD−ROM16、CD−ROMドライブ17、全辞書18、マイコン19、手動入力部20、ディスプレイ21、車両位置検出部22、音声出力部23等を備えて構成されている。
【0019】
CD−ROM16は、本発明における記憶手段となるものであり、地図情報や、操作者が読み方不明とした目的地の特定に必要な情報等を記憶している。またCD−ROMドライブ17は、マイコン19による制御に基づきCD−ROM16から必要な情報を読み出すものとなっている。このCD−ROM16に記憶された地図情報は、地図を表示するのに必要な情報や経路探索等に必要な緯度、経度の座標情報等を含んで構成されている。
【0020】
またCD−ROM16に記憶された目的地の特定に必要な特定情報は、読み方不明の目的地の周辺の少なくとも位置情報を含んで構成されている。この目的地周辺の位置情報は、ディスプレイ21に画面表示される地図上の名称と一致する情報であり、例えば目的地周辺の都道府県名、市区町村名等からなる地名や、高速道路名、国道○○号といったような道路名、また公園、図書館、学校、役所、病院、ゴルフ場、遊園地、海水浴場、駅、空港、神社、寺、名所になっている建造物等の各種施設の名称(施設名)を含んで構成されている。なお、CD−ROM16には、地図上の各目的地毎、つまり目的地として選択される可能性のある各地点毎に、目的地周辺の位置情報が複数記憶されている。
【0021】
全辞書18は、ナビゲーション装置10を音声により操作するための様々な音声認識語が予め設定登録されているものであり、例えばフロッピーディスク、ハードディスク、CD−ROM等の磁気的、光学的に記録することで情報を記憶する記憶媒体からなる。登録された認識語としては、音声操作を行うにあたって必要な基本の言葉や、ナビゲーション装置10が各処理を行うに際して必要となる可能性のある言葉が挙げられる。
【0022】
後者の各処理を行うに際して必要となる可能性のある言葉としては、例えば、目的地の名称や、地名、道路名、施設名等の目的地周辺の位置情報、距離情報、時間情報、方角情報等といった目的地を特定するのに必要な情報、目的地設定、目的地特定等の処理を指示する言葉、ディスプレイ21に画面表示されるエリアを指示する言葉等が挙げられる。なお、目的地の名称からなる認識語や、目的地周辺の位置情報となる地名、道路名、施設名等の認識語は、上記の地図情報に含まれる緯度、経度に関連づけて記憶されている。
【0023】
マイコン19は、目的地の設定、現在位置の検出、目的地への経路探索、現在位置から目的地までの経路案内等の処理に基づき、また操作者からの音声入力、手動入力にしたがって、マイコン19に接続された音声認識部11、CD−ROMドライブ17、全辞書18、車両位置検出部22等の各部を制御するものである。例えば、各部を制御するための演算処理を行う処理部(図示略)と、この演算処理を行うプログラムを格納したROMと、音声認識部11や車両位置検出部22、CD−ROMドライブ17、手動入力部20から入力された情報及び演算処理結果等を一時記憶するRAMを備えて構成されている。なお、マイコン19には、音声操作による処理の開始、終了を操作者が音声入力するための図示しない操作スイッチが接続されている。
【0024】
マイコン19はさらに、操作者の音声操作により目的地を設定する際に、操作者によって目的地の読み方が判らない(不明)との不明操作がなされた場合、この読み方不明の目的地の特定を可能とする不明検出手段19aと指示手段19bと目的地特定手段19cとを備えている。すなわち、不明検出手段19aが、「読み方が判らない」というような読み方不明を意味する音声が操作者から入力されたこと、あるいは読み方不明を意味する信号が後述の手動入力部20より入力されたことを不明操作として検出し、不明検出手段19aにより不明操作が検出されると指示手段19bが目的地周辺の位置情報を発声するように操作者に指示する。そして、目的地特定手段19cが、不明操作検出後の操作者の発声により音声認識部11で認識された目的地周辺の少なくとも位置情報を含む特定情報を基に目的地を特定するように構成されている。
【0025】
またこの実施の形態(1)において指示手段19bは、図示しないが本発明における方角指示手段と距離指示手段と時間指示手段とを包含するものとして構成されている。つまり、指示手段19bは目的地周辺の位置情報を発声するように操作者に指示する際、所定の方角における位置情報を発声するように操作者に指示し、所定の方角における位置情報が音声入力されて音声認識部で認識された時、さらに認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地から認識された位置情報に到達するまでに要する所要時間を発声するように操作者に指示する。したがって、実施の形態(1)における目的地特定手段19cは、操作者の発声により音声認識部11で認識された直線距離又は道路に沿った走行距離又は所要時間の情報と、認識された位置情報と、上記方角の情報とを含む特定情報を基に目的地を特定するものとして構成されている。
【0026】
なお、本発明における目的地特定手段は、この実施の形態(1)のように必ずしも直線距離又は道路に沿った走行距離又は所要時間の情報と、認識された位置情報と、方角の情報の全てを含む特定情報で目的地を特定するものとして構成される必要はない。例えば、上記の情報のうちの1つの情報あるいは任意の情報の組み合わせを含む特定情報で目的地を特定するものとして目的地特定手段を構成することも可能である。
【0027】
さらにこの実施の形態(1)における指示手段19bは、目的地を特定するまで目的地周辺の異なる位置情報の音声入力を複数回、操作者に指示し、目的地特定手段19cは入力された複数の異なる位置情報を基に目的地の特定を行うものとなっている。
【0028】
このように構成されたマイコン19にはさらに、手動入力部20、ディスプレイ21、車両位置検出部22、音声出力部23が接続されている。手動入力手段20は、ナビゲーション装置10を手動で操作するためのもので、例えば、操作ボタン、タッチパネル等で構成されている。タッチパネルは、経路案内するための地図や設定された目的地の地図等を画面表示するディスプレイ21と一体的に構成されていてもよく、また操作ボタン等は、リモートコントローラに装備されたものであってもよい。
【0029】
車両位置検出部22は、車両の現在位置を検出するもので、例えば、人工衛生を利用して車両の位置を検出するGPS(Global Positioning System)レシーバ22a、車両の車輪の回転数を検出し、検出結果から走行速度を求める車速センサ22b、車両の回転角速度を検出してその角速度を積分し、車両の方位を求めるジャイロセンサ22cとを含んで構成されている。車両位置検出部22では、通常、GPSレシーバ22a単独で車両の位置を検出することが可能であるが、トンネル内やビルの陰など衛星からの電波の届きにくい場所ではGPSレシーバ22aによる位置検出が困難となるため、車速センサ22b及びジャイロセンサ22cを用いた自律航法による位置の検出で補間されるようになっている。
【0030】
音声出力部23は、ナビゲーション装置10を操作するに際しての操作者に向けての指示(案内)の音声や、経路案内を行う際の案内情報の音声をマイコン19の制御に基づき合成し出力するものである。音声出力部23は、例えば、RAMで構成されて所要の音声を合成するためのテキストデータを記憶する音声辞書23aと、音声辞書23aからテキストデータを読み出して音声合成処理を行い、合成した音声をアナログ信号に変換して出力する音声合成手段23bと、音声合成手段23bから出力された音声のアナログ信号を増幅するアンプ23cと、アンプ23cから出力されたアナログ信号を音声として出力するスピーカ23dとを含んで構成されている。
【0031】
次に、このように構成されたナビゲーション装置10の目的地設定モードにおける目的地の特定処理時のマイコン19の行う動作例を説明するが、これに先立ち、目的地設定モードにおいてマイコン19が行う一連の動作例を図2に示したフローチャートを用いて説明する。
【0032】
まず、操作者から目的地の設定を行う旨の音声が発せられたことを認識した旨が音声認識部11から出力されると、マイコン19は設定モードとして地名設定又は施設名設定を選択する内容の音声入力を操作者が行うように操作者に向けた音声案内を音声出力部23に行わせる。その後、ステップS1に示すように音声出力部23からの出力に基づき、操作者が設定モードの入力を行ったことを検知すると、ステップS2に示すように設定モードとして例えば地名設定モードが選択されたか否かを判断する。地名設定モードが選択されたと判断すると、ステップS3に示す都道府県入力処理を行う。
【0033】
都道府県入力処理では、後に詳述するが、操作者に対して目的地の都道府県名の入力を指示し、操作者から都道府県名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しい(音声入力した都道府県名である)としてOKの入力が行われると、認識した都道府県名に決定する。
【0034】
ステップS3の後、続いてマイコン19は、操作者が例えば目的地の設定をこれ以降は手動で行いたい場合等、操作者から目的地の設定を終了する旨の音声が入力されてこれを認識した旨が音声認識部11から出力されたか否か、すなわち、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断する(ステップS4)。目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS5に示す市町村入力処理を行う。この処理も上記した都道府県入力処理と同様に、操作者に対して目的地の市町村名の入力を指示し、操作者から市町村名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しいとの入力が行われると、認識した市町村名に決定する。
【0035】
ステップS5の後、再びマイコン19は、操作者から目的地の設定を終了する旨の音声が入力されてこれを認識した旨が音声認識部11から出力されたか否か、すなわち、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断する(ステップS6)。目的地の設定を終了する旨の音声入力がなされていないと判断すると、次いでステップS7に示す市町村より下位の住所入力、例えば○○市の後に続く××区等の入力処理を行う。この処理も上記した都道府県入力処理(ステップS3)、市町村入力処理(ステップS5)と同様に、操作者に対して目的地の下位の住所入力を指示し、操作者から例えば区名が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しいとの入力が行われると、認識した区名を目的地の区名に決定する。
【0036】
そして、ステップS6と同様に、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断し(ステップS8)、目的地の設定を終了する旨の音声が入力されていないと判断すると、次いで丁目・番地の入力処理を行う(ステップS9)。この処理も、上記した都道府県入力処理(ステップS3)、市町村入力処理(ステップS5)、下位の住所入力処理(ステップS7)と同様に行い、操作者から認識内容が正しいとの入力が行われて認識した音声内容を目的地の丁目・番地に決定すると、ステップS3、ステップS5、ステップS7、ステップS9で決定した音声内容に関連する緯度、経度の情報に基づき、CD−ROMドライブ17を介してCD−ROM16から対応する地図情報を読み出して目的地の候補の地図をディスプレイ21に表示させる(ステップS10)。
【0037】
なお、ステップS4、ステップS6、ステップS8のいずれにおいても、操作者が目的地の設定を終了する旨の音声入力を行ったと判断すると、マイコン19はステップS10に進む。そして、ステップS4からステップS10に進んだ場合にはステップS3にて決定された音声内容に対応する地図、ステップS6からステップS10に進んだ場合にはステップS3及びステップS5にて決定された音声内容に対応する地図、ステップS8からステップS10に進んだ場合にはステップS3、ステップS5、ステップS7にて決定された音声内容に対応する地図をそれぞれディスプレイ21に表示させる。
【0038】
次いでマイコン19は、操作者より手動入力部20からさらに目的地の設定のための情報が入力された場合、入力された情報に基づき目的地の設定処理を行い、その後に最終的に目的地を決定する処理を行う。なお、手動入力部20からさらに目的地の設定のための情報が入力されなかった場合、ステップS10に続いて最終的に目的地を決定する処理を行う(ステップS11)。
【0039】
一方、マイコン19は、ステップS2にて目的地の設定モードとして地名を設定するモードが選択されなかったと判断すると、設定モードとして施設名を設定するモードが選択されたとしてステップS12に示す施設種別入力処理を行う。この処理は、例えば公園、図書館、遊園地、ゴルフ場等のように施設の種類を入力させる処理である。ステップS3の都道府県入力処理と同様に、操作者に対して目的地となる施設の種別の入力を指示し、操作者から施設の種別が音声入力されると、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示する。操作者から認識内容が正しい(音声入力した施設の種別の音声である)としてOKの入力が行われると、認識した施設の種別を目的とする施設の種別に決定する。
【0040】
ステップS12の後、続いてマイコン19は、操作者が目的地の設定を終了する音声入力を行ったか否かを判断する(ステップS13)。目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS14に示す都道府県名の入力処理を行う。この処理は上記したステップS3の処理と同様である。その後、再びマイコン19は、操作者が目的地の設定を終了する旨の音声入力を行ったか否かを判断し(ステップS15)、目的地の設定を終了する旨の音声が入力されていないと判断すると、次いでステップS16に示す施設名の入力処理を行う。この処理も、上記した都道府県入力処理(ステップS3)と同様に行い、操作者から認識内容が正しいとの入力が行われて認識した音声内容に目的地の設定を決定すると、ステップS10に進み、ステップS12、ステップS14、ステップS16で決定した音声内容に関連する緯度、経度の情報に基づき、CD−ROMドライブ17を介してCD−ROM16から対応する地図情報を読み出して目的地の候補の地図をディスプレイ21に表示させる。
【0041】
またマイコン19は、ステップS13、ステップS15のいずれにおいても、操作者が目的地の設定を終了する旨の音声入力を行ったと判断するとステップS10に進む。そして、ステップS13からステップS10に進んだ場合にはステップS12にて決定された音声内容に対応する地図、ステップS15からステップS10に進んだ場合にはステップS12及びステップS14にて決定された音声内容に対応する地図をそれぞれディスプレイ21に表示させる。
【0042】
次に、図2に示した一連の目的地設定処理において、ステップS3、ステップS5、ステップS7、ステップS9、ステップS12、ステップS14、ステップS16の各入力処理時に、操作者が目的地の読み方を不明を意味する不明操作を行った場合の目的地特定手段19cによる目的地の特定の動作例を説明する。ここでは、目的地設定時にナビゲーション装置10が行う操作者との対話例を交えて述べる。また、図2のステップS5における市町村入力処理にて操作者が不明操作を行った場合を例にとって目的地特定手段19cによる目的地の特定処理を説明する。
【0043】
図3は実施の形態(1)に係るナビゲーション装置10の目的地設定時における操作者との対話例を示す図であり、図中ドットで示したステップがナビゲーション装置10から出力される操作者に向けての案内を示している。また図3では、図2のステップS5の市町村入力処理の際に操作者が目的地の読み方を不明とした場合の対話例を示してある。また、図4は図3の各入力処理においてマイコン19の行う動作例を示すフローチャートであり、図5は図4の各入力処理においてマイコン19の行う動作例を示すフローチャートである。
【0044】
例えば図3のステップS11に示すように、操作者から「目的地設定。」の音声が発声され、発せられた音声を認識した旨が音声認識部11から出力されると、図示していないがマイコン19は「設定方法をどうぞ。」というような設定モードの入力を指示する旨の音声の案内を音声出力部23に行わせる。そして、操作者より例えば「地名。」の音声が入力され、この音声を認識した旨が音声認識部11から出力されると、マイコン19は図4に示したルーチンにしたがって都道府県入力処理を行う。
【0045】
すなわち、図4のステップS31に示すように、まず都道府県入力処理における音声入力の案内を音声出力部23に行わせる。ここでの案内は、例えば図3のステップS12に示す「(目的地の)都道府県名をお話し下さい。」というような案内となる。次いで、マイコン19の不明検出手段19aは、操作者から読み方不明を意味する音声が入力されて認識した旨が音声認識部11から出力されたか否か、すなわち不明操作が操作者よりなされたか否かを判断する(図4のステップS32)。
【0046】
図4のステップS31の音声案内に対して操作者が例えば図3のステップS13に示すように「兵庫県。」と発声してこの音声を認識した旨が音声認識部11から出力されると、不明検出手段19aは読み方不明の音声が認識されず、したがって不明操作が操作者によりなされなかったと判断する。そして、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示し、認識内容が正しいとの音声を認識した旨が音声認識部11から出力されたか否かを判断する。つまり、操作者が認識内容が発声した都道府県名であるとしてOKしたか否かを判断する(ステップS33)。認識内容がOKであるとされたと判断すると、目的とする都道府県名を認識した都道府県名に決定し(ステップS34)、図2のステップS3における都道府県入力処理を終了する。
【0047】
都道府県入力処理を終了するとマイコン19は、図4に示したルーチンにしたがって市町村入力処理を行う。まず、図4のステップS31に示すように市町村入力処理における音声入力の案内を音声出力部23に行わせる。ここでの案内は、例えば図3のステップS14に示す「(目的地の)市町村名をお話し下さい。」というような案内となる。次いで、マイコン19は操作者から読み方不明の音声が入力されて認識した旨が音声認識部11から出力されたか否かを判断する(図4のステップS32)。
【0048】
図4のステップS31における音声案内に対して操作者が市町村名を発声してこの音声を認識した旨が音声認識部11から出力されると、不明操作が操作者よりなされなかったと判断する。そして、音声認識部11が認識した音声内容を音声出力部23から出力して操作者に確認を指示し、認識内容でOKであるとの音声を認識した旨が音声認識部11から出力されたか否かを判断する(図4のステップS33)。認識内容がOKであるとされたと判断すると、目的とする市町村名を認識した市町村名に決定し(図4のステップS34)、図2のステップS5における市町村入力処理を終了する。
【0049】
一方、図3のステップS14の音声案内に対して、操作者が「読み方が判らない。」、「読めません。」といったような目的地の読み方不明を意味する音声を発声し(図3のステップS15)、その音声を認識した旨が音声認識部11から出力されると、図4のステップS32に示すように不明検出手段19aが操作者から読み方不明の音声が入力されたことを、不明操作が操作者によりなされたとして判断する。これによりマイコン19は、目的地特定モードとなって図4のステップS35以降の動作を行う。まずステップS35に示すようにマイコン19の指示手段19bが、目印となるものの方角を発声するよう操作者に指示する。例えば、図3のステップS16に示すように「目印となるものの方角をどうぞ。」というような音声案内を音声出力部23に行わせる。
【0050】
この案内に対して操作者が例えば図3のステップS17に示すように「南。」と発声してこの音声を認識した旨が音声認識部11から出力されると、続いて指示手段19bは南の方角における読み方不明の目的地周辺の位置情報を発声するよう操作者に指示する(図4のステップS36)。例えば、図3のステップS18に示すように「南にある目印の名称をどうぞ。」というような音声案内を音声出力部23に行わせる。この案内に対して操作者が例えば図3のステップS19に示すように「神戸市。」と発声してこの音声を認識した旨が音声認識部11から出力されると、さらに指示手段19bは、音声認識部11で認識された位置情報と目的地との直線距離、又は道路に沿った走行距離、又は目的地から認識された位置情報に到達するまでに要する所要時間を発声するように操作者に指示する入力処理を行う(図4のステップS37)。
【0051】
ここで、図4のステップS37において直線距離、道路に沿った走行距離、所要時間のいずれを入力するかの選択は、例えば手動入力部20での手動操作によって行うことができる。また「直線で○○キロメートル。」、「道路経由で××キロメートル。」のように音声入力によってもステップS37において入力する情報の切り替えを行うことができる。さらに所要時間の入力にあたっては、「車で○○時間。」「徒歩で×○分。」のように移動条件を情報に加えることも可能になっている。
【0052】
この実施の形態(1)では、例えば図3のステップS20に示すように「神戸市からの距離をどうぞ。」というような音声案内を音声出力部23に行わせる。そして、これに対して「10キロメートル。」(図3のステップS21)のように操作者が直線距離又は道路に沿った走行距離の情報を発声すると、この発声により音声認識部11で認識された距離情報(10キロメートル)と、図2のステップS3で認識された位置情報である都道府県名(兵庫県)と、方角(南)の情報とを基に特定する目的地の候補を選択する(図4のステップS38)。続いて、選択した候補を例えば「三木市ですか。」(図3のステップS22)のように操作者に音声出力部23からの音声出力によって報知する(図4のステップS39)とともに報知した候補が読み方不明の目的地であるか否かの確認を指示する。(図4のステップS40)。
【0053】
報知された候補でOKである内容の音声を認識した旨が音声認識部11から出力されると、特定完了したとし(図3のステップS23)、図4のステップS34に進んで特定した市町村名に決定し、図2のステップS5における市町村入力処理を終了する。また図4のステップS40において、報知された候補ではOKでない内容の音声を認識した旨が音声認識部11から出力されると、目的地特定手段19cは図4のステップS38において選択した候補を全て操作者に報知したか否かを判断する(図4のステップS41)。
【0054】
報知していない候補が残っていると判断すると、図4のステップS39に戻って報知していない候補を操作者に報知する。また選択した候補を全て操作者に報知したかあるいは報知した以外の候補がなく、報知していない候補が残っていないと判断すると、図4のステップS35に戻る。そして、図3のステップS24の「その他の目印となるものの方角をどうぞ。」のように、指示手段19bが再び方角を指定するよう操作者に指示し、目的地を特定するまで図3のステップS17以降の動作を繰り返し行って、目的地周辺の異なる位置情報の音声入力を複数回操作者に指示する。
【0055】
このように目的地の特定を終えた後は、マイコン19は目的地設定モードに戻り、前述したように図2のステップS6における目的地の設定を終了するか否かの判断にしたがって動作する。つまり、図2のステップS7に進んでさらに限定した目的地の特定を行うか、又は図2のステップS10に進んで図2のステップS5において特定された目的地に対応する地図を表示させる処理を行う。
【0056】
ところで、マイコン19は、図4のステップS35における目印となるものの方角を入力する処理、図4のステップS36における目印となるものの名称を入力する処理(位置情報の入力処理)、図4のステップS37における距離又は所要時間を入力する処理においてそれぞれ図5に示す動作を行う。
【0057】
すなわち、例えば図4のステップS35における方角を入力する処理では、マイコン19の指示手段19bが目印となるものの方角を発声するよう操作者に指示する音声案内を行わせた(ステップS51)後、この案内に対して操作者が音声を発声してこの音声を認識した旨が音声認識部11から出力されたことを検出する(ステップS52)。続いて、操作者の発声に対する返答(トークバック)を、例えば次の操作者に対する指示(音声案内)とともに行い(ステップS53)、さらにこれに対する操作者の発声から、音声認識部11が認識した音声内容でOKである内容の音声を認識した旨が音声認識部11から出力されたか否かを判断する(ステップS54)。
【0058】
例えば図3のステップS17において操作者が発声した「南。」という音声を音声認識部11が認識した場合、同図のステップS18に示したように、認識内容である「南」を次の処理の音声案内の出だしに付けて「南にある目印の名称をどうぞ。」とすることにより上記のトークバックを行う。このようにすると、次の処理の音声案内と認識内容との確認とを同時に行えるため、処理を簡略化できる利点がある。そして目的地特定手段19cは、ステップS54において操作者が認識内容と発声した音声とが一致したとして認識内容でOKであるとの入力が行われたと判断すると、目的地を認識内容に決定する。また操作者が認識内容と発声した音声とが一致していないとして認識内容ではOKでないとの入力が行われたと判断すると、再びステップS51に戻り、目印となるものの方角を発声するよう操作者に指示する音声案内を行わせる。
【0059】
以上のように実施の形態(1)に係るナビゲーション装置10によれば、設定したい目的地の名称が明確であるにもかかわらず目的地の読み方が不明である場合や、誤った読み方をしているために音声認識されない場合においても、目的地特定手段19cが操作者から入力された目的地周辺の少なくとも位置情報を含む特定情報を基に目的地を特定するので、音声操作による目的地の設定を行うことができる。よって、例えば操作者が運転中である場合、リモートコントローラやキー等の手動操作を行うことなく目的地の設定を行えるので、運転者の操作負担を軽減できるとともに、運転の安全性を確保することができる。
【0060】
また、ナビゲーション部15のCD−ROM16に、読み方不明の目的地を特定するための目的地周辺の位置情報が目的地毎に複数記憶されているので、操作者の発声により音声入力される多種多様な目的地周辺の位置情報に柔軟に対応して目的地の設定を行うことができる。したがって、音声操作による目的地の設定を確実に行うことができる。
【0061】
さらにCD−ROM16に記憶された目的地周辺の位置情報が、ディスプレイ21にて画面表示される地図上の名称と一致する情報であることから、操作者が地図上の名称を参照して位置情報を発声した場合の目的地の特定に対応できるナビゲーション装置10を実現できる。また通常、操作者は地図を見ながら目的地を決定したり、確認することが多いことから、目的地を特定するための位置情報の音声入力を操作者が行い易いという点で有効である。
【0062】
またナビゲーション装置10では、CD−ROM16に記憶された目的地周辺の位置情報が、地名、道路名、施設名のそれぞれであるので、操作者が地名、道路名、施設名のいずれを位置情報として発声しても目的地の特定に対応できるものとなる。またこれら地名、道路名、施設名は操作者が目的地の位置情報として着目する頻度が高い情報である。よって操作者が、目的地の特定のための位置情報の音声入力をスムーズに行うことができ、目的地を特定するための音声入力を煩わしく感じ難いという利点もある。
【0063】
さらに目的地特定手段19cが、音声認識部11で認識された所定の方角における位置情報と、その方角と、認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地からの所要時間とを基に目的地の特定を行うため、入力される位置情報がどのような情報であっても、目的地を特定する範囲を容易にかつ確実に絞り込むことができる。しかも目的地特定手段19cが、目的地を特定するまで、目的地周辺の異なる位置情報の音声入力を複数回操作者に行わせる。このことからも、確実に目的地を特定できる効果が得られることになる。
【0064】
なお、上記した実施の形態(1)では、本発明における記憶手段がCD−ROMからなる例を述べたが、読み方不明の目的地を特定するための目的地周辺の位置情報を目的地毎に複数記憶したものであればよく、記憶手段はCD−ROMに限定されるものではない。
【0065】
また上記した実施の形態(1)では、目的地特定手段が、認識された所定の方角における位置情報と、その方角の情報と、認識された位置情報と目的地との直線距離又は道路に沿った走行距離又は目的地から認識された位置情報までの所要時間の情報とを基に目的地の特定を行うものである場合を説明したが、別の実施の形態では、認識された所定の方角における位置情報とその方角の情報とから目的地の特定を行うものとして構成されていてもよい。この場合にも、位置情報のみで目的地の特定を行う場合に比較して目的地を特定する範囲を絞り込むことができるとともに、入力される位置情報がどのような情報であっても、目的地を特定する範囲を絞り込み易くなる。
【0066】
さらに、特定情報に、認識された位置情報と目的地との直線距離、道路に沿った走行距離、目的地からの所要時間のいずれかではなく、これらのうち2つ以上の情報を含むものを用いて目的地の特定を行うものとして本発明における目的地特定情報を構成することも可能である。その場合には、目的地を特定する範囲をさらに絞り込むことができるとともに、入力される位置情報がどのような情報であっても、目的地の特定がより容易となる。
【図面の簡単な説明】
【図1】本発明の実施の形態(1)に係るナビゲーション装置の概略構成を示すブロック図である。
【図2】実施の形態(1)に係るナビゲーション装置の目的地設定時におけるマイコンの行う動作を示すフローチャートである。
【図3】実施の形態(1)に係るナビゲーション装置の目的地設定時における操作者との対話例を示す図である。
【図4】図3の各入力処理におけるマイコンの行う動作例を示すフローチャートである。
【図5】図4の各入力処理におけるマイコンの行う動作例を示すフローチャートである。
【符号の説明】
10 ナビゲーション装置
11 音声認識部
15 ナビゲーション部
16 CD−ROM
19a 不明検出手段
19b 指示手段
19c 目的地特定手段
21 ディスプレイ
[0001]
BACKGROUND OF THE INVENTION
The present invention is a navigation device. And destination setting method In particular, a navigation device that can be operated by voice input (voice operation) And destination setting method About.
[0002]
[Prior art]
As a conventional in-vehicle navigation device, for example, a device that includes a voice recognition unit and can perform voice operation is known. In this type of in-vehicle navigation system, the operator can perform operations such as setting the destination without using his / her hands. Therefore, when the operator is a driver, the operation burden on the driver can be reduced and driving safety can be reduced. It is very preferable in terms of securing the property. In general, when a destination is set and input in an in-vehicle navigation device, a travel route from a departure point is searched for, and an arrow indicating the travel route, the current position of the vehicle, and a traveling direction is displayed on a display unit together with a road map. Route guidance is provided.
[0003]
[Problems to be solved by the invention]
However, in the above-described conventional vehicle-mounted navigation device, it is assumed that the operator can correctly speak the destination when the operator sets and inputs the destination by voice. In addition, the voice recognition unit compares and collates preset standard voice patterns such as place names and facility names as destinations with input voice feature patterns, and sets the closest one as the input voice content. recognize. Therefore, for example, when trying to set a difficult-to-read place name as the destination, the destination is not recognized if the operator cannot speak (speech input) or the voice cannot be spoken because the reading is unknown. The destination cannot be set by voice operation.
[0004]
The present invention has been made in view of the above problems, and a navigation device capable of setting a destination whose reading is unknown by voice operation even if the reading of the destination is unknown. And destination setting method The purpose is to provide.
[0005]
[Means for solving the problems and effects thereof]
In order to solve the above problems, a navigation device (1) according to the present invention is a navigation device that provides route guidance to a destination based on speech-recognized content, and accepts the speech-recognized content as peripheral information related to the destination. Destination surrounding information receiving means and destination specifying means for specifying a destination based on the destination surrounding information The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
The navigation device (2) according to the present invention is a navigation device that provides route guidance to a destination based on the voice-recognized content, and voice recognition is performed with an instruction unit that instructs voice input of peripheral information related to the destination. Destination peripheral information receiving means for receiving the contents as peripheral information related to the destination, and destination specifying means for specifying the destination based on the destination peripheral information The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
The navigation device (3) according to the present invention is a navigation device that provides route guidance to a destination based on voice-recognized contents, and sets a place name receiving means for receiving the voice-recognized contents as a place name and the place name as a destination name. Setting means, destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination, destination specifying means for specifying a destination based on the destination peripheral information, and the place name receiving means And a selection means for selecting the destination periphery information receiving means. The destination periphery information includes at least one information of direction, distance, and time for specifying the destination. It is characterized by having.
[0006]
According to the navigation devices (1) to (3) described above, when the name of the destination to be set is clear (easy to be recognized by voice) but the way of reading the destination is unknown, Even when the voice is not recognized due to uttering, the destination specifying means is the destination peripheral information received by the destination peripheral information receiving means, that is, Information on at least one of direction, distance, and time for identifying the destination Therefore, the destination can be set by voice operation. Therefore, for example, when the operator is driving, the destination can be set without manually operating the remote controller, keys, etc., so that the operational burden on the driver can be reduced and driving safety can be ensured. Can do.
A destination setting method (1) according to the present invention is a destination setting method in a navigation device that performs route guidance to a destination based on the voice-recognized content, and includes peripheral information related to the destination. Information on at least one of direction, distance, and time as Is received as information for specifying the destination, a place name related to the received destination periphery information is presented, and the destination is set based on the presented place name.
According to the destination setting method (1) described above, the peripheral information related to the destination Information on at least one of direction, distance, and time as As the information for specifying the destination, the place name related to the received destination surrounding information is presented, and the destination is set based on the presented place name, so the name of the destination to be set is clear Even if it is (easy to be recognized by voice) but the way of reading the destination is unknown, or even if the voice is not recognized due to uttering in the wrong way, the destination should be set by voice operation Can do.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, according to the present invention Navigation device and destination setting method Embodiments will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an in-vehicle navigation device (hereinafter simply referred to as a navigation device) according to Embodiment (1). As shown in FIG. 1, the navigation device 10 includes a voice recognition unit 11 and a navigation unit 15 as main components.
[0017]
The speech recognition unit 11 recognizes speech input from the microphone 12 by the operator's utterance. The speech recognition unit 11 includes, for example, a phoneme dictionary 13 that includes a ROM and stores a standard pattern (model) of a basic unit of speech such as words and phonemes, and a navigation device 10 that includes a RAM and the like. A recognition dictionary 14 for temporarily storing a plurality of recognition words read from a recognition word full dictionary (hereinafter simply referred to as a full dictionary) 18 of the navigation unit 15 according to the usage state of the navigation unit 15 is connected. . The speech recognition unit 11 converts the analog signal of speech input from the microphone 12 into a digital signal, extracts feature parameters from the digital signal, and converts the standard pattern of the recognition word stored in the recognition dictionary 14 into a phoneme dictionary. The voice input is recognized by comparing the reference pattern with the extracted feature parameter.
[0018]
The navigation unit 15 performs processing such as destination specification, route search to the destination, route guidance from the current position to the destination, based on the voice content recognized by the voice recognition unit 11 by the voice of the operator. It is. In this embodiment (1), the navigation unit 15 includes a CD-ROM 16, a CD-ROM drive 17, a full dictionary 18, a microcomputer 19, a manual input unit 20, a display 21, a vehicle position detection unit 22, an audio output unit 23, and the like. It is prepared for.
[0019]
The CD-ROM 16 serves as a storage means in the present invention, and stores map information, information necessary for specifying a destination that the operator does not know how to read, and the like. The CD-ROM drive 17 reads out necessary information from the CD-ROM 16 based on control by the microcomputer 19. The map information stored in the CD-ROM 16 includes information necessary for displaying a map, latitude and longitude coordinate information necessary for route search, and the like.
[0020]
Further, the specific information necessary for specifying the destination stored in the CD-ROM 16 includes at least position information around the destination whose reading is unknown. The location information around the destination is information that matches the name on the map displayed on the display 21. For example, the location name including the name of the prefecture around the destination, the name of the city, the name of the expressway, Names of roads such as National Highway No. ○, and various facilities such as parks, libraries, schools, government offices, hospitals, golf courses, amusement parks, beaches, stations, airports, shrines, temples, and famous buildings The name (facility name) is included. The CD-ROM 16 stores a plurality of pieces of positional information around the destination for each destination on the map, that is, for each point that may be selected as the destination.
[0021]
The entire dictionary 18 is pre-set and registered with various voice recognition words for operating the navigation device 10 by voice. For example, the dictionary 18 records magnetically and optically such as a floppy disk, a hard disk, and a CD-ROM. It consists of a storage medium for storing information. Examples of registered recognition words include basic words necessary for performing voice operations and words that may be necessary when the navigation device 10 performs each process.
[0022]
Examples of words that may be necessary when performing each of the latter processes include, for example, the name of the destination, location information around the destination such as a place name, road name, and facility name, distance information, time information, and direction information. The information necessary for specifying the destination such as, destination setting, a word for instructing processing such as destination specification, a word for instructing an area displayed on the display 21 and the like. Recognized words consisting of the name of the destination, and recognized words such as place names, road names, and facility names that are positional information around the destination are stored in association with the latitude and longitude included in the map information. .
[0023]
The microcomputer 19 is based on processing such as destination setting, current position detection, route search to the destination, route guidance from the current position to the destination, and in accordance with voice input and manual input from the operator. 19 controls the voice recognition unit 11, the CD-ROM drive 17, the entire dictionary 18, the vehicle position detection unit 22, and the like connected to 19. For example, a processing unit (not shown) that performs arithmetic processing for controlling each unit, a ROM that stores a program that performs this arithmetic processing, a voice recognition unit 11, a vehicle position detection unit 22, a CD-ROM drive 17, a manual operation It comprises a RAM that temporarily stores information input from the input unit 20 and the results of arithmetic processing. Note that the microcomputer 19 is connected to an operation switch (not shown) for allowing the operator to input the start and end of processing by voice operation.
[0024]
Further, when setting the destination by the operator's voice operation, the microcomputer 19 specifies the destination of unknown reading when the operator performs an unknown operation that the reading of the destination is unknown (unknown). An unknown detection means 19a, an instruction means 19b, and a destination specifying means 19c are provided. That is, the unknown detection means 19a has input from the operator a voice meaning that the reading is unknown, such as “I do not know how to read”, or a signal meaning that the reading is unknown. This is detected as an unknown operation, and when the unknown operation is detected by the unknown detection means 19a, the instruction means 19b instructs the operator to utter position information around the destination. The destination specifying means 19c is configured to specify the destination based on specific information including at least position information around the destination recognized by the voice recognition unit 11 by the voice of the operator after detecting the unknown operation. ing.
[0025]
In this embodiment (1), the instruction means 19b is configured to include a direction instruction means, a distance instruction means, and a time instruction means in the present invention (not shown). In other words, when the instruction means 19b instructs the operator to speak the position information around the destination, the instruction means 19b instructs the operator to speak the position information in a predetermined direction, and the position information in the predetermined direction is input by voice. When it is recognized by the voice recognition unit, it further utters the distance required to reach the position information recognized from the linear distance between the recognized position information and the destination, the travel distance along the road, or the destination. Instruct the operator to Therefore, the destination specifying means 19c in the embodiment (1) includes the straight line distance recognized by the voice recognition unit 11 by the voice of the operator, the travel distance along the road or the required time information, and the recognized position information. And specifying the destination based on the specific information including the direction information.
[0026]
The destination specifying means in the present invention is not necessarily limited to the straight distance or the travel distance or required time information along the road, the recognized position information, and the direction information as in the embodiment (1). It is not necessary to be configured as identifying information with specific information including For example, the destination specifying means can be configured to specify the destination with specific information including one piece of information or a combination of arbitrary information.
[0027]
Further, the instruction means 19b in this embodiment (1) instructs the operator to input voices of different position information around the destination a plurality of times until the destination is specified, and the destination specifying means 19c The destination is specified based on different location information.
[0028]
The microcomputer 19 thus configured is further connected to a manual input unit 20, a display 21, a vehicle position detection unit 22, and an audio output unit 23. The manual input means 20 is for operating the navigation apparatus 10 manually, and includes, for example, operation buttons, a touch panel, and the like. The touch panel may be configured integrally with a display 21 that displays a map for route guidance, a map of a set destination, and the like, and operation buttons and the like are those provided in the remote controller. May be.
[0029]
The vehicle position detection unit 22 detects the current position of the vehicle. For example, a GPS (Global Positioning System) receiver 22a that detects the position of the vehicle using artificial hygiene, detects the number of rotations of the wheels of the vehicle, A vehicle speed sensor 22b for obtaining a traveling speed from the detection result, and a gyro sensor 22c for detecting the rotational angular speed of the vehicle and integrating the angular speed to obtain the azimuth of the vehicle are included. The vehicle position detection unit 22 can normally detect the position of the vehicle with the GPS receiver 22a alone, but the GPS receiver 22a can detect the position in places where radio waves from satellites are difficult to reach, such as in tunnels or behind buildings. Since it becomes difficult, interpolation is performed by detecting the position by autonomous navigation using the vehicle speed sensor 22b and the gyro sensor 22c.
[0030]
The voice output unit 23 synthesizes and outputs voices of instructions (guidance) for the operator when operating the navigation device 10 and voices of guidance information when performing route guidance based on the control of the microcomputer 19. It is. The voice output unit 23 is composed of, for example, a RAM and stores a voice dictionary 23a that stores text data for synthesizing a desired voice. The voice output unit 23 reads the text data from the voice dictionary 23a, performs voice synthesis processing, and performs synthesized voice. A voice synthesizer 23b that converts and outputs an analog signal, an amplifier 23c that amplifies the analog signal of the voice output from the voice synthesizer 23b, and a speaker 23d that outputs the analog signal output from the amplifier 23c as voice. It is configured to include.
[0031]
Next, an example of the operation performed by the microcomputer 19 during the destination specifying process in the destination setting mode of the navigation apparatus 10 configured as described above will be described. Prior to this, a series of operations performed by the microcomputer 19 in the destination setting mode will be described. An example of the operation will be described with reference to the flowchart shown in FIG.
[0032]
First, when the voice recognition unit 11 outputs that the operator has made a voice indicating that the destination is set, the microcomputer 19 selects the place name setting or the facility name setting as the setting mode. The voice output unit 23 is made to provide voice guidance for the operator so that the operator performs voice input. After that, when it is detected that the operator inputs the setting mode based on the output from the audio output unit 23 as shown in step S1, for example, the place name setting mode is selected as the setting mode as shown in step S2. Judge whether or not. If it is determined that the place name setting mode has been selected, the prefecture input process shown in step S3 is performed.
[0033]
In the prefecture input processing, which will be described in detail later, when the operator is instructed to input the name of the destination prefecture, and the operator inputs the name of the prefecture, the voice recognized by the voice recognition unit 11 is recognized. The contents are output from the voice output unit 23 to instruct the operator to confirm. When OK is input from the operator assuming that the recognized content is correct (the name of the prefecture where the voice is input), the recognized name of the prefecture is determined.
[0034]
After step S3, the microcomputer 19 subsequently recognizes that the operator has input a voice to end the destination setting, for example, when the operator wants to manually set the destination thereafter. It is determined whether or not the voice recognition unit 11 has output the information, that is, whether or not the operator has made a voice input indicating that the destination setting has been completed (step S4). If it is determined that the voice to end the destination setting has not been input, then the municipality input process shown in step S5 is performed. Similar to the above-described prefecture input process, this process also instructs the operator to input the destination city name, and the voice content recognized by the voice recognition unit 11 when the operator inputs the name of the municipality. Is output from the voice output unit 23 to instruct the operator to confirm. When the operator inputs that the recognition content is correct, the recognized city name is determined.
[0035]
After step S5, the microcomputer 19 again determines whether or not a voice indicating that the destination setting has been completed is input from the operator and that the voice recognition unit 11 has output that the voice has been recognized. It is determined whether or not a voice input for finishing the setting of the ground has been performed (step S6). If it is determined that the voice input for ending the destination setting has not been made, then the address input lower than the municipality shown in step S7, for example, the input process for the xx ward following the XX city is performed. Similarly to the above-mentioned prefecture input process (step S3) and municipality input process (step S5), this process also instructs the operator to input a lower address of the destination, and the operator inputs, for example, a ward name. Then, the voice content recognized by the voice recognition unit 11 is output from the voice output unit 23 to instruct the operator to confirm. When the operator inputs that the recognized content is correct, the recognized ward name is determined as the destination ward name.
[0036]
Then, as in step S6, it is determined whether or not the operator has made a voice input to end the destination setting (step S8), and no voice to end the destination setting has been input. If it is determined, the chome / address input process is performed (step S9). This process is also performed in the same manner as the prefecture input process (step S3), the municipality input process (step S5), and the lower address input process (step S7), and the operator inputs that the recognition content is correct. When the voice content recognized in step S3 is determined as the destination chome / address, the information on the latitude and longitude related to the voice content determined in step S3, step S5, step S7, and step S9 is used. The corresponding map information is read out from the CD-ROM 16 and the destination candidate map is displayed on the display 21 (step S10).
[0037]
In any of step S4, step S6, and step S8, if it is determined that the operator has made a voice input to end the destination setting, the microcomputer 19 proceeds to step S10. If the process proceeds from step S4 to step S10, the map corresponds to the audio content determined in step S3. If the process proceeds from step S6 to step S10, the audio content determined in steps S3 and S5. If the process proceeds from step S8 to step S10, the map corresponding to the audio content determined in step S3, step S5, or step S7 is displayed on the display 21, respectively.
[0038]
Next, when information for destination setting is further input from the manual input unit 20 by the operator, the microcomputer 19 performs destination setting processing based on the input information, and then finally determines the destination. Perform the decision process. If no further information for setting the destination is input from the manual input unit 20, a process for finally determining the destination is performed following step S10 (step S11).
[0039]
On the other hand, if the microcomputer 19 determines that the place name setting mode is not selected as the destination setting mode in step S2, the facility type input shown in step S12 indicates that the facility name setting mode is selected as the setting mode. Process. This process is a process for inputting the type of facility such as a park, a library, an amusement park, or a golf course. Similar to the prefecture input processing in step S3, when the operator is instructed to input the facility type as the destination, and the operator inputs the facility type by voice, the voice recognized by the voice recognition unit 11 is recognized. The contents are output from the voice output unit 23 to instruct the operator to confirm. When OK is input from the operator assuming that the recognized content is correct (sound of the type of the facility input by voice), the recognized facility type is determined as the target facility type.
[0040]
After step S12, the microcomputer 19 subsequently determines whether or not the operator has made a voice input for ending the destination setting (step S13). If it is determined that the voice to end the destination setting has not been input, then the prefecture name input process shown in step S14 is performed. This process is the same as the process of step S3 described above. Thereafter, the microcomputer 19 determines again whether or not the operator has made a voice input to end the destination setting (step S15), and if the voice to end the destination setting has not been input. If determined, the facility name input process shown in step S16 is then performed. This process is also performed in the same manner as the above prefecture input process (step S3). When the operator inputs that the recognized content is correct and determines the destination setting for the recognized voice content, the process proceeds to step S10. Based on the latitude and longitude information related to the audio content determined in steps S12, S14, and S16, the corresponding map information is read from the CD-ROM 16 via the CD-ROM drive 17, and the destination candidate map Is displayed on the display 21.
[0041]
If the microcomputer 19 determines in either step S13 or step S15 that the operator has made a voice input to end the destination setting, the microcomputer 19 proceeds to step S10. If the process proceeds from step S13 to step S10, the map corresponds to the audio content determined in step S12. If the process proceeds from step S15 to step S10, the audio content determined in steps S12 and S14. The map corresponding to each is displayed on the display 21.
[0042]
Next, in the series of destination setting processes shown in FIG. 2, the operator determines how to read the destination during each input process of step S3, step S5, step S7, step S9, step S12, step S14, and step S16. An example of the operation of specifying the destination by the destination specifying means 19c when an unknown operation that means unknown is performed will be described. Here, an example of dialogue with the operator performed by the navigation device 10 when setting the destination will be described. Further, the destination specifying process by the destination specifying means 19c will be described as an example when the operator performs an unknown operation in the municipality input process in step S5 of FIG.
[0043]
FIG. 3 is a diagram showing an example of dialogue with the operator at the time of destination setting of the navigation device 10 according to the embodiment (1), and steps indicated by dots in the drawing are given to the operator output from the navigation device 10. The guidance for the direction is shown. Further, FIG. 3 shows an example of dialogue in the case where the operator does not know how to read the destination during the municipality input process in step S5 of FIG. 4 is a flowchart showing an operation example performed by the microcomputer 19 in each input process of FIG. 3, and FIG. 5 is a flowchart showing an operation example performed by the microcomputer 19 in each input process of FIG.
[0044]
For example, as shown in step S <b> 11 of FIG. 3, when a voice of “Destination setting” is uttered by the operator and the fact that the uttered voice is recognized is output from the voice recognition unit 11, it is not shown. The microcomputer 19 causes the voice output unit 23 to give a voice guidance to instruct the input of the setting mode such as “Please set. Then, for example, when a voice of “place name” is input from the operator and a message indicating that the voice is recognized is output from the voice recognition unit 11, the microcomputer 19 performs a prefecture input process according to the routine shown in FIG. .
[0045]
That is, as shown in step S31 of FIG. 4, first, the voice output unit 23 is made to perform voice input guidance in the prefecture input process. The guidance here is, for example, a guidance such as “Please tell me the name of the prefecture (of the destination)” shown in step S12 of FIG. Next, the unknown detection means 19a of the microcomputer 19 determines whether or not a voice indicating that the reading is unknown is input from the operator and that the recognition is output from the voice recognition unit 11, that is, whether or not an unknown operation is performed by the operator. Is determined (step S32 in FIG. 4).
[0046]
When the operator utters “Hyogo Prefecture” in response to the voice guidance in step S31 of FIG. 4 and recognizes this voice, for example, as shown in step S13 of FIG. The unknown detection means 19a determines that the unknown voice is not recognized and therefore the unknown operation has not been performed by the operator. Then, the voice recognition unit 11 outputs the voice content recognized by the voice output unit 23 to instruct the operator to confirm, and whether or not the voice recognition unit 11 has output that the voice is recognized that the recognition content is correct. Judging. That is, it is determined whether or not the operator recognizes that the recognized content is the name of the prefecture uttered (step S33). If it is determined that the recognized content is OK, the target prefecture name is determined as the recognized prefecture name (step S34), and the prefecture input process in step S3 of FIG. 2 is terminated.
[0047]
When the prefecture input process is completed, the microcomputer 19 performs the municipality input process according to the routine shown in FIG. First, as shown in step S31 of FIG. 4, the voice output unit 23 is made to provide voice input guidance in the municipality input process. The guidance here is, for example, a guidance such as “Tell me your city name (of destination)” shown in step S14 of FIG. Next, the microcomputer 19 determines whether or not the voice recognition unit 11 has output that the operator has recognized and recognized an unknown voice (step S32 in FIG. 4).
[0048]
When the operator recognizes this voice by outputting the name of the municipality in response to the voice guidance in step S31 in FIG. 4 and is output from the voice recognition unit 11, it is determined that the unknown operation has not been performed by the operator. Then, whether or not the voice content recognized by the voice recognition unit 11 is output from the voice output unit 23 to instruct the operator to confirm, and the voice recognition unit 11 has output that the recognition content indicates OK. It is determined whether or not (step S33 in FIG. 4). If it is determined that the recognized content is OK, the target municipality name is determined as the recognized municipality name (step S34 in FIG. 4), and the municipality input process in step S5 in FIG. 2 is terminated.
[0049]
On the other hand, in response to the voice guidance in step S14 in FIG. 3, the operator utters a voice meaning that the destination is unclear, such as “I do not know how to read” or “I cannot read” (FIG. 3). Step S15) When the voice recognition unit 11 outputs that the voice has been recognized, it is unknown that the unknown detection means 19a has received an unknown voice from the operator as shown in Step S32 of FIG. It is determined that the operation is performed by the operator. As a result, the microcomputer 19 enters the destination specifying mode and performs the operations after step S35 in FIG. First, as shown in step S35, the instruction means 19b of the microcomputer 19 instructs the operator to speak the direction of the mark. For example, as shown in step S <b> 16 of FIG. 3, the voice output unit 23 performs voice guidance such as “Please go to the direction of the mark”.
[0050]
When the operator utters “south” in response to this guidance, for example, as shown in step S17 in FIG. 3 and the fact that the voice is recognized is output from the voice recognition unit 11, the instruction means 19b then continues to the south. In this direction, the operator is instructed to utter position information around the destination whose reading is unknown (step S36 in FIG. 4). For example, as shown in step S <b> 18 of FIG. 3, the voice output unit 23 performs voice guidance such as “Please give the name of the mark in the south.” When the operator recognizes this voice by saying “Kobe City” in response to this guidance, for example, as shown in step S19 in FIG. 3, the voice recognition unit 11 further outputs the instruction means 19b. An operator utters a linear distance between the position information recognized by the voice recognition unit 11 and the destination, a travel distance along the road, or a time required to reach the position information recognized from the destination. The input process instructing the user is performed (step S37 in FIG. 4).
[0051]
Here, in step S37 in FIG. 4, the selection of whether to input a linear distance, a travel distance along the road, or a required time can be performed by a manual operation using the manual input unit 20, for example. The information input in step S37 can also be switched by voice input such as “XX km on a straight line” or “XX km via a road”. Furthermore, when inputting the required time, it is also possible to add movement conditions to the information such as “XX hours by car” and “X minutes by foot”.
[0052]
In this embodiment (1), for example, as shown in step S20 of FIG. 3, the voice output unit 23 is caused to perform voice guidance such as “Please give me a distance from Kobe city”. In response to this, when the operator utters the information on the distance traveled along the straight distance or the road as "10 kilometers." (Step S21 in FIG. 3), the voice recognition unit 11 recognizes the utterance. A candidate for a destination to be identified is selected based on the distance information (10 kilometers), the prefecture name (Hyogo Prefecture), which is the position information recognized in step S3 in FIG. 2, and the direction (south) information ( Step S38 in FIG. Subsequently, the selected candidate is notified by voice output from the voice output unit 23 (step S39 in FIG. 4) and notified to the operator, for example, “Is it Miki City?” (Step S22 in FIG. 3). Is instructed to confirm whether the destination is an unknown destination. (Step S40 in FIG. 4).
[0053]
When the voice recognition unit 11 outputs that the voice of the notified candidate has been recognized as OK, the identification is completed (step S23 in FIG. 3), and the municipality name specified by proceeding to step S34 in FIG. The municipality input process in step S5 in FIG. Also, in step S40 in FIG. 4, when the voice recognition unit 11 outputs that the notified candidate has recognized the voice that is not OK, the destination specifying means 19c selects all the candidates selected in step S38 in FIG. It is determined whether the operator has been notified (step S41 in FIG. 4).
[0054]
If it is determined that candidates that have not been notified remain, the process returns to step S39 in FIG. 4 to notify the operator of candidates that have not been notified. If it is determined that all the selected candidates have been notified to the operator or that there are no candidates other than those notified and there are no candidates not notified, the process returns to step S35 in FIG. Then, the instruction means 19b instructs the operator to specify the direction again as in step S24 of FIG. 3 "Please select the direction of other landmarks." Until the destination is specified, the step of FIG. The operation after S17 is repeatedly performed to instruct the operator to input voices of different position information around the destination a plurality of times.
[0055]
After finishing specifying the destination in this way, the microcomputer 19 returns to the destination setting mode, and operates according to the determination as to whether or not the destination setting in step S6 in FIG. That is, the process proceeds to step S7 in FIG. 2 to specify a further limited destination, or proceeds to step S10 in FIG. 2 to display a map corresponding to the destination identified in step S5 in FIG. Do.
[0056]
By the way, the microcomputer 19 inputs the direction of the mark as a mark in step S35 of FIG. 4, the process of inputting the name of the mark as a mark in step S36 of FIG. 4 (position information input process), and the step S37 of FIG. 5 is performed in the process of inputting the distance or the required time in FIG.
[0057]
That is, for example, in the process of inputting the direction in step S35 of FIG. 4, after the voice guidance for instructing the operator to speak the direction of the direction of the indication means 19b of the microcomputer 19 is performed (step S51), It is detected that the voice recognition unit 11 has output that the voice is recognized by the operator in response to the guidance (step S52). Subsequently, a reply (talkback) to the utterance of the operator is performed, for example, together with an instruction (voice guidance) for the next operator (step S53), and the voice recognized by the voice recognition unit 11 from the utterance of the operator in response thereto. It is determined whether or not the voice recognition unit 11 has output that the voice having the content OK is output (step S54).
[0058]
For example, when the voice recognition unit 11 recognizes the voice “South” uttered by the operator in step S17 in FIG. 3, as shown in step S18 in FIG. The above talkback is performed by adding "Please give the name of the landmark in the south." In this way, there is an advantage that the processing can be simplified because the voice guidance for the next processing and the confirmation of the recognized content can be performed simultaneously. If the destination specifying unit 19c determines in step S54 that the recognition content and the voice uttered match, and the input indicating that the recognition content is OK is made, the destination specifying unit 19c determines the destination as the recognition content. If it is determined that the recognition content does not match the voice uttered by the operator and it is determined that the recognition content is not OK, the process returns to step S51 to prompt the operator to utter the direction of the mark. The voice guidance to instruct is performed.
[0059]
As described above, according to the navigation device 10 according to the embodiment (1), when the name of the destination to be set is clear but the reading of the destination is unknown, or the reading is incorrect. Therefore, even if the voice is not recognized, the destination specifying means 19c specifies the destination based on the specific information including at least the position information around the destination input by the operator. It can be performed. Therefore, for example, when the operator is driving, the destination can be set without manually operating the remote controller, keys, etc., so that the operational burden on the driver can be reduced and driving safety can be ensured. Can do.
[0060]
Further, since the CD-ROM 16 of the navigation unit 15 stores a plurality of pieces of position information around the destination for specifying the destination that is unreadable, for each destination, a variety of voices are inputted by the voice of the operator. The destination can be set in a flexible manner corresponding to position information around the destination. Therefore, it is possible to reliably set the destination by voice operation.
[0061]
Further, since the position information around the destination stored in the CD-ROM 16 is information that matches the name on the map displayed on the screen of the display 21, the operator refers to the name on the map and the position information. It is possible to realize the navigation device 10 that can cope with the specification of the destination when the voice is uttered. Further, since the operator usually determines and confirms the destination while looking at the map, it is effective in that the operator can easily input the position information for specifying the destination.
[0062]
Further, in the navigation device 10, since the location information around the destination stored in the CD-ROM 16 is each of the place name, road name, and facility name, the operator uses any of the place name, road name, or facility name as the position information. Even if you speak, you will be able to respond to the specific destination. Further, the place name, road name, and facility name are information that the operator frequently pays attention as the position information of the destination. Accordingly, there is an advantage that the operator can smoothly input the position information for specifying the destination, and it is difficult to feel the input of the voice for specifying the destination.
[0063]
Further, the destination specifying means 19c is provided with position information in a predetermined direction recognized by the voice recognition unit 11, the direction, the rectilinear distance between the recognized position information and the destination, or a travel distance or destination along the road. Since the destination is specified based on the required time from the base station, the range for specifying the destination can be easily and reliably narrowed regardless of the input position information. In addition, until the destination specifying unit 19c specifies the destination, the operator inputs voices of different position information around the destination a plurality of times. Also from this, the effect that the destination can be specified reliably can be obtained.
[0064]
In the above-described embodiment (1), the example in which the storage means in the present invention is a CD-ROM has been described. However, position information around the destination for identifying a destination whose reading is unknown is provided for each destination. The storage means is not limited to the CD-ROM, as long as a plurality of storage means are stored.
[0065]
In the above-described embodiment (1), the destination specifying unit is configured to recognize the position information in the recognized predetermined direction, the information on the direction, the linear distance between the recognized position information and the destination, or the road. In this embodiment, the destination is identified based on the travel distance or the information on the required time from the destination to the recognized position information. It may be configured to identify the destination from the position information and the direction information. In this case as well, the range for specifying the destination can be narrowed compared to the case where the destination is specified only by the position information, and the destination information can be obtained regardless of the input position information. It becomes easy to narrow down the range to specify.
[0066]
Further, the specific information includes not only one of the recognized distance information and the straight line distance between the destination, the travel distance along the road, and the required time from the destination, but two or more of these information. The destination specifying information in the present invention can also be configured to be used to specify the destination. In this case, the range for specifying the destination can be further narrowed down, and the destination can be specified more easily regardless of the input position information.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a navigation device according to an embodiment (1) of the present invention.
FIG. 2 is a flowchart showing an operation performed by the microcomputer at the time of destination setting of the navigation device according to the embodiment (1).
FIG. 3 is a diagram showing an example of dialogue with an operator when setting a destination in the navigation device according to the embodiment (1).
4 is a flowchart showing an operation example performed by the microcomputer in each input process of FIG. 3;
5 is a flowchart showing an operation example performed by the microcomputer in each input process of FIG. 4;
[Explanation of symbols]
10 Navigation device
11 Speech recognition unit
15 Navigation part
16 CD-ROM
19a Unknown detection means
19b Instruction means
19c Destination identification means
21 display

Claims (4)

音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。
In a navigation device that provides route guidance to a destination based on the content of voice recognition,
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
A destination specifying means for specifying a destination based on the destination periphery information ,
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、
目的地に関連する周辺情報の音声入力を指示する指示手段と、
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段とを備え
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。
In a navigation device that provides route guidance to a destination based on the content of voice recognition,
Instruction means for instructing voice input of peripheral information related to the destination;
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
A destination specifying means for specifying a destination based on the destination periphery information ,
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置において、
音声認識した内容を地名として受け付ける地名受付手段と、
前記地名を目的地名に設定する設定手段と、
音声認識した内容を目的地に関連する周辺情報として受け付ける目的地周辺情報受付手段と、
前記目的地周辺情報に基づいて目的地を特定する目的地特定手段と、
前記地名受付手段と、前記目的地周辺情報受付手段とを選択する選択手段とを備え
前記目的地周辺情報には、目的地を特定するための方角、距離、及び時間のうちの少なくとも一つの情報が含まれていることを特徴とするナビゲーション装置。
In a navigation device that provides route guidance to a destination based on the content of voice recognition,
A place name receiving means for receiving the speech-recognized content as a place name;
Setting means for setting the place name as a destination name;
Destination peripheral information receiving means for receiving speech-recognized content as peripheral information related to the destination;
Destination specifying means for specifying a destination based on the destination periphery information;
A selection means for selecting the place name receiving means and the destination surrounding information receiving means ;
The navigation apparatus according to claim 1, wherein the destination periphery information includes at least one of a direction, a distance, and a time for specifying the destination .
音声認識した内容に基づき目的地への経路案内を行うナビゲーション装置における目的地設定方法であって、
目的地に関連する周辺情報として方角、距離、及び時間のうちの少なくとも一つの情報を目的地を特定するための情報として受け付け、
該受け付けた目的地周辺情報に関連する地名を提示し、
該提示した地名に基づいて目的地を設定することを特徴とする目的地設定方法。
A destination setting method in a navigation device that performs route guidance to a destination based on the content of voice recognition,
Accept at least one of direction, distance, and time as peripheral information related to the destination as information for specifying the destination,
Show the place name related to the information around the accepted destination,
A destination setting method, wherein a destination is set based on the presented place name.
JP14388599A 1999-05-24 1999-05-24 Navigation device and destination setting method Expired - Fee Related JP4219047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14388599A JP4219047B2 (en) 1999-05-24 1999-05-24 Navigation device and destination setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14388599A JP4219047B2 (en) 1999-05-24 1999-05-24 Navigation device and destination setting method

Publications (3)

Publication Number Publication Date
JP2000337912A JP2000337912A (en) 2000-12-08
JP2000337912A5 JP2000337912A5 (en) 2006-07-06
JP4219047B2 true JP4219047B2 (en) 2009-02-04

Family

ID=15349299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14388599A Expired - Fee Related JP4219047B2 (en) 1999-05-24 1999-05-24 Navigation device and destination setting method

Country Status (1)

Country Link
JP (1) JP4219047B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401377B1 (en) * 2017-06-07 2022-05-24 현대자동차주식회사 Method and apparatus for searching geographic information using interactive speech recognition

Also Published As

Publication number Publication date
JP2000337912A (en) 2000-12-08

Similar Documents

Publication Publication Date Title
US6253174B1 (en) Speech recognition system that restarts recognition operation when a new speech signal is entered using a talk switch
US6480786B2 (en) Method and system for route guiding
US7472020B2 (en) Navigation system with voice controlled presentation of secondary information
JP2907079B2 (en) Navigation device, navigation method and automobile
US5956684A (en) Voice recognition apparatus, voice recognition method, map displaying apparatus, map displaying method, navigation apparatus, navigation method and car
JPH07272193A (en) Vehicle guiding device
US20070156331A1 (en) Navigation device
JPH09292255A (en) Navigation method and navigation system
JP2701492B2 (en) Map display device
TWI411768B (en) Navigation apparatus
JP4219047B2 (en) Navigation device and destination setting method
JP2001027540A (en) Navigation method to use function of voice recognition
JP2947143B2 (en) Voice recognition device and navigation device
JP4295674B2 (en) Navigation device and navigation program
JP4274913B2 (en) Destination search device
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JPH09114488A (en) Device and method for speech recognition, device and method for navigation, and automobile
JPH08166797A (en) Voice interactive control system
KR100455108B1 (en) A voice recognition device, a voice recognition method, a map display device, a navigation device, a navigation method and a navigation function
KR100466737B1 (en) Navigation devices, navigation methods and automobiles
JP2002286487A (en) Navigation device
JP3484818B2 (en) Voice recognition device and navigation device
JP2877045B2 (en) Voice recognition device, voice recognition method, navigation device, navigation method, and automobile
JP2001215127A (en) Navigation system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees