JP2008298522A - Navigation apparatus, and method and program for retrieval of navigation apparatus - Google Patents
Navigation apparatus, and method and program for retrieval of navigation apparatus Download PDFInfo
- Publication number
- JP2008298522A JP2008298522A JP2007143526A JP2007143526A JP2008298522A JP 2008298522 A JP2008298522 A JP 2008298522A JP 2007143526 A JP2007143526 A JP 2007143526A JP 2007143526 A JP2007143526 A JP 2007143526A JP 2008298522 A JP2008298522 A JP 2008298522A
- Authority
- JP
- Japan
- Prior art keywords
- search
- driver
- search data
- face
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムに関する。 The present invention relates to a navigation device, a navigation device search method, and a search program.
従来よりナビゲーション装置は、施設、特定の地点等を検索するための検索用のデータベースを備え、ユーザが提示した検索条件に基づいてデータベースを検索し、検索されたデータをリスト等にしてディスプレイに出力する。 Conventionally, navigation devices have a search database for searching for facilities, specific points, etc., search the database based on search conditions presented by the user, and output the searched data as a list etc. to the display To do.
例えば「ガソリンスタンド」等の条件でデータベースを検索すると、膨大な量のデータが出力されるため、通常では上記条件に加えて、検索対象の地域名を入力し、地域を限定する等の条件を付加する。しかしこの場合でも、限定された地域に存在する全ての施設等が検索されるため、ユーザにとって必要性が低い情報まで出力されてしまう。 For example, if a database is searched under conditions such as “gas station”, a huge amount of data is output. Normally, in addition to the above conditions, the name of the area to be searched is input and the conditions such as limiting the area are set. Append. However, even in this case, since all the facilities and the like existing in the limited area are searched, information that is less necessary for the user is output.
このように必要性の低いデータまで出力されると、さらにデータを絞り込むための操作回数が多くなるとともに、必要な情報に辿り着くまで時間がかかる等の問題が生じる。これに対し、特許文献1では、自車両の進行方向に存在する周辺施設の検索を行うナビゲーション装置が記載されている。
ところが、特許文献1に記載された装置では、進行方向を基準とした所定範囲に存在する施設を検索することができるが、検索時の自車両の進行方向に依存してしまうため、運転者が進行方向を変更する場合や、上記所定範囲以外の施設等を検索したい場合には、適切な検索範囲とはならない。 However, in the device described in Patent Document 1, it is possible to search for facilities existing in a predetermined range based on the traveling direction, but the driver depends on the traveling direction of the own vehicle at the time of the search. When the direction of travel is changed or when it is desired to search for facilities or the like other than the predetermined range, the search range is not appropriate.
本発明は、上記問題点に鑑みてなされたものであり、その目的は、ユーザが意図する範囲のデータを容易に取得することができるナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a navigation device, a navigation device search method, and a search program that can easily acquire data in a range intended by a user. It is in.
上記問題点を解決するために、請求項1に記載の発明は、検索データを記憶する検索データ記憶手段を備え、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置において、自車位置を特定する自車位置特定手段と、自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、抽出された前記検索データを出力手段に出力する出力制御手段とを備えたことを要旨とする。 In order to solve the above problem, the invention described in claim 1 is provided with a search data storage means for storing search data, and in a navigation device for searching for the search data based on a condition presented by a driver. A vehicle position specifying means for specifying the vehicle position; a periphery search means for searching the search data around the vehicle based on the vehicle position; a face direction detecting means for detecting the driver's face direction; The range setting means for setting the search data narrowing range according to the vehicle position and the driver's face orientation, and the search data related to the periphery of the host vehicle searched by the peripheral search means, The gist is provided with data extraction means for extracting the corresponding search data, and output control means for outputting the extracted search data to the output means.
請求項2に記載の発明は、請求項1に記載のナビゲーション装置において、前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記絞り込み範囲とすることを要旨とする。 The gist of the invention according to claim 2 is that, in the navigation device according to claim 1, the range setting means sets a predetermined angle range including a driver's face direction as the narrowing range.
請求項3に記載の発明は、請求項1又は2に記載のナビゲーション装置において、前記
顔方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向きに応じて、前記絞り込み範囲の長さを設定することを要旨とする。
According to a third aspect of the present invention, in the navigation device according to the first or second aspect, the face direction detecting means detects the direction of the driver's face in the vertical direction, and according to the direction of the face in the vertical direction. The gist is to set the length of the narrowing range.
請求項4に記載の発明は、請求項1〜3のいずれか1項に記載のナビゲーション装置において、前記周辺検索手段により自車両周辺の前記検索データを検索した後に、運転者の発話の有無を判断し、運転者による発話が検出された際に、その発話内容を解析する音声認識手段をさらに備え、発話内容が絞り込み命令である場合には、前記範囲設定手段は、自車位置と運転者の顔の向きとに応じて、前記検索データの前記絞り込み範囲を設定し、前記データ抽出手段は、前記絞り込み範囲に基づき前記検索データの絞り込みを行うことを要旨とする。 According to a fourth aspect of the present invention, in the navigation device according to any one of the first to third aspects, after the search data around the host vehicle is searched by the peripheral search means, the presence or absence of the driver's utterance is checked. When the utterance by the driver is detected, voice recognition means for analyzing the utterance content is further provided, and when the utterance content is a refinement command, the range setting means is configured to determine the vehicle position and the driver. The narrowing range of the search data is set according to the orientation of the face, and the data extraction means narrows down the search data based on the narrowing range.
請求項5に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索方法において、前記制御手段が、自車位置に基づき、自車両周辺の前記検索データを検索するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて絞り込み範囲を設定し、検索された自車両周辺に関する前記検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出し、抽出された前記検索データを出力手段に出力することを要旨とする。
The invention according to
請求項6に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索プログラムにおいて、前記制御手段を、自車位置を特定する自車位置特定手段と、自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、抽出された前記検索データを出力手段に出力する出力制御手段として機能させることを要旨とする。 The invention according to claim 6 is a navigation device that searches for the search data based on a condition presented by a driver using search data storage means for storing search data and control means for searching for the search data. In the search program, the control means includes: a vehicle position specifying means for specifying the vehicle position; a periphery search means for searching the search data around the vehicle based on the vehicle position; and a direction of the driver's face A direction-of-face detection unit for detecting the direction of the vehicle, a range setting unit for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face, and the periphery of the vehicle searched by the periphery search unit Data extraction means for extracting the search data corresponding to the narrowing range from search data relating to the output, and output control means for outputting the extracted search data to the output means And summarized in that to to function.
請求項1に記載の発明によれば、ナビゲーション装置は、周辺検索が行われた際に、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。 According to the first aspect of the present invention, the navigation device sets the narrowing range according to the direction of the driver's face when the surrounding search is performed, and the facility or point included in the narrowing range or the traffic information Narrow down to etc. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.
請求項2に記載の発明によれば、絞り込み範囲は、運転者の顔の向きを含む所定角度範囲であるので、運転者が検索したい範囲を的確に判断し、必要性の高いデータを抽出することができる。 According to the invention described in claim 2, since the narrowing-down range is a predetermined angle range including the direction of the driver's face, the driver wants to accurately determine the range that the driver wants to search and extract highly necessary data. be able to.
請求項3に記載の発明によれば、絞り込み範囲の長さは、鉛直方向における運転者の顔の向きに応じて設定されるので、運転者が比較的遠いところを見ている状態では、絞り込み範囲を長く設定し、比較的近いところを見ている状態では検索対象範囲を短く設定することができる。 According to the invention described in claim 3, since the length of the narrowing range is set according to the direction of the driver's face in the vertical direction, the narrowing is performed when the driver is looking at a relatively far place. The search range can be set short when the range is set long and when a relatively close place is seen.
請求項4に記載の発明によれば、運転者の発話内容が絞り込み命令である場合には、絞り込み範囲を設定する。このため、絞り込み条件を手動操作で入力する必要がないので、発話及び顔の向きだけで、運転者が検索したい情報を絞り込むことができる。 According to the fourth aspect of the present invention, when the driver's utterance content is a narrowing command, the narrowing range is set. For this reason, since it is not necessary to input the narrow-down condition by manual operation, information that the driver wants to search can be narrowed down only by speaking and face direction.
請求項5に記載の発明によれば、周辺検索が行われた際に、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む
。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。
According to the fifth aspect of the present invention, when a surrounding search is performed, a narrowing range is set according to the orientation of the driver's face, and narrowed down to facilities or points included in the narrowing range or traffic information. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.
請求項6に記載の発明によれば、周辺検索が行われた際に、検索プログラムに基づき、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。 According to the invention described in claim 6, when a surrounding search is performed, a narrowing range is set according to the direction of the driver's face based on the search program, and the facility, point or traffic included in the narrowing range We narrow down to information. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.
以下、本発明を具体化した一実施形態を図1〜図9に従って説明する。図1は、本実施形態のナビゲーションシステム1の構成を示すブロック図である。
ナビゲーションシステム1は、各種センサ及びタッチパネルディスプレイ35等とデータを送受信するナビゲーション装置としてのナビユニット1aとを備えている。ナビユニット1aは、自車両C(図7参照)に搭載されたナビゲーションECU(以下、単にナビECU2という)を有している。尚、ナビECU2は、自車位置特定手段、周辺検索手段、顔向き方向検出手段、範囲設定手段、データ抽出手段、制御手段、出力制御手段に対応している。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the navigation system 1 of the present embodiment.
The navigation system 1 includes various sensors, a
ナビECU2は、GPS(Global Positioning System)アンテナ30が受信した、緯
度・経度等の座標を示す位置検出信号を入力して、電波航法により自車両Cの絶対位置を算出する。また、車両側I/F3を介して、自車に設けられた車速センサ31及びジャイロセンサ32から車速パルス、角速度をそれぞれ入力する。ナビECU2は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。
The navigation ECU 2 inputs a position detection signal indicating coordinates such as latitude and longitude received by a GPS (Global Positioning System) antenna 30 and calculates the absolute position of the host vehicle C by radio wave navigation. In addition, vehicle speed pulses and angular velocities are respectively input from the vehicle speed sensor 31 and the gyro sensor 32 provided in the host vehicle via the vehicle side I / F 3. The navigation ECU 2 calculates a relative position from the reference position by autonomous navigation using vehicle speed pulses and angular velocities, and identifies the own vehicle position in combination with the absolute position calculated by radio wave navigation.
また、ナビゲーションシステム1は、地図データ記憶部10を備えている。地図データ記憶部10は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地図データ記憶部10には、目的地までの経路を探索するための各経路ネットワークデータ(以下、経路データ11という)と、出力手段としてのタッチパネルディスプレイ35に地図画面35aを出力するための各地図描画データ12とが格納されている。
The navigation system 1 includes a map
経路データ11は、全国を区画したメッシュ内の道路に関するデータである。図2(a)に示すように、経路データ11は、各メッシュの識別子であるメッシュID11aと、メッシュ内の各リンクの識別子を示すリンクID11bとを有している。ノードは、交差点、インターチェンジ、道路の端点等を示し、リンクは各ノードを接続するデータ要素である。
The
また、リンクID11bには、リンクの始点及び終点を示すノードのノード座標11c、道路の種別を示す道路種別11d、経路探索のためのリンクコスト11e等が関連付けられている。
The link ID 11b is associated with node coordinates 11c of a node indicating the start and end points of the link, a
また、地図描画データ12は、全国の地図を分割したメッシュ毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図2(b)に示すように、地図描画データ12は、メッシュID12a、道路、市街地等を描画するための背景データ12b、形状補間データ、道路幅等の道路形状を示す道路データ12c等を有している。
Further, the
また、ナビゲーションシステム1は、地図描画処理部4(図1参照)を備えている。地図描画処理部4は、自車位置周辺の地図を描画するための地図描画データ12を地図データ記憶部10から読出し、出力用のデータを生成する。また、出力用データに基づく映像信号をタッチパネルディスプレイ35に出力し、図1に示すような地図画面35aを表示
する。また、地図描画処理部4は、この地図画面35aのうち、自車両Cの現在位置に相当する位置に、自車指標35bを重畳する。
The navigation system 1 includes a map drawing processing unit 4 (see FIG. 1). The map
また、ナビECU2は、交通情報受信部37を備えている。交通情報受信部37は、例えば、道路近傍に設置され、VICS(登録商標、Vehicle Information and Communication System)を構成するビーコン等から、その周辺の渋滞情報等を受信する。ナビECU2は、交通情報受信部37から交通情報を受信すると、内蔵するメモリ等にその交通情報を一時記憶する。また、この交通情報に基づいて、地図画面35a上に渋滞区間を強調表示したり、推奨する経路を変更する。尚、交通情報を記憶する上記メモリは、検索データ記憶手段に該当する。
The navigation ECU 2 also includes a traffic information receiving unit 37. The traffic information receiving unit 37 is installed in the vicinity of a road, for example, and receives traffic information and the like around the beacon and the like constituting VICS (registered trademark, Vehicle Information and Communication System). When the navigation ECU 2 receives traffic information from the traffic information receiving unit 37, the navigation ECU 2 temporarily stores the traffic information in a built-in memory or the like. Further, based on this traffic information, a traffic jam section is highlighted on the
さらに、ナビECU2は、タッチパネルディスプレイ35の図示しないコントローラからタッチパネルに接触したユーザの指の接触位置を入力する。また、ナビECU2は、タッチパネルディスプレイ35に隣設された音声入力ボタンBや、ステアリングコラム等に設けられた、音声認識を実行するための音声入力ボタン(図示略)が操作された際に、各音声入力ボタンBから、操作が行われたことを示す検出信号を入力する。
Further, the navigation ECU 2 inputs the contact position of the user's finger that has touched the touch panel from a controller (not shown) of the
ナビECU2は、タッチパネル操作、又は音声入力ボタンBの押釦による音声認識の実行命令を入力すると、音声認識手段としての音声認識部5を制御して、運転者(ユーザ)による発話を待機する。尚、運転者は、音声認識によって施設、地点等の検索を行う際に、自車両Cに対する方向で検索データを絞り込みたい場合には、その方向を向いて発話するようになっている。
When the navigation ECU 2 inputs a voice recognition execution command by a touch panel operation or a push button of the voice input button B, the navigation ECU 2 controls the
音声認識部5は、音声認識用LSI、音声認識データベース等(図示略)を備えている。音声認識部5は、車室内に設けられたマイク34(図1参照)から運転者の発話に基づく音声信号を入力する。音声認識データベースには、音響モデル、認識辞書、言語モデル等が記憶されている。音声認識部5は、音響モデルを用いて、音声の特徴量と音素とを関連付け、認識辞書を照合して、検出した音素列と対応付けられた単語を検索する。さらに、言語モデルによって、検出した単語間の接続確率や、係り受け関係を検証する。そして、各単語の接続する確率が高い場合には認識結果を確定する。認識結果が確定されると、音声認識部5は、認識結果をナビECU2に出力し、ナビECU2は、認識結果に基づくコマンドを、各種制御回路に出力する。
The
また、ナビECU2は、検索データ記憶手段としての検索データ記憶部15に記憶された検索データ16を用いて、施設、地点等を検索する。図3に示すように、検索データ16は、管理ヘッダ16a、ジャンル定義データ16b、検索対象データ16c、座標データ16dを有している。管理ヘッダ16aは管理用のデータである。ジャンル定義データ16bは、「空港」、「ガソリンスタンド」、「名所・旧跡」等の施設や特定の地点を検索するためのジャンルや、住所、電話番号、郵便番号等のデータである。検索対象データ16cは、施設名称、地点名称等のデータである。座標データ16dは、その施設又は地点の座標を示すデータである。
Further, the navigation ECU 2 searches for facilities, points, and the like using the
ナビECU2は、タッチパネル操作又は音声認識によって、運転者が指定するジャンル、住所等の検索条件を取得すると、その検索条件に基づき、検索データ記憶部15内を検索する。また、運転者の操作により「周辺検索」が指定されると、ナビECU2は、自車位置周辺の施設又は特定の地点を検索する。このとき、ナビECU2は、自車位置の緯度及び経度に基づいて、自車位置から所定距離内の施設又は特定の地点を検索データ16を用いて検索する。又は、自車位置が含まれるメッシュのID等に基づき、自車位置周辺のメッシュを特定し、そのメッシュに含まれる施設又は特定の地点を検索する。
When the navigation ECU 2 acquires search conditions such as a genre and an address designated by the driver by touch panel operation or voice recognition, the navigation ECU 2 searches the search
自車位置周辺の検索データ16を検索すると、検索により抽出した検索データ16を用いてリストを作成し、例えば図4に示すような検索リスト画面35pをタッチパネルディスプレイ35に表示する。検索リスト画面35pでは、抽出された検索対象データ16cに含まれる施設名称等をリストLとして表示している。リスト表示されたこれらの施設や地点は、方角等を指定せずに検索された施設又は地点である。また、検索リスト画面35pの隣には、各施設又は各地点が、自車位置からみてどの方向にあるかを示す方向表示部35qがそれぞれ表示されている。尚、周辺検索結果を示す画面は、検索リスト画面35p以外の表示形式の画面でもよい。
When the
また、図1に示すように、ナビユニット1aは、音声プロセッサ7及び顔方向検出部6を備えている。音声プロセッサ7は、音声データ等を記憶しており、渋滞情報等の各種音声をスピーカ36から出力する。
As shown in FIG. 1, the navigation unit 1 a includes an audio processor 7 and a face direction detection unit 6. The sound processor 7 stores sound data and the like, and outputs various sounds such as traffic jam information from the
顔方向検出部6は、自車両Cに設けられた顔方向検出センサ33から、顔の向きを示す検出信号を受信する。顔方向検出センサ33は、本実施形態ではカメラから構成される。この顔方向検出センサ33は、例えば車室内であって、運転席S(図6参照)に着座した運転者Dの顔を撮影可能に取り付けられている。顔方向検出部6は、顔方向検出センサ33が取得した画像データに基づき、公知の画像処理によって、運転者Dの顔の水平方向(図6中x方向及びy方向)の向き及び鉛直方向(図6中z方向)の向きを検出する。 The face direction detection unit 6 receives a detection signal indicating the face direction from the face direction detection sensor 33 provided in the host vehicle C. The face direction detection sensor 33 is constituted by a camera in this embodiment. The face direction detection sensor 33 is attached, for example, in the passenger compartment so that the face of the driver D seated in the driver's seat S (see FIG. 6) can be photographed. The face direction detection unit 6 performs the horizontal direction (x direction and y direction in FIG. 6) of the face of the driver D and the vertical direction (known as image processing) based on the image data acquired by the face direction detection sensor 33. The direction in the z direction in FIG. 6 is detected.
水平方向の向きを検出する場合には、例えば、図5に示す基準方向Diを向いた運転者Dの顔を撮影し、それをテンプレートとして予めメモリに記憶する。また、顔方向検出センサ33が新たに撮影を行うと、新たに取得した画像データと該テンプレートとを比較して、運転者Dの顔の水平方向の向きを演算する。又は、運転者Dの顔を撮影した画像データに対し、エッジ検出や、特徴点抽出処理を行い、顔の方向を検出するようにしても良い。このとき、顔方向検出部6は、図6に示すように、顔の向きD1の基準方向Diに対する相対角度θ1又は相対方位(ベクトル)を演算する。顔の向きD1の相対角度θ1又は相対方位を演算すると、顔方向検出部6は、ナビECU2に相対角度θ1又は相対方位を出力する。 In the case of detecting the horizontal direction, for example, the face of the driver D facing the reference direction Di shown in FIG. 5 is photographed and stored in advance in the memory as a template. Further, when the face direction detection sensor 33 newly captures an image, the newly acquired image data is compared with the template to calculate the horizontal direction of the face of the driver D. Alternatively, edge detection or feature point extraction processing may be performed on the image data obtained by capturing the face of the driver D to detect the face direction. At this time, as shown in FIG. 6, the face direction detection unit 6 calculates a relative angle θ1 or a relative direction (vector) of the face direction D1 with respect to the reference direction Di. When the relative angle θ1 or relative orientation of the face direction D1 is calculated, the face direction detection unit 6 outputs the relative angle θ1 or relative orientation to the navigation ECU 2.
鉛直方向の顔の向きを検出する場合も、同様に公知の画像処理方法を用いる。例えば、新たに顔方向検出センサ33から画像データを入力した際に、その画像データと基準方向を向いた運転者Dの顔を撮影したテンプレートとを比較し、顔の俯角又は仰角を演算する。このとき、ナビECU2は、図8に示すように基準位置を向いた運転者Dの顔の向き(図中Di方向)に対する相対角度θ3を算出する。運転者Dが比較的遠方をみている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)上方、即ち仰角になる。運転者Dが自車両Cの近くを見ている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)下方、即ち俯角になる。 Similarly, a known image processing method is used to detect the face direction in the vertical direction. For example, when image data is newly input from the face direction detection sensor 33, the image data is compared with a template obtained by photographing the face of the driver D facing the reference direction, and the depression angle or elevation angle of the face is calculated. At this time, the navigation ECU 2 calculates a relative angle θ3 with respect to the face direction (Di direction in the figure) of the driver D facing the reference position as shown in FIG. In a state in which the driver D is looking relatively far, the relative angle θ3 is higher in the vertical direction (z direction) than the reference direction Di, that is, the elevation angle. In a state where the driver D is looking near the host vehicle C, the relative angle θ3 is a vertical direction (z direction) lower than the reference direction Di, that is, a depression angle.
ナビECU2は、顔方向検出部6から取得した相対角度θ1,θ3又は相対方位を用いて、上記した周辺検索による検索結果を、方角によって絞り込むための絞り込み範囲を設定する。具体的には、ナビECU2は、自車位置と、自車両Cの路面に対する進行方向とを取得し、自車両Cの自車位置及び進行方向に基づき、運転者Dの顔の向きを、路面座標系の軸(図7ではX軸)に対する絶対方向に変換する。このとき、図7に示すように、例えば、顔方向検出部6から取得した水平方向の相対角度θ1又は相対方位に、自車両Cの方向を加味して、運転者Dの顔の向きを絶対角度θ2又は絶対方位として算出する。 The navigation ECU 2 uses the relative angles θ1, θ3 or the relative orientation acquired from the face direction detection unit 6 to set a narrowing range for narrowing down the search result by the above-described peripheral search according to the direction. Specifically, the navigation ECU 2 acquires the host vehicle position and the traveling direction of the host vehicle C with respect to the road surface, and determines the direction of the face of the driver D based on the host vehicle position and the traveling direction of the host vehicle C. Conversion to an absolute direction with respect to the axis of the coordinate system (X axis in FIG. 7). At this time, as shown in FIG. 7, for example, the direction of the host vehicle C is added to the horizontal relative angle θ1 or the relative direction acquired from the face direction detection unit 6, and the face direction of the driver D is absolute. Calculated as the angle θ2 or absolute azimuth.
さらに、ナビECU2は、自車位置を中心点とし、顔の向きD1の絶対方向を中心とした所定角度範囲φ(例えば45°)の扇形の対象エリアAを算出する。さらに、経路データ11を用いて、対象エリアA内の道路に沿って自車位置から所定距離L1以内のエリア
を、絞り込み範囲Z2とする。このとき、ナビECU2は、鉛直方向の顔の向きを示す相対角度θ3に基づき、相対角度θ3が基準方向(図8中Di方向)に対して仰角(上方)である場合には、所定距離L1を比較的長く設定し(例えば5km)、俯角(下方)である場合には、所定距離L1を比較的短く設定する(例えば2km)。
Further, the navigation ECU 2 calculates a fan-shaped target area A having a predetermined angle range φ (for example, 45 °) centered on the absolute position of the face direction D1 with the vehicle position as the center point. Furthermore, using the
このように絞り込み範囲Z2が設定されると、ナビECU2は、絞り込み範囲Z2に基づき、周辺検索で検索された施設又は地点や、交通情報の絞り込みを行う。このとき、既に周辺検索によって抽出された検索データ16の座標データ16d等を用いて、絞り込み範囲Z2に含まれる検索データ16を絞り込む。また、交通情報の絞り込みを行う際には、交通情報受信部37から取得し、ナビECU2に記憶された交通情報のうち、絞り込み範囲Z2に含まれる渋滞情報や案内情報があるか否かを交通情報に含まれるデータに基づき判断し、該当する交通情報がある場合には、その交通情報を抽出する。
When the narrowing range Z2 is set in this way, the navigation ECU 2 narrows down the facilities or points searched by the peripheral search and the traffic information based on the narrowing range Z2. At this time, the
次に本実施形態の処理手順について、図9に従って説明する。ナビECU2は、自車両Cの現在位置を取得する(ステップS1)。また、タッチパネル操作、音声認識等により、周辺検索が指定されているか否かを判断する(ステップS2)。 Next, the processing procedure of this embodiment is demonstrated according to FIG. The navigation ECU 2 acquires the current position of the host vehicle C (step S1). Further, it is determined whether or not a peripheral search is designated by a touch panel operation, voice recognition, or the like (step S2).
周辺検索が指定されていると判断した場合には(ステップS2においてYES)、自車位置に基づき、自車位置周辺の施設又は地点を検索する周辺検索を上記した手順で行う(ステップS3)。さらに、周辺検索の結果、抽出された施設又は地点をリストLとして検索リスト画面35pに表示する(ステップS4)。尚、自車位置周辺の交通情報が検索された場合には、交通情報を地点名称とともに画面に表示したり、地図画面35aに表示された道路沿いに表示する。
If it is determined that the peripheral search is designated (YES in step S2), the peripheral search for searching for a facility or a spot around the vehicle position based on the vehicle position is performed according to the procedure described above (step S3). Further, the facilities or points extracted as a result of the peripheral search are displayed as a list L on the search list screen 35p (step S4). In addition, when the traffic information around the own vehicle position is searched, the traffic information is displayed on the screen together with the location name, or is displayed along the road displayed on the
さらに、ナビECU2は、音声入力ボタンBの操作が行われたか否かを判断する(ステップS5)。音声入力ボタンBの操作が行われていない間は(ステップS5においてNO)、リストLの表示を継続する。このとき地図画面35aに戻るためのタッチパネル操作が行われた場合等には、その割り込み指令を実行する。
Further, the navigation ECU 2 determines whether or not the operation of the voice input button B has been performed (step S5). While the voice input button B is not being operated (NO in step S5), the display of the list L is continued. At this time, when a touch panel operation for returning to the
音声入力ボタンBが操作されたと判断すると(ステップS5においてYES)、ナビECU2は、顔方向検出部6から、ドライバーの顔の向きを検出する(ステップS6)。本実施形態では、上記したように、基準方向に対する水平方向の相対角度θ1,θ3又は相対方位を取得する。 If it is determined that the voice input button B has been operated (YES in step S5), the navigation ECU 2 detects the face direction of the driver from the face direction detection unit 6 (step S6). In the present embodiment, as described above, the horizontal relative angles θ1 and θ3 or the relative orientation with respect to the reference direction are acquired.
また、ナビECU2は、運転者Dにより、方向を指示する発話の有無を判断する(ステップS7)。具体的には、音声認識部5により、運転者Dの発話内容を解析して、予め定められた絞り込み命令のコマンドと一致するか否かを判断する。例えば、方向を指示するコマンドが、「この方向」である場合、音声認識部5は、運転者Dの発話内容が「この方向」と一致するか否かを判断する。
Further, the navigation ECU 2 determines whether or not there is an utterance instructing the direction by the driver D (step S7). Specifically, the
音声認識の結果、方向を指示する発話内容を検出しない場合には(ステップS7においてNO)、音声入力ボタンBの操作から所定時間(例えば10秒)が経過したか否かを判断する(ステップS8)。所定時間が経過したと判断した場合には(ステップS8においてYES)、音声の入力待ち状態を解除して(ステップS9)、ステップS4に戻る。所定時間が経過していないと判断した場合には(ステップS8においてNO)、ステップS6に戻り、顔の向きを再び検出する。 As a result of the speech recognition, when the utterance content indicating the direction is not detected (NO in step S7), it is determined whether or not a predetermined time (for example, 10 seconds) has elapsed since the operation of the speech input button B (step S8). ). If it is determined that the predetermined time has elapsed (YES in step S8), the voice input waiting state is canceled (step S9), and the process returns to step S4. If it is determined that the predetermined time has not elapsed (NO in step S8), the process returns to step S6, and the face orientation is detected again.
一方、音声認識の結果、方向を指示する発話内容を検出すると(ステップS7においてYES)、絞り込み範囲Z2を設定する(ステップS10)。このとき、上記したように、ドライバーの顔の向きを示す水平方向の相対角度θ1又は相対方位に自車両Cの絶対方
向を加味して、絶対角度θ2又は絶対方位を算出する。さらに、図7に示すように顔の向きD1を中心に所定角度範囲φ(例えば45°)の扇形の対象エリアAを算出する。また、経路データ11を用いて、対象エリアA内に含まれる道路沿いに所定距離L1以内のエリアを、施設や特定の地点、交通情報の絞り込み範囲Z2とする。このとき、所定距離L1は、鉛直方向の顔の向きを示す相対角度θ3に基づき設定する。
On the other hand, as a result of the speech recognition, when the utterance content indicating the direction is detected (YES in step S7), a narrowing range Z2 is set (step S10). At this time, as described above, the absolute angle θ2 or the absolute azimuth is calculated by adding the absolute direction of the host vehicle C to the horizontal relative angle θ1 or the relative azimuth indicating the direction of the face of the driver. Further, as shown in FIG. 7, a fan-shaped target area A having a predetermined angle range φ (for example, 45 °) around the face direction D1 is calculated. Further, using the
また、ナビECU2は、リストLに含まれる施設、地点や交通情報のうち、絞り込み範囲Z2に含まれる施設、地点や交通情報があるか否かを判断する(ステップS11)。絞り込み範囲Z2に含まれる施設、地点や交通情報が無いと判断した場合には(ステップS11においてNO)、運転者Dが指定する方角であって、自車両周辺の施設等がないことを示す検索結果をタッチパネルディスプレイ35に表示する(ステップS12)。 In addition, the navigation ECU 2 determines whether there are facilities, points, and traffic information included in the narrowing range Z2 among facilities, points, and traffic information included in the list L (step S11). When it is determined that there is no facility, point, or traffic information included in the narrowing range Z2 (NO in step S11), the direction specified by the driver D and a search indicating that there is no facility around the host vehicle The result is displayed on the touch panel display 35 (step S12).
一方、絞り込み範囲Z2に含まれる施設、地点や交通情報があると判断した場合には(ステップS11においてYES)、絞り込み範囲Z2に含まれる施設、地点や交通情報の検索データ16を抽出する(ステップS13)。また、抽出された施設、地点や交通情報のリストLをタッチパネルディスプレイ35に表示する(ステップS14)。その結果、例えば図5に示すような絞り込み結果画面35tが表示される。この絞り込み結果画面35tには、運転者Dが顔の向きによって指示した施設、地点や交通情報がリストLとして表示されているので、運転者Dは手動操作によってデータを絞り込むことなく、必要な情報を確認することができる。
On the other hand, if it is determined that there are facilities, points, and traffic information included in the narrowing range Z2 (YES in step S11), the
このように処理を終了すると、ステップS1に戻り、上記した処理を繰り返す。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビECU2は、顔方向検出部6により、運転者Dの顔の向きを検出するようにした。また、自車位置に基づいて自車両周辺の施設又は特定の地点又は交通情報を検索する周辺検索を行った際に、自車位置と運転者Dの顔の向きに応じて、検索データの絞り込み範囲Z2を設定し、周辺検索された施設又は地点又は交通情報の中から、絞り込み範囲Z2に該当する施設又は地点又は交通情報を抽出するようにした。さらに、抽出された検索データ16をタッチパネルディスプレイ35に表示するようにした。このため、周辺検索によって検索されたデータの絞り込みの際に、運転者Dは手動操作をする必要がなく、顔の向きを変えるだけで絞り込みを行うことができる。従って、手動操作で絞り込み操作を行うよりも、運転者Dの手間を軽減することができる。
When the process is thus completed, the process returns to step S1 and the above-described process is repeated.
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the navigation ECU 2 detects the direction of the face of the driver D by the face direction detection unit 6. Further, when performing a peripheral search for searching facilities or specific points or traffic information around the vehicle based on the vehicle position, the search data is narrowed down according to the vehicle position and the direction of the face of the driver D. A range Z2 is set, and facilities, points, or traffic information corresponding to the narrowed range Z2 are extracted from facilities, points, or traffic information searched for in the vicinity. Further, the extracted
(2)上記実施形態では、ナビECU2は、運転者Dの顔の向きを含む所定角度範囲φを絞り込み範囲Z2とするようにした。このため、運転者Dが検索したい方角を的確に判断し、必要性が高いデータを抽出することができる。 (2) In the above embodiment, the navigation ECU 2 sets the predetermined angle range φ including the face direction of the driver D as the narrowing range Z2. For this reason, the direction which the driver | operator D wants to search can be judged accurately, and data with high necessity can be extracted.
(3)上記実施形態では、ナビECU2は、顔方向検出部6により鉛直方向における運転者Dの顔の向きを検出し、鉛直方向の顔の向きに応じて、絞り込み範囲Z2の長さを設定するようにした。このため、運転者Dが比較的遠いところを見ている状態では、絞り込み範囲Z2を長く設定し、比較的近いところを見ている状態では絞り込み範囲Z2を短く設定することができる。従って、運転者Dが検索したい範囲を的確に判断し、必要性が高いデータを抽出することができる。 (3) In the above embodiment, the navigation ECU 2 detects the face direction of the driver D in the vertical direction by the face direction detection unit 6 and sets the length of the narrowing range Z2 according to the face direction in the vertical direction. I tried to do it. For this reason, the narrowing range Z2 can be set long when the driver D is looking at a relatively distant place, and the narrowing range Z2 can be set short when the driver D is looking at a relatively close place. Therefore, it is possible to accurately determine the range that the driver D wants to search, and extract highly necessary data.
(4)上記実施形態では、音声認識部5により、運転者Dの発話を検出及び解析し、その発話内容が所定の絞り込み命令である場合に、自車位置と運転者Dの顔の向きとに応じて検索データ16の絞り込み範囲Z2を設定して、絞り込み範囲Z2に基づき検索データ16の絞り込みを行うようにした。このため、絞り込み条件を手動操作で入力する必要がないので、発話及び顔の向きだけで、運転者Dが検索したい情報を絞り込むことができる。
(4) In the above embodiment, when the
尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、顔方向検出センサ33は、カメラとしたが、その他のセンサでもよい。
In addition, you may change the said embodiment as follows.
In the above embodiment, the face direction detection sensor 33 is a camera, but other sensors may be used.
・上記実施形態では、ドライバーの顔の水平方向の向きと鉛直方向の向きとを検出するようにしたが、水平方向のみでもよい。
・上記実施形態では、交通情報受信部37は、VICSから送信された交通情報を受信するようにしたが、その他のシステムから交通情報、案内情報を受信するようにしてもよい。例えば、FM多重放送を用いるRDS/TMC(Radio Data System/Traffic Message Channel)や、道路近傍に設置された路側機と車載装置との間で通信を行う路車間通信、又は各車載装置の間で通信を行う車車間通信によって交通情報、案内情報を受信するようにしてもよい。
In the above embodiment, the horizontal direction and the vertical direction of the driver's face are detected, but only the horizontal direction may be detected.
In the above embodiment, the traffic information receiving unit 37 receives traffic information transmitted from the VICS, but may receive traffic information and guidance information from other systems. For example, RDS / TMC (Radio Data System / Traffic Message Channel) using FM multiplex broadcasting, road-to-vehicle communication for communication between a roadside device installed in the vicinity of a road and an in-vehicle device, or between each in-vehicle device You may make it receive traffic information and guidance information by vehicle-to-vehicle communication which performs communication.
・上記実施形態では、検索結果をタッチパネルディスプレイ35に表示するようにしたが、出力制御手段としての音声プロセッサ7により、出力手段としてのスピーカ36から音声を出力して検索結果を案内しても良い。
In the above embodiment, the search result is displayed on the
・上記実施形態では、運転者Dの瞳の位置等を検出する視線検出手段を用いて、運転者が見ている方向を検出するようにしてもよい。そして、自車位置と運転者の視線の向きとに応じて検索対象範囲を設定するようにしてもよい。 In the above embodiment, the direction in which the driver is looking may be detected using line-of-sight detection means that detects the position of the driver's D pupil and the like. Then, the search target range may be set according to the vehicle position and the direction of the driver's line of sight.
・周辺検索(ステップS3)の際、さらにジャンルを指定して検索を行うようにしてもよい。 In the vicinity search (step S3), the search may be performed by further specifying the genre.
1a…ナビゲーション装置としてのナビユニット、2…自車位置特定手段、周辺検索手段、顔向き方向検出手段、範囲設定手段、データ抽出手段、制御手段、出力制御手段としてのナビECU、5…音声認識手段としての音声認識部、7…出力制御手段としての音声プロセッサ、15…検索データ記憶手段としての検索データ記憶部、16…検索データ、35…出力手段としてのタッチパネルディスプレイ、36…出力手段としてのスピーカ、D…運転者、Z2…絞り込み範囲。 DESCRIPTION OF SYMBOLS 1a ... Navigation unit as navigation device, 2 ... Own vehicle position specifying means, surrounding search means, face direction detecting means, range setting means, data extracting means, control means, navigation ECU as output control means, 5 ... voice recognition Voice recognition unit as means, 7 ... Voice processor as output control means, 15 ... Search data storage part as search data storage means, 16 ... Search data, 35 ... Touch panel display as output means, 36 ... Output means Speaker, D ... driver, Z2 ... narrowing range.
Claims (6)
自車位置を特定する自車位置特定手段と、
自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、
前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、
抽出された前記検索データを出力手段に出力する出力制御手段と
を備えたことを特徴とするナビゲーション装置。 In a navigation device comprising search data storage means for storing search data, and searching for the search data based on conditions presented by a driver,
Own vehicle position specifying means for specifying the own vehicle position;
Peripheral search means for searching for the search data around the host vehicle based on the host vehicle position;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face;
Data extraction means for extracting the search data corresponding to the narrowing range from search data related to the periphery of the host vehicle searched by the periphery search means;
A navigation apparatus comprising: output control means for outputting the extracted search data to output means.
前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記絞り込み範囲とすることを特徴とするナビゲーション装置。 The navigation device according to claim 1, wherein
The navigation apparatus according to claim 1, wherein the range setting means sets a predetermined angle range including a driver's face direction as the narrowing range.
前記顔向き方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向きに応じて、前記絞り込み範囲の長さを設定することを特徴とするナビゲーション装置。 The navigation device according to claim 1 or 2,
The navigation apparatus according to claim 1, wherein the face direction detection unit detects the direction of the driver's face in the vertical direction and sets the length of the narrowing range according to the face direction in the vertical direction.
前記周辺検索手段により自車両周辺の前記検索データを検索した後に、運転者の発話の有無を判断し、運転者による発話が検出された際に、その発話内容を解析する音声認識手段をさらに備え、
発話内容が絞り込み命令である場合には、前記範囲設定手段は、自車位置と運転者の顔の向きとに応じて、前記検索データの前記絞り込み範囲を設定し、前記データ抽出手段は、前記絞り込み範囲に基づき前記検索データの絞り込みを行うことを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
After searching the search data around the host vehicle by the surrounding search means, it further comprises voice recognition means for determining whether or not the driver utters and analyzing the content of the utterance when the driver utterance is detected. ,
When the utterance content is a refinement command, the range setting means sets the refinement range of the search data according to the own vehicle position and the direction of the driver's face, and the data extraction means A navigation apparatus, wherein the search data is narrowed down based on a narrowing range.
前記制御手段が、
自車位置に基づき、自車両周辺の前記検索データを検索するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて絞り込み範囲を設定し、
検索された自車両周辺に関する前記検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出し、抽出された前記検索データを出力手段に出力することを特徴とするナビゲーション装置の検索方法。 In a search method for a navigation device that searches for search data based on conditions presented by a driver, using search data storage means for storing search data and control means for searching for the search data,
The control means is
Based on the own vehicle position, the search data around the own vehicle is searched, the direction of the driver's face is detected, and the narrowing range is set according to the own vehicle position and the driver's face direction,
A search method for a navigation apparatus, comprising: extracting the search data corresponding to the narrowed-down range from the search data related to the vicinity of the searched vehicle, and outputting the extracted search data to an output unit.
前記制御手段を、
自車位置を特定する自車位置特定手段と、
自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範
囲設定手段と、
前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、
抽出された前記検索データを出力手段に出力する出力制御手段として機能させることを特徴とするナビゲーション装置の検索プログラム。 In a search program for a navigation device that searches for search data based on conditions presented by a driver using search data storage means for storing search data and control means for searching for the search data,
The control means;
Own vehicle position specifying means for specifying the own vehicle position;
Peripheral search means for searching for the search data around the host vehicle based on the host vehicle position;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face;
Data extraction means for extracting the search data corresponding to the narrowing range from search data related to the periphery of the host vehicle searched by the periphery search means;
A search program for a navigation apparatus, which causes the extracted search data to function as output control means for outputting to an output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007143526A JP2008298522A (en) | 2007-05-30 | 2007-05-30 | Navigation apparatus, and method and program for retrieval of navigation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007143526A JP2008298522A (en) | 2007-05-30 | 2007-05-30 | Navigation apparatus, and method and program for retrieval of navigation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008298522A true JP2008298522A (en) | 2008-12-11 |
Family
ID=40172183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007143526A Pending JP2008298522A (en) | 2007-05-30 | 2007-05-30 | Navigation apparatus, and method and program for retrieval of navigation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008298522A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127944A (en) * | 2010-11-24 | 2012-07-05 | Toyota Motor Corp | Information providing device |
JP2013195230A (en) * | 2012-03-19 | 2013-09-30 | Panasonic Corp | Navigation device |
JP2020106997A (en) * | 2018-12-26 | 2020-07-09 | アルパイン株式会社 | In-vehicle device and communication system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005207781A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
JP2006242859A (en) * | 2005-03-04 | 2006-09-14 | Denso Corp | Information display device for vehicle |
JP2006266757A (en) * | 2005-03-22 | 2006-10-05 | Denso Corp | Navigation system |
JP2007047882A (en) * | 2005-08-05 | 2007-02-22 | Honda Motor Co Ltd | Information retrieval device |
JP2007087335A (en) * | 2005-09-26 | 2007-04-05 | Toyota Motor Corp | Driving support device |
-
2007
- 2007-05-30 JP JP2007143526A patent/JP2008298522A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005207781A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
JP2006242859A (en) * | 2005-03-04 | 2006-09-14 | Denso Corp | Information display device for vehicle |
JP2006266757A (en) * | 2005-03-22 | 2006-10-05 | Denso Corp | Navigation system |
JP2007047882A (en) * | 2005-08-05 | 2007-02-22 | Honda Motor Co Ltd | Information retrieval device |
JP2007087335A (en) * | 2005-09-26 | 2007-04-05 | Toyota Motor Corp | Driving support device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127944A (en) * | 2010-11-24 | 2012-07-05 | Toyota Motor Corp | Information providing device |
JP2013195230A (en) * | 2012-03-19 | 2013-09-30 | Panasonic Corp | Navigation device |
JP2020106997A (en) * | 2018-12-26 | 2020-07-09 | アルパイン株式会社 | In-vehicle device and communication system |
JP7233918B2 (en) | 2018-12-26 | 2023-03-07 | アルパイン株式会社 | In-vehicle equipment, communication system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4551961B2 (en) | VOICE INPUT SUPPORT DEVICE, ITS METHOD, ITS PROGRAM, RECORDING MEDIUM RECORDING THE PROGRAM, AND NAVIGATION DEVICE | |
JP3521817B2 (en) | Navigation device | |
JP4622676B2 (en) | Car navigation system | |
JP2004198209A (en) | Navigation equipment and program and recording medium therefor | |
WO2015059812A1 (en) | Movement support device and movement support method | |
JP6695096B2 (en) | POI information providing server, POI information providing device, POI information providing system and program | |
JP5018671B2 (en) | Vehicle navigation device | |
US8886455B2 (en) | Navigation apparatus, audible instruction generation system and method of generating audible instructions | |
JP5056784B2 (en) | Speech recognition system | |
JP2013036930A (en) | Navigation device and navigation system comprising the same | |
JP2008298522A (en) | Navigation apparatus, and method and program for retrieval of navigation apparatus | |
JP2007033209A (en) | Navigation system | |
JP2000338993A (en) | Voice recognition device and navigation system using this device | |
JP2007256020A (en) | Navigation device, navigation method, and navigation program | |
JP2009002784A (en) | Navigation system, its search method, and search program | |
JP4952379B2 (en) | NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM | |
JP4341283B2 (en) | Information terminal device and information acquisition method | |
JP2015175818A (en) | navigation device | |
JP4274913B2 (en) | Destination search device | |
JP2006189345A (en) | Onboard navigation device | |
JP2006023127A (en) | Navigation system, and method for presenting spot-of-concern information | |
JP2017194317A (en) | Information display device and information display method | |
WO2006028171A1 (en) | Data presentation device, data presentation method, data presentation program, and recording medium containing the program | |
JP2008076365A (en) | Navigation apparatus, navigation method, and navigation program | |
JP4985505B2 (en) | Sound output device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20090317 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Effective date: 20110627 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Effective date: 20110705 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20111101 Free format text: JAPANESE INTERMEDIATE CODE: A02 |