JP2008298522A - Navigation apparatus, and method and program for retrieval of navigation apparatus - Google Patents

Navigation apparatus, and method and program for retrieval of navigation apparatus Download PDF

Info

Publication number
JP2008298522A
JP2008298522A JP2007143526A JP2007143526A JP2008298522A JP 2008298522 A JP2008298522 A JP 2008298522A JP 2007143526 A JP2007143526 A JP 2007143526A JP 2007143526 A JP2007143526 A JP 2007143526A JP 2008298522 A JP2008298522 A JP 2008298522A
Authority
JP
Japan
Prior art keywords
search
driver
search data
face
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007143526A
Other languages
Japanese (ja)
Inventor
Teruhiro Nakajima
彰宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007143526A priority Critical patent/JP2008298522A/en
Publication of JP2008298522A publication Critical patent/JP2008298522A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation apparatus which enables its user to easily acquire data in a range which the user intends to, and to provide a method and program for retrieval of the navigation apparatus. <P>SOLUTION: A navigation unit 1a which has a retrieval data storage section 15 for storing retrieval data 16, and retrieving retrieval data 16 based on conditions presented by a driver, includes a navigation ECU 2 for identifying the position of its own vehicle, and retrieving retrieval data 16 around the own vehicle, and a face direction detection section 6 for detecting the direction of the face of the driver. Moreover, according to the position of the own vehicle and the direction of the driver's face, the navigation ECU 2 sets a range of narrowing of retrieval data 16, extracts retrieval data 16 corresponding to the narrowed range from among retrieval data 16 concerning the periphery of the own vehicle, and outputs retrieved retrieval data 16 on a display. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムに関する。   The present invention relates to a navigation device, a navigation device search method, and a search program.

従来よりナビゲーション装置は、施設、特定の地点等を検索するための検索用のデータベースを備え、ユーザが提示した検索条件に基づいてデータベースを検索し、検索されたデータをリスト等にしてディスプレイに出力する。   Conventionally, navigation devices have a search database for searching for facilities, specific points, etc., search the database based on search conditions presented by the user, and output the searched data as a list etc. to the display To do.

例えば「ガソリンスタンド」等の条件でデータベースを検索すると、膨大な量のデータが出力されるため、通常では上記条件に加えて、検索対象の地域名を入力し、地域を限定する等の条件を付加する。しかしこの場合でも、限定された地域に存在する全ての施設等が検索されるため、ユーザにとって必要性が低い情報まで出力されてしまう。   For example, if a database is searched under conditions such as “gas station”, a huge amount of data is output. Normally, in addition to the above conditions, the name of the area to be searched is input and the conditions such as limiting the area are set. Append. However, even in this case, since all the facilities and the like existing in the limited area are searched, information that is less necessary for the user is output.

このように必要性の低いデータまで出力されると、さらにデータを絞り込むための操作回数が多くなるとともに、必要な情報に辿り着くまで時間がかかる等の問題が生じる。これに対し、特許文献1では、自車両の進行方向に存在する周辺施設の検索を行うナビゲーション装置が記載されている。
特開2006−266757号公報
When data having a low necessity is output in this way, there are problems that the number of operations for further narrowing down the data increases and that it takes time to reach the necessary information. On the other hand, Patent Document 1 describes a navigation device that searches for surrounding facilities existing in the traveling direction of the host vehicle.
JP 2006-266757 A

ところが、特許文献1に記載された装置では、進行方向を基準とした所定範囲に存在する施設を検索することができるが、検索時の自車両の進行方向に依存してしまうため、運転者が進行方向を変更する場合や、上記所定範囲以外の施設等を検索したい場合には、適切な検索範囲とはならない。   However, in the device described in Patent Document 1, it is possible to search for facilities existing in a predetermined range based on the traveling direction, but the driver depends on the traveling direction of the own vehicle at the time of the search. When the direction of travel is changed or when it is desired to search for facilities or the like other than the predetermined range, the search range is not appropriate.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、ユーザが意図する範囲のデータを容易に取得することができるナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a navigation device, a navigation device search method, and a search program that can easily acquire data in a range intended by a user. It is in.

上記問題点を解決するために、請求項1に記載の発明は、検索データを記憶する検索データ記憶手段を備え、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置において、自車位置を特定する自車位置特定手段と、自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、抽出された前記検索データを出力手段に出力する出力制御手段とを備えたことを要旨とする。   In order to solve the above problem, the invention described in claim 1 is provided with a search data storage means for storing search data, and in a navigation device for searching for the search data based on a condition presented by a driver. A vehicle position specifying means for specifying the vehicle position; a periphery search means for searching the search data around the vehicle based on the vehicle position; a face direction detecting means for detecting the driver's face direction; The range setting means for setting the search data narrowing range according to the vehicle position and the driver's face orientation, and the search data related to the periphery of the host vehicle searched by the peripheral search means, The gist is provided with data extraction means for extracting the corresponding search data, and output control means for outputting the extracted search data to the output means.

請求項2に記載の発明は、請求項1に記載のナビゲーション装置において、前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記絞り込み範囲とすることを要旨とする。   The gist of the invention according to claim 2 is that, in the navigation device according to claim 1, the range setting means sets a predetermined angle range including a driver's face direction as the narrowing range.

請求項3に記載の発明は、請求項1又は2に記載のナビゲーション装置において、前記
顔方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向きに応じて、前記絞り込み範囲の長さを設定することを要旨とする。
According to a third aspect of the present invention, in the navigation device according to the first or second aspect, the face direction detecting means detects the direction of the driver's face in the vertical direction, and according to the direction of the face in the vertical direction. The gist is to set the length of the narrowing range.

請求項4に記載の発明は、請求項1〜3のいずれか1項に記載のナビゲーション装置において、前記周辺検索手段により自車両周辺の前記検索データを検索した後に、運転者の発話の有無を判断し、運転者による発話が検出された際に、その発話内容を解析する音声認識手段をさらに備え、発話内容が絞り込み命令である場合には、前記範囲設定手段は、自車位置と運転者の顔の向きとに応じて、前記検索データの前記絞り込み範囲を設定し、前記データ抽出手段は、前記絞り込み範囲に基づき前記検索データの絞り込みを行うことを要旨とする。   According to a fourth aspect of the present invention, in the navigation device according to any one of the first to third aspects, after the search data around the host vehicle is searched by the peripheral search means, the presence or absence of the driver's utterance is checked. When the utterance by the driver is detected, voice recognition means for analyzing the utterance content is further provided, and when the utterance content is a refinement command, the range setting means is configured to determine the vehicle position and the driver. The narrowing range of the search data is set according to the orientation of the face, and the data extraction means narrows down the search data based on the narrowing range.

請求項5に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索方法において、前記制御手段が、自車位置に基づき、自車両周辺の前記検索データを検索するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて絞り込み範囲を設定し、検索された自車両周辺に関する前記検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出し、抽出された前記検索データを出力手段に出力することを要旨とする。   The invention according to claim 5 is a navigation device that searches for the search data based on a condition presented by a driver using search data storage means for storing search data and control means for searching for the search data. In the search method, the control means searches the search data around the host vehicle based on the host vehicle position, detects the driver's face direction, and sets the driver's face direction and the driver's face direction. A narrowing range is set accordingly, and the search data corresponding to the narrowing range is extracted from the search data relating to the vicinity of the searched vehicle, and the extracted search data is output to an output unit. And

請求項6に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索プログラムにおいて、前記制御手段を、自車位置を特定する自車位置特定手段と、自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、抽出された前記検索データを出力手段に出力する出力制御手段として機能させることを要旨とする。   The invention according to claim 6 is a navigation device that searches for the search data based on a condition presented by a driver using search data storage means for storing search data and control means for searching for the search data. In the search program, the control means includes: a vehicle position specifying means for specifying the vehicle position; a periphery search means for searching the search data around the vehicle based on the vehicle position; and a direction of the driver's face A direction-of-face detection unit for detecting the direction of the vehicle, a range setting unit for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face, and the periphery of the vehicle searched by the periphery search unit Data extraction means for extracting the search data corresponding to the narrowing range from search data relating to the output, and output control means for outputting the extracted search data to the output means And summarized in that to to function.

請求項1に記載の発明によれば、ナビゲーション装置は、周辺検索が行われた際に、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。   According to the first aspect of the present invention, the navigation device sets the narrowing range according to the direction of the driver's face when the surrounding search is performed, and the facility or point included in the narrowing range or the traffic information Narrow down to etc. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.

請求項2に記載の発明によれば、絞り込み範囲は、運転者の顔の向きを含む所定角度範囲であるので、運転者が検索したい範囲を的確に判断し、必要性の高いデータを抽出することができる。   According to the invention described in claim 2, since the narrowing-down range is a predetermined angle range including the direction of the driver's face, the driver wants to accurately determine the range that the driver wants to search and extract highly necessary data. be able to.

請求項3に記載の発明によれば、絞り込み範囲の長さは、鉛直方向における運転者の顔の向きに応じて設定されるので、運転者が比較的遠いところを見ている状態では、絞り込み範囲を長く設定し、比較的近いところを見ている状態では検索対象範囲を短く設定することができる。   According to the invention described in claim 3, since the length of the narrowing range is set according to the direction of the driver's face in the vertical direction, the narrowing is performed when the driver is looking at a relatively far place. The search range can be set short when the range is set long and when a relatively close place is seen.

請求項4に記載の発明によれば、運転者の発話内容が絞り込み命令である場合には、絞り込み範囲を設定する。このため、絞り込み条件を手動操作で入力する必要がないので、発話及び顔の向きだけで、運転者が検索したい情報を絞り込むことができる。   According to the fourth aspect of the present invention, when the driver's utterance content is a narrowing command, the narrowing range is set. For this reason, since it is not necessary to input the narrow-down condition by manual operation, information that the driver wants to search can be narrowed down only by speaking and face direction.

請求項5に記載の発明によれば、周辺検索が行われた際に、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む
。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。
According to the fifth aspect of the present invention, when a surrounding search is performed, a narrowing range is set according to the orientation of the driver's face, and narrowed down to facilities or points included in the narrowing range or traffic information. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.

請求項6に記載の発明によれば、周辺検索が行われた際に、検索プログラムに基づき、運転者の顔の向きに応じて絞り込み範囲を設定し、絞り込み範囲に含まれる施設又は地点又は交通情報等に絞り込む。このため、運転者の顔の向きによってデータの絞り込みができるので、ユーザが意図する範囲のデータを容易に取得することができる。   According to the invention described in claim 6, when a surrounding search is performed, a narrowing range is set according to the direction of the driver's face based on the search program, and the facility, point or traffic included in the narrowing range We narrow down to information. For this reason, since data can be narrowed down according to the direction of the driver's face, data in a range intended by the user can be easily obtained.

以下、本発明を具体化した一実施形態を図1〜図9に従って説明する。図1は、本実施形態のナビゲーションシステム1の構成を示すブロック図である。
ナビゲーションシステム1は、各種センサ及びタッチパネルディスプレイ35等とデータを送受信するナビゲーション装置としてのナビユニット1aとを備えている。ナビユニット1aは、自車両C(図7参照)に搭載されたナビゲーションECU(以下、単にナビECU2という)を有している。尚、ナビECU2は、自車位置特定手段、周辺検索手段、顔向き方向検出手段、範囲設定手段、データ抽出手段、制御手段、出力制御手段に対応している。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the navigation system 1 of the present embodiment.
The navigation system 1 includes various sensors, a touch panel display 35, and the like, and a navigation unit 1a as a navigation device that transmits and receives data. The navigation unit 1a has a navigation ECU (hereinafter simply referred to as a navigation ECU 2) mounted on the host vehicle C (see FIG. 7). The navigation ECU 2 corresponds to own vehicle position specifying means, surrounding search means, face direction detection means, range setting means, data extraction means, control means, and output control means.

ナビECU2は、GPS(Global Positioning System)アンテナ30が受信した、緯
度・経度等の座標を示す位置検出信号を入力して、電波航法により自車両Cの絶対位置を算出する。また、車両側I/F3を介して、自車に設けられた車速センサ31及びジャイロセンサ32から車速パルス、角速度をそれぞれ入力する。ナビECU2は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。
The navigation ECU 2 inputs a position detection signal indicating coordinates such as latitude and longitude received by a GPS (Global Positioning System) antenna 30 and calculates the absolute position of the host vehicle C by radio wave navigation. In addition, vehicle speed pulses and angular velocities are respectively input from the vehicle speed sensor 31 and the gyro sensor 32 provided in the host vehicle via the vehicle side I / F 3. The navigation ECU 2 calculates a relative position from the reference position by autonomous navigation using vehicle speed pulses and angular velocities, and identifies the own vehicle position in combination with the absolute position calculated by radio wave navigation.

また、ナビゲーションシステム1は、地図データ記憶部10を備えている。地図データ記憶部10は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地図データ記憶部10には、目的地までの経路を探索するための各経路ネットワークデータ(以下、経路データ11という)と、出力手段としてのタッチパネルディスプレイ35に地図画面35aを出力するための各地図描画データ12とが格納されている。   The navigation system 1 includes a map data storage unit 10. The map data storage unit 10 is an external storage medium such as an internal hard disk or an optical disk. In this map data storage unit 10, each route network data for searching for a route to the destination (hereinafter referred to as route data 11) and each for outputting a map screen 35a to a touch panel display 35 as an output means. Map drawing data 12 is stored.

経路データ11は、全国を区画したメッシュ内の道路に関するデータである。図2(a)に示すように、経路データ11は、各メッシュの識別子であるメッシュID11aと、メッシュ内の各リンクの識別子を示すリンクID11bとを有している。ノードは、交差点、インターチェンジ、道路の端点等を示し、リンクは各ノードを接続するデータ要素である。   The route data 11 is data relating to roads in the mesh that divides the whole country. As shown in FIG. 2A, the route data 11 includes a mesh ID 11a that is an identifier of each mesh and a link ID 11b that indicates an identifier of each link in the mesh. Nodes indicate intersections, interchanges, road end points, and the like, and links are data elements that connect the nodes.

また、リンクID11bには、リンクの始点及び終点を示すノードのノード座標11c、道路の種別を示す道路種別11d、経路探索のためのリンクコスト11e等が関連付けられている。   The link ID 11b is associated with node coordinates 11c of a node indicating the start and end points of the link, a road type 11d indicating the type of road, a link cost 11e for route search, and the like.

また、地図描画データ12は、全国の地図を分割したメッシュ毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図2(b)に示すように、地図描画データ12は、メッシュID12a、道路、市街地等を描画するための背景データ12b、形状補間データ、道路幅等の道路形状を示す道路データ12c等を有している。   Further, the map drawing data 12 is stored for each mesh obtained by dividing a map of the whole country, and is divided for each layer from a wide area map to a narrow area map. As shown in FIG. 2B, the map drawing data 12 includes a mesh ID 12a, background data 12b for drawing roads, urban areas, etc., shape interpolation data, road data 12c indicating road shapes such as road widths, and the like. is doing.

また、ナビゲーションシステム1は、地図描画処理部4(図1参照)を備えている。地図描画処理部4は、自車位置周辺の地図を描画するための地図描画データ12を地図データ記憶部10から読出し、出力用のデータを生成する。また、出力用データに基づく映像信号をタッチパネルディスプレイ35に出力し、図1に示すような地図画面35aを表示
する。また、地図描画処理部4は、この地図画面35aのうち、自車両Cの現在位置に相当する位置に、自車指標35bを重畳する。
The navigation system 1 includes a map drawing processing unit 4 (see FIG. 1). The map drawing processing unit 4 reads map drawing data 12 for drawing a map around the vehicle position from the map data storage unit 10 and generates output data. Further, a video signal based on the output data is output to the touch panel display 35, and a map screen 35a as shown in FIG. 1 is displayed. Further, the map drawing processing unit 4 superimposes the host vehicle index 35b on a position corresponding to the current position of the host vehicle C in the map screen 35a.

また、ナビECU2は、交通情報受信部37を備えている。交通情報受信部37は、例えば、道路近傍に設置され、VICS(登録商標、Vehicle Information and Communication System)を構成するビーコン等から、その周辺の渋滞情報等を受信する。ナビECU2は、交通情報受信部37から交通情報を受信すると、内蔵するメモリ等にその交通情報を一時記憶する。また、この交通情報に基づいて、地図画面35a上に渋滞区間を強調表示したり、推奨する経路を変更する。尚、交通情報を記憶する上記メモリは、検索データ記憶手段に該当する。   The navigation ECU 2 also includes a traffic information receiving unit 37. The traffic information receiving unit 37 is installed in the vicinity of a road, for example, and receives traffic information and the like around the beacon and the like constituting VICS (registered trademark, Vehicle Information and Communication System). When the navigation ECU 2 receives traffic information from the traffic information receiving unit 37, the navigation ECU 2 temporarily stores the traffic information in a built-in memory or the like. Further, based on this traffic information, a traffic jam section is highlighted on the map screen 35a or a recommended route is changed. The memory for storing traffic information corresponds to search data storage means.

さらに、ナビECU2は、タッチパネルディスプレイ35の図示しないコントローラからタッチパネルに接触したユーザの指の接触位置を入力する。また、ナビECU2は、タッチパネルディスプレイ35に隣設された音声入力ボタンBや、ステアリングコラム等に設けられた、音声認識を実行するための音声入力ボタン(図示略)が操作された際に、各音声入力ボタンBから、操作が行われたことを示す検出信号を入力する。   Further, the navigation ECU 2 inputs the contact position of the user's finger that has touched the touch panel from a controller (not shown) of the touch panel display 35. In addition, the navigation ECU 2 operates each time when a voice input button B provided adjacent to the touch panel display 35 or a voice input button (not shown) provided on the steering column or the like for performing voice recognition is operated. A detection signal indicating that an operation has been performed is input from the voice input button B.

ナビECU2は、タッチパネル操作、又は音声入力ボタンBの押釦による音声認識の実行命令を入力すると、音声認識手段としての音声認識部5を制御して、運転者(ユーザ)による発話を待機する。尚、運転者は、音声認識によって施設、地点等の検索を行う際に、自車両Cに対する方向で検索データを絞り込みたい場合には、その方向を向いて発話するようになっている。   When the navigation ECU 2 inputs a voice recognition execution command by a touch panel operation or a push button of the voice input button B, the navigation ECU 2 controls the voice recognition unit 5 as voice recognition means and waits for the utterance by the driver (user). Note that when searching for facilities, points, and the like by voice recognition, the driver speaks in that direction when he wants to narrow down the search data in the direction relative to the own vehicle C.

音声認識部5は、音声認識用LSI、音声認識データベース等(図示略)を備えている。音声認識部5は、車室内に設けられたマイク34(図1参照)から運転者の発話に基づく音声信号を入力する。音声認識データベースには、音響モデル、認識辞書、言語モデル等が記憶されている。音声認識部5は、音響モデルを用いて、音声の特徴量と音素とを関連付け、認識辞書を照合して、検出した音素列と対応付けられた単語を検索する。さらに、言語モデルによって、検出した単語間の接続確率や、係り受け関係を検証する。そして、各単語の接続する確率が高い場合には認識結果を確定する。認識結果が確定されると、音声認識部5は、認識結果をナビECU2に出力し、ナビECU2は、認識結果に基づくコマンドを、各種制御回路に出力する。   The voice recognition unit 5 includes a voice recognition LSI, a voice recognition database, and the like (not shown). The voice recognition unit 5 inputs a voice signal based on the driver's utterance from a microphone 34 (see FIG. 1) provided in the passenger compartment. The voice recognition database stores an acoustic model, a recognition dictionary, a language model, and the like. Using the acoustic model, the speech recognition unit 5 associates the feature amount of the speech with the phoneme, collates the recognition dictionary, and searches for a word associated with the detected phoneme sequence. Furthermore, the connection probability and the dependency relation between the detected words are verified by the language model. Then, when the probability that each word is connected is high, the recognition result is determined. When the recognition result is confirmed, the voice recognition unit 5 outputs the recognition result to the navigation ECU 2, and the navigation ECU 2 outputs a command based on the recognition result to various control circuits.

また、ナビECU2は、検索データ記憶手段としての検索データ記憶部15に記憶された検索データ16を用いて、施設、地点等を検索する。図3に示すように、検索データ16は、管理ヘッダ16a、ジャンル定義データ16b、検索対象データ16c、座標データ16dを有している。管理ヘッダ16aは管理用のデータである。ジャンル定義データ16bは、「空港」、「ガソリンスタンド」、「名所・旧跡」等の施設や特定の地点を検索するためのジャンルや、住所、電話番号、郵便番号等のデータである。検索対象データ16cは、施設名称、地点名称等のデータである。座標データ16dは、その施設又は地点の座標を示すデータである。   Further, the navigation ECU 2 searches for facilities, points, and the like using the search data 16 stored in the search data storage unit 15 as search data storage means. As shown in FIG. 3, the search data 16 has a management header 16a, genre definition data 16b, search target data 16c, and coordinate data 16d. The management header 16a is management data. The genre definition data 16b is data such as a genre for searching for facilities such as “airport”, “gas station”, “famous place / historic site” and a specific point, an address, a telephone number, and a postal code. The search target data 16c is data such as a facility name and a spot name. The coordinate data 16d is data indicating the coordinates of the facility or point.

ナビECU2は、タッチパネル操作又は音声認識によって、運転者が指定するジャンル、住所等の検索条件を取得すると、その検索条件に基づき、検索データ記憶部15内を検索する。また、運転者の操作により「周辺検索」が指定されると、ナビECU2は、自車位置周辺の施設又は特定の地点を検索する。このとき、ナビECU2は、自車位置の緯度及び経度に基づいて、自車位置から所定距離内の施設又は特定の地点を検索データ16を用いて検索する。又は、自車位置が含まれるメッシュのID等に基づき、自車位置周辺のメッシュを特定し、そのメッシュに含まれる施設又は特定の地点を検索する。   When the navigation ECU 2 acquires search conditions such as a genre and an address designated by the driver by touch panel operation or voice recognition, the navigation ECU 2 searches the search data storage unit 15 based on the search conditions. Further, when “peripheral search” is designated by the driver's operation, the navigation ECU 2 searches for a facility or a specific point around the vehicle position. At this time, the navigation ECU 2 uses the search data 16 to search for facilities or specific points within a predetermined distance from the vehicle position based on the latitude and longitude of the vehicle position. Alternatively, the mesh around the vehicle position is specified based on the ID of the mesh including the vehicle position, and the facility or specific point included in the mesh is searched.

自車位置周辺の検索データ16を検索すると、検索により抽出した検索データ16を用いてリストを作成し、例えば図4に示すような検索リスト画面35pをタッチパネルディスプレイ35に表示する。検索リスト画面35pでは、抽出された検索対象データ16cに含まれる施設名称等をリストLとして表示している。リスト表示されたこれらの施設や地点は、方角等を指定せずに検索された施設又は地点である。また、検索リスト画面35pの隣には、各施設又は各地点が、自車位置からみてどの方向にあるかを示す方向表示部35qがそれぞれ表示されている。尚、周辺検索結果を示す画面は、検索リスト画面35p以外の表示形式の画面でもよい。   When the search data 16 around the vehicle position is searched, a list is created using the search data 16 extracted by the search, and a search list screen 35p as shown in FIG. 4 is displayed on the touch panel display 35, for example. On the search list screen 35p, facility names and the like included in the extracted search target data 16c are displayed as a list L. These facilities and points displayed in the list are facilities or points searched without specifying a direction or the like. In addition, next to the search list screen 35p, a direction display portion 35q is displayed that indicates in which direction each facility or each point is seen from the vehicle position. The screen showing the peripheral search result may be a screen having a display format other than the search list screen 35p.

また、図1に示すように、ナビユニット1aは、音声プロセッサ7及び顔方向検出部6を備えている。音声プロセッサ7は、音声データ等を記憶しており、渋滞情報等の各種音声をスピーカ36から出力する。   As shown in FIG. 1, the navigation unit 1 a includes an audio processor 7 and a face direction detection unit 6. The sound processor 7 stores sound data and the like, and outputs various sounds such as traffic jam information from the speaker 36.

顔方向検出部6は、自車両Cに設けられた顔方向検出センサ33から、顔の向きを示す検出信号を受信する。顔方向検出センサ33は、本実施形態ではカメラから構成される。この顔方向検出センサ33は、例えば車室内であって、運転席S(図6参照)に着座した運転者Dの顔を撮影可能に取り付けられている。顔方向検出部6は、顔方向検出センサ33が取得した画像データに基づき、公知の画像処理によって、運転者Dの顔の水平方向(図6中x方向及びy方向)の向き及び鉛直方向(図6中z方向)の向きを検出する。   The face direction detection unit 6 receives a detection signal indicating the face direction from the face direction detection sensor 33 provided in the host vehicle C. The face direction detection sensor 33 is constituted by a camera in this embodiment. The face direction detection sensor 33 is attached, for example, in the passenger compartment so that the face of the driver D seated in the driver's seat S (see FIG. 6) can be photographed. The face direction detection unit 6 performs the horizontal direction (x direction and y direction in FIG. 6) of the face of the driver D and the vertical direction (known as image processing) based on the image data acquired by the face direction detection sensor 33. The direction in the z direction in FIG. 6 is detected.

水平方向の向きを検出する場合には、例えば、図5に示す基準方向Diを向いた運転者Dの顔を撮影し、それをテンプレートとして予めメモリに記憶する。また、顔方向検出センサ33が新たに撮影を行うと、新たに取得した画像データと該テンプレートとを比較して、運転者Dの顔の水平方向の向きを演算する。又は、運転者Dの顔を撮影した画像データに対し、エッジ検出や、特徴点抽出処理を行い、顔の方向を検出するようにしても良い。このとき、顔方向検出部6は、図6に示すように、顔の向きD1の基準方向Diに対する相対角度θ1又は相対方位(ベクトル)を演算する。顔の向きD1の相対角度θ1又は相対方位を演算すると、顔方向検出部6は、ナビECU2に相対角度θ1又は相対方位を出力する。   In the case of detecting the horizontal direction, for example, the face of the driver D facing the reference direction Di shown in FIG. 5 is photographed and stored in advance in the memory as a template. Further, when the face direction detection sensor 33 newly captures an image, the newly acquired image data is compared with the template to calculate the horizontal direction of the face of the driver D. Alternatively, edge detection or feature point extraction processing may be performed on the image data obtained by capturing the face of the driver D to detect the face direction. At this time, as shown in FIG. 6, the face direction detection unit 6 calculates a relative angle θ1 or a relative direction (vector) of the face direction D1 with respect to the reference direction Di. When the relative angle θ1 or relative orientation of the face direction D1 is calculated, the face direction detection unit 6 outputs the relative angle θ1 or relative orientation to the navigation ECU 2.

鉛直方向の顔の向きを検出する場合も、同様に公知の画像処理方法を用いる。例えば、新たに顔方向検出センサ33から画像データを入力した際に、その画像データと基準方向を向いた運転者Dの顔を撮影したテンプレートとを比較し、顔の俯角又は仰角を演算する。このとき、ナビECU2は、図8に示すように基準位置を向いた運転者Dの顔の向き(図中Di方向)に対する相対角度θ3を算出する。運転者Dが比較的遠方をみている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)上方、即ち仰角になる。運転者Dが自車両Cの近くを見ている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)下方、即ち俯角になる。   Similarly, a known image processing method is used to detect the face direction in the vertical direction. For example, when image data is newly input from the face direction detection sensor 33, the image data is compared with a template obtained by photographing the face of the driver D facing the reference direction, and the depression angle or elevation angle of the face is calculated. At this time, the navigation ECU 2 calculates a relative angle θ3 with respect to the face direction (Di direction in the figure) of the driver D facing the reference position as shown in FIG. In a state in which the driver D is looking relatively far, the relative angle θ3 is higher in the vertical direction (z direction) than the reference direction Di, that is, the elevation angle. In a state where the driver D is looking near the host vehicle C, the relative angle θ3 is a vertical direction (z direction) lower than the reference direction Di, that is, a depression angle.

ナビECU2は、顔方向検出部6から取得した相対角度θ1,θ3又は相対方位を用いて、上記した周辺検索による検索結果を、方角によって絞り込むための絞り込み範囲を設定する。具体的には、ナビECU2は、自車位置と、自車両Cの路面に対する進行方向とを取得し、自車両Cの自車位置及び進行方向に基づき、運転者Dの顔の向きを、路面座標系の軸(図7ではX軸)に対する絶対方向に変換する。このとき、図7に示すように、例えば、顔方向検出部6から取得した水平方向の相対角度θ1又は相対方位に、自車両Cの方向を加味して、運転者Dの顔の向きを絶対角度θ2又は絶対方位として算出する。   The navigation ECU 2 uses the relative angles θ1, θ3 or the relative orientation acquired from the face direction detection unit 6 to set a narrowing range for narrowing down the search result by the above-described peripheral search according to the direction. Specifically, the navigation ECU 2 acquires the host vehicle position and the traveling direction of the host vehicle C with respect to the road surface, and determines the direction of the face of the driver D based on the host vehicle position and the traveling direction of the host vehicle C. Conversion to an absolute direction with respect to the axis of the coordinate system (X axis in FIG. 7). At this time, as shown in FIG. 7, for example, the direction of the host vehicle C is added to the horizontal relative angle θ1 or the relative direction acquired from the face direction detection unit 6, and the face direction of the driver D is absolute. Calculated as the angle θ2 or absolute azimuth.

さらに、ナビECU2は、自車位置を中心点とし、顔の向きD1の絶対方向を中心とした所定角度範囲φ(例えば45°)の扇形の対象エリアAを算出する。さらに、経路データ11を用いて、対象エリアA内の道路に沿って自車位置から所定距離L1以内のエリア
を、絞り込み範囲Z2とする。このとき、ナビECU2は、鉛直方向の顔の向きを示す相対角度θ3に基づき、相対角度θ3が基準方向(図8中Di方向)に対して仰角(上方)である場合には、所定距離L1を比較的長く設定し(例えば5km)、俯角(下方)である場合には、所定距離L1を比較的短く設定する(例えば2km)。
Further, the navigation ECU 2 calculates a fan-shaped target area A having a predetermined angle range φ (for example, 45 °) centered on the absolute position of the face direction D1 with the vehicle position as the center point. Furthermore, using the route data 11, an area within a predetermined distance L1 from the vehicle position along the road in the target area A is set as a narrowing range Z2. At this time, the navigation ECU 2 determines the predetermined distance L1 when the relative angle θ3 is an elevation angle (upward) with respect to the reference direction (Di direction in FIG. 8) based on the relative angle θ3 indicating the face direction in the vertical direction. Is set relatively long (for example, 5 km), and when it is a depression angle (downward), the predetermined distance L1 is set to be relatively short (for example, 2 km).

このように絞り込み範囲Z2が設定されると、ナビECU2は、絞り込み範囲Z2に基づき、周辺検索で検索された施設又は地点や、交通情報の絞り込みを行う。このとき、既に周辺検索によって抽出された検索データ16の座標データ16d等を用いて、絞り込み範囲Z2に含まれる検索データ16を絞り込む。また、交通情報の絞り込みを行う際には、交通情報受信部37から取得し、ナビECU2に記憶された交通情報のうち、絞り込み範囲Z2に含まれる渋滞情報や案内情報があるか否かを交通情報に含まれるデータに基づき判断し、該当する交通情報がある場合には、その交通情報を抽出する。   When the narrowing range Z2 is set in this way, the navigation ECU 2 narrows down the facilities or points searched by the peripheral search and the traffic information based on the narrowing range Z2. At this time, the search data 16 included in the narrow-down range Z2 is narrowed down using the coordinate data 16d of the search data 16 already extracted by the peripheral search. Further, when narrowing down the traffic information, it is determined whether the traffic information acquired from the traffic information receiving unit 37 and stored in the navigation ECU 2 includes traffic jam information and guidance information included in the narrowed-down range Z2. Judgment is made based on the data included in the information, and if there is applicable traffic information, the traffic information is extracted.

次に本実施形態の処理手順について、図9に従って説明する。ナビECU2は、自車両Cの現在位置を取得する(ステップS1)。また、タッチパネル操作、音声認識等により、周辺検索が指定されているか否かを判断する(ステップS2)。   Next, the processing procedure of this embodiment is demonstrated according to FIG. The navigation ECU 2 acquires the current position of the host vehicle C (step S1). Further, it is determined whether or not a peripheral search is designated by a touch panel operation, voice recognition, or the like (step S2).

周辺検索が指定されていると判断した場合には(ステップS2においてYES)、自車位置に基づき、自車位置周辺の施設又は地点を検索する周辺検索を上記した手順で行う(ステップS3)。さらに、周辺検索の結果、抽出された施設又は地点をリストLとして検索リスト画面35pに表示する(ステップS4)。尚、自車位置周辺の交通情報が検索された場合には、交通情報を地点名称とともに画面に表示したり、地図画面35aに表示された道路沿いに表示する。   If it is determined that the peripheral search is designated (YES in step S2), the peripheral search for searching for a facility or a spot around the vehicle position based on the vehicle position is performed according to the procedure described above (step S3). Further, the facilities or points extracted as a result of the peripheral search are displayed as a list L on the search list screen 35p (step S4). In addition, when the traffic information around the own vehicle position is searched, the traffic information is displayed on the screen together with the location name, or is displayed along the road displayed on the map screen 35a.

さらに、ナビECU2は、音声入力ボタンBの操作が行われたか否かを判断する(ステップS5)。音声入力ボタンBの操作が行われていない間は(ステップS5においてNO)、リストLの表示を継続する。このとき地図画面35aに戻るためのタッチパネル操作が行われた場合等には、その割り込み指令を実行する。   Further, the navigation ECU 2 determines whether or not the operation of the voice input button B has been performed (step S5). While the voice input button B is not being operated (NO in step S5), the display of the list L is continued. At this time, when a touch panel operation for returning to the map screen 35a is performed, the interruption instruction is executed.

音声入力ボタンBが操作されたと判断すると(ステップS5においてYES)、ナビECU2は、顔方向検出部6から、ドライバーの顔の向きを検出する(ステップS6)。本実施形態では、上記したように、基準方向に対する水平方向の相対角度θ1,θ3又は相対方位を取得する。   If it is determined that the voice input button B has been operated (YES in step S5), the navigation ECU 2 detects the face direction of the driver from the face direction detection unit 6 (step S6). In the present embodiment, as described above, the horizontal relative angles θ1 and θ3 or the relative orientation with respect to the reference direction are acquired.

また、ナビECU2は、運転者Dにより、方向を指示する発話の有無を判断する(ステップS7)。具体的には、音声認識部5により、運転者Dの発話内容を解析して、予め定められた絞り込み命令のコマンドと一致するか否かを判断する。例えば、方向を指示するコマンドが、「この方向」である場合、音声認識部5は、運転者Dの発話内容が「この方向」と一致するか否かを判断する。   Further, the navigation ECU 2 determines whether or not there is an utterance instructing the direction by the driver D (step S7). Specifically, the speech recognition unit 5 analyzes the utterance content of the driver D, and determines whether or not it matches a command of a predetermined narrowing-down command. For example, when the command for instructing the direction is “this direction”, the voice recognition unit 5 determines whether the utterance content of the driver D matches “this direction”.

音声認識の結果、方向を指示する発話内容を検出しない場合には(ステップS7においてNO)、音声入力ボタンBの操作から所定時間(例えば10秒)が経過したか否かを判断する(ステップS8)。所定時間が経過したと判断した場合には(ステップS8においてYES)、音声の入力待ち状態を解除して(ステップS9)、ステップS4に戻る。所定時間が経過していないと判断した場合には(ステップS8においてNO)、ステップS6に戻り、顔の向きを再び検出する。   As a result of the speech recognition, when the utterance content indicating the direction is not detected (NO in step S7), it is determined whether or not a predetermined time (for example, 10 seconds) has elapsed since the operation of the speech input button B (step S8). ). If it is determined that the predetermined time has elapsed (YES in step S8), the voice input waiting state is canceled (step S9), and the process returns to step S4. If it is determined that the predetermined time has not elapsed (NO in step S8), the process returns to step S6, and the face orientation is detected again.

一方、音声認識の結果、方向を指示する発話内容を検出すると(ステップS7においてYES)、絞り込み範囲Z2を設定する(ステップS10)。このとき、上記したように、ドライバーの顔の向きを示す水平方向の相対角度θ1又は相対方位に自車両Cの絶対方
向を加味して、絶対角度θ2又は絶対方位を算出する。さらに、図7に示すように顔の向きD1を中心に所定角度範囲φ(例えば45°)の扇形の対象エリアAを算出する。また、経路データ11を用いて、対象エリアA内に含まれる道路沿いに所定距離L1以内のエリアを、施設や特定の地点、交通情報の絞り込み範囲Z2とする。このとき、所定距離L1は、鉛直方向の顔の向きを示す相対角度θ3に基づき設定する。
On the other hand, as a result of the speech recognition, when the utterance content indicating the direction is detected (YES in step S7), a narrowing range Z2 is set (step S10). At this time, as described above, the absolute angle θ2 or the absolute azimuth is calculated by adding the absolute direction of the host vehicle C to the horizontal relative angle θ1 or the relative azimuth indicating the direction of the face of the driver. Further, as shown in FIG. 7, a fan-shaped target area A having a predetermined angle range φ (for example, 45 °) around the face direction D1 is calculated. Further, using the route data 11, an area within the predetermined distance L1 along the road included in the target area A is set as a facility, a specific point, and a traffic information narrowing range Z2. At this time, the predetermined distance L1 is set based on a relative angle θ3 indicating the face direction in the vertical direction.

また、ナビECU2は、リストLに含まれる施設、地点や交通情報のうち、絞り込み範囲Z2に含まれる施設、地点や交通情報があるか否かを判断する(ステップS11)。絞り込み範囲Z2に含まれる施設、地点や交通情報が無いと判断した場合には(ステップS11においてNO)、運転者Dが指定する方角であって、自車両周辺の施設等がないことを示す検索結果をタッチパネルディスプレイ35に表示する(ステップS12)。   In addition, the navigation ECU 2 determines whether there are facilities, points, and traffic information included in the narrowing range Z2 among facilities, points, and traffic information included in the list L (step S11). When it is determined that there is no facility, point, or traffic information included in the narrowing range Z2 (NO in step S11), the direction specified by the driver D and a search indicating that there is no facility around the host vehicle The result is displayed on the touch panel display 35 (step S12).

一方、絞り込み範囲Z2に含まれる施設、地点や交通情報があると判断した場合には(ステップS11においてYES)、絞り込み範囲Z2に含まれる施設、地点や交通情報の検索データ16を抽出する(ステップS13)。また、抽出された施設、地点や交通情報のリストLをタッチパネルディスプレイ35に表示する(ステップS14)。その結果、例えば図5に示すような絞り込み結果画面35tが表示される。この絞り込み結果画面35tには、運転者Dが顔の向きによって指示した施設、地点や交通情報がリストLとして表示されているので、運転者Dは手動操作によってデータを絞り込むことなく、必要な情報を確認することができる。   On the other hand, if it is determined that there are facilities, points, and traffic information included in the narrowing range Z2 (YES in step S11), the search data 16 of the facilities, points, and traffic information included in the narrowing range Z2 is extracted (step S11). S13). Further, a list L of the extracted facilities, points, and traffic information is displayed on the touch panel display 35 (step S14). As a result, for example, a narrowing result screen 35t as shown in FIG. 5 is displayed. In this narrowing-down result screen 35t, facilities, points, and traffic information indicated by the driver D according to the direction of the face are displayed as a list L. Therefore, the driver D does not narrow down the data by manual operation, but the necessary information. Can be confirmed.

このように処理を終了すると、ステップS1に戻り、上記した処理を繰り返す。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビECU2は、顔方向検出部6により、運転者Dの顔の向きを検出するようにした。また、自車位置に基づいて自車両周辺の施設又は特定の地点又は交通情報を検索する周辺検索を行った際に、自車位置と運転者Dの顔の向きに応じて、検索データの絞り込み範囲Z2を設定し、周辺検索された施設又は地点又は交通情報の中から、絞り込み範囲Z2に該当する施設又は地点又は交通情報を抽出するようにした。さらに、抽出された検索データ16をタッチパネルディスプレイ35に表示するようにした。このため、周辺検索によって検索されたデータの絞り込みの際に、運転者Dは手動操作をする必要がなく、顔の向きを変えるだけで絞り込みを行うことができる。従って、手動操作で絞り込み操作を行うよりも、運転者Dの手間を軽減することができる。
When the process is thus completed, the process returns to step S1 and the above-described process is repeated.
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the navigation ECU 2 detects the direction of the face of the driver D by the face direction detection unit 6. Further, when performing a peripheral search for searching facilities or specific points or traffic information around the vehicle based on the vehicle position, the search data is narrowed down according to the vehicle position and the direction of the face of the driver D. A range Z2 is set, and facilities, points, or traffic information corresponding to the narrowed range Z2 are extracted from facilities, points, or traffic information searched for in the vicinity. Further, the extracted search data 16 is displayed on the touch panel display 35. For this reason, when narrowing down the data retrieved by the peripheral search, the driver D does not need to perform a manual operation, and can narrow down only by changing the direction of the face. Therefore, it is possible to reduce the time and effort of the driver D compared to performing the narrowing operation by manual operation.

(2)上記実施形態では、ナビECU2は、運転者Dの顔の向きを含む所定角度範囲φを絞り込み範囲Z2とするようにした。このため、運転者Dが検索したい方角を的確に判断し、必要性が高いデータを抽出することができる。   (2) In the above embodiment, the navigation ECU 2 sets the predetermined angle range φ including the face direction of the driver D as the narrowing range Z2. For this reason, the direction which the driver | operator D wants to search can be judged accurately, and data with high necessity can be extracted.

(3)上記実施形態では、ナビECU2は、顔方向検出部6により鉛直方向における運転者Dの顔の向きを検出し、鉛直方向の顔の向きに応じて、絞り込み範囲Z2の長さを設定するようにした。このため、運転者Dが比較的遠いところを見ている状態では、絞り込み範囲Z2を長く設定し、比較的近いところを見ている状態では絞り込み範囲Z2を短く設定することができる。従って、運転者Dが検索したい範囲を的確に判断し、必要性が高いデータを抽出することができる。   (3) In the above embodiment, the navigation ECU 2 detects the face direction of the driver D in the vertical direction by the face direction detection unit 6 and sets the length of the narrowing range Z2 according to the face direction in the vertical direction. I tried to do it. For this reason, the narrowing range Z2 can be set long when the driver D is looking at a relatively distant place, and the narrowing range Z2 can be set short when the driver D is looking at a relatively close place. Therefore, it is possible to accurately determine the range that the driver D wants to search, and extract highly necessary data.

(4)上記実施形態では、音声認識部5により、運転者Dの発話を検出及び解析し、その発話内容が所定の絞り込み命令である場合に、自車位置と運転者Dの顔の向きとに応じて検索データ16の絞り込み範囲Z2を設定して、絞り込み範囲Z2に基づき検索データ16の絞り込みを行うようにした。このため、絞り込み条件を手動操作で入力する必要がないので、発話及び顔の向きだけで、運転者Dが検索したい情報を絞り込むことができる。   (4) In the above embodiment, when the speech recognition unit 5 detects and analyzes the utterance of the driver D and the utterance content is a predetermined narrowing command, the vehicle position and the direction of the face of the driver D Accordingly, the narrowing range Z2 of the search data 16 is set, and the search data 16 is narrowed down based on the narrowing range Z2. For this reason, since it is not necessary to input the narrowing-down condition by manual operation, the information that the driver D wants to search can be narrowed down only by the utterance and the face direction.

尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、顔方向検出センサ33は、カメラとしたが、その他のセンサでもよい。
In addition, you may change the said embodiment as follows.
In the above embodiment, the face direction detection sensor 33 is a camera, but other sensors may be used.

・上記実施形態では、ドライバーの顔の水平方向の向きと鉛直方向の向きとを検出するようにしたが、水平方向のみでもよい。
・上記実施形態では、交通情報受信部37は、VICSから送信された交通情報を受信するようにしたが、その他のシステムから交通情報、案内情報を受信するようにしてもよい。例えば、FM多重放送を用いるRDS/TMC(Radio Data System/Traffic Message Channel)や、道路近傍に設置された路側機と車載装置との間で通信を行う路車間通信、又は各車載装置の間で通信を行う車車間通信によって交通情報、案内情報を受信するようにしてもよい。
In the above embodiment, the horizontal direction and the vertical direction of the driver's face are detected, but only the horizontal direction may be detected.
In the above embodiment, the traffic information receiving unit 37 receives traffic information transmitted from the VICS, but may receive traffic information and guidance information from other systems. For example, RDS / TMC (Radio Data System / Traffic Message Channel) using FM multiplex broadcasting, road-to-vehicle communication for communication between a roadside device installed in the vicinity of a road and an in-vehicle device, or between each in-vehicle device You may make it receive traffic information and guidance information by vehicle-to-vehicle communication which performs communication.

・上記実施形態では、検索結果をタッチパネルディスプレイ35に表示するようにしたが、出力制御手段としての音声プロセッサ7により、出力手段としてのスピーカ36から音声を出力して検索結果を案内しても良い。   In the above embodiment, the search result is displayed on the touch panel display 35. However, the voice processor 7 as the output control means may output the voice from the speaker 36 as the output means to guide the search result. .

・上記実施形態では、運転者Dの瞳の位置等を検出する視線検出手段を用いて、運転者が見ている方向を検出するようにしてもよい。そして、自車位置と運転者の視線の向きとに応じて検索対象範囲を設定するようにしてもよい。   In the above embodiment, the direction in which the driver is looking may be detected using line-of-sight detection means that detects the position of the driver's D pupil and the like. Then, the search target range may be set according to the vehicle position and the direction of the driver's line of sight.

・周辺検索(ステップS3)の際、さらにジャンルを指定して検索を行うようにしてもよい。   In the vicinity search (step S3), the search may be performed by further specifying the genre.

本実施形態のナビゲーションシステムのブロック図。The block diagram of the navigation system of this embodiment. (a)は経路データ、(b)は地図描画データの説明図。(A) is route data, (b) is explanatory drawing of map drawing data. 検索データの説明図。Explanatory drawing of search data. ディスプレイに表示される検索リスト画面の画面図。The screen figure of the search list screen displayed on a display. 絞り込み結果画面の画面図。The screen figure of a refinement result screen. 運転者の水平方向の顔の向きを検出する処理の説明図。Explanatory drawing of the process which detects the direction of a driver | operator's horizontal face. 顔の向きを示す相対方向を路面に対する絶対方向に変換する処理の説明図。Explanatory drawing of the process which converts the relative direction which shows direction of a face into the absolute direction with respect to a road surface. 運転者の鉛直方向の顔の向きを検出する処理の説明図。Explanatory drawing of the process which detects the direction of a driver | operator's vertical face. 本実施形態の処理手順を示すフロー。The flow which shows the process sequence of this embodiment.

符号の説明Explanation of symbols

1a…ナビゲーション装置としてのナビユニット、2…自車位置特定手段、周辺検索手段、顔向き方向検出手段、範囲設定手段、データ抽出手段、制御手段、出力制御手段としてのナビECU、5…音声認識手段としての音声認識部、7…出力制御手段としての音声プロセッサ、15…検索データ記憶手段としての検索データ記憶部、16…検索データ、35…出力手段としてのタッチパネルディスプレイ、36…出力手段としてのスピーカ、D…運転者、Z2…絞り込み範囲。   DESCRIPTION OF SYMBOLS 1a ... Navigation unit as navigation device, 2 ... Own vehicle position specifying means, surrounding search means, face direction detecting means, range setting means, data extracting means, control means, navigation ECU as output control means, 5 ... voice recognition Voice recognition unit as means, 7 ... Voice processor as output control means, 15 ... Search data storage part as search data storage means, 16 ... Search data, 35 ... Touch panel display as output means, 36 ... Output means Speaker, D ... driver, Z2 ... narrowing range.

Claims (6)

検索データを記憶する検索データ記憶手段を備え、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置において、
自車位置を特定する自車位置特定手段と、
自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範囲設定手段と、
前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、
抽出された前記検索データを出力手段に出力する出力制御手段と
を備えたことを特徴とするナビゲーション装置。
In a navigation device comprising search data storage means for storing search data, and searching for the search data based on conditions presented by a driver,
Own vehicle position specifying means for specifying the own vehicle position;
Peripheral search means for searching for the search data around the host vehicle based on the host vehicle position;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face;
Data extraction means for extracting the search data corresponding to the narrowing range from search data related to the periphery of the host vehicle searched by the periphery search means;
A navigation apparatus comprising: output control means for outputting the extracted search data to output means.
請求項1に記載のナビゲーション装置において、
前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記絞り込み範囲とすることを特徴とするナビゲーション装置。
The navigation device according to claim 1, wherein
The navigation apparatus according to claim 1, wherein the range setting means sets a predetermined angle range including a driver's face direction as the narrowing range.
請求項1又は2に記載のナビゲーション装置において、
前記顔向き方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向きに応じて、前記絞り込み範囲の長さを設定することを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The navigation apparatus according to claim 1, wherein the face direction detection unit detects the direction of the driver's face in the vertical direction and sets the length of the narrowing range according to the face direction in the vertical direction.
請求項1〜3のいずれか1項に記載のナビゲーション装置において、
前記周辺検索手段により自車両周辺の前記検索データを検索した後に、運転者の発話の有無を判断し、運転者による発話が検出された際に、その発話内容を解析する音声認識手段をさらに備え、
発話内容が絞り込み命令である場合には、前記範囲設定手段は、自車位置と運転者の顔の向きとに応じて、前記検索データの前記絞り込み範囲を設定し、前記データ抽出手段は、前記絞り込み範囲に基づき前記検索データの絞り込みを行うことを特徴とするナビゲーション装置。
The navigation device according to any one of claims 1 to 3,
After searching the search data around the host vehicle by the surrounding search means, it further comprises voice recognition means for determining whether or not the driver utters and analyzing the content of the utterance when the driver utterance is detected. ,
When the utterance content is a refinement command, the range setting means sets the refinement range of the search data according to the own vehicle position and the direction of the driver's face, and the data extraction means A navigation apparatus, wherein the search data is narrowed down based on a narrowing range.
検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索方法において、
前記制御手段が、
自車位置に基づき、自車両周辺の前記検索データを検索するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて絞り込み範囲を設定し、
検索された自車両周辺に関する前記検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出し、抽出された前記検索データを出力手段に出力することを特徴とするナビゲーション装置の検索方法。
In a search method for a navigation device that searches for search data based on conditions presented by a driver, using search data storage means for storing search data and control means for searching for the search data,
The control means is
Based on the own vehicle position, the search data around the own vehicle is searched, the direction of the driver's face is detected, and the narrowing range is set according to the own vehicle position and the driver's face direction,
A search method for a navigation apparatus, comprising: extracting the search data corresponding to the narrowed-down range from the search data related to the vicinity of the searched vehicle, and outputting the extracted search data to an output unit.
検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索プログラムにおいて、
前記制御手段を、
自車位置を特定する自車位置特定手段と、
自車位置に基づき、自車両周辺の前記検索データを検索する周辺検索手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて、前記検索データの絞り込み範囲を設定する範
囲設定手段と、
前記周辺検索手段により検索された自車両周辺に関する検索データの中から、前記絞り込み範囲に該当する前記検索データを抽出するデータ抽出手段と、
抽出された前記検索データを出力手段に出力する出力制御手段として機能させることを特徴とするナビゲーション装置の検索プログラム。
In a search program for a navigation device that searches for search data based on conditions presented by a driver using search data storage means for storing search data and control means for searching for the search data,
The control means;
Own vehicle position specifying means for specifying the own vehicle position;
Peripheral search means for searching for the search data around the host vehicle based on the host vehicle position;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a narrowing range of the search data according to the vehicle position and the direction of the driver's face;
Data extraction means for extracting the search data corresponding to the narrowing range from search data related to the periphery of the host vehicle searched by the periphery search means;
A search program for a navigation apparatus, which causes the extracted search data to function as output control means for outputting to an output means.
JP2007143526A 2007-05-30 2007-05-30 Navigation apparatus, and method and program for retrieval of navigation apparatus Pending JP2008298522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007143526A JP2008298522A (en) 2007-05-30 2007-05-30 Navigation apparatus, and method and program for retrieval of navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007143526A JP2008298522A (en) 2007-05-30 2007-05-30 Navigation apparatus, and method and program for retrieval of navigation apparatus

Publications (1)

Publication Number Publication Date
JP2008298522A true JP2008298522A (en) 2008-12-11

Family

ID=40172183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007143526A Pending JP2008298522A (en) 2007-05-30 2007-05-30 Navigation apparatus, and method and program for retrieval of navigation apparatus

Country Status (1)

Country Link
JP (1) JP2008298522A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012127944A (en) * 2010-11-24 2012-07-05 Toyota Motor Corp Information providing device
JP2013195230A (en) * 2012-03-19 2013-09-30 Panasonic Corp Navigation device
JP2020106997A (en) * 2018-12-26 2020-07-09 アルパイン株式会社 In-vehicle device and communication system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2006242859A (en) * 2005-03-04 2006-09-14 Denso Corp Information display device for vehicle
JP2006266757A (en) * 2005-03-22 2006-10-05 Denso Corp Navigation system
JP2007047882A (en) * 2005-08-05 2007-02-22 Honda Motor Co Ltd Information retrieval device
JP2007087335A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Driving support device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2006242859A (en) * 2005-03-04 2006-09-14 Denso Corp Information display device for vehicle
JP2006266757A (en) * 2005-03-22 2006-10-05 Denso Corp Navigation system
JP2007047882A (en) * 2005-08-05 2007-02-22 Honda Motor Co Ltd Information retrieval device
JP2007087335A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Driving support device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012127944A (en) * 2010-11-24 2012-07-05 Toyota Motor Corp Information providing device
JP2013195230A (en) * 2012-03-19 2013-09-30 Panasonic Corp Navigation device
JP2020106997A (en) * 2018-12-26 2020-07-09 アルパイン株式会社 In-vehicle device and communication system
JP7233918B2 (en) 2018-12-26 2023-03-07 アルパイン株式会社 In-vehicle equipment, communication system

Similar Documents

Publication Publication Date Title
JP4551961B2 (en) VOICE INPUT SUPPORT DEVICE, ITS METHOD, ITS PROGRAM, RECORDING MEDIUM RECORDING THE PROGRAM, AND NAVIGATION DEVICE
JP3521817B2 (en) Navigation device
JP4622676B2 (en) Car navigation system
JP2004198209A (en) Navigation equipment and program and recording medium therefor
WO2015059812A1 (en) Movement support device and movement support method
JP6695096B2 (en) POI information providing server, POI information providing device, POI information providing system and program
JP5018671B2 (en) Vehicle navigation device
US8886455B2 (en) Navigation apparatus, audible instruction generation system and method of generating audible instructions
JP5056784B2 (en) Speech recognition system
JP2013036930A (en) Navigation device and navigation system comprising the same
JP2008298522A (en) Navigation apparatus, and method and program for retrieval of navigation apparatus
JP2007033209A (en) Navigation system
JP2000338993A (en) Voice recognition device and navigation system using this device
JP2007256020A (en) Navigation device, navigation method, and navigation program
JP2009002784A (en) Navigation system, its search method, and search program
JP4952379B2 (en) NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM
JP4341283B2 (en) Information terminal device and information acquisition method
JP2015175818A (en) navigation device
JP4274913B2 (en) Destination search device
JP2006189345A (en) Onboard navigation device
JP2006023127A (en) Navigation system, and method for presenting spot-of-concern information
JP2017194317A (en) Information display device and information display method
WO2006028171A1 (en) Data presentation device, data presentation method, data presentation program, and recording medium containing the program
JP2008076365A (en) Navigation apparatus, navigation method, and navigation program
JP4985505B2 (en) Sound output device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20090317

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20110627

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20110705

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20111101

Free format text: JAPANESE INTERMEDIATE CODE: A02