JP2008298521A - Navigation apparatus, and method and program for retrieval of navigation apparatus - Google Patents
Navigation apparatus, and method and program for retrieval of navigation apparatus Download PDFInfo
- Publication number
- JP2008298521A JP2008298521A JP2007143525A JP2007143525A JP2008298521A JP 2008298521 A JP2008298521 A JP 2008298521A JP 2007143525 A JP2007143525 A JP 2007143525A JP 2007143525 A JP2007143525 A JP 2007143525A JP 2008298521 A JP2008298521 A JP 2008298521A
- Authority
- JP
- Japan
- Prior art keywords
- search
- driver
- face
- data
- search data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムに関する。 The present invention relates to a navigation device, a navigation device search method, and a search program.
従来よりナビゲーション装置は、施設、特定の地点等を検索するための検索用のデータベースを備え、ユーザが提示した検索条件に基づいてデータベースを検索し、検索されたデータをリスト等にしてディスプレイに出力する。 Conventionally, navigation devices have a search database for searching for facilities, specific points, etc., search the database based on search conditions presented by the user, and output the searched data as a list etc. to the display To do.
例えば「ガソリンスタンド」等の条件でデータベースを検索すると、膨大な量のデータが出力されるため、通常では上記条件に加えて、検索対象の地域名を入力し、地域を限定する等の条件を付加する。しかしこの場合でも、限定された地域に存在する全ての施設等が検索されるため、ユーザにとって必要性が低い情報まで出力されてしまう。 For example, if a database is searched under conditions such as “gas station”, a huge amount of data is output. Normally, in addition to the above conditions, the name of the area to be searched is input and the conditions such as limiting the area are set. Append. However, even in this case, since all the facilities and the like existing in the limited area are searched, information that is less necessary for the user is output.
このように必要性の低いデータまで出力されると、さらにデータを絞り込むための操作回数が多くなるとともに、必要な情報に辿り着くまで時間がかかる等の問題が生じる。これに対し、特許文献1では、自車両の進行方向に存在する周辺施設の検索を行うナビゲーション装置が記載されている。
ところが、特許文献1に記載された装置では、進行方向を基準とした所定範囲に存在する施設を検索することができるが、検索時の自車両の進行方向に依存してしまうため、運転者が進行方向を変更する場合や、上記所定範囲以外の施設等を検索したい場合には、適切な検索範囲とはならない。
However, in the device described in
本発明は、上記問題点に鑑みてなされたものであり、その目的は、ユーザが意図する範囲のデータを容易に取得することができるナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a navigation device, a navigation device search method, and a search program that can easily acquire data in a range intended by a user. It is in.
上記問題点を解決するために、請求項1に記載の発明は、検索データを記憶する検索データ記憶手段を備え、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置において、自車位置を特定する自車位置特定手段と、運転者による指定に基づき検索対象の情報種別を設定する情報種別設定手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて検索対象範囲を設定する範囲設定手段と、前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索するデータ検索手段と、検索された前記検索データを出力手段に出力する出力制御手段とを備えたことを要旨とする。
In order to solve the above problem, the invention described in
請求項2に記載の発明は、請求項1に記載のナビゲーション装置において、前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記検索対象範囲とすることを要旨とする。
The invention according to claim 2 is summarized in that, in the navigation device according to
請求項3に記載の発明は、請求項1又は2に記載のナビゲーション装置において、前記顔向き方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向
きに応じて、前記検索対象範囲の長さを設定することを要旨とする。
According to a third aspect of the present invention, in the navigation device according to the first or second aspect, the face direction detection unit detects the direction of the driver's face in the vertical direction, and responds to the vertical direction of the face. Thus, the gist is to set the length of the search target range.
請求項4に記載の発明は、請求項1〜3のいずれか1項に記載のナビゲーション装置において、運転者の発話内容を解析する音声認識手段をさらに備え、前記情報種別設定手段は、前記音声認識手段により解析された発話内容に基づいて検索対象の情報種別を設定することを要旨とする。 According to a fourth aspect of the present invention, in the navigation device according to any one of the first to third aspects of the present invention, the navigation device further includes voice recognition means for analyzing a driver's utterance content, and the information type setting means is the voice The gist is to set the information type to be searched based on the utterance content analyzed by the recognition means.
請求項5に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索方法において、前記制御手段が、運転者による指定に基づき検索対象の情報種別を設定するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて検索対象範囲を設定し、前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索し、検索された前記検索データを出力手段に出力することを要旨とする。
The invention according to
請求項6に記載の発明は、検索データを記憶する検索データ記憶手段と、前記検索データを検索する制御手段とを用いて、運転者が提示する条件に基づいて前記検索データを検索するナビゲーション装置の検索プログラムにおいて、前記制御手段を、自車位置を特定する自車位置特定手段と、運転者による指定に基づき検索対象の情報種別を設定する情報種別設定手段と、運転者の顔の向きを検出する顔向き方向検出手段と、自車位置と運転者の顔の向きとに応じて検索対象範囲を設定する範囲設定手段と、前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索するデータ検索手段と、検索された前記検索データを出力手段に出力する出力制御手段として機能させることを要旨とする。 The invention according to claim 6 is a navigation device that searches for the search data based on a condition presented by a driver using search data storage means for storing search data and control means for searching for the search data. In the search program, the control means includes: an own vehicle position specifying means for specifying the own vehicle position; an information type setting means for setting an information type to be searched based on designation by the driver; and a direction of the driver's face. Face direction detection means for detecting, range setting means for setting a search target range according to the vehicle position and the driver's face direction, and the information type setting means set from the search data It functions as a data search means for searching for the search data corresponding to the information type and the search target range, and an output control means for outputting the searched search data to the output means. The gist of the Rukoto.
請求項1に記載の発明によれば、運転者の顔の向きに応じて検索対象範囲を設定し、運転者が指定した情報種別と、検索対象範囲に基づき検索データを検索するので、ユーザが意図する範囲のデータを容易に取得することができる。また、データ絞り込み操作も不要になるので、ユーザの手間を軽減することができる。 According to the first aspect of the present invention, the search target range is set according to the orientation of the driver's face, and the search data is searched based on the information type specified by the driver and the search target range. Data in the intended range can be easily acquired. In addition, since the data narrowing operation is not necessary, the user's trouble can be reduced.
請求項2に記載の発明によれば、検索対象範囲は、運転者の顔の向きを含む所定角度範囲であるので、ユーザが検索したい範囲を的確に判断し、必要性の高いデータを抽出することができる。 According to the second aspect of the present invention, since the search target range is a predetermined angle range including the direction of the driver's face, the user wants to accurately determine the range to be searched and extract highly necessary data. be able to.
請求項3に記載の発明によれば、検索対象範囲の長さは、鉛直方向における運転者の顔の向きに応じて設定されるので、運転者が比較的遠いところを見ている状態では、検索対象範囲を長く設定し、比較的近いところを見ている状態では検索対象範囲を短く設定することができる。 According to the invention described in claim 3, since the length of the search target range is set according to the direction of the driver's face in the vertical direction, in a state where the driver is looking relatively far, The search target range can be set to be short when the search target range is set long and the subject is looking relatively close.
請求項4に記載の発明によれば、運転者の発話内容を解析することによって、情報種別を設定する。このため、情報種別を手動操作で入力する必要がないので、発話及び顔の向きだけで、運転者が検索したい情報を絞り込むことができる。 According to the fourth aspect of the present invention, the information type is set by analyzing the utterance content of the driver. For this reason, since it is not necessary to input the information type manually, the information that the driver wants to search can be narrowed down only by the speech and the face direction.
請求項5に記載の発明によれば、運転者の顔の向きに応じて検索対象範囲を設定し、運転者が指定した情報種別と、検索対象範囲に基づき検索データを検索するので、ユーザが意図する範囲のデータを容易に取得することができる。また、データ絞り込み操作も不要になるので、ユーザの手間を軽減することができる。 According to the fifth aspect of the present invention, the search target range is set according to the direction of the driver's face and the search data is searched based on the information type specified by the driver and the search target range. Data in the intended range can be easily acquired. In addition, since the data narrowing operation is not necessary, the user's trouble can be reduced.
請求項6に記載の発明によれば、運転者の顔の向きに応じて検索対象範囲を設定し、運
転者が指定した情報種別と、検索対象範囲に基づき検索データを検索するので、ユーザが意図する範囲のデータを容易に取得することができる。また、データ絞り込み操作も不要になるので、ユーザの手間を軽減することができる。
According to the invention described in claim 6, since the search target range is set according to the orientation of the driver's face and the search data is searched based on the information type specified by the driver and the search target range, the user can Data in the intended range can be easily acquired. In addition, since the data narrowing operation is not necessary, the user's trouble can be reduced.
以下、本発明を具体化した一実施形態を図1〜図8に従って説明する。図1は、本実施形態のナビゲーションシステム1の構成を示すブロック図である。
ナビゲーションシステム1は、各種センサ及び出力手段としてのタッチパネルディスプレイ35等とデータを送受信するナビゲーション装置としてのナビユニット1aを備えている。ナビユニット1aは、自車両C(図6参照)に搭載されたナビゲーションECU(以下、単にナビECU2という)を有している。尚、ナビECU2は、自車位置特定手段、情報種別設定手段、顔向き方向検出手段、範囲設定手段、データ検索手段、制御手段に対応する。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the
The
ナビECU2は、GPS(Global Positioning System)アンテナ30が受信した、緯
度・経度等の座標を示す位置検出信号を入力して、電波航法により自車両Cの絶対位置を算出する。また、車両側I/F3を介して、自車に設けられた車速センサ31及びジャイロセンサ32から車速パルス、角速度をそれぞれ入力する。ナビECU2は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。
The navigation ECU 2 inputs a position detection signal indicating coordinates such as latitude and longitude received by a GPS (Global Positioning System) antenna 30 and calculates the absolute position of the host vehicle C by radio wave navigation. In addition, vehicle speed pulses and angular velocities are respectively input from the
また、ナビゲーションシステム1は、地図データ記憶部10を備えている。地図データ記憶部10は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地図データ記憶部10には、目的地までの経路を探索するための各経路ネットワークデータ(以下、経路データ11という)と、タッチパネルディスプレイに地図画面35aを出力するための各地図描画データ12とが格納されている。
The
経路データ11は、全国を区画したメッシュ内の道路に関するデータである。図2(a)に示すように、経路データ11は、各メッシュの識別子であるメッシュID11aと、メッシュ内の各リンクの識別子を示すリンクID11bとを有している。ノードは、交差点、インターチェンジ、道路の端点等を示し、リンクは各ノードを接続するデータ要素である。
The
また、リンクID11bには、リンクの始点及び終点を示すノードのノード座標11c、道路の種別を示す道路種別11d、経路探索のためのリンクコスト11e等が関連付けられている。
The
また、地図描画データ12は、全国の地図を分割したメッシュ毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図2(b)に示すように、地図描画データ12は、メッシュID12a、道路、市街地等を描画するための背景データ12b、形状補間データ、道路幅等の道路形状を示す道路データ12c等を有している。
Further, the
また、ナビゲーションシステム1は、地図描画処理部4(図1参照)を備えている。地図描画処理部4は、自車位置周辺の地図を描画するための地図描画データ12を地図データ記憶部10から読出し、出力用のデータを生成する。また、出力用データに基づく映像信号をタッチパネルディスプレイ35に出力し、図1に示すような地図画面35aを表示する。また、地図描画処理部4は、この地図画面35aのうち、自車両Cの現在位置に相当する位置に、自車指標35bを重畳する。
The
また、ナビECU2は、交通情報受信部37を備えている。交通情報受信部37は、例
えば、道路近傍に設置され、VICS(登録商標、Vehicle Information and Communication System)を構成するビーコン等から、その周辺の渋滞情報等を受信する。ナビECU2は、交通情報受信部37から交通情報を受信すると、内蔵するメモリ等にその交通情報を一時記憶する。また、この交通情報に基づいて、地図画面35a上に渋滞区間を強調表示したり、推奨する経路を変更する。尚、交通情報を記憶する上記メモリは、検索データ記憶手段に該当する。
The navigation ECU 2 also includes a traffic
さらに、ナビECU2は、タッチパネルディスプレイ35の図示しないコントローラからタッチパネルに接触したユーザの指の接触位置を入力する。また、ナビECU2は、タッチパネルディスプレイ35に隣設された音声入力ボタンBや、ステアリングコラム等に設けられた、音声認識を実行するための音声入力ボタン(図示略)が操作された際に、各音声入力ボタンBから、操作が行われたことを示す検出信号を入力する。
Further, the navigation ECU 2 inputs the contact position of the user's finger that has touched the touch panel from a controller (not shown) of the
ナビECU2は、タッチパネル操作、又は音声入力ボタンBの押釦による音声認識の実行命令を入力すると、音声認識手段としての音声認識部5を制御して、運転者(ユーザ)による発話を待機する。尚、運転者は、音声認識によって施設、地点等の検索を行う際に、自車両Cに対する方向の施設等を検索したい場合には、その方向を向いて発話するようになっている。
When the navigation ECU 2 inputs a voice recognition execution command by a touch panel operation or a push button of the voice input button B, the navigation ECU 2 controls the
音声認識部5は、音声認識用LSI、音声認識データベース等(図示略)を備えている。音声認識部5は、車室内に設けられたマイク34(図1参照)から運転者の発話に基づく音声信号を入力する。音声認識データベースには、音響モデル、認識辞書、言語モデル等が記憶されている。音声認識部5は、音響モデルを用いて、音声の特徴量と音素とを関連付け、認識辞書を照合して、検出した音素列と対応付けられた単語を検索する。さらに、言語モデルによって、検出した単語間の接続確率や、係り受け関係を検証する。そして、各単語の接続する確率が高い場合には認識結果を確定する。認識結果が確定されると、音声認識部5は、認識結果をナビECU2に出力し、ナビECU2は、認識結果に基づくコマンドを、各種制御回路に出力する。
The
また、ナビECU2は、検索データ記憶手段としての検索データ記憶部15に記憶された検索データ16を用いて、施設、地点等を検索する。図3に示すように、検索データ16は、管理ヘッダ16a、ジャンル定義データ16b、検索対象データ16c、座標データ16dを有している。管理ヘッダ16aは管理用のデータである。ジャンル定義データ16bは、「空港」、「ガソリンスタンド」、「名所・旧跡」等の施設や特定の地点を検索するための情報種別としてのジャンルや、住所、電話番号、郵便番号等のデータである。検索対象データ16cは、施設名称、地点名称等のデータである。座標データ16dは、その施設又は地点の座標を示すデータである。
Further, the navigation ECU 2 searches for facilities, points, and the like using the
ナビECU2は、タッチパネル操作又は音声認識によって、運転者が指定するジャンル、住所等の検索条件を取得すると、その検索条件に基づき、検索データ記憶部15内を検索する。そして、検索条件に該当する検索データ16がある場合には、検出した検索データ16を用いてリストを作成し、そのリストをタッチパネルディスプレイ35に表示する。例えば、運転者が、タッチパネル操作等により、地域が「愛知県」、ジャンルが「ガソリンスタンド」という検索条件を設定した場合には、各検索データ16のジャンル定義データ16bに基づき、その地域及びジャンルに応じた検索対象データ16cを検出する。該当する検索データ16が複数ある場合には、図4に示す検索リスト画面35cのように、それらの検索対象データ16cに含まれる施設名称等をリストLにして、タッチパネルディスプレイ35に表示する。
When the navigation ECU 2 acquires search conditions such as a genre and an address designated by the driver by touch panel operation or voice recognition, the navigation ECU 2 searches the search
また、図1に示すようにナビゲーションユニット1aは、音声プロセッサ7及び顔向き
方向検出手段としての顔方向検出部6を備えている。音声プロセッサ7は、音声データ等を記憶しており、渋滞情報等の各種音声をスピーカ36から出力する。
As shown in FIG. 1, the
顔方向検出部6は、自車両Cに設けられた顔方向検出センサ33から、顔の向きを示す検出信号を受信する。顔方向検出センサ33は、本実施形態ではカメラから構成される。この顔方向検出センサ33は、例えば車室内であって、運転席S(図5参照)に着座した運転者Dの顔を撮影可能に取り付けられている。顔方向検出部6は、顔方向検出センサ33が取得した画像データに基づき、公知の画像処理によって、運転者Dの顔の水平方向(図5中x方向及びy方向)の向き及び鉛直方向(図5中z方向)の向きを検出する。
The face direction detection unit 6 receives a detection signal indicating the face direction from the face
水平方向の向きを検出する場合には、例えば、図5に示す基準方向Diを向いた運転者Dの顔を撮影し、それをテンプレートとして予めメモリに記憶する。また、顔方向検出センサ33が新たに撮影を行うと、新たに取得した画像データと該テンプレートとを比較して、運転者Dの顔の水平方向の向きを演算する。又は、運転者Dの顔を撮影した画像データに対し、エッジ検出や、特徴点抽出処理を行い、顔の方向を検出するようにしても良い。このとき、顔方向検出部6は、図5に示すように、顔の向きD1の基準方向Diに対する相対角度θ1又は相対方位(ベクトル)を演算する。顔の向きD1の相対角度θ1又は相対方位を演算すると、顔方向検出部6は、ナビECU2に相対角度θ1又は相対方位を出力する。
In the case of detecting the horizontal direction, for example, the face of the driver D facing the reference direction Di shown in FIG. 5 is photographed and stored in advance in the memory as a template. Further, when the face
鉛直方向の顔の向きを検出する場合も、同様に公知の画像処理方法を用いる。例えば、新たに顔方向検出センサ33から画像データを入力した際に、その画像データと基準方向を向いた運転者Dの顔を撮影したテンプレートとを比較し、顔の俯角又は仰角を演算する。このとき、ナビECU2は、図7に示すように基準位置を向いた運転者Dの顔の向き(図中Di方向)に対する相対角度θ3を算出する。運転者Dが比較的遠方をみている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)上方、即ち仰角になる。運転者Dが自車両Cの近くを見ている状態では、相対角度θ3は基準方向Diよりも鉛直方向(z方向)下方、即ち俯角になる。
Similarly, a known image processing method is used to detect the face direction in the vertical direction. For example, when image data is newly input from the face
ナビECU2は、顔方向検出部6から取得した相対角度θ1,θ3又は相対方位を用いて、検索対象範囲を設定する。具体的には、ナビECU2は、自車位置と、自車両Cの路面に対する進行方向とを取得し、自車両Cの自車位置及び進行方向に基づき、運転者Dの顔の向きを、路面座標系の軸(図6ではX軸)に対する絶対方向に変換する。このとき、図6に示すように、例えば、顔方向検出部6から取得した水平方向の相対角度θ1又は相対方位に、自車両Cの方向を加味して、運転者Dの顔の向きを、絶対角度θ2又は絶対方位として算出する。 The navigation ECU 2 sets the search target range using the relative angles θ1, θ3 or the relative orientation acquired from the face direction detection unit 6. Specifically, the navigation ECU 2 acquires the host vehicle position and the traveling direction of the host vehicle C with respect to the road surface, and determines the direction of the face of the driver D based on the host vehicle position and the traveling direction of the host vehicle C. Conversion to an absolute direction with respect to the axis of the coordinate system (X axis in FIG. 6). At this time, as shown in FIG. 6, for example, the direction of the face of the driver D is added to the horizontal relative angle θ1 or the relative orientation acquired from the face direction detection unit 6 in consideration of the direction of the host vehicle C. The absolute angle θ2 or absolute azimuth is calculated.
さらに、ナビECU2は、自車位置を中心点とし、顔の向きD1の絶対方向を中心とした所定角度範囲φ(例えば45°)の扇形の対象エリアAを算出する。さらに、経路データ11を用いて、対象エリアA内の道路に沿って自車位置から所定距離L1以内のエリアを、検索対象範囲Z1とする。このとき、ナビECU2は、鉛直方向の顔の向きを示す相対角度θ3に基づき、相対角度θ3が基準方向(図7中Di方向)に対して仰角(上方)である場合には、所定距離L1を比較的長く設定し(例えば5km)、俯角(下方)である場合には、所定距離L1を比較的短く設定する(例えば2km)。
Further, the navigation ECU 2 calculates a fan-shaped target area A having a predetermined angle range φ (for example, 45 °) centered on the absolute position of the face direction D1 with the vehicle position as the center point. Furthermore, using the
このように検索対象範囲Z1が設定されると、ナビECU2は、検索対象範囲Z1に基づき、検索データ16の検索、交通情報の検索を行う。検索データ16を検索する際には、検索データ16の座標データ16dを用いて、検索対象範囲Z1に含まれる検索データを抽出する。また、交通情報の検索を行う際には、交通情報受信部37から取得し、ナビECU2に記憶された交通情報のうち、検索対象範囲Z1内に含まれる渋滞情報や、案内
情報があるか否かを交通情報に含まれるデータに基づき判断し、該当する交通情報がある場合には、その交通情報を抽出する。
When the search target range Z1 is set in this way, the navigation ECU 2 searches the
次に本実施形態の処理手順について、図8に従って説明する。ナビECU2は、ステアリングコラムに設けられた音声入力ボタン又はタッチパネルディスプレイ35近傍に設けられた音声入力ボタンB等が操作されるのを待機する(ステップS1)。 Next, the processing procedure of this embodiment will be described with reference to FIG. The navigation ECU 2 waits for the operation of the voice input button provided on the steering column or the voice input button B provided near the touch panel display 35 (step S1).
音声入力ボタンB等が操作されたと判断すると(ステップS1においてYES)、ナビECU2は、自車両Cの現在位置を取得する(ステップS2)。また、ナビECU2は、顔方向検出部6から、運転者Dの顔の向きを検出する(ステップS3)。本実施形態では、上記したように、基準方向に対する水平方向及び鉛直方向の相対角度θ1,θ3又は相対方位を取得する。 If it is determined that the voice input button B or the like has been operated (YES in step S1), the navigation ECU 2 acquires the current position of the host vehicle C (step S2). Further, the navigation ECU 2 detects the face direction of the driver D from the face direction detection unit 6 (step S3). In the present embodiment, as described above, the relative angles θ1 and θ3 or the relative orientations in the horizontal direction and the vertical direction with respect to the reference direction are acquired.
また、ナビECU2は、運転者Dによる発話を待機する(ステップS4)。運転者Dによる発話を検出しない場合には(ステップS4においてNO)、音声入力ボタンBの操作から所定時間(例えば10秒)が経過したか否かを判断する(ステップS5)。所定時間が経過していない場合には(ステップS5においてNO)、ステップS2に戻る。所定時間が経過したと判断した場合には(ステップS5においてYES)、入力待ち状態を解除し(ステップS6)、音声認識を中断して処理を終了する。 The navigation ECU 2 waits for an utterance by the driver D (step S4). When the utterance by the driver D is not detected (NO in step S4), it is determined whether or not a predetermined time (for example, 10 seconds) has elapsed since the operation of the voice input button B (step S5). If the predetermined time has not elapsed (NO in step S5), the process returns to step S2. If it is determined that the predetermined time has elapsed (YES in step S5), the input waiting state is canceled (step S6), the speech recognition is interrupted, and the process is terminated.
一方、運転者Dが、検索したい方角を向いた状態で、検索したい施設名、地点名、又は情報名を言うと、音声認識部5は、運転者Dによる発話を検出したと判断し(ステップS4においてYES)、マイク34を介して入力した音声信号に基づき、上記したように発話内容を解析する(ステップS7)。
On the other hand, when the driver D says the name of the facility, spot, or information to be searched in a direction facing the direction to be searched, the
また、ナビECU2は、自車両Cの現在位置、進行方向と顔の向きD1とに基づき、上記したように検索対象範囲Z1を設定する(ステップS8)。即ち、運転者Dの顔の向きD1を示す水平方向の相対角度θ1又は相対方位に、自車両Cの絶対方向を加味して、絶対角度θ2又は絶対方位を算出する。さらに、図6に示すように、自車位置を中心点とし、顔の向きD1を中心に所定角度範囲φの扇形の対象エリアAを設定する。また、対象エリアAに含まれる道路のうち、自車両Cの現在位置から所定距離L1以内の道路を検索対象範囲Z1とする。尚、鉛直方向の相対角度θ3が仰角であって、運転者Dの顔の角度が遠方を見るような角度である場合には、所定距離L1を比較的長く設定する。また、相対角度θ3が俯角であって、運転者Dの顔の角度が自車両Cの近くを見るような角度である場合には所定距離L1を比較的短く設定する。 The navigation ECU 2 sets the search target range Z1 as described above based on the current position, traveling direction, and face direction D1 of the host vehicle C (step S8). That is, the absolute angle θ2 or the absolute azimuth is calculated by adding the absolute direction of the host vehicle C to the horizontal relative angle θ1 or relative azimuth indicating the face direction D1 of the driver D. Further, as shown in FIG. 6, a sector-shaped target area A having a predetermined angle range φ around the face direction D1 is set with the vehicle position as the center point. Further, among the roads included in the target area A, a road within a predetermined distance L1 from the current position of the host vehicle C is set as a search target range Z1. In addition, when the relative angle θ3 in the vertical direction is an elevation angle and the face angle of the driver D is an angle that looks far away, the predetermined distance L1 is set to be relatively long. Further, when the relative angle θ3 is a depression angle and the angle of the face of the driver D is such that the driver sees the vicinity of the host vehicle C, the predetermined distance L1 is set to be relatively short.
また、ナビECU2は、ステップS7での解析結果と、ステップS8で設定した検索対象範囲Z1を検索条件として、検索を行う(ステップS9)。例えば、ナビECU2は、解析結果が「ガソリンスタンド」であって、検索対象範囲Z1が自車両Cの前方左側に設定された場合には、前方左側の検索対象範囲Z1に含まれるガソリンスタンドを検索する。 The navigation ECU 2 performs a search using the analysis result in step S7 and the search target range Z1 set in step S8 as search conditions (step S9). For example, if the analysis result is “gas station” and the search target range Z1 is set to the left front side of the host vehicle C, the navigation ECU 2 searches for a gas station included in the search target range Z1 on the left front side. To do.
検索が終了すると、ナビECU2は、検索された情報をタッチパネルディスプレイ35又はスピーカ36に出力する(ステップS10)。タッチパネルディスプレイ35に情報を表示する場合には図4に示すリストLを作成し、検索リスト画面35cを表示する。検索された情報を音声で出力する場合には、音声プロセッサ7により音声信号を生成し、スピーカ36から出力する。このため、運転者Dは、検索したい方向を向いて、検索したい施設名、地点名、又は情報名を話すだけで、手動操作を行うことなく、走行予定の方向の施設や地点、交通情報等を知ることができる。
When the search is completed, the navigation ECU 2 outputs the searched information to the
処理を終了すると、ステップS1に戻り、音声入力ボタンBの入力を待機する。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビユニット1aは、運転者Dの顔の向きD1を検出し、自車位置を中心点とし、顔の向きD1に応じて検索対象範囲Z1を設定するようにした。また、音声認識により、運転者Dの発話内容を解析して、検索対象のジャンルを設定するようにした。さらに、検索データ記憶部15に記憶された検索データ16から、検索対象範囲Z1に含まれると共に、検索対象のジャンルに該当する検索データ16を抽出するようにした。このため、ボタンの押釦、タッチパネル操作といった手動の操作をすることなく、顔の向きと発話によって、必要性の高い検索データ16を絞り込むことができる。また、適切な範囲にデータが絞りこまれることによって、絞り込み操作の回数を減らすことができるので、ユーザの手間を軽減することができる。
When the process is finished, the process returns to step S1 and waits for the input of the voice input button B.
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the
(2)上記実施形態では、ナビECU2は、運転者Dの顔の向きを含む所定角度範囲φを検索対象範囲Z1とするようにした。このため、ユーザが検索したい方角を的確に判断し、必要性が高いデータを抽出することができる。 (2) In the above embodiment, the navigation ECU 2 sets the predetermined angle range φ including the face direction of the driver D as the search target range Z1. For this reason, it is possible to accurately determine the direction in which the user wants to search, and to extract highly necessary data.
(3)上記実施形態では、ナビECU2は、顔方向検出部6により鉛直方向における運転者Dの顔の向きを検出し、鉛直方向の顔の向きに応じて、検索対象範囲Z1の長さを設定するようにした。このため、運転者Dが比較的遠いところを見ている状態では、検索対象範囲Z1を長く設定し、比較的近いところを見ている状態では検索対象範囲Z1を短く設定することができる。従って、ユーザが検索したい範囲を的確に判断し、必要性が高いデータを抽出することができる。 (3) In the above embodiment, the navigation ECU 2 detects the direction of the face of the driver D in the vertical direction by the face direction detection unit 6, and determines the length of the search target range Z1 according to the direction of the face in the vertical direction. I set it. For this reason, when the driver D is looking at a relatively far place, the search target range Z1 can be set long, and when the driver D is looking at a relatively close place, the search target range Z1 can be set short. Therefore, it is possible to accurately determine the range that the user wants to search and extract data with high necessity.
(4)上記実施形態では、検索対象のジャンルを、運転者Dの発話内容を解析することによって設定するようにしたので、情報種別を手動操作で入力する手間を省くことができる。このため、発話と顔の向きのみで、必要性が高いデータを絞り込むことができる。 (4) In the above embodiment, the genre to be searched is set by analyzing the utterance content of the driver D, so that it is possible to save the trouble of manually inputting the information type. For this reason, highly necessary data can be narrowed down only by the utterance and the face direction.
尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、顔方向検出センサ33は、カメラとしたが、その他のセンサでもよい。
In addition, you may change the said embodiment as follows.
In the above embodiment, the face
・上記実施形態では、運転者Dの顔の水平方向の向きと鉛直方向の向きとを検出するようにしたが、水平方向のみでもよい。
・上記実施形態では、交通情報受信部37は、VICSから送信された交通情報を受信するようにしたが、その他のシステムから交通情報、案内情報を受信するようにしてもよい。例えば、FM多重放送を用いるRDS/TMC(Radio Data System/Traffic Message Channel)や、道路近傍に設置された路側機と車載装置との間で通信を行う路車間通信、又は各車載装置の間で通信を行う車車間通信によって交通情報、案内情報を受信するようにしてもよい。
In the above embodiment, the horizontal direction and the vertical direction of the face of the driver D are detected, but only the horizontal direction may be detected.
In the above embodiment, the traffic
・上記実施形態では、検索結果をタッチパネルディスプレイ35に表示するようにしたが、出力制御手段としての音声プロセッサ7により、出力手段としてのスピーカ36から音声を出力して検索結果を案内しても良い。
In the above embodiment, the search result is displayed on the
・上記実施形態では、運転者Dの瞳の位置等を検出する視線検出手段を用いて、運転者が見ている方向を検出するようにしてもよい。そして、自車位置と運転者の視線の向きとに応じて検索対象範囲を設定するようにしてもよい。 In the above embodiment, the direction in which the driver is looking may be detected using line-of-sight detection means that detects the position of the driver's D pupil and the like. Then, the search target range may be set according to the vehicle position and the direction of the driver's line of sight.
1a…ナビゲーション装置としてのナビユニット、2…自車位置特定手段、情報種別設定手段、顔向き方向検出手段、範囲設定手段、データ検索手段、制御手段、出力制御手段としてのナビECU、5…音声認識手段としての音声認識部、6…顔向き方向検出手段としての顔方向検出センサ、7…出力制御手段としての音声プロセッサ、15…検索データ記憶手段としての検索データ記憶部、16…検索データ、35…出力手段としてのタッチパネルディスプレイ、36…出力手段としてのスピーカ、D…運転者、Z1…検索対象範囲。
DESCRIPTION OF
Claims (6)
自車位置を特定する自車位置特定手段と、
運転者による指定に基づき検索対象の情報種別を設定する情報種別設定手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて検索対象範囲を設定する範囲設定手段と、
前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索するデータ検索手段と、
検索された前記検索データを出力手段に出力する出力制御手段と
を備えたことを特徴とするナビゲーション装置。 In a navigation device comprising search data storage means for storing search data, and searching for the search data based on conditions presented by a driver,
Own vehicle position specifying means for specifying the own vehicle position;
Information type setting means for setting the information type to be searched based on designation by the driver;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a search target range according to the vehicle position and the direction of the driver's face;
Data search means for searching the search data corresponding to the information type set by the information type setting means and the search target range from the search data;
An navigation device comprising: output control means for outputting the searched search data to an output means.
前記範囲設定手段は、運転者の顔の向きを含む所定角度範囲を前記検索対象範囲とすることを特徴とするナビゲーション装置。 The navigation device according to claim 1, wherein
The navigation apparatus according to claim 1, wherein the range setting means sets a predetermined angle range including a driver's face direction as the search target range.
前記顔向き方向検出手段は、鉛直方向における運転者の顔の向きを検出し、鉛直方向の顔の向きに応じて、前記検索対象範囲の長さを設定することを特徴とするナビゲーション装置。 The navigation device according to claim 1 or 2,
The navigation apparatus according to claim 1, wherein the face direction detection unit detects the direction of the driver's face in the vertical direction, and sets the length of the search target range according to the direction of the face in the vertical direction.
運転者の発話内容を解析する音声認識手段をさらに備え、
前記情報種別設定手段は、前記音声認識手段により解析された発話内容に基づいて検索対象の情報種別を設定することを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
It further comprises voice recognition means for analyzing the driver's utterance content,
The navigation apparatus according to claim 1, wherein the information type setting unit sets an information type to be searched based on the utterance content analyzed by the voice recognition unit.
前記制御手段が、
運転者による指定に基づき検索対象の情報種別を設定するとともに、運転者の顔の向きを検出して自車位置と運転者の顔の向きとに応じて検索対象範囲を設定し、
前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索し、検索された前記検索データを出力手段に出力することを特徴とするナビゲーション装置の検索方法。 In a search method for a navigation device that searches for search data based on conditions presented by a driver, using search data storage means for storing search data and control means for searching for the search data,
The control means is
Set the search target information type based on the designation by the driver, detect the driver's face direction and set the search target range according to the vehicle position and the driver's face direction,
The search data corresponding to the information type set by the information type setting means and the search target range is searched from the search data, and the searched search data is output to the output means. A search method for a navigation device.
前記制御手段を、
自車位置を特定する自車位置特定手段と、
運転者による指定に基づき検索対象の情報種別を設定する情報種別設定手段と、
運転者の顔の向きを検出する顔向き方向検出手段と、
自車位置と運転者の顔の向きとに応じて検索対象範囲を設定する範囲設定手段と、
前記検索データの中から、前記情報種別設定手段により設定された情報種別と、前記検索対象範囲とに該当する前記検索データを検索するデータ検索手段と、
検索された前記検索データを出力手段に出力する出力制御手段として機能させることを特徴とするナビゲーション装置の検索プログラム。 In a search program for a navigation device that searches for search data based on conditions presented by a driver using search data storage means for storing search data and control means for searching for the search data,
The control means;
Own vehicle position specifying means for specifying the own vehicle position;
Information type setting means for setting the information type to be searched based on designation by the driver;
A face direction detecting means for detecting the direction of the driver's face;
Range setting means for setting a search target range according to the vehicle position and the direction of the driver's face;
Data search means for searching the search data corresponding to the information type set by the information type setting means and the search target range from the search data;
A search program for a navigation device, which functions as output control means for outputting the searched search data to output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007143525A JP4952379B2 (en) | 2007-05-30 | 2007-05-30 | NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007143525A JP4952379B2 (en) | 2007-05-30 | 2007-05-30 | NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008298521A true JP2008298521A (en) | 2008-12-11 |
JP4952379B2 JP4952379B2 (en) | 2012-06-13 |
Family
ID=40172182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007143525A Expired - Fee Related JP4952379B2 (en) | 2007-05-30 | 2007-05-30 | NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4952379B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133670A (en) * | 2014-10-15 | 2019-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information presentation method, information presentation system and information presentation program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037260A (en) * | 2002-07-03 | 2004-02-05 | Mazda Motor Corp | Apparatus and method for guiding path, and program for guiding path |
JP2005207781A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
JP2006242859A (en) * | 2005-03-04 | 2006-09-14 | Denso Corp | Information display device for vehicle |
JP2006266757A (en) * | 2005-03-22 | 2006-10-05 | Denso Corp | Navigation system |
JP2007047882A (en) * | 2005-08-05 | 2007-02-22 | Honda Motor Co Ltd | Information retrieval device |
-
2007
- 2007-05-30 JP JP2007143525A patent/JP4952379B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037260A (en) * | 2002-07-03 | 2004-02-05 | Mazda Motor Corp | Apparatus and method for guiding path, and program for guiding path |
JP2005207781A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
JP2006242859A (en) * | 2005-03-04 | 2006-09-14 | Denso Corp | Information display device for vehicle |
JP2006266757A (en) * | 2005-03-22 | 2006-10-05 | Denso Corp | Navigation system |
JP2007047882A (en) * | 2005-08-05 | 2007-02-22 | Honda Motor Co Ltd | Information retrieval device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133670A (en) * | 2014-10-15 | 2019-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information presentation method, information presentation system and information presentation program |
Also Published As
Publication number | Publication date |
---|---|
JP4952379B2 (en) | 2012-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102027325B (en) | Navigation apparatus and method of detection that a parking facility is sought | |
JP4551961B2 (en) | VOICE INPUT SUPPORT DEVICE, ITS METHOD, ITS PROGRAM, RECORDING MEDIUM RECORDING THE PROGRAM, AND NAVIGATION DEVICE | |
JP4622676B2 (en) | Car navigation system | |
JP2001124575A (en) | Navigation device | |
US20060253251A1 (en) | Method for street name destination address entry using voice | |
JP6695096B2 (en) | POI information providing server, POI information providing device, POI information providing system and program | |
JP2011099815A (en) | Navigation system and traffic lane guide method | |
US8886455B2 (en) | Navigation apparatus, audible instruction generation system and method of generating audible instructions | |
JP2008298522A (en) | Navigation apparatus, and method and program for retrieval of navigation apparatus | |
JP2009002784A (en) | Navigation system, its search method, and search program | |
JP5167946B2 (en) | Voice operation recognition device | |
JP2007256020A (en) | Navigation device, navigation method, and navigation program | |
JP4952379B2 (en) | NAVIGATION DEVICE, NAVIGATION DEVICE SEARCH METHOD, AND SEARCH PROGRAM | |
JP4341283B2 (en) | Information terminal device and information acquisition method | |
JP4274913B2 (en) | Destination search device | |
JP2006189345A (en) | Onboard navigation device | |
WO2010081544A1 (en) | Mapping system and method | |
WO2006028171A1 (en) | Data presentation device, data presentation method, data presentation program, and recording medium containing the program | |
JP4985505B2 (en) | Sound output device and program | |
JP4253961B2 (en) | Information center, navigation device, and navigation system | |
JP2006300834A (en) | Route searching device | |
JP2002267475A (en) | Navigation system, method of generating route, and storing medium | |
JP2006090867A (en) | Navigation system | |
JP4232697B2 (en) | Car navigation system | |
KR20160111645A (en) | Automatic destination setting method and navigation apparatus performing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120214 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120227 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150323 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |