JP2014174879A - Information processor and information program - Google Patents
Information processor and information program Download PDFInfo
- Publication number
- JP2014174879A JP2014174879A JP2013048977A JP2013048977A JP2014174879A JP 2014174879 A JP2014174879 A JP 2014174879A JP 2013048977 A JP2013048977 A JP 2013048977A JP 2013048977 A JP2013048977 A JP 2013048977A JP 2014174879 A JP2014174879 A JP 2014174879A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- driver
- sight
- line
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Abstract
Description
本発明は、情報提供装置、及び情報提供プログラムに関し、例えば、車両の運転者に情報を提供するものに関する。 The present invention relates to an information providing apparatus and an information providing program, and relates to, for example, an apparatus that provides information to a driver of a vehicle.
従来の車両用のナビゲーション装置は、運転席付近に設置した小型タッチパネル画面や車内のスピーカやマイクロフォンなどを用いて、運転者(ドライバ)からの入力を受け付けたり、道順や道路情報、商業施設の情報などの案内情報を提供したりしている。
そして、近年では、特許文献1の「車両用情報表示装置」のように、ヘッドアップディスプレイを用いた情報提供が試みられるようになってきた。
この技術は、運転者の視線を検出し、視線方向にある建造物等の案内対象物に対する案内情報をフロントガラスなどに投影するものである。
この技術により、運転者は、タッチパネル画面を見ることなく、前景を見ながら所望の案内情報を得ることができる。
Conventional vehicle navigation devices use a small touch panel screen installed near the driver's seat, in-car speakers, microphones, etc. to accept input from the driver (driver), directions, road information, commercial facility information Or provide guidance information.
In recent years, attempts have been made to provide information using a head-up display, as in “Vehicle Information Display Device” of Patent Document 1.
This technique detects a driver's line of sight and projects guidance information for a guidance target object such as a building in the line of sight on a windshield or the like.
With this technology, the driver can obtain desired guidance information while looking at the foreground without looking at the touch panel screen.
ところで、特許文献1記載の技術では、運転者の視線が案内対象物を指定する遠隔操作手段として機能しており、例えば、視線先の案内対象物が重なっていたり、あるいは、接近するなどして、複数の案内対象物が案内候補となった場合、何れが運転者の意図する案内対象物であるか判断できないという問題があった。 By the way, in the technique described in Patent Document 1, the driver's line of sight functions as a remote control means for designating a guidance object. For example, the guidance objects at the line of sight overlap or approach each other. When a plurality of guidance objects are guidance candidates, there is a problem that it is impossible to determine which is the guidance object intended by the driver.
本発明は、複数の案内対象物から運転者の意図するものを選択することを目的とする。 An object of the present invention is to select a driver's intention from a plurality of guidance objects.
(1)請求項1に記載の発明では、車両の運転者の視界に対応する画像を取得する画像取得手段と、前記取得した画像に写っている案内対象物を認識する認識手段と、前記運転者の視線を検出する視線検出手段と、前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定手段と、前記運転者の眼の位置の移動方向を検出する移動検出手段と、前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、を具備したことを特徴とする情報提供装置を提供する。
(2)請求項2に記載の発明では、前記移動検出手段は、前記眼の移動量を更に検出し、前記車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて前記移動量に閾値を動的に設定する閾値設定手段を具備し、前記選択手段は、前記検出した眼の移動量が所定の閾値を超えた場合に、前記設定した重なり方向と、前記検出した移動方向と、に基づいて前記案内対象物を選択することを特徴とする請求項1に記載の情報提供装置を提供する。
(3)請求項3に記載の発明では、前記重なり方向設定手段は、前記重なっている複数の案内対象物のうち、一番手前にある案内対象物を基準として、他の案内対処物の重なり方向を設定する、ことを特徴とする請求項1又は請求項2に記載の情報提供装置を提供する。
(4)請求項4に記載の発明では、車両の運転者の視界に対応する画像を取得する画像取得機能と、前記取得した画像に写っている案内対象物を認識する認識機能と、前記運転者の視線を検出する視線検出機能と、前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定機能と、前記運転者の眼の位置の移動方向を検出する移動検出機能と、前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、をコンピュータで実現することを特徴とする情報提供プログラムを提供する。
(1) In the first aspect of the present invention, the image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle, the recognition means for recognizing the guidance object shown in the acquired image, and the driving Gaze detection means for detecting the gaze of the person, and specifying means for identifying the guidance object in the direction of the detected gaze by associating the recognized guidance object with the detected gaze in the acquired image. When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects is overlapped with the acquired image, the overlapping of other guidance objects with respect to any one of the guidance objects Based on the overlapping direction setting means for setting the direction, the movement detecting means for detecting the moving direction of the position of the eyes of the driver, the set overlapping direction, and the moving direction of the detected eye position, Identified Providing information providing apparatus characterized by comprising a selection means for selecting any one of the guidance object number.
(2) In the invention described in
(3) In the invention according to claim 3, the overlapping direction setting means overlaps other guidance countermeasure objects based on the guidance object in the foreground among the plurality of overlapping guidance objects. The information providing apparatus according to
(4) In the invention according to claim 4, an image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle, a recognition function for recognizing a guidance object in the acquired image, and the driving A line-of-sight detection function for detecting a person's line of sight, and a specifying function for associating the recognized guidance object with the detected line of sight in the acquired image to identify a guidance object in the direction of the detected line of sight When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects is overlapped with the acquired image, the overlapping of other guidance objects with respect to any one of the guidance objects Based on the overlapping direction setting function for setting the direction, the movement detecting function for detecting the moving direction of the position of the eyes of the driver, the set overlapping direction, and the moving direction of the detected eye position, Identified Providing information providing program characterized by implementing the selection function of selecting any one of the guidance object number, with the computer.
本発明によれば、複数の案内対象物の候補から適切なものを選択することができる。 According to the present invention, an appropriate item can be selected from a plurality of candidates for guidance objects.
(1)実施形態の概要
ナビゲーション装置1(図1)は、フロントカメラ31で運転者の視界にある情景を撮影すると共に、撮影した視野画像から案内画像物を画像認識する。更に、ナビゲーション装置1は、視線カメラ32によって運転者の視線を観察している。
そして、ナビゲーション装置1は、視線と案内対象物を照合することにより、視線の焦点のある案内対象物を特定し、これに対する案内情報をヘッドアップディスプレイ(Head−Up Display、以下単にHUDという)45によって運転者の視界に重畳して表示する。
(1) Outline of Embodiment The navigation device 1 (FIG. 1) captures a scene in the driver's field of view with the
The navigation device 1 then collates the line of sight with the guidance object, identifies the guidance object having the focus of the line of sight, and displays guidance information for this as a head-up display (hereinafter simply referred to as HUD) 45. Is superimposed on the driver's field of view.
例えば、視線方向で重なっていたり、または、接近(近接)している案内対象物が複数あり、視線からでは運転者の意図が判断しにくい場合は、重なり時処理や接近時処理を行って、運転者が何れの案内対象物を意図しているかを推測し、運転者の意図している可能性の高いものを選択して案内情報を出力する。
重なり時処理と、接近時処理は、何れも運転者の意図に基づく自然な肉体的反応を利用したものである。
For example, if there are multiple guidance objects that overlap or approach (close) in the line of sight, and it is difficult to determine the driver's intention from the line of sight, perform overlap processing and approach processing, It is estimated which guidance object the driver intends, selects a thing that is likely to be intended by the driver, and outputs guidance information.
The overlapping process and the approaching process both use natural physical reactions based on the driver's intention.
重なり時処理は、複数の案内対象物が重なっている場合、運転者の眼の位置の変化を検出する。例えば、運転者が左前方に重なっている案内対象物を意図した場合、頭部を左側に動かして案内対象物をのぞき込もうとすることが期待される。そのため、ナビゲーション装置1は、眼が左側に移動した場合、左側に重なっている案内対象物を選択する。 The overlapping process detects a change in the position of the driver's eyes when a plurality of guidance objects overlap. For example, when the driver intends a guidance object that is overlapped in the left front, it is expected that the driver moves the head to the left side and tries to look into the guidance object. Therefore, when the eye moves to the left side, the navigation device 1 selects a guidance object that overlaps the left side.
接近時処理は、複数の案内対象物が接近している場合、HUD45に表示するアニメーション(動画)を用いて運転者の視線を意図する案内対象物に誘導する。すなわち、複数の案内対象物が接近している場合、各案内対象に対応する領域を、移動させたり縮小することで、運転者の視線を誘導し、誘導した案内対象物に視線が移動するか否かにより、運転者の意図している案内対象物を選択する。
例えば、前方に2つの案内対象物が接近している場合、これらが離反するような画像をアニメーションで表示すれば、運転者の視線は意図する案内対象物に向かうことが期待される。そのため、ナビゲーション装置1は、運転者の視線が変化した先にある案内対象物を選択する。接近時処理には、この他にも2つの形態がある。
In the approaching process, when a plurality of guidance objects are approaching, the driver's line of sight is guided to the intended guidance object using an animation (moving image) displayed on the
For example, when two guidance objects are approaching in front, if an image is displayed as an animation that separates them, the driver's line of sight is expected to go toward the intended guidance object. Therefore, the navigation apparatus 1 selects the guidance object ahead of the driver's line of sight. There are two other forms of approach processing.
また、複数の案内対象物が存在する場合(重複、接近を含む)、案内対象物に対する注視時間を計測することにより運転者の意図する案内対象物を選択する。この際、各案内対象に対応する領域を、移動させたり縮小することで、運転者の視線を誘導することで、運転者の意図する案内対象物をより正確に選択することができる。 Further, when there are a plurality of guidance objects (including duplication and approach), the guidance object intended by the driver is selected by measuring the gaze time for the guidance object. At this time, the guidance object intended by the driver can be more accurately selected by guiding the driver's line of sight by moving or reducing the area corresponding to each guidance object.
(2)実施形態の詳細
図1は、本実施の形態のナビゲーション装置1の概要を説明するための図である。
フロントカメラ31は、車両前方に向けて設置されており、運転者(ナビゲーション装置1のユーザ)から見た車両前方の視野画像を連続的に撮影している。
一方、視線カメラ32は、運転者の頭部に向けて設置されており、運転者の視線を監視している。
(2) Details of Embodiment FIG. 1 is a diagram for explaining an outline of the navigation device 1 of the present embodiment.
The
On the other hand, the line-of-
情報処理装置20は、フロントカメラ31の撮影した視野画像を画像認識し、建築物、車両、交差点、歩行者などの案内対象物を特定する。
更に、情報処理装置20は、運転者の視線と案内対象物を対応させることにより運転者の意図する案内対象物を特定する。
そして、情報処理装置20は、特定した案内対象物に関する案内情報をHUD45に出力する。
これを受けて、HUD45は、案内情報を運転者が見ている情景に重畳して表示する。
The
Furthermore, the
Then, the
In response to this, the
このようにして、ナビゲーション装置1は、2つのカメラを利用して、例えば、前方の交差点を曲がったらどうなるかを運転者の視線から先読みしてHUD45や音声で通知したり、運転者がランドマークに視線を向けて「あれは何?」と問うた場合に、「スカイタワーです。」とHUD45や音声で通知したりなど、運転者が見ているものを理解(推測)し、運転者の視線から、運転者の意図を先読みしたサービスを提供することができる。
また、運転者の視線の向いていない方向を歩行している歩行者など、運転者が注意すべき対象を見ていない場合に注意喚起することもできる。
In this way, the navigation device 1 uses the two cameras to, for example, pre-read from the driver's line of sight what happens when turning the intersection ahead, and notifies the driver of the landmark with the
It is also possible to alert the driver when he / she is not looking at an object that the driver should be careful about, such as a pedestrian walking in a direction in which the driver's line of sight is not facing.
図2は、本実施形態で用いるナビゲーション装置1のシステム構成図である。
このナビゲーション装置1は、車両に搭載され、現在位置検出装置10、情報処理装置20、撮影装置30、入出力装置40及び記憶装置50とを備えている。
FIG. 2 is a system configuration diagram of the navigation device 1 used in the present embodiment.
The navigation device 1 is mounted on a vehicle and includes a current
現在位置検出装置10は、方位センサ12、距離センサ13、GPS受信装置14、地磁気センサ15、図示しない振動センサなどから構成されている。
方位センサ12は、基準角度(絶対方位)に対して、相対的に変化した角度を検出する手段であり、例えば、角速度を利用して角度の変化を検出するジャイロセンサを使用している。
なお、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリュームあるいは車輪部に取り付ける角度センサでもよい。
地磁気センサ15は、絶対方位を検出する手段であり、磁石に基づいてN方向の検出から、車両が何れの方向に向いているかを検出する。
ナビゲーション装置1は、方位センサ12や地磁気センサ15で検出される方位により、自車両の前方方向(即ち、進行方向)を判断することができる。
The current
The
An optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, or an angle sensor attached to the wheel part may be used.
The
The navigation apparatus 1 can determine the forward direction (that is, the traveling direction) of the host vehicle based on the direction detected by the
距離センサ13は、車両の移動距離を計測できる手段であり、例えば、車輪の回転を検出して計数するものや、加速度を検出して2回積分するものを使用する。
図示しないが振動センサは、車両の振動を検出する。
GPS(Global Positioning System)受信装置14は、地球を周回する複数のGPS衛星からの信号を受信する。この信号には時刻情報が含まれており、情報処理装置20がこれを処理することにより、ナビゲーション装置1は、自車両の位置情報を得ることができる。
The
Although not shown, the vibration sensor detects the vibration of the vehicle.
A GPS (Global Positioning System)
情報処理装置20は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)24、クロック28、センサ入力インターフェイス23、通信インターフェイス25などから構成されている。
情報処理装置20は、現在位置検出装置10、撮影装置30、入出力装置40から入力される情報、及び記憶装置50に格納された情報に基づいてナビゲーションのための各種演算を行うと共に、ディスプレイ42、HUD45、スピーカ44といった周辺機器を制御して、演算結果をこれらに出力する。
The
The
CPU21は、中央処理装置であって、伝送路26(バスライン)を介して情報の送受信を行い、ROM22や記憶装置50に記憶されているプログラムを実行することにより、ナビゲーション装置1全体の総括的な演算及び制御を行う。本実施の形態では、運転者の視線から案内対象物を特定し、これに関する案内情報をHUD45やスピーカ44などから出力する。
The
ROM22は、読み取り専用の記憶装置であって、情報処理装置20を動作させるための基本的なプログラムが記憶されている。また、記憶装置50に記憶されているナビゲーションプログラム51を、ここに格納することも可能である。
なお、ROM22を第1ROMと第2ROMの2つに分け、第2ROMに音声案内に関するナビゲーションプログラムを格納し、他のプログラムを第1ROMに格納するようにしてもよい。
The
The
RAM24は、CPU21が各種演算や制御を行う際のワーキングメモリを提供し、CPU21は、RAM24のメモリ空間を用いて、画像認識処理を行ったり、後述する複数の案内対象物の候補がある場合に、これを選択したりする。
また、RAM24は、入力装置41により入力された目的地の情報、通過地点の情報等の利用者(運転者やその他の搭乗者)が入力した情報を記憶すると共に、利用者の入力情報に基づいてCPU21により演算された結果や、経路探索された結果、または、記憶装置50から読み込まれた地図情報を格納する。
The
The
センサ入力インターフェイス23は、方位センサ12、距離センサ13、地磁気センサ15、振動センサなどの各種センサと接続するインターフェイスである。
通信インターフェイス25は、伝送路27を介して各種周辺機器と接続するインターフェイスである。
具体的には、伝送路27を介して、GPS受信装置14、入力装置41、記憶装置50、フロントカメラ31、視線カメラ32などが接続される。
The
The
Specifically, the
クロック28は、例えば、水晶振動子などを用いて構成された発信器であり、ナビゲーション装置1の各部の動作タイミングを提供する。また、CPU21は、クロック28により、後述の注視時間を計測したり、現在時刻を得たりすることもできる。
また、この他に、情報処理装置20に対して、CPU21で処理されたベクトル情報をディスプレイ42やHUD45で画像情報に処理するための画像処理専用の画像プロセッサ、画像プロセッサで処理された画像情報を格納する画像メモリ、記憶装置50から読み込まれた音声情報を処理しスピーカ44に出力する音声処理専用の音声プロセッサを配設してもよい。
The
In addition, for the
撮影装置30は、何れもCCD(Charge−Coupled Cevice)カメラなどを用いたフロントカメラ31と視線カメラ32から構成されている。
フロントカメラ31は、進行方向の運転者の見ている情景を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。フロントカメラ31による視野画像は、運転者が運転に際して得る視野に対応している。
視線カメラ32は、運転者の眼部を含む頭部を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。この画像により、運転者の視線情報(視線ベクトル、焦点座標値、視点位置など、運転者が見ている点を特定する情報)が得られ、視野画像上の視線による焦点を計算することができる。
なお、本実施の形態では、フロントカメラ31と視線カメラ32は、可視光を撮影するが、赤外線カメラなど、目的に応じた特殊なカメラを用いてもよい。
The imaging device 30 includes a
The
The line-of-
In the present embodiment, the
入出力装置40は、入力装置41、ディスプレイ42、HUD(Head−Up Display)45、スピーカ44、マイクロフォン46などから構成されている。
入力装置41は、例えば、タッチパネル、タッチスイッチ、ジョイスティック、キースイッチなどで構成されており、例えば、利用者から目的地、通過地点、探索条件などのデータの入力を受け付ける。
ディスプレイ42は、運転席付近に設置した小型のディスプレイであって、例えば、液晶ディスプレイによって構成されており、現在地周辺の地図や、目的地までの走行経路といった案内用の画面や、利用者がデータを入力するための入力画面などの画像を表示する。
The input /
The
The
HUD45は、例えば、投影機を用いてフロントガラスに画像を投影したり、あるいはフロントガラス上に設置した透明のスクリーンに画像を表示したりすることにより、運転者に情景と重畳して案内情報を提供する。
スピーカ44は、例えば、「30メートル先を右に曲がります。」などと、運転者に音声で案内情報を提供する。
マイクロフォン46は、利用者からの入力を音声により受け付ける。例えば、目的地の設定で利用者が「○○駅」と発話すると、目的地として○○駅が入力される。
The
The
The
記憶装置50は、大容量の記憶媒体と、これを駆動する駆動装置から構成されている。
記憶媒体としては、例えば、光学的記憶媒体であるDVD−ROM、CD−ROMや磁気的記憶媒体であるハードディスクなどを用いることができ、光磁気ディスク、各種半導体メモリなどの各種情報記憶媒体で構成することもできる。
なお、書き換えが必要な情報については、書き換え可能なハードディスク、フラッシュメモリなどで構成し、その他の固定的な情報についてはCD−ROM、DVD−ROMなどのROMを使用するようにしてもよい。
The storage device 50 includes a large-capacity storage medium and a drive device that drives the storage medium.
As the storage medium, for example, a DVD-ROM or CD-ROM that is an optical storage medium, a hard disk that is a magnetic storage medium, or the like can be used. The storage medium includes various information storage media such as a magneto-optical disk and various semiconductor memories. You can also
Information that needs to be rewritten may be constituted by a rewritable hard disk or flash memory, and other fixed information may be a ROM such as a CD-ROM or DVD-ROM.
記憶装置50には、ナビゲーションプログラム51、地図DB(データベース)52、案内情報DB54、交通情報DB55、画像認識用DB56などが記憶されている。
ナビゲーションプログラム51は、CPU21にナビゲーションに必要な各種演算や制御を行うための機能を発揮させるためのプログラムである。
The storage device 50 stores a navigation program 51, a map DB (database) 52, a guidance information DB 54, a
The navigation program 51 is a program for causing the
地図DB52は、2次元地図データと3次元地図データなどから構成されたデータベースである。
2次元地図データは、経路探索や経路案内に必要な2次元情報が登録されている。
3次元地図データは、通常の地図情報に加え、建物や信号などの構造物の形状や高さや、地形の高低といった特徴物の3次元情報が登録されている。
この3次元情報により、視野画像に対応するバーチャルな模擬画像が計算される。
更に、3次元地図データには、画像認識結果と照合するための属性(ビル、交差点など)が特徴物に対応して記憶されている。
The
In the two-dimensional map data, two-dimensional information necessary for route search and route guidance is registered.
In the 3D map data, in addition to normal map information, 3D information of features such as the shape and height of structures such as buildings and signals, and the height of topography is registered.
Based on this three-dimensional information, a virtual simulated image corresponding to the visual field image is calculated.
Further, in the 3D map data, attributes (buildings, intersections, etc.) for collating with the image recognition result are stored corresponding to the feature objects.
案内情報DB54は、2次元地図データや3次元地図データに含まれる建築物や交差点といった構造物などに対する案内情報が登録されたデータベースである。
案内情報は、例えば、構造物の名称、構造物の詳細情報(建築物に入居している施設の名称、階数、ジャンルなど)から構成されており、HUD45に表示されたりする。
The guide information DB 54 is a database in which guide information for structures such as buildings and intersections included in 2D map data and 3D map data is registered.
The guide information is composed of, for example, the name of the structure, detailed information of the structure (name of facility occupying the building, number of floors, genre, etc.), and is displayed on the
交通情報DB55は、例えば、ある道路のある区間が不通であるといった、経路探索や経路案内に必要な交通情報を記憶したデータベースである。
画像認識用DB56は、フロントカメラ31で撮影した視野画像から案内対象物をパターン認識により抽出・認識するためのパターンを登録したデータベースである。
The
The
より詳細には、画像認識用DB56には、建築物の特徴となる画像のパターンや交差点の特徴となる画像のパターン、あるいは、車両の特徴となる画像のパターンなどが記憶されており、情報処理装置20は、これを視野画像とマッチングして、視野画像内の建築物や交差点などの案内対象物を抽出・認識する。
なお、抽出とは、視野画像からパターンが一致した部分を取り出すことであり、認識とは、取り出した部分が、例えば、ビルであるとか、橋であるとか、交差点であるとか、あるいは車両であるなどと理解することである。
More specifically, the
In addition, extraction is to extract a portion having a matching pattern from the field image, and recognition is, for example, a building, a bridge, an intersection, or a vehicle. It is to understand that.
図3は、ナビゲーション装置1の機能的な構成を説明するための図である。
これらの各機能は、ナビゲーションプログラム51を情報処理装置20のCPU21で実行することにより実現される。
画像認識機能部60は、運転者の視野(車両前方の視界)に対応する視野画像を撮影すると共に、これを画像認識する機能部で、フロントカメラ31、撮影部61、画像処理認識部62、画像認識用DB56などから構成されている。
これらのうち、撮影部61、画像処理認識部62は、ナビゲーションプログラム51を実行することにより構成される。
FIG. 3 is a diagram for explaining a functional configuration of the navigation device 1.
Each of these functions is realized by executing the navigation program 51 by the
The image
Among these, the imaging unit 61 and the image processing recognition unit 62 are configured by executing the navigation program 51.
撮影部61は、フロントカメラ31を制御して車両の前方を撮影し、視野画像を生成する。
このように、撮影部61は、車両の運転者の視界に対応する画像を取得する画像取得手段として機能している。
画像処理認識部62は、撮影部61が生成した視野画像を画像認識用DB56に登録されたパターンと照合(パターン認識)することにより視野画像から案内対象物を抽出する画像処理を行う。
そして、画像処理認識部62は、抽出した案内対象物が何であるのか(例えば、車両、橋、建築物、信号機、交差点、歩行者など)を認識して、当該認識した案内対象物を輪郭化した後、これを矩形で囲む。
このように、画像処理認識部62は、取得した画像に写っている案内対象物を認識する認識手段として機能している。
The photographing unit 61 controls the
Thus, the imaging unit 61 functions as an image acquisition unit that acquires an image corresponding to the field of view of the driver of the vehicle.
The image processing recognizing unit 62 performs image processing for extracting the guidance object from the visual field image by collating the visual field image generated by the photographing unit 61 with the pattern registered in the image recognition DB 56 (pattern recognition).
Then, the image processing recognition unit 62 recognizes what the extracted guidance object is (for example, a vehicle, a bridge, a building, a traffic light, an intersection, a pedestrian, etc.), and outlines the recognized guidance object. After that, enclose it with a rectangle.
As described above, the image processing recognition unit 62 functions as a recognition unit that recognizes the guidance object in the acquired image.
この矩形は、運転者が案内対象物を見ているか否かを判断するための判断領域であり、ナビゲーション装置1は、運転者の視線が矩形内にあると、運転者が当該矩形で囲まれた案内対象物を見ていると判断する。
なお、判断領域を矩形とするのは一例であり、円や楕円、あるいは、多角形など、案内対象物を囲む(含む)領域であればよい。
This rectangle is a determination area for determining whether or not the driver is looking at the guidance object. In the navigation device 1, when the driver's line of sight is within the rectangle, the driver is surrounded by the rectangle. It is determined that the target object is being viewed.
Note that the rectangular determination area is merely an example, and may be any area that surrounds (includes) the guidance object, such as a circle, an ellipse, or a polygon.
画像処理認識部62は、このように案内対象物を囲む矩形を生成すると、矩形の座標値(矩形で囲まれた領域を特定する座標値で、矩形の4つの頂点の座標値)と認識結果(ビル、車両、交差点など)を案内対象物情報として視線情報サービス部65に出力する。
When the image processing recognizing unit 62 generates a rectangle surrounding the guidance target object in this way, the rectangular coordinate value (the coordinate value specifying the area surrounded by the rectangle, the coordinate value of the four vertices of the rectangle) and the recognition result (Building, vehicle, intersection, etc.) is output to the line-of-sight
視線認識機能部63は、視線カメラ32、視線管理部64、視線情報サービス部65などから構成されている。これらのうち、視線管理部64と視線情報サービス部65は、ナビゲーションプログラム51を実行することにより構成される。
The line-of-sight
視線管理部64は、視線カメラ32で撮影した運転者の頭部の画像から眼部を認識し、眼球形状の曲率から眼球中心座標を計算する。更に、視線管理部64は、眼部から黒目(瞳孔)領域を特定し、黒目(瞳孔)中心座標を計算する。
視線管理部64は、このようにして得た眼球中心座標から黒目中心座標に向かう方向を視線方向として規定し、眼球中心座標と視線方向を視線情報として視線情報サービス部65に出力する。
このように、視線管理部64は、運転者の視線を検出する視線検出手段として機能している。
The line-of-
The line-of-
In this way, the line-of-
この処理は、片眼に対して行うことができるが、両眼に対して行って結果を1つに平均化するなどしてもよい。
また、運転者が碧眼を有する場合でも瞳孔は黒いため、本手法を用いることができる。
なお、赤外線を用いる角膜反射法や強膜反射法など他の方法を用いたり、視線検出装置を運転者の眼部に装着するなど他のデバイスを用いてもよい。
This processing can be performed for one eye, but may be performed for both eyes and the results may be averaged into one.
Even when the driver has a blind eye, the pupil can be black, so this method can be used.
In addition, you may use other devices, such as using other methods, such as a cornea reflection method and a scleral reflection method using infrared rays, or mounting | wearing a driver | operator's eyes.
視線情報サービス部65は、以下のように、矩形と認識結果、及び運転者の視線情報に基づいて、HUD45やスピーカ44から情報を出力する。
まず、視線情報サービス部65は、画像認識機能部60から案内対象物情報を受け取り、視線管理部64から視線情報を受け取る。
The line-of-sight
First, the line-of-sight
そして、視線情報サービス部65は、視線情報から視線の焦点の座標値(視野における視線先の座標値)を計算し、当該焦点のある矩形を特定する。
焦点のある矩形により案内対象物が特定されるため、視線情報サービス部65は、取得した画像において、認識した案内対象物と検出した視線を対応させて、検出した視線の方向にある案内対象物を特定する特定手段として機能している。
Then, the line-of-sight
Since the guidance object is specified by the focused rectangle, the line-of-sight
視線情報サービス部65は、複数の矩形が重なっていたり、あるいは、接近するなどして、運転者の意図する案内対象物を特定するのが困難な場合は、後に説明する方法により運転者の意図を推測し、複数の案内対象物から1つを選択する。
このように、視線情報サービス部65は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物のうちの何れか1つを選択する選択手段として機能している。
The line-of-sight
Thus, the line-of-sight
更に、視線情報サービス部65は、ナビゲーション機能部68から現在位置と進行方向を取得し、地図DB52に記憶してある3次元地図データを用いて、運転者の視線方向の模擬画像をレイトレーシング法などの手法を用いて生成する。
模擬画像は、視野画像に対応する情景画像を3次元地図データを用いて仮想的に構成したものである。
Further, the line-of-sight
The simulated image is a virtual image obtained by using a three-dimensional map data of a scene image corresponding to the visual field image.
そして、視線情報サービス部65は、案内対象物情報(矩形の座標値と認識結果)と、模擬画像中の特徴物の座標値及び属性を照合(マッチング)する。
この照合は、例えば、矩形の座標値と特徴物の座標値を照合し、更に、認識結果(ビルなど)と特徴物の属性(ビルなど)を照合することにより行う。
このマッチングは、全ての矩形に対して行ってもよいし、あるいは、ランドマークなどの一部の矩形に対して行ってもよい。
その後、視線情報サービス部65は、運転者の意図する案内対象物の案内情報を案内情報DB54から取得し、HUD表示制御部72や音声制御部73に出力する。
このように、視線情報サービス部65は、選択した案内対象物に対する情報を運転者に提供する情報提供手段として機能している。
The line-of-sight
This collation is performed, for example, by collating a rectangular coordinate value with a coordinate value of a feature object, and further collating a recognition result (such as a building) with an attribute of the feature object (such as a building).
This matching may be performed for all rectangles, or may be performed for some rectangles such as landmarks.
Thereafter, the line-of-sight
Thus, the line-of-sight
音声認識機能部66は、マイクロフォン46、音声認識部67などから構成されている。
そして、視線情報サービス部65は、音声認識機能部66が音声による入力を受け付けることもできる。
例えば、運転者が案内対象物に視線を向けて「これは何?」などと発話すると、これをマイクロフォン46が音声認識部67に入力し、音声認識部67が発話内容を解釈する。
そして、これに対し、視線情報サービス部65は、「スカイタワーです。」などとHUD表示制御部72や音声制御部73に出力する。
The voice recognition function unit 66 includes a
The line-of-sight
For example, when the driver turns his gaze toward the guidance object and utters “What is this?”, The
In response to this, the line-of-sight
ナビゲーション機能部68は、案内処理部69、GPS受信装置14、各センサ71、地図DB52、交通情報DB55、案内情報DB54などから構成されている。
これらのうち、案内処理部69は、ナビゲーションプログラム51を実行することにより構成され、また、各センサ71は、図2の方位センサ12、距離センサ13、地磁気センサ15などから構成されている。
The
Among these, the guidance processing unit 69 is configured by executing the navigation program 51, and each sensor 71 is configured by the
案内処理部69は、経路探索、経路案内などディスプレイ42やスピーカ44を用いた従来のナビゲーションを行うほか、視線情報サービス部65の求めに応じて3次元地図データや案内情報を提供したり、GPS受信装置14や各センサ71によって現在位置と進行方向を知らせたりなど、視線認識機能部63がHUD45を用いて情報提供を行うのを支援する。
The guidance processing unit 69 performs conventional navigation using the
HUD表示制御部72と音声制御部73は、ナビゲーションプログラム51を実行することにより構成され、それぞれ、視線情報サービス部65の出力した案内情報をHUD45に表示したり、スピーカ44が出力したりする。
The HUD
図4は、矩形が重なっていた場合の重なり時処理を説明するための図である。
運転者の視線方向で複数の矩形が重なっていた場合、視線情報サービス部65は、以下の方法により、これらの中から運転者が意図しているものを推定し、案内対象となる矩形を選択する。
FIG. 4 is a diagram for explaining the overlapping process when rectangles overlap.
When a plurality of rectangles overlap in the driver's line-of-sight direction, the line-of-sight
図4(a)に示したように、視野画像81において、物体Aの左前方に物体Bが存在するため物体Aと物体Bが重なっており、運転者2が何れの物体を注視しているか視線方向からは判断困難とする。
このように物体Bが物体Aの陰になっており、運転者2が物体Bを注視している場合、運転者2は、左側に頭部を移動したり傾けたりすることが期待できる。
そこで、ナビゲーション装置1は、運転者2の眼の移動(例えば、進行方向に垂直な2次元平面内での移動)を観察し、これによって、運転者2が物体A、Bの何れを注視しているかを判断する。
このように、ナビゲーション装置1は、運転者の眼の位置の移動方向を検出する移動検出手段を備えている。
As shown in FIG. 4A, in the field-of-
Thus, when the object B is behind the object A and the
Therefore, the navigation device 1 observes the movement of the eye of the driver 2 (for example, movement in a two-dimensional plane perpendicular to the traveling direction), whereby the
As described above, the navigation device 1 includes movement detection means for detecting the movement direction of the position of the driver's eyes.
図4(b)を用いてより詳細に説明する。
設定した矩形A〜Dが、運転者の側からこの順に重なっているとする。そして、運転者の視線の焦点82が矩形Aの上にあるとする。
この場合、ナビゲーション装置1は、運転者の焦点のある矩形A(視点の位置で一番手前にあるもの)を基準矩形に設定する。
そして、ナビゲーション装置1は、基準矩形と直接重なっている他の矩形を抽出する。図の例では、矩形B、Cが基準矩形Aと重なっており、矩形Dは重なっていないため、ナビゲーション装置1は、矩形B、Cを抽出する。
This will be described in more detail with reference to FIG.
It is assumed that the set rectangles A to D overlap in this order from the driver side. Then, it is assumed that the
In this case, the navigation device 1 sets the rectangle A with the driver's focus (the one closest to the viewpoint position) as the reference rectangle.
Then, the navigation device 1 extracts another rectangle that directly overlaps the reference rectangle. In the example of the figure, the rectangles B and C overlap the reference rectangle A, and the rectangle D does not overlap. Therefore, the navigation device 1 extracts the rectangles B and C.
次に、ナビゲーション装置1は、抽出した矩形の基準矩形に対する位置関係から抽出した矩形に重なり方向を割り当てる。
ここでは、単純化のため、一例として、重なり方向を上下方向と左右方向とし、ナビゲーション装置1は、基準矩形と重なっていない部分の面積の大きい方の重なり方向を割り当てるものとする。
Next, the navigation device 1 assigns an overlapping direction to the extracted rectangle from the positional relationship of the extracted rectangle with respect to the reference rectangle.
Here, for simplification, as an example, it is assumed that the overlapping direction is an up-down direction and a left-right direction, and the navigation apparatus 1 assigns the overlapping direction with the larger area of the portion not overlapping the reference rectangle.
図の例では、矩形Bは、矩形Aと重なっていない部分の面積が上方向よりも左方向の方が大きいため、ナビゲーション装置1は、矩形Bに左方向を割り当てる。また、同様に矩形Cに対しては、上方向を割り当てる。
このように、ナビゲーション装置1は、特定した案内対象物が複数あり、当該複数ある案内対象物の一部が取得した画像で重なっている場合に、当該複数ある案内対象物の重なり方向を設定する重なり方向設定手段を備えている。
In the example shown in the figure, since the area of the rectangle B that does not overlap the rectangle A is larger in the left direction than in the upward direction, the navigation device 1 assigns the left direction to the rectangle B. Similarly, an upward direction is assigned to the rectangle C.
As described above, the navigation device 1 sets the overlapping direction of the plurality of guidance objects when there are a plurality of identified guidance objects and a part of the plurality of guidance objects overlaps the acquired images. Overlapping direction setting means is provided.
基準矩形を設定し、抽出した矩形の位置関係を割り当てた後、ナビゲーション装置1は、視線の焦点を中心に重なり方向に対応した判断領域を設定し、運転者の頭部の移動や回転に伴う眼の移動が判断領域以上となった方向の矩形を選択する。
このように、ナビゲーション装置1は、設定した矩形の重なり方向と、検出した眼の移動方向、とに基づいて案内対象物を選択する。
After setting the reference rectangle and assigning the positional relationship between the extracted rectangles, the navigation apparatus 1 sets a determination area corresponding to the overlapping direction with the focus of the line of sight as the center, and accompanies movement and rotation of the driver's head. A rectangle in the direction in which the eye movement is equal to or greater than the determination area is selected.
Thus, the navigation apparatus 1 selects a guidance target object based on the set rectangular overlapping direction and the detected eye movement direction.
なお、判断領域の大きさは、案内対象物が遠いほど、また、車両の振動が大きいほど大きく設定する。
これは、遠いものほど焦点が定まりにくく、振動が大きいほど眼の位置にばらつきが生じやすいためである。
このように、ナビゲーション装置1は、車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて移動量に閾値を動的に設定する閾値設定手段を備えている。
そして、ナビゲーション装置1は、検出した眼の移動量が所定の閾値(判断領域)を超えた場合に、矩形の重なり方向と、眼の移動方向と、に基づいて案内対象物を選択する。
Note that the size of the determination area is set to be larger as the guidance object is farther away and as the vibration of the vehicle is larger.
This is because the farther away the focal point is, the more difficult the focus is, and the greater the vibration, the more likely the position of the eye to vary.
As described above, the navigation device 1 includes threshold setting means for dynamically setting a threshold for the amount of movement using at least one of the vibration of the vehicle and the distance to the guidance object.
Then, when the detected eye movement amount exceeds a predetermined threshold (determination area), the navigation device 1 selects a guidance object based on the rectangular overlapping direction and the eye movement direction.
また、案内対象物までの距離は、現在位置と案内対象物の位置から計算してもよいし、あるいは、案内対象物の大きさの3次元データがあるため、視野画像における案内対象物の大きさと3次元データによる大きさを比較して計算してもよい。 Further, the distance to the guidance object may be calculated from the current position and the position of the guidance object, or since there is three-dimensional data of the size of the guidance object, the size of the guidance object in the view image And the size of the three-dimensional data may be compared.
ここでは、一例として、ナビゲーション装置1は、焦点82を中心とする誤差円83を判断領域に設定するものとする。
この場合、ナビゲーション装置1は、運転者の眼が誤差円83を超えて左方向に移動した場合は、矩形Bを運転者が意図する対象であるとして選択し、上方向に移動した場合は矩形Cを選択する。
なお、頭部は上下方向よりも左右方向に動かしやすいため、誤差円83を左右方向に長い楕円としてもよい。
Here, as an example, it is assumed that the navigation device 1 sets an
In this case, the navigation device 1 selects the rectangle B as an object intended by the driver when the driver's eyes move to the left beyond the
Since the head is easier to move in the left-right direction than in the up-down direction, the
以上のようにして、ナビゲーション装置1は、複数の矩形が重なっていた場合、運転者の意図すると推定される矩形を案内対象として選択することができる。
また、眼の位置の動きに、スイッチやジェスチャー(例えば、まばたき)など、運転者の意志を伝える他の手段を併用してもよい。
As described above, when a plurality of rectangles are overlapped, the navigation device 1 can select a rectangle that is estimated to be intended by the driver as a guidance target.
Further, other means for conveying the driver's will, such as a switch or a gesture (for example, blinking), may be used in combination with the movement of the eye position.
次に、矩形が接近している場合について説明する。複数の矩形が接近している場合、ある矩形に焦点があっても運転者は近隣の矩形を意図している場合がある。
そこで、ナビゲーション装置1は、複数の矩形が接近している場合、運転者の意図を推測して案内対象とする矩形を選択する。
ここでは、接近している矩形から選択する接近時処理の3つの方法について、それぞれ、図5〜図7を用いて説明する。
Next, a case where the rectangles are approaching will be described. When a plurality of rectangles are close to each other, there are cases where the driver intends a neighboring rectangle even when a certain rectangle has a focus.
Therefore, when a plurality of rectangles are approaching, the navigation device 1 estimates the driver's intention and selects a rectangle to be guided.
Here, three methods of the approaching process of selecting from the approaching rectangle will be described with reference to FIGS.
図5の各図は、接近時処理の第1の方法を説明するための図である。この方法では、矩形を拡大して分離し、運転者の視線の変化を観察する。
図5(a)に示したように、矩形Aと矩形B(何れも波線で囲んだ矩形領域)が接近している場合について考える。
この場合、ナビゲーション装置1は、運転者が視認しやすいように矩形A、Bの面積を拡大して反応領域を設定し(斜線で示した部分が拡大部分)、HUD45に表示する。
このように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、これら複数ある案内対象物を囲む領域(反応領域)を、運転者の視界において、案内対象物ごとに表示する表示手段を備えている。
Each figure of FIG. 5 is a figure for demonstrating the 1st method of the process at the time of approach. In this method, a rectangle is enlarged and separated, and a change in the driver's line of sight is observed.
As shown in FIG. 5A, consider a case where a rectangle A and a rectangle B (both rectangular regions surrounded by wavy lines) are close to each other.
In this case, the navigation apparatus 1 enlarges the areas of the rectangles A and B so that the driver can easily recognize the reaction area, sets the reaction area (the hatched portion is the enlarged portion), and displays it on the
Thus, when there are a plurality of specified guidance objects, the navigation apparatus 1 displays a region (reaction area) surrounding the plurality of guidance objects for each guidance object in the driver's field of view. It has.
次に、ナビゲーション装置1は、図5(b)に示したように、矩形A、Bの中点を結び、その直線に沿って、お互いに離反する方向に両方の反応領域をアニメーションで連続的に移動する。
このように、接近(接近)した矩形を運転者が認識できる形で明確に分離することにより、各矩形に対するそれぞれの注視を明確化することができる。また、運転者が何れかの対象を意図していた場合、アニメーションと共に視点が意図する方の矩形に移動することが期待される。
そこで、ナビゲーション装置1は、運転者の視線が移動した側の矩形を選択する。
Next, as shown in FIG. 5B, the navigation device 1 connects the midpoints of the rectangles A and B, and continuously animates both reaction regions in the direction away from each other along the straight line. Move to.
Thus, by clearly separating the approaching (approaching) rectangles in a form that can be recognized by the driver, it is possible to clarify each gaze on each rectangle. Further, when the driver intends any one of the objects, it is expected that the viewpoint moves to the intended rectangle along with the animation.
Therefore, the navigation device 1 selects the rectangle on the side on which the driver's line of sight has moved.
このように、ナビゲーション装置1は、表示した領域を離反する方向に移動する領域移動手段と、これら領域の移動に際しての運転者の視線の変化を取得する視線変化取得手段を備えており、視線の変化に基づいて案内対象物を選択する。
また、領域移動手段は、移動開始前の位置から移動後の位置まで領域をアニメーションによって連続的に移動する。
Thus, the navigation device 1 includes area moving means for moving the displayed area away from the displayed area, and line-of-sight change acquisition means for acquiring changes in the driver's line of sight when moving these areas. A guidance object is selected based on the change.
The area moving means continuously moves the area by animation from the position before the movement start to the position after the movement.
なお、矩形をアニメーションで徐々に移動したのは、瞬間的に離反させるよりも運転者の視線を誘導しやすいからである。
また、矩形選択の判断において、各矩形における注視時間の総和を比較して多い方の矩形を選択するようにしてもよい。
Note that the reason why the rectangle is gradually moved by animation is that it is easier to guide the driver's line of sight than when the rectangle is moved away.
In addition, in the rectangle selection determination, the larger rectangle may be selected by comparing the sum of the gaze times in each rectangle.
ここで、矩形A、Bを離反させる分断距離yは、例えば、矩形の対向する辺の距離とし、図5(c)に示したように、対象までの距離をxとし、誤差角をθとして、y=x×tanθで表すことができる。ここで、誤差角とは、運転者から見て矩形の対向する辺が成す角度の半分である。 Here, the dividing distance y that separates the rectangles A and B is, for example, the distance between opposite sides of the rectangle, the distance to the object is x, and the error angle is θ, as shown in FIG. , Y = x × tan θ. Here, the error angle is half of the angle formed by opposing sides of the rectangle as viewed from the driver.
図6の各図は、接近時処理の第2の方法を説明するための図である。この方法では、運転者が視線を向けるターゲットを小さくして視線を誘導する。
図6(a)に示したように、現在の焦点位置に対して接近している矩形A、B、Cがあったとする。
ナビゲーション装置1は、矩形A、B、Cに重畳して、運転者の反応を観察するための、それぞれの矩形を囲んだ矩形の反応領域91、92、93をHUD45に表示する。
反応領域91、92、93は、運転者が視認しやすいように、目立つ状態で表示される。なお、運転者の視線の焦点のある矩形だけ反応領域を表示してもよい。
Each figure of FIG. 6 is a figure for demonstrating the 2nd method of the process at the time of approach. In this method, the driver guides the line of sight by reducing the target to which the line of sight is directed.
Assume that there are rectangles A, B, and C that are close to the current focal position, as shown in FIG.
The navigation device 1 superimposes the rectangles A, B, and C, and displays
The
このように反応領域を表示した後、ナビゲーション装置1は、運転者の意図が現在焦点のある矩形であるか否かを確認するために、焦点のある反応領域を運転者が見ている間にアニメーションで徐々に連続的に縮小し、運転者の視線を案内対象物の中心に誘導する。
その際に、他の反応領域や矩形の色を変えたり、薄くしたりなどして、目立たなくするとより効果的である。
即ち、ナビゲーション装置1は、焦点のある反応領域が運転者の意図するものであるか確認するために当該反応領域を仮選択し、これを縮小して視線の変化を観察する。
After displaying the reaction area in this manner, the navigation device 1 determines whether the driver's intention is a currently focused rectangle or not while the driver is viewing the focused reaction area. The animation is gradually and continuously reduced to guide the driver's line of sight to the center of the guidance object.
At that time, it is more effective to make it inconspicuous by changing the color of other reaction areas or rectangles or making them thinner.
That is, the navigation apparatus 1 temporarily selects the reaction area in order to confirm whether the focused reaction area is intended by the driver, and reduces the observation area to observe a change in line of sight.
このように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物のうちの1つを仮選択する仮選択手段と、この仮選択した案内対象物を囲む領域(反応領域)を、運転者の視界において表示する表示手段と、表示した領域の面積を変化させる面積変化手段と(この例では縮小)、この面積の変化に際して運転者の視線の変化を取得する視線変化取得手段を備えている。 As described above, when there are a plurality of specified guidance objects, the navigation device 1 provisionally selects one of the plurality of guidance objects, and an area surrounding the provisionally selected guidance object. A display means for displaying the (reaction area) in the driver's field of view, an area changing means for changing the area of the displayed area (in this example, reduction), and a change in the driver's line of sight when the area changes A line-of-sight change acquisition means is provided.
また、反応領域の縮小は、必要なだけ行えばよいので、ここでは、反応領域を案内対象物の輪郭より小さくしないものとする。なお、矩形と反応領域は別に管理し、矩形は縮小しない。矩形は、視線の焦点があることにより案内対象物を特定する領域であるため、矩形を小さくすると視線を検出する範囲が狭まってしまうからである。あくまで視線を誘導するために反応領域の表示を小さくする。 Since the reaction area may be reduced as much as necessary, the reaction area is not made smaller than the outline of the guidance target object. The rectangle and the reaction area are managed separately, and the rectangle is not reduced. This is because the rectangle is an area for specifying the guidance object due to the focus of the line of sight, and therefore, when the rectangle is made small, the range for detecting the line of sight is narrowed. The display of the reaction area is reduced in order to guide the line of sight to the last.
このように視線を誘導した場合、運転者が誘導先の案内対象物を意図している場合には、注視を維持し、意図していない場合には、視線をずらすことが期待できる。
そこで、ナビゲーション装置1は、縮小した反応領域に重畳している矩形に対する注視時間(視線の焦点の滞留時間)を計測する。注視時間の計測方法は、次に説明する第3の方法と同様である。
そして、注視時間が所定の判定時間(閾値)を超えた場合、運転者がその案内対象物を意図しているものと判断し、当該案内対象物を案内対象として選択する。
このように、ナビゲーション装置1は、面積を変化させた領域に運転者の視線が所定時間以上滞在した場合に(即ち、所定時間以上注視した場合)、当該領域を選択する。
When the line of sight is guided as described above, it can be expected that the driver keeps his gaze when the driver intends the guidance target object and shifts the line of sight when the driver does not intend.
Therefore, the navigation device 1 measures the gaze time (the dwell time of the focus of the line of sight) for the rectangle superimposed on the reduced reaction area. The method for measuring the gaze time is the same as the third method described below.
When the gaze time exceeds a predetermined determination time (threshold value), the driver determines that the guidance object is intended, and selects the guidance object as a guidance object.
As described above, the navigation device 1 selects a region when the driver's line of sight stays in the region where the area is changed for a predetermined time or longer (that is, when the driver gazes for a predetermined time or longer).
例えば、図6(b)に示したように、視線の焦点が矩形Bにあるとすると、ナビゲーション装置1は、反応領域92を矢線で示したように徐々に反応領域94にまで縮小すると共に、他の表示状態を変更して目立たなくする。
そして、ナビゲーション装置1は、運転者の反応領域94に対する注視時間を計測し、これが所定の判定時間を超えた場合、矩形Bを選択する。
For example, as shown in FIG. 6B, if the focus of the line of sight is in the rectangle B, the navigation device 1 gradually reduces the
And the navigation apparatus 1 measures the gaze time with respect to the reaction area |
図7の各図は、接近時処理の第3の方法を説明するための図であり、この方法では、各矩形に対する視線の焦点の注視時間を測定する。
図7(a)に示したように、接近した矩形A、B、Cがあり、運転者の意図する案内対象物が不明確であったとする。
この場合、ナビゲーション装置1は、所定の判定時間に渡って運転者の視線が各矩形に滞留(滞在)した時間をカウントして足すことにより、候補の案内対象物をどの程度の時間見続けたかを計測し、注視時間が所定の判定時間(閾値)に達した場合、その矩形の案内対象物を選択する。
Each drawing of FIG. 7 is a diagram for explaining a third method of the approaching process. In this method, the gaze time of the focus of the line of sight with respect to each rectangle is measured.
As shown in FIG. 7A, it is assumed that there are rectangles A, B, and C that are close to each other and the guidance object intended by the driver is unclear.
In this case, the navigation device 1 counts and adds the time that the driver's line of sight stays (stays) in each rectangle over a predetermined determination time, and thus how long the candidate guidance object has been viewed. When the gaze time reaches a predetermined determination time (threshold), the rectangular guide object is selected.
図7(a)には、運転者の視線方向である焦点の変遷が点とこれを結ぶ矢線によって示されている。例えば、図7(a)に示したように、焦点101から焦点103まで、矩形Aから矩形Cに渡って移動したとする。
この場合、ナビゲーション装置1は、焦点が各矩形に滞留した時間を例えばミリ秒単位で累積していく。
In FIG. 7A, the transition of the focus, which is the direction of the driver's line of sight, is indicated by a point and an arrow line connecting it. For example, as shown in FIG. 7A, it is assumed that the object moves from the rectangle A to the rectangle C from the
In this case, the navigation device 1 accumulates the time during which the focal point stays in each rectangle, for example, in milliseconds.
図7(b)は、図7(a)における注視時間の一例を示した図である。
図の左端が判定開始時点であり、右端が判定時間である。図の上から矩形A、B、Cの注視時間107、108、109が示されており、矩形Bの注視時間108が最も長くなっている。
ナビゲーション装置1は、このように各矩形における注視時間を計測し、それが判定時間に達した場合、当該判定時間に達した矩形の案内対象物を案内対象として選択する。
以上のように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、運転者の視線が滞在した時間(注視時間)を案内対象物ごとに計測する計測手段を備え、当該計測した時間に基づいて案内対象物を選択する。
FIG. 7B is a diagram showing an example of the gaze time in FIG.
The left end of the figure is the determination start time, and the right end is the determination time. The
In this way, the navigation device 1 measures the gaze time in each rectangle, and when it reaches the determination time, selects the rectangular guidance object that has reached the determination time as the guidance object.
As described above, when there are a plurality of specified guidance objects, the navigation device 1 measures the time (gaze time) during which the driver's line of sight stays on the plurality of guidance objects for each guidance object. A means is provided and a guidance object is selected based on the measured time.
次に、以上のように構成されたナビゲーション装置1の動作について説明する。
以下の情報処理動作、及び制御動作は、CPU21(図2)がナビゲーションプログラム51を実行することにより実現される。
図8は、視線を用いた案内情報提供処理を説明するためのフローチャートである。
まず、ナビゲーション装置1は、視野画像について撮影・画像認識処理を行い、案内対象物の抽出、及び抽出した案内対象物の理解を行う(ステップ5)。
そして、ナビゲーション装置1は、抽出・理解した案内対象物に対して、これを囲む大きさの矩形を設定する(ステップ10)。
Next, the operation of the navigation device 1 configured as described above will be described.
The following information processing operation and control operation are realized by the CPU 21 (FIG. 2) executing the navigation program 51.
FIG. 8 is a flowchart for explaining the guidance information providing process using the line of sight.
First, the navigation apparatus 1 performs a photographing / image recognition process on the visual field image, extracts a guidance object, and understands the extracted guidance object (step 5).
And the navigation apparatus 1 sets the rectangle of the magnitude | size surrounding this with respect to the guidance target object extracted and understood (step 10).
次に、ナビゲーション装置1は、運転者の視線方向に設定した矩形が、他の矩形と重なった位置にあるか否かを判断する(ステップ15)。
複数の矩形が重なった位置にある場合(ステップ15;Y)、ナビゲーション装置1は、重なり時処理を行って(ステップ20)、案内対象となる矩形を選択する。
そして、ナビゲーション装置1は、選択した矩形の案内対象物に対する案内情報をHUD45に表示したり、スピーカ44から出力したりして運転者に提供する(ステップ25)。
Next, the navigation device 1 determines whether or not the rectangle set in the driver's line-of-sight direction is in a position overlapping another rectangle (step 15).
When the plurality of rectangles are at the overlapping position (
Then, the navigation device 1 provides the driver with guidance information for the selected rectangular guidance object on the
一方、矩形が重なった位置にない場合(ステップ15;N)、ナビゲーション装置1は、運転者の視線方向で複数の矩形が接近した位置にあるか否かを判断する(ステップ35)。
接近(近接)しているか否かの判断は、矩形の辺の間隔が所定の閾値以下である場合に接近していると判断する。
複数の矩形が接近している場合(ステップ35;Y)、ナビゲーション装置1は、接近時処理を行い(方法1〜3の何れでもよい)(ステップ40)、選択した矩形の案内対象物に対する案内情報を提供する(ステップ25)。
一方、視線方向で複数の矩形が接近した位置にない場合(ステップ35;N)、ナビゲーション装置1は、視線方向にある矩形の案内対象物に対する案内情報を提供する(ステップ25)。
On the other hand, when the rectangles are not at the overlapping position (
The determination of whether or not they are approaching (approaching) determines that they are approaching when the interval between the sides of the rectangle is equal to or less than a predetermined threshold.
When a plurality of rectangles are approaching (
On the other hand, when the plurality of rectangles are not close to each other in the line-of-sight direction (
このように、ナビゲーション装置1は、案内情報を提供した後(ステップ25)、案内を継続するか否かを判断し(ステップ30)、案内を継続する場合は(ステップ30;Y)、ステップ5に戻り、案内を継続しない場合は(例えば、運転者がナビゲーション装置1を操作して案内を停止した場合)(ステップ30;N)、案内情報提供処理を終了する。 Thus, after providing the guidance information (step 25), the navigation device 1 determines whether or not to continue the guidance (step 30). If the guidance is to be continued (step 30; Y), step 5 When the guidance is not continued (for example, when the driver stops the guidance by operating the navigation device 1) (step 30; N), the guidance information providing process is terminated.
図9は、ステップ5の撮影・画像認識処理を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の画像認識機能部60(図3)が行うものである。
ナビゲーション装置1は、フロントカメラ31を用いて視野画像を取得する(ステップ50)。
そして、ナビゲーション装置1は、視野画像を視線トラッキング範囲(視線の移り変わっている範囲)で切り出して、これを取り出す(ステップ55)。
これは、フロントカメラ31で撮影している画像と、運転者の視野にずれがあるため、画像認識処理する範囲が運転者の視野に適合するように撮影した画像を調整するものである。以降、ナビゲーション装置1は、この取り出した視野画像を用いる。
FIG. 9 is a flowchart for explaining the photographing / image recognition processing in step 5.
The following processing is performed by the image recognition function unit 60 (FIG. 3) of the navigation device 1.
The navigation apparatus 1 acquires a visual field image using the front camera 31 (step 50).
Then, the navigation device 1 cuts out the visual field image in the line-of-sight tracking range (the range in which the line of sight changes), and extracts this (step 55).
This is because the image captured by the
次に、ナビゲーション装置1は、視野画像に対して、特徴物抽出のためのエッジ抽出処理などの画像処理を行い(ステップ60)、画像認識用DB56を用いて、予め学習させてあるパターンと抽出した特徴物を照合することにより画像認識(パターン認識)する(ステップ65)。
次に、ナビゲーション装置1は、パターンがマッチした特徴物が何であるのか(例えば、ビル、交差点など)を理解する(ステップ70)。
そして、ナビゲーション装置1は、理解した特徴物を輪郭化することにより輪郭処理し(ステップ75)、これを矩形で囲んで記憶する(ステップ80)。このように、案内対象物は、特徴物として抽出され、輪郭化された後、矩形で囲まれる。
Next, the navigation apparatus 1 performs image processing such as edge extraction processing for feature object extraction on the visual field image (step 60), and extracts a pattern learned in advance using the
Next, the navigation apparatus 1 understands what the feature with which the pattern matched (for example, a building, an intersection, etc.) (step 70).
Then, the navigation device 1 performs contour processing by contouring the understood feature (step 75), and stores this by enclosing it in a rectangle (step 80). As described above, the guidance object is extracted as a feature object, contoured, and then surrounded by a rectangle.
図10は、ステップ20の重なり時処理を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の視線認識機能部63(図3)が行うものである。
まず、ナビゲーション装置1は、運転者の現在の焦点がある矩形、即ち、焦点位置で一番手前にある矩形を基準に設定する(ステップ90)。
次に、ナビゲーション装置1は、複数重なっている矩形のうち、基準となる矩形の案内対象物に関してとりあえず案内情報を提供する(ステップ95)。
FIG. 10 is a flowchart for explaining the overlapping processing in
The following processing is performed by the line-of-sight recognition function unit 63 (FIG. 3) of the navigation device 1.
First, the navigation device 1 sets a rectangle with the driver's current focus, that is, a rectangle closest to the focus position (step 90).
Next, the navigation device 1 provides guidance information for the reference rectangular guidance object among the plurality of overlapping rectangles (step 95).
なお、情報提供には、運転者が案内対象物を視認している場合に、当該案内対象物の案内情報を提供するプル型と、運転者が案内対象物を視認していない場合に、当該案内対象物の案内情報を提供するプッシュ型がある。
本実施の形態では、運転者の視線の焦点にある矩形に対応する案内情報を提供するためプル型となる。
For information provision, when the driver is viewing the guidance object, the pull type that provides the guidance information of the guidance object, and when the driver is not viewing the guidance object, There is a push type that provides guidance information of guidance objects.
In the present embodiment, a pull type is provided to provide guidance information corresponding to a rectangle at the focus of the driver's line of sight.
次に、ナビゲーション装置1は、基準矩形に重なっている他の矩形を抽出し(ステップ100)、抽出した矩形の基準矩形に対する位置関係を割り当てる(ステップ105)。
次に、ナビゲーション装置1は、視線の焦点を中心に重なり方向に対応した判断領域(例えば、誤差円)を、車両の振動や案内対象物までの距離などを考慮しながら設定する(ステップ110)。
Next, the navigation device 1 extracts another rectangle that overlaps the reference rectangle (step 100), and assigns the positional relationship of the extracted rectangle to the reference rectangle (step 105).
Next, the navigation apparatus 1 sets a determination region (for example, an error circle) corresponding to the overlapping direction centered on the focus of the line of sight while considering the vibration of the vehicle, the distance to the guidance object, and the like (step 110). .
このように判断領域を設定した後、ナビゲーション装置1は、視線カメラ32によって運転者の眼の位置の移動を追跡し、眼の位置が判断領域の範囲を超えたか否かを判断する(ステップ120)。
眼の位置が判断領域を超えた場合(ステップ120;Y)、ナビゲーション装置1は、眼の移動方向に対応する位置関係の矩形を選択する(ステップ125)。
眼の位置が判断領域を超えない場合(ステップ120;N)、ナビゲーション装置1は、メインルーチン(図8のフローチャート)にリターンする。
After setting the determination area in this way, the navigation apparatus 1 tracks the movement of the driver's eye position by the line-of-
When the eye position exceeds the determination region (step 120; Y), the navigation device 1 selects a positional relation rectangle corresponding to the eye movement direction (step 125).
If the eye position does not exceed the determination area (step 120; N), the navigation device 1 returns to the main routine (flowchart in FIG. 8).
図11は、第1の方法に対応する接近時処理の手順を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の視線認識機能部63(図3)が行うものである(以下、第2の方法、第3の方法も同様)。
まず、ナビゲーション装置1は、現在の視線の焦点の位置から案内対象の候補となる接近した複数の矩形を選択する。
そして、これら接近している案内対象候補の矩形の中心点を結ぶことにより、分断により離反させる離反方向を設定し(ステップ140)、更に、分断距離yを計算する(ステップ145)。
次に、ナビゲーション装置1は、矩形に重畳して反応領域をHUD45に表示し、当該反応領域を離反方向に分断距離yだけ離反させるアニメーションを開始する(ステップ150)。
FIG. 11 is a flowchart for explaining the procedure of the approach processing corresponding to the first method.
The following processing is performed by the line-of-sight recognition function unit 63 (FIG. 3) of the navigation device 1 (hereinafter, the same applies to the second method and the third method).
First, the navigation device 1 selects a plurality of approaching rectangles that are candidates for guidance from the current focus position.
Then, by connecting the rectangular center points of the guidance target candidates that are approaching, a separation direction to be separated by division is set (step 140), and further, a division distance y is calculated (step 145).
Next, the navigation device 1 displays the reaction area on the
ナビゲーション装置1は、アニメーションを行っている間、視線カメラ32によって運転者の視線を観察し、視線がアニメーションに追従したか否かを判断する(ステップ155)。
視線がアニメーションに追従した場合(ステップ155;Y)、ナビゲーション装置1は、視線の焦点が移動した側の矩形を選択状態とし(ステップ160)、メインルーチンにリターンする。
一方、視線が追従しない場合(ステップ155;N)、ナビゲーション装置1は、運転者は対象の矩形を見ていないと判断し、反応領域と矩形を消去し(ステップ170)、メインルーチンにリターンする。
During the animation, the navigation device 1 observes the driver's line of sight with the line-of-
When the line of sight follows the animation (
On the other hand, when the line of sight does not follow (step 155; N), the navigation device 1 determines that the driver is not looking at the target rectangle, deletes the reaction area and the rectangle (step 170), and returns to the main routine. .
図12は、第2の方法に対応する接近時処理の手順を説明するためのフローチャートである。
まず、ナビゲーション装置1は、接近した矩形のそれぞれに反応領域を設定してHUD45に表示するとともに、その中から現在の焦点がある矩形を案内候補として選択する(ステップ180)。
FIG. 12 is a flowchart for explaining the procedure of the approaching process corresponding to the second method.
First, the navigation device 1 sets a reaction region for each approaching rectangle and displays it on the
次に、ナビゲーション装置1は、選択した矩形上に視線の焦点があるか否かを判断する(ステップ185)。
選択した矩形上に焦点がある場合(ステップ185;Y)、ナビゲーション装置1は、当該矩形の反応領域を徐々に縮小するとともに(ステップ190)、当該矩形における注視時間を計測する(ステップ195)。
Next, the navigation device 1 determines whether or not the line of sight is on the selected rectangle (step 185).
When the focus is on the selected rectangle (
次に、ナビゲーション装置1は、注視時間が所定の制限時間内に所定の判定時間に達したか否かを判断する(ステップ200)。
所定の判定時間が満了した場合(ステップ200;Y)、ナビゲーション装置1は、当該矩形を案内対象として選択し、メインルーチンにリターンする。
一方、所定の判定時間が満了しなかった場合(ステップ200;N)、ナビゲーション装置1は、ステップ185に戻る。
Next, the navigation device 1 determines whether or not the gaze time has reached a predetermined determination time within a predetermined time limit (step 200).
When the predetermined determination time has expired (step 200; Y), the navigation device 1 selects the rectangle as a guidance target and returns to the main routine.
On the other hand, when the predetermined determination time has not expired (step 200; N), the navigation device 1 returns to step 185.
また、ステップ185で、焦点が選択した矩形になかった場合(ステップ185;N)、ナビゲーション装置1は、他の矩形に焦点が移動したか否かを判断する(ステップ210)。
他の矩形に焦点が移動した場合(ステップ210;Y)、ナビゲーション装置1は、当該他の矩形を新たに選択し(ステップ215)、ステップ185に戻る。
一方、他の矩形に焦点が移動していない場合(ステップ210;N)、ナビゲーション装置1は、何もないところに視線が移動したと判断し、HUD45から反応領域を消去してメインルーチンにリターンする。
In
When the focus moves to another rectangle (step 210; Y), the navigation apparatus 1 newly selects the other rectangle (step 215) and returns to step 185.
On the other hand, when the focal point has not moved to another rectangle (step 210; N), the navigation device 1 determines that the line of sight has moved to an empty place, erases the reaction area from the
図13は、第3の方法に対応する接近時処理の手順を説明するためのフローチャートである。第2の方法と同様のステップには同じステップ番号を付し、説明を簡略化する。
まず、ナビゲーション装置1は、接近した矩形の中から現在の焦点がある矩形を案内候補として選択する(ステップ180)。
FIG. 13 is a flowchart for explaining the procedure of the approaching process corresponding to the third method. Steps similar to those in the second method are denoted by the same step numbers, and the description is simplified.
First, the navigation device 1 selects a rectangle with the current focus as a guidance candidate from the close rectangles (step 180).
次に、ナビゲーション装置1は、選択した矩形上に視線の焦点があるか否かを判断する(ステップ185)。
選択した矩形上に焦点がある場合(ステップ185;Y)、ナビゲーション装置1は、当該矩形における注視時間を計測する(ステップ195)。
Next, the navigation device 1 determines whether or not the line of sight is on the selected rectangle (step 185).
When the focal point is on the selected rectangle (
次に、ナビゲーション装置1は、注視時間が所定の制限時間内に所定の判定時間に達したか否かを判断する(ステップ200)。
所定の判定時間が満了した場合(ステップ200;Y)、ナビゲーション装置1は、当該矩形を案内対象として選択し、メインルーチンにリターンする。
一方、所定の判定時間が満了しなかった場合(ステップ200;N)、ナビゲーション装置1は、ステップ185に戻る。
Next, the navigation device 1 determines whether or not the gaze time has reached a predetermined determination time within a predetermined time limit (step 200).
When the predetermined determination time has expired (step 200; Y), the navigation device 1 selects the rectangle as a guidance target and returns to the main routine.
On the other hand, when the predetermined determination time has not expired (step 200; N), the navigation device 1 returns to step 185.
また、ステップ185で、焦点が選択した矩形になかった場合(ステップ185;N)、ナビゲーション装置1は、他の矩形に焦点が移動したか否かを判断する(ステップ210)。
他の矩形に焦点が移動した場合(ステップ210;Y)、ナビゲーション装置1は、当該他の矩形を新たに選択し(ステップ215)、ステップ185に戻る。
一方、他の矩形に焦点が移動していない場合(ステップ210;N)、ナビゲーション装置1は、何もないところに視線が移動したと判断し、メインルーチンにリターンする。
In
When the focus moves to another rectangle (step 210; Y), the navigation apparatus 1 newly selects the other rectangle (step 215) and returns to step 185.
On the other hand, if the focal point has not moved to another rectangle (step 210; N), the navigation device 1 determines that the line of sight has moved to a place where there is nothing, and returns to the main routine.
以上に説明した実施の形態により、次のような効果を得ることができる。
(1)案内対象物が重なっている場合や接近している場合は、認識した対象と視線の組み合わせにより、唯一の案内対象物を案内対象として特定するのが困難な場合がある。しかし、ナビゲーション装置1によれば、重なり時処理や接近時処理を行うことにより適切な案内対象物を選択することができる。
(2)重なり時処理によれば、案内対象物が重なった場合に、運転者の直感的な動作から意図を判別することができる。
(3)接近時処理(第1の方法、第2の方法)によれば、案内対象物が接近している場合に、反応領域を離反させたり、変形することにより、運転者の直感的な視線の変化を検出して運転者の意図を判別することができる。
(4)接近時処理(第3の方法)によれば、案内対象物に対する注視時間を計測することにより運転者の意図を判別することができる。
(5)ナビゲーション装置1は、運転者の視線を遠隔操作手段として用いると共に、重なり時処理や接近時処理を用いることにより、運転者が意図している案内対象物を適切に選択することができる。そのため、運転者の意図や行動を先読みして処理し、より直感的に運転者が外界の情報を取得することができる。
According to the embodiment described above, the following effects can be obtained.
(1) When guidance objects overlap or approach each other, it may be difficult to specify a single guidance object as a guidance object depending on the combination of the recognized object and the line of sight. However, according to the navigation device 1, it is possible to select an appropriate guidance object by performing the overlapping process and the approaching process.
(2) According to the overlapping process, the intention can be determined from the intuitive operation of the driver when the guidance objects overlap.
(3) According to the approach processing (the first method and the second method), when the guidance object is approaching, the reaction area is separated or deformed, so that the driver's intuitive The driver's intention can be determined by detecting a change in the line of sight.
(4) According to the approach processing (third method), the driver's intention can be determined by measuring the gaze time for the guidance object.
(5) The navigation device 1 can appropriately select the guidance object intended by the driver by using the driver's line of sight as the remote control means and by using the overlapping process and the approaching process. . Therefore, the driver's intention and behavior are prefetched and processed, and the driver can acquire information on the outside world more intuitively.
なお、本実施形態としては、次のように構成することも可能である。
(1)構成1
車両の運転者の視界に対応する画像を取得する画像取得手段と、
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導手段と、
前記誘導手段による視線の誘導による前記運転者の視線の変化を取得する視線変化取得手段と、
前記誘導手段の視線誘導による運転者の視線の変化に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供手段と、
を具備したことを特徴とする情報提供装置。
(2)構成2
前記視線誘導手段は、前記複数ある案内対象物を囲む領域を、前記運転者の視界において、前記案内対象物ごとに表示し、当該表示した領域を変化させる、ことで前記運転者の視線を誘導する、
ことを特徴とする構成1記載の情報提供装置。
(3)構成3
前記視線誘導手段は、前記表示した領域を離反する方向に移動する、ことで運転者の視線を誘導する、
ことを特徴とする構成2に記載の情報提供装置。
(4)構成4
前記視線誘導手段は、誘導開始前の位置から移動後の位置まで前記領域を連続的に移動する、
ことを特徴とする構成3に記載の情報提供装置。
(5)構成5
前記視線誘導手段は、当該複数ある案内対象物のうちの1つを仮選択し、前記仮選択した案内対象物を囲む領域を、前記運転者の視界において表示すると共に、前記表示した領域を縮小させる、ことで前記運転者の視線を誘導する、
ことを特徴とする構成1に記載の情報提供装置。
(6)構成6
前記視線誘導手段は、仮選択する案内対象物を順次変更する、
ことを特徴とする構成5に記載の情報提供装置。
(7)構成7
前記誘導手段による運転者の視線誘導の間に、前記複数ある案内対象物の各々に対して、前記運転者の視線が滞在した時間を計測する計測手段を具備し、
前記選択手段は、所定時間以上視線が滞在した案内対象物を選択する、
ことを特徴とする構成2から構成6のうちのいずれか1の構成に記載の情報提供装置。
(8)構成8
車両の運転者の視界に対応する画像を取得する画像取得機能と、
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導機能と、
前記誘導機能による視線の誘導による前記運転者の視線の変化を取得する視線変化取得機能と、
前記誘導機能の視線誘導による運転者の視線の変化に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。
The present embodiment can also be configured as follows.
(1) Configuration 1
Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
Guidance means for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
A line-of-sight change acquisition means for acquiring a change in the line of sight of the driver due to the line-of-sight guidance by the guide means;
Selection means for selecting any one of the identified plurality of guidance objects based on a change in the driver's line of sight due to the line of sight guidance of the guidance means;
Information providing means for providing the driver with information on the selected guidance object;
An information providing apparatus comprising:
(2)
The line-of-sight guidance means guides the driver's line of sight by displaying an area surrounding the plurality of guidance objects in the driver's field of view for each of the guidance objects, and changing the displayed area. To
An information providing apparatus according to Configuration 1, characterized in that:
(3) Configuration 3
The line-of-sight guidance means guides the driver's line of sight by moving in a direction away from the displayed area;
The information providing apparatus according to
(4) Configuration 4
The line-of-sight guidance means continuously moves the region from a position before guidance start to a position after movement,
The information providing apparatus according to Configuration 3, characterized in that:
(5) Configuration 5
The line-of-sight guidance means temporarily selects one of the plurality of guidance objects, displays an area surrounding the provisionally selected guidance object in the driver's field of view, and reduces the displayed area. To guide the driver's line of sight,
The information providing apparatus according to Configuration 1, characterized in that:
(6)
The line-of-sight guidance means sequentially changes guidance objects to be temporarily selected.
The information providing apparatus according to Configuration 5, characterized in that:
(7) Configuration 7
During the driver's line-of-sight guidance by the guide means, for each of the plurality of guidance objects, comprises a measuring means for measuring the time that the driver's line of sight stayed,
The selection means selects a guide object whose line of sight has stayed for a predetermined time or more.
The information providing apparatus according to any one of
(8) Configuration 8
An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
A guidance function for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
A line-of-sight change acquisition function for acquiring a change in the line of sight of the driver due to the line-of-sight guidance by the guidance function;
A selection function for selecting any one of the identified plurality of guidance objects based on a change in the driver's line of sight due to the line of sight guidance of the guidance function;
An information providing function for providing the driver with information on the selected guidance object;
An information providing program characterized by realizing the above with a computer.
更に次の用に実施形態を構成することも可能である。
(11)構成11
車両の運転者の視界に対応する画像を取得する画像取得手段と、
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、前記運転者の視線が滞在した時間を前記案内対象物毎に計測する計測手段と、
前記計測した前記案内対象物毎の時間に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供手段と、
を具備したことを特徴とする情報提供装置。
(12)構成12
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導手段と、
を更に備えたことを特徴とする構成11に記載の情報提供装置。
(13)構成13
前記選択手段は、前記誘導手段による前記運転者の視線誘導の間に、所定時間以上視線が滞在した案内対象物を選択する、
ことを特徴とする構成12に記載の情報提供装置。
(14)構成14
車両の運転者の視界に対応する画像を取得する画像取得機能と、
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、前記運転者の視線が滞在した時間を前記案内対象物毎に計測する計測機能と、
前記計測した前記案内対象物毎の時間に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。
Further, the embodiment can be configured for the following purposes.
(11) Configuration 11
Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
When there are a plurality of the specified guidance objects, a measuring unit that measures the time that the driver's line of sight stays in the plurality of guidance objects for each guidance object;
Selection means for selecting any one of the specified plurality of guidance objects based on the measured time for each guidance object;
Information providing means for providing the driver with information on the selected guidance object;
An information providing apparatus comprising:
(12)
Guidance means for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
The information providing device according to Configuration 11, further comprising:
(13)
The selection means selects a guidance object whose line of sight has stayed for a predetermined time or more during the driver's line of sight guidance by the guidance means.
13. The information providing device according to
(14)
An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
When there are a plurality of the specified guidance objects, a measurement function for measuring, for each guidance object, the time that the driver's line of sight stays in the plurality of guidance objects;
A selection function for selecting any one of the specified plurality of guidance objects based on the measured time for each guidance object;
An information providing function for providing the driver with information on the selected guidance object;
An information providing program characterized by realizing the above with a computer.
1 ナビゲーション装置
2 運転者
10 現在位置検出装置
12 方位センサ
13 距離センサ
14 GPS受信装置
15 地磁気センサ
20 情報処理装置
28 クロック
30 撮影装置
31 フロントカメラ
32 視線カメラ
40 入出力装置
41 入力装置
42 ディスプレイ
44 スピーカ
45 HUD
46 マイクロフォン
50 記憶装置
51 ナビゲーションプログラム
52 地図DB
54 案内情報DB
55 交通情報DB
56 画像認識用DB
60 画像認識機能部
61 撮影部
62 画像処理認識部
63 視線認識機能部
64 視線管理部
65 視線情報サービス部
66 音声認識機能部
67 音声認識部
68 ナビゲーション機能部
69 案内処理部
71 各センサ
73 音声制御部
81 視野画像
82 焦点
83 誤差円
91〜94 反応領域
101、103 焦点
107〜109 注視時間
DESCRIPTION OF SYMBOLS 1
46 Microphone 50 Storage device 51
54 Guidance Information DB
55 Traffic Information DB
56 Image recognition database
60 Image Recognition Function Unit 61 Image Capture Unit 62 Image
Claims (4)
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定手段と、
前記運転者の眼の位置の移動方向を検出する移動検出手段と、
前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
を具備したこと特徴とする情報提供装置。 Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects overlaps with the acquired image, the overlapping direction of the other guidance objects with respect to any one of the guidance objects Overlapping direction setting means for setting
Movement detection means for detecting the movement direction of the position of the driver's eyes;
Selection means for selecting any one of the specified plurality of guidance objects based on the set overlapping direction and the detected movement direction of the eye position;
An information providing apparatus comprising:
前記車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて前記移動量に閾値を動的に設定する閾値設定手段を具備し、
前記選択手段は、前記検出した眼の移動量が所定の閾値を超えた場合に、前記設定した重なり方向と、前記検出した移動方向と、に基づいて前記案内対象物を選択することを特徴とする請求項1に記載の情報提供装置。 The movement detection means further detects the movement amount of the eye,
Threshold value setting means for dynamically setting a threshold value for the amount of movement using at least one of the vibration of the vehicle and the distance to the guidance object;
The selecting means selects the guidance object based on the set overlapping direction and the detected moving direction when the detected movement amount of the eye exceeds a predetermined threshold value. The information providing apparatus according to claim 1.
ことを特徴とする請求項1又は請求項2に記載の情報提供装置。 The overlapping direction setting means sets the overlapping direction of other guidance countermeasure objects, with the guidance object in front of the plurality of overlapping guidance objects as a reference,
The information providing apparatus according to claim 1 or 2, characterized in that
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定機能と、
前記運転者の眼の位置の移動方向を検出する移動検出機能と、
前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。 An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects overlaps with the acquired image, the overlapping direction of the other guidance objects with respect to any one of the guidance objects Overlap direction setting function to set
A movement detection function for detecting a movement direction of the position of the eyes of the driver;
A selection function for selecting any one of the identified plurality of guidance objects based on the set overlapping direction and the movement direction of the detected eye position;
An information providing program characterized by realizing the above with a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013048977A JP2014174879A (en) | 2013-03-12 | 2013-03-12 | Information processor and information program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013048977A JP2014174879A (en) | 2013-03-12 | 2013-03-12 | Information processor and information program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014174879A true JP2014174879A (en) | 2014-09-22 |
Family
ID=51696004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013048977A Abandoned JP2014174879A (en) | 2013-03-12 | 2013-03-12 | Information processor and information program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014174879A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087091A (en) * | 2018-11-28 | 2020-06-04 | 株式会社日立ビルシステム | Skill degree determination system |
CN111366165A (en) * | 2018-12-26 | 2020-07-03 | 长安大学 | Road sight distance detection method based on network geographic information system and machine vision |
-
2013
- 2013-03-12 JP JP2013048977A patent/JP2014174879A/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087091A (en) * | 2018-11-28 | 2020-06-04 | 株式会社日立ビルシステム | Skill degree determination system |
JP7011569B2 (en) | 2018-11-28 | 2022-02-10 | 株式会社日立ビルシステム | Skill level judgment system |
CN111366165A (en) * | 2018-12-26 | 2020-07-03 | 长安大学 | Road sight distance detection method based on network geographic information system and machine vision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2891953B1 (en) | Eye vergence detection on a display | |
JP4366716B2 (en) | Vehicle information display device | |
US20190251374A1 (en) | Travel assistance device and computer program | |
US10029700B2 (en) | Infotainment system with head-up display for symbol projection | |
JP2014181927A (en) | Information provision device, and information provision program | |
JP6176541B2 (en) | Information display device, information display method, and program | |
US20160054795A1 (en) | Information display device | |
US11900672B2 (en) | Integrated internal and external camera system in vehicles | |
JP2012220489A (en) | Windshield display device for road guidance information and method therefor | |
JP2009020089A (en) | System, method, and program for navigation | |
JP2014120111A (en) | Travel support system, travel support method, and computer program | |
KR20190083727A (en) | Guide robot and operating method thereof | |
CN107923761A (en) | Display control unit, display device and display control method | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP7151073B2 (en) | Display device and computer program | |
JP2016091192A (en) | Virtual image display apparatus, control method, program, and storage medium | |
JP2014120114A (en) | Travel support system, travel support method, and computer program | |
JP2016074410A (en) | Head-up display device and head-up display display method | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
KR20160146384A (en) | An augment reality navigation system and method of route guidance of an augment reality navigation system | |
JP2014174880A (en) | Information processor and information program | |
JP2014120113A (en) | Travel support system, travel support method, and computer program | |
KR20130119144A (en) | Method and device for displaying object using transparent display panel | |
JP2014174879A (en) | Information processor and information program | |
JP2014174091A (en) | Information providing device and information providing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150320 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20150908 |