JP2014174879A - Information processor and information program - Google Patents

Information processor and information program Download PDF

Info

Publication number
JP2014174879A
JP2014174879A JP2013048977A JP2013048977A JP2014174879A JP 2014174879 A JP2014174879 A JP 2014174879A JP 2013048977 A JP2013048977 A JP 2013048977A JP 2013048977 A JP2013048977 A JP 2013048977A JP 2014174879 A JP2014174879 A JP 2014174879A
Authority
JP
Japan
Prior art keywords
guidance
driver
sight
line
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2013048977A
Other languages
Japanese (ja)
Inventor
Tomonori Sugiura
智則 杉浦
Masatoshi Matsuoka
昌利 松岡
Saijiro Tanaka
斎二郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2013048977A priority Critical patent/JP2014174879A/en
Publication of JP2014174879A publication Critical patent/JP2014174879A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To select a guide object intended by a driver from among a plurality of guide objects.SOLUTION: A navigation device 1 is configured to photograph a scene in the visual field of a driver by a front camera 31, and to perform the image recognition of a guide image from a photographed visual field image, and to observe the visual line of the driver by a visual line camera 32. Then, the navigation device 1 is configured to specify a guide object focused by the visual line by collating the visual line with the guide object, and to display guide information corresponding to the guide object such that it is superimposed on the visual field of the driver by an HUD(Head-Up Display) 45. Then, the navigation device 1 is configured to, when a plurality of guide objects are overlapped, detect the change of the positions of the eyes of the driver. For example, when the guide object overlapped with the left front side is intended by the driver, the driver is expected to peek into the guide object by moving the head to the left side. Therefore, the navigation device 1 is configured to, when the driver moves the eyes to the left side, select the guide object overlapped on the left side.

Description

本発明は、情報提供装置、及び情報提供プログラムに関し、例えば、車両の運転者に情報を提供するものに関する。   The present invention relates to an information providing apparatus and an information providing program, and relates to, for example, an apparatus that provides information to a driver of a vehicle.

従来の車両用のナビゲーション装置は、運転席付近に設置した小型タッチパネル画面や車内のスピーカやマイクロフォンなどを用いて、運転者(ドライバ)からの入力を受け付けたり、道順や道路情報、商業施設の情報などの案内情報を提供したりしている。
そして、近年では、特許文献1の「車両用情報表示装置」のように、ヘッドアップディスプレイを用いた情報提供が試みられるようになってきた。
この技術は、運転者の視線を検出し、視線方向にある建造物等の案内対象物に対する案内情報をフロントガラスなどに投影するものである。
この技術により、運転者は、タッチパネル画面を見ることなく、前景を見ながら所望の案内情報を得ることができる。
Conventional vehicle navigation devices use a small touch panel screen installed near the driver's seat, in-car speakers, microphones, etc. to accept input from the driver (driver), directions, road information, commercial facility information Or provide guidance information.
In recent years, attempts have been made to provide information using a head-up display, as in “Vehicle Information Display Device” of Patent Document 1.
This technique detects a driver's line of sight and projects guidance information for a guidance target object such as a building in the line of sight on a windshield or the like.
With this technology, the driver can obtain desired guidance information while looking at the foreground without looking at the touch panel screen.

ところで、特許文献1記載の技術では、運転者の視線が案内対象物を指定する遠隔操作手段として機能しており、例えば、視線先の案内対象物が重なっていたり、あるいは、接近するなどして、複数の案内対象物が案内候補となった場合、何れが運転者の意図する案内対象物であるか判断できないという問題があった。   By the way, in the technique described in Patent Document 1, the driver's line of sight functions as a remote control means for designating a guidance object. For example, the guidance objects at the line of sight overlap or approach each other. When a plurality of guidance objects are guidance candidates, there is a problem that it is impossible to determine which is the guidance object intended by the driver.

特開2006−242859号公報JP 2006-242859 A

本発明は、複数の案内対象物から運転者の意図するものを選択することを目的とする。   An object of the present invention is to select a driver's intention from a plurality of guidance objects.

(1)請求項1に記載の発明では、車両の運転者の視界に対応する画像を取得する画像取得手段と、前記取得した画像に写っている案内対象物を認識する認識手段と、前記運転者の視線を検出する視線検出手段と、前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定手段と、前記運転者の眼の位置の移動方向を検出する移動検出手段と、前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、を具備したことを特徴とする情報提供装置を提供する。
(2)請求項2に記載の発明では、前記移動検出手段は、前記眼の移動量を更に検出し、前記車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて前記移動量に閾値を動的に設定する閾値設定手段を具備し、前記選択手段は、前記検出した眼の移動量が所定の閾値を超えた場合に、前記設定した重なり方向と、前記検出した移動方向と、に基づいて前記案内対象物を選択することを特徴とする請求項1に記載の情報提供装置を提供する。
(3)請求項3に記載の発明では、前記重なり方向設定手段は、前記重なっている複数の案内対象物のうち、一番手前にある案内対象物を基準として、他の案内対処物の重なり方向を設定する、ことを特徴とする請求項1又は請求項2に記載の情報提供装置を提供する。
(4)請求項4に記載の発明では、車両の運転者の視界に対応する画像を取得する画像取得機能と、前記取得した画像に写っている案内対象物を認識する認識機能と、前記運転者の視線を検出する視線検出機能と、前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定機能と、前記運転者の眼の位置の移動方向を検出する移動検出機能と、前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、をコンピュータで実現することを特徴とする情報提供プログラムを提供する。
(1) In the first aspect of the present invention, the image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle, the recognition means for recognizing the guidance object shown in the acquired image, and the driving Gaze detection means for detecting the gaze of the person, and specifying means for identifying the guidance object in the direction of the detected gaze by associating the recognized guidance object with the detected gaze in the acquired image. When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects is overlapped with the acquired image, the overlapping of other guidance objects with respect to any one of the guidance objects Based on the overlapping direction setting means for setting the direction, the movement detecting means for detecting the moving direction of the position of the eyes of the driver, the set overlapping direction, and the moving direction of the detected eye position, Identified Providing information providing apparatus characterized by comprising a selection means for selecting any one of the guidance object number.
(2) In the invention described in claim 2, the movement detecting means further detects the amount of movement of the eye, and uses the movement of the vehicle and at least one of the distance to the guidance object. Threshold selection means for dynamically setting a threshold value for the amount, and the selection means, when the detected movement amount of the eye exceeds a predetermined threshold value, the set overlapping direction and the detected movement direction The information providing apparatus according to claim 1, wherein the guidance object is selected based on the information.
(3) In the invention according to claim 3, the overlapping direction setting means overlaps other guidance countermeasure objects based on the guidance object in the foreground among the plurality of overlapping guidance objects. The information providing apparatus according to claim 1 or 2, wherein a direction is set.
(4) In the invention according to claim 4, an image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle, a recognition function for recognizing a guidance object in the acquired image, and the driving A line-of-sight detection function for detecting a person's line of sight, and a specifying function for associating the recognized guidance object with the detected line of sight in the acquired image to identify a guidance object in the direction of the detected line of sight When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects is overlapped with the acquired image, the overlapping of other guidance objects with respect to any one of the guidance objects Based on the overlapping direction setting function for setting the direction, the movement detecting function for detecting the moving direction of the position of the eyes of the driver, the set overlapping direction, and the moving direction of the detected eye position, Identified Providing information providing program characterized by implementing the selection function of selecting any one of the guidance object number, with the computer.

本発明によれば、複数の案内対象物の候補から適切なものを選択することができる。   According to the present invention, an appropriate item can be selected from a plurality of candidates for guidance objects.

ナビゲーション装置の概要を説明するための図である。It is a figure for demonstrating the outline | summary of a navigation apparatus. ナビゲーション装置のシステム構成図である。It is a system configuration figure of a navigation device. ナビゲーション装置の機能的な構成を説明するための図である。It is a figure for demonstrating the functional structure of a navigation apparatus. 重なり時処理を説明するための図である。It is a figure for demonstrating the process at the time of overlap. 接近時処理の第1の方法を説明するための図である。It is a figure for demonstrating the 1st method of the process at the time of approach. 接近時処理の第2の方法を説明するための図である。It is a figure for demonstrating the 2nd method of the process at the time of approach. 接近時処理の第3の方法を説明するための図である。It is a figure for demonstrating the 3rd method of the process at the time of approach. 案内情報提供処理を説明するためのフローチャートである。It is a flowchart for demonstrating guidance information provision processing. 撮影・画像認識処理を説明するためのフローチャートである。It is a flowchart for demonstrating imaging | photography and image recognition processing. 重なり時処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of overlap. 接近時処理(第1の方法)の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the process at the time of approach (1st method). 接近時処理(第2の方法)の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the process at the time of approach (2nd method). 接近時処理(第3の方法)の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the process at the time of approach (3rd method).

(1)実施形態の概要
ナビゲーション装置1(図1)は、フロントカメラ31で運転者の視界にある情景を撮影すると共に、撮影した視野画像から案内画像物を画像認識する。更に、ナビゲーション装置1は、視線カメラ32によって運転者の視線を観察している。
そして、ナビゲーション装置1は、視線と案内対象物を照合することにより、視線の焦点のある案内対象物を特定し、これに対する案内情報をヘッドアップディスプレイ(Head−Up Display、以下単にHUDという)45によって運転者の視界に重畳して表示する。
(1) Outline of Embodiment The navigation device 1 (FIG. 1) captures a scene in the driver's field of view with the front camera 31, and recognizes a guide image object from the captured visual field image. Furthermore, the navigation device 1 observes the driver's line of sight with the line-of-sight camera 32.
The navigation device 1 then collates the line of sight with the guidance object, identifies the guidance object having the focus of the line of sight, and displays guidance information for this as a head-up display (hereinafter simply referred to as HUD) 45. Is superimposed on the driver's field of view.

例えば、視線方向で重なっていたり、または、接近(近接)している案内対象物が複数あり、視線からでは運転者の意図が判断しにくい場合は、重なり時処理や接近時処理を行って、運転者が何れの案内対象物を意図しているかを推測し、運転者の意図している可能性の高いものを選択して案内情報を出力する。
重なり時処理と、接近時処理は、何れも運転者の意図に基づく自然な肉体的反応を利用したものである。
For example, if there are multiple guidance objects that overlap or approach (close) in the line of sight, and it is difficult to determine the driver's intention from the line of sight, perform overlap processing and approach processing, It is estimated which guidance object the driver intends, selects a thing that is likely to be intended by the driver, and outputs guidance information.
The overlapping process and the approaching process both use natural physical reactions based on the driver's intention.

重なり時処理は、複数の案内対象物が重なっている場合、運転者の眼の位置の変化を検出する。例えば、運転者が左前方に重なっている案内対象物を意図した場合、頭部を左側に動かして案内対象物をのぞき込もうとすることが期待される。そのため、ナビゲーション装置1は、眼が左側に移動した場合、左側に重なっている案内対象物を選択する。   The overlapping process detects a change in the position of the driver's eyes when a plurality of guidance objects overlap. For example, when the driver intends a guidance object that is overlapped in the left front, it is expected that the driver moves the head to the left side and tries to look into the guidance object. Therefore, when the eye moves to the left side, the navigation device 1 selects a guidance object that overlaps the left side.

接近時処理は、複数の案内対象物が接近している場合、HUD45に表示するアニメーション(動画)を用いて運転者の視線を意図する案内対象物に誘導する。すなわち、複数の案内対象物が接近している場合、各案内対象に対応する領域を、移動させたり縮小することで、運転者の視線を誘導し、誘導した案内対象物に視線が移動するか否かにより、運転者の意図している案内対象物を選択する。
例えば、前方に2つの案内対象物が接近している場合、これらが離反するような画像をアニメーションで表示すれば、運転者の視線は意図する案内対象物に向かうことが期待される。そのため、ナビゲーション装置1は、運転者の視線が変化した先にある案内対象物を選択する。接近時処理には、この他にも2つの形態がある。
In the approaching process, when a plurality of guidance objects are approaching, the driver's line of sight is guided to the intended guidance object using an animation (moving image) displayed on the HUD 45. That is, when a plurality of guidance objects are approaching, by moving or reducing the area corresponding to each guidance object, the driver's line of sight is guided, and whether the line of sight moves to the guided guidance object. The guidance object intended by the driver is selected depending on whether or not it is present.
For example, when two guidance objects are approaching in front, if an image is displayed as an animation that separates them, the driver's line of sight is expected to go toward the intended guidance object. Therefore, the navigation apparatus 1 selects the guidance object ahead of the driver's line of sight. There are two other forms of approach processing.

また、複数の案内対象物が存在する場合(重複、接近を含む)、案内対象物に対する注視時間を計測することにより運転者の意図する案内対象物を選択する。この際、各案内対象に対応する領域を、移動させたり縮小することで、運転者の視線を誘導することで、運転者の意図する案内対象物をより正確に選択することができる。   Further, when there are a plurality of guidance objects (including duplication and approach), the guidance object intended by the driver is selected by measuring the gaze time for the guidance object. At this time, the guidance object intended by the driver can be more accurately selected by guiding the driver's line of sight by moving or reducing the area corresponding to each guidance object.

(2)実施形態の詳細
図1は、本実施の形態のナビゲーション装置1の概要を説明するための図である。
フロントカメラ31は、車両前方に向けて設置されており、運転者(ナビゲーション装置1のユーザ)から見た車両前方の視野画像を連続的に撮影している。
一方、視線カメラ32は、運転者の頭部に向けて設置されており、運転者の視線を監視している。
(2) Details of Embodiment FIG. 1 is a diagram for explaining an outline of the navigation device 1 of the present embodiment.
The front camera 31 is installed toward the front of the vehicle, and continuously captures a field image in front of the vehicle as viewed from the driver (user of the navigation device 1).
On the other hand, the line-of-sight camera 32 is installed toward the driver's head, and monitors the driver's line of sight.

情報処理装置20は、フロントカメラ31の撮影した視野画像を画像認識し、建築物、車両、交差点、歩行者などの案内対象物を特定する。
更に、情報処理装置20は、運転者の視線と案内対象物を対応させることにより運転者の意図する案内対象物を特定する。
そして、情報処理装置20は、特定した案内対象物に関する案内情報をHUD45に出力する。
これを受けて、HUD45は、案内情報を運転者が見ている情景に重畳して表示する。
The information processing apparatus 20 recognizes the field-of-view image captured by the front camera 31 and identifies guidance objects such as buildings, vehicles, intersections, and pedestrians.
Furthermore, the information processing device 20 specifies the guidance object intended by the driver by associating the driver's line of sight with the guidance object.
Then, the information processing apparatus 20 outputs guidance information regarding the identified guidance object to the HUD 45.
In response to this, the HUD 45 superimposes and displays the guidance information on the scene viewed by the driver.

このようにして、ナビゲーション装置1は、2つのカメラを利用して、例えば、前方の交差点を曲がったらどうなるかを運転者の視線から先読みしてHUD45や音声で通知したり、運転者がランドマークに視線を向けて「あれは何?」と問うた場合に、「スカイタワーです。」とHUD45や音声で通知したりなど、運転者が見ているものを理解(推測)し、運転者の視線から、運転者の意図を先読みしたサービスを提供することができる。
また、運転者の視線の向いていない方向を歩行している歩行者など、運転者が注意すべき対象を見ていない場合に注意喚起することもできる。
In this way, the navigation device 1 uses the two cameras to, for example, pre-read from the driver's line of sight what happens when turning the intersection ahead, and notifies the driver of the landmark with the HUD 45 or voice. When he asks "What is that?", He understands (guesses) what the driver is seeing, such as notifying him of "Sky Tower." From the line of sight, it is possible to provide a service that pre-reads the driver's intention.
It is also possible to alert the driver when he / she is not looking at an object that the driver should be careful about, such as a pedestrian walking in a direction in which the driver's line of sight is not facing.

図2は、本実施形態で用いるナビゲーション装置1のシステム構成図である。
このナビゲーション装置1は、車両に搭載され、現在位置検出装置10、情報処理装置20、撮影装置30、入出力装置40及び記憶装置50とを備えている。
FIG. 2 is a system configuration diagram of the navigation device 1 used in the present embodiment.
The navigation device 1 is mounted on a vehicle and includes a current position detection device 10, an information processing device 20, a photographing device 30, an input / output device 40, and a storage device 50.

現在位置検出装置10は、方位センサ12、距離センサ13、GPS受信装置14、地磁気センサ15、図示しない振動センサなどから構成されている。
方位センサ12は、基準角度(絶対方位)に対して、相対的に変化した角度を検出する手段であり、例えば、角速度を利用して角度の変化を検出するジャイロセンサを使用している。
なお、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリュームあるいは車輪部に取り付ける角度センサでもよい。
地磁気センサ15は、絶対方位を検出する手段であり、磁石に基づいてN方向の検出から、車両が何れの方向に向いているかを検出する。
ナビゲーション装置1は、方位センサ12や地磁気センサ15で検出される方位により、自車両の前方方向(即ち、進行方向)を判断することができる。
The current position detection device 10 includes an orientation sensor 12, a distance sensor 13, a GPS receiver 14, a geomagnetic sensor 15, a vibration sensor (not shown), and the like.
The azimuth sensor 12 is a means for detecting an angle that has changed relative to a reference angle (absolute azimuth), and uses, for example, a gyro sensor that detects a change in angle using an angular velocity.
An optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, or an angle sensor attached to the wheel part may be used.
The geomagnetic sensor 15 is a means for detecting an absolute azimuth, and detects which direction the vehicle is directed from the detection in the N direction based on the magnet.
The navigation apparatus 1 can determine the forward direction (that is, the traveling direction) of the host vehicle based on the direction detected by the direction sensor 12 or the geomagnetic sensor 15.

距離センサ13は、車両の移動距離を計測できる手段であり、例えば、車輪の回転を検出して計数するものや、加速度を検出して2回積分するものを使用する。
図示しないが振動センサは、車両の振動を検出する。
GPS(Global Positioning System)受信装置14は、地球を周回する複数のGPS衛星からの信号を受信する。この信号には時刻情報が含まれており、情報処理装置20がこれを処理することにより、ナビゲーション装置1は、自車両の位置情報を得ることができる。
The distance sensor 13 is a means that can measure the moving distance of the vehicle, and for example, a sensor that detects and counts the rotation of a wheel or a sensor that detects acceleration and integrates it twice.
Although not shown, the vibration sensor detects the vibration of the vehicle.
A GPS (Global Positioning System) receiver 14 receives signals from a plurality of GPS satellites orbiting the earth. This signal includes time information, and the information processing device 20 processes the time information, whereby the navigation device 1 can obtain the position information of the host vehicle.

情報処理装置20は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)24、クロック28、センサ入力インターフェイス23、通信インターフェイス25などから構成されている。
情報処理装置20は、現在位置検出装置10、撮影装置30、入出力装置40から入力される情報、及び記憶装置50に格納された情報に基づいてナビゲーションのための各種演算を行うと共に、ディスプレイ42、HUD45、スピーカ44といった周辺機器を制御して、演算結果をこれらに出力する。
The information processing device 20 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 24, a clock 28, a sensor input interface 23, a communication interface 25, and the like.
The information processing device 20 performs various calculations for navigation based on information input from the current position detection device 10, the imaging device 30, the input / output device 40, and information stored in the storage device 50, and a display 42. , HUD45, speaker 44 and the like are controlled, and calculation results are output to them.

CPU21は、中央処理装置であって、伝送路26(バスライン)を介して情報の送受信を行い、ROM22や記憶装置50に記憶されているプログラムを実行することにより、ナビゲーション装置1全体の総括的な演算及び制御を行う。本実施の形態では、運転者の視線から案内対象物を特定し、これに関する案内情報をHUD45やスピーカ44などから出力する。   The CPU 21 is a central processing unit that performs transmission / reception of information via the transmission path 26 (bus line) and executes programs stored in the ROM 22 and the storage device 50, so that the overall navigation device 1 is generalized. Performs proper calculation and control. In the present embodiment, a guidance object is specified from the driver's line of sight, and guidance information related to this is output from the HUD 45, the speaker 44, or the like.

ROM22は、読み取り専用の記憶装置であって、情報処理装置20を動作させるための基本的なプログラムが記憶されている。また、記憶装置50に記憶されているナビゲーションプログラム51を、ここに格納することも可能である。
なお、ROM22を第1ROMと第2ROMの2つに分け、第2ROMに音声案内に関するナビゲーションプログラムを格納し、他のプログラムを第1ROMに格納するようにしてもよい。
The ROM 22 is a read-only storage device, and stores a basic program for operating the information processing apparatus 20. Further, the navigation program 51 stored in the storage device 50 can be stored here.
The ROM 22 may be divided into a first ROM and a second ROM, and a navigation program related to voice guidance may be stored in the second ROM, and other programs may be stored in the first ROM.

RAM24は、CPU21が各種演算や制御を行う際のワーキングメモリを提供し、CPU21は、RAM24のメモリ空間を用いて、画像認識処理を行ったり、後述する複数の案内対象物の候補がある場合に、これを選択したりする。
また、RAM24は、入力装置41により入力された目的地の情報、通過地点の情報等の利用者(運転者やその他の搭乗者)が入力した情報を記憶すると共に、利用者の入力情報に基づいてCPU21により演算された結果や、経路探索された結果、または、記憶装置50から読み込まれた地図情報を格納する。
The RAM 24 provides a working memory when the CPU 21 performs various calculations and controls. The CPU 21 uses the memory space of the RAM 24 to perform image recognition processing or when there are a plurality of guidance target candidates to be described later. Or select this.
The RAM 24 stores information input by the user (driver and other passengers) such as destination information and passing point information input by the input device 41 and based on user input information. The result calculated by the CPU 21, the result of the route search, or the map information read from the storage device 50 is stored.

センサ入力インターフェイス23は、方位センサ12、距離センサ13、地磁気センサ15、振動センサなどの各種センサと接続するインターフェイスである。
通信インターフェイス25は、伝送路27を介して各種周辺機器と接続するインターフェイスである。
具体的には、伝送路27を介して、GPS受信装置14、入力装置41、記憶装置50、フロントカメラ31、視線カメラ32などが接続される。
The sensor input interface 23 is an interface connected to various sensors such as the azimuth sensor 12, the distance sensor 13, the geomagnetic sensor 15, and the vibration sensor.
The communication interface 25 is an interface connected to various peripheral devices via the transmission path 27.
Specifically, the GPS receiver 14, the input device 41, the storage device 50, the front camera 31, the line-of-sight camera 32, and the like are connected via the transmission path 27.

クロック28は、例えば、水晶振動子などを用いて構成された発信器であり、ナビゲーション装置1の各部の動作タイミングを提供する。また、CPU21は、クロック28により、後述の注視時間を計測したり、現在時刻を得たりすることもできる。
また、この他に、情報処理装置20に対して、CPU21で処理されたベクトル情報をディスプレイ42やHUD45で画像情報に処理するための画像処理専用の画像プロセッサ、画像プロセッサで処理された画像情報を格納する画像メモリ、記憶装置50から読み込まれた音声情報を処理しスピーカ44に出力する音声処理専用の音声プロセッサを配設してもよい。
The clock 28 is a transmitter configured using, for example, a crystal resonator, and provides operation timing of each part of the navigation device 1. The CPU 21 can also measure a gaze time, which will be described later, or obtain the current time using the clock 28.
In addition, for the information processing apparatus 20, image information dedicated to image processing for processing vector information processed by the CPU 21 into image information by the display 42 or the HUD 45, and image information processed by the image processor. An audio processor dedicated to audio processing for processing the audio information read from the image memory to be stored and the storage device 50 and outputting it to the speaker 44 may be provided.

撮影装置30は、何れもCCD(Charge−Coupled Cevice)カメラなどを用いたフロントカメラ31と視線カメラ32から構成されている。
フロントカメラ31は、進行方向の運転者の見ている情景を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。フロントカメラ31による視野画像は、運転者が運転に際して得る視野に対応している。
視線カメラ32は、運転者の眼部を含む頭部を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。この画像により、運転者の視線情報(視線ベクトル、焦点座標値、視点位置など、運転者が見ている点を特定する情報)が得られ、視野画像上の視線による焦点を計算することができる。
なお、本実施の形態では、フロントカメラ31と視線カメラ32は、可視光を撮影するが、赤外線カメラなど、目的に応じた特殊なカメラを用いてもよい。
The imaging device 30 includes a front camera 31 and a line-of-sight camera 32 each using a CCD (Charge-Coupled Device) camera or the like.
The front camera 31 continuously captures a scene viewed by the driver in the traveling direction at a predetermined sampling rate and outputs the captured scene to the information processing apparatus 20. The visual field image by the front camera 31 corresponds to the visual field that the driver obtains during driving.
The line-of-sight camera 32 continuously captures the head including the driver's eyes at a predetermined sampling rate and outputs the image to the information processing apparatus 20. From this image, the driver's line-of-sight information (information specifying the point of view of the driver, such as the line-of-sight vector, focus coordinate value, and viewpoint position) can be obtained, and the focus by the line of sight on the field-of-view image can be calculated. .
In the present embodiment, the front camera 31 and the line-of-sight camera 32 capture visible light, but a special camera according to the purpose, such as an infrared camera, may be used.

入出力装置40は、入力装置41、ディスプレイ42、HUD(Head−Up Display)45、スピーカ44、マイクロフォン46などから構成されている。
入力装置41は、例えば、タッチパネル、タッチスイッチ、ジョイスティック、キースイッチなどで構成されており、例えば、利用者から目的地、通過地点、探索条件などのデータの入力を受け付ける。
ディスプレイ42は、運転席付近に設置した小型のディスプレイであって、例えば、液晶ディスプレイによって構成されており、現在地周辺の地図や、目的地までの走行経路といった案内用の画面や、利用者がデータを入力するための入力画面などの画像を表示する。
The input / output device 40 includes an input device 41, a display 42, a HUD (Head-Up Display) 45, a speaker 44, a microphone 46, and the like.
The input device 41 includes, for example, a touch panel, a touch switch, a joystick, a key switch, and the like, and receives input of data such as a destination, a passage point, and a search condition from a user, for example.
The display 42 is a small display installed in the vicinity of the driver's seat. The display 42 is composed of, for example, a liquid crystal display, and a guidance screen such as a map around the current location and a travel route to the destination, and data displayed by the user. Displays an image such as an input screen for inputting.

HUD45は、例えば、投影機を用いてフロントガラスに画像を投影したり、あるいはフロントガラス上に設置した透明のスクリーンに画像を表示したりすることにより、運転者に情景と重畳して案内情報を提供する。
スピーカ44は、例えば、「30メートル先を右に曲がります。」などと、運転者に音声で案内情報を提供する。
マイクロフォン46は、利用者からの入力を音声により受け付ける。例えば、目的地の設定で利用者が「○○駅」と発話すると、目的地として○○駅が入力される。
The HUD 45, for example, projects the image on the windshield using a projector, or displays the image on a transparent screen installed on the windshield, thereby superimposing the guidance information on the driver. provide.
The speaker 44 provides voice guidance information to the driver, for example, “Turn right 30 meters ahead”.
The microphone 46 receives input from the user by voice. For example, when the user utters “XX station” in the destination setting, XX station is input as the destination.

記憶装置50は、大容量の記憶媒体と、これを駆動する駆動装置から構成されている。
記憶媒体としては、例えば、光学的記憶媒体であるDVD−ROM、CD−ROMや磁気的記憶媒体であるハードディスクなどを用いることができ、光磁気ディスク、各種半導体メモリなどの各種情報記憶媒体で構成することもできる。
なお、書き換えが必要な情報については、書き換え可能なハードディスク、フラッシュメモリなどで構成し、その他の固定的な情報についてはCD−ROM、DVD−ROMなどのROMを使用するようにしてもよい。
The storage device 50 includes a large-capacity storage medium and a drive device that drives the storage medium.
As the storage medium, for example, a DVD-ROM or CD-ROM that is an optical storage medium, a hard disk that is a magnetic storage medium, or the like can be used. The storage medium includes various information storage media such as a magneto-optical disk and various semiconductor memories. You can also
Information that needs to be rewritten may be constituted by a rewritable hard disk or flash memory, and other fixed information may be a ROM such as a CD-ROM or DVD-ROM.

記憶装置50には、ナビゲーションプログラム51、地図DB(データベース)52、案内情報DB54、交通情報DB55、画像認識用DB56などが記憶されている。
ナビゲーションプログラム51は、CPU21にナビゲーションに必要な各種演算や制御を行うための機能を発揮させるためのプログラムである。
The storage device 50 stores a navigation program 51, a map DB (database) 52, a guidance information DB 54, a traffic information DB 55, an image recognition DB 56, and the like.
The navigation program 51 is a program for causing the CPU 21 to exhibit functions for performing various calculations and controls necessary for navigation.

地図DB52は、2次元地図データと3次元地図データなどから構成されたデータベースである。
2次元地図データは、経路探索や経路案内に必要な2次元情報が登録されている。
3次元地図データは、通常の地図情報に加え、建物や信号などの構造物の形状や高さや、地形の高低といった特徴物の3次元情報が登録されている。
この3次元情報により、視野画像に対応するバーチャルな模擬画像が計算される。
更に、3次元地図データには、画像認識結果と照合するための属性(ビル、交差点など)が特徴物に対応して記憶されている。
The map DB 52 is a database composed of 2D map data, 3D map data, and the like.
In the two-dimensional map data, two-dimensional information necessary for route search and route guidance is registered.
In the 3D map data, in addition to normal map information, 3D information of features such as the shape and height of structures such as buildings and signals, and the height of topography is registered.
Based on this three-dimensional information, a virtual simulated image corresponding to the visual field image is calculated.
Further, in the 3D map data, attributes (buildings, intersections, etc.) for collating with the image recognition result are stored corresponding to the feature objects.

案内情報DB54は、2次元地図データや3次元地図データに含まれる建築物や交差点といった構造物などに対する案内情報が登録されたデータベースである。
案内情報は、例えば、構造物の名称、構造物の詳細情報(建築物に入居している施設の名称、階数、ジャンルなど)から構成されており、HUD45に表示されたりする。
The guide information DB 54 is a database in which guide information for structures such as buildings and intersections included in 2D map data and 3D map data is registered.
The guide information is composed of, for example, the name of the structure, detailed information of the structure (name of facility occupying the building, number of floors, genre, etc.), and is displayed on the HUD 45.

交通情報DB55は、例えば、ある道路のある区間が不通であるといった、経路探索や経路案内に必要な交通情報を記憶したデータベースである。
画像認識用DB56は、フロントカメラ31で撮影した視野画像から案内対象物をパターン認識により抽出・認識するためのパターンを登録したデータベースである。
The traffic information DB 55 is a database that stores traffic information necessary for route search and route guidance, for example, that a certain section of a road is disconnected.
The image recognition DB 56 is a database in which a pattern for extracting and recognizing a guidance target object by pattern recognition from a visual field image captured by the front camera 31 is registered.

より詳細には、画像認識用DB56には、建築物の特徴となる画像のパターンや交差点の特徴となる画像のパターン、あるいは、車両の特徴となる画像のパターンなどが記憶されており、情報処理装置20は、これを視野画像とマッチングして、視野画像内の建築物や交差点などの案内対象物を抽出・認識する。
なお、抽出とは、視野画像からパターンが一致した部分を取り出すことであり、認識とは、取り出した部分が、例えば、ビルであるとか、橋であるとか、交差点であるとか、あるいは車両であるなどと理解することである。
More specifically, the image recognition DB 56 stores an image pattern that is a feature of a building, an image pattern that is a feature of an intersection, an image pattern that is a feature of a vehicle, and the like. The apparatus 20 matches this with the visual field image, and extracts and recognizes guidance objects such as buildings and intersections in the visual field image.
In addition, extraction is to extract a portion having a matching pattern from the field image, and recognition is, for example, a building, a bridge, an intersection, or a vehicle. It is to understand that.

図3は、ナビゲーション装置1の機能的な構成を説明するための図である。
これらの各機能は、ナビゲーションプログラム51を情報処理装置20のCPU21で実行することにより実現される。
画像認識機能部60は、運転者の視野(車両前方の視界)に対応する視野画像を撮影すると共に、これを画像認識する機能部で、フロントカメラ31、撮影部61、画像処理認識部62、画像認識用DB56などから構成されている。
これらのうち、撮影部61、画像処理認識部62は、ナビゲーションプログラム51を実行することにより構成される。
FIG. 3 is a diagram for explaining a functional configuration of the navigation device 1.
Each of these functions is realized by executing the navigation program 51 by the CPU 21 of the information processing apparatus 20.
The image recognition function unit 60 captures a field-of-view image corresponding to the driver's field of view (field of view in front of the vehicle), and recognizes the image as a front camera 31, a photographing unit 61, an image processing recognition unit 62, The image recognition DB 56 is used.
Among these, the imaging unit 61 and the image processing recognition unit 62 are configured by executing the navigation program 51.

撮影部61は、フロントカメラ31を制御して車両の前方を撮影し、視野画像を生成する。
このように、撮影部61は、車両の運転者の視界に対応する画像を取得する画像取得手段として機能している。
画像処理認識部62は、撮影部61が生成した視野画像を画像認識用DB56に登録されたパターンと照合(パターン認識)することにより視野画像から案内対象物を抽出する画像処理を行う。
そして、画像処理認識部62は、抽出した案内対象物が何であるのか(例えば、車両、橋、建築物、信号機、交差点、歩行者など)を認識して、当該認識した案内対象物を輪郭化した後、これを矩形で囲む。
このように、画像処理認識部62は、取得した画像に写っている案内対象物を認識する認識手段として機能している。
The photographing unit 61 controls the front camera 31 to photograph the front of the vehicle and generates a visual field image.
Thus, the imaging unit 61 functions as an image acquisition unit that acquires an image corresponding to the field of view of the driver of the vehicle.
The image processing recognizing unit 62 performs image processing for extracting the guidance object from the visual field image by collating the visual field image generated by the photographing unit 61 with the pattern registered in the image recognition DB 56 (pattern recognition).
Then, the image processing recognition unit 62 recognizes what the extracted guidance object is (for example, a vehicle, a bridge, a building, a traffic light, an intersection, a pedestrian, etc.), and outlines the recognized guidance object. After that, enclose it with a rectangle.
As described above, the image processing recognition unit 62 functions as a recognition unit that recognizes the guidance object in the acquired image.

この矩形は、運転者が案内対象物を見ているか否かを判断するための判断領域であり、ナビゲーション装置1は、運転者の視線が矩形内にあると、運転者が当該矩形で囲まれた案内対象物を見ていると判断する。
なお、判断領域を矩形とするのは一例であり、円や楕円、あるいは、多角形など、案内対象物を囲む(含む)領域であればよい。
This rectangle is a determination area for determining whether or not the driver is looking at the guidance object. In the navigation device 1, when the driver's line of sight is within the rectangle, the driver is surrounded by the rectangle. It is determined that the target object is being viewed.
Note that the rectangular determination area is merely an example, and may be any area that surrounds (includes) the guidance object, such as a circle, an ellipse, or a polygon.

画像処理認識部62は、このように案内対象物を囲む矩形を生成すると、矩形の座標値(矩形で囲まれた領域を特定する座標値で、矩形の4つの頂点の座標値)と認識結果(ビル、車両、交差点など)を案内対象物情報として視線情報サービス部65に出力する。   When the image processing recognizing unit 62 generates a rectangle surrounding the guidance target object in this way, the rectangular coordinate value (the coordinate value specifying the area surrounded by the rectangle, the coordinate value of the four vertices of the rectangle) and the recognition result (Building, vehicle, intersection, etc.) is output to the line-of-sight information service unit 65 as guidance object information.

視線認識機能部63は、視線カメラ32、視線管理部64、視線情報サービス部65などから構成されている。これらのうち、視線管理部64と視線情報サービス部65は、ナビゲーションプログラム51を実行することにより構成される。   The line-of-sight recognition function unit 63 includes a line-of-sight camera 32, a line-of-sight management unit 64, a line-of-sight information service unit 65, and the like. Among these, the line-of-sight management unit 64 and the line-of-sight information service unit 65 are configured by executing the navigation program 51.

視線管理部64は、視線カメラ32で撮影した運転者の頭部の画像から眼部を認識し、眼球形状の曲率から眼球中心座標を計算する。更に、視線管理部64は、眼部から黒目(瞳孔)領域を特定し、黒目(瞳孔)中心座標を計算する。
視線管理部64は、このようにして得た眼球中心座標から黒目中心座標に向かう方向を視線方向として規定し、眼球中心座標と視線方向を視線情報として視線情報サービス部65に出力する。
このように、視線管理部64は、運転者の視線を検出する視線検出手段として機能している。
The line-of-sight management unit 64 recognizes the eye part from the image of the driver's head photographed by the line-of-sight camera 32, and calculates eyeball center coordinates from the curvature of the eyeball shape. Further, the line-of-sight management unit 64 specifies a black eye (pupil) region from the eye, and calculates the black eye (pupil) center coordinates.
The line-of-sight management unit 64 defines the direction from the eyeball center coordinates thus obtained to the black-eye center coordinates as the line-of-sight direction, and outputs the eyeball center coordinates and the line-of-sight direction to the line-of-sight information service unit 65 as line-of-sight information.
In this way, the line-of-sight management unit 64 functions as a line-of-sight detection unit that detects the driver's line of sight.

この処理は、片眼に対して行うことができるが、両眼に対して行って結果を1つに平均化するなどしてもよい。
また、運転者が碧眼を有する場合でも瞳孔は黒いため、本手法を用いることができる。
なお、赤外線を用いる角膜反射法や強膜反射法など他の方法を用いたり、視線検出装置を運転者の眼部に装着するなど他のデバイスを用いてもよい。
This processing can be performed for one eye, but may be performed for both eyes and the results may be averaged into one.
Even when the driver has a blind eye, the pupil can be black, so this method can be used.
In addition, you may use other devices, such as using other methods, such as a cornea reflection method and a scleral reflection method using infrared rays, or mounting | wearing a driver | operator's eyes.

視線情報サービス部65は、以下のように、矩形と認識結果、及び運転者の視線情報に基づいて、HUD45やスピーカ44から情報を出力する。
まず、視線情報サービス部65は、画像認識機能部60から案内対象物情報を受け取り、視線管理部64から視線情報を受け取る。
The line-of-sight information service unit 65 outputs information from the HUD 45 and the speaker 44 based on the rectangle, the recognition result, and the driver's line-of-sight information as follows.
First, the line-of-sight information service unit 65 receives guidance object information from the image recognition function unit 60 and receives line-of-sight information from the line-of-sight management unit 64.

そして、視線情報サービス部65は、視線情報から視線の焦点の座標値(視野における視線先の座標値)を計算し、当該焦点のある矩形を特定する。
焦点のある矩形により案内対象物が特定されるため、視線情報サービス部65は、取得した画像において、認識した案内対象物と検出した視線を対応させて、検出した視線の方向にある案内対象物を特定する特定手段として機能している。
Then, the line-of-sight information service unit 65 calculates the coordinate value of the focus of the line of sight (coordinate value of the line-of-sight destination in the visual field) from the line-of-sight information, and identifies the rectangle with the focus.
Since the guidance object is specified by the focused rectangle, the line-of-sight information service unit 65 associates the recognized guidance object with the detected line of sight in the acquired image, and is in the direction of the detected line of sight. It functions as a specifying means for specifying.

視線情報サービス部65は、複数の矩形が重なっていたり、あるいは、接近するなどして、運転者の意図する案内対象物を特定するのが困難な場合は、後に説明する方法により運転者の意図を推測し、複数の案内対象物から1つを選択する。
このように、視線情報サービス部65は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物のうちの何れか1つを選択する選択手段として機能している。
The line-of-sight information service unit 65 determines the driver's intention by the method described later when it is difficult to identify the guidance object intended by the driver due to overlapping or approaching a plurality of rectangles. Is selected, and one is selected from a plurality of guidance objects.
Thus, the line-of-sight information service unit 65 functions as a selection unit that selects any one of the plurality of guidance objects when there are a plurality of identified guidance objects.

更に、視線情報サービス部65は、ナビゲーション機能部68から現在位置と進行方向を取得し、地図DB52に記憶してある3次元地図データを用いて、運転者の視線方向の模擬画像をレイトレーシング法などの手法を用いて生成する。
模擬画像は、視野画像に対応する情景画像を3次元地図データを用いて仮想的に構成したものである。
Further, the line-of-sight information service unit 65 obtains the current position and the traveling direction from the navigation function unit 68, and uses the three-dimensional map data stored in the map DB 52 to generate a simulated image of the driver's line-of-sight direction using the ray tracing method. It is generated using a technique such as
The simulated image is a virtual image obtained by using a three-dimensional map data of a scene image corresponding to the visual field image.

そして、視線情報サービス部65は、案内対象物情報(矩形の座標値と認識結果)と、模擬画像中の特徴物の座標値及び属性を照合(マッチング)する。
この照合は、例えば、矩形の座標値と特徴物の座標値を照合し、更に、認識結果(ビルなど)と特徴物の属性(ビルなど)を照合することにより行う。
このマッチングは、全ての矩形に対して行ってもよいし、あるいは、ランドマークなどの一部の矩形に対して行ってもよい。
その後、視線情報サービス部65は、運転者の意図する案内対象物の案内情報を案内情報DB54から取得し、HUD表示制御部72や音声制御部73に出力する。
このように、視線情報サービス部65は、選択した案内対象物に対する情報を運転者に提供する情報提供手段として機能している。
The line-of-sight information service unit 65 collates (matches) the guidance object information (rectangular coordinate values and recognition results) with the coordinate values and attributes of the feature objects in the simulated image.
This collation is performed, for example, by collating a rectangular coordinate value with a coordinate value of a feature object, and further collating a recognition result (such as a building) with an attribute of the feature object (such as a building).
This matching may be performed for all rectangles, or may be performed for some rectangles such as landmarks.
Thereafter, the line-of-sight information service unit 65 acquires the guidance information of the guidance object intended by the driver from the guidance information DB 54 and outputs the guidance information to the HUD display control unit 72 and the voice control unit 73.
Thus, the line-of-sight information service unit 65 functions as an information providing unit that provides the driver with information on the selected guidance object.

音声認識機能部66は、マイクロフォン46、音声認識部67などから構成されている。
そして、視線情報サービス部65は、音声認識機能部66が音声による入力を受け付けることもできる。
例えば、運転者が案内対象物に視線を向けて「これは何?」などと発話すると、これをマイクロフォン46が音声認識部67に入力し、音声認識部67が発話内容を解釈する。
そして、これに対し、視線情報サービス部65は、「スカイタワーです。」などとHUD表示制御部72や音声制御部73に出力する。
The voice recognition function unit 66 includes a microphone 46, a voice recognition unit 67, and the like.
The line-of-sight information service unit 65 can also receive an input by voice from the voice recognition function unit 66.
For example, when the driver turns his gaze toward the guidance object and utters “What is this?”, The microphone 46 inputs this to the speech recognition unit 67, and the speech recognition unit 67 interprets the utterance content.
In response to this, the line-of-sight information service unit 65 outputs “Sky tower” or the like to the HUD display control unit 72 or the voice control unit 73.

ナビゲーション機能部68は、案内処理部69、GPS受信装置14、各センサ71、地図DB52、交通情報DB55、案内情報DB54などから構成されている。
これらのうち、案内処理部69は、ナビゲーションプログラム51を実行することにより構成され、また、各センサ71は、図2の方位センサ12、距離センサ13、地磁気センサ15などから構成されている。
The navigation function unit 68 includes a guidance processing unit 69, the GPS receiver 14, each sensor 71, a map DB 52, a traffic information DB 55, a guidance information DB 54, and the like.
Among these, the guidance processing unit 69 is configured by executing the navigation program 51, and each sensor 71 is configured by the azimuth sensor 12, the distance sensor 13, the geomagnetic sensor 15 and the like of FIG.

案内処理部69は、経路探索、経路案内などディスプレイ42やスピーカ44を用いた従来のナビゲーションを行うほか、視線情報サービス部65の求めに応じて3次元地図データや案内情報を提供したり、GPS受信装置14や各センサ71によって現在位置と進行方向を知らせたりなど、視線認識機能部63がHUD45を用いて情報提供を行うのを支援する。   The guidance processing unit 69 performs conventional navigation using the display 42 and the speaker 44 such as route search and route guidance, provides 3D map data and guidance information according to the request of the line-of-sight information service unit 65, and GPS The line-of-sight recognition function unit 63 assists in providing information using the HUD 45, such as notifying the current position and the traveling direction by the receiving device 14 or each sensor 71.

HUD表示制御部72と音声制御部73は、ナビゲーションプログラム51を実行することにより構成され、それぞれ、視線情報サービス部65の出力した案内情報をHUD45に表示したり、スピーカ44が出力したりする。   The HUD display control unit 72 and the voice control unit 73 are configured by executing the navigation program 51, and display the guidance information output from the line-of-sight information service unit 65 on the HUD 45 and the speaker 44, respectively.

図4は、矩形が重なっていた場合の重なり時処理を説明するための図である。
運転者の視線方向で複数の矩形が重なっていた場合、視線情報サービス部65は、以下の方法により、これらの中から運転者が意図しているものを推定し、案内対象となる矩形を選択する。
FIG. 4 is a diagram for explaining the overlapping process when rectangles overlap.
When a plurality of rectangles overlap in the driver's line-of-sight direction, the line-of-sight information service unit 65 uses the following method to estimate what the driver intended and selects a rectangle to be guided To do.

図4(a)に示したように、視野画像81において、物体Aの左前方に物体Bが存在するため物体Aと物体Bが重なっており、運転者2が何れの物体を注視しているか視線方向からは判断困難とする。
このように物体Bが物体Aの陰になっており、運転者2が物体Bを注視している場合、運転者2は、左側に頭部を移動したり傾けたりすることが期待できる。
そこで、ナビゲーション装置1は、運転者2の眼の移動(例えば、進行方向に垂直な2次元平面内での移動)を観察し、これによって、運転者2が物体A、Bの何れを注視しているかを判断する。
このように、ナビゲーション装置1は、運転者の眼の位置の移動方向を検出する移動検出手段を備えている。
As shown in FIG. 4A, in the field-of-view image 81, since the object B exists on the left front side of the object A, the object A and the object B overlap, and which object the driver 2 is gazing at. Judgment is difficult from the line-of-sight direction.
Thus, when the object B is behind the object A and the driver 2 is gazing at the object B, the driver 2 can expect to move or tilt his head to the left.
Therefore, the navigation device 1 observes the movement of the eye of the driver 2 (for example, movement in a two-dimensional plane perpendicular to the traveling direction), whereby the driver 2 gazes at either the object A or B. Judgment is made.
As described above, the navigation device 1 includes movement detection means for detecting the movement direction of the position of the driver's eyes.

図4(b)を用いてより詳細に説明する。
設定した矩形A〜Dが、運転者の側からこの順に重なっているとする。そして、運転者の視線の焦点82が矩形Aの上にあるとする。
この場合、ナビゲーション装置1は、運転者の焦点のある矩形A(視点の位置で一番手前にあるもの)を基準矩形に設定する。
そして、ナビゲーション装置1は、基準矩形と直接重なっている他の矩形を抽出する。図の例では、矩形B、Cが基準矩形Aと重なっており、矩形Dは重なっていないため、ナビゲーション装置1は、矩形B、Cを抽出する。
This will be described in more detail with reference to FIG.
It is assumed that the set rectangles A to D overlap in this order from the driver side. Then, it is assumed that the focus 82 of the driver's line of sight is on the rectangle A.
In this case, the navigation device 1 sets the rectangle A with the driver's focus (the one closest to the viewpoint position) as the reference rectangle.
Then, the navigation device 1 extracts another rectangle that directly overlaps the reference rectangle. In the example of the figure, the rectangles B and C overlap the reference rectangle A, and the rectangle D does not overlap. Therefore, the navigation device 1 extracts the rectangles B and C.

次に、ナビゲーション装置1は、抽出した矩形の基準矩形に対する位置関係から抽出した矩形に重なり方向を割り当てる。
ここでは、単純化のため、一例として、重なり方向を上下方向と左右方向とし、ナビゲーション装置1は、基準矩形と重なっていない部分の面積の大きい方の重なり方向を割り当てるものとする。
Next, the navigation device 1 assigns an overlapping direction to the extracted rectangle from the positional relationship of the extracted rectangle with respect to the reference rectangle.
Here, for simplification, as an example, it is assumed that the overlapping direction is an up-down direction and a left-right direction, and the navigation apparatus 1 assigns the overlapping direction with the larger area of the portion not overlapping the reference rectangle.

図の例では、矩形Bは、矩形Aと重なっていない部分の面積が上方向よりも左方向の方が大きいため、ナビゲーション装置1は、矩形Bに左方向を割り当てる。また、同様に矩形Cに対しては、上方向を割り当てる。
このように、ナビゲーション装置1は、特定した案内対象物が複数あり、当該複数ある案内対象物の一部が取得した画像で重なっている場合に、当該複数ある案内対象物の重なり方向を設定する重なり方向設定手段を備えている。
In the example shown in the figure, since the area of the rectangle B that does not overlap the rectangle A is larger in the left direction than in the upward direction, the navigation device 1 assigns the left direction to the rectangle B. Similarly, an upward direction is assigned to the rectangle C.
As described above, the navigation device 1 sets the overlapping direction of the plurality of guidance objects when there are a plurality of identified guidance objects and a part of the plurality of guidance objects overlaps the acquired images. Overlapping direction setting means is provided.

基準矩形を設定し、抽出した矩形の位置関係を割り当てた後、ナビゲーション装置1は、視線の焦点を中心に重なり方向に対応した判断領域を設定し、運転者の頭部の移動や回転に伴う眼の移動が判断領域以上となった方向の矩形を選択する。
このように、ナビゲーション装置1は、設定した矩形の重なり方向と、検出した眼の移動方向、とに基づいて案内対象物を選択する。
After setting the reference rectangle and assigning the positional relationship between the extracted rectangles, the navigation apparatus 1 sets a determination area corresponding to the overlapping direction with the focus of the line of sight as the center, and accompanies movement and rotation of the driver's head. A rectangle in the direction in which the eye movement is equal to or greater than the determination area is selected.
Thus, the navigation apparatus 1 selects a guidance target object based on the set rectangular overlapping direction and the detected eye movement direction.

なお、判断領域の大きさは、案内対象物が遠いほど、また、車両の振動が大きいほど大きく設定する。
これは、遠いものほど焦点が定まりにくく、振動が大きいほど眼の位置にばらつきが生じやすいためである。
このように、ナビゲーション装置1は、車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて移動量に閾値を動的に設定する閾値設定手段を備えている。
そして、ナビゲーション装置1は、検出した眼の移動量が所定の閾値(判断領域)を超えた場合に、矩形の重なり方向と、眼の移動方向と、に基づいて案内対象物を選択する。
Note that the size of the determination area is set to be larger as the guidance object is farther away and as the vibration of the vehicle is larger.
This is because the farther away the focal point is, the more difficult the focus is, and the greater the vibration, the more likely the position of the eye to vary.
As described above, the navigation device 1 includes threshold setting means for dynamically setting a threshold for the amount of movement using at least one of the vibration of the vehicle and the distance to the guidance object.
Then, when the detected eye movement amount exceeds a predetermined threshold (determination area), the navigation device 1 selects a guidance object based on the rectangular overlapping direction and the eye movement direction.

また、案内対象物までの距離は、現在位置と案内対象物の位置から計算してもよいし、あるいは、案内対象物の大きさの3次元データがあるため、視野画像における案内対象物の大きさと3次元データによる大きさを比較して計算してもよい。   Further, the distance to the guidance object may be calculated from the current position and the position of the guidance object, or since there is three-dimensional data of the size of the guidance object, the size of the guidance object in the view image And the size of the three-dimensional data may be compared.

ここでは、一例として、ナビゲーション装置1は、焦点82を中心とする誤差円83を判断領域に設定するものとする。
この場合、ナビゲーション装置1は、運転者の眼が誤差円83を超えて左方向に移動した場合は、矩形Bを運転者が意図する対象であるとして選択し、上方向に移動した場合は矩形Cを選択する。
なお、頭部は上下方向よりも左右方向に動かしやすいため、誤差円83を左右方向に長い楕円としてもよい。
Here, as an example, it is assumed that the navigation device 1 sets an error circle 83 centered on the focal point 82 as a determination region.
In this case, the navigation device 1 selects the rectangle B as an object intended by the driver when the driver's eyes move to the left beyond the error circle 83, and the rectangle when the driver moves upward. Select C.
Since the head is easier to move in the left-right direction than in the up-down direction, the error circle 83 may be an ellipse that is long in the left-right direction.

以上のようにして、ナビゲーション装置1は、複数の矩形が重なっていた場合、運転者の意図すると推定される矩形を案内対象として選択することができる。
また、眼の位置の動きに、スイッチやジェスチャー(例えば、まばたき)など、運転者の意志を伝える他の手段を併用してもよい。
As described above, when a plurality of rectangles are overlapped, the navigation device 1 can select a rectangle that is estimated to be intended by the driver as a guidance target.
Further, other means for conveying the driver's will, such as a switch or a gesture (for example, blinking), may be used in combination with the movement of the eye position.

次に、矩形が接近している場合について説明する。複数の矩形が接近している場合、ある矩形に焦点があっても運転者は近隣の矩形を意図している場合がある。
そこで、ナビゲーション装置1は、複数の矩形が接近している場合、運転者の意図を推測して案内対象とする矩形を選択する。
ここでは、接近している矩形から選択する接近時処理の3つの方法について、それぞれ、図5〜図7を用いて説明する。
Next, a case where the rectangles are approaching will be described. When a plurality of rectangles are close to each other, there are cases where the driver intends a neighboring rectangle even when a certain rectangle has a focus.
Therefore, when a plurality of rectangles are approaching, the navigation device 1 estimates the driver's intention and selects a rectangle to be guided.
Here, three methods of the approaching process of selecting from the approaching rectangle will be described with reference to FIGS.

図5の各図は、接近時処理の第1の方法を説明するための図である。この方法では、矩形を拡大して分離し、運転者の視線の変化を観察する。
図5(a)に示したように、矩形Aと矩形B(何れも波線で囲んだ矩形領域)が接近している場合について考える。
この場合、ナビゲーション装置1は、運転者が視認しやすいように矩形A、Bの面積を拡大して反応領域を設定し(斜線で示した部分が拡大部分)、HUD45に表示する。
このように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、これら複数ある案内対象物を囲む領域(反応領域)を、運転者の視界において、案内対象物ごとに表示する表示手段を備えている。
Each figure of FIG. 5 is a figure for demonstrating the 1st method of the process at the time of approach. In this method, a rectangle is enlarged and separated, and a change in the driver's line of sight is observed.
As shown in FIG. 5A, consider a case where a rectangle A and a rectangle B (both rectangular regions surrounded by wavy lines) are close to each other.
In this case, the navigation apparatus 1 enlarges the areas of the rectangles A and B so that the driver can easily recognize the reaction area, sets the reaction area (the hatched portion is the enlarged portion), and displays it on the HUD 45.
Thus, when there are a plurality of specified guidance objects, the navigation apparatus 1 displays a region (reaction area) surrounding the plurality of guidance objects for each guidance object in the driver's field of view. It has.

次に、ナビゲーション装置1は、図5(b)に示したように、矩形A、Bの中点を結び、その直線に沿って、お互いに離反する方向に両方の反応領域をアニメーションで連続的に移動する。
このように、接近(接近)した矩形を運転者が認識できる形で明確に分離することにより、各矩形に対するそれぞれの注視を明確化することができる。また、運転者が何れかの対象を意図していた場合、アニメーションと共に視点が意図する方の矩形に移動することが期待される。
そこで、ナビゲーション装置1は、運転者の視線が移動した側の矩形を選択する。
Next, as shown in FIG. 5B, the navigation device 1 connects the midpoints of the rectangles A and B, and continuously animates both reaction regions in the direction away from each other along the straight line. Move to.
Thus, by clearly separating the approaching (approaching) rectangles in a form that can be recognized by the driver, it is possible to clarify each gaze on each rectangle. Further, when the driver intends any one of the objects, it is expected that the viewpoint moves to the intended rectangle along with the animation.
Therefore, the navigation device 1 selects the rectangle on the side on which the driver's line of sight has moved.

このように、ナビゲーション装置1は、表示した領域を離反する方向に移動する領域移動手段と、これら領域の移動に際しての運転者の視線の変化を取得する視線変化取得手段を備えており、視線の変化に基づいて案内対象物を選択する。
また、領域移動手段は、移動開始前の位置から移動後の位置まで領域をアニメーションによって連続的に移動する。
Thus, the navigation device 1 includes area moving means for moving the displayed area away from the displayed area, and line-of-sight change acquisition means for acquiring changes in the driver's line of sight when moving these areas. A guidance object is selected based on the change.
The area moving means continuously moves the area by animation from the position before the movement start to the position after the movement.

なお、矩形をアニメーションで徐々に移動したのは、瞬間的に離反させるよりも運転者の視線を誘導しやすいからである。
また、矩形選択の判断において、各矩形における注視時間の総和を比較して多い方の矩形を選択するようにしてもよい。
Note that the reason why the rectangle is gradually moved by animation is that it is easier to guide the driver's line of sight than when the rectangle is moved away.
In addition, in the rectangle selection determination, the larger rectangle may be selected by comparing the sum of the gaze times in each rectangle.

ここで、矩形A、Bを離反させる分断距離yは、例えば、矩形の対向する辺の距離とし、図5(c)に示したように、対象までの距離をxとし、誤差角をθとして、y=x×tanθで表すことができる。ここで、誤差角とは、運転者から見て矩形の対向する辺が成す角度の半分である。   Here, the dividing distance y that separates the rectangles A and B is, for example, the distance between opposite sides of the rectangle, the distance to the object is x, and the error angle is θ, as shown in FIG. , Y = x × tan θ. Here, the error angle is half of the angle formed by opposing sides of the rectangle as viewed from the driver.

図6の各図は、接近時処理の第2の方法を説明するための図である。この方法では、運転者が視線を向けるターゲットを小さくして視線を誘導する。
図6(a)に示したように、現在の焦点位置に対して接近している矩形A、B、Cがあったとする。
ナビゲーション装置1は、矩形A、B、Cに重畳して、運転者の反応を観察するための、それぞれの矩形を囲んだ矩形の反応領域91、92、93をHUD45に表示する。
反応領域91、92、93は、運転者が視認しやすいように、目立つ状態で表示される。なお、運転者の視線の焦点のある矩形だけ反応領域を表示してもよい。
Each figure of FIG. 6 is a figure for demonstrating the 2nd method of the process at the time of approach. In this method, the driver guides the line of sight by reducing the target to which the line of sight is directed.
Assume that there are rectangles A, B, and C that are close to the current focal position, as shown in FIG.
The navigation device 1 superimposes the rectangles A, B, and C, and displays rectangular reaction areas 91, 92, and 93 surrounding the rectangles for observing the driver's reaction on the HUD 45.
The reaction areas 91, 92, and 93 are displayed in a conspicuous state so that the driver can easily see them. It should be noted that the reaction area may be displayed only for the rectangle with the focus of the driver's line of sight.

このように反応領域を表示した後、ナビゲーション装置1は、運転者の意図が現在焦点のある矩形であるか否かを確認するために、焦点のある反応領域を運転者が見ている間にアニメーションで徐々に連続的に縮小し、運転者の視線を案内対象物の中心に誘導する。
その際に、他の反応領域や矩形の色を変えたり、薄くしたりなどして、目立たなくするとより効果的である。
即ち、ナビゲーション装置1は、焦点のある反応領域が運転者の意図するものであるか確認するために当該反応領域を仮選択し、これを縮小して視線の変化を観察する。
After displaying the reaction area in this manner, the navigation device 1 determines whether the driver's intention is a currently focused rectangle or not while the driver is viewing the focused reaction area. The animation is gradually and continuously reduced to guide the driver's line of sight to the center of the guidance object.
At that time, it is more effective to make it inconspicuous by changing the color of other reaction areas or rectangles or making them thinner.
That is, the navigation apparatus 1 temporarily selects the reaction area in order to confirm whether the focused reaction area is intended by the driver, and reduces the observation area to observe a change in line of sight.

このように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物のうちの1つを仮選択する仮選択手段と、この仮選択した案内対象物を囲む領域(反応領域)を、運転者の視界において表示する表示手段と、表示した領域の面積を変化させる面積変化手段と(この例では縮小)、この面積の変化に際して運転者の視線の変化を取得する視線変化取得手段を備えている。   As described above, when there are a plurality of specified guidance objects, the navigation device 1 provisionally selects one of the plurality of guidance objects, and an area surrounding the provisionally selected guidance object. A display means for displaying the (reaction area) in the driver's field of view, an area changing means for changing the area of the displayed area (in this example, reduction), and a change in the driver's line of sight when the area changes A line-of-sight change acquisition means is provided.

また、反応領域の縮小は、必要なだけ行えばよいので、ここでは、反応領域を案内対象物の輪郭より小さくしないものとする。なお、矩形と反応領域は別に管理し、矩形は縮小しない。矩形は、視線の焦点があることにより案内対象物を特定する領域であるため、矩形を小さくすると視線を検出する範囲が狭まってしまうからである。あくまで視線を誘導するために反応領域の表示を小さくする。   Since the reaction area may be reduced as much as necessary, the reaction area is not made smaller than the outline of the guidance target object. The rectangle and the reaction area are managed separately, and the rectangle is not reduced. This is because the rectangle is an area for specifying the guidance object due to the focus of the line of sight, and therefore, when the rectangle is made small, the range for detecting the line of sight is narrowed. The display of the reaction area is reduced in order to guide the line of sight to the last.

このように視線を誘導した場合、運転者が誘導先の案内対象物を意図している場合には、注視を維持し、意図していない場合には、視線をずらすことが期待できる。
そこで、ナビゲーション装置1は、縮小した反応領域に重畳している矩形に対する注視時間(視線の焦点の滞留時間)を計測する。注視時間の計測方法は、次に説明する第3の方法と同様である。
そして、注視時間が所定の判定時間(閾値)を超えた場合、運転者がその案内対象物を意図しているものと判断し、当該案内対象物を案内対象として選択する。
このように、ナビゲーション装置1は、面積を変化させた領域に運転者の視線が所定時間以上滞在した場合に(即ち、所定時間以上注視した場合)、当該領域を選択する。
When the line of sight is guided as described above, it can be expected that the driver keeps his gaze when the driver intends the guidance target object and shifts the line of sight when the driver does not intend.
Therefore, the navigation device 1 measures the gaze time (the dwell time of the focus of the line of sight) for the rectangle superimposed on the reduced reaction area. The method for measuring the gaze time is the same as the third method described below.
When the gaze time exceeds a predetermined determination time (threshold value), the driver determines that the guidance object is intended, and selects the guidance object as a guidance object.
As described above, the navigation device 1 selects a region when the driver's line of sight stays in the region where the area is changed for a predetermined time or longer (that is, when the driver gazes for a predetermined time or longer).

例えば、図6(b)に示したように、視線の焦点が矩形Bにあるとすると、ナビゲーション装置1は、反応領域92を矢線で示したように徐々に反応領域94にまで縮小すると共に、他の表示状態を変更して目立たなくする。
そして、ナビゲーション装置1は、運転者の反応領域94に対する注視時間を計測し、これが所定の判定時間を超えた場合、矩形Bを選択する。
For example, as shown in FIG. 6B, if the focus of the line of sight is in the rectangle B, the navigation device 1 gradually reduces the reaction area 92 to the reaction area 94 as indicated by the arrow. , Change the other display state to make it inconspicuous.
And the navigation apparatus 1 measures the gaze time with respect to the reaction area | region 94 of a driver | operator, and when this exceeds predetermined determination time, the rectangle B is selected.

図7の各図は、接近時処理の第3の方法を説明するための図であり、この方法では、各矩形に対する視線の焦点の注視時間を測定する。
図7(a)に示したように、接近した矩形A、B、Cがあり、運転者の意図する案内対象物が不明確であったとする。
この場合、ナビゲーション装置1は、所定の判定時間に渡って運転者の視線が各矩形に滞留(滞在)した時間をカウントして足すことにより、候補の案内対象物をどの程度の時間見続けたかを計測し、注視時間が所定の判定時間(閾値)に達した場合、その矩形の案内対象物を選択する。
Each drawing of FIG. 7 is a diagram for explaining a third method of the approaching process. In this method, the gaze time of the focus of the line of sight with respect to each rectangle is measured.
As shown in FIG. 7A, it is assumed that there are rectangles A, B, and C that are close to each other and the guidance object intended by the driver is unclear.
In this case, the navigation device 1 counts and adds the time that the driver's line of sight stays (stays) in each rectangle over a predetermined determination time, and thus how long the candidate guidance object has been viewed. When the gaze time reaches a predetermined determination time (threshold), the rectangular guide object is selected.

図7(a)には、運転者の視線方向である焦点の変遷が点とこれを結ぶ矢線によって示されている。例えば、図7(a)に示したように、焦点101から焦点103まで、矩形Aから矩形Cに渡って移動したとする。
この場合、ナビゲーション装置1は、焦点が各矩形に滞留した時間を例えばミリ秒単位で累積していく。
In FIG. 7A, the transition of the focus, which is the direction of the driver's line of sight, is indicated by a point and an arrow line connecting it. For example, as shown in FIG. 7A, it is assumed that the object moves from the rectangle A to the rectangle C from the focal point 101 to the focal point 103.
In this case, the navigation device 1 accumulates the time during which the focal point stays in each rectangle, for example, in milliseconds.

図7(b)は、図7(a)における注視時間の一例を示した図である。
図の左端が判定開始時点であり、右端が判定時間である。図の上から矩形A、B、Cの注視時間107、108、109が示されており、矩形Bの注視時間108が最も長くなっている。
ナビゲーション装置1は、このように各矩形における注視時間を計測し、それが判定時間に達した場合、当該判定時間に達した矩形の案内対象物を案内対象として選択する。
以上のように、ナビゲーション装置1は、特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、運転者の視線が滞在した時間(注視時間)を案内対象物ごとに計測する計測手段を備え、当該計測した時間に基づいて案内対象物を選択する。
FIG. 7B is a diagram showing an example of the gaze time in FIG.
The left end of the figure is the determination start time, and the right end is the determination time. The gaze times 107, 108, and 109 of the rectangles A, B, and C are shown from the top of the figure, and the gaze time 108 of the rectangle B is the longest.
In this way, the navigation device 1 measures the gaze time in each rectangle, and when it reaches the determination time, selects the rectangular guidance object that has reached the determination time as the guidance object.
As described above, when there are a plurality of specified guidance objects, the navigation device 1 measures the time (gaze time) during which the driver's line of sight stays on the plurality of guidance objects for each guidance object. A means is provided and a guidance object is selected based on the measured time.

次に、以上のように構成されたナビゲーション装置1の動作について説明する。
以下の情報処理動作、及び制御動作は、CPU21(図2)がナビゲーションプログラム51を実行することにより実現される。
図8は、視線を用いた案内情報提供処理を説明するためのフローチャートである。
まず、ナビゲーション装置1は、視野画像について撮影・画像認識処理を行い、案内対象物の抽出、及び抽出した案内対象物の理解を行う(ステップ5)。
そして、ナビゲーション装置1は、抽出・理解した案内対象物に対して、これを囲む大きさの矩形を設定する(ステップ10)。
Next, the operation of the navigation device 1 configured as described above will be described.
The following information processing operation and control operation are realized by the CPU 21 (FIG. 2) executing the navigation program 51.
FIG. 8 is a flowchart for explaining the guidance information providing process using the line of sight.
First, the navigation apparatus 1 performs a photographing / image recognition process on the visual field image, extracts a guidance object, and understands the extracted guidance object (step 5).
And the navigation apparatus 1 sets the rectangle of the magnitude | size surrounding this with respect to the guidance target object extracted and understood (step 10).

次に、ナビゲーション装置1は、運転者の視線方向に設定した矩形が、他の矩形と重なった位置にあるか否かを判断する(ステップ15)。
複数の矩形が重なった位置にある場合(ステップ15;Y)、ナビゲーション装置1は、重なり時処理を行って(ステップ20)、案内対象となる矩形を選択する。
そして、ナビゲーション装置1は、選択した矩形の案内対象物に対する案内情報をHUD45に表示したり、スピーカ44から出力したりして運転者に提供する(ステップ25)。
Next, the navigation device 1 determines whether or not the rectangle set in the driver's line-of-sight direction is in a position overlapping another rectangle (step 15).
When the plurality of rectangles are at the overlapping position (step 15; Y), the navigation device 1 performs the overlapping process (step 20) and selects a rectangle to be guided.
Then, the navigation device 1 provides the driver with guidance information for the selected rectangular guidance object on the HUD 45 or outputs it from the speaker 44 (step 25).

一方、矩形が重なった位置にない場合(ステップ15;N)、ナビゲーション装置1は、運転者の視線方向で複数の矩形が接近した位置にあるか否かを判断する(ステップ35)。
接近(近接)しているか否かの判断は、矩形の辺の間隔が所定の閾値以下である場合に接近していると判断する。
複数の矩形が接近している場合(ステップ35;Y)、ナビゲーション装置1は、接近時処理を行い(方法1〜3の何れでもよい)(ステップ40)、選択した矩形の案内対象物に対する案内情報を提供する(ステップ25)。
一方、視線方向で複数の矩形が接近した位置にない場合(ステップ35;N)、ナビゲーション装置1は、視線方向にある矩形の案内対象物に対する案内情報を提供する(ステップ25)。
On the other hand, when the rectangles are not at the overlapping position (step 15; N), the navigation device 1 determines whether or not the plurality of rectangles are close to each other in the driver's line-of-sight direction (step 35).
The determination of whether or not they are approaching (approaching) determines that they are approaching when the interval between the sides of the rectangle is equal to or less than a predetermined threshold.
When a plurality of rectangles are approaching (step 35; Y), the navigation device 1 performs approach processing (any of methods 1 to 3) (step 40), and guides the selected rectangular guidance object. Information is provided (step 25).
On the other hand, when the plurality of rectangles are not close to each other in the line-of-sight direction (step 35; N), the navigation device 1 provides guidance information for the rectangular guide object in the line-of-sight direction (step 25).

このように、ナビゲーション装置1は、案内情報を提供した後(ステップ25)、案内を継続するか否かを判断し(ステップ30)、案内を継続する場合は(ステップ30;Y)、ステップ5に戻り、案内を継続しない場合は(例えば、運転者がナビゲーション装置1を操作して案内を停止した場合)(ステップ30;N)、案内情報提供処理を終了する。   Thus, after providing the guidance information (step 25), the navigation device 1 determines whether or not to continue the guidance (step 30). If the guidance is to be continued (step 30; Y), step 5 When the guidance is not continued (for example, when the driver stops the guidance by operating the navigation device 1) (step 30; N), the guidance information providing process is terminated.

図9は、ステップ5の撮影・画像認識処理を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の画像認識機能部60(図3)が行うものである。
ナビゲーション装置1は、フロントカメラ31を用いて視野画像を取得する(ステップ50)。
そして、ナビゲーション装置1は、視野画像を視線トラッキング範囲(視線の移り変わっている範囲)で切り出して、これを取り出す(ステップ55)。
これは、フロントカメラ31で撮影している画像と、運転者の視野にずれがあるため、画像認識処理する範囲が運転者の視野に適合するように撮影した画像を調整するものである。以降、ナビゲーション装置1は、この取り出した視野画像を用いる。
FIG. 9 is a flowchart for explaining the photographing / image recognition processing in step 5.
The following processing is performed by the image recognition function unit 60 (FIG. 3) of the navigation device 1.
The navigation apparatus 1 acquires a visual field image using the front camera 31 (step 50).
Then, the navigation device 1 cuts out the visual field image in the line-of-sight tracking range (the range in which the line of sight changes), and extracts this (step 55).
This is because the image captured by the front camera 31 and the driver's field of view are misaligned, and the captured image is adjusted so that the range for image recognition processing matches the driver's field of view. Thereafter, the navigation device 1 uses the retrieved field image.

次に、ナビゲーション装置1は、視野画像に対して、特徴物抽出のためのエッジ抽出処理などの画像処理を行い(ステップ60)、画像認識用DB56を用いて、予め学習させてあるパターンと抽出した特徴物を照合することにより画像認識(パターン認識)する(ステップ65)。
次に、ナビゲーション装置1は、パターンがマッチした特徴物が何であるのか(例えば、ビル、交差点など)を理解する(ステップ70)。
そして、ナビゲーション装置1は、理解した特徴物を輪郭化することにより輪郭処理し(ステップ75)、これを矩形で囲んで記憶する(ステップ80)。このように、案内対象物は、特徴物として抽出され、輪郭化された後、矩形で囲まれる。
Next, the navigation apparatus 1 performs image processing such as edge extraction processing for feature object extraction on the visual field image (step 60), and extracts a pattern learned in advance using the image recognition DB 56. Image recognition (pattern recognition) is performed by collating the featured features (step 65).
Next, the navigation apparatus 1 understands what the feature with which the pattern matched (for example, a building, an intersection, etc.) (step 70).
Then, the navigation device 1 performs contour processing by contouring the understood feature (step 75), and stores this by enclosing it in a rectangle (step 80). As described above, the guidance object is extracted as a feature object, contoured, and then surrounded by a rectangle.

図10は、ステップ20の重なり時処理を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の視線認識機能部63(図3)が行うものである。
まず、ナビゲーション装置1は、運転者の現在の焦点がある矩形、即ち、焦点位置で一番手前にある矩形を基準に設定する(ステップ90)。
次に、ナビゲーション装置1は、複数重なっている矩形のうち、基準となる矩形の案内対象物に関してとりあえず案内情報を提供する(ステップ95)。
FIG. 10 is a flowchart for explaining the overlapping processing in step 20.
The following processing is performed by the line-of-sight recognition function unit 63 (FIG. 3) of the navigation device 1.
First, the navigation device 1 sets a rectangle with the driver's current focus, that is, a rectangle closest to the focus position (step 90).
Next, the navigation device 1 provides guidance information for the reference rectangular guidance object among the plurality of overlapping rectangles (step 95).

なお、情報提供には、運転者が案内対象物を視認している場合に、当該案内対象物の案内情報を提供するプル型と、運転者が案内対象物を視認していない場合に、当該案内対象物の案内情報を提供するプッシュ型がある。
本実施の形態では、運転者の視線の焦点にある矩形に対応する案内情報を提供するためプル型となる。
For information provision, when the driver is viewing the guidance object, the pull type that provides the guidance information of the guidance object, and when the driver is not viewing the guidance object, There is a push type that provides guidance information of guidance objects.
In the present embodiment, a pull type is provided to provide guidance information corresponding to a rectangle at the focus of the driver's line of sight.

次に、ナビゲーション装置1は、基準矩形に重なっている他の矩形を抽出し(ステップ100)、抽出した矩形の基準矩形に対する位置関係を割り当てる(ステップ105)。
次に、ナビゲーション装置1は、視線の焦点を中心に重なり方向に対応した判断領域(例えば、誤差円)を、車両の振動や案内対象物までの距離などを考慮しながら設定する(ステップ110)。
Next, the navigation device 1 extracts another rectangle that overlaps the reference rectangle (step 100), and assigns the positional relationship of the extracted rectangle to the reference rectangle (step 105).
Next, the navigation apparatus 1 sets a determination region (for example, an error circle) corresponding to the overlapping direction centered on the focus of the line of sight while considering the vibration of the vehicle, the distance to the guidance object, and the like (step 110). .

このように判断領域を設定した後、ナビゲーション装置1は、視線カメラ32によって運転者の眼の位置の移動を追跡し、眼の位置が判断領域の範囲を超えたか否かを判断する(ステップ120)。
眼の位置が判断領域を超えた場合(ステップ120;Y)、ナビゲーション装置1は、眼の移動方向に対応する位置関係の矩形を選択する(ステップ125)。
眼の位置が判断領域を超えない場合(ステップ120;N)、ナビゲーション装置1は、メインルーチン(図8のフローチャート)にリターンする。
After setting the determination area in this way, the navigation apparatus 1 tracks the movement of the driver's eye position by the line-of-sight camera 32, and determines whether or not the eye position exceeds the range of the determination area (step 120). ).
When the eye position exceeds the determination region (step 120; Y), the navigation device 1 selects a positional relation rectangle corresponding to the eye movement direction (step 125).
If the eye position does not exceed the determination area (step 120; N), the navigation device 1 returns to the main routine (flowchart in FIG. 8).

図11は、第1の方法に対応する接近時処理の手順を説明するためのフローチャートである。
以下の処理は、ナビゲーション装置1の視線認識機能部63(図3)が行うものである(以下、第2の方法、第3の方法も同様)。
まず、ナビゲーション装置1は、現在の視線の焦点の位置から案内対象の候補となる接近した複数の矩形を選択する。
そして、これら接近している案内対象候補の矩形の中心点を結ぶことにより、分断により離反させる離反方向を設定し(ステップ140)、更に、分断距離yを計算する(ステップ145)。
次に、ナビゲーション装置1は、矩形に重畳して反応領域をHUD45に表示し、当該反応領域を離反方向に分断距離yだけ離反させるアニメーションを開始する(ステップ150)。
FIG. 11 is a flowchart for explaining the procedure of the approach processing corresponding to the first method.
The following processing is performed by the line-of-sight recognition function unit 63 (FIG. 3) of the navigation device 1 (hereinafter, the same applies to the second method and the third method).
First, the navigation device 1 selects a plurality of approaching rectangles that are candidates for guidance from the current focus position.
Then, by connecting the rectangular center points of the guidance target candidates that are approaching, a separation direction to be separated by division is set (step 140), and further, a division distance y is calculated (step 145).
Next, the navigation device 1 displays the reaction area on the HUD 45 so as to overlap the rectangle, and starts an animation for separating the reaction area by the separation distance y in the separation direction (step 150).

ナビゲーション装置1は、アニメーションを行っている間、視線カメラ32によって運転者の視線を観察し、視線がアニメーションに追従したか否かを判断する(ステップ155)。
視線がアニメーションに追従した場合(ステップ155;Y)、ナビゲーション装置1は、視線の焦点が移動した側の矩形を選択状態とし(ステップ160)、メインルーチンにリターンする。
一方、視線が追従しない場合(ステップ155;N)、ナビゲーション装置1は、運転者は対象の矩形を見ていないと判断し、反応領域と矩形を消去し(ステップ170)、メインルーチンにリターンする。
During the animation, the navigation device 1 observes the driver's line of sight with the line-of-sight camera 32 and determines whether or not the line of sight follows the animation (step 155).
When the line of sight follows the animation (step 155; Y), the navigation device 1 selects the rectangle on the side where the focus of the line of sight has moved (step 160), and returns to the main routine.
On the other hand, when the line of sight does not follow (step 155; N), the navigation device 1 determines that the driver is not looking at the target rectangle, deletes the reaction area and the rectangle (step 170), and returns to the main routine. .

図12は、第2の方法に対応する接近時処理の手順を説明するためのフローチャートである。
まず、ナビゲーション装置1は、接近した矩形のそれぞれに反応領域を設定してHUD45に表示するとともに、その中から現在の焦点がある矩形を案内候補として選択する(ステップ180)。
FIG. 12 is a flowchart for explaining the procedure of the approaching process corresponding to the second method.
First, the navigation device 1 sets a reaction region for each approaching rectangle and displays it on the HUD 45, and selects a rectangle with the current focus as a guidance candidate from among them (step 180).

次に、ナビゲーション装置1は、選択した矩形上に視線の焦点があるか否かを判断する(ステップ185)。
選択した矩形上に焦点がある場合(ステップ185;Y)、ナビゲーション装置1は、当該矩形の反応領域を徐々に縮小するとともに(ステップ190)、当該矩形における注視時間を計測する(ステップ195)。
Next, the navigation device 1 determines whether or not the line of sight is on the selected rectangle (step 185).
When the focus is on the selected rectangle (step 185; Y), the navigation apparatus 1 gradually reduces the reaction area of the rectangle (step 190) and measures the gaze time in the rectangle (step 195).

次に、ナビゲーション装置1は、注視時間が所定の制限時間内に所定の判定時間に達したか否かを判断する(ステップ200)。
所定の判定時間が満了した場合(ステップ200;Y)、ナビゲーション装置1は、当該矩形を案内対象として選択し、メインルーチンにリターンする。
一方、所定の判定時間が満了しなかった場合(ステップ200;N)、ナビゲーション装置1は、ステップ185に戻る。
Next, the navigation device 1 determines whether or not the gaze time has reached a predetermined determination time within a predetermined time limit (step 200).
When the predetermined determination time has expired (step 200; Y), the navigation device 1 selects the rectangle as a guidance target and returns to the main routine.
On the other hand, when the predetermined determination time has not expired (step 200; N), the navigation device 1 returns to step 185.

また、ステップ185で、焦点が選択した矩形になかった場合(ステップ185;N)、ナビゲーション装置1は、他の矩形に焦点が移動したか否かを判断する(ステップ210)。
他の矩形に焦点が移動した場合(ステップ210;Y)、ナビゲーション装置1は、当該他の矩形を新たに選択し(ステップ215)、ステップ185に戻る。
一方、他の矩形に焦点が移動していない場合(ステップ210;N)、ナビゲーション装置1は、何もないところに視線が移動したと判断し、HUD45から反応領域を消去してメインルーチンにリターンする。
In step 185, if the focus is not in the selected rectangle (step 185; N), the navigation device 1 determines whether the focus has moved to another rectangle (step 210).
When the focus moves to another rectangle (step 210; Y), the navigation apparatus 1 newly selects the other rectangle (step 215) and returns to step 185.
On the other hand, when the focal point has not moved to another rectangle (step 210; N), the navigation device 1 determines that the line of sight has moved to an empty place, erases the reaction area from the HUD 45, and returns to the main routine. To do.

図13は、第3の方法に対応する接近時処理の手順を説明するためのフローチャートである。第2の方法と同様のステップには同じステップ番号を付し、説明を簡略化する。
まず、ナビゲーション装置1は、接近した矩形の中から現在の焦点がある矩形を案内候補として選択する(ステップ180)。
FIG. 13 is a flowchart for explaining the procedure of the approaching process corresponding to the third method. Steps similar to those in the second method are denoted by the same step numbers, and the description is simplified.
First, the navigation device 1 selects a rectangle with the current focus as a guidance candidate from the close rectangles (step 180).

次に、ナビゲーション装置1は、選択した矩形上に視線の焦点があるか否かを判断する(ステップ185)。
選択した矩形上に焦点がある場合(ステップ185;Y)、ナビゲーション装置1は、当該矩形における注視時間を計測する(ステップ195)。
Next, the navigation device 1 determines whether or not the line of sight is on the selected rectangle (step 185).
When the focal point is on the selected rectangle (step 185; Y), the navigation device 1 measures the gaze time in the rectangle (step 195).

次に、ナビゲーション装置1は、注視時間が所定の制限時間内に所定の判定時間に達したか否かを判断する(ステップ200)。
所定の判定時間が満了した場合(ステップ200;Y)、ナビゲーション装置1は、当該矩形を案内対象として選択し、メインルーチンにリターンする。
一方、所定の判定時間が満了しなかった場合(ステップ200;N)、ナビゲーション装置1は、ステップ185に戻る。
Next, the navigation device 1 determines whether or not the gaze time has reached a predetermined determination time within a predetermined time limit (step 200).
When the predetermined determination time has expired (step 200; Y), the navigation device 1 selects the rectangle as a guidance target and returns to the main routine.
On the other hand, when the predetermined determination time has not expired (step 200; N), the navigation device 1 returns to step 185.

また、ステップ185で、焦点が選択した矩形になかった場合(ステップ185;N)、ナビゲーション装置1は、他の矩形に焦点が移動したか否かを判断する(ステップ210)。
他の矩形に焦点が移動した場合(ステップ210;Y)、ナビゲーション装置1は、当該他の矩形を新たに選択し(ステップ215)、ステップ185に戻る。
一方、他の矩形に焦点が移動していない場合(ステップ210;N)、ナビゲーション装置1は、何もないところに視線が移動したと判断し、メインルーチンにリターンする。
In step 185, if the focus is not in the selected rectangle (step 185; N), the navigation device 1 determines whether the focus has moved to another rectangle (step 210).
When the focus moves to another rectangle (step 210; Y), the navigation apparatus 1 newly selects the other rectangle (step 215) and returns to step 185.
On the other hand, if the focal point has not moved to another rectangle (step 210; N), the navigation device 1 determines that the line of sight has moved to a place where there is nothing, and returns to the main routine.

以上に説明した実施の形態により、次のような効果を得ることができる。
(1)案内対象物が重なっている場合や接近している場合は、認識した対象と視線の組み合わせにより、唯一の案内対象物を案内対象として特定するのが困難な場合がある。しかし、ナビゲーション装置1によれば、重なり時処理や接近時処理を行うことにより適切な案内対象物を選択することができる。
(2)重なり時処理によれば、案内対象物が重なった場合に、運転者の直感的な動作から意図を判別することができる。
(3)接近時処理(第1の方法、第2の方法)によれば、案内対象物が接近している場合に、反応領域を離反させたり、変形することにより、運転者の直感的な視線の変化を検出して運転者の意図を判別することができる。
(4)接近時処理(第3の方法)によれば、案内対象物に対する注視時間を計測することにより運転者の意図を判別することができる。
(5)ナビゲーション装置1は、運転者の視線を遠隔操作手段として用いると共に、重なり時処理や接近時処理を用いることにより、運転者が意図している案内対象物を適切に選択することができる。そのため、運転者の意図や行動を先読みして処理し、より直感的に運転者が外界の情報を取得することができる。
According to the embodiment described above, the following effects can be obtained.
(1) When guidance objects overlap or approach each other, it may be difficult to specify a single guidance object as a guidance object depending on the combination of the recognized object and the line of sight. However, according to the navigation device 1, it is possible to select an appropriate guidance object by performing the overlapping process and the approaching process.
(2) According to the overlapping process, the intention can be determined from the intuitive operation of the driver when the guidance objects overlap.
(3) According to the approach processing (the first method and the second method), when the guidance object is approaching, the reaction area is separated or deformed, so that the driver's intuitive The driver's intention can be determined by detecting a change in the line of sight.
(4) According to the approach processing (third method), the driver's intention can be determined by measuring the gaze time for the guidance object.
(5) The navigation device 1 can appropriately select the guidance object intended by the driver by using the driver's line of sight as the remote control means and by using the overlapping process and the approaching process. . Therefore, the driver's intention and behavior are prefetched and processed, and the driver can acquire information on the outside world more intuitively.

なお、本実施形態としては、次のように構成することも可能である。
(1)構成1
車両の運転者の視界に対応する画像を取得する画像取得手段と、
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導手段と、
前記誘導手段による視線の誘導による前記運転者の視線の変化を取得する視線変化取得手段と、
前記誘導手段の視線誘導による運転者の視線の変化に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供手段と、
を具備したことを特徴とする情報提供装置。
(2)構成2
前記視線誘導手段は、前記複数ある案内対象物を囲む領域を、前記運転者の視界において、前記案内対象物ごとに表示し、当該表示した領域を変化させる、ことで前記運転者の視線を誘導する、
ことを特徴とする構成1記載の情報提供装置。
(3)構成3
前記視線誘導手段は、前記表示した領域を離反する方向に移動する、ことで運転者の視線を誘導する、
ことを特徴とする構成2に記載の情報提供装置。
(4)構成4
前記視線誘導手段は、誘導開始前の位置から移動後の位置まで前記領域を連続的に移動する、
ことを特徴とする構成3に記載の情報提供装置。
(5)構成5
前記視線誘導手段は、当該複数ある案内対象物のうちの1つを仮選択し、前記仮選択した案内対象物を囲む領域を、前記運転者の視界において表示すると共に、前記表示した領域を縮小させる、ことで前記運転者の視線を誘導する、
ことを特徴とする構成1に記載の情報提供装置。
(6)構成6
前記視線誘導手段は、仮選択する案内対象物を順次変更する、
ことを特徴とする構成5に記載の情報提供装置。
(7)構成7
前記誘導手段による運転者の視線誘導の間に、前記複数ある案内対象物の各々に対して、前記運転者の視線が滞在した時間を計測する計測手段を具備し、
前記選択手段は、所定時間以上視線が滞在した案内対象物を選択する、
ことを特徴とする構成2から構成6のうちのいずれか1の構成に記載の情報提供装置。
(8)構成8
車両の運転者の視界に対応する画像を取得する画像取得機能と、
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導機能と、
前記誘導機能による視線の誘導による前記運転者の視線の変化を取得する視線変化取得機能と、
前記誘導機能の視線誘導による運転者の視線の変化に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。
The present embodiment can also be configured as follows.
(1) Configuration 1
Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
Guidance means for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
A line-of-sight change acquisition means for acquiring a change in the line of sight of the driver due to the line-of-sight guidance by the guide means;
Selection means for selecting any one of the identified plurality of guidance objects based on a change in the driver's line of sight due to the line of sight guidance of the guidance means;
Information providing means for providing the driver with information on the selected guidance object;
An information providing apparatus comprising:
(2) Configuration 2
The line-of-sight guidance means guides the driver's line of sight by displaying an area surrounding the plurality of guidance objects in the driver's field of view for each of the guidance objects, and changing the displayed area. To
An information providing apparatus according to Configuration 1, characterized in that:
(3) Configuration 3
The line-of-sight guidance means guides the driver's line of sight by moving in a direction away from the displayed area;
The information providing apparatus according to Configuration 2, characterized by:
(4) Configuration 4
The line-of-sight guidance means continuously moves the region from a position before guidance start to a position after movement,
The information providing apparatus according to Configuration 3, characterized in that:
(5) Configuration 5
The line-of-sight guidance means temporarily selects one of the plurality of guidance objects, displays an area surrounding the provisionally selected guidance object in the driver's field of view, and reduces the displayed area. To guide the driver's line of sight,
The information providing apparatus according to Configuration 1, characterized in that:
(6) Configuration 6
The line-of-sight guidance means sequentially changes guidance objects to be temporarily selected.
The information providing apparatus according to Configuration 5, characterized in that:
(7) Configuration 7
During the driver's line-of-sight guidance by the guide means, for each of the plurality of guidance objects, comprises a measuring means for measuring the time that the driver's line of sight stayed,
The selection means selects a guide object whose line of sight has stayed for a predetermined time or more.
The information providing apparatus according to any one of Configurations 2 to 6, wherein the information providing device is configured as described above.
(8) Configuration 8
An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
A guidance function for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
A line-of-sight change acquisition function for acquiring a change in the line of sight of the driver due to the line-of-sight guidance by the guidance function;
A selection function for selecting any one of the identified plurality of guidance objects based on a change in the driver's line of sight due to the line of sight guidance of the guidance function;
An information providing function for providing the driver with information on the selected guidance object;
An information providing program characterized by realizing the above with a computer.

更に次の用に実施形態を構成することも可能である。
(11)構成11
車両の運転者の視界に対応する画像を取得する画像取得手段と、
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、前記運転者の視線が滞在した時間を前記案内対象物毎に計測する計測手段と、
前記計測した前記案内対象物毎の時間に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供手段と、
を具備したことを特徴とする情報提供装置。
(12)構成12
前記特定した案内対象物が複数ある場合に、前記運転者の視線を誘導する誘導手段と、
を更に備えたことを特徴とする構成11に記載の情報提供装置。
(13)構成13
前記選択手段は、前記誘導手段による前記運転者の視線誘導の間に、所定時間以上視線が滞在した案内対象物を選択する、
ことを特徴とする構成12に記載の情報提供装置。
(14)構成14
車両の運転者の視界に対応する画像を取得する画像取得機能と、
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数ある場合に、当該複数ある案内対象物に、前記運転者の視線が滞在した時間を前記案内対象物毎に計測する計測機能と、
前記計測した前記案内対象物毎の時間に基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
前記選択した案内対象物に対する情報を前記運転者に提供する情報提供機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。
Further, the embodiment can be configured for the following purposes.
(11) Configuration 11
Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
When there are a plurality of the specified guidance objects, a measuring unit that measures the time that the driver's line of sight stays in the plurality of guidance objects for each guidance object;
Selection means for selecting any one of the specified plurality of guidance objects based on the measured time for each guidance object;
Information providing means for providing the driver with information on the selected guidance object;
An information providing apparatus comprising:
(12) Configuration 12
Guidance means for guiding the driver's line of sight when there are a plurality of the specified guidance objects;
The information providing device according to Configuration 11, further comprising:
(13) Configuration 13
The selection means selects a guidance object whose line of sight has stayed for a predetermined time or more during the driver's line of sight guidance by the guidance means.
13. The information providing device according to configuration 12, wherein
(14) Configuration 14
An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
When there are a plurality of the specified guidance objects, a measurement function for measuring, for each guidance object, the time that the driver's line of sight stays in the plurality of guidance objects;
A selection function for selecting any one of the specified plurality of guidance objects based on the measured time for each guidance object;
An information providing function for providing the driver with information on the selected guidance object;
An information providing program characterized by realizing the above with a computer.

1 ナビゲーション装置
2 運転者
10 現在位置検出装置
12 方位センサ
13 距離センサ
14 GPS受信装置
15 地磁気センサ
20 情報処理装置
28 クロック
30 撮影装置
31 フロントカメラ
32 視線カメラ
40 入出力装置
41 入力装置
42 ディスプレイ
44 スピーカ
45 HUD
46 マイクロフォン
50 記憶装置
51 ナビゲーションプログラム
52 地図DB
54 案内情報DB
55 交通情報DB
56 画像認識用DB
60 画像認識機能部
61 撮影部
62 画像処理認識部
63 視線認識機能部
64 視線管理部
65 視線情報サービス部
66 音声認識機能部
67 音声認識部
68 ナビゲーション機能部
69 案内処理部
71 各センサ
73 音声制御部
81 視野画像
82 焦点
83 誤差円
91〜94 反応領域
101、103 焦点
107〜109 注視時間
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2 Driver | operator 10 Current position detection apparatus 12 Direction sensor 13 Distance sensor 14 GPS receiver 15 Geomagnetic sensor 20 Information processing apparatus 28 Clock 30 Image pick-up device 31 Front camera 32 Line-of-sight camera 40 Input / output device 41 Input device 42 Display 44 Speaker 45 HUD
46 Microphone 50 Storage device 51 Navigation program 52 Map DB
54 Guidance Information DB
55 Traffic Information DB
56 Image recognition database
60 Image Recognition Function Unit 61 Image Capture Unit 62 Image Processing Recognition Unit 63 Gaze Recognition Function Unit 64 Gaze Management Unit 65 Gaze Information Service Unit 66 Voice Recognition Function Unit 67 Voice Recognition Unit 68 Navigation Function Unit 69 Guidance Processing Unit 71 Each Sensor 73 Voice Control Part 81 Field of view 82 Focus 83 Error circle 91-94 Reaction area 101, 103 Focus 107-109 Gaze time

Claims (4)

車両の運転者の視界に対応する画像を取得する画像取得手段と、
前記取得した画像に写っている案内対象物を認識する認識手段と、
前記運転者の視線を検出する視線検出手段と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定手段と、
前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定手段と、
前記運転者の眼の位置の移動方向を検出する移動検出手段と、
前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択手段と、
を具備したこと特徴とする情報提供装置。
Image acquisition means for acquiring an image corresponding to the field of view of the driver of the vehicle;
Recognizing means for recognizing a guidance object in the acquired image;
Gaze detection means for detecting the driver's gaze;
A specifying means for specifying the guidance object in the direction of the detected line of sight by associating the recognized guidance object with the detected line of sight in the acquired image;
When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects overlaps with the acquired image, the overlapping direction of the other guidance objects with respect to any one of the guidance objects Overlapping direction setting means for setting
Movement detection means for detecting the movement direction of the position of the driver's eyes;
Selection means for selecting any one of the specified plurality of guidance objects based on the set overlapping direction and the detected movement direction of the eye position;
An information providing apparatus comprising:
前記移動検出手段は、前記眼の移動量を更に検出し、
前記車両の振動と、案内対象物までの距離と、の少なくとも一方を用いて前記移動量に閾値を動的に設定する閾値設定手段を具備し、
前記選択手段は、前記検出した眼の移動量が所定の閾値を超えた場合に、前記設定した重なり方向と、前記検出した移動方向と、に基づいて前記案内対象物を選択することを特徴とする請求項1に記載の情報提供装置。
The movement detection means further detects the movement amount of the eye,
Threshold value setting means for dynamically setting a threshold value for the amount of movement using at least one of the vibration of the vehicle and the distance to the guidance object;
The selecting means selects the guidance object based on the set overlapping direction and the detected moving direction when the detected movement amount of the eye exceeds a predetermined threshold value. The information providing apparatus according to claim 1.
前記重なり方向設定手段は、前記重なっている複数の案内対象物のうち、一番手前にある案内対象物を基準として、他の案内対処物の重なり方向を設定する、
ことを特徴とする請求項1又は請求項2に記載の情報提供装置。
The overlapping direction setting means sets the overlapping direction of other guidance countermeasure objects, with the guidance object in front of the plurality of overlapping guidance objects as a reference,
The information providing apparatus according to claim 1 or 2, characterized in that
車両の運転者の視界に対応する画像を取得する画像取得機能と、
前記取得した画像に写っている案内対象物を認識する認識機能と、
前記運転者の視線を検出する視線検出機能と、
前記取得した画像において、前記認識した案内対象物と前記検出した視線を対応させて、前記検出した視線の方向にある案内対象物を特定する特定機能と、
前記特定した案内対象物が複数あり、当該複数ある案内対象物の一部が前記取得した画像で重なっている場合に、いずれか1の案内対象物を基準として、他の案内対象物の重なり方向を設定する重なり方向設定機能と、
前記運転者の眼の位置の移動方向を検出する移動検出機能と、
前記設定した重なり方向と、前記検出した目の位置の移動方向とに基づいて、前記特定した複数の案内対象物のうちの何れか1つを選択する選択機能と、
をコンピュータで実現することを特徴とする情報提供プログラム。
An image acquisition function for acquiring an image corresponding to the field of view of the driver of the vehicle;
A recognition function for recognizing a guidance object in the acquired image;
A gaze detection function for detecting the gaze of the driver;
In the acquired image, a specific function for associating the recognized guidance object with the detected line of sight to identify the guidance object in the direction of the detected line of sight;
When there are a plurality of the specified guidance objects and a part of the plurality of guidance objects overlaps with the acquired image, the overlapping direction of the other guidance objects with respect to any one of the guidance objects Overlap direction setting function to set
A movement detection function for detecting a movement direction of the position of the eyes of the driver;
A selection function for selecting any one of the identified plurality of guidance objects based on the set overlapping direction and the movement direction of the detected eye position;
An information providing program characterized by realizing the above with a computer.
JP2013048977A 2013-03-12 2013-03-12 Information processor and information program Abandoned JP2014174879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013048977A JP2014174879A (en) 2013-03-12 2013-03-12 Information processor and information program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048977A JP2014174879A (en) 2013-03-12 2013-03-12 Information processor and information program

Publications (1)

Publication Number Publication Date
JP2014174879A true JP2014174879A (en) 2014-09-22

Family

ID=51696004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048977A Abandoned JP2014174879A (en) 2013-03-12 2013-03-12 Information processor and information program

Country Status (1)

Country Link
JP (1) JP2014174879A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087091A (en) * 2018-11-28 2020-06-04 株式会社日立ビルシステム Skill degree determination system
CN111366165A (en) * 2018-12-26 2020-07-03 长安大学 Road sight distance detection method based on network geographic information system and machine vision

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087091A (en) * 2018-11-28 2020-06-04 株式会社日立ビルシステム Skill degree determination system
JP7011569B2 (en) 2018-11-28 2022-02-10 株式会社日立ビルシステム Skill level judgment system
CN111366165A (en) * 2018-12-26 2020-07-03 长安大学 Road sight distance detection method based on network geographic information system and machine vision

Similar Documents

Publication Publication Date Title
EP2891953B1 (en) Eye vergence detection on a display
JP4366716B2 (en) Vehicle information display device
US20190251374A1 (en) Travel assistance device and computer program
US10029700B2 (en) Infotainment system with head-up display for symbol projection
JP2014181927A (en) Information provision device, and information provision program
JP6176541B2 (en) Information display device, information display method, and program
US20160054795A1 (en) Information display device
US11900672B2 (en) Integrated internal and external camera system in vehicles
JP2012220489A (en) Windshield display device for road guidance information and method therefor
JP2009020089A (en) System, method, and program for navigation
JP2014120111A (en) Travel support system, travel support method, and computer program
KR20190083727A (en) Guide robot and operating method thereof
CN107923761A (en) Display control unit, display device and display control method
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
JP7151073B2 (en) Display device and computer program
JP2016091192A (en) Virtual image display apparatus, control method, program, and storage medium
JP2014120114A (en) Travel support system, travel support method, and computer program
JP2016074410A (en) Head-up display device and head-up display display method
JP6136238B2 (en) Driving support system, driving support method, and computer program
KR20160146384A (en) An augment reality navigation system and method of route guidance of an augment reality navigation system
JP2014174880A (en) Information processor and information program
JP2014120113A (en) Travel support system, travel support method, and computer program
KR20130119144A (en) Method and device for displaying object using transparent display panel
JP2014174879A (en) Information processor and information program
JP2014174091A (en) Information providing device and information providing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150320

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150908