JP2009183473A - Visual line direction detection device, and visual line direction detection method - Google Patents

Visual line direction detection device, and visual line direction detection method Download PDF

Info

Publication number
JP2009183473A
JP2009183473A JP2008026887A JP2008026887A JP2009183473A JP 2009183473 A JP2009183473 A JP 2009183473A JP 2008026887 A JP2008026887 A JP 2008026887A JP 2008026887 A JP2008026887 A JP 2008026887A JP 2009183473 A JP2009183473 A JP 2009183473A
Authority
JP
Japan
Prior art keywords
gaze
image
driver
display
direction detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008026887A
Other languages
Japanese (ja)
Other versions
JP5092776B2 (en
Inventor
Yoji Morishita
洋司 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008026887A priority Critical patent/JP5092776B2/en
Publication of JP2009183473A publication Critical patent/JP2009183473A/en
Application granted granted Critical
Publication of JP5092776B2 publication Critical patent/JP5092776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain an appropriate calibration process. <P>SOLUTION: A detection ECU 10 controls to display a target to be watched by the driver on a virtual image screen ahead of the driver by a head-up display (HUD) 30, and detects the visual line direction of the driver based on an image taken by a camera 20 in that state. Then, it executes a calibration process for visual line direction detection based on the detected visual line direction and a displayed target position. By displaying the target ahead to be watched by the driver, the taken image of the driver in a desired visual line direction can be easily and correctly obtained, thus attaining an appropriate calibration process. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、運転者の視線方向を精度よく検出するためのキャリブレーション処理を実行する視線方向検出装置及び視線方向検出方法に関するものである。   The present invention relates to a gaze direction detection device and a gaze direction detection method for executing a calibration process for accurately detecting a gaze direction of a driver.

近年、車両の安全運転を支援するための様々なシステム(安全運転支援システム)が提案されている。こうした安全運転支援システムにおいて、例えば、車両外部の状況(歩行者、他の車両、障害物等の存在状況)に応じて運転者に対する警報を行う場合、運転者が気付いている状況についてまで警報が行われると煩わしいものとなる。そこで、運転者がどこを見ているのか(つまり運転者の視線方向)を検出し、運転者が気付いていない状況について警報を行うようなシステムが望まれる。このようなシステムを実現するには、運転者の視線方向を精度よく検出(推定)することが重要であり、そのためには、視線方向検出のキャリブレーション処理を行う必要がある。   In recent years, various systems (safe driving support systems) for supporting safe driving of vehicles have been proposed. In such a safe driving support system, for example, when a warning is given to the driver according to the situation outside the vehicle (existing situation of pedestrians, other vehicles, obstacles, etc.), the warning is given to the situation that the driver is aware of When done, it becomes annoying. Therefore, a system that detects where the driver is looking (that is, the direction of the driver's line of sight) and issues a warning about a situation that the driver is not aware of is desired. In order to realize such a system, it is important to accurately detect (estimate) the driver's line-of-sight direction. For this purpose, it is necessary to perform a calibration process for detecting the line-of-sight direction.

例えば、特許文献1に記載の視線方向判定装置は、ヘッドレスト及びシートに内蔵された距離センサ(静電容量センサなど)を利用し、ヘッドレストのセンサから頭部角度、シートのセンサから肩部角度を検出することで、運転者の視線方向を推定する。そして、この装置では、運転者の体型によらず視線方向を精度よく検出できるようにするため、運転者が座席に着座したことを検出すると、頭部との距離を計測しながらヘッドレストを上下動させ、距離が最小となる位置でヘッドレストを停止するようにしている。つまり、ヘッドレストの位置を自動的に最適位置に設定することによるキャリブレーション処理を実行する。
特開2007−280352号公報
For example, the gaze direction determination device described in Patent Document 1 uses a distance sensor (capacitance sensor or the like) built in the headrest and the seat, and calculates the head angle from the headrest sensor and the shoulder angle from the seat sensor. By detecting, the driver's gaze direction is estimated. In this device, the headrest is moved up and down while measuring the distance from the head when detecting that the driver is seated on the seat so that the gaze direction can be accurately detected regardless of the body shape of the driver. The headrest is stopped at the position where the distance is minimum. That is, the calibration process is executed by automatically setting the position of the headrest to the optimum position.
JP 2007-280352 A

しかしながら、前述した特許文献1に記載の手法では、ヘッドレストの上下動によるキャリブレーション処理の実行中に運転者が正面を向いているとは限らず、また、運転者自身も、正面を向いていることを正確に把握することができない。このため、キャリブレーション処理が適切に行われないという問題がある。   However, in the method described in Patent Document 1 described above, the driver is not always facing the front during the calibration process by the vertical movement of the headrest, and the driver is also facing the front. I can't figure out exactly. For this reason, there exists a problem that a calibration process is not performed appropriately.

本発明は、こうした問題にかんがみてなされたものであり、適切なキャリブレーション処理を実現することのできる視線方向検出装置及び視線方向検出方法を提供することを目的としている。   The present invention has been made in view of these problems, and an object of the present invention is to provide a gaze direction detection device and a gaze direction detection method capable of realizing appropriate calibration processing.

上記目的を達成するためになされた本発明の請求項1に記載の視線方向検出装置は、運転者を前方から撮影する撮影手段が搭載された車両で用いられ、撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行するものである。   The line-of-sight detection device according to claim 1 of the present invention made to achieve the above object is used in a vehicle equipped with a photographing means for photographing a driver from the front and is driven based on a photographed image by the photographing means. The calibration processing for detecting the gaze direction of the person is executed.

そして、視線方向検出装置では、注視用画像表示手段が、運転者の前方に画像を表示する表示手段に運転者に注視させるための注視用画像を表示させ、撮影画像取得手段が、注視用画像表示手段により注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する。さらに、視線方向検出手段が、撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出し、キャリブレーション手段が、視線方向検出手段により検出された運転者の視線方向と注視用画像表示手段により表示された注視用画像の表示位置とに基づき、視線方向検出手段による視線方向検出のキャリブレーション処理を実行する。   In the gaze direction detection device, the gaze image display means displays a gaze image for causing the driver to gaze on the display means for displaying the image in front of the driver, and the captured image acquisition means performs the gaze image. A driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the display means is acquired. Further, the gaze direction detection means detects the driver's gaze direction based on the captured image acquired by the captured image acquisition means, and the calibration means detects the driver's gaze direction and the gaze direction detected by the gaze direction detection means. Based on the display position of the gaze image displayed by the image display means, the gaze direction detection calibration process by the gaze direction detection means is executed.

このような視線方向検出装置によれば、注視用画像を表示させて運転者に注視させることで、所望の視線方向での運転者の撮影画像が容易かつ正確に得られるため、適切なキャリブレーション処理を実現することができる。   According to such a gaze direction detection device, a driver's captured image in a desired gaze direction can be easily and accurately obtained by displaying a gaze image and causing the driver to gaze. Processing can be realized.

ここで、運転者に正面を注視させるための注視用画像としては、例えば請求項2に記載のように、運転者の撮影画像に対して鏡像変換を施した画像を表示させるようにするとよい。このようにすれば、運転者はあたかも鏡を見ているような状態で正面を向くこととなるため、運転者自身が正面を向いた状態を正確に把握することができる。   Here, as a gaze image for causing the driver to gaze at the front, for example, as described in claim 2, an image obtained by performing mirror image conversion on the driver's photographed image may be displayed. In this way, since the driver turns to the front as if looking at the mirror, the driver can accurately grasp the state in which the driver has turned to the front.

また、請求項3に記載の視線方向検出装置では、注視用画像表示手段は、注視用画像を複数の位置に順次表示させ、撮影画像取得手段は、注視用画像表示手段により複数の位置に注視用画像が順次表示されている各状態で撮影手段により撮影された運転者の撮影画像を取得する。そして、視線方向検出手段は、撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、キャリブレーション手段は、視線方向検出手段により検出された運転者の視線方向とその状態で注視用画像表示手段により表示された注視用画像の表示位置とに基づき、視線方向検出手段による視線方向検出のキャリブレーション処理を実行する。   In the gaze direction detecting device according to claim 3, the gaze image display means sequentially displays the gaze image at a plurality of positions, and the captured image acquisition means gazes at the plurality of positions by the gaze image display means. A driver's photographed image photographed by the photographing means in each state where the business images are sequentially displayed is acquired. The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured images in each state acquired by the captured image acquisition means, and the calibration means detects the driver's line-of-sight detected by the line-of-sight direction detection means. Based on the direction and the display position of the gaze image displayed by the gaze image display means in that state, the gaze direction detection calibration processing by the gaze direction detection means is executed.

このような視線方向検出装置によれば、1つの視線方向のみに基づきキャリブレーション処理を実行する場合に比べ、より適切なキャリブレーション処理を実現することができる。   According to such a gaze direction detection device, it is possible to realize a more appropriate calibration process than when the calibration process is executed based on only one gaze direction.

特に、請求項4に記載のように、表示手段が、運転者が視認する画像の表示距離を変更可能に構成されており、注視用画像を表示する複数の位置に表示距離の異なる位置が含まれていれば、上下左右方向だけでなく、奥行き方向も加味したキャリブレーション処理を実行することができる。   In particular, as described in claim 4, the display means is configured to be able to change the display distance of the image visually recognized by the driver, and a plurality of positions for displaying the gaze image include positions having different display distances. If so, it is possible to execute a calibration process that considers not only the vertical and horizontal directions but also the depth direction.

ところで、キャリブレーション処理の際に運転者がよそ見をするなどして注視用画像を正確に見ていなかったような場合には、適切でないキャリブレーション処理が実行されてしまうことが考えられる。   By the way, when the driver does not look at the gaze image accurately by looking away at the time of the calibration process, it is conceivable that an inappropriate calibration process is executed.

そこで、請求項5に記載の視線方向検出装置では、確認用画像表示手段が、キャリブレーション手段によりキャリブレーション処理が実行された後、注視用画像を注視用画像表示手段による表示位置とは異なる位置に表示させ、確認用画像取得手段が、確認用画像表示手段により注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する。そして、無効手段が、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向との関係に基づき、キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする。   Therefore, in the line-of-sight direction detection device according to claim 5, after the calibration image is executed by the calibration unit, the confirmation image display unit displays the gaze image at a position different from the display position by the gaze image display unit. The confirmation image acquisition means acquires the driver's photographed image taken by the photographing means in a state where the confirmation image display means displays the gaze image. Then, the invalidation means detects the driver's direction detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. Based on the relationship with the line-of-sight direction, it is determined whether or not the calibration process by the calibration unit has been appropriately performed. If it is determined that the calibration process has not been performed properly, the calibration process is invalidated.

このような視線方向検出装置によれば、適切でないキャリブレーション処理が実行されてしまうことを防ぐことができる。
具体的には、例えば請求項6に記載の視線方向検出装置では、無効手段は、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向とを、同時に視認可能な状態で表示手段に表示させ、キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを運転者に判定させる。このような視線方向検出装置によれば、運転者の意思に従いキャリブレーション処理を実行することができる。
According to such a gaze direction detection device, it is possible to prevent an inappropriate calibration process from being executed.
Specifically, for example, in the gaze direction detection device according to claim 6, the invalid means is acquired by the confirmation image acquisition means in the display position of the gaze image displayed by the confirmation image display means and in that state. The driver's line-of-sight direction detected by the line-of-sight direction detection means based on the captured image is displayed on the display means in a state where it can be viewed at the same time, and whether or not the calibration process by the calibration means has been properly performed Let the person judge. According to such a gaze direction detection device, calibration processing can be executed according to the driver's intention.

一方、例えば請求項7に記載の視線方向検出装置では、無効手段は、確認用画像表示手段により表示された注視用画像の表示位置と、その状態で確認用画像取得手段により取得された撮影画像に基づき視線方向検出手段により検出された運転者の視線方向との誤差が、所定の許容条件を満たす場合に、キャリブレーション手段によるキャリブレーション処理が適切に行われたと判定する。このような視線方向検出装置によれば、キャリブレーション処理が適切に行われたか否かの判定を自動で行うことができる。   On the other hand, in the gaze direction detecting device according to claim 7, for example, the invalid means includes the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. If the error from the driver's line-of-sight direction detected by the line-of-sight direction detection means satisfies a predetermined allowable condition, it is determined that the calibration process by the calibration means has been performed appropriately. According to such a gaze direction detecting device, it is possible to automatically determine whether or not the calibration process has been appropriately performed.

また、請求項8に記載の視線方向検出装置では、注視用画像表示手段は、注視用画像とともにその位置を知覚しやすくするためのグリッドを表示させる。このような視線方向検出装置によれば、キャリブレーション処理をより正確に行うことができる。   In the gaze direction detecting device according to the eighth aspect, the gaze image display means displays a grid for facilitating the perception of the position together with the gaze image. According to such a gaze direction detection device, the calibration process can be performed more accurately.

次に、請求項9に記載の視線方向検出方法は、運転者を前方から撮影する撮影手段が搭載された車両で用いられ、撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行するためのものである。   Next, the gaze direction detection method according to claim 9 is used in a vehicle equipped with an imaging unit for imaging the driver from the front, and a calibration process for detecting the gaze direction of the driver based on a captured image by the imaging unit. Is for executing.

そして、この視線方向検出方法は、運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、注視用画像表示ステップにて注視用画像が表示されている状態で撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、視線方向検出ステップで検出された運転者の視線方向と注視用画像表示ステップで表示された注視用画像の表示位置とに基づき、視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップとを備える。   In this gaze direction detection method, a gaze image display step for displaying a gaze image for causing the driver to gaze on a display means for displaying an image in front of the driver, and a gaze image display step. A captured image acquisition step for acquiring a driver's captured image captured by the imaging means in a state in which the image for display is displayed, and a line of sight for detecting the driver's line of sight based on the captured image acquired in the captured image acquisition step Calibration of gaze direction detection in the gaze direction detection step based on the direction detection step, the gaze direction of the driver detected in the gaze direction detection step, and the display position of the gaze image displayed in the gaze image display step A calibration step for executing processing.

このような視線方向検出方法によれば、請求項1に記載の視線方向検出装置と同様の効果を得ることができる。   According to such a gaze direction detection method, the same effect as that of the gaze direction detection device according to claim 1 can be obtained.

以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.全体構成]
図1は、実施形態の検出用ECU10の概略構成を示すブロック図であり、図2は、この検出用ECU10が搭載された車両の室内を示す模式図である。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. overall structure]
FIG. 1 is a block diagram illustrating a schematic configuration of a detection ECU 10 according to the embodiment, and FIG. 2 is a schematic diagram illustrating an interior of a vehicle in which the detection ECU 10 is mounted.

図1に示すように、検出用ECU10は、カメラインタフェース(カメラIF)11と、顔向き検出器12と、視線方向検出器13と、ヘッドアップディスプレイインタフェース(HUDIF)14と、メモリ15と、コントローラ16とを備えている。   As shown in FIG. 1, the detection ECU 10 includes a camera interface (camera IF) 11, a face orientation detector 12, a line-of-sight direction detector 13, a head-up display interface (HUDIF) 14, a memory 15, and a controller. 16.

カメラインタフェース11は、車両室内に設置されたカメラ20(図2参照)からの撮影画像を入力するためのインタフェースである。ここで、カメラ20は、車両の運転者を前方から撮影する位置(例えばインパネ)に配置されており、運転者の顔面を正面から撮影可能となっている。   The camera interface 11 is an interface for inputting a photographed image from the camera 20 (see FIG. 2) installed in the vehicle compartment. Here, the camera 20 is disposed at a position (for example, an instrument panel) where the driver of the vehicle is photographed from the front, and the driver's face can be photographed from the front.

顔向き検出器12は、カメラインタフェース11を介して入力されたカメラ20による運転者の撮影画像を解析することにより、運転者の顔向きを検出する。なお、顔向き検出の手法としては、例えば、「S.Bakerら“Lucas-Kanade 20 years on: A unifying framework:Part 4” Technical Report CMU-RI-TR-04-14, Robotics Institute, Carnegie MellonUniversity, February, 2004.」に開示されている手法を利用することができる。   The face orientation detector 12 detects the driver's face orientation by analyzing the driver's photographed image by the camera 20 input via the camera interface 11. As the face orientation detection method, for example, “S. Baker et al.“ Lucas-Kanade 20 years on: A unifying framework: Part 4 ”Technical Report CMU-RI-TR-04-14, Robotics Institute, Carnegie Mellon University, The method disclosed in “February, 2004” can be used.

視線方向検出器13は、カメラインタフェース11を介して入力されたカメラ20による運転者の撮影画像を解析することにより、運転者の視線方向を検出する。なお、視線方向検出の手法としては、例えば、「T.Ishikawaら“Passive Driver Gaze Tracking With Active Appearance Model” Technical Report CMU-RI-TR-04-08, Robotics Institute, Carnegie MellonUniversity, January, 2004.」に開示されている手法を利用することができる。   The line-of-sight direction detector 13 detects the driver's line-of-sight direction by analyzing a photographed image of the driver by the camera 20 input via the camera interface 11. In addition, as a method of gaze direction detection, for example, “T.Ishikawa et al.“ Passive Driver Gaze Tracking With Active Appearance Model ”Technical Report CMU-RI-TR-04-08, Robotics Institute, Carnegie Mellon University, January, 2004.” Can be used.

ヘッドアップディスプレイインタフェース14は、車両室内に設置されたヘッドアップディスプレイ(以下、単に「HUD」という。)30(図2参照)に表示させる画像情報を出力するためのインタフェースである。ここで、HUD30は、ウィンドシールド(フロントガラス)1を利用して運転者の前方に画像を表示させる表示装置であり、具体的には、ウィンドシールド1よりも更に前方の虚像面で画像が視認される。   The head-up display interface 14 is an interface for outputting image information to be displayed on a head-up display (hereinafter simply referred to as “HUD”) 30 (see FIG. 2) installed in the vehicle compartment. Here, the HUD 30 is a display device that displays an image in front of the driver using the windshield (front glass) 1. Specifically, the image is visually recognized on a virtual image plane further forward than the windshield 1. Is done.

メモリ15は、各種情報を記憶するための記憶装置である。
コントローラ16は、CPU、ROM、RAMなどからなるマイクロコンピュータを中心に構成されており、各種処理を実行する。また、コントローラ16には、車両室内(本実施形態ではハンドル)に設置されたスイッチ40の操作情報が入力される。ここで、スイッチ40は、運転者が指で操作を行うための操作装置であり、本実施形態では少なくともOKボタン及びNGボタンを備えている。
The memory 15 is a storage device for storing various information.
The controller 16 is mainly configured by a microcomputer including a CPU, a ROM, a RAM, and the like, and executes various processes. Further, the controller 16 receives operation information of the switch 40 installed in the vehicle compartment (in this embodiment, the steering wheel). Here, the switch 40 is an operation device for the driver to perform an operation with a finger, and includes at least an OK button and an NG button in the present embodiment.

[2.コントローラが実行する処理]
本実施形態の検出用ECU10は、カメラ20による運転者の撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行する。なお、本実施形態でいうキャリブレーション処理とは、撮影画像に基づき視線方向を検出するアルゴリズムを、実際の視線方向及びその状態での撮影画像に基づき補正することで、運転者の個体差等に関係なく視線方向を精度よく検出可能とするための処理である。
[2. Processing executed by the controller]
The detection ECU 10 of the present embodiment executes a calibration process for detecting the driver's line-of-sight direction based on the driver's captured image by the camera 20. The calibration processing referred to in the present embodiment means that the algorithm for detecting the line-of-sight direction based on the captured image is corrected based on the actual line-of-sight direction and the captured image in that state, so that individual differences among the drivers can be obtained. This is a process for making it possible to detect the line-of-sight direction with high accuracy.

ここで、キャリブレーション処理を開始する操作が行われることにより検出用ECU10のコントローラ16が実行するメイン処理について、図3のフローチャートを用いて説明する。なお、キャリブレーション処理は、車両の停止状態で行われるものであり、初めて乗車するときのみに行うものとしてもよく、また、必要に応じて何度でも行うようにしてもよい。   Here, the main process executed by the controller 16 of the detection ECU 10 when the operation for starting the calibration process is performed will be described with reference to the flowchart of FIG. 3. Note that the calibration process is performed when the vehicle is stopped, and may be performed only when the vehicle is first boarded, or may be performed as many times as necessary.

コントローラ16は、メイン処理を開始すると、まずS100で、運転者が正面を向いている状態でのカメラ20による撮影画像を正面情報として取得する。
具体的には、図4に示すように、カメラ20で撮影中の運転者の顔画像を鏡像変換して、HUD30により運転者前方の虚像面に表示(動画としてリアルタイムで表示)させる。また、図示しないが、表示画像における目の位置を運転者に注視させるためのメッセージ(例えば「目の位置を見てください」)も表示させる。
When the main process is started, the controller 16 first acquires, as front information, an image captured by the camera 20 in a state where the driver is facing the front in S100.
Specifically, as shown in FIG. 4, the driver's face image being captured by the camera 20 is mirror-image converted and displayed on the virtual image plane ahead of the driver (displayed as a moving image in real time) by the HUD 30. Although not shown, a message (for example, “Look at the eye position”) for causing the driver to pay attention to the eye position in the display image is also displayed.

なお、運転者に対するメッセージは、HUD30により運転者前方の虚像面に文字列として表示させることに限定されるものではなく、例えば、音声で伝えるようにしてもよく、また、文字列表示と音声とを併用してもよい。   Note that the message to the driver is not limited to being displayed as a character string on the virtual image plane ahead of the driver by the HUD 30, but may be transmitted by voice, for example, May be used in combination.

また、運転者の顔画像(鏡面画像)は、図5(a)に示すようにそのまま表示してもよいが、例えば、図5(b)に示すように両目の各中心点(画像解析により得られる目尻と目頭との中点)を注視点として表示し、それ以外の部分(顔画像)については輝度を落とすなどして、注視点が強調されるようにしてもよい。また、注視点のみを表示することも可能である。   Further, the driver's face image (mirror image) may be displayed as it is as shown in FIG. 5 (a). For example, as shown in FIG. 5 (b), each center point of both eyes (by image analysis). It is also possible to display the point of interest and the center of the eye) as the point of interest, and emphasize the point of interest by reducing the brightness of the other part (face image). It is also possible to display only the gazing point.

ここで、HUD30により表示される運転者の顔画像は、実際の運転者に対してほぼ正面となる位置(上下左右に調整された位置)に表示されるように設定されており、運転者から見れば、あたかも正面に鏡があるかのような画像が表示されることとなる。そして、このようにして運転者に表示画像を一定時間注視させ、その間にカメラ20から入力した撮影画像(運転者が正面を向いた状態での顔画像)を正面情報(正面方向についてのキャリブレーション情報)として取得(メモリ15に保存)する。   Here, the driver's face image displayed by the HUD 30 is set so as to be displayed at a position that is substantially in front of the actual driver (position adjusted vertically and horizontally). If it sees, the image as if there is a mirror in the front will be displayed. In this manner, the driver gazes at the display image for a certain period of time, and the captured image (face image with the driver facing the front) input from the camera 20 during that time is the front information (calibration in the front direction). Information) (stored in the memory 15).

なお、以上のようなS100の処理は、あらかじめ決められたタイミングで順に進行するようにしてもよく、また、運転者がスイッチ40の操作により所望のタイミングで進行させるようにしてもよい。   Note that the processing of S100 as described above may proceed in order at a predetermined timing, or the driver may proceed at a desired timing by operating the switch 40.

続いて、S200では、運転者が正面以外の所定方向を向いている状態での顔画像についてもキャリブレーション情報として取得するとともに、取得したキャリブレーション情報に基づきキャリブレーション処理を実行する。具体的には、このキャリブレーション処理では、図6(a)に示すように、運転者に注視させるための点であるターゲットTをHUD30により運転者前方の虚像面に表示させ、このターゲットTの表示位置を複数箇所に変化させつつ各表示位置についての顔画像を取得する。図6(a)の例では、真正面の位置を中心点とする円周上でターゲットTの表示位置を一定時間ごとに複数箇所に変化させ、各表示位置についての顔画像を取得する。   Subsequently, in S200, a face image in a state where the driver is facing a predetermined direction other than the front is also acquired as calibration information, and calibration processing is executed based on the acquired calibration information. Specifically, in this calibration process, as shown in FIG. 6A, the target T, which is a point for the driver to watch, is displayed on the virtual image plane in front of the driver by the HUD 30, and the target T A face image for each display position is acquired while changing the display position to a plurality of locations. In the example of FIG. 6A, the display position of the target T is changed to a plurality of locations at regular intervals on the circumference centered on the position directly in front, and a face image for each display position is acquired.

なお、ターゲットTの表示位置は円周上に限定されるものではない。例えば、図6(b)に示すように矩形上や、図6(c)に示すように十字上や、図6(d)に示すようにグリッド上としてもよい。   The display position of the target T is not limited to the circumference. For example, it may be on a rectangle as shown in FIG. 6 (b), on a cross as shown in FIG. 6 (c), or on a grid as shown in FIG. 6 (d).

また、図6(e)に示すように、運転者がターゲットTの位置を知覚しやすいようにするために、グリッド線を表示してもよい。この場合、グリッド線の色や輝度などをターゲットTと異なるように設定することで、グリッドによりターゲットTの視認性が損なわれにくくすることができる。   Further, as shown in FIG. 6E, grid lines may be displayed so that the driver can easily perceive the position of the target T. In this case, the visibility of the target T can be made difficult to be impaired by the grid by setting the color and brightness of the grid line to be different from those of the target T.

ここで、S200のキャリブレーション処理の詳細について、図7のフローチャートを用いて説明する。
キャリブレーション処理を開始すると、まずS201で、ターゲットTを表示する位置(後述するS202でのターゲットTの表示位置)を決める。なお、本キャリブレーション処理では、後述するように、S201〜S204の処理を、あらかじめ決められているターゲットTの表示位置(本実施形態では、図6(a)に示す円周上の複数箇所)の数だけ繰り返し実行することにより、最終的には、すべての表示位置についてターゲットTの表示処理(S202)が行われる。したがって、このS201の処理では、まだ表示処理が行われていない表示位置のうちの1つを所定の規則(順序)に従って決定する。
Here, details of the calibration processing in S200 will be described with reference to the flowchart of FIG.
When the calibration process is started, first, in S201, the position for displaying the target T (the display position of the target T in S202 described later) is determined. In this calibration process, as will be described later, the processes of S201 to S204 are performed in accordance with predetermined display positions of the target T (in this embodiment, a plurality of positions on the circumference shown in FIG. 6A). As a result, the target T display process (S202) is finally performed for all display positions. Accordingly, in the process of S201, one of the display positions that have not been subjected to the display process is determined according to a predetermined rule (order).

続いて、S202では、S201で決定した表示位置にターゲットTを表示させるとともに、ターゲットTを運転者に注視させるためのメッセージを表示させる。
続いて、S203では、運転者にターゲットTを注視させている間にカメラ20により撮影された画像をキャリブレーション用情報として取得(メモリ15に保存)する。
Subsequently, in S202, the target T is displayed at the display position determined in S201, and a message for causing the driver to watch the target T is displayed.
Subsequently, in S203, an image photographed by the camera 20 while the driver is gazing at the target T is acquired (saved in the memory 15) as calibration information.

続いて、S204では、キャリブレーション用情報が必要数取得されたか否かを判定する。つまり、すべての表示位置についてターゲットTの表示処理が行われたか否かを判定する。   Subsequently, in S204, it is determined whether the necessary number of pieces of calibration information has been acquired. That is, it is determined whether display processing of the target T has been performed for all display positions.

そして、S204で、キャリブレーション用情報が必要数取得されていないと判定した場合には、S201へ戻り、未処理の表示位置についての処理に移行する。
一方、S204で、キャリブレーション用情報が必要数取得されたと判定した場合には、S205へ移行し、メモリ15に保存されている各キャリブレーション用情報(顔画像)に基づき、各表示位置での運転者の顔向きを算出する。さらに、S206で、各キャリブレーション用情報及びS205で算出した顔向きに基づき、各表示位置での視線方向を検出し、検出した視線方向とターゲットTの表示位置との関係に基づき、顔画像から視線方向を検出するための視線検出用モデルを生成(補正)する。つまり、視線方向検出のキャリブレーションを実行する。その後、本キャリブレーション処理を終了し、図3のS300へ移行する。
If it is determined in S204 that the necessary number of pieces of calibration information has not been acquired, the process returns to S201, and the process proceeds to an unprocessed display position.
On the other hand, if it is determined in S204 that the required number of pieces of calibration information has been acquired, the process proceeds to S205, where each display position is displayed based on each piece of calibration information (face image) stored in the memory 15. The driver's face orientation is calculated. Further, in S206, the gaze direction at each display position is detected based on each calibration information and the face orientation calculated in S205, and from the face image based on the relationship between the detected gaze direction and the display position of the target T. A line-of-sight detection model for detecting the line-of-sight direction is generated (corrected). In other words, the gaze direction detection calibration is executed. Thereafter, the calibration process is terminated, and the process proceeds to S300 in FIG.

S300では、S200のキャリブレーション処理で生成した視線検出用モデルが適切なものであることを確認するための検出確認処理を実行する。
ここで、S300の検出確認処理の詳細について、図8のフローチャートを用いて説明する。なお、S310は、図3に示す処理と同一のものである。
In S300, a detection confirmation process for confirming that the line-of-sight detection model generated in the calibration process of S200 is appropriate is executed.
Here, details of the detection confirmation processing in S300 will be described with reference to the flowchart of FIG. Note that S310 is the same as the process shown in FIG.

検出確認処理を開始すると、まずS301で、前述したS201と同様、ターゲットTを表示する位置を決める。ただし、本S301では、S201で用いた表示位置とは異なる表示位置(あらかじめ決められた複数の表示位置)を用いる。   When the detection confirmation process is started, first, in S301, the position where the target T is displayed is determined as in S201 described above. However, in S301, a display position (a plurality of predetermined display positions) different from the display position used in S201 is used.

続いて、S302では、前述したS202と同様、S301で決定した表示位置にターゲットTを表示させるとともに、ターゲットTを運転者に注視させるためのメッセージを表示させる。   Subsequently, in S302, similarly to S202 described above, the target T is displayed at the display position determined in S301, and a message for causing the driver to watch the target T is displayed.

続いて、S303では、運転者にターゲットTを注視させている間にカメラ20から入力した撮影画像及びその時点でのターゲットTの表示位置を対応づけて取得(メモリ15に保存)する。   Subsequently, in S303, the captured image input from the camera 20 while the driver is gazing at the target T and the display position of the target T at that time are associated with each other (stored in the memory 15).

続いて、S304では、キャリブレーション処理で生成した視線検出用モデルを用いて、S303で取得した顔画像に基づき、運転者の顔向きを算出する。
続いて、S305では、キャリブレーション処理で生成した視線検出用モデルを用いて、S303で取得した顔画像及びS304で算出した顔向きに基づき、運転者の視線方向を算出する。
Subsequently, in S304, the driver's face orientation is calculated based on the face image acquired in S303 using the line-of-sight detection model generated in the calibration process.
Subsequently, in S305, the gaze direction of the driver is calculated based on the face image acquired in S303 and the face orientation calculated in S304 using the gaze detection model generated in the calibration process.

続いて、S306では、S304及びS305での算出結果をメモリ15に保存する。
続いて、S307では、顔画像が必要数取得されたか否かを判定する。つまり、すべての表示位置についてターゲットTの表示処理が行われたか否かを判定する。
Subsequently, in S306, the calculation results in S304 and S305 are stored in the memory 15.
Subsequently, in S307, it is determined whether the required number of face images has been acquired. That is, it is determined whether display processing of the target T has been performed for all display positions.

そして、S307で、顔画像が必要数取得されていないと判定した場合には、S301へ戻り、未処理の表示位置についての処理に移行する。
一方、S307で、顔画像が必要数取得されたと判定した場合には、S308へ移行し、本検出確認処理でターゲットTを表示したすべての表示位置にターゲットTを表示させるとともに、各ターゲットTについて算出した視線方向に対応する算出点を表示させる。つまり、各表示位置のターゲットTとそのターゲットTを注視している撮影画像に基づき算出した視線方向に対応する算出点とを同時に表示させるようにしている。このため、ターゲットTの表示位置と算出点の位置との距離が近いほど、キャリブレーション処理で生成した視線検出用モデルが適切なものであると判断することができる。
If it is determined in S307 that the required number of face images has not been acquired, the process returns to S301, and the process proceeds to an unprocessed display position.
On the other hand, if it is determined in S307 that the required number of face images has been acquired, the process proceeds to S308, where the target T is displayed at all display positions where the target T is displayed in the main detection confirmation process, and for each target T. A calculated point corresponding to the calculated line-of-sight direction is displayed. That is, the target T at each display position and the calculated points corresponding to the line-of-sight direction calculated based on the captured image gazing at the target T are displayed simultaneously. Therefore, the closer the distance between the display position of the target T and the position of the calculation point is, the more appropriate the gaze detection model generated by the calibration process is.

続いて、S309では、表示した結果で問題ないか否かを運転者に判断させるためのメッセージ(例えば「この結果で良いでしょうか」)をHUD30により運転者前方の虚像面に表示させる。   Subsequently, in S309, a message for causing the driver to determine whether there is no problem with the displayed result (for example, “Is this result OK?”) Is displayed on the virtual image plane ahead of the driver by the HUD 30.

続いて、図3に戻り、S310では、表示した結果で問題ないか否かの運転者による判断結果を、スイッチ40のOKボタンが押されたか否かに基づき判定する。
そして、S310で、スイッチ40のOKボタンが押されなかった(NGボタンが押された)と判定した場合には、S200へ戻り、キャリブレーション処理からやり直す。
Subsequently, returning to FIG. 3, in S <b> 310, a determination result by the driver as to whether there is no problem with the displayed result is determined based on whether the OK button of the switch 40 is pressed.
If it is determined in S310 that the OK button of the switch 40 has not been pressed (the NG button has been pressed), the process returns to S200 and starts again from the calibration process.

一方、S310で、スイッチ40のOKボタンが押されたと判定した場合には、本メイン処理を終了する。
[3.効果]
以上説明したように、本実施形態の検出用ECU10は、運転者に注視させるためのターゲットTをHUD30により運転者前方の虚像面に表示させ(S202)、その状態でカメラ20から取得した撮影画像に基づき運転者の視線方向を検出する(S203,S205)。そして、検出した視線方向とターゲットTの表示位置とに基づきキャリブレーション処理を実行する(S206)。
On the other hand, if it is determined in S310 that the OK button of the switch 40 has been pressed, the main process is terminated.
[3. effect]
As described above, the detection ECU 10 of the present embodiment causes the target T to be watched by the driver to be displayed on the virtual image plane ahead of the driver by the HUD 30 (S202), and the captured image acquired from the camera 20 in that state. Based on this, the direction of the driver's line of sight is detected (S203, S205). Then, calibration processing is executed based on the detected line-of-sight direction and the display position of the target T (S206).

このような検出用ECU10によれば、ターゲットTを前方に表示させて運転者に注視させることで、所望の視線方向での運転者の撮影画像(その運転者本来の運転姿勢での撮影画像)が容易かつ正確に得られるため、適切なキャリブレーション処理を実現することができる。   According to such an ECU 10 for detection, the target T is displayed in the front and the driver gazes, so that the driver's photographed image in the desired line-of-sight direction (the photographed image in the driver's original driving posture). Can be obtained easily and accurately, and appropriate calibration processing can be realized.

また、この検出用ECU10では、運転者に正面を注視させるためのターゲットTとして、運転者の撮影画像に対して鏡像変換を施した画像を表示させるようにしている。このため、運転者はあたかも鏡を見ているような状態で正面を向くこととなり、運転者自身が正面を向いた状態を正確に把握することができる。   Further, the detection ECU 10 displays an image obtained by performing mirror image conversion on the driver's photographed image as a target T for causing the driver to gaze at the front. For this reason, the driver turns to the front as if looking at the mirror, and can accurately grasp the state in which the driver himself faces the front.

また、この検出用ECU10では、ターゲットTを複数の位置に順次表示させ(S201)、複数の位置にターゲットTが順次表示されている各状態でカメラ20から運転者の撮影画像を取得する。そして、各状態での撮影画像に基づき運転者の視線方向を検出し、検出した視線方向とその状態でのターゲットTの表示位置とに基づきキャリブレーション処理を実行する。このため、1つの視線方向のみに基づきキャリブレーション処理を実行する場合に比べ、より適切なキャリブレーション処理を実現することができる。   Further, the detection ECU 10 sequentially displays the target T at a plurality of positions (S201), and obtains a driver's photographed image from the camera 20 in each state where the target T is sequentially displayed at the plurality of positions. And a driver | operator's gaze direction is detected based on the picked-up image in each state, and a calibration process is performed based on the detected gaze direction and the display position of the target T in the state. For this reason, more appropriate calibration processing can be realized as compared with the case where the calibration processing is executed based on only one line-of-sight direction.

さらに、この検出用ECU10では、キャリブレーション処理が実行された後、ターゲットTを前回とは異なる表示位置に表示させ(S301,S302)、その状態でカメラ20から運転者の撮影画像を取得する(S303)。そして、ターゲットTの表示位置と、その状態で取得された撮影画像に基づき検出された運転者の視線方向との関係に基づき、キャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする(S308〜S310)。このため、適切でないキャリブレーション処理が実行されてしまうことを防ぐことができる。   Further, after the calibration process is executed, the detection ECU 10 displays the target T at a display position different from the previous time (S301, S302), and acquires a photographed image of the driver from the camera 20 in that state ( S303). Then, based on the relationship between the display position of the target T and the driver's line-of-sight direction detected based on the captured image acquired in that state, it is determined whether or not the calibration process has been appropriately performed. If it is determined that it has not been performed, the calibration process is invalidated (S308 to S310). For this reason, it is possible to prevent an inappropriate calibration process from being executed.

特に、ターゲットTの表示位置とその状態での視線方向に対応する算出点とを同時に視認可能な状態で表示させ、キャリブレーション処理が適切に行われたか否かを運転者に判定させるようにしているため、運転者の意思に従いキャリブレーション処理を実行することができる。   In particular, the display position of the target T and the calculation point corresponding to the line-of-sight direction in that state are displayed at the same time so that the driver can determine whether the calibration process has been performed appropriately. Therefore, the calibration process can be executed according to the driver's intention.

[4.特許請求の範囲との対応]
なお、本実施形態の検出用ECU10では、カメラ20が、撮影手段に相当し、HUD30が、表示手段に相当する。また、S100,S201,S202の処理を実行するコントローラ16が、注視用画像表示手段に相当し、S100,S203の処理を実行するコントローラ16が、撮影画像取得手段に相当する。また、S205,S206の処理を実行するコントローラ16が、視線方向検出手段及びキャリブレーション手段に相当する。また、S301,S302の処理を実行するコントローラ16が、確認用画像表示手段に相当し、S303の処理を実行するコントローラ16が、確認用画像取得手段に相当し、S308〜S310の処理を実行するコントローラ16が、無効手段に相当する。
[4. Correspondence with Claims]
In the detection ECU 10 of the present embodiment, the camera 20 corresponds to a photographing unit, and the HUD 30 corresponds to a display unit. Further, the controller 16 that executes the processes of S100, S201, and S202 corresponds to the gaze image display means, and the controller 16 that executes the processes of S100 and S203 corresponds to the captured image acquisition means. Further, the controller 16 that executes the processes of S205 and S206 corresponds to the line-of-sight direction detecting means and the calibration means. The controller 16 that executes the processes of S301 and S302 corresponds to a confirmation image display unit, and the controller 16 that executes the process of S303 corresponds to a confirmation image acquisition unit and executes the processes of S308 to S310. The controller 16 corresponds to invalid means.

[5.他の形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[5. Other forms]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.

例えば、前述した検出確認処理(図8)のS301では、決定するターゲットTの表示位置として、キャリブレーション処理(図7)のS201で用いた表示位置とは異なる表示位置を用いるようにしているが、これに限定されるものではなく、S201で用いた表示位置と同じ表示位置を用いてもよい。   For example, in S301 of the detection confirmation process (FIG. 8) described above, a display position different from the display position used in S201 of the calibration process (FIG. 7) is used as the display position of the target T to be determined. However, the display position is not limited to this, and the same display position as that used in S201 may be used.

また、上記実施形態の検出用ECU10では、ターゲットTの表示位置とその状態での視線方向に対応する算出点とを同時に視認可能な状態で表示させ(S308)、キャリブレーション処理が適切に行われたか否かを運転者に判定させるようにしているが(S309)、これに限定されるものではなく、検出用ECU10で自動的に判定するようにしてもよい。具体的には、例えば、ターゲットTの表示位置と算出点の位置との距離(複数存在する場合にはすべての距離)が所定の判定しきい値以下の場合に、キャリブレーション処理で生成した視線検出用モデルが適切なものであると判定することができる。なお、このように構成した場合には、スイッチ40を備えない構成とすることも可能である。   In the detection ECU 10 of the above embodiment, the display position of the target T and the calculation point corresponding to the line-of-sight direction in that state are displayed in a state where they can be viewed simultaneously (S308), and the calibration process is appropriately performed. However, the present invention is not limited to this, and the detection ECU 10 may determine automatically. Specifically, for example, the line of sight generated by the calibration process when the distance between the display position of the target T and the position of the calculation point (all distances when there are a plurality of distances) is equal to or smaller than a predetermined determination threshold value. It can be determined that the detection model is appropriate. In such a configuration, the switch 40 may be omitted.

一方、例えば、図9に示すように、運転者が視認する画像の表示距離(虚像面の奥行き方向における位置)を変更可能なステレオ方式のヘッドアップディスプレイを用いるようにしてもよい。このようにすれば、ターゲットTの表示位置を上下左右方向だけでなく奥行き方向(前後方向)にも変化させることができるため、奥行き方向も加味したキャリブレーション処理を実行することができる。特に、このような構成においては、前述したように運転者がターゲットTの位置を把握しやすいようにするためのグリッド線を表示し(図6(e))、更に、ターゲットTの奥行き方向の位置に応じてグリッド幅を変更するようにすれば、ターゲットTの奥行き方向における位置を知覚しやすくすることができる。   On the other hand, for example, as shown in FIG. 9, a stereo head-up display that can change the display distance (position in the depth direction of the virtual image plane) of the image visually recognized by the driver may be used. In this way, the display position of the target T can be changed not only in the vertical and horizontal directions but also in the depth direction (front and rear direction), so that the calibration process can be executed in consideration of the depth direction. In particular, in such a configuration, as described above, a grid line is displayed to make it easier for the driver to grasp the position of the target T (FIG. 6E), and further in the depth direction of the target T. If the grid width is changed according to the position, the position of the target T in the depth direction can be easily perceived.

実施形態の検出用ECUの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of ECU for detection of embodiment. 検出用ECUが搭載された車両の室内を示す模式図である。It is a schematic diagram which shows the interior of the vehicle by which ECU for detection is mounted. メイン処理のフローチャートである。It is a flowchart of a main process. 運転者の顔画像を表示した状態での車両の室内を示す模式図である。It is a schematic diagram which shows the vehicle interior in the state which displayed the driver | operator's face image. 顔画像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a face image. ターゲットの表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a target. キャリブレーション処理のフローチャートである。It is a flowchart of a calibration process. 検出確認処理のフローチャートである。It is a flowchart of a detection confirmation process. ステレオ方式のヘッドアップディスプレイが搭載された車両の室内を示す模式図である。It is a mimetic diagram showing the interior of a vehicle equipped with a stereo head-up display.

符号の説明Explanation of symbols

1…ウィンドシールド、10…検出用ECU、11…カメラインタフェース、12…顔向き検出器、13…視線方向検出器、14…ヘッドアップディスプレイインタフェース、15…メモリ、16…コントローラ、20…カメラ、30…ヘッドアップディスプレイ、40…スイッチ、T…ターゲット   DESCRIPTION OF SYMBOLS 1 ... Wind shield, 10 ... ECU for detection, 11 ... Camera interface, 12 ... Face direction detector, 13 ... Gaze direction detector, 14 ... Head-up display interface, 15 ... Memory, 16 ... Controller, 20 ... Camera, 30 ... head-up display, 40 ... switch, T ... target

Claims (9)

運転者を前方から撮影する撮影手段が搭載された車両で用いられ、前記撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行する視線方向検出装置であって、
運転者の前方に画像を表示する表示手段と、
運転者に注視させるための注視用画像を前記表示手段に表示させる注視用画像表示手段と、
前記注視用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得手段と、
前記撮影画像取得手段により取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出手段と、
前記視線方向検出手段により検出された運転者の視線方向と前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行するキャリブレーション手段と、
を備えることを特徴とする視線方向検出装置。
A gaze direction detection device that is used in a vehicle equipped with an imaging unit that images a driver from the front, and that performs calibration processing for detecting the driver's gaze direction based on an image captured by the imaging unit,
Display means for displaying an image in front of the driver;
Gaze image display means for causing the display means to display a gaze image for gaze the driver;
Captured image acquisition means for acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed by the gaze image display means;
Gaze direction detection means for detecting the driver's gaze direction based on the captured image acquired by the captured image acquisition means;
Based on the driver's gaze direction detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means, the gaze direction detection calibration processing by the gaze direction detection means is performed. Calibration means to perform,
A line-of-sight direction detecting device comprising:
前記注視用画像表示手段は、運転者に正面を注視させるための注視用画像として、運転者の撮影画像に対して鏡像変換を施した画像を表示させること
を特徴とする請求項1に記載の視線方向検出装置。
The gaze image display means displays an image obtained by performing mirror image conversion on a driver's photographed image as a gaze image for gaze the driver at the front. Gaze direction detection device.
前記注視用画像表示手段は、前記注視用画像を複数の位置に順次表示させ、
前記撮影画像取得手段は、前記注視用画像表示手段により前記複数の位置に前記注視用画像が順次表示されている各状態で前記撮影手段により撮影された運転者の撮影画像を取得し、
前記視線方向検出手段は、前記撮影画像取得手段により取得された各状態での撮影画像に基づき運転者の視線方向を検出し、
前記キャリブレーション手段は、前記視線方向検出手段により検出された運転者の視線方向とその状態で前記注視用画像表示手段により表示された前記注視用画像の表示位置とに基づき、前記視線方向検出手段による視線方向検出のキャリブレーション処理を実行すること
を特徴とする請求項1又は請求項2に記載の視線方向検出装置。
The gaze image display means sequentially displays the gaze image at a plurality of positions,
The captured image acquisition unit acquires a driver's captured image captured by the imaging unit in each state where the gaze image is sequentially displayed at the plurality of positions by the gaze image display unit,
The line-of-sight direction detection means detects the driver's line-of-sight direction based on the captured image in each state acquired by the captured image acquisition means,
The calibration means is based on the gaze direction of the driver detected by the gaze direction detection means and the display position of the gaze image displayed by the gaze image display means in that state. The gaze direction detection apparatus according to claim 1, wherein calibration processing for gaze direction detection by the gamma is executed.
前記表示手段は、運転者が視認する画像の表示距離を変更可能に構成されており、
前記複数の位置には、前記表示距離の異なる位置が含まれていること
を特徴とする請求項3に記載の視線方向検出装置。
The display means is configured to change a display distance of an image visually recognized by the driver,
The gaze direction detecting device according to claim 3, wherein the plurality of positions include positions having different display distances.
前記キャリブレーション手段によりキャリブレーション処理が実行された後、前記注視用画像を前記注視用画像表示手段による表示位置とは異なる位置に表示させる確認用画像表示手段と、
前記確認用画像表示手段により前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する確認用画像取得手段と、
前記確認用画像表示手段により表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得手段により取得された撮影画像に基づき前記視線方向検出手段により検出された運転者の視線方向との関係に基づき、前記キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを判定し、適切に行われていないと判定した場合にはそのキャリブレーション処理を無効にする無効手段と、
を備えることを特徴とする請求項1から請求項4までのいずれか1項に記載の視線方向検出装置。
After the calibration process is executed by the calibration means, a confirmation image display means for displaying the gaze image at a position different from the display position by the gaze image display means,
Confirmation image acquisition means for acquiring a driver's photographed image photographed by the photographing means in a state where the gaze image is displayed by the confirmation image display means;
The driver's gaze direction detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state On the basis of the relationship between the calibration means and the invalidation means for invalidating the calibration process when it is determined that the calibration process is not properly performed,
The line-of-sight direction detection device according to claim 1, comprising:
前記無効手段は、前記確認用画像表示手段により表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得手段により取得された撮影画像に基づき前記視線方向検出手段により検出された運転者の視線方向とを、同時に視認可能な状態で前記表示手段に表示させ、前記キャリブレーション手段によるキャリブレーション処理が適切に行われたか否かを運転者に判定させること
を特徴とする請求項5に記載の視線方向検出装置。
The invalidation means is detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. The driver's line-of-sight direction is displayed on the display unit in a state in which the driver can view simultaneously, and the driver is allowed to determine whether or not the calibration process by the calibration unit has been appropriately performed. 5. The line-of-sight detection device according to 5.
前記無効手段は、前記確認用画像表示手段により表示された前記注視用画像の表示位置と、その状態で前記確認用画像取得手段により取得された撮影画像に基づき前記視線方向検出手段により検出された運転者の視線方向との誤差が、所定の許容条件を満たす場合に、前記キャリブレーション手段によるキャリブレーション処理が適切に行われたと判定すること
を特徴とする請求項5に記載の視線方向検出装置。
The invalidation means is detected by the gaze direction detection means based on the display position of the gaze image displayed by the confirmation image display means and the captured image acquired by the confirmation image acquisition means in that state. The gaze direction detection device according to claim 5, wherein when the error from the driver's gaze direction satisfies a predetermined allowable condition, it is determined that the calibration process by the calibration unit is appropriately performed. .
前記注視用画像表示手段は、前記注視用画像とともにその位置を知覚しやすくするためのグリッドを表示させること
を特徴とする請求項1から請求項7までのいずれか1項に記載の視線方向検出装置。
The line-of-sight direction detection according to any one of claims 1 to 7, wherein the gaze image display means displays a grid for facilitating the perception of the position together with the gaze image. apparatus.
運転者を前方から撮影する撮影手段が搭載された車両で用いられ、前記撮影手段による撮影画像に基づく運転者の視線方向検出のキャリブレーション処理を実行する視線方向検出方法であって、
運転者の前方に画像を表示する表示手段に、運転者に注視させるための注視用画像を表示させる注視用画像表示ステップと、
前記注視用画像表示ステップにて前記注視用画像が表示されている状態で前記撮影手段により撮影された運転者の撮影画像を取得する撮影画像取得ステップと、
前記撮影画像取得ステップで取得された撮影画像に基づき運転者の視線方向を検出する視線方向検出ステップと、
前記視線方向検出ステップで検出された運転者の視線方向と前記注視用画像表示ステップで表示された前記注視用画像の表示位置とに基づき、前記視線方向検出ステップでの視線方向検出のキャリブレーション処理を実行するキャリブレーションステップと、
を備えることを特徴とする視線方向検出方法。
A gaze direction detection method that is used in a vehicle equipped with a photographing unit that photographs a driver from the front, and that performs calibration processing for detecting a gaze direction of a driver based on a captured image by the photographing unit,
A gaze image display step for displaying a gaze image for gaze the driver on the display means for displaying an image in front of the driver;
A captured image acquisition step of acquiring a driver's captured image captured by the imaging means in a state where the gaze image is displayed in the gaze image display step;
A line-of-sight direction detecting step for detecting a driver's line-of-sight direction based on the captured image acquired in the captured image acquisition step;
Calibration processing for gaze direction detection in the gaze direction detection step based on the gaze direction of the driver detected in the gaze direction detection step and the display position of the gaze image displayed in the gaze image display step A calibration step to perform
A gaze direction detection method comprising:
JP2008026887A 2008-02-06 2008-02-06 Gaze direction detection device and gaze direction detection method Expired - Fee Related JP5092776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008026887A JP5092776B2 (en) 2008-02-06 2008-02-06 Gaze direction detection device and gaze direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008026887A JP5092776B2 (en) 2008-02-06 2008-02-06 Gaze direction detection device and gaze direction detection method

Publications (2)

Publication Number Publication Date
JP2009183473A true JP2009183473A (en) 2009-08-20
JP5092776B2 JP5092776B2 (en) 2012-12-05

Family

ID=41067395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008026887A Expired - Fee Related JP5092776B2 (en) 2008-02-06 2008-02-06 Gaze direction detection device and gaze direction detection method

Country Status (1)

Country Link
JP (1) JP5092776B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349681B1 (en) 2012-12-20 2014-01-13 현대오트론 주식회사 Apparatus and method for confirming vehicle information using head up display
JPWO2015125243A1 (en) * 2014-02-19 2017-03-30 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
JP2018010465A (en) * 2016-07-13 2018-01-18 株式会社デンソー Information processing device and program
US10078416B2 (en) 2013-12-18 2018-09-18 Denso Corporation Display control device, display control program and display-control-program product
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
WO2019017224A1 (en) 2017-07-18 2019-01-24 ソニー株式会社 Information processing device, information processing method and program
KR20200046613A (en) * 2018-10-25 2020-05-07 현대모비스 주식회사 Apparatus for calibrating camera monitoring driver and method thereof
JP2020188294A (en) * 2019-05-09 2020-11-19 アイシン精機株式会社 Image display device and image display program
DE102021133056A1 (en) 2020-12-28 2022-06-30 Subaru Corporation HEADING CALIBRATION SYSTEM

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7193370B2 (en) 2019-02-18 2022-12-20 シチズン時計株式会社 A display plate and a watch equipped with this display plate
US11938817B2 (en) 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07257228A (en) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd Display device for vehicle
JPH08140938A (en) * 1994-11-22 1996-06-04 Canon Inc Optical apparatus with visual line detecting function
JPH105178A (en) * 1996-06-26 1998-01-13 Nissan Motor Co Ltd Visual line input device
JP2007061416A (en) * 2005-08-31 2007-03-15 Nidek Co Ltd Visual field testing apparatus
WO2007115299A2 (en) * 2006-04-04 2007-10-11 Harmonix Music Systems, Inc. A method and apparatus for providing a simulated band experience including online interaction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07257228A (en) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd Display device for vehicle
JPH08140938A (en) * 1994-11-22 1996-06-04 Canon Inc Optical apparatus with visual line detecting function
JPH105178A (en) * 1996-06-26 1998-01-13 Nissan Motor Co Ltd Visual line input device
JP2007061416A (en) * 2005-08-31 2007-03-15 Nidek Co Ltd Visual field testing apparatus
WO2007115299A2 (en) * 2006-04-04 2007-10-11 Harmonix Music Systems, Inc. A method and apparatus for providing a simulated band experience including online interaction

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349681B1 (en) 2012-12-20 2014-01-13 현대오트론 주식회사 Apparatus and method for confirming vehicle information using head up display
US10078416B2 (en) 2013-12-18 2018-09-18 Denso Corporation Display control device, display control program and display-control-program product
JPWO2015125243A1 (en) * 2014-02-19 2017-03-30 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
US9785235B2 (en) 2014-02-19 2017-10-10 Mitsubishi Electric Corporation Display control apparatus, display control method of display control apparatus, and eye gaze direction detection system
JP2018010465A (en) * 2016-07-13 2018-01-18 株式会社デンソー Information processing device and program
JP2018183249A (en) * 2017-04-24 2018-11-22 アルパイン株式会社 Visual line detection device, visual line detection program, and visual line detection method
WO2019017224A1 (en) 2017-07-18 2019-01-24 ソニー株式会社 Information processing device, information processing method and program
KR20200046613A (en) * 2018-10-25 2020-05-07 현대모비스 주식회사 Apparatus for calibrating camera monitoring driver and method thereof
KR102630368B1 (en) * 2018-10-25 2024-01-29 현대모비스 주식회사 Apparatus for calibrating camera monitoring driver and method thereof
JP2020188294A (en) * 2019-05-09 2020-11-19 アイシン精機株式会社 Image display device and image display program
JP7395842B2 (en) 2019-05-09 2023-12-12 株式会社アイシン Image display device and image display program
DE102021133056A1 (en) 2020-12-28 2022-06-30 Subaru Corporation HEADING CALIBRATION SYSTEM

Also Published As

Publication number Publication date
JP5092776B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
US8570188B2 (en) Driver vision support system and vehicle including the system
JP5099451B2 (en) Vehicle periphery confirmation device
JP4926437B2 (en) Vehicle driving support device
JP5093611B2 (en) Vehicle periphery confirmation device
JP5874920B2 (en) Monitoring device for vehicle surroundings
JP6410987B2 (en) Driving support device, driving support method, and driving support program
JP6197814B2 (en) Vehicle display device
JPWO2015064080A1 (en) Gaze direction detection device and gaze direction detection method
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
JP2010018201A (en) Driver assistant device, driver assistant method, and driver assistant processing program
JP2007081590A (en) Vehicle side confirming device
JP2006044596A (en) Display device for vehicle
JP2018022958A (en) Vehicle display controller and vehicle monitor system
JP2017196911A (en) Image display device
TW201601955A (en) Vehicle safety system and operating method thereof
JP2015095161A (en) Line-of-sight direction detection device
JP2010208359A (en) Display device for vehicle
JP5644414B2 (en) Awakening level determination device, awakening level determination method, and program
JP2009248812A (en) Driving assistance device
JP2008037118A (en) Display for vehicle
JP2005269010A (en) Image creating device, program and method
JP2018043724A (en) Luminance control device, luminance control system and luminance control method
WO2015092977A1 (en) Sight line detection device and sight line detection method
WO2013114871A1 (en) Driving assistance device and driving assistance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees