JP2019046240A - Sight line direction detecting apparatus and calibration method - Google Patents

Sight line direction detecting apparatus and calibration method Download PDF

Info

Publication number
JP2019046240A
JP2019046240A JP2017169516A JP2017169516A JP2019046240A JP 2019046240 A JP2019046240 A JP 2019046240A JP 2017169516 A JP2017169516 A JP 2017169516A JP 2017169516 A JP2017169516 A JP 2017169516A JP 2019046240 A JP2019046240 A JP 2019046240A
Authority
JP
Japan
Prior art keywords
calibration
unit
direction detection
gaze direction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017169516A
Other languages
Japanese (ja)
Inventor
哲 杉江
Satoru Sugie
哲 杉江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017169516A priority Critical patent/JP2019046240A/en
Publication of JP2019046240A publication Critical patent/JP2019046240A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technique which reduces restriction in calibration required for increasing accuracy in detection of a sight line direction and speed of processing of the detection.SOLUTION: A sight line direction detecting apparatus has a determining unit, a generating unit, and a resuming unit. The determining unit determines whether or not calibration regarding detection of a sight line is interrupted. If the determining unit determines that the calibration is interrupted, the generating unit generates data obtained in the middle of calibration. The resuming unit resumes the calibration based on the data obtained in the middle of calibration.SELECTED DRAWING: Figure 1

Description

本発明は、視線方向を検出する技術に関する。   The present invention relates to a technique for detecting a line-of-sight direction.

車両の安全運転を支援することを目的としてドライバの状態を監視するドライバモニタシステムの開発が近年進んでいる。ドライバモニタシステムの検出対象の一つとして、ドライバの視線方向がある。   In recent years, development of a driver monitor system for monitoring the state of a driver has been progressing for the purpose of supporting safe driving of a vehicle. One of the detection targets of the driver monitor system is the driver's line-of-sight direction.

視線方向の代表的な検出手法として、(1)基準点を目頭、動点を虹彩の中心にして基準点に対する動点の位置に基づいて視線方向を検出する方法(「目頭−虹彩法」とも称される)、(2)基準点を角膜反射点(プルキンエ像)、動点を瞳孔の中心にして基準点に対する動点の位置に基づいて視線方向を検出する方法(「瞳孔−角膜反射法」とも称される)等がある。   As a representative method for detecting the gaze direction, (1) a method of detecting the gaze direction based on the position of the moving point with respect to the reference point with the reference point as the eye and the moving point as the center of the iris (also referred to as “eye-iris method”). (2) A method of detecting the direction of the line of sight based on the position of the moving point relative to the reference point with the reference point as the corneal reflection point (Purkinje image) and the moving point as the center of the pupil (“pupil-corneal reflection method”) And so on).

「目頭−虹彩法」には、可視光カメラでの撮影画像を用いて実現することができるため安価であるというメリットがある反面、表情の変化等によって目頭の位置が変化するため視線方向の検出精度が低いというデメリットがある。   The "eye-iris method" has the merit of being inexpensive because it can be realized by using an image taken with a visible light camera, but it detects the direction of the eye because the position of the eye changes due to changes in facial expressions. There is a demerit that accuracy is low.

一方、「瞳孔−角膜反射法」には、角膜反射点は正確に検出し易いため視線方向の検出精度が高いというメリットがある反面、角膜反射点の撮影に赤外光源と赤外線カメラが必要であるため高価であるというデメリットがある。   On the other hand, the “pupil-corneal reflection method” has the advantage of high accuracy in detecting the corneal reflection point because it is easy to detect the corneal reflection point accurately, but an infrared light source and an infrared camera are required for photographing the corneal reflection point. Therefore, there is a demerit that it is expensive.

なお、人間が注視した対象物は網膜の中心から外れた中心窩で結像するため、人間の視線方向は虹彩や瞳孔の中心の向きから若干ずれた方向になる。そして、その若干のずれには個人差がある。したがって、どのような視線方向の検出手法を用いたとしても、視線方向の検出精度や検出処理速度を高めるためにはキャリブレーションが必要である。   In addition, since the object watched by the human is imaged in the fovea deviating from the center of the retina, the human gaze direction is slightly deviated from the direction of the center of the iris or pupil. There are individual differences in the slight deviation. Therefore, no matter what gaze direction detection method is used, calibration is required to increase the gaze direction detection accuracy and the detection processing speed.

特開2010−30361号公報JP 2010-30361 A

一般的な視線方向検出装置のキャリブレーションでは、複数の固定注視ポイントをユーザーが順番に注視するか、移動する注視ポイントをユーザーが目で追って注視する必要がある。このため、視線方向検出装置のキャリブレーションの開始から完了までには或る程度の時間が必要となる。   In the calibration of a general gaze direction detecting device, the user needs to gaze at a plurality of fixed gaze points in order or the user needs to gaze at the moving gaze points with his eyes. For this reason, a certain amount of time is required from the start to the completion of the calibration of the gaze direction detecting device.

視線方向検出装置でドライバの視線を検出する場合、車両の発進前に視線方向検出装置のキャリブレーションを行うことが望ましいが、車両の発進前に視線方向検出装置のキャリブレーションを行うと、視線方向検出装置のキャリブレーションの開始から完了までに要する時間分だけ車両の発進が遅くなってしまうという問題がある。   When the gaze direction detection device detects the driver's gaze, it is desirable to calibrate the gaze direction detection device before starting the vehicle, but if the gaze direction detection device is calibrated before starting the vehicle, the gaze direction There is a problem that the start of the vehicle is delayed by the time required from the start to the completion of the calibration of the detection device.

なお、特許文献1で提案されている視線方向検出のキャリブレーションは、或る一箇所に設けられた車載装置の注視という一方向の視線状態に限られた瞬間的に処理が完了するキャリブレーションである。このため、特許文献1で提案されている視線方向検出のキャリブレーションは、キャリブレーションの開始から完了までに要する時間に関する問題を有していないが、複数の固定注視ポイントをユーザーが順番に注視するか、移動する注視ポイントをユーザーが目で追って注視する等の開始から完了までに或る程度の時間を要するキャリブレーションへの適用が不可能であるという問題を有する。   Note that the gaze direction detection calibration proposed in Patent Document 1 is a calibration that completes the process instantaneously, limited to a gaze state in one direction, such as gaze of an in-vehicle device provided in a certain place. is there. For this reason, the gaze direction detection calibration proposed in Patent Document 1 does not have a problem related to the time required from the start to completion of calibration, but the user gazes at a plurality of fixed gaze points in order. In addition, there is a problem in that it cannot be applied to calibration that requires a certain amount of time from start to completion, such as when the user gazes at a moving gaze point.

本発明は、上記の課題に鑑み、視線方向の検出精度や検出処理速度を高めるために必要なキャリブレーションに関する制約を低減する技術を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide a technique for reducing restrictions relating to calibration necessary for increasing the detection accuracy and the detection processing speed in the line-of-sight direction.

本発明に係る視線方向検出装置は、視線方向検出に関するキャリブレーションの中断の有無を判定する判定部と、前記判定部によって中断有りと判定された場合に前記キャリブレーションの途中データを生成する生成部と、前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する再開部と、を備える構成(第1の構成)である。   A gaze direction detection device according to the present invention includes a determination unit that determines whether or not calibration is interrupted with respect to gaze direction detection, and a generation unit that generates intermediate data of the calibration when the determination unit determines that there is an interruption And a resuming unit that resumes the calibration with the content based on the midway data of the calibration (first configuration).

また、上記第1の構成の視線方向検出装置において、前記キャリブレーションの途中データは個人識別情報を含む構成(第2の構成)であってもよい。   Further, in the gaze direction detecting device having the first configuration, the calibration intermediate data may include a configuration (second configuration) including personal identification information.

また、上記第1又は第2の構成の視線方向検出装置において、前記キャリブレーションの途中データを保存する保存部を備える構成(第3の構成)であってもよい。   Further, the gaze direction detecting device having the first or second configuration may have a configuration (third configuration) including a storage unit that stores data during the calibration.

また、上記第1又は第2の構成の視線方向検出装置において、前記キャリブレーションの途中データをサーバーに送信する送信部と、前記キャリブレーションの途中データを前記サーバーから受信する受信部と、を備え、前記再開部は、前記受信部によって受信された前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する構成(第4の構成)であってもよい。   The gaze direction detecting device having the first or second configuration may further include: a transmission unit that transmits the calibration intermediate data to a server; and a reception unit that receives the calibration intermediate data from the server. The restarting unit may be configured to restart the calibration with a content based on the halfway data of the calibration received by the receiving unit (fourth configuration).

また、上記第1〜第4いずれかの構成の視線方向検出装置において、前記キャリブレーションの途中データのうち、どの区間が正常であるかを判定する正常判定部を備え、前記再開部は、前記正常判定部によって正常であると判定された区間に基づく内容で前記キャリブレーションを再開する構成(第5の構成)であってもよい。   Further, in the gaze direction detecting device having any one of the first to fourth configurations, a normality determination unit that determines which section is normal in the midway data of the calibration is provided, and the resuming unit includes: A configuration (fifth configuration) may be employed in which the calibration is restarted with the content based on the section determined to be normal by the normality determination unit.

また、上記第1〜第5いずれかの構成の視線方向検出装置において、前記判定部は、前記キャリブレーションの最中の視線方向検出結果に基づいて、前記キャリブレーションの中断の有無を判定する構成(第6の構成)であってもよい。   Further, in the gaze direction detection device having any one of the first to fifth configurations, the determination unit determines whether or not the calibration is interrupted based on a gaze direction detection result during the calibration. (6th structure) may be sufficient.

また、上記第1〜第6いずれかの構成の視線方向検出装置において、前記判定部は、前記視線方向検出装置が搭載される車両の状況に基づいて、前記キャリブレーションの中断の有無を判定する構成(第7の構成)であってもよい。   Further, in the gaze direction detection device having any one of the first to sixth configurations, the determination unit determines whether or not the calibration is interrupted based on a situation of a vehicle on which the gaze direction detection device is mounted. It may be a configuration (seventh configuration).

また、上記第1〜第7いずれかの構成の視線方向検出装置において、前記視線方向検出装置が搭載される車両の状況に基づいて、前記キャリブレーションの再開を提案する提案部を備える構成(第8の構成)であってもよい。   Further, the gaze direction detecting device having any one of the first to seventh configurations includes a proposing unit that proposes resumption of the calibration based on a situation of a vehicle on which the gaze direction detecting device is mounted (first) 8 configuration).

本発明に係るキャリブレーション方法は、視線方向検出装置のキャリブレーション方法であって、視線方向検出に関するキャリブレーションの中断の有無を判定する判定工程と、前記判定部によって中断有りと判定された場合に前記キャリブレーションの途中データを生成する生成工程と、前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する再開工程と、を備える構成(第9の構成)である。   The calibration method according to the present invention is a calibration method for a gaze direction detection device, wherein a determination step for determining whether or not calibration has been interrupted for gaze direction detection is performed, and when the determination unit determines that there is an interruption. It is a structure (9th structure) provided with the production | generation process which produces | generates the said data in the middle of the said calibration, and the restart process which restarts the said calibration by the content based on the data in the middle of the said calibration.

本発明によれば、視線方向の検出精度や検出処理速度を高めるために必要なキャリブレーションの中断と再開が可能になるので、視線方向の検出精度を高めるために必要なキャリブレーションに関する制約を低減することができる。   According to the present invention, it is possible to suspend and resume calibration necessary for increasing the detection accuracy and detection processing speed of the line of sight, thereby reducing the restrictions on calibration necessary to increase the detection accuracy of the line of sight. can do.

第1実施形態に係る視線方向検出装置の構成を示す図The figure which shows the structure of the gaze direction detection apparatus which concerns on 1st Embodiment. 固定注視ポイントを示す図Diagram showing fixed gaze points 第1実施形態に係る視線方向検出装置のキャリブレーション動作を示すフローチャートThe flowchart which shows the calibration operation | movement of the gaze direction detection apparatus which concerns on 1st Embodiment. 中断有無の第2判定例に関する動作例を示すフローチャートThe flowchart which shows the operation example regarding the 2nd determination example of the presence or absence of interruption 正常判定部の動作例を示すフローチャートA flowchart showing an operation example of the normality determination unit 固定注視ポイントを示す図Diagram showing fixed gaze points 固定注視ポイントを示す図Diagram showing fixed gaze points 第2実施形態に係る視線方向検出装置の構成を示す図The figure which shows the structure of the gaze direction detection apparatus which concerns on 2nd Embodiment. 第2実施形態に係る視線方向検出装置のキャリブレーション動作を示すフローチャートThe flowchart which shows the calibration operation | movement of the gaze direction detection apparatus which concerns on 2nd Embodiment.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1実施形態に係る視線方向検出装置の構成>
図1は、第1実施形態に係る視線方向検出装置の構成を示す図である。第1実施形態に係る視線方向検出装置101(以下、視線方向検出装置101と略す)は、車両に搭載される。
<1. Configuration of Eye Gaze Direction Detection Device According to First Embodiment>
FIG. 1 is a diagram illustrating a configuration of a gaze direction detection device according to the first embodiment. A line-of-sight detection device 101 according to the first embodiment (hereinafter abbreviated as a line-of-sight detection device 101) is mounted on a vehicle.

視線方向検出装置101を搭載する車両の室内には、赤外線カメラ1、赤外光発光装置2、ディスプレイ3、メータ4、スピーカ5、マイク6、開始スイッチ7、中断スイッチ8、及び再開スイッチ9が設けられ、視線方向検出装置101に接続される。なお、赤外線カメラ1、赤外光発光装置2、ディスプレイ3、メータ4、スピーカ5、マイク6、開始スイッチ7、中断スイッチ8、及び再開スイッチ9の一部又は全部が視線方向検出装置101に組み込まれてもよい。   In the interior of the vehicle in which the line-of-sight direction detection device 101 is mounted, there are an infrared camera 1, an infrared light emitting device 2, a display 3, a meter 4, a speaker 5, a microphone 6, a start switch 7, an interruption switch 8, and a restart switch 9. Provided and connected to the line-of-sight detection device 101. Part or all of the infrared camera 1, the infrared light emitting device 2, the display 3, the meter 4, the speaker 5, the microphone 6, the start switch 7, the interruption switch 8, and the restart switch 9 are incorporated in the line-of-sight direction detection device 101. May be.

赤外線カメラ1は、ドライバの顔を撮影する。赤外光発光装置2は、ドライバの顔に赤外光を照射する。赤外線カメラ1及び赤外光発光装置2は例えば車両のステアリングに設置される。   The infrared camera 1 captures the driver's face. The infrared light emitting device 2 irradiates the driver's face with infrared light. The infrared camera 1 and the infrared light emitting device 2 are installed, for example, in a vehicle steering.

ディスプレイ3は、画像を表示する。ディスプレイ3としては、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、画像を車両のフロントガラスに投影するヘッドアップディスプレイ等を用いることができる。メータ4は、車両の速度、車両のエンジン回転数、車両の燃料残量等を表示する。   The display 3 displays an image. As the display 3, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, a head-up display that projects an image on a windshield of a vehicle, or the like can be used. The meter 4 displays the speed of the vehicle, the engine speed of the vehicle, the fuel remaining amount of the vehicle, and the like.

スピーカ5は、視線方向検出装置101からの音声信号を音声に変換する。マイク6は、音声を音声信号に変換して視線方向検出装置101に送る。マイク6はドライバが発する音声を主として集音する。   The speaker 5 converts the audio signal from the line-of-sight direction detection device 101 into sound. The microphone 6 converts the sound into a sound signal and sends it to the line-of-sight direction detection device 101. The microphone 6 mainly collects sound emitted by the driver.

開始スイッチ7は、ドライバが視線方向検出装置101に対してキャリブレーションの開始を指示するための機械式スイッチである。中断スイッチ8は、ドライバが視線方向検出装置101に対してキャリブレーションの中断を指示するための機械式スイッチである。再開スイッチ9は、ドライバが視線方向検出装置101に対してキャリブレーションの再開を指示するための機械式スイッチである。これらの機械式スイッチの代わりに例えば液晶ディスプレイや有機ELディスプレイの画面上に配置されるタッチパネル等を用いてもよい。   The start switch 7 is a mechanical switch for the driver to instruct the visual line direction detection device 101 to start calibration. The interruption switch 8 is a mechanical switch for the driver to instruct the visual line direction detection device 101 to interrupt the calibration. The restart switch 9 is a mechanical switch for the driver to instruct the line-of-sight direction detection device 101 to restart calibration. Instead of these mechanical switches, for example, a touch panel arranged on the screen of a liquid crystal display or an organic EL display may be used.

視線方向検出装置101は、装置全体を制御する制御部としてマイクロコンピュータを備える。詳細には、視線方向検出装置101は、演算処理を行うことで各種の制御機能を実現するCPU11と、各種のデータを記憶する不揮発性メモリ12と、演算処理の作業領域となるRAM13と、を備える。不揮発性メモリ12は、例えばハードディスクやフラッシュメモリで構成される。視線方向検出装置101の各部を制御する機能は、不揮発性メモリ12に予め記憶されるプログラム12aに従ってCPU11が演算処理を実行することによって実現される。   The line-of-sight direction detection apparatus 101 includes a microcomputer as a control unit that controls the entire apparatus. Specifically, the line-of-sight detection device 101 includes a CPU 11 that realizes various control functions by performing arithmetic processing, a nonvolatile memory 12 that stores various data, and a RAM 13 that is a work area for arithmetic processing. Prepare. The nonvolatile memory 12 is composed of, for example, a hard disk or a flash memory. The function of controlling each part of the line-of-sight direction detection device 101 is realized by the CPU 11 executing arithmetic processing according to a program 12 a stored in advance in the nonvolatile memory 12.

視線方向検出装置101は、赤外線カメラ1で撮影された画像データを処理する画像処理部14を備える。本実施形態では、画像処理部14はハードウェア回路である。画像処理部14は、赤外線カメラ1から入力される画像データの信号に対して所定の画像処理を行い、所定の形式のデジタル画像データを生成する。所定の画像処理には、例えば、A/D変換、輝度補正、コントラスト補正等が含まれる。画像処理部14で処理された画像データは、赤外線カメラ1で得られた撮影映像として、例えばMPEG−4形式でRAM13に記憶される。   The line-of-sight direction detection apparatus 101 includes an image processing unit 14 that processes image data captured by the infrared camera 1. In the present embodiment, the image processing unit 14 is a hardware circuit. The image processing unit 14 performs predetermined image processing on a signal of image data input from the infrared camera 1 to generate digital image data in a predetermined format. The predetermined image processing includes, for example, A / D conversion, luminance correction, contrast correction, and the like. The image data processed by the image processing unit 14 is stored in the RAM 13 in the MPEG-4 format, for example, as a captured video obtained by the infrared camera 1.

その他、CPU11には、不図示のCAN(Controller Area Network)バスを介して、各種ECU(Electronic Control Unit)、各種センサ、各種車載機器から提供される車両状況情報が入力される。車両状況情報には、例えば、操舵情報、ブレーキ情報、アクセル情報、位置情報、ドア開閉情報等が含まれてよい。さらに、CPU11には、不図示のCANを介して、ナビゲーション装置等から提供される地図情報が入力される。   In addition, vehicle status information provided from various ECUs (Electronic Control Units), various sensors, and various in-vehicle devices is input to the CPU 11 via a controller area network (CAN) bus (not shown). The vehicle status information may include, for example, steering information, brake information, accelerator information, position information, door opening / closing information, and the like. Furthermore, map information provided from a navigation device or the like is input to the CPU 11 via a CAN (not shown).

CPU11は、視線方向演算部11aと、開始部11bと、判定部11cと、生成部11dと、再開部11eと、HMI(Human Machine Interface)制御部11fと、個人識別部11gと、正常判定部11hと、提案部11iと、を備える。   The CPU 11 includes a gaze direction calculation unit 11a, a start unit 11b, a determination unit 11c, a generation unit 11d, a resumption unit 11e, an HMI (Human Machine Interface) control unit 11f, a personal identification unit 11g, and a normal determination unit. 11h and a suggestion unit 11i.

視線方向演算部11aは、RAM13に記憶されている画像データから角膜反射点(プルキンエ像)に対する動点を瞳孔の中心の位置を求め、不揮発性メモリ12に記憶されている完了キャリブレーションデータ12c又は標準キャリブレーションデータ12dを用いてドライバの視線方向を検出する。ドライバの視線方向は、例えばドライバの前方にドライバと正対する仮想平面を仮想的に設け、ドライバの視線方向ベクトルが仮想平面を貫く位置の座標(二次元座標)で表すことができる。視線方向演算部11aによって検出されたドライバの視線方向の利用方法は特に限定されないが、例えば自動運転から手動運転に切り替えて良いか否かの判断材料として用いることができる。   The line-of-sight direction calculation unit 11a obtains the moving point with respect to the corneal reflection point (Purkinje image) from the image data stored in the RAM 13 to determine the position of the center of the pupil, and complete calibration data 12c stored in the nonvolatile memory 12 or The driver's line-of-sight direction is detected using the standard calibration data 12d. The driver's line-of-sight direction can be represented by, for example, a virtual plane that faces the driver in front of the driver and the driver's line-of-sight direction vector passes through the virtual plane (two-dimensional coordinates). The method of using the driver's line-of-sight direction detected by the line-of-sight direction calculation unit 11a is not particularly limited. For example, it can be used as a material for determining whether or not the automatic operation can be switched to the manual operation.

開始部11bは、ドライバによる開始スイッチ7の操作やマイク6を用いた開始指示の音声入力に応じて、キャリブレーションを開始する。本実施形態では、キャリブレーションは、図2に丸数字で示された9個の固定注視ポイントを数字の順番でドライバが注視することで完了する。なお、各固定注視ポイントでのデータサンプリング回数は1回でもよいが、所定の複数回にして平均値を求めるようにすることが望ましい。固定注視ポイントの位置は、例えばディスプレイ3やメータ4を用いてドライバに知らせるとよい。固定注視ポイントの注視する順番は、注視する固定注視ポイントの順次表示やスピーカ5を用いた音声ガイダンスによって、ドライバに知らせるとよい。   The start unit 11 b starts calibration in response to an operation of the start switch 7 by the driver or a voice input of a start instruction using the microphone 6. In the present embodiment, the calibration is completed when the driver gazes at the nine fixed gaze points indicated by the circled numbers in FIG. 2 in the numerical order. Note that the number of times of data sampling at each fixed gaze point may be one, but it is desirable to obtain an average value by a predetermined number of times. The position of the fixed gaze point may be notified to the driver using, for example, the display 3 or the meter 4. The order in which the fixed gaze points are watched may be notified to the driver by sequentially displaying the fixed gaze points to be watched or by voice guidance using the speaker 5.

判定部11cは、キャリブレーションの中断の有無を判定する。具体的な判定方法例については後述する。   The determination unit 11c determines whether or not the calibration is interrupted. A specific determination method example will be described later.

生成部11dは、判定部11cによって中断有りと判定された場合に、キャリブレーションの開始から中断までの間におけるキャリブレーションに関するデータである「途中キャリブレーションデータ12b」を生成し、「途中キャリブレーションデータ12b」を不揮発性メモリ12に記憶させる。例えば、4個の固定注視ポイントについてドライバの注視が終わった段階でキャリブレーションが中断されると、4個の固定注視ポイントに関するサンプリングデータで「途中キャリブレーションデータ12b」が生成される。   When the determination unit 11c determines that there is an interruption, the generation unit 11d generates “intermediate calibration data 12b” that is data related to the calibration between the start and the end of calibration, and the “intermediate calibration data” 12b "is stored in the nonvolatile memory 12. For example, when the calibration is interrupted at the stage where the driver's gaze ends for four fixed gaze points, “halfway calibration data 12b” is generated with sampling data relating to the four fixed gaze points.

また、生成部11dは、キャリブレーションが完了すると、「完了キャリブレーションデータ12c」を生成し、「完了キャリブレーションデータ12c」を不揮発性メモリ12に記憶させる。本実施形態では、9個の固定注視ポイントに関するサンプリングデータで「完了キャリブレーションデータ12c」が生成される。   When the calibration is completed, the generation unit 11d generates “complete calibration data 12c” and stores the “complete calibration data 12c” in the nonvolatile memory 12. In the present embodiment, “completed calibration data 12c” is generated with sampling data relating to nine fixed gaze points.

再開部11eは、ドライバによる再開スイッチ9の操作やマイク6を用いた再開指示の音声入力に応じて、「途中キャリブレーションデータ12b」に基づく内容でキャリブレーションを再開する。例えば、4個の固定注視ポイントに関するサンプリングデータで「途中キャリブレーションデータ12b」が生成されていた場合、5番目の固定注視ポイントからキャリブレーションが再開される。5番目の固定注視ポイントからキャリブレーションが再開された後に、例えば更に2個の固定注視ポイントについてドライバの注視が終わった段階でキャリブレーションが再度中断されると、「途中キャリブレーションデータ12b」は更新され、6個の固定注視ポイントに関するサンプリングデータで「途中キャリブレーションデータ12b」が生成される。   The resuming unit 11e resumes the calibration with the content based on the “halfway calibration data 12b” in response to the operation of the resuming switch 9 by the driver or the voice input of the resuming instruction using the microphone 6. For example, when “halfway calibration data 12b” is generated with sampling data relating to four fixed gaze points, calibration is resumed from the fifth fixed gaze point. After calibration is restarted from the fifth fixed gaze point, for example, when calibration is interrupted again at the stage where the driver's gaze is finished for two more fixed gaze points, the “halfway calibration data 12b” is updated. Then, “halfway calibration data 12b” is generated with the sampling data relating to the six fixed gaze points.

HMI制御部11fは、ディスプレイ3への出力、メータ4への出力、スピーカ5への出力、マイク6からの入力、開始スイッチ7からの入力、及び中断スイッチ8からの入力、再開スイッチ9からの入力を処理する。   The HMI control unit 11 f outputs to the display 3, to the meter 4, to the speaker 5, to input from the microphone 6, to input from the start switch 7, and from the interruption switch 8 and from the restart switch 9. Process the input.

個人識別部11gは、ドライバの個人識別を行う。個人識別の方法としては、例えば顔認証や指紋認証を用いることができる。この場合、顔の特徴や指紋の特徴が個人識別情報となる。また、例えばドライバ固有の操作部(例えば四名の識別を可能とする場合には4つの機械式スイッチや4つのタッチパネル上の選択キー)を設け、そのドライバ固有の操作部に対する操作に基づいて、個人識別部11gがドライバの個人識別を行ってもよい。   The personal identification unit 11g performs personal identification of the driver. As a method for personal identification, for example, face authentication or fingerprint authentication can be used. In this case, the facial features and fingerprint features become the personal identification information. In addition, for example, a driver-specific operation unit (for example, four mechanical switches and selection keys on four touch panels when four persons can be identified) is provided, and based on an operation on the driver-specific operation unit, The personal identification unit 11g may perform personal identification of the driver.

個人識別情報は、「途中キャリブレーションデータ12b」及び「完了キャリブレーションデータ12c」それぞれに含まれる。これにより、個々のドライバに対してキャリブレーションの中断、再開、完了が可能となる。そして、特定のドライバに対して一度キャリブレーションが完了すると、その特定のドライバに関しては再度のキャリブレーションは不要となる。   The personal identification information is included in each of “halfway calibration data 12b” and “completed calibration data 12c”. As a result, the calibration can be interrupted, resumed, and completed for each driver. Then, once calibration for a specific driver is completed, re-calibration is not necessary for the specific driver.

なお、本実施形態とは異なり、CPU11が個人識別部11gを備えない構成であってもよい。この場合、単一のドライバに関するキャリブレーションが想定されていることになる。   Unlike the present embodiment, the CPU 11 may be configured not to include the personal identification unit 11g. In this case, calibration for a single driver is assumed.

正常判定部11hは、「途中キャリブレーションデータ12b」のうち、どの区間(どのサンプリングデータ)が正常であるかを判定する。例えば、正常判定部11hによって正常でないと判定された区間は、キャリブレーションデータが再開されたときに再度サンプリングを行うようにすればよい。これにより、「完了キャリブレーションデータ12c」がより適切なデータとなり、視線方向の検出精度が向上する。具体的な判定方法例については後述する。   The normality determination unit 11h determines which section (which sampling data) is normal in the “halfway calibration data 12b”. For example, the interval determined to be not normal by the normality determination unit 11h may be sampled again when the calibration data is resumed. Thereby, the “completed calibration data 12c” becomes more appropriate data, and the detection accuracy of the line-of-sight direction is improved. A specific determination method example will be described later.

提案部11iは、車両の状況に基づいてキャリブレーションの再開を提案する。例えばディスプレイ3やメータ4を用いた表示やスピーカ5を用いた音声で提案すればよい。例えば、提案部11iは、車両の速度、車両のシフト、車両の位置、地図情報等に基づいてキャリブレーションを再開しても危険が少ない状況であると判断した場合に、キャリブレーションの再開を提案すればよい。提案部11iの提案により、ドライバがキャリブレーション再開の機会を逸する可能性が低くなり、結果的にキャリブレーション完了までに要する期間を短縮することができる。   The proposing unit 11i proposes resumption of calibration based on the situation of the vehicle. For example, what is necessary is just to suggest by the display using the display 3 and the meter 4, and the sound using the speaker 5. FIG. For example, the proposing unit 11i proposes to resume calibration when it is determined that the risk is low even if calibration is resumed based on vehicle speed, vehicle shift, vehicle position, map information, and the like. do it. By the proposal of the proposing unit 11i, the possibility that the driver misses the opportunity of resuming calibration is reduced, and as a result, the time required for completing calibration can be shortened.

<2.第1実施形態に係る視線方向検出装置の動作>
図3Aは、視線方向検出装置101のキャリブレーション動作を示すフローチャートである。
<2. Operation of Gaze Direction Detection Device According to First Embodiment>
FIG. 3A is a flowchart showing the calibration operation of the eye gaze direction detecting device 101.

キャリブレーションが開始されると、判定部11cが、キャリブレーションの中断の有無を判定する(ステップS10)。なお、中断スイッチ8が押された場合以外にキャリブレーションの中断有りと判定する場合には、キャリブレーションを中断することをディスプレイ3、メータ4、スピーカ5等を用いて報知することが望ましい。   When the calibration is started, the determination unit 11c determines whether or not the calibration is interrupted (step S10). When it is determined that the calibration is interrupted except when the interrupt switch 8 is pressed, it is desirable to notify the user that the calibration is interrupted using the display 3, the meter 4, the speaker 5, and the like.

(中断有無の第1判定例)
例えば、中断スイッチ8が押された場合には、判定部11cは、キャリブレーションの中断有りと判定する。
(First example of whether to interrupt)
For example, when the interruption switch 8 is pressed, the determination unit 11c determines that the calibration is interrupted.

(中断有無の第2判定例)
また例えば、固定注視ポイントの注視において固定注視ポイントの仮想平面上座標と視線方向を表す仮想平面上座標(視線方向座標)との距離が閾値T1より大きいサンプリングデータ数が所定値V1以上になった場合に、判定部11cは、キャリブレーションの中断有りと判定する。図3Bは、この判定の動作例を示すフローチャートである。図3Bに示すフローチャートの処理は固定注視ポイント毎に実行される。判定部11cは各パラメータC、EC、SCを0にする(ステップS101)。次に、判定部11cは固定注視ポイントの仮想平面上座標(Xn,Yn)を取得する(ステップS102)。次に、判定部11cは不揮発性メモリ12から「標準キャリブレーションデータ12d」を読み込む(ステップS103)。次に、判定部11cは、「標準キャリブレーションデータ12d」を用いて、サンプリング回数C回目の視線方向座標(Xc,Yc)を演算する(ステップS104)。そして、判定部11cは、固定注視ポイントの仮想平面上座標(Xn,Yn)とサンプリング回数C回目の視線方向座標(Xc,Yc)との距離が上記閾値T1より大きいか否かを判定する(ステップS105)。上記距離が上記閾値T1より大きければ、判定部11cは、パラメータEC及びパラメータCをそれぞれ1つインクリメントし(ステップS106)、エラー回数を示すパラメータECが上記所定値V1以上であるか否かを判定する(ステップS107)。パラメータECが上記所定値V1以上でなければステップS104に戻る。パラメータECが上記所定値V1以上であれば、判定部11cは、キャリブレーションの中断有りと判定し(ステップS108)、その後図3Bのフロー動作を終了する。一方、上記距離が上記閾値T1より大きくなければ、判定部11cは、パラメータSC及びパラメータCをそれぞれ1つインクリメントし(ステップS109)、成功回数を示すパラメータSCが規定値V2以上であるか否かを判定する(ステップS110)。パラメータSCが上記規定値V2以上でなければステップS104に戻る。パラメータSCが上記規定値V2以上であれば、図3Bのフロー動作を終了する。図3Bのフロー動作によると、例えば図4に示すように1番の固定注視ポイントを注視している際に、1番の固定注視ポイントを中心とし半径R1の値が上記閾値T1である仮想平面上の円C1の外に視線方向を表す仮想平面上座標が現れるサンプリングデータ数が上記所定値V1以上になった場合に、判定部11cは、キャリブレーションの中断有りと判定する。
(Second example of whether to interrupt)
In addition, for example, in the gaze of the fixed gaze point, the number of sampling data whose distance between the virtual plane coordinate of the fixed gaze point and the coordinate on the virtual plane indicating the gaze direction (gaze direction coordinate) is greater than the threshold T1 is equal to or greater than the predetermined value V1. In this case, the determination unit 11c determines that the calibration is interrupted. FIG. 3B is a flowchart illustrating an operation example of this determination. The process of the flowchart shown in FIG. 3B is executed for each fixed gaze point. The determination unit 11c sets each parameter C, EC, and SC to 0 (step S101). Next, the determination unit 11c acquires the coordinates (Xn, Yn) on the virtual plane of the fixed gaze point (step S102). Next, the determination unit 11c reads “standard calibration data 12d” from the nonvolatile memory 12 (step S103). Next, using the “standard calibration data 12d”, the determination unit 11c calculates the line-of-sight direction coordinates (Xc, Yc) for the Cth sampling (step S104). Then, the determination unit 11c determines whether or not the distance between the coordinate (Xn, Yn) on the virtual plane of the fixed gaze point and the line-of-sight direction coordinate (Xc, Yc) of the number of sampling times C is greater than the threshold T1 ( Step S105). If the distance is greater than the threshold value T1, the determination unit 11c increments the parameter EC and the parameter C by one (step S106), and determines whether the parameter EC indicating the number of errors is equal to or greater than the predetermined value V1. (Step S107). If the parameter EC is not equal to or greater than the predetermined value V1, the process returns to step S104. If the parameter EC is equal to or greater than the predetermined value V1, the determination unit 11c determines that the calibration has been interrupted (step S108), and then ends the flow operation of FIG. 3B. On the other hand, if the distance is not greater than the threshold value T1, the determination unit 11c increments the parameter SC and the parameter C by one (step S109), and whether the parameter SC indicating the number of successes is equal to or greater than the specified value V2. Is determined (step S110). If the parameter SC is not greater than the specified value V2, the process returns to step S104. If the parameter SC is equal to or greater than the specified value V2, the flow operation of FIG. 3B is terminated. According to the flow operation of FIG. 3B, for example, as shown in FIG. 4, when the first fixed gaze point is being watched, the virtual plane in which the value of the radius R1 is the threshold value T1 with the first fixed gaze point as the center. When the number of sampling data in which coordinates on the virtual plane representing the line-of-sight direction appear outside the upper circle C1 is equal to or greater than the predetermined value V1, the determination unit 11c determines that the calibration is interrupted.

この判定では、ドライバがキャリブレーションの途中でキャリブレーション以外の行動(例えば車両の運転開始)を行った場合を想定しており、ドライバがキャリブレーション以外の行動を行った場合に、判定部11cは、キャリブレーションの中断有りと判定することができる。   In this determination, it is assumed that the driver performs an action other than calibration (for example, start of driving of the vehicle) during the calibration, and when the driver performs an action other than calibration, the determination unit 11c Therefore, it can be determined that the calibration is interrupted.

また、この判定を実行する際には、「完了キャリブレーションデータ12c」がまだ生成されていないため、視線方向演算部11aは視線方向を表す仮想平面上座標の演算において「標準キャリブレーションデータ12d」を用いる。「標準キャリブレーションデータ12d」は、人の平均的なキャリブレーションデータである。なお、「標準キャリブレーションデータ12d」の代わりに、「途中キャリブレーションデータ12b」を用いてもよい。「途中キャリブレーションデータ12b」は、2つ以上の固定注視ポイントに関するサンプリングデータによって構成されている場合に利用することができる。人の角膜形状がほぼ左右対称且つほぼ上下対称であることから、その対称性を利用して「途中キャリブレーションデータ12b」から擬似的な「完了キャリブレーションデータ12c」を生成し、その擬似的な「完了キャリブレーションデータ12c」を用いるようにすればよい。   Further, when this determination is performed, since “complete calibration data 12c” has not yet been generated, the line-of-sight calculation unit 11a calculates “standard calibration data 12d” in the calculation of coordinates on the virtual plane representing the line-of-sight direction. Is used. The “standard calibration data 12d” is human average calibration data. Instead of “standard calibration data 12d”, “halfway calibration data 12b” may be used. The “halfway calibration data 12b” can be used when it is constituted by sampling data relating to two or more fixed gaze points. Since the human cornea shape is substantially bilaterally symmetric and vertically symmetric, a pseudo “complete calibration data 12c” is generated from the “halfway calibration data 12b” using the symmetry, and the pseudo The “completed calibration data 12c” may be used.

(中断有無の第3判定例)
また例えば、ドライバが車両を運転していると推定される場合に、判定部11cは、キャリブレーションの中断有りと判定する。これにより、安全が確保出来ない状態でのキャリブレーションの続行を防止することができる。例えば、操舵情報、ブレーキ情報、アクセル情報によってドライバが車両を運転しているか否かを推定すればよい。ただし、運転中であっても緩やかな下り坂等を走行している際に操舵、ブレーキ操作、アクセル操作のいずれもが行われない場合もあるため、車両の位置によってドライバが車両を運転しているか否かを推定し、車両の位置が変化しているときにドライバが車両を運転していると推定すればよい。
(Third example of whether to interrupt)
For example, when it is estimated that the driver is driving the vehicle, the determination unit 11c determines that the calibration is interrupted. Thereby, it is possible to prevent the calibration from continuing in a state where safety cannot be ensured. For example, it may be estimated whether the driver is driving the vehicle based on the steering information, brake information, and accelerator information. However, even when driving, when driving on a gentle downhill or the like, steering, braking operation, or accelerator operation may not be performed, so the driver drives the vehicle depending on the position of the vehicle. It may be estimated that the driver is driving the vehicle when the position of the vehicle is changing.

(中断有無の第4判定例)
また例えば、ドア開閉情報に基づいて車両のドアが閉じた状態から開いた状態に変化したことを認識した場合に、判定部11cは、キャリブレーションの中断有りと判定する。これにより、ドライバが前方を向いていない可能性が高い状態でのキャリブレーションの続行を防止することができる。
(Fourth example of whether to interrupt)
For example, when it is recognized that the vehicle door has changed from a closed state to an open state based on the door opening / closing information, the determination unit 11c determines that the calibration is interrupted. Thereby, it is possible to prevent the calibration from being continued in a state where there is a high possibility that the driver is not facing forward.

ステップS10の判定によってキャリブレーションの中断無しと判定された場合、後述するステップS40に移行する。一方、ステップS10の判定によってキャリブレーションの中断有りと判定された場合、生成部11dは、「途中キャリブレーションデータ12b」を生成し(ステップS20)、「途中キャリブレーションデータ12b」を不揮発性メモリ12に不揮発的に記憶(保存)させる(ステップS21)。不揮発性メモリ12が「途中キャリブレーションデータ12b」を保存しているので、後述する第2実施形態のようなサーバーとの通信機能が不要である。   If it is determined in step S10 that the calibration is not interrupted, the process proceeds to step S40 described later. On the other hand, if it is determined in step S10 that the calibration is interrupted, the generation unit 11d generates “halfway calibration data 12b” (step S20), and the “halfway calibration data 12b” is stored in the nonvolatile memory 12. Is stored (saved) in a nonvolatile manner (step S21). Since the nonvolatile memory 12 stores the “halfway calibration data 12b”, a communication function with the server as in the second embodiment to be described later is unnecessary.

ここで、正常判定部11hは、固定注視ポイントの注視において固定注視ポイントの仮想平面上座標と視線方向を表す仮想平面上座標との距離が許容値A1より大きいサンプリングデータを正常でないと判定する。図3Cは、この判定の動作例を示すフローチャートである。図3Cに示すフローチャートの処理はサンプリングデータ毎に実行される。正常判定部11hは固定注視ポイントの仮想平面上座標(Xn,Yn)を取得する(ステップS201)。次に、正常判定部11hは不揮発性メモリ12から「標準キャリブレーションデータ12d」を読み込む(ステップS202)。次に、正常判定部11hは、「標準キャリブレーションデータ12d」を用いて、視線方向座標(X,Y)を演算する(ステップS203)。そして、正常判定部11hは、固定注視ポイントの仮想平面上座標(Xn,Yn)と視線方向座標(X,Y)との距離が上記許容値A1より大きいか否かを判定する(ステップS204)。上記距離が上記許容値A1より大きければ、正常判定部11hは、今回の判定対象であるサンプリングデータを正常でないと判定し(ステップS205)、その後図3Cのフロー動作を終了する。一方、上記距離が上記許容値A1より大きくなければ、正常判定部11hは、今回の判定対象であるサンプリングデータを正常であると判定し(ステップS206)、その後図3Cのフロー動作を終了する。図3Cのフロー動作によると、例えば図5に示すように1番の固定注視ポイントを注視している際に、正常判定部11hは、1番の固定注視ポイントを中心とし半径R1の値が上記許容値A1である仮想平面上の円C1の外に視線方向を表す仮想平面上座標が現れるサンプリングデータを正常でないと判定する。なお、上記許容値A1は上記閾値T1よりも小さい。   Here, the normality determination unit 11h determines that the sampling data in which the distance between the coordinates on the virtual plane of the fixed gaze point and the coordinates on the virtual plane representing the line-of-sight direction is larger than the allowable value A1 in the gaze of the fixed gaze point is not normal. FIG. 3C is a flowchart illustrating an operation example of this determination. The process of the flowchart shown in FIG. 3C is executed for each sampling data. The normality determination unit 11h acquires the coordinates (Xn, Yn) on the virtual plane of the fixed gaze point (step S201). Next, the normality determination unit 11h reads “standard calibration data 12d” from the nonvolatile memory 12 (step S202). Next, the normality determination unit 11h calculates the line-of-sight direction coordinates (X, Y) using the “standard calibration data 12d” (step S203). Then, the normality determination unit 11h determines whether or not the distance between the coordinate (Xn, Yn) on the virtual plane of the fixed gaze point and the line-of-sight direction coordinate (X, Y) is greater than the allowable value A1 (step S204). . If the distance is greater than the allowable value A1, the normality determination unit 11h determines that the sampling data that is the current determination target is not normal (step S205), and then ends the flow operation of FIG. 3C. On the other hand, if the distance is not greater than the allowable value A1, the normality determination unit 11h determines that the sampling data that is the current determination target is normal (step S206), and then ends the flow operation of FIG. 3C. According to the flow operation of FIG. 3C, for example, as shown in FIG. 5, when gazing at the first fixed gaze point, the normality determination unit 11h has the radius R1 as the center with the first fixed gaze point as the center. It is determined that the sampling data in which the coordinates on the virtual plane representing the line-of-sight direction appear outside the circle C1 on the virtual plane that is the allowable value A1 is not normal. The allowable value A1 is smaller than the threshold value T1.

ステップS21の処理が終わると、CPU11は、再開部11eによってキャリブレーションが再開されたか否かを判定する(ステップS30)。   When the process of step S21 ends, the CPU 11 determines whether the calibration is resumed by the resuming unit 11e (step S30).

再開部11eによってキャリブレーションが再開されていなければ、CPU11はステップS30の判定を継続する。一方、再開部11eによってキャリブレーションが再開されれば、ステップS40に移行する。   If the calibration is not resumed by the resume unit 11e, the CPU 11 continues the determination in step S30. On the other hand, if calibration is resumed by the resuming unit 11e, the process proceeds to step S40.

ステップS40において、CPU11は、キャリブレーションが完了したか否かを判定する。   In step S40, the CPU 11 determines whether calibration is completed.

キャリブレーションが完了していなければ、ステップS10に戻る。一方、キャリブレーションが完了すれば、生成部11dは、「完了キャリブレーションデータ12c」を生成し(ステップS50)、「完了キャリブレーションデータ12c」を不揮発性メモリ12に不揮発的に記憶(保存)させる(ステップS51)。ステップS51の処理終了によって図3Aのフロー動作が終了する。   If calibration has not been completed, the process returns to step S10. On the other hand, when the calibration is completed, the generation unit 11d generates “complete calibration data 12c” (step S50), and stores (saves) the “complete calibration data 12c” in the nonvolatile memory 12 in a nonvolatile manner. (Step S51). The flow operation of FIG. 3A ends when the process of step S51 ends.

上述した図3Aのフロー動作によって、キャリブレーションの中断及び再開が可能になる。これにより、視線方向検出装置のキャリブレーションの開始から完了までに要する時間分だけ車両の発進が遅くなってしまうという問題を解消することができる。例えば、赤信号による車両の小刻みな停止時間を利用して、キャリブレーション作業を進行させることができる。また、1回のエンジン始動からエンジン停止までの期間(1トリップ)でキャリブレーションの中断及び再開が行えるだけでなく、複数のトリップを通じてキャリブレーションの中断及び再開を繰り返してキャリブレーション作業を進行させることもできる。したがって、視線方向の検出精度を高めるために必要なキャリブレーションに関する制約を低減することができる。   The above-described flow operation in FIG. 3A enables the calibration to be interrupted and resumed. Thereby, the problem that the start of the vehicle is delayed by the time required from the start to the completion of the calibration of the gaze direction detecting device can be solved. For example, the calibration operation can be performed by using a short stoppage time of the vehicle due to a red light. Also, not only can the calibration be interrupted and resumed in the period from one engine start to engine stop (one trip), but also the calibration work can be continued by repeatedly suspending and restarting the calibration through multiple trips. You can also. Therefore, it is possible to reduce restrictions on calibration necessary for improving the detection accuracy of the line-of-sight direction.

<3.第2実施形態>
図6は、第2実施形態に係る視線方向検出装置の構成を示す図である。第2実施形態に係る視線方向検出装置102(以下、視線方向検出装置102と略す)は、視線方向検出装置101に通信部15を追加した構成である。通信部15は、サーバーセンターに設けられるサーバー200と通信を行う。
<3. Second Embodiment>
FIG. 6 is a diagram illustrating a configuration of a gaze direction detection device according to the second embodiment. The line-of-sight detection device 102 according to the second embodiment (hereinafter abbreviated as the line-of-sight detection device 102) has a configuration in which a communication unit 15 is added to the line-of-sight direction detection device 101. The communication unit 15 communicates with the server 200 provided in the server center.

第1実施形態において視線方向検出装置101の不揮発性メモリ12に保存されていた「途中キャリブレーションデータ」、「完了キャリブレーションデータ」、及び「標準キャリブレーションデータ」は、本実施形態ではサーバー200に保存される。なお、「標準キャリブレーションデータ」は、サーバー200ではなく、視線方向検出装置102の不揮発性メモリ12に保存してもよい。   The “halfway calibration data”, “complete calibration data”, and “standard calibration data” stored in the nonvolatile memory 12 of the visual line direction detection device 101 in the first embodiment are stored in the server 200 in this embodiment. Saved. The “standard calibration data” may be stored not in the server 200 but in the nonvolatile memory 12 of the line-of-sight direction detection device 102.

図7は、視線方向検出装置102のキャリブレーション動作を示すフローチャートである。図7に示すフローチャートは、図3Aに示すフローチャートのステップS21及びS51をそれぞれステップS22及びステップS52に置換し、ステップS30とステップS40との間にステップS31を追加したものである。   FIG. 7 is a flowchart showing the calibration operation of the gaze direction detecting device 102. The flowchart shown in FIG. 7 is obtained by replacing steps S21 and S51 in the flowchart shown in FIG. 3A with steps S22 and S52, respectively, and adding step S31 between steps S30 and S40.

本実施形態では、ステップS20の処理が終わると、通信部15は、「途中キャリブレーションデータ」をサーバー200に送信する(ステップS22)。そして、キャリブレーションが再開されるときに、通信部15は、ドライバの個人識別情報をサーバー200に送信することで、サーバー200に送信したドライバの個人識別情報に対応する「途中キャリブレーションデータ」を要求し、要求した「途中キャリブレーションデータ」をサーバー200から受信する(ステップS31)。   In the present embodiment, when the process of step S20 ends, the communication unit 15 transmits “halfway calibration data” to the server 200 (step S22). When the calibration is resumed, the communication unit 15 transmits the driver's personal identification information to the server 200, thereby obtaining “intermediate calibration data” corresponding to the driver's personal identification information transmitted to the server 200. The requested “intermediate calibration data” is received from the server 200 (step S31).

「途中キャリブレーションデータ」がサーバー200に保存されているため、「途中キャリブレーションデータ」を生成した視線方向検出装置102を搭載する車両と、キャリブレーションを再開する視線方向検出装置102を搭載する車両とが異なる車両であっても、図7に示すフロー動作を実現することができる。したがって、本実施形態は、第1実施形態よりも利便性が高い。   Since the “halfway calibration data” is stored in the server 200, the vehicle on which the gaze direction detection device 102 that generated the “halfway calibration data” is mounted and the vehicle on which the gaze direction detection device 102 that resumes calibration is mounted. Even if the vehicle is different, the flow operation shown in FIG. 7 can be realized. Therefore, this embodiment is more convenient than the first embodiment.

また、本実施形態では、ステップS50の処理が終わると、通信部15は、「完了キャリブレーションデータ」をサーバー200に送信する(ステップS52)。そして、視線方向演算部11aがドライバの視線方向を検出する場合に、通信部15は、ドライバの個人識別情報をサーバー200に送信することで、サーバー200に送信したドライバの個人識別情報に対応する「完了キャリブレーションデータ」を要求し、要求した「完了キャリブレーションデータ」をサーバー200から受信する。これにより、一度キャリブレーションが完了すると、視線方向検出装置102を搭載する複数の車両で「完了キャリブレーションデータ」を共用することができる。したがって、本実施形態は、第1実施形態よりも利便性が高い。   In the present embodiment, when the process of step S50 ends, the communication unit 15 transmits “completed calibration data” to the server 200 (step S52). When the line-of-sight direction calculation unit 11 a detects the line-of-sight direction of the driver, the communication unit 15 transmits the driver personal identification information to the server 200, thereby corresponding to the driver personal identification information transmitted to the server 200. “Complete calibration data” is requested, and the requested “complete calibration data” is received from the server 200. Thereby, once the calibration is completed, the “completed calibration data” can be shared by a plurality of vehicles on which the line-of-sight direction detection device 102 is mounted. Therefore, this embodiment is more convenient than the first embodiment.

<4.変形例>
上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
<4. Modification>
The above-described embodiment is an example in all respects and should not be considered as limiting, and the technical scope of the present invention is indicated by the scope of the claims, not the description of the above-described embodiment. Therefore, it should be understood that all modifications that come within the meaning and range of equivalency of the claims are embraced.

例えば、上述した実施形態では、「瞳孔−角膜反射法」を用いてドライバの視線方向を検出しているが、例えば「目頭−虹彩法」等の他の手法を用いてドライバの視線方向を検出してもよい。   For example, in the above-described embodiment, the driver's gaze direction is detected using the “pupil-corneal reflection method”, but the driver's gaze direction is detected using another method such as the “eye-iris method”. May be.

また、上述した実施形態では、9個の固定注視ポイントをドライバが順番に注視するキャリブレーションが採用されているが、固定注視ポイントの個数は9個以外の複数であってもよい。固定注視ポイントの個数を増やすほど、視線方向の検出精度は向上するが、キャリブレーションに要する時間が増加することになる。したがって、このトレードオフの関係を考慮して固定注視ポイントの個数を決定すればよい。   In the above-described embodiment, the calibration in which the driver gazes at the nine fixed gaze points in order is adopted, but the number of fixed gaze points may be a plurality other than nine. As the number of fixed gaze points increases, the detection accuracy in the gaze direction improves, but the time required for calibration increases. Therefore, the number of fixed gaze points may be determined in consideration of this trade-off relationship.

また、複数の固定注視ポイントをドライバが順番に注視するキャリブレーションの代わりに、移動する注視ポイントをドライバが目で追って注視するキャリブレーションを採用してもよい。   Moreover, you may employ | adopt the calibration in which a driver gazes at a moving gaze point with the eyes instead of the calibration in which a driver gazes a plurality of fixed gaze points in order.

11c 判定部
11d 生成部
11e 再開部
11h 正常判定部
11i 提案部
12 不揮発性メモリ
15 通信部
101 第1実施形態に係る視線方向検出装置
102 第2実施形態に係る視線方向検出装置
200 サーバー
11c determination unit 11d generation unit 11e resumption unit 11h normality determination unit 11i proposal unit 12 nonvolatile memory 15 communication unit 101 gaze direction detection device 102 according to the first embodiment 102 gaze direction detection device according to the second embodiment 200 server

Claims (9)

視線方向検出に関するキャリブレーションの中断の有無を判定する判定部と、
前記判定部によって中断有りと判定された場合に前記キャリブレーションの途中データを生成する生成部と、
前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する再開部と、
を備える、視線方向検出装置。
A determination unit that determines whether or not calibration is interrupted with respect to the gaze direction detection;
A generation unit that generates data during the calibration when the determination unit determines that there is an interruption;
A resuming unit for resuming the calibration with the content based on the halfway data of the calibration;
A gaze direction detecting device.
前記キャリブレーションの途中データは個人識別情報を含む、請求項1に記載の視線方向検出装置。   The gaze direction detection device according to claim 1, wherein the calibration intermediate data includes personal identification information. 前記キャリブレーションの途中データを保存する保存部を備える、請求項1又は請求項2に記載の視線方向検出装置。   The line-of-sight direction detection apparatus according to claim 1, further comprising a storage unit that stores data during the calibration. 前記キャリブレーションの途中データをサーバーに送信する送信部と、
前記キャリブレーションの途中データを前記サーバーから受信する受信部と、を備え、
前記再開部は、前記受信部によって受信された前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する、請求項1又は請求項2に記載の視線方向検出装置。
A transmission unit for transmitting data during the calibration to the server;
A receiving unit that receives the midway data of the calibration from the server,
The gaze direction detection device according to claim 1, wherein the resuming unit resumes the calibration with a content based on halfway data of the calibration received by the receiving unit.
前記キャリブレーションの途中データのうち、どの区間が正常であるかを判定する正常判定部を備え、
前記再開部は、前記正常判定部によって正常であると判定された区間に基づく内容で前記キャリブレーションを再開する、請求項1〜4のいずれか一項に記載の視線方向検出装置。
A normality determination unit that determines which section is normal in the midway data of the calibration,
The line-of-sight direction detection apparatus according to claim 1, wherein the resuming unit resumes the calibration with a content based on a section determined to be normal by the normality determining unit.
前記判定部は、前記キャリブレーションの最中の視線方向検出結果に基づいて、前記キャリブレーションの中断の有無を判定する、請求項1〜5のいずれか一項に記載の視線方向検出装置。   The gaze direction detection device according to claim 1, wherein the determination unit determines whether or not the calibration is interrupted based on a gaze direction detection result during the calibration. 前記判定部は、前記視線方向検出装置が搭載される車両の状況に基づいて、前記キャリブレーションの中断の有無を判定する、請求項1〜6のいずれか一項に記載の視線方向検出装置。   The gaze direction detection device according to any one of claims 1 to 6, wherein the determination unit determines whether or not the calibration is interrupted based on a situation of a vehicle on which the gaze direction detection device is mounted. 前記視線方向検出装置が搭載される車両の状況に基づいて、前記キャリブレーションの再開を提案する提案部を備える、請求項1〜7のいずれか一項に記載の視線方向検出装置。   The gaze direction detection device according to any one of claims 1 to 7, further comprising a proposing unit that proposes resumption of the calibration based on a situation of a vehicle on which the gaze direction detection device is mounted. 視線方向検出装置のキャリブレーション方法であって、
視線方向検出に関するキャリブレーションの中断の有無を判定する判定工程と、
前記判定部によって中断有りと判定された場合に前記キャリブレーションの途中データを生成する生成工程と、
前記キャリブレーションの途中データに基づく内容で前記キャリブレーションを再開する再開工程と、
を備える、キャリブレーション方法。
A method for calibrating a gaze direction detecting device,
A determination step for determining whether or not calibration is interrupted with respect to the gaze direction detection;
A generation step of generating halfway data of the calibration when the determination unit determines that there is an interruption;
A resuming step of resuming the calibration with the content based on mid-calibration data;
A calibration method comprising:
JP2017169516A 2017-09-04 2017-09-04 Sight line direction detecting apparatus and calibration method Pending JP2019046240A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169516A JP2019046240A (en) 2017-09-04 2017-09-04 Sight line direction detecting apparatus and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169516A JP2019046240A (en) 2017-09-04 2017-09-04 Sight line direction detecting apparatus and calibration method

Publications (1)

Publication Number Publication Date
JP2019046240A true JP2019046240A (en) 2019-03-22

Family

ID=65815717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169516A Pending JP2019046240A (en) 2017-09-04 2017-09-04 Sight line direction detecting apparatus and calibration method

Country Status (1)

Country Link
JP (1) JP2019046240A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021133056A1 (en) 2020-12-28 2022-06-30 Subaru Corporation HEADING CALIBRATION SYSTEM

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021133056A1 (en) 2020-12-28 2022-06-30 Subaru Corporation HEADING CALIBRATION SYSTEM

Similar Documents

Publication Publication Date Title
JP4277081B2 (en) Driving assistance device
US9043042B2 (en) Method to map gaze position to information display in vehicle
US11205348B2 (en) Drive assist device
US10288882B2 (en) Head mounted display device
US11372249B2 (en) Information processing device and information processing method
US20160342205A1 (en) Display control apparatus, display control method of display control apparatus, and eye gaze direction detection system
US20160004321A1 (en) Information processing device, gesture detection method, and gesture detection program
JP5047650B2 (en) In-vehicle camera system
JP2010018201A (en) Driver assistant device, driver assistant method, and driver assistant processing program
WO2021082483A1 (en) Method and apparatus for controlling vehicle
CN107010077B (en) Method for transmitting information to a driver of a motor vehicle and adaptive driver assistance system
TWI532377B (en) Image sesning system, image sensing method, eye tracking system, eye tracking method
JP2016055801A (en) On-vehicle display device
WO2019198172A1 (en) Line-of-sight guidance device and line-of-sight guidance method
JP2012216123A (en) Head-mounted display and program used therefor
CN112748798B (en) Eyeball tracking calibration method and related equipment
KR20190105152A (en) Autonomous driving control apparatus and method for notifying departure of forward vehicle thereof
JP2012113450A (en) Arousal determination device, arousal determination method, and program
JP2010029262A (en) Sight line measuring apparatus and program
JP2019046240A (en) Sight line direction detecting apparatus and calibration method
WO2024067786A1 (en) Control method and apparatus for head-mounted display device, and electronic device and storage medium
JP2017191367A (en) Safe driving support device and safe driving support program
JP2019095892A (en) Vehicle drive supporting device and vehicle drive supporting program
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
KR20170112885A (en) Vehicle control apparatus and method thereof