JP2022128697A - Sight line detection apparatus - Google Patents

Sight line detection apparatus Download PDF

Info

Publication number
JP2022128697A
JP2022128697A JP2021027059A JP2021027059A JP2022128697A JP 2022128697 A JP2022128697 A JP 2022128697A JP 2021027059 A JP2021027059 A JP 2021027059A JP 2021027059 A JP2021027059 A JP 2021027059A JP 2022128697 A JP2022128697 A JP 2022128697A
Authority
JP
Japan
Prior art keywords
line
sight
vehicle
sight line
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021027059A
Other languages
Japanese (ja)
Inventor
勇氣 ▲高▼橋
Yuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2021027059A priority Critical patent/JP2022128697A/en
Publication of JP2022128697A publication Critical patent/JP2022128697A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To provide a sight line detection apparatus that can provide accurate sight line data of a driver in an on-vehicle environment.SOLUTION: A sight line detection apparatus 1 includes a camera 12 that photographs the face of a driver 11 to acquire facial image, and a processing unit 13 that calculates sight line data of the driver 11 from the facial image. The processing unit 13 includes a sight line data collection mode for storing the sight line data in a storage unit, and a sight line data calibration mode for calibrating the sight line data. The sight line data calibration mode calculates a plurality of high frequency gaze scopes which are frequently gazed among a plurality of gaze scopes set based on in-vehicle information, calculates a sight line distribution based on the plurality of sight line data stored in the storage unit, and specifies an actual sight line position scope corresponding to each of the high frequency gaze scopes from the sight line distribution. The sight line data calibration mode calculates a correction value of the sight ling data based on a relative position of the plurality of high frequency gaze scopes and a relative position of the plurality of actual sight line position scope, and corrects and generates the sight line data based on the calculated correction value.SELECTED DRAWING: Figure 6

Description

本発明は、視線検出装置に関する。 The present invention relates to a line-of-sight detection device.

従来、運転者の顔を撮影した動画から、画像処理により運転者の視線を推定する視線推定装置、視線検出装置が知られている(例えば、特許文献1-3参照)。 2. Description of the Related Art Conventionally, a line-of-sight estimation device and a line-of-sight detection device for estimating a driver's line of sight by image processing from a moving image of a driver's face have been known (see Patent Documents 1 to 3, for example).

特開2010-23670号公報Japanese Patent Application Laid-Open No. 2010-23670 特開2005-261728号公報JP-A-2005-261728 特開2008-210239号公報Japanese Unexamined Patent Application Publication No. 2008-210239

従来の視線検出装置では、運転者の視線を検出するためには、運転者の顔画像から黒目の中心位置及び眼球の中心点を正確に検出する必要がある。例えば、眼球の中心点は、見た目には表れないため、眼球の見えている部分で検出したり、目尻-目頭の中心から推定したりしている。そのため、車載環境において、正確な視線検出による視線データの提供が望まれる。 In order to detect the line of sight of the driver, the conventional line-of-sight detection device needs to accurately detect the center position of the iris and the center point of the eyeball from the face image of the driver. For example, since the center point of the eyeball does not appear visually, it is detected from the visible part of the eyeball or estimated from the center of the outer corner-inner corner of the eye. Therefore, in an in-vehicle environment, it is desired to provide line-of-sight data through accurate line-of-sight detection.

本発明は、車載環境において、運転者の正確な視線データを提供することができる視線検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight detection device capable of providing accurate line-of-sight data of a driver in an in-vehicle environment.

上記目的を達成するために、本発明に係る視線検出装置は、車両の運転者の顔を撮影して顔画像を取得する画像取得部と、取得された前記顔画像を画像処理して、少なくとも前記運転者の視線位置を含む視線データを算出する処理部と、を備え、前記処理部は、前記視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、前記視線データを補正する視線データ較正モードと、を有し、前記視線データ較正モードは、前記車両の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出し、前記記憶部に記憶された複数の前記視線データに基づいて視線分布を算出し前記視線分布から各前記高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定し、複数の前記高頻度注視範囲の相対位置と複数の前記実視線位置範囲の相対位置とに基づいて、前記視線データの補正値を算出し、算出された前記補正値に基づいて前記視線データを補正して生成する、ことを特徴とする。 In order to achieve the above object, the line-of-sight detection device according to the present invention includes an image acquisition unit that acquires a face image by photographing the face of a driver of a vehicle; and a processing unit that calculates line-of-sight data including the line-of-sight position of the driver, wherein the processing unit has a line-of-sight data collection mode in which the line-of-sight data is stored in a storage unit in association with time series, and the line-of-sight data is corrected. and a line-of-sight data calibration mode, wherein the line-of-sight data calibration mode selects a plurality of high-frequency gaze ranges from among a plurality of gaze ranges during driving set based on the vehicle interior information. calculating a line-of-sight distribution based on a plurality of the line-of-sight data stored in the storage unit; identifying actual line-of-sight position ranges corresponding to each of the high-frequency gaze ranges from the line-of-sight distribution; calculating a correction value for the line-of-sight data based on the relative position of the gaze range and the relative positions of the plurality of the actual line-of-sight position ranges, and correcting and generating the line-of-sight data based on the calculated correction value; It is characterized by

本発明に係る視線検出装置は、車載環境において、運転者の正確な視線データを提供することができる、という効果を奏する。 INDUSTRIAL APPLICABILITY The line-of-sight detection device according to the present invention has the effect of being able to provide accurate line-of-sight data of a driver in an in-vehicle environment.

図1は、実施形態に係る視線検出装置の適用例を示す模式図である。FIG. 1 is a schematic diagram showing an application example of a line-of-sight detection device according to an embodiment. 図2は、実施形態に係る視線検出装置で実行される視線検出アルゴリズムの概要を示すフローチャート図である。FIG. 2 is a flowchart showing an overview of a line-of-sight detection algorithm executed by the line-of-sight detection device according to the embodiment. 図3(A)は、眼球の三次元(3D)モデル及び二次元(2D)画像の関係を示す模式図、図3(B)は、視線検出装置で実行される黒目検出アルゴリズムの概要を示す模式図である。FIG. 3A is a schematic diagram showing the relationship between a three-dimensional (3D) model of an eyeball and a two-dimensional (2D) image, and FIG. It is a schematic diagram. 図4は、実施形態に係る視線検出装置で実行されるモード切り替えアルゴリズムの概要を示すフローチャート図である。FIG. 4 is a flowchart showing an outline of a mode switching algorithm executed by the line-of-sight detection device according to the embodiment. 図5は、実施形態に係る視線検出装置で実行されるモード切り替えが適用されたときの車両の状態を示す模式図である。FIG. 5 is a schematic diagram showing a state of the vehicle when mode switching performed by the line-of-sight detection device according to the embodiment is applied. 図6は、実施形態に係る視線検出装置で実行される視線データ較正モードアルゴリズムの一例を示すフローチャート図である。FIG. 6 is a flow chart diagram showing an example of a gaze data calibration mode algorithm executed by the gaze detection device according to the embodiment. 図7(A)は、実施形態に係る視線検出装置における複数の高頻度注視範囲の概要を示す模式図、図7(B)は、実施形態に係る視線検出装置における複数の高頻度注視範囲の中心位置の概要を示す模式図である。FIG. 7A is a schematic diagram showing an overview of multiple high-frequency gaze ranges in the line-of-sight detection device according to the embodiment, and FIG. It is a schematic diagram which shows the outline|summary of a center position. 図8は、実施形態に係る視線検出装置における視線位置と視線分布の対応例を示す模式図である。FIG. 8 is a schematic diagram showing an example of correspondence between line-of-sight positions and line-of-sight distributions in the line-of-sight detection device according to the embodiment. 図9は、実施形態に係る視線検出装置による視線検出結果の一例を示すグラフ図である。FIG. 9 is a graph diagram showing an example of a line-of-sight detection result by the line-of-sight detection device according to the embodiment. 図10(A)は、実施形態に係る視線検出装置にて補正値の計算時に利用する一方の多角形の概要を示すグラフ図、図10(B)は、実施形態に係る視線検出装置にて補正値の計算時に利用する他方の多角形の概要を示すグラフ図である。FIG. 10A is a graph diagram showing an outline of one polygon used when calculating a correction value in the line-of-sight detection device according to the embodiment, and FIG. FIG. 10 is a graph diagram showing an overview of the other polygon used when calculating the correction value;

以下に、本発明の実施形態に係る視線検出装置について図面を参照しつつ詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。以下の実施形態における構成要素には、いわゆる当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。また、以下の実施形態における構成要素は、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。 A line-of-sight detection device according to an embodiment of the present invention will be described in detail below with reference to the drawings. In addition, this invention is not limited by embodiment shown below. Components in the following embodiments include components that can be easily assumed by those skilled in the art, or components that are substantially the same. Also, the constituent elements in the following embodiments can be omitted, replaced, and changed in various ways without departing from the scope of the invention.

[実施形態]
図1に示す本実施形態の視線検出装置1は、自動車等の車両2に搭載され、車両2に乗車した運転者11の視線を検出するものである。視線検出装置1は、カメラ12と、処理部13とを含んで構成される。
[Embodiment]
A line-of-sight detection device 1 of this embodiment shown in FIG. The line-of-sight detection device 1 includes a camera 12 and a processing section 13 .

カメラ12は、画像取得部または画像取得装置の一例であり、車両2の運転者11の顔を撮影して運転者の顔を含む顔画像を時系列で取得するものである。カメラ12は、例えば、CCD(Charge-Coupled Device)型のイメージセンサ、CMOS(complementary metal oxide semiconductor)型イメージセンサ等を有するデジタルカメラで構成される。カメラ12は、車両2の車室10内の運転席に着座している運転者11の顔を撮影するために、例えば運転席前方のメータユニット内、または、コラムカバー上部に設置される。カメラ12は、運転者11の目の領域11aを含む顔画像を取得する。カメラ12は、処理部13に電気的に接続されており、取得した顔画像に対応する動画データ(または静止画データ)、顔画像の撮影時刻等の各種情報を処理部13に出力する。 The camera 12 is an example of an image acquisition unit or an image acquisition device, and captures the face of the driver 11 of the vehicle 2 to acquire face images including the driver's face in time series. The camera 12 is, for example, a digital camera having a CCD (Charge-Coupled Device) image sensor, a CMOS (complementary metal oxide semiconductor) image sensor, or the like. The camera 12 is installed, for example, in the meter unit in front of the driver's seat or above the column cover in order to photograph the face of the driver 11 sitting in the driver's seat in the passenger compartment 10 of the vehicle 2 . The camera 12 acquires a facial image including the eye area 11a of the driver 11 . The camera 12 is electrically connected to the processing unit 13 and outputs to the processing unit 13 various kinds of information such as moving image data (or still image data) corresponding to the obtained face image and the shooting time of the face image.

処理部13は、処理装置の一例であり、カメラ12で取得された顔画像を画像処理して、視線データを算出して出力するものである。視線データは、顔画像における目の領域11aから視線11bの方向を示す情報である。具体的には、視線データは、顔画像を画像処理することで得られた運転者11の視線角度、注視位置、及び、顔画像の撮影時刻等が含まれる。視線データは、運転者11が安全確認のための視線移動をしているか否かを車載装置(例えば、運転者11の居眠り等を把握して警告するもの等)が認識するために利用することができる。 The processing unit 13 is an example of a processing device, and performs image processing on the face image acquired by the camera 12 to calculate and output line-of-sight data. The sight line data is information indicating the direction of the sight line 11b from the eye area 11a in the face image. Specifically, the line-of-sight data includes the line-of-sight angle of the driver 11 obtained by image processing the face image, the gaze position, and the photographing time of the face image. The line-of-sight data is used by an in-vehicle device (for example, a device that recognizes whether the driver 11 is dozing off and issues a warning, etc.) to recognize whether or not the driver 11 is moving the line of sight for safety confirmation. can be done.

処理部13は、例えば、視線検出装置1における各種処理機能を実現する処理回路(不図示)を有する。処理回路は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路を意味する。処理部13は、例えば、不図示の記憶回路(記憶部)から読み出したプログラムを実行することにより、各処理機能を実現する。また、処理部13は、複数の視線データを、顔画像の撮影時刻に関連付けて記憶部に記憶することが可能であり、記憶部に記憶された視線データを読み出して画像処理することができる。 The processing unit 13 has, for example, a processing circuit (not shown) that implements various processing functions in the line-of-sight detection device 1 . A processing circuit is implemented by, for example, a processor. A processor means a circuit such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array). The processing unit 13 implements each processing function by, for example, executing a program read from a storage circuit (storage unit) (not shown). Further, the processing unit 13 can store a plurality of pieces of line-of-sight data in association with the photographing time of the face image in the storage unit, and can read the line-of-sight data stored in the storage unit and perform image processing.

処理部13は、視線データ収集モードと、視線データ較正モードとを有する。視線データ収集モードは、視線データを時系列に関連付けて記憶部に記憶するモードである。視線データ較正モードは、視線データ収集モードで記憶部に記憶した視線データにより、当該視線データを補正するモードである。処理部13は、視線データ収集モードと、視線データ較正モードとを切り替えて実行する。処理部13は、例えば、車両2が走行状態であるときは、視線データ収集モードに切り替え、車両2が停止状態にあるときは、視線データ較正モードに切り替える。処理部13は、例えば、車両2側のECU(Electronic Control Unit)から取得した車両状態情報に基づいて、車両2が走行状態か、停止状態かを判定する。車両状態情報は、例えば、車両2の不図示のアクセルペダルやブレーキペダルへの操作がなされたか否かを示すものである。なお、車両2が走行状態か否かを判定には、車両2のアクセルペダルやブレーキペダルへの操作有無だけでなく、走行センサ等を用いて行うようにしてもよい。 The processing unit 13 has a line-of-sight data collection mode and a line-of-sight data calibration mode. The line-of-sight data collection mode is a mode in which line-of-sight data is stored in a storage unit in association with time series. The line-of-sight data calibration mode is a mode for correcting the line-of-sight data using the line-of-sight data stored in the storage unit in the line-of-sight data collection mode. The processing unit 13 switches between a line-of-sight data collection mode and a line-of-sight data calibration mode. For example, the processing unit 13 switches to the line-of-sight data collection mode when the vehicle 2 is running, and switches to the line-of-sight data calibration mode when the vehicle 2 is stopped. The processing unit 13 determines whether the vehicle 2 is in a running state or in a stopped state, for example, based on vehicle state information acquired from an ECU (Electronic Control Unit) of the vehicle 2 side. The vehicle state information indicates, for example, whether or not an accelerator pedal or brake pedal (not shown) of the vehicle 2 has been operated. It should be noted that the determination as to whether the vehicle 2 is in the running state may be made using a running sensor or the like, in addition to whether or not the accelerator pedal or the brake pedal of the vehicle 2 is being operated.

次に、視線検出装置1で実行される視線検出アルゴリズムについて図2を参照して説明する。図2に示す処理は、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。 Next, a line-of-sight detection algorithm executed by the line-of-sight detection device 1 will be described with reference to FIG. In the processing shown in FIG. 2, each step is sequentially performed by the processing unit 13 executing a program read from the storage unit.

カメラ12は、運転者11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。ステップS12では、処理部13は、カメラ12から映像の信号を1フレーム分取り込む。 The camera 12 constantly captures an image of an area including the face of the driver 11 at regular intervals and outputs an image signal. In step S<b>12 , the processing unit 13 acquires one frame of video signals from the camera 12 .

ステップS13では、処理部13は、グレースケール化を含む、画像のデータ形式の変換(下処理)を行う。例えば、1フレーム内の画素位置毎に、輝度を「0~255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向及び横方向に並べた二次元(2D)配列の画像データを生成する。 In step S13, the processing unit 13 performs conversion (preprocessing) of the data format of the image, including grayscaling. For example, for each pixel position within a frame, 8-bit data representing the brightness in a gradation range of "0 to 255" is arranged vertically and horizontally according to the scanning direction within the frame at the time of shooting. (2D) Generate array image data.

ステップS14では、処理部13は、例えば「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。「P.viola and M.J.Jones,Rapid Object Detection Using a Boosted Cascade of Simple Features, IEEE CVPR(2001).」 In step S14, the processing unit 13 performs face detection using, for example, the "Viola-Jones method", and extracts a rectangular area including a face from the two-dimensional image data of one frame. That is, the face region is extracted using a detector that is characterized by the shadow difference of the face and created by learning using “Boosting”. The technique of the "Viola-Jones method" is disclosed, for example, in the following documents. "P. viola and M.J. Jones, Rapid Object Detection Using a Boosted Cascade of Simple Features, IEEE CVPR (2001)."

ステップS15では、処理部13は、ステップS14で抽出した顔の矩形領域のデータの中から、例えば上述したViola-Jones法を用いて目の領域を検出する。 In step S15, the processing unit 13 detects the eye region from the data of the rectangular region of the face extracted in step S14, for example, using the Viola-Jones method described above.

ステップS16では、処理部13は、後述する眼球3Dモデルを用いるモデルベース手法によって視線を検出する場合、眼球中心を推定する。ここでは、ステップS15で検出した目の矩形領域の中心座標を眼球中心と仮定する。例えば、目尻、目頭位置に基づき眼球中心を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することも想定される。 In step S<b>16 , the processing unit 13 estimates the eyeball center when the line of sight is detected by a model-based method using a 3D eyeball model, which will be described later. Here, it is assumed that the center coordinates of the rectangular region of the eye detected in step S15 are the center of the eyeball. For example, a method of determining the center of the eyeball based on the positions of the outer corner and the inner corner of the eye, or a method of estimating the skeleton from the feature points of the face and simultaneously calculating the position of the center of the eyeball may be used.

ステップS17では、処理部13は、ステップS15で検出した目の矩形領域のデータについて、テンプレートマッチングの手法を適用して、黒目(瞳孔または虹彩)の粗探索を行う。具体的には、目周辺を切り出した目画像を二値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目画像中の黒目の中心位置とし、最も尤度の大きかった黒丸画像の半径を目画像中の黒目の半径とする。なお、ステップS17の処理は、目画像中の黒目の中心位置及び半径に関して大凡の目処をつけるために行うものである。 In step S17, the processing unit 13 applies a template matching method to the data of the rectangular region of the eye detected in step S15, and performs rough search for the iris (pupil or iris). Specifically, the coordinates of the image center (the center of the black circle) of the black circle image with the highest likelihood are matched to the image obtained by binarizing the eye image cut out around the eye. The center position of the iris in the image is set, and the radius of the black circle image with the highest likelihood is set as the iris radius in the eye image. Note that the process of step S17 is performed to roughly estimate the center position and radius of the iris in the eye image.

ステップS18では、処理部13は、ステップS17で探索した黒目の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い黒目の中心位置及び半径を検出する。 In step S18, the processing unit 13 uses the center position and radius of the iris searched in step S17 and applies a particle filter technique to detect the center position and radius of the iris with higher accuracy.

ステップS19では、処理部13は、上述したステップS13~ステップS18の処理により、1フレームの画像について、眼球中心座標、黒目の中心位置の座標の数値データを得るので、その数値データを出力する。眼球中心座標および黒目の中心位置の座標により視線の方向を特定できる。また、カメラ12が出力する映像が途切れるまで、ステップS11~ステップS20のループ状の処理を繰り返すことで、リアルタイムでの視線検出を実現する。これらのデータを用いて画像平面上の座標から眼球回転角を計算する際には、図3の(A)に示す、眼球モデルを用いた変換を行う。 In step S19, the processing unit 13 obtains numerical data of eyeball center coordinates and iris center coordinates for one frame image by the processing of steps S13 to S18 described above, and outputs the numerical data. The direction of the line of sight can be specified by the coordinates of the center of the eyeball and the coordinates of the center position of the iris. Real-time line-of-sight detection is realized by repeating the loop-like processing of steps S11 to S20 until the image output by the camera 12 is interrupted. When calculating the eyeball rotation angle from the coordinates on the image plane using these data, conversion using the eyeball model shown in FIG. 3A is performed.

図3の(A)に示す眼球3Dモデル30において、この眼球は、眼球中心31と、眼球半径Rとで表される球体である。また、この眼球の表面には、黒目を構成する円形形状の虹彩32があり、虹彩32の中央には円形形状の瞳孔33がある。視線の方向は、眼球中心31から虹彩32または瞳孔33の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、虹彩32または瞳孔33の中心座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。一方、カメラ12で撮影された映像は、2次元平面を表していることから、カメラ12の撮影で得た二次元画像34を眼球3Dモデル30に適用する場合には、二次元/三次元の相互変換を行う必要がある。例えば、次式を用いて変換する。 In the eyeball 3D model 30 shown in FIG. 3A, the eyeball is a sphere represented by an eyeball center 31 and an eyeball radius R. Also, on the surface of this eyeball, there is a circular iris 32 that constitutes the iris, and a circular pupil 33 is located in the center of the iris 32 . The direction of the line of sight can be specified as the direction from the eyeball center 31 to the center of the iris 32 or the pupil 33, and is determined by the rotation angle yaw with respect to the reference direction in the horizontal plane and the rotation angle pitch (pitch) with respect to the reference direction in the vertical direction. can be represented. Also, the center coordinates of the iris 32 or the pupil 33 can be represented by the eyeball radius R, yaw, and pitch when the eyeball center 31 is used as a reference. On the other hand, since the image captured by the camera 12 represents a two-dimensional plane, when applying the two-dimensional image 34 captured by the camera 12 to the eyeball 3D model 30, two-dimensional/three-dimensional Mutual conversion is required. For example, the conversion is performed using the following formula.

X=-R×cos(pitch)×sin(yaw)・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X=−R×cos(pitch)×sin(yaw) (1)
Y=R×sin(pitch) (2)
X: distance in the x direction from the eyeball center 31 on the two-dimensional image plane Y: distance in the y direction from the eyeball center 31 on the two-dimensional image plane

次に、顔画像から黒目を探索する処理について図3の(B)を参照して説明する。ステップS41では、処理部13は、図2中のステップS15の結果を利用し、1フレーム全体の二次元画像データの中から目及びその周辺の矩形領域を切り出して、データD41を取得する。 Next, the process of searching for black eyes from a face image will be described with reference to FIG. 3B. In step S41, the processing unit 13 uses the result of step S15 in FIG. 2 to extract the eyes and their surrounding rectangular regions from the entire two-dimensional image data of one frame to acquire data D41.

ステップS42では、処理部13は、ステップS41で取得したデータD41を画素毎の階調が黒/白の二値のみになるように二値化したデータD42を生成した後で、このデータD42に対して図2中のステップS17のテンプレートマッチングを実施する。すなわち、黒目の形状に似た黒丸形状の画像をテンプレートとして利用し、このテンプレートをデータD42の画像上で走査しながら、特徴が尤も似ている大凡の黒目の位置を探索し、その位置および黒目の半径または直径を特定する。 In step S42, the processing unit 13 generates data D42 by binarizing the data D41 acquired in step S41 so that the gradation for each pixel is only binary black/white. In contrast, template matching in step S17 in FIG. 2 is performed. That is, an image of a black circle similar to the shape of the iris is used as a template, and while this template is scanned on the image of the data D42, the position of the iris having the most similar characteristics is searched for, and the position and the iris are searched for. Specify the radius or diameter of

ステップS43では、処理部13は、ステップS41で取得した目のデータD41に対してソーベルフィルタの処理を施す。具体的には、目のデータD41を左から右に向かって水平方向に順次に走査し、輝度変化のない部分では黒(階調値:0)を出力し、輝度変化の勾配が大きいほど白(階調値:255)に近づくようにして、エッジを検出する。これにより、エッジを抽出した目画像のデータD43が得られる。 In step S43, the processing unit 13 performs Sobel filter processing on the eye data D41 acquired in step S41. Specifically, the eye data D41 is sequentially scanned in the horizontal direction from left to right, and black (gradation value: 0) is output in portions where there is no luminance change, and white is output as the gradient of luminance change increases. (Gradation value: 255) to detect edges. As a result, edge-extracted eye image data D43 is obtained.

ステップS44では、処理部13は、ステップS42で得られた大凡の黒目の位置を起点として、ステップS43で得られた目画像のデータD43に対してパーティクルフィルタの処理を実行する。パーティクルフィルタによる黒目検出は、以下の[1]~[4]の順に行う。 In step S44, the processing unit 13 performs particle filter processing on the eye image data D43 obtained in step S43, starting from the approximate iris position obtained in step S42. The black eye detection by the particle filter is performed in the order of [1] to [4] below.

[1]処理部13は、テンプレートマッチングで大まかな黒目位置を探索する
[2]処理部13は、眼球3Dモデル30に基づき、上記[1]の黒目位置から眼球回転角を算出する。
[3]処理部13は、上記[2]で得たおおまかな眼球回転角近傍に、黒目楕円候補サンプリングのためのパーティクルを散布する。
[4]処理部13は、ソーベルフィルタのエッジ画像から,各散布位置での尤度を計算し、状態を推定する。
[1] The processing unit 13 searches for a rough iris position by template matching. [2] The processing unit 13 calculates an eyeball rotation angle from the iris position in [1] based on the eyeball 3D model 30 .
[3] The processing unit 13 scatters particles for iris ellipse candidate sampling in the vicinity of the approximate eyeball rotation angle obtained in [2] above.
[4] The processing unit 13 calculates the likelihood at each scattering position from the edge image of the Sobel filter, and estimates the state.

上記[3]の眼球回転角近傍は、図3の(A)に示した眼球3Dモデルのyaw、pitchの値に乱数によるブレを加え複数パターン作成する。このとき、それぞれの回転角から、黒目楕円候補を画像上に投影したものが、D44の円44aの重なりで確認することができる。それぞれの候補楕円円周上から階調値をサンプリングし足し合わせた値を用いて[4]の尤度計算を行う。 In the vicinity of the eyeball rotation angle of [3] above, multiple patterns are created by adding random numbers to the yaw and pitch values of the eyeball 3D model shown in FIG. 3A. At this time, the projected iris ellipse candidate on the image from each rotation angle can be confirmed by the overlap of the circle 44a of D44. The likelihood calculation of [4] is performed using the values obtained by sampling and adding the gradation values from the circumference of each candidate ellipse.

次に、視線検出装置1で実行されるモード切り替えアルゴリズムについて図4を参照して説明する。図4に示す処理は、電源投入(例えばイグニッション・スイッチ(IGN)のON)に応じて、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。 Next, a mode switching algorithm executed by the line-of-sight detection device 1 will be described with reference to FIG. In the process shown in FIG. 4, each step is sequentially performed by the processing unit 13 executing a program read from the storage unit in response to power-on (for example, ignition switch (IGN) ON).

ステップS51では、処理部13は、初期設定処理を行う。初期設定処理では、視線検出に必要なカメラ12の情報の読み込みや、視線検出装置1の正常動作確認を行う。 In step S51, the processing unit 13 performs initial setting processing. In the initial setting process, reading of information of the camera 12 necessary for line-of-sight detection and confirmation of normal operation of the line-of-sight detection device 1 are performed.

ステップS52では、処理部13は、車両2が走行状態か否かを判定する。車両2が走行状態であると判定した場合は、ステップS53へ移行し、視線データ収集モードに切り替える。一方、車両2が停止状態であると判定した場合は、ステップS55の視線データ較正モードに切り替える。つまり、処理部13は、車両2の走行状態に応じて視線データ収集モードと視線データ較正モードとを切り替える。 At step S52, the processing unit 13 determines whether the vehicle 2 is in a running state. When it is determined that the vehicle 2 is in the running state, the process proceeds to step S53 and switches to the line-of-sight data collection mode. On the other hand, when it is determined that the vehicle 2 is stopped, the mode is switched to the line-of-sight data calibration mode in step S55. That is, the processing unit 13 switches between the line-of-sight data collection mode and the line-of-sight data calibration mode according to the running state of the vehicle 2 .

ステップS54では、処理部13は、IGNがOFFされたか否かを判定する。処理部13は、例えば、車両2側のECUから取得したIGN状態情報に基づいて、IGNがON状態か、OFF状態かを判定する。ステップS54でIGNがON状態である場合、ステップS52に戻る。一方、IGNがOFFされた場合、本処理を終了する。 At step S54, the processing unit 13 determines whether or not the IGN is turned off. The processing unit 13 determines whether the IGN is in the ON state or the OFF state, for example, based on the IGN state information acquired from the ECU on the vehicle 2 side. If IGN is ON in step S54, the process returns to step S52. On the other hand, if the IGN is turned off, this processing ends.

本実施形態では、図5に示すように、車両2が一定区間を走行している場合、視線データ収集モードに移行し、一時駐車や信号待ち等の停車状態になると、視線データ較正モードへ移行する。例えば、車両2が交差点に向けて走行状態にあるときは、視線データ収集モードに移行している。一方、車両2が交差点の赤信号に応じて停止し停止状態にあるときは、視線データ収集モードを一時的に停止して視線データ較正モードに移行する。車両2が交差点の青信号に応じて再び走行状態になったときは、視線データ較正モードを一時的に停止して視線データ収集モードに移行する。 In this embodiment, as shown in FIG. 5, when the vehicle 2 is traveling in a certain section, it shifts to the line-of-sight data collection mode. do. For example, when the vehicle 2 is traveling toward an intersection, the line-of-sight data collection mode is entered. On the other hand, when the vehicle 2 stops in response to the red light at the intersection and is in a stopped state, the line-of-sight data collection mode is temporarily stopped and the line-of-sight data calibration mode is entered. When the vehicle 2 becomes running again in response to the green light at the intersection, the line-of-sight data calibration mode is temporarily stopped and the line-of-sight data collection mode is entered.

次に、視線検出装置1で実行される視線データ較正モードのアルゴリズムについて図6を参照して説明する。図6に示す処理は、電源投入(例えばIGNのON)に応じて、処理部13が記憶部から読みだしたプログラムを実行することにより、各ステップが順次行われる。 Next, the algorithm of the line-of-sight data calibration mode executed by the line-of-sight detection device 1 will be described with reference to FIG. In the processing shown in FIG. 6, each step is sequentially performed by the processing unit 13 executing a program read from the storage unit in response to power-on (for example, IGN ON).

ステップS61では、処理部13は、車室内情報を読み出し、当該車室内情報に基づいて複数の高頻度注視範囲を算出する。車室内情報は、例えば、運転者11のアイポイントや車両2の設計値を示す。アイポイントは、運転者11固有のものであってもよいし、車両の設計基準である基準アイポイントであってもよい。アイポイントは、車両2におけるいわゆるアイレンジ内に位置するものとして予め想定される。アイレンジは、車両に応じて予め定まる運転者11の視点が位置する領域に相当する。アイレンジは、車両2において運転者11の目の位置の分布を統計的に表したものであり、例えば、運転者11が運転席に座った状態で所定割合(例えば、95%)の運転者の目の位置が含まれる領域に相当する。車両2の設計値は、例えば、車室10内の設計値である。車室内情報は、車両2の車種によって決定されるため、予め処理部13内の記憶部に登録される。なお、車室内情報は、車両2側のECU等に予め登録され、処理部13が必要に応じて当該ECUから取得する構成であってもよい。 In step S61, the processing unit 13 reads the vehicle interior information, and calculates a plurality of high frequency gaze ranges based on the vehicle interior information. The vehicle interior information indicates, for example, the driver's 11 eyepoint and the design values of the vehicle 2 . The eyepoint may be unique to the driver 11 or may be a reference eyepoint that is a vehicle design standard. The eye point is presumed to be located within the so-called eye range of the vehicle 2 . The eye range corresponds to an area where the viewpoint of the driver 11 is located, which is predetermined according to the vehicle. The eye range statistically represents the distribution of eye positions of the driver 11 in the vehicle 2. For example, when the driver 11 is seated in the driver's seat, a predetermined percentage (eg, 95%) of the drivers corresponds to the region containing the positions of the eyes of The design values of the vehicle 2 are, for example, the design values of the inside of the passenger compartment 10 . Since the vehicle interior information is determined by the vehicle type of the vehicle 2, it is registered in advance in the storage unit within the processing unit 13. FIG. Note that the vehicle interior information may be registered in advance in an ECU or the like on the vehicle 2 side, and the processing unit 13 may acquire the information from the ECU as necessary.

運転者11の運転中の視線は、車両2の前方に存在する対象物、例えば車線、標識、信号器、他の車両、歩行者等におおむね集中する。このとき、運転者11の注視位置(注視方向)は、例えば、図7の(A)に示すように、車両2の前方に想定される運転視野範囲21に含まれる。本実施形態では、運転視野範囲21を、運転者11の注視位置が集中する高頻度注視範囲の1つとする。運転視野範囲21は、一般的に、運転中の運転者11が目を動かさずに見える範囲であり、例えば、矩形状に構成され、運転者11のアイポイント(基準アイポイント)を起点とした、左12°、右11°、上6°、下5°の範囲である。 The line of sight of the driver 11 while driving is generally focused on objects in front of the vehicle 2, such as lanes, signs, traffic lights, other vehicles, pedestrians, and the like. At this time, the gazing position (gazing direction) of the driver 11 is included in the driving visual field range 21 assumed in front of the vehicle 2, as shown in FIG. 7A, for example. In the present embodiment, the driving visual field range 21 is set as one of the high-frequency gaze ranges in which the gaze positions of the driver 11 are concentrated. The driving visual field range 21 is generally a range that can be seen by the driver 11 while driving without moving his or her eyes. , left 12°, right 11°, up 6°, down 5°.

また、運転者11の運転中の視線は、車両2の左右のミラー、車両2のメーター類(例えば、速度計、回転計、ナビ等)に向けられる。左右のミラーやメーター類は、運転視野範囲外であるが、運転に必要な情報を取得するために、運転者11が定期的に視認する必要がある。そこで、運転視野範囲21以外の注視位置として、左ミラーに対応する注視範囲22、右ミラーに対応する注視範囲23、および、メーター類に対応する注視範囲24が含まれる。本実施形態では、左ミラーに対応する注視範囲22、右ミラーに対応する注視範囲23、および、メーター類に対応する注視範囲24を高頻度注視範囲とする。複数の高頻度注視範囲のうち、運転者11が最も注視する範囲は、運転視野範囲21である。次いで右ミラーに対応する注視範囲23、左ミラーに対応する注視範囲22、メーター類に対応する注視範囲24の順となる。 In addition, the line of sight of the driver 11 during driving is directed to the left and right mirrors of the vehicle 2 and the meters of the vehicle 2 (eg, speedometer, tachometer, navigation, etc.). Although the left and right mirrors and meters are outside the driver's field of vision, the driver 11 needs to view them periodically to obtain information necessary for driving. Therefore, gaze positions other than the driving visual field range 21 include a gaze range 22 corresponding to the left mirror, a gaze range 23 corresponding to the right mirror, and a gaze range 24 corresponding to the meters. In this embodiment, the high frequency gaze range is defined as a gaze range 22 corresponding to the left mirror, a gaze range 23 corresponding to the right mirror, and a gaze range 24 corresponding to the meters. Among the multiple high-frequency gaze ranges, the driver's 11 most gazed range is the driving visual field range 21 . This is followed by a gaze range 23 corresponding to the right mirror, a gaze range 22 corresponding to the left mirror, and a gaze range 24 corresponding to the meters.

ステップS61において、処理部13は、複数の高頻度注視範囲の相対位置を算出する。まず、処理部13は、アイポイント、車両2の設計値に基づいて、各高頻度注視範囲の中心位置を算出する。運転視野範囲21の車両2の水平方向における相対位置は、図7の(B)に示すように、運転者11のアイポイント及び視野中心を通る仮想線25と、当該アイポイント及び運転視野範囲21の中心位置21aを通る仮想線26とがなす角度θd(挟角度の方)で算出される。右ミラーに対応する注視範囲23の車両2の水平方向における相対位置は、図7の(B)に示すように、仮想線25と、アイポイント及び右ミラーの中心位置23aを通る仮想線27とがなす角度θR(挟角度の方)で算出される。左ミラーに対応する注視範囲22の車両2の水平方向における相対位置は、図7の(B)に示すように、仮想線25と、アイポイント及び左ミラーの中心位置22aを通る仮想線28とがなす角度θL(挟角度の方)で算出される。このように、処理部13は、算出された角度θd,θR,θLに基づいて、車両2の水平方向における各高頻度注視範囲の相対位置を算出する。また、処理部13は、上記と同様の方法で、車両2の垂直方向における各高頻度注視範囲の相対位置を算出する。 In step S61, the processing unit 13 calculates the relative positions of multiple high-frequency gaze ranges. First, the processing unit 13 calculates the central position of each high-frequency fixation range based on the eye point and the design values of the vehicle 2 . The relative position of the driving visual field range 21 in the horizontal direction of the vehicle 2 is, as shown in FIG. is calculated by the angle θd (the included angle) formed by a virtual line 26 passing through the center position 21a of . The relative position of the gaze range 23 corresponding to the right mirror in the horizontal direction of the vehicle 2 is, as shown in FIG. It is calculated by the angle θR (the side of the included angle) formed by The relative position of the gaze range 22 corresponding to the left mirror in the horizontal direction of the vehicle 2 is, as shown in FIG. It is calculated by the angle θL (the side of the included angle) formed by In this way, the processing unit 13 calculates the relative position of each high-frequency gaze range in the horizontal direction of the vehicle 2 based on the calculated angles θd, θR, and θL. The processing unit 13 also calculates the relative position of each high-frequency gaze range in the vertical direction of the vehicle 2 by the same method as described above.

ステップS62では、処理部13は、視線データ収集モード時において記憶された複数の視線データに基づいて視線位置の分布(以下、「視線分布」とも呼ぶ)を算出する(図8)。視線分布は、視線位置の分布数:dist、分布幅:σ、中央値:g(yaw,pitch)を含む。まず、複数の視線データから得られた視線分布のうち、分布数の最も多い範囲41を第1分布Gd1とし、次いで分布数の多い範囲42を第2分布Gd2,次いで分布数の多い範囲43を第3分布Gd3,…とする(図9)。次に、処理部13は、第1分布Gd1,第2分布Gd2,第3分布Gd3,…それぞれの視線分布の中央値と分布範囲(標準偏差σ)を算出する。なお、第2分布Gd2、第3分布Gd3は、第1分布Gd1の20%~5%の範囲の分布数とし、分布数が5%以下の分布は廃棄する。 In step S62, the processing unit 13 calculates the distribution of line-of-sight positions (hereinafter also referred to as "line-of-sight distribution") based on the plurality of pieces of line-of-sight data stored in the line-of-sight data collection mode (FIG. 8). The line-of-sight distribution includes line-of-sight position distribution number: dist, distribution width: σ, median: g(yaw, pitch). First, among the line-of-sight distributions obtained from a plurality of line-of-sight data, the range 41 with the largest number of distributions is defined as the first distribution Gd1, the range 42 with the second largest number of distributions is defined as the second distribution Gd2, and the range 43 with the second largest number of distributions is defined as Gd2. Let the third distribution be Gd3, . . . (FIG. 9). Next, the processing unit 13 calculates the median value and the distribution range (standard deviation σ) of each of the first distribution Gd1, the second distribution Gd2, the third distribution Gd3, . . . The second distribution Gd2 and the third distribution Gd3 have distribution numbers in the range of 20% to 5% of the first distribution Gd1, and distributions with a distribution number of 5% or less are discarded.

ステップS63では、処理部13は、ステップS61で算出した複数の高頻度注視範囲と、ステップS62で算出した複数の実視線位置範囲との対応関係を求める。本実施形態では、第1分布Gd1(41)、第2分布Gd2(42),第3分布Gd3(43),…を、実視線位置範囲とする。まず、処理部13は、視線分布のうち、分布数が最も多い範囲が第1分布Gd1であることから、当該第1分布Gd1を運転視野範囲21に対応させる。次に、第2分布Gd2,第3分布Gd3,…と、注視範囲22,23,…との対応を調べるために、処理部13は、既知の注視範囲22,23,…の視線角度と、視線分布Gdn(n=2,3,4,…)の中央値(中心位置)との距離(ユーグリッド距離)を下式(3)により算出する。この結果、距離dが最小のものを対応させる。 In step S63, the processing unit 13 obtains the correspondence relationship between the multiple high-frequency gaze ranges calculated in step S61 and the multiple real line-of-sight position ranges calculated in step S62. In this embodiment, the first distribution Gd1 (41), the second distribution Gd2 (42), the third distribution Gd3 (43), . First, the processing unit 13 associates the first distribution Gd1 with the driving visual field range 21 because the range having the largest number of distributions among the visual line distributions is the first distribution Gd1. Next, in order to check the correspondence between the second distribution Gd2, the third distribution Gd3, . . . and the gaze ranges 22, 23, . A distance (Euglid distance) from the median (center position) of the line-of-sight distribution Gdn (n=2, 3, 4, . . . ) is calculated by the following equation (3). As a result, the one with the smallest distance d is matched.

距離d={(Gdn.yaw-R.yaw)+(Gdn.pitch-R.pitch)1/2・・・(3) Distance d={(Gdn.yaw−R.yaw) 2 +(Gdn.pitch−R.pitch) 2 } 1/2 (3)

上式(3)は、視線分布Gdnと右ミラーに対応する注視範囲23との間の距離dに対応するものである。処理部13は、式(3)を用いて、視線分布Gdnと注視範囲22,23,…との間の距離dを算出し、各高頻度注視範囲に対応する実視線位置範囲を特定する。 The above formula (3) corresponds to the distance d between the line-of-sight distribution Gdn and the gaze range 23 corresponding to the right mirror. The processing unit 13 uses Equation (3) to calculate the distance d between the line-of-sight distribution Gdn and the gaze ranges 22, 23, .

ステップS64では、処理部13は、補正値計算が可能か否かを判定する。運転者11の視線の誤検出や運転中の予期しない視認行動が発生し、運転視野、右ミラー、左ミラー、メーター類以外の部分に視線が分布してしまう場合がある。このような場合には、視線データに対する補正の精度が大きく低下してしまうため、運転区間にて想定される視線分布になっているか否かを、補正値を算出する前にチェックする。チェックは以下の2項目で実施する。 In step S64, the processing unit 13 determines whether correction value calculation is possible. False detection of the line of sight of the driver 11 or unexpected viewing behavior during driving may occur, and the line of sight may be distributed to portions other than the driving visual field, the right mirror, the left mirror, and the meters. In such a case, the accuracy of correcting the line-of-sight data is greatly reduced, so whether or not the line-of-sight distribution is as expected in the driving section is checked before calculating the correction value. The following two items are checked.

標準偏差値:σ
処理部13は、運転視野範囲21の分布幅と第1分布Gd1の分布幅とを比較する。分布幅が一定幅(閾値)より大きく異なる場合、処理部13は、補正値として適当でないと判断し、補正値計算できないと判定する。また、右ミラーに対応する注視範囲23、及び、左ミラーに対応する注視範囲22は、車両2の設計値より相当する角度範囲(左右それぞれのミラーが視認できる範囲)が決められるため、それらを参考に、補正値として適当か否か判断される。
Standard deviation value: σ
The processing unit 13 compares the distribution width of the driving visual field range 21 and the distribution width of the first distribution Gd1. If the distribution width differs more than a certain width (threshold value), the processing unit 13 determines that the correction value is not appropriate and that the correction value cannot be calculated. In addition, since the angle ranges corresponding to the gaze range 23 corresponding to the right mirror and the gaze range 22 corresponding to the left mirror are determined from the design values of the vehicle 2 (ranges in which the left and right mirrors can be visually recognized), they are For reference, it is determined whether or not the correction value is appropriate.

距離:d
処理部13は、運転視野範囲21、注視範囲22,23の中心位置21a,22a,23aと、それぞれに対応する第1分布Gd1,第2分布Gd2,第3分布Gd3間の距離dより判断する。距離dが一定距離(閾値)より離れすぎている場合、処理部13は、補正値として適当でないと判断し、補正値計算できないと判定する。本実施形態では、目安として5度以内とする。目安の5度は、人間の眼球における視軸と光軸とのズレと同じである。また、目安の5度は、実際に使用する視線検出装置(視線計測システム等)の検出精度(計測精度)を参考に決めることもできる。なお、距離dは、上記式(3)により求める。
Distance: d
The processing unit 13 determines from the distance d between the center positions 21a, 22a, and 23a of the driving visual field range 21 and the gaze ranges 22 and 23, and the corresponding first distribution Gd1, second distribution Gd2, and third distribution Gd3. . If the distance d is too far from the fixed distance (threshold value), the processing unit 13 determines that the correction value is not appropriate and that the correction value cannot be calculated. In this embodiment, as a guideline, it is within 5 degrees. The standard of 5 degrees is the same as the deviation between the visual axis and the optical axis of the human eyeball. In addition, the target of 5 degrees can also be determined with reference to the detection accuracy (measurement accuracy) of a line-of-sight detection device (such as a line-of-sight measurement system) that is actually used. Note that the distance d is obtained by the above formula (3).

ステップS64の判定の結果、補正値計算が可能でない場合は、本処理を終了する。一方、補正値計算が可能である場合は、ステップS65へ進む。 If the correction value calculation is not possible as a result of the determination in step S64, this process ends. On the other hand, if correction value calculation is possible, the process proceeds to step S65.

ステップS65では、処理部13は、複数の高頻度注視範囲の相対位置と複数の実視線位置範囲の相対位置とに基づいて、視線データの補正値を算出する。まず、処理部13は、運転視野範囲21、注視範囲22,23の各中心位置21a,22a,23aを頂点とする三角形51の形状(図10の(B))と、それらに対応する第1分布Gd1(41)、第2分布Gd2(42)、第3分布Gd3(43)の各実中心位置41a,43a,42aを頂点とする三角形52の形状(図10の(A))とを比較する。三角形51,52の形状変化は、下式(4)にて算出することができる。三角形51の一点D(x,y)が形状変化後にGd1(x’,y’)になるものとする。このとき、変換行列を用いて、形状変化は下式(4)で表される。 In step S<b>65 , the processing unit 13 calculates the correction value of the line-of-sight data based on the relative positions of the multiple high-frequency gaze ranges and the relative positions of the multiple actual line-of-sight position ranges. First, the processing unit 13 determines the shape of a triangle 51 ((B) in FIG. 10) having the vertices at the center positions 21a, 22a, and 23a of the driving visual field range 21 and the gaze ranges 22 and 23, and the corresponding first Comparison with the shape of a triangle 52 ((A) in FIG. 10) having vertices at the real center positions 41a, 43a, and 42a of the distribution Gd1 (41), the second distribution Gd2 (42), and the third distribution Gd3 (43) do. The shape change of the triangles 51 and 52 can be calculated by the following formula (4). It is assumed that one point D(x, y) of the triangle 51 becomes Gd1(x', y') after the shape change. At this time, the shape change is represented by the following equation (4) using the transformation matrix.

Figure 2022128697000002
Figure 2022128697000002

ただし、補正行列Aは、下記とする。

Figure 2022128697000003

However, the correction matrix A is as follows.
Figure 2022128697000003

補正行列Aの成分を求めるためには、対応する3以上の点が必要であるため、対応する運転視野範囲21、注視範囲22,23と、第1分布Gd1、第2分布Gd2、第3分布Gd3との3組を用いる。 In order to obtain the components of the correction matrix A, three or more corresponding points are required. A triplicate with Gd3 is used.

ステップS66では、処理部13は、算出した補正行列Aを、視線データの補正値として記憶部に保存する。 In step S66, the processing unit 13 stores the calculated correction matrix A in the storage unit as correction values for line-of-sight data.

処理部13は、視線データ収集モードで検出した視線角度G(y,p)を、補正行列Aを用いて下式(5)で算出する。視線角度Gc(y’,p’)は、式(5)により求めることができる。 The processing unit 13 uses the correction matrix A to calculate the line-of-sight angle G(y, p) detected in the line-of-sight data collection mode using the following equation (5). The line-of-sight angle Gc(y', p') can be obtained by Equation (5).

Figure 2022128697000004
Figure 2022128697000004

処理部13は、視線データの補正値を用いて、記憶部に記憶されている視線データを補正し、補正後の視線データを車載装置に出力する。車載装置は、補正後の視線データを用いることで、例えば、運転者11の視認行動を正確に把握することが可能となる。 The processing unit 13 corrects the line-of-sight data stored in the storage unit using the correction value of the line-of-sight data, and outputs the corrected line-of-sight data to the in-vehicle device. By using the corrected line-of-sight data, the in-vehicle device can, for example, accurately grasp the visual recognition behavior of the driver 11 .

以上説明した視線検出装置1は、車両2の運転者11の顔を撮影して顔画像を取得するカメラ12と、取得された顔画像を画像処理して、運転者11の視線位置を含む視線データを算出する処理部13とを備える。処理部13は、視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、視線データを補正する視線データ較正モードとを有する。視線データ較正モードは、車両2の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出する。視線データ較正モードは、記憶部に記憶された複数の視線データに基づいて視線分布を算出し視線分布から各高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定する。視線データ較正モードは、複数の高頻度注視範囲の相対位置と複数の実視線位置範囲の相対位置とに基づいて、視線データの補正値を算出し、算出された補正値に基づいて視線データを補正して生成する。 The line-of-sight detection apparatus 1 described above includes a camera 12 that captures the face of the driver 11 of the vehicle 2 to acquire a face image, and an image processing of the acquired face image to detect a line-of-sight including the line-of-sight position of the driver 11 . and a processing unit 13 for calculating data. The processing unit 13 has a line-of-sight data collection mode in which line-of-sight data is stored in the storage unit in a time-series manner, and a line-of-sight data calibration mode in which the line-of-sight data is corrected. In the line-of-sight data calibration mode, a plurality of high frequency gaze ranges are calculated from among a plurality of gaze ranges during driving set based on the vehicle interior information of the vehicle 2 . In the line-of-sight data calibration mode, the line-of-sight distribution is calculated based on a plurality of pieces of line-of-sight data stored in the storage unit, and from the line-of-sight distribution, the actual line-of-sight position range corresponding to each high-frequency gaze range is specified. In the line-of-sight data calibration mode, line-of-sight data correction values are calculated based on the relative positions of multiple high-frequency gaze ranges and the relative positions of multiple actual line-of-sight position ranges, and the line-of-sight data is corrected based on the calculated correction values. Correct and generate.

上記構成により、基準となる車両2側の高頻度注視範囲(21,22,23)と、運転者11の実際の視線分布に基づく実視線位置範囲(Gd1,Gd2,Gd3)とを比較して視線の方向がどれだけずれているかを明確にすることできる。この結果、複数の視線データから全体的な補正値を導きだすことができるので、車載環境における運転者の正確な視線データを提供することが可能となる。また、視線データの測定開始時に実施されていた視線検出装置のキャリブレーション作業が不要となる。 With the above configuration, the reference high-frequency gaze range (21, 22, 23) on the side of the vehicle 2 and the actual line-of-sight position range (Gd1, Gd2, Gd3) based on the actual line-of-sight distribution of the driver 11 are compared. It is possible to clarify how much the direction of the line of sight deviates. As a result, since an overall correction value can be derived from a plurality of line-of-sight data, it is possible to provide accurate line-of-sight data of the driver in the in-vehicle environment. Further, the calibration work of the line-of-sight detection device, which has been performed at the start of measurement of line-of-sight data, becomes unnecessary.

また、視線検出装置1は、処理部13が、車両2が走行状態であるときは、視線データ収集モードに切り替え、車両2が停止状態であるときは、視線データ較正モードに切り替える。車両2が走行状態のときの視線データの利用が望まれるが、視線データの較正を走行中に行うこととなると、処理部13を高性能化する必要がある。また、車両2が停止状態のときに視線データを収集する場合、例えば運転者11がよそ見等をすることで視線データの正確性が低下することから、車両停止時における視線データ収集は不要となる。そこで、車両2が走行状態のときは、視線データ収集モードに切り替え、車両2が停止状態のときは、視線データ較正モードに切り替えることで、処理部13を高性能化することなく、効率よく正確な視線データを提供することができる。 Further, the line-of-sight detection device 1 switches to the line-of-sight data collection mode when the vehicle 2 is running, and switches to the line-of-sight data calibration mode when the vehicle 2 is stopped. Although it is desired to use line-of-sight data when the vehicle 2 is in a running state, the performance of the processing unit 13 needs to be improved if the line-of-sight data is to be calibrated while the vehicle is running. In addition, when collecting line-of-sight data when the vehicle 2 is in a stopped state, the accuracy of the line-of-sight data decreases when, for example, the driver 11 looks away. . Therefore, by switching to the line-of-sight data collection mode when the vehicle 2 is in a running state, and by switching to the line-of-sight data calibration mode when the vehicle 2 is in a stopped state, efficient and accurate data can be obtained without increasing the performance of the processing unit 13 . can provide accurate line-of-sight data.

また、視線検出装置1は、複数の高頻度注視範囲が、車両2の前方の視認範囲に対応する運転視野範囲、車両2の左ミラーに対応する視認範囲、及び、車両2の右ミラーに対応する視認範囲が含まれる。処理部13は、複数の高頻度注視範囲の中心位置を結ぶ三角形と、複数の実視線位置範囲内の視線データに基づいて算出される実中心位置を結ぶ三角形とを比較して視線データの補正値を算出する。これにより、簡単な処理で視線データの補正値の算出が可能となることから、正確性を担保しつつ短時間の停止状態であっても効率よく視線データの補正値を算出ことができる。 Further, in the line-of-sight detection device 1, the plurality of high-frequency gaze ranges correspond to a driving visual field range corresponding to a visible range in front of the vehicle 2, a visible range corresponding to the left mirror of the vehicle 2, and a right mirror of the vehicle 2. The visible range is included. The processing unit 13 corrects the line-of-sight data by comparing the triangle connecting the center positions of the multiple high-frequency gaze ranges with the triangle connecting the actual center positions calculated based on the line-of-sight data within the plurality of actual line-of-sight position ranges. Calculate the value. As a result, since it is possible to calculate the correction value of the line-of-sight data with a simple process, it is possible to efficiently calculate the correction value of the line-of-sight data even in a short-time stop state while ensuring accuracy.

[変形例]
なお、上記実施形態では、処理部13は、3つの高頻度注視範囲の中心位置21a,22a,23aを結ぶ三角形と、3つの実視線位置範囲内の視線データに基づいて算出される実中心位置41a,42a,43aを結ぶ三角形とを比較して視線データの補正値を算出しているが、これに限定されるものではない。例えば、複数の高頻度注視範囲のうち、頻度の高いものから順に4つ以上の高頻度注視範囲の中心位置を結ぶ多角形と、複数の高頻度注視範囲を同数の実視線位置範囲内の視線データに基づく実中心位置41a,42a,43aを結ぶ多角形とを比較して視線データの補正値を算出する構成であってもよい。また、複数の高頻度注視範囲のうち、比較対象となるものの注視範囲の数と、実視線位置範囲の数とは同数であることが好ましい。
[Modification]
In the above embodiment, the processing unit 13 calculates the triangle connecting the center positions 21a, 22a, and 23a of the three high-frequency gaze ranges, and the actual center position calculated based on the line-of-sight data within the three actual line-of-sight position ranges. Although the correction value of line-of-sight data is calculated by comparing with the triangle connecting 41a, 42a, and 43a, it is not limited to this. For example, among multiple high-frequency gaze ranges, a polygon connecting the center positions of four or more high-frequency gaze ranges in descending order, A configuration may be employed in which a correction value for line-of-sight data is calculated by comparing with a polygon connecting real center positions 41a, 42a, and 43a based on data. Further, it is preferable that the number of gaze ranges to be compared among a plurality of high-frequency gaze ranges and the number of actual line-of-sight position ranges be the same.

また、上記実施形態及び変形例では、処理回路は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。処理回路は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、処理回路が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理回路が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。 Further, in the above embodiments and modified examples, the processing circuit is described as one in which each processing function is realized by a single processor, but the present invention is not limited to this. The processing circuit may implement each processing function by combining a plurality of independent processors and having each processor execute a program. Moreover, the processing functions of the processing circuit may be appropriately distributed or integrated in a single or a plurality of processing circuits. Further, the processing functions of the processing circuit may be implemented entirely or in part by a program, or may be implemented by hardware such as wired logic.

また、上記実施形態及び変形例では、視線検出装置1は、自動車等の車両2に適用されているが、これに限定されず、例えば車両2以外の船舶や航空機等に適用してもよい。また、視線検出装置1は、カメラ12と、処理部13とに分かれているが、これに限定されず、一体で構成されていてもよい。 In addition, in the above embodiments and modifications, the line-of-sight detection device 1 is applied to a vehicle 2 such as an automobile, but it is not limited to this, and may be applied to ships, aircraft, etc. other than the vehicle 2, for example. Moreover, although the line-of-sight detection device 1 is divided into the camera 12 and the processing unit 13, it is not limited to this, and may be configured integrally.

以上で説明したプロセッサによって実行されるプログラムは、記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。 The program executed by the processor described above is pre-installed in a memory circuit or the like and provided. This program may be recorded in a computer-readable storage medium and provided as a file in a format that can be installed in these devices or in a format that can be executed. Also, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network.

1 視線検出装置
2 車両
10 車室
11 運転者
12 カメラ
13 処理部
21 運転視野範囲
22,23 注視範囲
21a,22a,23a 中心位置
Reference Signs List 1 line-of-sight detection device 2 vehicle 10 vehicle interior 11 driver 12 camera 13 processing unit 21 driving visual field range 22, 23 gaze range 21a, 22a, 23a center position

Claims (3)

車両の運転者の顔を撮影して顔画像を取得する画像取得部と、
取得された前記顔画像を画像処理して、少なくとも前記運転者の視線位置を含む視線データを算出する処理部と、を備え、
前記処理部は、
前記視線データを時系列に関連付けて記憶部に記憶する視線データ収集モードと、
前記視線データを補正する視線データ較正モードと、を有し、
前記視線データ較正モードは、
前記車両の車室内情報に基づいて設定される運転時の複数の注視範囲のうち、頻度の高い複数の高頻度注視範囲を算出し、
前記記憶部に記憶された複数の前記視線データに基づいて視線分布を算出し前記視線分布から各前記高頻度注視範囲に対応する実視線位置範囲をそれぞれ特定し、
複数の前記高頻度注視範囲の相対位置と複数の前記実視線位置範囲の相対位置とに基づいて、前記視線データの補正値を算出し、
算出された前記補正値に基づいて前記視線データを補正して生成する、
ことを特徴とする視線検出装置。
an image acquisition unit that acquires a face image by photographing the face of the driver of the vehicle;
a processing unit that performs image processing on the acquired face image to calculate line-of-sight data including at least the line-of-sight position of the driver;
The processing unit is
a line-of-sight data collection mode in which the line-of-sight data is associated with time series and stored in a storage unit;
a line-of-sight data calibration mode for correcting the line-of-sight data;
The line-of-sight data calibration mode includes:
calculating a plurality of high-frequency gaze ranges with high frequency among a plurality of gaze ranges during driving set based on the vehicle interior information;
calculating a line-of-sight distribution based on the plurality of line-of-sight data stored in the storage unit, and specifying actual line-of-sight position ranges corresponding to each of the high-frequency gaze ranges from the line-of-sight distribution;
calculating a correction value for the line-of-sight data based on the relative positions of the plurality of high-frequency gaze ranges and the relative positions of the plurality of actual line-of-sight position ranges;
correcting and generating the line-of-sight data based on the calculated correction value;
A line-of-sight detection device characterized by:
前記処理部は、
前記車両が走行状態であるときは、前記視線データ収集モードに切り替え、
前記車両が停止状態であるときは、前記視線データ較正モードに切り替える、
請求項1に記載の視線検出装置。
The processing unit is
when the vehicle is in a running state, switching to the line-of-sight data collection mode;
Switching to the line-of-sight data calibration mode when the vehicle is stationary;
The line-of-sight detection device according to claim 1 .
複数の前記高頻度注視範囲は、
前記車両の前方の視認範囲に対応する運転視野範囲、前記車両の左ミラーに対応する視認範囲、及び、前記車両の右ミラーに対応する視認範囲が含まれ、
前記処理部は、
複数の前記高頻度注視範囲の中心位置を結ぶ多角形と、複数の前記実視線位置範囲内の視線データに基づいて算出される実中心位置を結ぶ多角形とを比較して前記視線データの補正値を算出する、
請求項1または2に記載の視線検出装置。
The plurality of high-frequency gaze ranges are
A driving visual field range corresponding to a visual range in front of the vehicle, a visual range corresponding to the left mirror of the vehicle, and a visual range corresponding to the right mirror of the vehicle,
The processing unit is
correcting the line-of-sight data by comparing a polygon connecting the center positions of the plurality of high-frequency gaze ranges with a polygon connecting the actual center positions calculated based on the line-of-sight data within the plurality of the actual line-of-sight position ranges; calculate the value,
The line-of-sight detection device according to claim 1 or 2.
JP2021027059A 2021-02-24 2021-02-24 Sight line detection apparatus Pending JP2022128697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027059A JP2022128697A (en) 2021-02-24 2021-02-24 Sight line detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027059A JP2022128697A (en) 2021-02-24 2021-02-24 Sight line detection apparatus

Publications (1)

Publication Number Publication Date
JP2022128697A true JP2022128697A (en) 2022-09-05

Family

ID=83150350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027059A Pending JP2022128697A (en) 2021-02-24 2021-02-24 Sight line detection apparatus

Country Status (1)

Country Link
JP (1) JP2022128697A (en)

Similar Documents

Publication Publication Date Title
US10684681B2 (en) Neural network image processing apparatus
US8649583B2 (en) Pupil detection device and pupil detection method
US9405982B2 (en) Driver gaze detection system
JPWO2020121973A1 (en) Learning methods for object identification systems, arithmetic processing devices, automobiles, lamps for vehicles, and classifiers
JP4263737B2 (en) Pedestrian detection device
CN110703904B (en) Visual line tracking-based augmented virtual reality projection method and system
US8345922B2 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP2019527448A (en) Method and system for monitoring the status of a vehicle driver
EP2541493B1 (en) Pupil detection device and pupil detection method
JP6819996B2 (en) Traffic signal recognition method and traffic signal recognition device
EP2620907A1 (en) Pupil detection device and pupil detection method
US11455810B2 (en) Driver attention state estimation
EP1703480B1 (en) System and method to determine awareness
CN111527374B (en) Sight direction correction device, sight direction correction method, and sight direction correction program
JP2010191793A (en) Alarm display and alarm display method
US11657592B2 (en) Systems and methods for object recognition
JP2007164517A (en) Graphic center detection method, ellipse detection method, image recognition device and controller
CN106991376B (en) Depth information-combined side face verification method and device and electronic device
JP2021051347A (en) Distance image generation apparatus and distance image generation method
WO2018051836A1 (en) Iris detection device, iris detection method, iris detection program, and recording medium onto which iris detection program is recorded
JP4701961B2 (en) Pedestrian detection device
JP2022128697A (en) Sight line detection apparatus
JP7278425B2 (en) Pupil detection device, line-of-sight detection device, passenger monitoring system, and pupil detection method
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP2009110065A (en) Driving support device