JP2018101211A - On-vehicle device - Google Patents

On-vehicle device Download PDF

Info

Publication number
JP2018101211A
JP2018101211A JP2016245793A JP2016245793A JP2018101211A JP 2018101211 A JP2018101211 A JP 2018101211A JP 2016245793 A JP2016245793 A JP 2016245793A JP 2016245793 A JP2016245793 A JP 2016245793A JP 2018101211 A JP2018101211 A JP 2018101211A
Authority
JP
Japan
Prior art keywords
center
eyeball
face
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016245793A
Other languages
Japanese (ja)
Other versions
JP6906943B2 (en
Inventor
勇氣 ▲高▼橋
勇氣 ▲高▼橋
Yuki Takahashi
尚武 佐久本
Naotake Sakumoto
尚武 佐久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2016245793A priority Critical patent/JP6906943B2/en
Publication of JP2018101211A publication Critical patent/JP2018101211A/en
Application granted granted Critical
Publication of JP6906943B2 publication Critical patent/JP6906943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle device that can improve the accuracy in detecting the position of the eyeball center and thereby improving the accuracy in measuring the line of sight.SOLUTION: An on-vehicle device calculates the degree of the face directed to the front side and the degree of the line of sight directed to the front side on the basis of a user's face image data picked up with a camera, when the face is directed to the front side and the line of sight is directed to the front side, newly calculates the coordinates of the eyeball center, reflects the coordinates on the center coordinates of a three-dimensional eyeball model, and automatically calibrates the coordinates, when the face is directed to the front side and the line of sight is directed to the front side, calculates the position of the iris center, calculates the angle of the line of sight on the basis of the distance between the position of the iris center and the center line of a face image, and calculates the coordinates of the eyeball center in the three-dimensional eyeball model on the basis of the position of the iris center and the angle of the line of sight, repeats processing to calculate the coordinates of the eyeball center and updates the coordinates of the eyeball center in the three-dimensional model by using an averaged coordinate value, and thereby can reduce an influence of noise.SELECTED DRAWING: Figure 4

Description

本発明は、顔を含むように撮影された顔画像を利用する車載器に関し、特にキャリブレーションの技術に関する。   The present invention relates to a vehicle-mounted device that uses a face image photographed to include a face, and more particularly to a calibration technique.

車両においては、運転者の視線の方向を検知し、この視線の情報を安全運転などのために役立てることが望まれている。視線を検出する代表的な手法としては、従来より「角膜反射法」、「瞳孔−角膜反射法」(例えば特許文献1)、および「モデルベース手法」(例えば特許文献2)が知られている。   In a vehicle, it is desired to detect the direction of the driver's line of sight and to use the information of the line of sight for safe driving. As representative techniques for detecting the line of sight, a “corneal reflection method”, a “pupil-corneal reflection method” (for example, Patent Document 1), and a “model-based method” (for example, Patent Document 2) are known. .

「角膜反射法」および「瞳孔−角膜反射法」の場合は、目に赤外線を当てることで生じる角膜反射光(プルキニエ像)を基準点とし、瞳孔の位置関係に基づいて視線を検出する。「モデルベース手法」の場合は、顔の特徴点群や3次元顔モデルと3次元眼球モデルを利用して視線を算出する。   In the case of the “corneal reflection method” and the “pupil-corneal reflection method”, a line of sight is detected based on the positional relationship between the pupils using corneal reflection light (Purkinje image) generated by applying infrared rays to the eyes as a reference point. In the case of the “model-based method”, the line of sight is calculated using a facial feature point group, a three-dimensional face model, and a three-dimensional eyeball model.

「角膜反射法」および「瞳孔−角膜反射法」はキャリブレーションなしで視線計測をすることはできない。一方、「モデルベース手法」は、キャリブレーションなしでも計測することができる。また、キャリブレーションを実施することによって個人差を解消することができるため視線の検出精度を向上させることができる。   The “corneal reflection method” and the “pupil-corneal reflection method” cannot perform line-of-sight measurement without calibration. On the other hand, the “model-based method” can be measured without calibration. Moreover, since the individual difference can be eliminated by performing the calibration, the detection accuracy of the line of sight can be improved.

例えば、特許文献3の技術では、校正時にヘッドアップディスプレイを用いて運転者が視認可能なターゲットを前方に虚像として表示し、ターゲットの位置を注視している状態の運転者の視線方向を検出することでキャリブレーションを実施している。   For example, in the technique of Patent Document 3, a target that can be visually recognized by the driver is displayed as a virtual image using a head-up display at the time of calibration, and the line-of-sight direction of the driver who is gazing at the position of the target is detected. Calibration is performed.

また、例えば特許文献4は、運転者による特別な操作が不要なキャリブレーションの技術を示している。例えば、自車両と他車両との車間距離、ブレーキ踏み込みの状態などに基づいて特定の状態を検知し、運転者の視線が他車両の方向を向いている可能性が高いと考えられる時に、カメラで撮影した(他車両を含む)画像を利用してキャリブレーションを自動的に実施する。また、ODOメータリセットボタンが操作されたときに、運転者の視線が特定の方向にあるものとしてカメラで撮影した画像を用いてキャリブレーションを行っている(段落[0055]参照)。   For example, Patent Document 4 shows a calibration technique that does not require any special operation by the driver. For example, when it is considered that a specific state is detected based on the distance between the host vehicle and the other vehicle, the brake depression state, etc., and the driver's line of sight is likely to face the other vehicle, Calibration is automatically performed using the images taken in (including other vehicles). Further, when the ODO meter reset button is operated, calibration is performed using an image photographed by the camera assuming that the driver's line of sight is in a specific direction (see paragraph [0055]).

特開2016−49260号公報Japanese Patent Laid-Open No. 2006-49260 特開2008−194146号公報JP 2008-194146 A 特開2009−183473号公報JP 2009-183473 A 特開2012−201232号公報JP 2012-201232 A

しかしながら、視線検出のために上記「角膜反射法」又は「瞳孔−角膜反射法」を採用する場合には、計測のためのシステム規模が大きくなるため、車内空間への適用が難しい。他方、上記「モデルベース手法」を採用する場合には、カメラ一台で実現できるため、車内空間への適用に向いている。   However, when the above-mentioned “corneal reflection method” or “pupil-corneal reflection method” is used for line-of-sight detection, the scale of the system for measurement increases, making it difficult to apply to the interior space of the vehicle. On the other hand, when the above “model-based method” is adopted, it can be realized with a single camera, which is suitable for application to the interior space of a vehicle.

しかし、「モデルベース手法」は、「角膜反射法」よりも視線計測精度が悪い。すなわち、視線の検出に用いられるパラメータ、例えば眼球中心位置などの誤差が大きいため、検出精度が低下する。   However, the “model-based method” has a lower gaze measurement accuracy than the “corneal reflection method”. That is, since the error in parameters used for eye gaze detection, such as the center position of the eyeball, is large, the detection accuracy decreases.

そのため、キャリブレーションが必要になる。しかし、特許文献3に示されたような方法では、キャリブレーションを実施する際のユーザの負担が非常に大きいので車両への適用は難しい。また、特許文献4に示されたような方法では、高精度でキャリブレーションすることは難しい。   Therefore, calibration is necessary. However, the method as disclosed in Patent Document 3 is difficult to apply to a vehicle because the burden on the user when performing calibration is very large. In addition, it is difficult to perform calibration with high accuracy by the method disclosed in Patent Document 4.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、眼球中心位置の検出精度を向上させ、それにより視線計測精度を高めることが可能な車載器を提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an in-vehicle device that can improve the detection accuracy of the center position of the eyeball and thereby increase the accuracy of eye gaze measurement.

前述した目的を達成するために、本発明に係る車載器は、下記(1)〜(4)を特徴としている。
(1) 顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出するデータ処理部を備える車載器。
(2) 前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における中央線との距離に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する
上記(1)に記載の車載器。
(3) 前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
上記(1)または(2)に記載の車載器。
(4) 前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する
上記(1)乃至(3)のいずれかに記載の車載器。
In order to achieve the above-described object, the vehicle-mounted device according to the present invention is characterized by the following (1) to (4).
(1) An in-vehicle device including a data processing unit that calculates an eyeball center coordinate where a center is located in a three-dimensional eyeball model in which an eyeball included in the face image is modeled from a face image photographed so as to include the face.
(2) The data processing unit
A black eye center position where the center of the black eye included in the face image is located on the three-dimensional eyeball model is calculated;
Calculating a line-of-sight angle based on the distance between the center position of the black eye and the center line in the face image;
The vehicle-mounted device according to (1), wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated based on the black eye center position and the line-of-sight angle.
(3) The data processing unit
Determine whether the face included in the face image is facing the front,
Determining whether the line of sight based on the position of the black eye included in the face image is facing the front,
The in-vehicle device according to (1) or (2), wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated when it is determined that the face and the line of sight are facing the front.
(4) The data processing unit
The in-vehicle device according to any one of (1) to (3), wherein the calculation processing of the eyeball center coordinates is repeatedly performed, the calculation result is stored, and the result of averaging the plurality of calculation results is output.

上記(1)の構成の車載器によれば、眼球中心位置を校正(キャリブレーション)するアルゴリズムが車載器に設けられたため、車載器による眼球中心位置の検出精度が向上し、それにより視線計測精度が高まる。また、撮影された画像に基づき校正するので、特別な校正機材を用意する必要もなく、また、車載器の使用者が校正のために特別な操作をする必要がない。
上記(2)の構成の車載器によれば、簡便な処理にて眼球中心座標を算出することができる。したがって、データ処理部の処理の負担が小さくなり、演算性能が低いコンピュータでも実用に耐え得る。データ処理部の処理の負担が小さいことは、小型化がますます求められる車載器において好適である。
上記(3)の構成の車載器によれば、眼球中心座標の測定精度が向上する。すなわち、顔及び黒目が撮影するカメラの方向に向いている状態で計算を実行するので、顔の向きの違いの影響による計算誤差や、視線の向きの違いの影響による計算誤差を減らすことができる。また、上記(2)及び(3)を組み合わせた構成の場合には、顔中心と画像中心が同一でない場合であっても、眼球中心座標を測定することができる。このような校正に際しては、一般的な手法としてカメラの撮影方向0度の方向に顔が位置した状態で撮影されることが望まれるが、本構成によればカメラの撮影方向0度の方向でなくても撮影方向0度に顔が位置する状態と同様の処理で校正することができる。
上記(4)の構成の車載器によれば、ノイズにより明らかな外れ値が一時的に算出された場合でも、その影響を平均化により低減できるので検出精度が向上する。特に、同じ運転者を長時間監視するような用途で望ましい結果が得られる。
According to the vehicle-mounted device having the configuration (1), since the algorithm for calibrating the center position of the eyeball is provided in the vehicle-mounted device, the accuracy of detection of the eyeball center position by the vehicle-mounted device is improved, and thereby the gaze measurement accuracy is improved. Will increase. In addition, since calibration is performed based on the photographed image, it is not necessary to prepare special calibration equipment, and the user of the vehicle-mounted device does not need to perform a special operation for calibration.
According to the vehicle-mounted device having the configuration (2), the eyeball center coordinates can be calculated by a simple process. Therefore, the processing load of the data processing unit is reduced, and even a computer with low calculation performance can be practically used. A small processing burden on the data processing unit is suitable for in-vehicle devices that are increasingly required to be downsized.
According to the vehicle-mounted device having the configuration (3), the measurement accuracy of the eyeball center coordinates is improved. In other words, since the calculation is performed with the face and black eyes facing the direction of the camera to be photographed, the calculation error due to the effect of the difference in the orientation of the face and the calculation error due to the effect of the difference in the direction of the line of sight can be reduced. . Further, in the case of the configuration in which the above (2) and (3) are combined, the eyeball center coordinates can be measured even when the face center and the image center are not the same. At the time of such calibration, it is desirable to shoot with the face positioned in the direction of the camera shooting direction of 0 degrees as a general technique. However, according to this configuration, the camera shooting direction of 0 degrees is desired. Even if it is not, it can be calibrated by the same processing as in the case where the face is positioned at 0 degrees in the shooting direction.
According to the vehicle-mounted device having the configuration (4), even when an apparent outlier is temporarily calculated due to noise, the influence can be reduced by averaging, so that the detection accuracy is improved. In particular, desirable results can be obtained in applications where the same driver is monitored for a long time.

本発明の車載器によれば、眼球中心位置の検出精度を向上させ、それにより視線計測精度を高めることが可能である。すなわち、眼球中心位置を校正するアルゴリズムが車載器に設けられたため、車載器による眼球中心位置の検出精度が向上し、それにより視線計測精度が高まる。また、撮影された画像に基づき校正するので、特別な校正機材を用意する必要もなく、また、車載器の使用者が校正のために特別な操作をする必要がない。   According to the vehicle-mounted device of the present invention, it is possible to improve the detection accuracy of the center position of the eyeball, thereby increasing the gaze measurement accuracy. That is, since the on-vehicle device is provided with an algorithm for calibrating the center position of the eyeball, the accuracy of detecting the center position of the eyeball by the on-vehicle device is improved, thereby increasing the accuracy of gaze measurement. In addition, since calibration is performed based on the photographed image, it is not necessary to prepare special calibration equipment, and the user of the vehicle-mounted device does not need to perform a special operation for calibration.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .

図1は、実施形態の車載器の配置状態の具体例を示す斜視図である。FIG. 1 is a perspective view illustrating a specific example of an arrangement state of the vehicle-mounted device according to the embodiment. 図2は、3次元眼球モデルを利用して視線検出する場合の処理手順の概要を示すフローチャートである。FIG. 2 is a flowchart showing an outline of a processing procedure when a line of sight is detected using a three-dimensional eyeball model. 図3は、二次元の入力画像と3次元眼球モデルとの関係の例を示す模式図である。FIG. 3 is a schematic diagram illustrating an example of a relationship between a two-dimensional input image and a three-dimensional eyeball model. 図4は、眼球中心位置を自動的に校正するための処理手順の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of a processing procedure for automatically calibrating the eyeball center position. 図5は、顔正面度を計算するための2種類の処理手順の各々を示すフローチャートである。FIG. 5 is a flowchart showing each of the two types of processing procedures for calculating the face front degree. 図6は、顔画像と検出された特徴点群との位置関係の具体例を示す正面図である。FIG. 6 is a front view showing a specific example of the positional relationship between the face image and the detected feature point group. 図7は、顔画像と顔の中心との位置関係の具体例を示す正面図である。FIG. 7 is a front view showing a specific example of the positional relationship between the face image and the center of the face. 図8は、顔画像における顔の中心線と左右の黒目位置との関係の具体例を示す正面図である。FIG. 8 is a front view showing a specific example of the relationship between the face center line and the left and right black eye positions in the face image. 図9は、3次元眼球モデルの眼球中心、黒目中心、視角の位置関係の例を示す平面図である。FIG. 9 is a plan view showing an example of the positional relationship between the eyeball center, black eye center, and viewing angle of the three-dimensional eyeball model. 図10は、顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。FIG. 10 is a front view showing an example of the positional relationship between the center line and the center of the left and right eyes when the center of the face is equal to the center of the image. 図11は、顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。FIG. 11 is a plan view showing an example of the viewing angle, distance, and positional relationship between the left and right black eye centers when the center of the face is equal to the center of the image. 図12は、顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。FIG. 12 is a front view showing an example of the positional relationship between the center line and the left and right black eye centers when the center of the face and the center of the image are not the same. 図13は、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。FIG. 13 is a plan view illustrating an example of the positional relationship between the viewing angle, the distance, and the left and right black eye centers when the center of the face and the center of the image are not the same. 図14は、眼球中心位置の補正値と3次元眼球モデルおよび入力画像との関係の例を示す模式図である。FIG. 14 is a schematic diagram illustrating an example of the relationship between the correction value of the eyeball center position, the three-dimensional eyeball model, and the input image. 図15は、眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を示すフローチャートである。FIG. 15 is a flowchart illustrating a specific example of processing for reflecting the correction value of the center position of the eyeball in the operation of the vehicle-mounted device.

本発明の車載器に関する具体的な実施の形態について、各図を参照しながら以下に説明する。   Specific embodiments relating to the vehicle-mounted device of the present invention will be described below with reference to the drawings.

<本発明が適用される環境の具体例>
本発明の実施形態における車載器の配置状態の具体例を図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
<Specific examples of environment to which the present invention is applied>
The specific example of the arrangement | positioning state of the onboard equipment in embodiment of this invention is shown in FIG.
In the example shown in FIG. 1, a camera 12 and a processing unit 13 are installed in a vehicle interior 10 of a vehicle. Specifically, the person 11 sitting in the driver's seat, that is, the face including the driver's eye area 11a can be photographed with the camera 12 in the meter unit in front of the driver's seat or in the column cover. A camera 12 is installed.

処理部13は、カメラ12が人物11の顔を撮影した得られる二次元画像データを処理し、主に目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の車載器は、例えば図1中の処理部13、あるいはその一部として構成することが想定される。   The processing unit 13 processes the two-dimensional image data obtained by the camera 12 capturing the face of the person 11, and estimates information indicating the direction of the line of sight 11b mainly from the data of the eye region 11a. The information on the line of sight 11b estimated by the processing unit 13 can be used for the vehicle-mounted device to recognize whether or not the driver driving the vehicle is moving the line of sight for safety confirmation. Of course, such line-of-sight information can be used for various purposes. Therefore, it is assumed that the vehicle-mounted device of the present invention is configured as, for example, the processing unit 13 in FIG. 1 or a part thereof.

なお、本実施形態の車載器は、後述するように、カメラ12が撮影した二次元画像データに基づいて、眼球中心位置を自動的に校正する機能を搭載している。したがって、車載器の視線検出機能を校正するために、図1に示した構成以外に、特別な校正機材を用意する必要はない。また、人物11も校正のために特別な調整の操作を実施する必要がない。   Note that the vehicle-mounted device of the present embodiment has a function of automatically calibrating the center position of the eyeball based on two-dimensional image data captured by the camera 12, as will be described later. Therefore, in order to calibrate the gaze detection function of the vehicle-mounted device, it is not necessary to prepare special calibration equipment other than the configuration shown in FIG. Also, the person 11 does not need to perform a special adjustment operation for calibration.

<視線検出アルゴリズムの概要>
3次元眼球モデルを利用して、顔画像に基づき視線検出する場合の処理手順の概要を図2に示す。すなわち、車載器のコンピュータが所定のプログラムを実行することにより、図2に示した視線検出アルゴリズムに従った動作が順次に行われる。
<Outline of eye-gaze detection algorithm>
FIG. 2 shows an outline of a processing procedure in the case where a gaze is detected based on a face image using a three-dimensional eyeball model. That is, when the computer of the vehicle-mounted device executes a predetermined program, operations according to the line-of-sight detection algorithm shown in FIG. 2 are sequentially performed.

カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。車載器のコンピュータは、ステップS11でカメラ12から映像の信号を1フレーム分取り込む。また、実際にはグレースケール化を含む、画像のデータ形式の変換などの「下処理」をS11で行う。例えば、1フレーム内の各画素位置毎に、輝度を「0〜255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向(y)及び横方向(x)に並べた二次元(2D)配列の画像データを生成する。   The camera 12 constantly shoots an image of an area including the face of the person 11 at a constant cycle, and outputs a video signal. The computer of the vehicle-mounted device captures one frame of the video signal from the camera 12 in step S11. In addition, “down-processing” such as conversion of the image data format including gray scale is actually performed in S11. For example, for each pixel position in one frame, 8-bit data representing the luminance with gradations in the range of “0 to 255” is aligned in the vertical direction (y) and horizontal direction ( Image data of a two-dimensional (2D) array arranged in x) is generated.

ステップS12では、コンピュータがS11で入力された1フレームまたは複数フレームの二次元画像データを処理して、人物11の顔を検出する。具体例としては、「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。勿論、独自に開発した手法を利用して顔を検出してもよい。なお、「Viola-Jones法」の技術は以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
In step S12, the computer processes the one-dimensional or plural-frame two-dimensional image data input in step S11 to detect the face of the person 11. As a specific example, face detection is performed using the “Viola-Jones method”, and a region including a face is extracted as a rectangular region from one frame of two-dimensional image data. That is, a facial region is extracted using a detector that is characterized by the shadow difference of the face and created by learning using “Boosting”. Of course, the face may be detected by using a uniquely developed method. The technique of “Viola-Jones method” is shown in the following document.
"P.viola and MJJones," Rapid Object Detection Using a Boosted Cascade of Simple Features, "IEEE CVPR (2001)."

次のステップS13では、S12で抽出した顔の矩形領域内のデータを処理して、左右の黒目(虹彩)の各々を検出する。例えば、公知技術であるテンプレートマッチングを用いることにより黒目を検出できる。すなわち、例えば黒い円形パターンのような黒目の特徴を表すテンプレートの参照データを予め用意しておき、このテンプレートを処理対象画像上で順次に走査して特徴が一致する位置を特定する。なお、黒目の検出を実行する前に、顔の全体について様々な特徴点の位置または陰影差を検出し、左右の目の各々の領域の位置を把握する。これにより、左右の黒目の検出を行う際に、探索処理の対象となるデータの範囲を限定できるので、処理の時間を短縮できる。例えば、「Viola-Jones法」を用いることにより目の領域を検出できる。   In the next step S13, the data in the rectangular area of the face extracted in S12 is processed to detect each of the left and right black eyes (iris). For example, black eyes can be detected by using template matching which is a known technique. That is, for example, reference data of a template representing a feature of a black eye such as a black circular pattern is prepared in advance, and this template is sequentially scanned on the processing target image to specify a position where the feature matches. Note that before executing black-eye detection, the positions of various feature points or shading differences are detected for the entire face, and the positions of the regions of the left and right eyes are grasped. Thereby, when the left and right black eyes are detected, the range of data to be searched can be limited, so that the processing time can be shortened. For example, the eye region can be detected by using the “Viola-Jones method”.

さて、本実施形態では3次元眼球モデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、左右の各眼球の基準点として眼球中心位置を特定する必要がある。この眼球中心位置をコンピュータがステップS14で推定する。この処理には、目尻、目頭位置に基づいて眼球中心位置を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することが想定される。但し、本発明の実施形態においては、後述するように特別なアルゴリズムを用いて眼球中心位置を特定する。   Now, in this embodiment, since it is assumed that the line of sight is detected by a model-based method using a three-dimensional eyeball model, it is necessary to specify the eyeball center position as a reference point for each of the left and right eyeballs. The computer estimates the eyeball center position in step S14. For this processing, it is assumed that a method for determining the center position of the eyeball based on the position of the corner of the eye and the position of the eyeball, or a method for calculating the center position of the eyeball by simultaneously estimating the skeleton from the facial feature points. However, in the embodiment of the present invention, the eyeball center position is specified using a special algorithm as described later.

ステップS15では、コンピュータが、検出した黒目位置、および眼球中心位置に基づき、3次元眼球モデルの状態(位置、角度)を決定し、その結果により視線の角度を算出する。   In step S15, the computer determines the state (position, angle) of the three-dimensional eyeball model based on the detected black eye position and eyeball center position, and calculates the angle of the line of sight based on the result.

ステップS16では、コンピュータが、ステップS15で得られた視線の角度に対して、必要に応じてデータの平均化、ノイズ除去などの処理を行い、視線の方向の情報を利用するアプリケーションプログラムや他の車載器に対して視線を表すデータを送信する。   In step S16, the computer performs processing such as data averaging and noise removal on the line-of-sight angle obtained in step S15 as necessary, and uses other information such as an application program that uses information on the line-of-sight direction. Data representing the line of sight is transmitted to the vehicle-mounted device.

<3次元眼球モデルの説明>
二次元の入力画像と3次元眼球モデルとの関係の例を図3に示す。
図3に示した3次元眼球モデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。黒目(虹彩)32は、3次元眼球モデル30の眼球表面上に張り付いた半径Diの円盤状の領域であるとみなしている。黒目(虹彩)32の中心32aは瞳孔の中央部に相当する。なお、眼球の半径Rおよび黒目の半径Diの各寸法は、人体の寸法データおよびカメラ12の撮影系の各種パラメータに基づいて決めることができる。
<Description of 3D eyeball model>
An example of the relationship between the two-dimensional input image and the three-dimensional eyeball model is shown in FIG.
In the three-dimensional eyeball model 30 shown in FIG. 3, the eyeball is a sphere represented by an eyeball center 31 and a radius R. The black eye (iris) 32 is regarded as a disk-shaped region having a radius Di attached on the eyeball surface of the three-dimensional eyeball model 30. The center 32a of the black eye (iris) 32 corresponds to the center of the pupil. Note that the dimensions of the eyeball radius R and the black eye radius Di can be determined based on human body dimension data and various parameters of the imaging system of the camera 12.

この3次元眼球モデル30において、視線の方向は、眼球中心31から黒目32の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、黒目中心32aの座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。   In this three-dimensional eyeball model 30, the direction of the line of sight can be specified as the direction from the eyeball center 31 toward the center of the black eye 32, and the rotation angle yaw with respect to the reference direction in the horizontal plane and the rotation angle with respect to the reference direction in the vertical direction It can be represented by a pitch. Further, the coordinates of the black eye center 32a can be expressed by an eyeball radius R, a yaw, and a pitch when the eyeball center 31 is used as a reference.

一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、入力画像として例えば図3に示した目の領域の二次元画像35が入力された場合には、3次元眼球モデル30を利用するために二次元/三次元の相互変換を行う必要がある。   On the other hand, the video imaged by the camera 12 represents a specific two-dimensional plane. Therefore, for example, when the two-dimensional image 35 of the eye region shown in FIG. 3 is input as the input image, it is necessary to perform two-dimensional / three-dimensional mutual conversion in order to use the three-dimensional eyeball model 30. .

具体的には、目の領域の二次元画像35の中で黒目中心32aの位置、および眼球中心31の位置の二次元座標をそれぞれ検出し、これらの二次元座標を3次元眼球モデル30の三次元座標上に投影する。これにより視線11bのベクトルを算出することができる。視線11bのベクトルと、各方向の回転角度yaw、pitchとの関係は次式で表される。   Specifically, the two-dimensional coordinates of the position of the black eye center 32 a and the position of the eyeball center 31 are respectively detected in the two-dimensional image 35 of the eye region, and these two-dimensional coordinates are obtained as the third order of the three-dimensional eyeball model 30. Project onto original coordinates. Thereby, the vector of the line of sight 11b can be calculated. The relationship between the vector of the line of sight 11b and the rotation angles yaw and pitch in each direction is expressed by the following equations.

X=−R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X = −R × cos (pitch) × sin (yaw) (1)
Y = R × sin (pitch) (2)
X: distance in the x direction from the eyeball center 31 on the two-dimensional image plane Y: distance in the y direction from the eyeball center 31 on the two-dimensional image plane

<特徴的な処理の説明>
<処理の概要>
3次元眼球モデル30における眼球中心31の位置を自動的に校正するための処理手順の概要を図4に示す。例えば、処理部13内部のコンピュータが、図2に示したステップS14として図4に示した処理を実行することにより、眼球中心31の位置が自動的に校正される。これにより、眼球中心31の位置精度が向上するので、視線検出精度も上がる。校正のために運転者等のユーザが特別な操作を行う必要もない。
<Description of characteristic processing>
<Outline of processing>
An outline of a processing procedure for automatically calibrating the position of the eyeball center 31 in the three-dimensional eyeball model 30 is shown in FIG. For example, the computer in the processing unit 13 executes the process shown in FIG. 4 as step S14 shown in FIG. 2, whereby the position of the eyeball center 31 is automatically calibrated. Thereby, since the positional accuracy of the eyeball center 31 is improved, the visual line detection accuracy is also improved. There is no need for a user such as a driver to perform a special operation for calibration.

図4のステップS101では、入力画像に映っている人物11の顔の正面度、すなわち「顔が正面を向いている度合」をコンピュータが計算する。そして、S101の計算結果に基づき、「顔が正面を向いている」とみなせる状態であれば、ステップS102からS103に進む。   In step S101 of FIG. 4, the computer calculates the front degree of the face of the person 11 shown in the input image, that is, “the degree that the face is facing the front”. Then, based on the calculation result of S101, if the state can be regarded as “the face is facing the front”, the process proceeds from step S102 to S103.

ステップS103では、入力画像に映っている人物11の視線の正面度、すなわち「視線の方向が正面を向いている度合」をコンピュータが計算する。そして、S103の計算結果に基づき、「視線の方向が正面を向いている」とみなせる状態であれば、ステップS104からS105に進む。   In step S103, the computer calculates the front degree of the line of sight of the person 11 shown in the input image, that is, “the degree that the direction of the line of sight is facing the front”. Then, based on the calculation result of S103, if the state can be regarded as “the direction of the line of sight is facing the front”, the process proceeds from step S104 to S105.

ステップS105では、入力画像に映っている人物11の現在の特徴に基づいて、最新の眼球中心位置を算出し、眼球中心位置を更新するために必要な補正値を求める。この補正値を次のステップS106で、3次元眼球モデル30の眼球中心31の座標に反映し校正を実行する。   In step S105, the latest eyeball center position is calculated based on the current characteristics of the person 11 shown in the input image, and a correction value necessary for updating the eyeball center position is obtained. In step S106, the correction value is reflected on the coordinates of the eyeball center 31 of the three-dimensional eyeball model 30 to execute calibration.

<「顔正面度」の計算の詳細>
「顔正面度」は、入力画像上において「顔が正面を向いている度合」を表す。「顔正面度」を計算するための2種類の処理手順の各々を図5に示す。これらの処理手順のいずれか一方を図4に示したステップS101で実行する。図5に示した「顔正面度計算1」、「顔正面度計算2」のそれぞれについて以下に説明する。
<Details of “Face Facing” Calculation>
The “face front degree” represents “the degree to which the face is facing the front” on the input image. FIG. 5 shows each of two types of processing procedures for calculating the “face front degree”. Any one of these processing procedures is executed in step S101 shown in FIG. Each of “Face Frontality Calculation 1” and “Face Frontality Calculation 2” shown in FIG. 5 will be described below.

<「顔正面度計算1」>
顔画像と検出された特徴点群61との位置関係の具体例を図6に示す。
図5のステップS21では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。この顔領域の画像データFに対して、ステップS22では、コンピュータが所定の画像処理を施し、特徴点の検出を実行する。これにより、例えば図6に示すように、眉毛、左右の目、鼻、唇、顎などの各部位について輪郭などを表す特徴点群61が検出される。
<"Face Frontality Calculation 1">
A specific example of the positional relationship between the face image and the detected feature point group 61 is shown in FIG.
In step S21 of FIG. 5, the image data F of the face area detected in S12 of FIG. 2 is input as a processing target. In step S22, the computer performs predetermined image processing on the image data F of the face area, and executes feature point detection. As a result, for example, as shown in FIG. 6, a feature point group 61 representing an outline or the like is detected for each part such as eyebrows, left and right eyes, nose, lips, and chin.

次のステップS23では、コンピュータはステップS22で得られた特徴点群61に基づき、これらの顔特徴点群の重心位置を次の第(3)式により計算する。この計算を実行する際には、「特徴点群61が顔の中心に対して左右対称に設定されている」条件を満たしていることを前提として処理する。   In the next step S23, the computer calculates the barycentric positions of these facial feature point groups based on the feature point group 61 obtained in step S22 by the following equation (3). When this calculation is executed, processing is performed on the premise that the condition “the feature point group 61 is set symmetrically with respect to the center of the face” is satisfied.

g(x,y):座標(x,y)で表される重心位置
P:顔特徴点の総数
f(p):p番目の顔特徴点の位置情報
g (x, y): Center of gravity position represented by coordinates (x, y) P: Total number of face feature points f (p): Position information of p-th face feature point

したがって、ステップS23で計算される重心位置g(x,y)のx座標は、左右方向の顔の向きに影響される。すなわち、顔が正面向き(顔の向きが0)の場合には、重心位置g(x,y)のx座標「g.x」が顔の中心(facecen.x,facecen.y)のx座標と等しくなり、顔が正面向きでない場合は重心位置g(x,y)が顔の中心からずれた状態になる。   Therefore, the x coordinate of the gravity center position g (x, y) calculated in step S23 is affected by the direction of the left and right faces. That is, when the face is front-facing (face orientation is 0), the x-coordinate “g.x” of the gravity center position g (x, y) is the x-coordinate of the face center (facecen.x, facecen.y). If the face is not facing the front, the center of gravity position g (x, y) is shifted from the center of the face.

なお、顔の中心位置を表すx座標の値(facecen.x)およびy座標の値(facecen.y)は、それぞれ顔領域の画像データFにおける横(x)方向の中央値、および縦(y)方向の中央値として算出できる。
したがって、顔正面度Dxは次式により算出できる。
Note that an x-coordinate value (facecen.x) and a y-coordinate value (facecen.y) representing the center position of the face are respectively the median value in the horizontal (x) direction and the vertical (y ) Can be calculated as the median of the direction.
Therefore, the face front degree Dx can be calculated by the following equation.

Dx:顔正面度(x方向)
facecen.x:顔の中心のx座標
g.x:重心位置のx座標
αx:顔向きが正面か否かを識別するための閾値
Dx: Face front degree (x direction)
facecen. x: x coordinate of the center of the face g. x: x coordinate αx of the center of gravity position: threshold value for identifying whether the face direction is front or not

上記第(4−1)式により算出した顔正面度Dxを用いる場合には、図4のステップS102でこの顔正面度Dxを閾値αxと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αxの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。   When the face front degree Dx calculated by the above equation (4-1) is used, the face front degree Dx is compared with the threshold value αx in step S102 of FIG. 4 to identify whether the face direction is front or not. it can. As for the magnitude of the threshold value αx, it is assumed that an optimum value is adopted in consideration of parameters representing the photographing conditions of the camera 12 and individual differences.

顔正面度は横方向の向きだけでなく、縦方向の向きも考慮することが可能である。しかし、人間の顔の構造は、上下方向に対称な構造ではないため、あらかじめ、縦方向で正面を向いているときに、特等点群の重心位置のy座標g.yと、顔の中心位置のy座標「facecen.y」とのズレ量dyを求めておく必要が在る。なお、dy値は検出器の特徴点配置によって決められるものであり、固定値として求まる。縦方向の顔正面度Dyは次式(4―2)のようになる。
The face front degree can consider not only the horizontal direction but also the vertical direction. However, since the structure of the human face is not symmetrical in the vertical direction, the y coordinate g.g. It is necessary to obtain a deviation amount dy between y and the y coordinate “facecen.y” of the center position of the face. The dy value is determined by the feature point arrangement of the detector, and is obtained as a fixed value. The vertical face front degree Dy is expressed by the following equation (4-2).

<「顔正面度計算2」>
顔画像と顔の中心(facecen.x,facecen.y)との位置関係の具体例を図7に示す。
<"Face frontal calculation 2">
A specific example of the positional relationship between the face image and the center of the face (facecen.x, facecen.y) is shown in FIG.

図5のステップS31では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。   In step S31 of FIG. 5, the image data F of the face area detected in S12 of FIG. 2 is input as a processing target.

図5のステップS32では、S31で入力した顔領域の画像データFを処理して、顔画像におけるx軸の中央(facecen.x)に対して左右を反転した反転画像データFLをコンピュータが作成する。そして、次のステップS33では、画像データFと反転画像データFLとの相関値を顔正面度Dとしてコンピュータが算出する。この場合の顔正面度Dは次式により算出される。   In step S32 of FIG. 5, the image data F of the face region input in S31 is processed, and the computer creates inverted image data FL in which the left and right are inverted with respect to the center (facecen.x) of the x-axis in the face image. . In the next step S33, the computer calculates the correlation value between the image data F and the reverse image data FL as the face front degree D. The face front degree D in this case is calculated by the following equation.

D:顔正面度
N:顔画像のx方向画素数
M:顔画像のy方向画素数
F(i,j):画像データFの座標(i,j)の画素の輝度値(階調)
FL(i,j):反転画像データFLの座標(i,j)の画素の輝度値(階調)
α:顔向きが正面か否かを識別するための閾値
D: Face front degree N: Number of pixels in the x direction of the face image M: Number of pixels in the y direction of the face image F (i, j): Luminance value (gradation) of the pixel at the coordinates (i, j) of the image data F
FL (i, j): luminance value (gradation) of the pixel at the coordinates (i, j) of the inverted image data FL
α: Threshold value for identifying whether the face direction is front or not

つまり、顔の特徴が顔の中央(facecen.x)に対して左右対称である場合を想定すれば、顔の中央から左側の特徴と右側の特徴とが等しい。したがって、画像データFと反転画像データFLとの相関の逆数を表す顔正面度Dは、顔向きが正面に近い状態で非常に小さくなり、顔向きが正面からずれると大きくなる。   In other words, assuming that the facial features are symmetrical with respect to the center of the face (facecen.x), the features on the left side and the features on the right side from the center of the face are equal. Therefore, the face front degree D representing the reciprocal of the correlation between the image data F and the reverse image data FL becomes very small when the face direction is close to the front, and increases when the face direction deviates from the front.

上記第(5)式により算出した顔正面度Dを用いる場合には、図4のステップS102でこの顔正面度Dを閾値αと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。   When the face front degree D calculated by the expression (5) is used, it is possible to identify whether or not the face direction is the front by comparing the face front degree D with the threshold value α in step S102 of FIG. As for the magnitude of the threshold value α, it is assumed that an optimum value is adopted in consideration of a parameter representing the photographing condition of the camera 12 and individual differences.

<「視線正面度」の計算の詳細>
顔画像における顔の中心線と左右の黒目位置との関係の具体例を図8に示す。
視線正面度FDは、入力画像に映っている人物11の視線の方向が正面を向いている度合、つまり、左右それぞれの目に3次元眼球モデル30を適用して得られた回転角度より計算される視線方向θ(yaw,pitch)が0度である度合を表す。
<Details of “Gaze frontality” calculation>
A specific example of the relationship between the center line of the face and the left and right black eye positions in the face image is shown in FIG.
The gaze front degree FD is calculated from the degree to which the gaze direction of the person 11 shown in the input image is facing the front, that is, the rotation angle obtained by applying the three-dimensional eyeball model 30 to the left and right eyes. Represents the degree to which the viewing direction θ (yaw, pitch) is 0 degrees.

本実施形態では、図4の通り「顔の向きが正面である」という条件を満たしていることを前提として、次式によりコンピュータが視線正面度FDを算出する。   In the present embodiment, as shown in FIG. 4, the computer calculates the gaze front degree FD according to the following expression on the premise that the condition that “the face direction is the front” is satisfied.

FD:視線正面度
irisR.x:右側の黒目の中心位置のx座標
irisL.x:左側の黒目の中心位置のx座標
facecen.x:顔の中心のx座標
β:視線の向きが正面か否かを識別するための閾値
FD: Gaze frontality irisR. x: x coordinate irisL. x: x-coordinate facecen. x: x-coordinate of the center of the face β: threshold for identifying whether the direction of the line of sight is front or not

なお、本実施形態では、両眼などの左右の位置関係は、人物11に対する左右ではなく、カメラ12側から視た左右や、撮影により得られた二次元画像上の左右を表すものとして説明する。   In the present embodiment, the positional relationship between the left and right eyes such as both eyes is described as representing the left and right viewed from the camera 12 side and the left and right on the two-dimensional image obtained by photographing, not the left and right with respect to the person 11. .

つまり、上記第(6)式で表される視線正面度FDは、x軸方向について、左右の黒目中心の間の中央位置と、顔の中心線の位置(facecen.x)との差分を表している。したがって、例えば中心線の位置(facecen.x)から右側の黒目の中心位置までの距離と、左側の黒目の中心位置までの距離とが等距離であれば、視線の方向が正面を向いていると判定できる。また、x軸方向の位置関係に基づき視線の方向が正面を向いていると判断できる状況であれば、同時にy軸方向についても視線の方向が正面を向いていると考えることができる。   That is, the line-of-sight front degree FD represented by the above expression (6) represents the difference between the center position between the left and right black eye centers and the position of the face center line (facecen.x) in the x-axis direction. ing. Therefore, for example, if the distance from the center line position (facecen.x) to the center position of the right black eye and the distance to the center position of the left black eye are equal, the direction of the line of sight faces the front. Can be determined. Further, if it can be determined that the direction of the line of sight is facing the front based on the positional relationship in the x-axis direction, it can be considered that the direction of the line of sight is also facing the front in the y-axis direction at the same time.

また、視線正面度FDは、視線の方向が正面を向いている時に0になり、視線の方向が正面からずれるに従って大きくなる。したがって、上記第(6)式により算出した視線正面度FDを用いる場合には、図4のステップS104でこの視線正面度FDを閾値βと比較することにより、視線の向きが正面か否かを識別できる。なお、閾値βの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。   The line-of-sight front degree FD becomes 0 when the direction of the line of sight faces the front, and increases as the line of sight deviates from the front. Therefore, when using the gaze front degree FD calculated by the above equation (6), the gaze front degree FD is compared with the threshold value β in step S104 in FIG. 4 to determine whether or not the gaze direction is front. Can be identified. As for the magnitude of the threshold value β, it is assumed that an optimum value is adopted in consideration of parameters representing photographing conditions of the camera 12 and individual differences.

<眼球中心位置の算出>
図4に示したステップS105で最新の眼球中心位置を算出するための処理について以下に説明する。
<Calculation of eyeball center position>
The process for calculating the latest eyeball center position in step S105 shown in FIG. 4 will be described below.

<x軸方向の顔の中心と画像の中心とが等しい場合>
3次元眼球モデルの眼球中心、黒目中心、視角の水平面(又はx,z軸と平行な面)内における位置関係の例を図9に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を図10に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の水平面内における位置関係の例を図11に示す。
<When the center of the face in the x-axis direction is equal to the center of the image>
An example of the positional relationship in the horizontal plane (or the plane parallel to the x and z axes) of the eyeball center, black eye center, and viewing angle of the three-dimensional eyeball model is shown in FIG. FIG. 10 shows an example of the positional relationship between the center line and the left and right black eye centers when the center of the face in the x-axis direction is equal to the center of the image. FIG. 11 shows an example of the positional relationship in the horizontal plane of the viewing angle, distance, and left and right black eye centers when the center of the face in the x-axis direction is equal to the center of the image.

左右の目のそれぞれについてほぼ同じ方法で計算できるので、以下の説明では右側の目のみを計算対象として処理する場合を想定している。
例えば、図9に示した状態においては、次の第(7)式の関係が成立する。
Since each of the left and right eyes can be calculated by substantially the same method, the following description assumes that only the right eye is processed as a calculation target.
For example, in the state shown in FIG. 9, the relationship of the following expression (7) is established.

Xeyer=irisR.x−Ro・sinθRyaw ・・・(7)
Xeyer:右側の眼球中心のx座標
irisR.x:右側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θRyaw:右側の目の視線角度(yaw方向)
Xeyer = irisR. x-Ro · sin θ Ryaw (7)
Xeyer: x coordinate of right eyeball center irisR. x: x coordinate of the right eye center Ro: radius of the eyeball (eg constant)
θRyaw: Eye angle of the right eye (yaw direction)

つまり、黒目中心の位置「irisR.x」および視線角度「θRyaw」が既知であれば、上記第(7)式から眼球中心のx座標「Xeyer」を算出できる。   That is, if the position “irisR.x” of the center of the black eye and the line-of-sight angle “θRyaw” are known, the x-coordinate “Xeyer” of the eyeball center can be calculated from the above equation (7).

また、図10に示すように画像中の顔中心位置のx座標「facecen.x」と、カメラで撮影した画像の中心のx座標「Icenter.x」とが等しく、且つ図11に示すような状況であることを想定すると、視線角度「θRyaw」は次の第(8)式で算出できる。
tanθRyaw=(irisR.x−Icenter.x)/Df ・・・(8)
Df:カメラと顔の間の距離
As shown in FIG. 10, the x-coordinate “facecen.x” of the face center position in the image is equal to the x-coordinate “Icenter.x” of the center of the image taken by the camera, as shown in FIG. Assuming the situation, the line-of-sight angle “θRyaw” can be calculated by the following equation (8).
tan θRyaw = (irisR.x-Icenter.x) / Df (8)
Df: Distance between camera and face

距離Dfについては、例えば適当な距離センサを利用して計測すれば、既知情報として扱うことができる。また、例えば「特開2015−206764号公報」に開示されている技術を利用すれば、距離センサは不要になる。また、前述のように顔画像から黒目を検出できるので、黒目中心の位置「irisR.x」も既知情報として利用できる。更に、画像の中心のx座標「Icenter.x」としては例えば事前に定めた定数を利用することができる。   The distance Df can be treated as known information if it is measured using an appropriate distance sensor, for example. Further, for example, if a technique disclosed in “Japanese Patent Laid-Open No. 2015-206764” is used, a distance sensor becomes unnecessary. Further, since the black eye can be detected from the face image as described above, the position “irisR.x” of the center of the black eye can also be used as known information. Further, for example, a predetermined constant can be used as the x-coordinate “Icenter.x” of the center of the image.

したがって、上記第(8)式から視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と、黒目中心の位置「irisR.x」と、眼球の半径Roを前記第(7)式に代入することにより、右側の眼球中心のx座標Xeyerを算出できる。   Therefore, the line-of-sight angle “θRyaw” can be calculated from the equation (8). Further, the x-coordinate Xeyer of the right eyeball center can be calculated by substituting the line-of-sight angle “θRyaw”, the black eye center position “irisR.x”, and the eyeball radius Ro into the expression (7).

また、右側の眼球中心のy座標Yeyerについても、以下の第(9)式及び第(10)式を利用することにより同様に算出できる。
Yeyer=irisR.y−Ro・sinθRpitch ・・・(9)
Yeyer:右側の眼球中心のy座標
irisR.y:右側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θRpitch:右側の目の視線角度(pitch方向)
Also, the y-coordinate Yeyer at the center of the right eyeball can be similarly calculated by using the following formulas (9) and (10).
Yeyer = irisR. y-Ro · sinθRpitch (9)
Yyer: y-coordinate of the right eyeball center irisR. y: y coordinate of the right eye center Ro: radius of eyeball (for example, constant)
θRpitch: right eye's line-of-sight angle (pitch direction)

tanθRpitch=(irisR.y−Icenter.y)/Df・・(10)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
tan θRpitch = (irisR.y-Icenter.y) / Df (10)
Icenter. y: y coordinate of the center of the image Df: distance between the camera and the face

<x軸方向の顔の中心と画像の中心とがずれている場合>
顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を図12に示す。また、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の水平面(x,z軸と平行な面)内における位置関係の例を図13に示す。
<When the center of the face in the x-axis direction is shifted from the center of the image>
An example of the positional relationship between the center line and the center of the left and right eyes when the center of the face and the center of the image are not the same is shown in FIG. Further, FIG. 13 shows an example of the positional relationship in the horizontal plane (plane parallel to the x and z axes) of the viewing angle, distance, and left and right black eyes when the center of the face and the center of the image are not the same.

例えば、図12に示すように顔の中心線のx座標「facecen.x」が、画像の中心のx座標「Icenter.x」からずれている場合であっても、図13に示すように顔はカメラ12を中心とし、半径が距離Dfで表される円周上に存在する。また、顔の中心位置「facecen.x」と、画像の中心「Icenter.x」とは顔回転角度「facerad」だけずれている。しかし、カメラ12に対して顔が正面を向き、且つ両眼の各々の視線がカメラ12に向いている状態であれば、右側の目の視線角度「θRyaw」は、図13のように画像の中心「Icenter.x」に対する目の位置の回転角度として表すことができる。   For example, as shown in FIG. 13, even if the x-coordinate “facecen.x” of the center line of the face is shifted from the x-coordinate “Icenter.x” of the center of the image as shown in FIG. Is centered on the camera 12 and exists on the circumference whose radius is represented by the distance Df. Further, the face center position “facecen.x” and the image center “Icenter.x” are shifted by a face rotation angle “facerad”. However, if the face is facing the front of the camera 12 and the eyes of both eyes are facing the camera 12, the right-eye gaze angle “θRyaw” is the image as shown in FIG. It can be expressed as the rotation angle of the eye position with respect to the center “Icenter.x”.

したがって、x軸方向の顔の中心と画像の中心とがずれている場合であっても、前記第(8)式を用いて視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と前記第(7)式とに基づき、眼球中心のx座標「Xeyer」を算出できる。   Therefore, even when the center of the face in the x-axis direction is shifted from the center of the image, the line-of-sight angle “θRyaw” can be calculated using the equation (8). Further, the x-coordinate “Xeyer” of the center of the eyeball can be calculated based on the line-of-sight angle “θRyaw” and the expression (7).

一方、左側の目について眼球中心の座標を算出する場合であっても、以下に示す各計算式を用いることにより上記と同様に計算できる。
Xeyel=irisL.x−Ro・sinθLyaw ・・・(11)
Xeyel:左側の眼球中心のx座標
irisL.x:左側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θLyaw:左側の目の視線角度(yaw方向)
tanθLyaw=(irisL.x−Icenter.x)/Df ・・・(12)
Df:カメラと顔の間の距離
On the other hand, even when the coordinates of the center of the eyeball are calculated for the left eye, it can be calculated in the same manner as described above by using the following calculation formulas.
Xeyel = irisL. x-Ro · sin θLyaw (11)
Xeyel: x-coordinate of left eyeball center irisL. x: x coordinate of the center of the black eye on the left side Ro: radius of eyeball (for example, constant)
θLyaw: Eye angle of the left eye (yaw direction)
tan θLyaw = (irisL.x-Icenter.x) / Df (12)
Df: Distance between camera and face

Yeyel=irisL.y−Ro・sinθLpitch ・・・(13)
Yeyel:左側の眼球中心のy座標
irisL.y:左側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θLpitch:左側の目の視線角度(pitch方向)
tanθLpitch=(irisL.y−Icenter.y)/Df・・(14)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
Yeyel = irisL. y-Ro · sinθLpitch (13)
Yeel: y-coordinate of left eyeball center irisL. y: y coordinate of the left eye center Ro: radius of eyeball (for example, constant)
θLpitch: Eye angle of the left eye (pitch direction)
tan θLpitch = (irisL.y-Icenter.y) / Df (14)
Icenter. y: y coordinate of the center of the image Df: distance between the camera and the face

<眼球中心位置の補正>
3次元眼球モデル30における眼球中心31の位置座標に誤差がある場合であっても、上述の計算により得られる最新の眼球中心位置を用いて補正することで誤差が小さくなるように校正することができる。補正値は例えば以下に示す式により算出できる。
<Correction of eyeball center position>
Even when there is an error in the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30, the correction can be performed so that the error can be reduced by correcting using the latest eyeball center position obtained by the above calculation. it can. The correction value can be calculated by, for example, the following formula.

dXeye=Xeye−Xeyemodel ・・・(15)
dYeye=Yeye−Yeyemodel ・・・(16)
dXeye:x座標の補正値(右又は左)
dYeye:y座標の補正値(右又は左)
Xeye:算出した最新の眼球中心位置のx座標(右又は左)
Yeye:算出した最新の眼球中心位置のy座標(右又は左)
Xeyemodel:3次元眼球モデルにおける補正前の眼球中心x座標(右又は左)
Yeyemodel:3次元眼球モデルにおける補正前の眼球中心y座標(右又は左)
dXeye = Xeye-Xeyemodel (15)
dYeye = Yeee-Yeemodel (16)
dXeye: x coordinate correction value (right or left)
dYeye: y coordinate correction value (right or left)
Xeye: The latest x-coordinate of the calculated center position of the eyeball (right or left)
Yeye: the latest y-coordinate of the calculated center position of the eyeball (right or left)
Xeyemodel: eye center x coordinate (right or left) before correction in the three-dimensional eye model
Eyemodel: y-coordinate of the eyeball center before correction in the three-dimensional eyeball model (right or left)

<眼球中心位置補正1>
眼球中心位置の補正値dXeyeと3次元眼球モデルおよび入力画像との関係の例を図14に示す。
<Eyeball center position correction 1>
An example of the relationship between the correction value dXeye of the eyeball center position, the three-dimensional eyeball model, and the input image is shown in FIG.

図4に示したステップS105においては、顔正面度Dが閾値α以下であり、且つ視線正面度FDが閾値β以下であるので、最新の眼球中心位置の座標(Xeye,Yeye)を左右の目のそれぞれについて算出する。   In step S105 shown in FIG. 4, since the face front degree D is less than or equal to the threshold value α and the line-of-sight front degree FD is less than or equal to the threshold value β, the coordinates of the latest eyeball center position (Xeye, Yeye) are determined. It calculates about each of.

そして、上記第(15)式、第(16)式により補正値dXeye、dYeyeを左右の目のそれぞれについて算出する。更に、誤差が小さくなるように、補正値dXeye、dYeyeを用いて図14に示すように、3次元眼球モデル30における眼球中心31の位置座標を左右の目のそれぞれについて更新する。   Then, the correction values dXeye and dYeye are calculated for each of the left and right eyes according to the above equations (15) and (16). Further, the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30 are updated for each of the left and right eyes as shown in FIG. 14 using the correction values dXeye and dYeye so that the error is reduced.

<眼球中心位置補正2>
眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を図15に示す。
図4に示した処理を車載器に適用する場合には、人物11が正面を向き、且つ視線も正面に向いた状態が検出される毎に、ステップS105が繰り返し実行される。したがって、車載器に電源が投入されてから動作が終了するまでの間に、新たな補正値を用いて眼球中心位置の更新を繰り返すことができる。
<Eyeball center position correction 2>
A specific example of processing for reflecting the correction value of the center position of the eyeball in the operation of the vehicle-mounted device is shown in FIG.
When the process shown in FIG. 4 is applied to the vehicle-mounted device, step S105 is repeatedly executed each time a state where the person 11 faces the front and the line of sight faces the front is detected. Therefore, the update of the eyeball center position can be repeated using the new correction value after the power is turned on to the vehicle-mounted device and before the operation is completed.

そこで、より適切な更新処理を行うために、例えば図15に示した「眼球中心位置補正2」の処理をコンピュータが実行する。なお、図15においてはx軸方向の座標のみを処理しているが、y軸方向の座標についても同様に処理できる。図15に示した処理により、眼球中心位置の座標を一定の値に収束させることができる。   Therefore, in order to perform a more appropriate update process, for example, the computer executes the process of “eyeball center position correction 2” shown in FIG. In FIG. 15, only the coordinate in the x-axis direction is processed, but the coordinate in the y-axis direction can be similarly processed. With the processing shown in FIG. 15, the coordinates of the eyeball center position can be converged to a certain value.

図15のステップS41では、上述の第(7)式、第(8)式、第(15)式に基づき、眼球中心位置の補正値dXeyeをコンピュータが算出する。また、ノイズの影響により生じる可能性のある明らかな外れ値を排除するために、次のステップS42で、補正値dXeyeを所定の閾値と比較する。   In step S41 of FIG. 15, the computer calculates a correction value dXeye for the center position of the eyeball based on the above expressions (7), (8), and (15). In addition, in order to eliminate an apparent outlier that may occur due to the influence of noise, the correction value dXeye is compared with a predetermined threshold value in the next step S42.

補正値dXeyeが明らかな外れ値でない場合には、ステップS43で更新回数値Nに1を加算する(Nの初期値は0)。また、次のステップS44では今回の補正値dXeyeのデータを更新回数値Nに対応付けたメモリ位置に保存する。   If the correction value dXeye is not an obvious outlier, 1 is added to the update count value N in step S43 (the initial value of N is 0). In the next step S44, the data of the current correction value dXeye is stored in a memory location associated with the update count value N.

ステップS45では、コンピュータはメモリに保存されているN個の補正値dXeyeのデータを読み出して、これらを平均化した結果dXeye_Tを出力する。なお、平均化の具体的な方法については、単純な平均値、重み付けを行った平均値、移動平均値などの計算手法を適用可能である。   In step S45, the computer reads data of N correction values dXeye stored in the memory, and outputs a result dXeye_T obtained by averaging the data. As a specific method of averaging, calculation methods such as a simple average value, a weighted average value, and a moving average value can be applied.

図15に示したような処理を適用することにより、ノイズの影響による明らかな外れ値を更新対象から除外することができる。また、平均化により眼球中心位置の急激な変化を避けることができる。すなわち、ノイズに対してロバストになる。したがって、運転者の視線を監視する車載器のように、同一のユーザを対象とする動作を長時間にわたって行う環境においては、有効な眼球中心が随時更新されることによって高い視線検出精度が期待できる。   By applying the processing as shown in FIG. 15, an apparent outlier due to the influence of noise can be excluded from the update target. Moreover, the rapid change of the eyeball center position can be avoided by averaging. That is, it is robust against noise. Therefore, in an environment where an operation targeting the same user is performed for a long time, such as an in-vehicle device that monitors the driver's line of sight, high eye-gaze detection accuracy can be expected by updating the effective eyeball center as needed. .

<車載器の利点>
上述の車載器においては、図4に示した処理を実行することにより、眼球中心31の位置を自動的に校正することができる。しかも、この校正を行うためにユーザが特別な操作を実施する必要がなく、特別な校正機材を用意する必要もない。また、図15に示した処理を繰り返し実行することにより、ノイズの影響を排除したり、急激な変化を防止できるので、車載器の誤動作を避けることが可能になる。
<Advantages of OBE>
In the vehicle-mounted device described above, the position of the eyeball center 31 can be automatically calibrated by executing the processing shown in FIG. In addition, it is not necessary for the user to perform a special operation in order to perform this calibration, and it is not necessary to prepare special calibration equipment. Further, by repeatedly executing the processing shown in FIG. 15, it is possible to eliminate the influence of noise and prevent a sudden change, and thus it is possible to avoid malfunction of the vehicle-mounted device.

したがって、上述の技術は、車載カメラを用いた運転者の視線検出、わき見検出などに利用できる。また、例えばデジタルサイネージ(電子看板)の視認確認にも利用できる。   Therefore, the above-described technique can be used for driver's line-of-sight detection and side-view detection using an in-vehicle camera. Also, for example, it can be used for visual confirmation of digital signage (electronic signage).

ここで、上述した本発明に係る車載器の実施形態の特徴をそれぞれ以下[1]〜[4]に簡潔に纏めて列記する。
[1] 顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデル(3次元眼球モデル30)における中心(眼球中心31)が位置する眼球中心座標を算出する(S105)データ処理部(処理部13)を備える車載器。
[2] 前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における中央線との距離に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する(第(7)式参照)
上記[1]に記載の車載器。
[3] 前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し(S102)、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し(S104)、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する(S105)
上記[1]または[2]に記載の車載器。
[4] 前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する(S45)
上記[1]乃至[3]のいずれかに記載の車載器。
Here, the features of the above-described embodiments of the vehicle-mounted device according to the present invention are summarized and listed in the following [1] to [4], respectively.
[1] An eyeball center where a center (eyeball center 31) in a three-dimensional eyeball model (three-dimensional eyeball model 30) in which an eyeball included in the face image is modeled from a face image photographed so as to include the face is located A vehicle-mounted device including a data processing unit (processing unit 13) that calculates coordinates (S105).
[2] The data processing unit
A black eye center position where the center of the black eye included in the face image is located on the three-dimensional eyeball model is calculated;
Calculating a line-of-sight angle based on the distance between the center position of the black eye and the center line in the face image;
Based on the black eye center position and the line-of-sight angle, the eyeball center coordinates in the three-dimensional eyeball model are calculated (see Expression (7)).
The vehicle-mounted device according to [1] above.
[3] The data processing unit
It is determined whether the face included in the face image is facing the front (S102),
It is determined whether or not the line of sight based on the position of the black eye included in the face image is facing the front (S104),
When it is determined that the face and line of sight are facing the front, the eyeball center coordinates in the three-dimensional eyeball model are calculated (S105).
The vehicle-mounted device according to [1] or [2] above.
[4] The data processing unit
The calculation process of the eyeball center coordinates is repeatedly performed, the calculation result is stored, and the result obtained by averaging a plurality of calculation results is output (S45).
The vehicle-mounted device according to any one of [1] to [3].

10 車両の車室内
11 人物
11a 目の領域
11b 視線
12 カメラ
13 処理部
30 3次元眼球モデル
31 眼球中心
32 黒目(虹彩)
32a 黒目中心(瞳孔)
35 目の領域の二次元画像
D 顔正面度
DESCRIPTION OF SYMBOLS 10 Vehicle interior 11 Person 11a Eye area 11b Line of sight 12 Camera 13 Processing part 30 3D eyeball model 31 Eyeball center 32 Black eye (iris)
32a Center of black eyes (pupil)
35 Two-dimensional image of eye area

Claims (4)

顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出するデータ処理部を備える車載器。   An in-vehicle device including a data processing unit that calculates an eyeball center coordinate where a center is located in a three-dimensional eyeball model in which an eyeball included in the face image is modeled from a face image photographed so as to include a face. 前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における中央線との距離に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する
請求項1に記載の車載器。
The data processing unit
A black eye center position where the center of the black eye included in the face image is located on the three-dimensional eyeball model is calculated;
Calculating a line-of-sight angle based on the distance between the center position of the black eye and the center line in the face image;
The in-vehicle device according to claim 1, wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated based on the black eye center position and the line-of-sight angle.
前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
請求項1または2に記載の車載器。
The data processing unit
Determine whether the face included in the face image is facing the front,
Determining whether the line of sight based on the position of the black eye included in the face image is facing the front,
The in-vehicle device according to claim 1, wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated when it is determined that the face and the line of sight are facing the front.
前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する
請求項1乃至3のいずれか1項に記載の車載器。
The data processing unit
The in-vehicle device according to any one of claims 1 to 3, wherein the calculation processing of the eyeball center coordinates is repeatedly performed, the calculation result is stored, and a result obtained by averaging a plurality of calculation results is output.
JP2016245793A 2016-12-19 2016-12-19 On-board unit Active JP6906943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245793A JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245793A JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Publications (2)

Publication Number Publication Date
JP2018101211A true JP2018101211A (en) 2018-06-28
JP6906943B2 JP6906943B2 (en) 2021-07-21

Family

ID=62714323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245793A Active JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Country Status (1)

Country Link
JP (1) JP6906943B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048971A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP2021043665A (en) * 2019-09-10 2021-03-18 矢崎総業株式会社 Image processing device, image processing method, and image processing program
US11227157B1 (en) 2020-08-26 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. System and method for gaze direction detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102172A (en) * 2000-07-28 2002-04-09 National Institute Of Advanced Industrial & Technology Method and system for detecting visual axis
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2016173313A (en) * 2015-03-17 2016-09-29 国立大学法人鳥取大学 Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102172A (en) * 2000-07-28 2002-04-09 National Institute Of Advanced Industrial & Technology Method and system for detecting visual axis
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2016173313A (en) * 2015-03-17 2016-09-29 国立大学法人鳥取大学 Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048971A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP7198023B2 (en) 2018-09-27 2022-12-28 株式会社アイシン Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP2021043665A (en) * 2019-09-10 2021-03-18 矢崎総業株式会社 Image processing device, image processing method, and image processing program
JP7348005B2 (en) 2019-09-10 2023-09-20 矢崎総業株式会社 Image processing device, image processing method, and image processing program
US11227157B1 (en) 2020-08-26 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. System and method for gaze direction detection

Also Published As

Publication number Publication date
JP6906943B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
JP6902075B2 (en) Line-of-sight tracking using structured light
CN110913751B (en) Wearable eye tracking system with slip detection and correction functions
CN109804220B (en) Apparatus and method for tracking head movement
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
EP4383193A1 (en) Line-of-sight direction tracking method and apparatus
JP6596678B2 (en) Gaze measurement apparatus and gaze measurement method
EP3479293A1 (en) Systems and methods for performing eye gaze tracking
WO2015190204A1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
CN111854620B (en) Monocular camera-based actual pupil distance measuring method, device and equipment
US10866635B2 (en) Systems and methods for capturing training data for a gaze estimation model
JP2018101212A (en) On-vehicle device and method for calculating degree of face directed to front side
JP6452235B2 (en) Face detection method, face detection device, and face detection program
JP2018099174A (en) Pupil detector and pupil detection method
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP6906943B2 (en) On-board unit
JP2021049130A (en) Eyeball structure estimation device
JP6452236B2 (en) Eyeball identification device and eyeball identification method
JP2019098024A (en) Image processing device and method
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
JP2018149234A (en) Fixation point estimation system, fixation point estimation method, and fixation point estimation program
WO2024107744A1 (en) Systems and methods for wearable eye tracking slippage detection and correction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210630

R150 Certificate of patent or registration of utility model

Ref document number: 6906943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250