JP6906943B2 - On-board unit - Google Patents

On-board unit Download PDF

Info

Publication number
JP6906943B2
JP6906943B2 JP2016245793A JP2016245793A JP6906943B2 JP 6906943 B2 JP6906943 B2 JP 6906943B2 JP 2016245793 A JP2016245793 A JP 2016245793A JP 2016245793 A JP2016245793 A JP 2016245793A JP 6906943 B2 JP6906943 B2 JP 6906943B2
Authority
JP
Japan
Prior art keywords
center
face
eyeball
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016245793A
Other languages
Japanese (ja)
Other versions
JP2018101211A (en
Inventor
勇氣 ▲高▼橋
勇氣 ▲高▼橋
尚武 佐久本
尚武 佐久本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2016245793A priority Critical patent/JP6906943B2/en
Publication of JP2018101211A publication Critical patent/JP2018101211A/en
Application granted granted Critical
Publication of JP6906943B2 publication Critical patent/JP6906943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、顔を含むように撮影された顔画像を利用する車載器に関し、特にキャリブレーションの技術に関する。 The present invention relates to an in-vehicle device that uses a face image taken so as to include a face, and particularly relates to a calibration technique.

車両においては、運転者の視線の方向を検知し、この視線の情報を安全運転などのために役立てることが望まれている。視線を検出する代表的な手法としては、従来より「角膜反射法」、「瞳孔−角膜反射法」(例えば特許文献1)、および「モデルベース手法」(例えば特許文献2)が知られている。 In a vehicle, it is desired to detect the direction of the driver's line of sight and use the information of this line of sight for safe driving and the like. As typical methods for detecting the line of sight, "corneal reflex method", "pupil-corneal reflex method" (for example, Patent Document 1), and "model-based method" (for example, Patent Document 2) are conventionally known. ..

「角膜反射法」および「瞳孔−角膜反射法」の場合は、目に赤外線を当てることで生じる角膜反射光(プルキニエ像)を基準点とし、瞳孔の位置関係に基づいて視線を検出する。「モデルベース手法」の場合は、顔の特徴点群や3次元顔モデルと3次元眼球モデルを利用して視線を算出する。 In the case of the "corneal reflex method" and the "pupil-corneal reflex method", the line of sight is detected based on the positional relationship of the pupils with the corneal reflected light (Pulkinier image) generated by irradiating the eyes with infrared rays as a reference point. In the case of the "model-based method", the line of sight is calculated using a facial feature point cloud, a three-dimensional face model, and a three-dimensional eyeball model.

「角膜反射法」および「瞳孔−角膜反射法」はキャリブレーションなしで視線計測をすることはできない。一方、「モデルベース手法」は、キャリブレーションなしでも計測することができる。また、キャリブレーションを実施することによって個人差を解消することができるため視線の検出精度を向上させることができる。 The "corneal reflex method" and the "pupil-corneal reflex method" cannot measure the line of sight without calibration. On the other hand, the "model-based method" can measure without calibration. In addition, by performing calibration, individual differences can be eliminated, so that the line-of-sight detection accuracy can be improved.

例えば、特許文献3の技術では、校正時にヘッドアップディスプレイを用いて運転者が視認可能なターゲットを前方に虚像として表示し、ターゲットの位置を注視している状態の運転者の視線方向を検出することでキャリブレーションを実施している。 For example, in the technique of Patent Document 3, a head-up display is used at the time of calibration to display a target visible to the driver as a virtual image in front, and to detect the line-of-sight direction of the driver while gazing at the position of the target. Calibration is carried out by this.

また、例えば特許文献4は、運転者による特別な操作が不要なキャリブレーションの技術を示している。例えば、自車両と他車両との車間距離、ブレーキ踏み込みの状態などに基づいて特定の状態を検知し、運転者の視線が他車両の方向を向いている可能性が高いと考えられる時に、カメラで撮影した(他車両を含む)画像を利用してキャリブレーションを自動的に実施する。また、ODOメータリセットボタンが操作されたときに、運転者の視線が特定の方向にあるものとしてカメラで撮影した画像を用いてキャリブレーションを行っている(段落[0055]参照)。 Further, for example, Patent Document 4 shows a calibration technique that does not require a special operation by the driver. For example, when a specific state is detected based on the distance between the own vehicle and another vehicle, the state of braking, etc., and it is highly likely that the driver's line of sight is facing the other vehicle, the camera is used. Calibration is automatically performed using the images taken in (including other vehicles). Further, when the ODO meter reset button is operated, calibration is performed using an image taken by the camera assuming that the driver's line of sight is in a specific direction (see paragraph [0055]).

特開2016−49260号公報Japanese Unexamined Patent Publication No. 2016-49260 特開2008−194146号公報Japanese Unexamined Patent Publication No. 2008-194146 特開2009−183473号公報Japanese Unexamined Patent Publication No. 2009-183473 特開2012−201232号公報Japanese Unexamined Patent Publication No. 2012-201232

しかしながら、視線検出のために上記「角膜反射法」又は「瞳孔−角膜反射法」を採用する場合には、計測のためのシステム規模が大きくなるため、車内空間への適用が難しい。他方、上記「モデルベース手法」を採用する場合には、カメラ一台で実現できるため、車内空間への適用に向いている。 However, when the above-mentioned "corneal reflex method" or "pupil-corneal reflex method" is adopted for line-of-sight detection, it is difficult to apply it to the space inside the vehicle because the scale of the system for measurement becomes large. On the other hand, when the above-mentioned "model-based method" is adopted, it can be realized with a single camera, so that it is suitable for application to the vehicle interior space.

しかし、「モデルベース手法」は、「角膜反射法」よりも視線計測精度が悪い。すなわち、視線の検出に用いられるパラメータ、例えば眼球中心位置などの誤差が大きいため、検出精度が低下する。 However, the "model-based method" has poorer line-of-sight measurement accuracy than the "corneal reflex method". That is, since the error of the parameter used for detecting the line of sight, for example, the position of the center of the eyeball, is large, the detection accuracy is lowered.

そのため、キャリブレーションが必要になる。しかし、特許文献3に示されたような方法では、キャリブレーションを実施する際のユーザの負担が非常に大きいので車両への適用は難しい。また、特許文献4に示されたような方法では、高精度でキャリブレーションすることは難しい。 Therefore, calibration is required. However, the method as shown in Patent Document 3 is difficult to apply to a vehicle because the burden on the user when performing calibration is very large. Further, it is difficult to calibrate with high accuracy by the method shown in Patent Document 4.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、眼球中心位置の検出精度を向上させ、それにより視線計測精度を高めることが可能な車載器を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an in-vehicle device capable of improving the detection accuracy of the center position of the eyeball and thereby improving the eye-gaze measurement accuracy.

前述した目的を達成するために、本発明に係る車載器は、下記(1)〜()を特徴としている。
(1) 顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出するデータ処理部を備え
前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における画像の中心を通る中央線との距離、及び、前記顔画像を撮影するカメラと顔との距離、に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する
車載器。
) 前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
上記(1)記載の車載器。
) 前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する
上記(1)または(2)に記載の車載器。
In order to achieve the above-mentioned object, the on-board unit according to the present invention is characterized by the following (1) to (3).
(1) A data processing unit for calculating the eyeball center coordinates where the center is located in the three-dimensional eyeball model in which the eyeball included in the face image is modeled from the face image taken so as to include the face is provided .
The data processing unit
The center of the black eye included in the face image is located on the three-dimensional eyeball model, and the center position of the black eye is calculated.
The line-of-sight angle is calculated based on the distance between the center position of the black eye and the center line passing through the center of the image in the face image, and the distance between the camera that captures the face image and the face.
An in-vehicle device that calculates the eyeball center coordinates in the three-dimensional eyeball model based on the black eye center position and the line-of-sight angle.
( 2 ) The data processing unit
It is determined whether or not the face included in the face image is facing the front, and it is determined.
It is determined whether or not the line of sight based on the position of the iris included in the face image is facing the front.
The on-board unit according to (1) above, which calculates the eyeball center coordinates in the three-dimensional eyeball model when it is determined that the face and the line of sight are facing the front.
( 3 ) The data processing unit
The on-board unit according to (1) or (2) above, wherein the calculation process of the eyeball center coordinates is repeated, the calculation results are saved, and the result of averaging a plurality of calculation results is output.

上記(1)の構成の車載器によれば、眼球中心位置を校正(キャリブレーション)するアルゴリズムが車載器に設けられたため、車載器による眼球中心位置の検出精度が向上し、それにより視線計測精度が高まる。また、撮影された画像に基づき校正するので、特別な校正機材を用意する必要もなく、また、車載器の使用者が校正のために特別な操作をする必要がない。
更に、上記()の構成の車載器によれば、簡便な処理にて眼球中心座標を算出することができる。したがって、データ処理部の処理の負担が小さくなり、演算性能が低いコンピュータでも実用に耐え得る。データ処理部の処理の負担が小さいことは、小型化がますます求められる車載器において好適である。
上記()の構成の車載器によれば、眼球中心座標の測定精度が向上する。すなわち、顔及び黒目が撮影するカメラの方向に向いている状態で計算を実行するので、顔の向きの違いの影響による計算誤差や、視線の向きの違いの影響による計算誤差を減らすことができる。また、上記()及び()を組み合わせた構成の場合には、顔中心と画像中心が同一でない場合であっても、眼球中心座標を測定することができる。このような校正に際しては、一般的な手法としてカメラの撮影方向0度の方向に顔が位置した状態で撮影されることが望まれるが、本構成によればカメラの撮影方向0度の方向でなくても撮影方向0度に顔が位置する状態と同様の処理で校正することができる。
上記()の構成の車載器によれば、ノイズにより明らかな外れ値が一時的に算出された場合でも、その影響を平均化により低減できるので検出精度が向上する。特に、同じ運転者を長時間監視するような用途で望ましい結果が得られる。
According to the on-board unit having the configuration of (1) above, since the on-board unit is provided with an algorithm for calibrating the eyeball center position, the detection accuracy of the eyeball center position by the on-board unit is improved, thereby improving the eye-gaze measurement accuracy. Will increase. Further, since the calibration is performed based on the captured image, it is not necessary to prepare special calibration equipment, and the user of the on-board unit does not need to perform any special operation for calibration.
Further, according to the in-vehicle device having the above configuration (1 ), the eyeball center coordinates can be calculated by a simple process. Therefore, the processing load of the data processing unit is reduced, and even a computer having low computing performance can withstand practical use. The fact that the processing load of the data processing unit is small is suitable for in-vehicle devices that are increasingly required to be miniaturized.
According to the in-vehicle device having the configuration of (2 ) above, the measurement accuracy of the eyeball center coordinates is improved. That is, since the calculation is executed with the face and the iris facing the direction of the camera to be photographed, it is possible to reduce the calculation error due to the influence of the difference in the direction of the face and the calculation error due to the influence of the difference in the direction of the line of sight. .. Further, in the case of the configuration in which the above (1 ) and ( 2 ) are combined, the eyeball center coordinates can be measured even when the face center and the image center are not the same. In such calibration, as a general method, it is desirable to shoot with the face positioned in the direction of 0 degrees in the shooting direction of the camera, but according to this configuration, the shooting direction is 0 degrees in the camera. Even without it, it can be calibrated by the same process as when the face is positioned at 0 degrees in the shooting direction.
According to the in-vehicle device having the above configuration (3 ), even if a clear outlier is temporarily calculated due to noise, the influence can be reduced by averaging, so that the detection accuracy is improved. In particular, desirable results can be obtained in applications such as monitoring the same driver for a long time.

本発明の車載器によれば、眼球中心位置の検出精度を向上させ、それにより視線計測精度を高めることが可能である。すなわち、眼球中心位置を校正するアルゴリズムが車載器に設けられたため、車載器による眼球中心位置の検出精度が向上し、それにより視線計測精度が高まる。また、撮影された画像に基づき校正するので、特別な校正機材を用意する必要もなく、また、車載器の使用者が校正のために特別な操作をする必要がない。 According to the on-board unit of the present invention, it is possible to improve the detection accuracy of the center position of the eyeball, thereby improving the eye-gaze measurement accuracy. That is, since the algorithm for calibrating the eyeball center position is provided in the on-board unit, the detection accuracy of the eyeball center position by the on-board unit is improved, and the line-of-sight measurement accuracy is improved. Further, since the calibration is performed based on the captured image, it is not necessary to prepare special calibration equipment, and the user of the on-board unit does not need to perform any special operation for calibration.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through the embodiments described below (hereinafter referred to as "embodiments") with reference to the accompanying drawings. ..

図1は、実施形態の車載器の配置状態の具体例を示す斜視図である。FIG. 1 is a perspective view showing a specific example of the arrangement state of the vehicle-mounted device of the embodiment. 図2は、3次元眼球モデルを利用して視線検出する場合の処理手順の概要を示すフローチャートである。FIG. 2 is a flowchart showing an outline of a processing procedure in the case of detecting the line of sight using a three-dimensional eyeball model. 図3は、二次元の入力画像と3次元眼球モデルとの関係の例を示す模式図である。FIG. 3 is a schematic diagram showing an example of the relationship between the two-dimensional input image and the three-dimensional eyeball model. 図4は、眼球中心位置を自動的に校正するための処理手順の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of a processing procedure for automatically calibrating the center position of the eyeball. 図5は、顔正面度を計算するための2種類の処理手順の各々を示すフローチャートである。FIG. 5 is a flowchart showing each of the two types of processing procedures for calculating the face front degree. 図6は、顔画像と検出された特徴点群との位置関係の具体例を示す正面図である。FIG. 6 is a front view showing a specific example of the positional relationship between the face image and the detected feature point cloud. 図7は、顔画像と顔の中心との位置関係の具体例を示す正面図である。FIG. 7 is a front view showing a specific example of the positional relationship between the face image and the center of the face. 図8は、顔画像における顔の中心線と左右の黒目位置との関係の具体例を示す正面図である。FIG. 8 is a front view showing a specific example of the relationship between the center line of the face and the positions of the left and right irises in the face image. 図9は、3次元眼球モデルの眼球中心、黒目中心、視角の位置関係の例を示す平面図である。FIG. 9 is a plan view showing an example of the positional relationship between the center of the eyeball, the center of the iris, and the viewing angle of the three-dimensional eyeball model. 図10は、顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。FIG. 10 is a front view showing an example of the positional relationship between the center line and the left and right iris centers when the center of the face and the center of the image are equal to each other. 図11は、顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。FIG. 11 is a plan view showing an example of the viewing angle, the distance, and the positional relationship between the left and right iris centers when the center of the face and the center of the image are equal. 図12は、顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を示す正面図である。FIG. 12 is a front view showing an example of the positional relationship between the center line and the left and right iris centers when the center of the face and the center of the image are not the same. 図13は、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の位置関係の例を示す平面図である。FIG. 13 is a plan view showing an example of the viewing angle, the distance, and the positional relationship between the left and right iris centers when the center of the face and the center of the image are not the same. 図14は、眼球中心位置の補正値と3次元眼球モデルおよび入力画像との関係の例を示す模式図である。FIG. 14 is a schematic diagram showing an example of the relationship between the correction value of the eyeball center position and the three-dimensional eyeball model and the input image. 図15は、眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を示すフローチャートである。FIG. 15 is a flowchart showing a specific example of processing for reflecting the correction value of the eyeball center position in the operation of the vehicle-mounted device.

本発明の車載器に関する具体的な実施の形態について、各図を参照しながら以下に説明する。 A specific embodiment of the vehicle-mounted device of the present invention will be described below with reference to each figure.

<本発明が適用される環境の具体例>
本発明の実施形態における車載器の配置状態の具体例を図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
<Specific example of environment to which the present invention is applied>
FIG. 1 shows a specific example of the arrangement state of the on-board unit according to the embodiment of the present invention.
In the example shown in FIG. 1, the camera 12 and the processing unit 13 are installed in the vehicle interior 10 of the vehicle. Specifically, in the meter unit in front of the driver's seat or at the column cover so that the person 11 seated in the driver's seat, that is, the face including the driver's eye area 11a can be photographed by the camera 12. A camera 12 is installed.

処理部13は、カメラ12が人物11の顔を撮影した得られる二次元画像データを処理し、主に目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の車載器は、例えば図1中の処理部13、あるいはその一部として構成することが想定される。 The processing unit 13 processes the two-dimensional image data obtained by photographing the face of the person 11 by the camera 12, and estimates the information indicating the direction of the line of sight 11b mainly from the data of the eye region 11a. The information of the line of sight 11b estimated by the processing unit 13 can be used as a typical example for the in-vehicle device to recognize whether or not the driver who drives the vehicle is moving the line of sight for safety confirmation. Of course, such line-of-sight information can be used for various purposes. Therefore, it is assumed that the on-board unit of the present invention is configured as, for example, the processing unit 13 in FIG. 1 or a part thereof.

なお、本実施形態の車載器は、後述するように、カメラ12が撮影した二次元画像データに基づいて、眼球中心位置を自動的に校正する機能を搭載している。したがって、車載器の視線検出機能を校正するために、図1に示した構成以外に、特別な校正機材を用意する必要はない。また、人物11も校正のために特別な調整の操作を実施する必要がない。 The on-board unit of the present embodiment is equipped with a function of automatically calibrating the center position of the eyeball based on the two-dimensional image data captured by the camera 12, as will be described later. Therefore, in order to calibrate the line-of-sight detection function of the on-board unit, it is not necessary to prepare special calibration equipment other than the configuration shown in FIG. Further, the person 11 does not need to perform a special adjustment operation for calibration.

<視線検出アルゴリズムの概要>
3次元眼球モデルを利用して、顔画像に基づき視線検出する場合の処理手順の概要を図2に示す。すなわち、車載器のコンピュータが所定のプログラムを実行することにより、図2に示した視線検出アルゴリズムに従った動作が順次に行われる。
<Overview of line-of-sight detection algorithm>
FIG. 2 shows an outline of the processing procedure in the case of detecting the line of sight based on the face image using the three-dimensional eyeball model. That is, when the computer of the on-board unit executes a predetermined program, the operations according to the line-of-sight detection algorithm shown in FIG. 2 are sequentially performed.

カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。車載器のコンピュータは、ステップS11でカメラ12から映像の信号を1フレーム分取り込む。また、実際にはグレースケール化を含む、画像のデータ形式の変換などの「下処理」をS11で行う。例えば、1フレーム内の各画素位置毎に、輝度を「0〜255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向(y)及び横方向(x)に並べた二次元(2D)配列の画像データを生成する。 The camera 12 constantly captures an image of a region including the face of the person 11 at a constant cycle, and outputs an image signal. The computer of the on-board unit captures one frame of the video signal from the camera 12 in step S11. Further, in reality, "preparation" such as conversion of the image data format including grayscale conversion is performed in S11. For example, 8-bit data representing the brightness in gradations in the range of "0 to 255" for each pixel position in one frame is displayed in the vertical direction (y) and the horizontal direction (y) according to the scanning direction in the frame at the time of shooting. Generate image data of a two-dimensional (2D) array arranged in x).

ステップS12では、コンピュータがS11で入力された1フレームまたは複数フレームの二次元画像データを処理して、人物11の顔を検出する。具体例としては、「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。勿論、独自に開発した手法を利用して顔を検出してもよい。なお、「Viola-Jones法」の技術は以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
In step S12, the computer processes the two-dimensional image data of one frame or a plurality of frames input in S11 to detect the face of the person 11. As a specific example, face detection is performed using the "Viola-Jones method", and a region including a face is extracted as a rectangular region from one frame of two-dimensional image data. That is, the facial region is extracted using a detector created by learning using "Boosting", which is characterized by the difference in the shading of the face. Of course, the face may be detected by using a method originally developed. The technology of the "Viola-Jones method" is shown in the following documents.
"P. viola and MJ Jones," Rapid Object Detection Using a Boosted Cascade of Simple Features, "IEEE CVPR (2001)."

次のステップS13では、S12で抽出した顔の矩形領域内のデータを処理して、左右の黒目(虹彩)の各々を検出する。例えば、公知技術であるテンプレートマッチングを用いることにより黒目を検出できる。すなわち、例えば黒い円形パターンのような黒目の特徴を表すテンプレートの参照データを予め用意しておき、このテンプレートを処理対象画像上で順次に走査して特徴が一致する位置を特定する。なお、黒目の検出を実行する前に、顔の全体について様々な特徴点の位置または陰影差を検出し、左右の目の各々の領域の位置を把握する。これにより、左右の黒目の検出を行う際に、探索処理の対象となるデータの範囲を限定できるので、処理の時間を短縮できる。例えば、「Viola-Jones法」を用いることにより目の領域を検出できる。 In the next step S13, the data in the rectangular region of the face extracted in S12 is processed to detect each of the left and right black eyes (iris). For example, black eyes can be detected by using template matching, which is a known technique. That is, reference data of a template representing a feature of black eyes such as a black circular pattern is prepared in advance, and this template is sequentially scanned on the image to be processed to specify a position where the features match. Before executing the detection of the black eye, the positions of various feature points or the shadow difference are detected for the entire face, and the positions of the respective regions of the left and right eyes are grasped. As a result, when detecting the left and right black eyes, the range of data to be searched can be limited, so that the processing time can be shortened. For example, the eye region can be detected by using the "Viola-Jones method".

さて、本実施形態では3次元眼球モデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、左右の各眼球の基準点として眼球中心位置を特定する必要がある。この眼球中心位置をコンピュータがステップS14で推定する。この処理には、目尻、目頭位置に基づいて眼球中心位置を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することが想定される。但し、本発明の実施形態においては、後述するように特別なアルゴリズムを用いて眼球中心位置を特定する。 Since the present embodiment assumes a case where the line of sight is detected by a model-based method using a three-dimensional eyeball model, it is necessary to specify the eyeball center position as a reference point for each of the left and right eyeballs. The computer estimates the center position of the eyeball in step S14. For this process, it is assumed that a method of determining the center of the eyeball based on the positions of the outer and inner corners of the eye and a method of estimating the skeleton from the feature points of the face and simultaneously calculating the center of the eyeball are used. However, in the embodiment of the present invention, the center position of the eyeball is specified by using a special algorithm as described later.

ステップS15では、コンピュータが、検出した黒目位置、および眼球中心位置に基づき、3次元眼球モデルの状態(位置、角度)を決定し、その結果により視線の角度を算出する。 In step S15, the computer determines the state (position, angle) of the three-dimensional eyeball model based on the detected iris position and eyeball center position, and calculates the line-of-sight angle based on the result.

ステップS16では、コンピュータが、ステップS15で得られた視線の角度に対して、必要に応じてデータの平均化、ノイズ除去などの処理を行い、視線の方向の情報を利用するアプリケーションプログラムや他の車載器に対して視線を表すデータを送信する。 In step S16, the computer performs processing such as data averaging and noise removal on the line-of-sight angle obtained in step S15 as necessary, and uses the information on the line-of-sight direction in an application program or other device. Data representing the line of sight is transmitted to the in-vehicle device.

<3次元眼球モデルの説明>
二次元の入力画像と3次元眼球モデルとの関係の例を図3に示す。
図3に示した3次元眼球モデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。黒目(虹彩)32は、3次元眼球モデル30の眼球表面上に張り付いた半径Diの円盤状の領域であるとみなしている。黒目(虹彩)32の中心32aは瞳孔の中央部に相当する。なお、眼球の半径Rおよび黒目の半径Diの各寸法は、人体の寸法データおよびカメラ12の撮影系の各種パラメータに基づいて決めることができる。
<Explanation of 3D eyeball model>
An example of the relationship between the two-dimensional input image and the three-dimensional eyeball model is shown in FIG.
In the three-dimensional eyeball model 30 shown in FIG. 3, this eyeball is a sphere represented by an eyeball center 31 and a radius R. The black eye (iris) 32 is regarded as a disk-shaped region having a radius of Di attached to the surface of the eyeball of the three-dimensional eyeball model 30. The center 32a of the black eye (iris) 32 corresponds to the central part of the pupil. The dimensions of the radius R of the eyeball and the radius Di of the black eye can be determined based on the dimensional data of the human body and various parameters of the photographing system of the camera 12.

この3次元眼球モデル30において、視線の方向は、眼球中心31から黒目32の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、黒目中心32aの座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。 In this three-dimensional eyeball model 30, the direction of the line of sight can be specified as the direction from the center of the eyeball 31 toward the center of the black eye 32, the rotation angle yaw with respect to the reference direction in the horizontal plane, and the rotation angle with respect to the reference direction in the vertical direction. It can be expressed by pitch. Further, the coordinates of the iris center 32a can be represented by the eyeball radius R, yaw, and pitch when the eyeball center 31 is used as a reference.

一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、入力画像として例えば図3に示した目の領域の二次元画像35が入力された場合には、3次元眼球モデル30を利用するために二次元/三次元の相互変換を行う必要がある。 On the other hand, the image captured by the camera 12 represents a specific two-dimensional plane. Therefore, for example, when the two-dimensional image 35 of the eye region shown in FIG. 3 is input as the input image, it is necessary to perform two-dimensional / three-dimensional mutual conversion in order to use the three-dimensional eyeball model 30. ..

具体的には、目の領域の二次元画像35の中で黒目中心32aの位置、および眼球中心31の位置の二次元座標をそれぞれ検出し、これらの二次元座標を3次元眼球モデル30の三次元座標上に投影する。これにより視線11bのベクトルを算出することができる。視線11bのベクトルと、各方向の回転角度yaw、pitchとの関係は次式で表される。 Specifically, the two-dimensional coordinates of the position of the black eye center 32a and the position of the eyeball center 31 are detected in the two-dimensional image 35 of the eye region, and these two-dimensional coordinates are used as the third order of the three-dimensional eyeball model 30. Project on the original coordinates. This makes it possible to calculate the vector of the line of sight 11b. The relationship between the vector of the line of sight 11b and the rotation angles yaw and pitch in each direction is expressed by the following equation.

X=−R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X = -R x cos (pitch) x sin (yaw) ... (1)
Y = R × sin (pitch) ・ ・ ・ (2)
X: Distance in the x direction from the center of the eyeball 31 on the two-dimensional image plane Y: Distance in the y direction from the center of the eyeball 31 on the two-dimensional image plane

<特徴的な処理の説明>
<処理の概要>
3次元眼球モデル30における眼球中心31の位置を自動的に校正するための処理手順の概要を図4に示す。例えば、処理部13内部のコンピュータが、図2に示したステップS14として図4に示した処理を実行することにより、眼球中心31の位置が自動的に校正される。これにより、眼球中心31の位置精度が向上するので、視線検出精度も上がる。校正のために運転者等のユーザが特別な操作を行う必要もない。
<Explanation of characteristic processing>
<Outline of processing>
FIG. 4 shows an outline of a processing procedure for automatically calibrating the position of the eyeball center 31 in the three-dimensional eyeball model 30. For example, the position of the eyeball center 31 is automatically calibrated by the computer inside the processing unit 13 executing the process shown in FIG. 4 as step S14 shown in FIG. As a result, the position accuracy of the eyeball center 31 is improved, so that the line-of-sight detection accuracy is also improved. There is no need for a user such as a driver to perform a special operation for calibration.

図4のステップS101では、入力画像に映っている人物11の顔の正面度、すなわち「顔が正面を向いている度合」をコンピュータが計算する。そして、S101の計算結果に基づき、「顔が正面を向いている」とみなせる状態であれば、ステップS102からS103に進む。 In step S101 of FIG. 4, the computer calculates the frontal degree of the face of the person 11 shown in the input image, that is, "the degree to which the face is facing the front". Then, if it can be considered that "the face is facing the front" based on the calculation result of S101, the process proceeds from steps S102 to S103.

ステップS103では、入力画像に映っている人物11の視線の正面度、すなわち「視線の方向が正面を向いている度合」をコンピュータが計算する。そして、S103の計算結果に基づき、「視線の方向が正面を向いている」とみなせる状態であれば、ステップS104からS105に進む。 In step S103, the computer calculates the degree of frontality of the line of sight of the person 11 shown in the input image, that is, "the degree to which the direction of the line of sight is facing the front". Then, if it can be considered that "the direction of the line of sight is facing the front" based on the calculation result of S103, the process proceeds from step S104 to S105.

ステップS105では、入力画像に映っている人物11の現在の特徴に基づいて、最新の眼球中心位置を算出し、眼球中心位置を更新するために必要な補正値を求める。この補正値を次のステップS106で、3次元眼球モデル30の眼球中心31の座標に反映し校正を実行する。 In step S105, the latest eyeball center position is calculated based on the current characteristics of the person 11 shown in the input image, and the correction value required for updating the eyeball center position is obtained. In the next step S106, this correction value is reflected in the coordinates of the eyeball center 31 of the three-dimensional eyeball model 30 to perform calibration.

<「顔正面度」の計算の詳細>
「顔正面度」は、入力画像上において「顔が正面を向いている度合」を表す。「顔正面度」を計算するための2種類の処理手順の各々を図5に示す。これらの処理手順のいずれか一方を図4に示したステップS101で実行する。図5に示した「顔正面度計算1」、「顔正面度計算2」のそれぞれについて以下に説明する。
<Details of calculation of "face front degree">
The "face front degree" represents "the degree to which the face faces the front" on the input image. Each of the two types of processing procedures for calculating the "face front degree" is shown in FIG. One of these processing procedures is executed in step S101 shown in FIG. Each of the "face front degree calculation 1" and the "face front degree calculation 2" shown in FIG. 5 will be described below.

<「顔正面度計算1」>
顔画像と検出された特徴点群61との位置関係の具体例を図6に示す。
図5のステップS21では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。この顔領域の画像データFに対して、ステップS22では、コンピュータが所定の画像処理を施し、特徴点の検出を実行する。これにより、例えば図6に示すように、眉毛、左右の目、鼻、唇、顎などの各部位について輪郭などを表す特徴点群61が検出される。
<"Face front degree calculation 1">
FIG. 6 shows a specific example of the positional relationship between the face image and the detected feature point cloud 61.
In step S21 of FIG. 5, the image data F of the face region detected in S12 of FIG. 2 is input as a processing target. In step S22, the computer performs predetermined image processing on the image data F of the face region to detect the feature points. As a result, as shown in FIG. 6, for example, a feature point group 61 representing contours of each part such as eyebrows, left and right eyes, nose, lips, and chin is detected.

次のステップS23では、コンピュータはステップS22で得られた特徴点群61に基づき、これらの顔特徴点群の重心位置を次の第(3)式により計算する。この計算を実行する際には、「特徴点群61が顔の中心に対して左右対称に設定されている」条件を満たしていることを前提として処理する。 In the next step S23, the computer calculates the position of the center of gravity of these facial feature point groups by the following equation (3) based on the feature point group 61 obtained in step S22. When executing this calculation, it is premised that the condition that "the feature point group 61 is set symmetrically with respect to the center of the face" is satisfied.

Figure 0006906943
g(x,y):座標(x,y)で表される重心位置
P:顔特徴点の総数
f(p):p番目の顔特徴点の位置情報
Figure 0006906943
g (x, y): Center of gravity position represented by coordinates (x, y) P: Total number of facial feature points f (p): Position information of p-th facial feature point

したがって、ステップS23で計算される重心位置g(x,y)のx座標は、左右方向の顔の向きに影響される。すなわち、顔が正面向き(顔の向きが0)の場合には、重心位置g(x,y)のx座標「g.x」が顔の中心(facecen.x,facecen.y)のx座標と等しくなり、顔が正面向きでない場合は重心位置g(x,y)が顔の中心からずれた状態になる。 Therefore, the x-coordinate of the center of gravity position g (x, y) calculated in step S23 is affected by the orientation of the face in the left-right direction. That is, when the face is facing forward (the direction of the face is 0), the x-coordinate "g.x" of the center of gravity position g (x, y) is the x-coordinate of the center of the face (facecen.x, facecen.y). If the face is not facing forward, the center of gravity position g (x, y) is deviated from the center of the face.

なお、顔の中心位置を表すx座標の値(facecen.x)およびy座標の値(facecen.y)は、それぞれ顔領域の画像データFにおける横(x)方向の中央値、および縦(y)方向の中央値として算出できる。
したがって、顔正面度Dxは次式により算出できる。
The x-coordinate value (facecen.x) and the y-coordinate value (facecen.y) representing the center position of the face are the median value in the horizontal (x) direction and the vertical (y) in the image data F of the face region, respectively. ) Can be calculated as the median of the direction.
Therefore, the face front degree Dx can be calculated by the following equation.

Figure 0006906943
Dx:顔正面度(x方向)
facecen.x:顔の中心のx座標
g.x:重心位置のx座標
αx:顔向きが正面か否かを識別するための閾値
Figure 0006906943
Dx: Face front (x direction)
facecen. x: x coordinate of the center of the face g. x: x-coordinate of the position of the center of gravity αx: Threshold value for identifying whether or not the face is facing the front

上記第(4−1)式により算出した顔正面度Dxを用いる場合には、図4のステップS102でこの顔正面度Dxを閾値αxと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αxの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。 When the face front degree Dx calculated by the above equation (4-1) is used, it is identified whether or not the face orientation is front by comparing the face front degree Dx with the threshold value αx in step S102 of FIG. can. Regarding the magnitude of the threshold value αx, it is assumed that an optimum value is adopted in consideration of parameters representing the shooting conditions of the camera 12 and individual differences.

顔正面度は横方向の向きだけでなく、縦方向の向きも考慮することが可能である。しかし、人間の顔の構造は、上下方向に対称な構造ではないため、あらかじめ、縦方向で正面を向いているときに、特等点群の重心位置のy座標g.yと、顔の中心位置のy座標「facecen.y」とのズレ量dyを求めておく必要が在る。なお、dy値は検出器の特徴点配置によって決められるものであり、固定値として求まる。縦方向の顔正面度Dyは次式(4―2)のようになる。

Figure 0006906943
It is possible to consider not only the horizontal orientation but also the vertical orientation for the face front degree. However, since the structure of the human face is not symmetrical in the vertical direction, the y-coordinate g. It is necessary to obtain the amount of deviation dy between y and the y coordinate "facecen.y" of the center position of the face. The dy value is determined by the arrangement of the feature points of the detector, and is obtained as a fixed value. The face front degree Dy in the vertical direction is as shown in the following equation (4-2).
Figure 0006906943

<「顔正面度計算2」>
顔画像と顔の中心(facecen.x,facecen.y)との位置関係の具体例を図7に示す。
<"Face front degree calculation 2">
FIG. 7 shows a specific example of the positional relationship between the face image and the center of the face (facecen.x, facecen.y).

図5のステップS31では、図2のS12で検出された顔領域の画像データFを処理対象として入力する。 In step S31 of FIG. 5, the image data F of the face region detected in S12 of FIG. 2 is input as a processing target.

図5のステップS32では、S31で入力した顔領域の画像データFを処理して、顔画像におけるx軸の中央(facecen.x)に対して左右を反転した反転画像データFLをコンピュータが作成する。そして、次のステップS33では、画像データFと反転画像データFLとの相関値を顔正面度Dとしてコンピュータが算出する。この場合の顔正面度Dは次式により算出される。 In step S32 of FIG. 5, the image data F of the face region input in S31 is processed, and the computer creates the inverted image data FL in which the left and right sides are inverted with respect to the center (facecen.x) of the x-axis in the face image. .. Then, in the next step S33, the computer calculates the correlation value between the image data F and the inverted image data FL as the face front degree D. The face front degree D in this case is calculated by the following formula.

Figure 0006906943
D:顔正面度
N:顔画像のx方向画素数
M:顔画像のy方向画素数
F(i,j):画像データFの座標(i,j)の画素の輝度値(階調)
FL(i,j):反転画像データFLの座標(i,j)の画素の輝度値(階調)
α:顔向きが正面か否かを識別するための閾値
Figure 0006906943
D: Face front degree N: Number of pixels in x-direction of face image M: Number of pixels in y-direction of face image F (i, j): Luminance value (gradation) of pixels at coordinates (i, j) of image data F
FL (i, j): Luminance value (gradation) of pixels at coordinates (i, j) of inverted image data FL
α: Threshold for identifying whether the face is facing the front

つまり、顔の特徴が顔の中央(facecen.x)に対して左右対称である場合を想定すれば、顔の中央から左側の特徴と右側の特徴とが等しい。したがって、画像データFと反転画像データFLとの相関の逆数を表す顔正面度Dは、顔向きが正面に近い状態で非常に小さくなり、顔向きが正面からずれると大きくなる。 That is, assuming that the facial features are symmetrical with respect to the center of the face (facecen.x), the features on the left side from the center of the face and the features on the right side are equal. Therefore, the face front degree D, which represents the reciprocal of the correlation between the image data F and the inverted image data FL, becomes very small when the face orientation is close to the front, and increases when the face orientation deviates from the front.

上記第(5)式により算出した顔正面度Dを用いる場合には、図4のステップS102でこの顔正面度Dを閾値αと比較することにより、顔向きが正面か否かを識別できる。なお、閾値αの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。 When the face front degree D calculated by the above equation (5) is used, it is possible to identify whether or not the face orientation is front by comparing the face front degree D with the threshold value α in step S102 of FIG. Regarding the magnitude of the threshold value α, it is assumed that an optimum value is adopted in consideration of parameters representing the shooting conditions of the camera 12 and individual differences.

<「視線正面度」の計算の詳細>
顔画像における顔の中心線と左右の黒目位置との関係の具体例を図8に示す。
視線正面度FDは、入力画像に映っている人物11の視線の方向が正面を向いている度合、つまり、左右それぞれの目に3次元眼球モデル30を適用して得られた回転角度より計算される視線方向θ(yaw,pitch)が0度である度合を表す。
<Details of calculation of "line-of-sight front">
FIG. 8 shows a specific example of the relationship between the center line of the face and the positions of the left and right irises in the face image.
The line-of-sight front degree FD is calculated from the degree to which the line-of-sight direction of the person 11 shown in the input image is facing the front, that is, the rotation angle obtained by applying the three-dimensional eyeball model 30 to each of the left and right eyes. Indicates the degree to which the line-of-sight direction θ (yaw, pitch) is 0 degrees.

本実施形態では、図4の通り「顔の向きが正面である」という条件を満たしていることを前提として、次式によりコンピュータが視線正面度FDを算出する。 In the present embodiment, on the premise that the condition that "the direction of the face is the front" is satisfied as shown in FIG. 4, the computer calculates the line-of-sight front degree FD by the following formula.

Figure 0006906943
FD:視線正面度
irisR.x:右側の黒目の中心位置のx座標
irisL.x:左側の黒目の中心位置のx座標
facecen.x:顔の中心のx座標
β:視線の向きが正面か否かを識別するための閾値
Figure 0006906943
FD: Line-of-sight front degree irisR. x: x-coordinate of the center position of the right black eye irisL. x: x-coordinate facecen. Of the center position of the left black eye. x: x-coordinate β of the center of the face: threshold value for identifying whether or not the direction of the line of sight is front

なお、本実施形態では、両眼などの左右の位置関係は、人物11に対する左右ではなく、カメラ12側から視た左右や、撮影により得られた二次元画像上の左右を表すものとして説明する。 In the present embodiment, the positional relationship between the left and right eyes of both eyes and the like is described as not representing the left and right with respect to the person 11, but the left and right as seen from the camera 12 side and the left and right on the two-dimensional image obtained by photographing. ..

つまり、上記第(6)式で表される視線正面度FDは、x軸方向について、左右の黒目中心の間の中央位置と、顔の中心線の位置(facecen.x)との差分を表している。したがって、例えば中心線の位置(facecen.x)から右側の黒目の中心位置までの距離と、左側の黒目の中心位置までの距離とが等距離であれば、視線の方向が正面を向いていると判定できる。また、x軸方向の位置関係に基づき視線の方向が正面を向いていると判断できる状況であれば、同時にy軸方向についても視線の方向が正面を向いていると考えることができる。 That is, the line-of-sight frontality FD represented by the above equation (6) represents the difference between the center position between the left and right iris centers and the position of the center line of the face (facecen.x) in the x-axis direction. ing. Therefore, for example, if the distance from the position of the center line (facecen.x) to the center position of the black eye on the right side and the distance to the center position of the black eye on the left side are equidistant, the direction of the line of sight is facing the front. Can be determined. Further, if it can be determined that the direction of the line of sight is facing the front based on the positional relationship in the x-axis direction, it can be considered that the direction of the line of sight is also facing the front in the y-axis direction at the same time.

また、視線正面度FDは、視線の方向が正面を向いている時に0になり、視線の方向が正面からずれるに従って大きくなる。したがって、上記第(6)式により算出した視線正面度FDを用いる場合には、図4のステップS104でこの視線正面度FDを閾値βと比較することにより、視線の向きが正面か否かを識別できる。なお、閾値βの大きさについては、カメラ12の撮影条件を表すパラメータや個人差などを考慮して最適な値を採用することが想定される。 Further, the line-of-sight front degree FD becomes 0 when the line-of-sight direction is facing the front, and increases as the line-of-sight direction deviates from the front. Therefore, when the line-of-sight front degree FD calculated by the above equation (6) is used, whether or not the line-of-sight direction is front is determined by comparing the line-of-sight front degree FD with the threshold value β in step S104 of FIG. Can be identified. Regarding the magnitude of the threshold value β, it is assumed that an optimum value is adopted in consideration of parameters representing the shooting conditions of the camera 12 and individual differences.

<眼球中心位置の算出>
図4に示したステップS105で最新の眼球中心位置を算出するための処理について以下に説明する。
<Calculation of eyeball center position>
The process for calculating the latest eyeball center position in step S105 shown in FIG. 4 will be described below.

<x軸方向の顔の中心と画像の中心とが等しい場合>
3次元眼球モデルの眼球中心、黒目中心、視角の水平面(又はx,z軸と平行な面)内における位置関係の例を図9に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の中心線と左右の黒目中心との位置関係の例を図10に示す。また、x軸方向の顔の中心と画像の中心とが等しい場合の視角、距離、左右の黒目中心の水平面内における位置関係の例を図11に示す。
<When the center of the face in the x-axis direction is equal to the center of the image>
FIG. 9 shows an example of the positional relationship between the center of the eyeball, the center of the iris, and the visual angle in the horizontal plane (or the plane parallel to the x and z axes) of the three-dimensional eyeball model. Further, FIG. 10 shows an example of the positional relationship between the center line and the left and right iris centers when the center of the face in the x-axis direction and the center of the image are equal to each other. Further, FIG. 11 shows an example of the visual angle, the distance, and the positional relationship between the left and right iris centers in the horizontal plane when the center of the face in the x-axis direction is equal to the center of the image.

左右の目のそれぞれについてほぼ同じ方法で計算できるので、以下の説明では右側の目のみを計算対象として処理する場合を想定している。
例えば、図9に示した状態においては、次の第(7)式の関係が成立する。
Since the calculation can be performed for each of the left and right eyes in almost the same way, the following explanation assumes that only the right eye is processed as the calculation target.
For example, in the state shown in FIG. 9, the relationship of the following equation (7) is established.

Xeyer=irisR.x−Ro・sinθRyaw ・・・(7)
Xeyer:右側の眼球中心のx座標
irisR.x:右側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θRyaw:右側の目の視線角度(yaw方向)
Xeyer = irisR. x-Ro ・ sinθRyaw ・ ・ ・ (7)
Xeyer: x-coordinate of the center of the right eyeball irisR. x: x-coordinate of the center of the right iris Ro: radius of the eyeball (for example, a constant)
θRyaw: Line-of-sight angle of the right eye (yaw direction)

つまり、黒目中心の位置「irisR.x」および視線角度「θRyaw」が既知であれば、上記第(7)式から眼球中心のx座標「Xeyer」を算出できる。 That is, if the position "irisR.x" at the center of the iris and the line-of-sight angle "θRyaw" are known, the x-coordinate "Xeyer" at the center of the eyeball can be calculated from the above equation (7).

また、図10に示すように画像中の顔中心位置のx座標「facecen.x」と、カメラで撮影した画像の中心のx座標「Icenter.x」とが等しく、且つ図11に示すような状況であることを想定すると、視線角度「θRyaw」は次の第(8)式で算出できる。
tanθRyaw=(irisR.x−Icenter.x)/Df ・・・(8)
Df:カメラと顔の間の距離
Further, as shown in FIG. 10, the x-coordinate “facecen.x” of the face center position in the image and the x-coordinate “Icenter.x” of the center of the image taken by the camera are equal, and as shown in FIG. Assuming that it is a situation, the line-of-sight angle "θRyaw" can be calculated by the following equation (8).
tanθRyaw = (irisR.x-Icenter.x) / Df ... (8)
Df: Distance between the camera and the face

距離Dfについては、例えば適当な距離センサを利用して計測すれば、既知情報として扱うことができる。また、例えば「特開2015−206764号公報」に開示されている技術を利用すれば、距離センサは不要になる。また、前述のように顔画像から黒目を検出できるので、黒目中心の位置「irisR.x」も既知情報として利用できる。更に、画像の中心のx座標「Icenter.x」としては例えば事前に定めた定数を利用することができる。 The distance Df can be treated as known information if it is measured using, for example, an appropriate distance sensor. Further, for example, if the technique disclosed in "Japanese Unexamined Patent Publication No. 2015-206764" is used, the distance sensor becomes unnecessary. Further, since the iris can be detected from the face image as described above, the position "irisR.x" at the center of the iris can also be used as known information. Further, as the x-coordinate "Icenter.x" of the center of the image, for example, a predetermined constant can be used.

したがって、上記第(8)式から視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と、黒目中心の位置「irisR.x」と、眼球の半径Roを前記第(7)式に代入することにより、右側の眼球中心のx座標Xeyerを算出できる。 Therefore, the line-of-sight angle "θRyaw" can be calculated from the above equation (8). Further, by substituting the line-of-sight angle "θRyaw", the position of the center of the iris "irisR.x", and the radius Ro of the eyeball into the above equation (7), the x-coordinate Xeyer of the center of the right eyeball can be calculated.

また、右側の眼球中心のy座標Yeyerについても、以下の第(9)式及び第(10)式を利用することにより同様に算出できる。
Yeyer=irisR.y−Ro・sinθRpitch ・・・(9)
Yeyer:右側の眼球中心のy座標
irisR.y:右側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θRpitch:右側の目の視線角度(pitch方向)
Further, the y-coordinate Yeyer at the center of the right eyeball can be similarly calculated by using the following equations (9) and (10).
Yeyer = irisR. y-Ro ・ sinθRpitch ・ ・ ・ (9)
Yeyer: y-coordinate of the center of the right eyeball irisR. y: y coordinate of the center of the right iris Ro: radius of the eyeball (for example, a constant)
θRpitch: Line-of-sight angle of the right eye (pitch direction)

tanθRpitch=(irisR.y−Icenter.y)/Df・・(10)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
tanθRpitch = (irisR.y-Center.y) / Df ... (10)
Icenter. y: y coordinate of the center of the image Df: Distance between the camera and the face

<x軸方向の顔の中心と画像の中心とがずれている場合>
顔の中心と画像の中心とが同一でない場合の中心線と左右の黒目中心との位置関係の例を図12に示す。また、顔の中心と画像の中心とが同一でない場合の視角、距離、左右の黒目中心の水平面(x,z軸と平行な面)内における位置関係の例を図13に示す。
<When the center of the face in the x-axis direction and the center of the image are out of alignment>
FIG. 12 shows an example of the positional relationship between the center line and the left and right iris centers when the center of the face and the center of the image are not the same. Further, FIG. 13 shows an example of the visual angle, the distance, and the positional relationship in the horizontal plane (the plane parallel to the x and z axes) of the left and right iris centers when the center of the face and the center of the image are not the same.

例えば、図12に示すように顔の中心線のx座標「facecen.x」が、画像の中心のx座標「Icenter.x」からずれている場合であっても、図13に示すように顔はカメラ12を中心とし、半径が距離Dfで表される円周上に存在する。また、顔の中心位置「facecen.x」と、画像の中心「Icenter.x」とは顔回転角度「facerad」だけずれている。しかし、カメラ12に対して顔が正面を向き、且つ両眼の各々の視線がカメラ12に向いている状態であれば、右側の目の視線角度「θRyaw」は、図13のように画像の中心「Icenter.x」に対する目の位置の回転角度として表すことができる。 For example, even if the x-coordinate "facecen.x" of the center line of the face deviates from the x-coordinate "Icenter.x" of the center of the image as shown in FIG. 12, the face is shown in FIG. Is centered on the camera 12 and exists on the circumference whose radius is represented by the distance Df. Further, the center position "facecen.x" of the face and the center "Icenter.x" of the image are deviated by the face rotation angle "facead". However, if the face is facing the front of the camera 12 and the lines of sight of both eyes are facing the camera 12, the line-of-sight angle "θRyaw" of the right eye is as shown in FIG. It can be expressed as the rotation angle of the eye position with respect to the center "Icenter.x".

したがって、x軸方向の顔の中心と画像の中心とがずれている場合であっても、前記第(8)式を用いて視線角度「θRyaw」を算出できる。また、この視線角度「θRyaw」と前記第(7)式とに基づき、眼球中心のx座標「Xeyer」を算出できる。 Therefore, even when the center of the face in the x-axis direction and the center of the image are deviated from each other, the line-of-sight angle “θRyaw” can be calculated using the above equation (8). Further, the x-coordinate "Xeyer" of the center of the eyeball can be calculated based on the line-of-sight angle "θRyaw" and the above equation (7).

一方、左側の目について眼球中心の座標を算出する場合であっても、以下に示す各計算式を用いることにより上記と同様に計算できる。
Xeyel=irisL.x−Ro・sinθLyaw ・・・(11)
Xeyel:左側の眼球中心のx座標
irisL.x:左側の黒目中心のx座標
Ro:眼球の半径(例えば定数)
θLyaw:左側の目の視線角度(yaw方向)
tanθLyaw=(irisL.x−Icenter.x)/Df ・・・(12)
Df:カメラと顔の間の距離
On the other hand, even when calculating the coordinates of the center of the eyeball for the left eye, it can be calculated in the same manner as above by using each of the following calculation formulas.
Xeyel = irisL. x-Ro ・ sinθLyaw ・ ・ ・ (11)
Xeyel: x-coordinate of the center of the left eyeball irisL. x: x-coordinate of the center of the left iris Ro: radius of the eyeball (for example, a constant)
θLyaw: Line-of-sight angle of the left eye (yaw direction)
tanθLyaw = (irisL.x-Icenter.x) / Df ... (12)
Df: Distance between the camera and the face

Yeyel=irisL.y−Ro・sinθLpitch ・・・(13)
Yeyel:左側の眼球中心のy座標
irisL.y:左側の黒目中心のy座標
Ro:眼球の半径(例えば定数)
θLpitch:左側の目の視線角度(pitch方向)
tanθLpitch=(irisL.y−Icenter.y)/Df・・(14)
Icenter.y:画像の中心のy座標
Df:カメラと顔の間の距離
Yeyel = irisL. y-Ro ・ sinθLpitch ・ ・ ・ (13)
Yeyel: y-coordinate of the center of the left eyeball irisL. y: y coordinate of the center of the left iris Ro: radius of the eyeball (for example, a constant)
θLpitch: Line-of-sight angle of the left eye (pitch direction)
tanθLpitch = (irisL.y-Icenter.y) / Df ... (14)
Icenter. y: y coordinate of the center of the image Df: Distance between the camera and the face

<眼球中心位置の補正>
3次元眼球モデル30における眼球中心31の位置座標に誤差がある場合であっても、上述の計算により得られる最新の眼球中心位置を用いて補正することで誤差が小さくなるように校正することができる。補正値は例えば以下に示す式により算出できる。
<Correction of eyeball center position>
Even if there is an error in the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30, it is possible to calibrate so that the error is reduced by correcting using the latest eyeball center position obtained by the above calculation. can. The correction value can be calculated by, for example, the following formula.

dXeye=Xeye−Xeyemodel ・・・(15)
dYeye=Yeye−Yeyemodel ・・・(16)
dXeye:x座標の補正値(右又は左)
dYeye:y座標の補正値(右又は左)
Xeye:算出した最新の眼球中心位置のx座標(右又は左)
Yeye:算出した最新の眼球中心位置のy座標(右又は左)
Xeyemodel:3次元眼球モデルにおける補正前の眼球中心x座標(右又は左)
Yeyemodel:3次元眼球モデルにおける補正前の眼球中心y座標(右又は左)
dXeye = Xeye-Xeyemodel ・ ・ ・ (15)
dYee = YeYe-Yeemodel ... (16)
dXeye: Correction value of x coordinate (right or left)
dYee: Correction value of y coordinate (right or left)
Xeye: x-coordinate of the latest calculated eyeball center position (right or left)
YeYe: y-coordinate of the latest calculated eyeball center position (right or left)
Xeyemodel: Eye center x coordinate (right or left) before correction in 3D eye model
Eyemodel: Y-coordinate of eye center before correction in 3D eye model (right or left)

<眼球中心位置補正1>
眼球中心位置の補正値dXeyeと3次元眼球モデルおよび入力画像との関係の例を図14に示す。
<Eye center position correction 1>
FIG. 14 shows an example of the relationship between the correction value dXeye of the eyeball center position and the three-dimensional eyeball model and the input image.

図4に示したステップS105においては、顔正面度Dが閾値α以下であり、且つ視線正面度FDが閾値β以下であるので、最新の眼球中心位置の座標(Xeye,Yeye)を左右の目のそれぞれについて算出する。 In step S105 shown in FIG. 4, since the face front degree D is equal to or less than the threshold value α and the line-of-sight front degree FD is equal to or less than the threshold value β, the latest coordinates (Xeye, Yeye) of the eyeball center position are set to the left and right eyes. Calculate for each of.

そして、上記第(15)式、第(16)式により補正値dXeye、dYeyeを左右の目のそれぞれについて算出する。更に、誤差が小さくなるように、補正値dXeye、dYeyeを用いて図14に示すように、3次元眼球モデル30における眼球中心31の位置座標を左右の目のそれぞれについて更新する。 Then, the correction values dXeye and dYee are calculated for each of the left and right eyes by the above equations (15) and (16). Further, as shown in FIG. 14, the position coordinates of the eyeball center 31 in the three-dimensional eyeball model 30 are updated for each of the left and right eyes using the correction values dXeye and dYey so that the error becomes small.

<眼球中心位置補正2>
眼球中心位置の補正値を車載器の動作に反映するための処理の具体例を図15に示す。
図4に示した処理を車載器に適用する場合には、人物11が正面を向き、且つ視線も正面に向いた状態が検出される毎に、ステップS105が繰り返し実行される。したがって、車載器に電源が投入されてから動作が終了するまでの間に、新たな補正値を用いて眼球中心位置の更新を繰り返すことができる。
<Eye center position correction 2>
FIG. 15 shows a specific example of the process for reflecting the correction value of the eyeball center position in the operation of the on-board unit.
When the process shown in FIG. 4 is applied to the vehicle-mounted device, step S105 is repeatedly executed every time a state in which the person 11 faces the front and the line of sight also faces the front is detected. Therefore, the update of the eyeball center position can be repeated using the new correction value between the time when the power is turned on to the on-board unit and the time when the operation is completed.

そこで、より適切な更新処理を行うために、例えば図15に示した「眼球中心位置補正2」の処理をコンピュータが実行する。なお、図15においてはx軸方向の座標のみを処理しているが、y軸方向の座標についても同様に処理できる。図15に示した処理により、眼球中心位置の座標を一定の値に収束させることができる。 Therefore, in order to perform a more appropriate update process, for example, the computer executes the process of "eyeball center position correction 2" shown in FIG. Although only the coordinates in the x-axis direction are processed in FIG. 15, the coordinates in the y-axis direction can be processed in the same manner. By the process shown in FIG. 15, the coordinates of the center position of the eyeball can be converged to a constant value.

図15のステップS41では、上述の第(7)式、第(8)式、第(15)式に基づき、眼球中心位置の補正値dXeyeをコンピュータが算出する。また、ノイズの影響により生じる可能性のある明らかな外れ値を排除するために、次のステップS42で、補正値dXeyeを所定の閾値と比較する。 In step S41 of FIG. 15, the computer calculates the correction value dXeye of the eyeball center position based on the above equations (7), (8), and (15). Further, in the next step S42, the correction value dXeye is compared with a predetermined threshold value in order to eliminate obvious outliers that may be caused by the influence of noise.

補正値dXeyeが明らかな外れ値でない場合には、ステップS43で更新回数値Nに1を加算する(Nの初期値は0)。また、次のステップS44では今回の補正値dXeyeのデータを更新回数値Nに対応付けたメモリ位置に保存する。 If the correction value dXeye is not an obvious outlier, 1 is added to the update count value N in step S43 (the initial value of N is 0). Further, in the next step S44, the data of the correction value dXeye this time is saved in the memory position associated with the update count value N.

ステップS45では、コンピュータはメモリに保存されているN個の補正値dXeyeのデータを読み出して、これらを平均化した結果dXeye_Tを出力する。なお、平均化の具体的な方法については、単純な平均値、重み付けを行った平均値、移動平均値などの計算手法を適用可能である。 In step S45, the computer reads the data of N correction values dXeye stored in the memory, averages them, and outputs dXeye_T. As a specific method of averaging, a calculation method such as a simple average value, a weighted average value, or a moving average value can be applied.

図15に示したような処理を適用することにより、ノイズの影響による明らかな外れ値を更新対象から除外することができる。また、平均化により眼球中心位置の急激な変化を避けることができる。すなわち、ノイズに対してロバストになる。したがって、運転者の視線を監視する車載器のように、同一のユーザを対象とする動作を長時間にわたって行う環境においては、有効な眼球中心が随時更新されることによって高い視線検出精度が期待できる。 By applying the processing as shown in FIG. 15, it is possible to exclude obvious outliers due to the influence of noise from the update target. In addition, abrupt changes in the center position of the eyeball can be avoided by averaging. That is, it becomes robust against noise. Therefore, in an environment where an operation targeting the same user is performed for a long time, such as an in-vehicle device that monitors the driver's line of sight, high eye line detection accuracy can be expected by updating the effective eyeball center as needed. ..

<車載器の利点>
上述の車載器においては、図4に示した処理を実行することにより、眼球中心31の位置を自動的に校正することができる。しかも、この校正を行うためにユーザが特別な操作を実施する必要がなく、特別な校正機材を用意する必要もない。また、図15に示した処理を繰り返し実行することにより、ノイズの影響を排除したり、急激な変化を防止できるので、車載器の誤動作を避けることが可能になる。
<Advantages of on-board equipment>
In the above-mentioned on-board unit, the position of the eyeball center 31 can be automatically calibrated by executing the process shown in FIG. Moreover, the user does not need to perform a special operation for performing this calibration, and there is no need to prepare special calibration equipment. Further, by repeatedly executing the process shown in FIG. 15, the influence of noise can be eliminated and a sudden change can be prevented, so that the malfunction of the on-board unit can be avoided.

したがって、上述の技術は、車載カメラを用いた運転者の視線検出、わき見検出などに利用できる。また、例えばデジタルサイネージ(電子看板)の視認確認にも利用できる。 Therefore, the above-mentioned technology can be used for the driver's line-of-sight detection, side-view detection, etc. using the in-vehicle camera. It can also be used, for example, for visually confirming digital signage (electronic signboard).

ここで、上述した本発明に係る車載器の実施形態の特徴をそれぞれ以下[1]〜[4]に簡潔に纏めて列記する。
[1] 顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデル(3次元眼球モデル30)における中心(眼球中心31)が位置する眼球中心座標を算出する(S105)データ処理部(処理部13)を備える車載器。
[2] 前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における中央線との距離に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する(第(7)式参照)
上記[1]に記載の車載器。
[3] 前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し(S102)、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し(S104)、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する(S105)
上記[1]または[2]に記載の車載器。
[4] 前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する(S45)
上記[1]乃至[3]のいずれかに記載の車載器。
Here, the features of the above-described embodiment of the vehicle-mounted device according to the present invention are briefly summarized and listed below in [1] to [4], respectively.
[1] From a face image taken so as to include a face, the center of the eyeball (eyeball center 31) in the three-dimensional eyeball model (three-dimensional eyeball model 30) in which the eyeball included in the face image is modeled is located. An in-vehicle device including a data processing unit (processing unit 13) for calculating coordinates (S105).
[2] The data processing unit is
The center of the black eye included in the face image is located on the three-dimensional eyeball model, and the center position of the black eye is calculated.
The line-of-sight angle is calculated based on the distance between the center position of the iris and the center line in the face image.
Based on the black eye center position and the line-of-sight angle, the eyeball center coordinates in the three-dimensional eyeball model are calculated (see equation (7)).
The in-vehicle device according to the above [1].
[3] The data processing unit is
It is determined whether or not the face included in the face image is facing the front (S102).
It is determined whether or not the line of sight based on the position of the iris included in the face image is facing the front (S104).
When it is determined that the face and the line of sight are facing the front, the eyeball center coordinates in the three-dimensional eyeball model are calculated (S105).
The in-vehicle device according to the above [1] or [2].
[4] The data processing unit is
The calculation process of the eyeball center coordinates is repeated, the calculation results are saved, and the result of averaging the plurality of calculation results is output (S45).
The vehicle-mounted device according to any one of the above [1] to [3].

10 車両の車室内
11 人物
11a 目の領域
11b 視線
12 カメラ
13 処理部
30 3次元眼球モデル
31 眼球中心
32 黒目(虹彩)
32a 黒目中心(瞳孔)
35 目の領域の二次元画像
D 顔正面度
10 Inside the vehicle 11 People 11a Eye area 11b Line of sight 12 Camera 13 Processing unit 30 3D eye model 31 Eye center 32 Black eye (iris)
32a center of iris (pupil)
Two-dimensional image of the 35th area D Face front degree

Claims (3)

顔を含むように撮影された顔画像から、該顔画像に含まれる眼球がモデル化された3次元眼球モデルにおける中心が位置する眼球中心座標を算出するデータ処理部を備え
前記データ処理部は、
前記顔画像に含まれる黒目の中心が、前記3次元眼球モデル上に位置する黒目中心位置を算出し、
前記黒目中心位置と前記顔画像における画像の中心を通る中央線との距離、及び、前記顔画像を撮影するカメラと顔との距離、に基づいて視線角度を算出し、
前記黒目中心位置と前記視線角度に基づき、前記3次元眼球モデルにおける前記眼球中心座標を算出する
車載器。
It is provided with a data processing unit that calculates the eyeball center coordinates where the center is located in the three-dimensional eyeball model in which the eyeball included in the face image is modeled from the face image taken so as to include the face .
The data processing unit
The center of the black eye included in the face image is located on the three-dimensional eyeball model, and the center position of the black eye is calculated.
The line-of-sight angle is calculated based on the distance between the center position of the black eye and the center line passing through the center of the image in the face image, and the distance between the camera that captures the face image and the face.
An in-vehicle device that calculates the eyeball center coordinates in the three-dimensional eyeball model based on the black eye center position and the line-of-sight angle.
前記データ処理部は、
前記顔画像に含まれる顔が正面を向いているか否かを判定し、
前記顔画像に含まれる黒目位置に基づく視線が正面を向いているか否かを判定し、
顔及び視線が正面を向いていると判定した場合に、前記3次元眼球モデルにおける前記眼球中心座標を算出する
請求項1記載の車載器。
The data processing unit
It is determined whether or not the face included in the face image is facing the front, and it is determined.
It is determined whether or not the line of sight based on the position of the iris included in the face image is facing the front.
The vehicle-mounted device according to claim 1, wherein the eyeball center coordinates in the three-dimensional eyeball model are calculated when it is determined that the face and the line of sight are facing the front.
前記データ処理部は、
前記眼球中心座標の算出処理を繰り返し行うと共に、算出結果を保存し、複数の算出結果を平均化した結果を出力する
請求項1または2に記載の車載器。
The data processing unit
The vehicle-mounted device according to claim 1 or 2 , wherein the calculation process of the eyeball center coordinates is repeated, the calculation results are saved, and the result of averaging a plurality of calculation results is output.
JP2016245793A 2016-12-19 2016-12-19 On-board unit Active JP6906943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245793A JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245793A JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Publications (2)

Publication Number Publication Date
JP2018101211A JP2018101211A (en) 2018-06-28
JP6906943B2 true JP6906943B2 (en) 2021-07-21

Family

ID=62714323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245793A Active JP6906943B2 (en) 2016-12-19 2016-12-19 On-board unit

Country Status (1)

Country Link
JP (1) JP6906943B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198023B2 (en) * 2018-09-27 2022-12-28 株式会社アイシン Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP7348005B2 (en) * 2019-09-10 2023-09-20 矢崎総業株式会社 Image processing device, image processing method, and image processing program
US11227157B1 (en) 2020-08-26 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. System and method for gaze direction detection

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3726122B2 (en) * 2000-07-28 2005-12-14 独立行政法人産業技術総合研究所 Gaze detection system
JP5828167B2 (en) * 2011-03-30 2015-12-02 株式会社国際電気通信基礎技術研究所 Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP2016173313A (en) * 2015-03-17 2016-09-29 国立大学法人鳥取大学 Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program

Also Published As

Publication number Publication date
JP2018101211A (en) 2018-06-28

Similar Documents

Publication Publication Date Title
US10268290B2 (en) Eye tracking using structured light
US10878237B2 (en) Systems and methods for performing eye gaze tracking
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
US10902635B2 (en) Line-of-sight detection device
CN110913751B (en) Wearable eye tracking system with slip detection and correction functions
US20190129501A1 (en) Interactive Motion-Based Eye Tracking Calibration
JP6596678B2 (en) Gaze measurement apparatus and gaze measurement method
EP4383193A1 (en) Line-of-sight direction tracking method and apparatus
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
EP2649932A1 (en) Method for detecting point of gaze and device for detecting point of gaze
WO2010035472A1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
US10866635B2 (en) Systems and methods for capturing training data for a gaze estimation model
US11181978B2 (en) System and method for gaze estimation
CN111854620B (en) Monocular camera-based actual pupil distance measuring method, device and equipment
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
JP6906943B2 (en) On-board unit
WO2017187694A1 (en) Region of interest image generating device
JP2018101212A (en) On-vehicle device and method for calculating degree of face directed to front side
JP6452235B2 (en) Face detection method, face detection device, and face detection program
EP3667462B1 (en) Screen position estimation
US20190259279A1 (en) Luminance control device, luminance control system, and luminance control method
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
JP2018149234A (en) Fixation point estimation system, fixation point estimation method, and fixation point estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210630

R150 Certificate of patent or registration of utility model

Ref document number: 6906943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250