JP2018163411A - Face direction estimation device and face direction estimation method - Google Patents
Face direction estimation device and face direction estimation method Download PDFInfo
- Publication number
- JP2018163411A JP2018163411A JP2017058896A JP2017058896A JP2018163411A JP 2018163411 A JP2018163411 A JP 2018163411A JP 2017058896 A JP2017058896 A JP 2017058896A JP 2017058896 A JP2017058896 A JP 2017058896A JP 2018163411 A JP2018163411 A JP 2018163411A
- Authority
- JP
- Japan
- Prior art keywords
- face
- pupil
- image
- coordinates
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、顔向き推定装置及び顔向き推定方法に関する。 The present invention relates to a face direction estimation device and a face direction estimation method.
従来、顔姿勢の推定方法として、顔画像の重心と、顔画像の代表点を通る直線の傾きと、に基づいて、顔の傾きを推定する方法が知られている。また、他の推定方法として、顔画像における左右の瞳孔及び左右の鼻孔のうちの3点間の距離に基づいて、顔向きを推定する方法も知られている。 2. Description of the Related Art Conventionally, as a method for estimating a face posture, a method for estimating the face inclination based on the center of gravity of the face image and the inclination of a straight line passing through the representative point of the face image is known. As another estimation method, a method for estimating the face orientation based on the distance between three points of the left and right pupils and the left and right nostrils in the face image is also known.
しかしながら、前者の推定方法では、顔の傾きは推定できるものの、顔向きを推定できなかった。また、後者の推定方法では、マスクなどで鼻孔が覆われている場合、顔向きを推定できなかった。 However, although the former estimation method can estimate the face inclination, it cannot estimate the face orientation. In the latter estimation method, the face orientation cannot be estimated when the nostril is covered with a mask or the like.
本発明は、上記の課題に鑑みてなされたものであり、マスクなどにより顔の一部が覆われている場合であっても、顔向きを推定可能とすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to estimate the face orientation even when a part of the face is covered with a mask or the like.
一実施形態に係る顔向き推定装置は、顔画像に基づいて、第1瞳孔座標及び第2瞳孔座標を算出する瞳孔座標算出部と、前記顔画像に基づいて、顔重心座標を算出する重心座標算出部と、前記第1瞳孔座標と前記第2瞳孔座標との間の前記顔画像における水平方向の距離と、前記第1瞳孔座標及び前記第2瞳孔座標の中心座標と前記顔重心座標との間の前記顔画像における水平方向の差と、に基づいて顔向きを推定する顔向き推定部と、を備える。 A face direction estimation device according to an embodiment includes a pupil coordinate calculation unit that calculates a first pupil coordinate and a second pupil coordinate based on a face image, and a centroid coordinate that calculates a face centroid coordinate based on the face image. A calculation unit; a horizontal distance in the face image between the first pupil coordinate and the second pupil coordinate; a center coordinate of the first pupil coordinate and the second pupil coordinate; A face direction estimating unit that estimates a face direction based on a difference in a horizontal direction in the face image.
本発明の各実施形態によれば、マスクなどにより顔の一部が覆われている場合であっても、顔向きを推定できる。 According to each embodiment of the present invention, the face orientation can be estimated even when a part of the face is covered with a mask or the like.
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, regarding the description of the specification and the drawings according to each embodiment, constituent elements having substantially the same functional configuration are denoted by the same reference numerals and overlapping description is omitted.
一実施形態に係る顔向き推定装置について、図1〜図9を参照して説明する。本実施形態に係る顔向き推定装置は、対象者の顔画像に基づいて、当該対象者の顔向きqを推定する装置である。ここでいう顔向きqは、顔姿勢の一例であり、対象者の頭部を通る鉛直軸(ヨー軸)まわりの回転角度(°)のことである。 A face orientation estimation apparatus according to an embodiment will be described with reference to FIGS. The face orientation estimation device according to the present embodiment is a device that estimates the subject's face orientation q based on the subject's face image. The face orientation q here is an example of a face posture, and is a rotation angle (°) about a vertical axis (yaw axis) passing through the head of the subject.
まず、顔向き推定装置のハードウェア構成について説明する。図1は、顔向き推定装置のハードウェア構成の一例を示す図である。図1の顔向き推定装置は、撮影装置1と、制御装置2と、を備える。
First, the hardware configuration of the face orientation estimation device will be described. FIG. 1 is a diagram illustrating an example of a hardware configuration of the face orientation estimation apparatus. The face orientation estimation device in FIG. 1 includes a
撮影装置1は、対象者の顔を撮影し、顔画像を取得する装置であり、制御装置2と接続される。撮影装置1は、対象者の顔を撮影可能な位置に配置される。以下では、撮影装置1の方向が正面であるものとするが、正面は、撮影装置1の方向を基準とした任意の方向に設定可能である。図1の撮影装置1は、撮影部11L,11Rと、複数の光源12L,12Rと、を備える。
The photographing
撮影部11Lは、対象者の顔を撮影するカメラであり、図1における撮影装置1の左側に配置される。撮影部11Rは、対象者の顔を撮影するカメラであり、図1における撮影装置1の右側に配置される。以下、撮影部11L,11Rを区別しない場合、撮影部11と称する。
The photographing unit 11L is a camera that photographs the face of the subject and is arranged on the left side of the photographing
光源12Lは、対象者の顔を撮影する際に、対象者の顔に所定のタイミングで光を照射する光源であり、撮影部11Lの近傍に複数配置される。光源12Rは、対象者の顔を撮影する際に、対象者の顔に所定のタイミングで光を照射する光源であり、撮影部11Rの近傍に複数配置される。光源12L,12Rは、例えば、近赤外光を照射するLED(Light Emitting Diode)であるが、これに限られない。以下、光源12L,12Rを区別しない場合、光源12と称する。
The
なお、図1の例では、撮影装置1は、2つの撮影部11を備えるが、1つ又は3つの撮影部11を備えてもよい。撮影部11が1つの場合、撮影装置1は、撮影部11に対して略同軸の光源12と非同軸の光源12とをそれぞれ備えれば良い。また、図1の例では、撮影装置1は、それぞれ4つの光源12L,12Rを備えるが、光源12L,12Rの数は任意に設計可能である。
In the example of FIG. 1, the
制御装置2は、撮影装置1を制御する装置であり、撮影装置1と接続される。具体的には、制御装置2は、撮影部11による撮影及び光源12の発光を制御する。また、制御装置2は、撮影装置1により取得された顔画像に基づいて、対象者の顔向きqを推定する。図1の制御装置2は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、HDD(Hard Disk Drive)204と、入力装置205と、表示装置206と、を備える。また、制御装置2は、接続インタフェース207と、通信インタフェース208と、バス209と、を備える。
The
CPU201は、プログラムを実行することにより、制御装置2の各ハードウェア構成を制御し、制御装置2の機能を実現する。
The
ROM202は、CPU201が実行するプログラムや各種のデータを記憶する。
The
RAM203は、CPU201に作業領域を提供する。
The
HDD204は、CPU201が実行するプログラムや各種のデータを記憶する。
The HDD 204 stores programs executed by the
入力装置205は、ユーザの操作に応じた情報を制御装置2に入力する。入力装置205は、例えば、タッチパネル、キーボード、マウス、ハードウェアボタンなどである。
The
表示装置206は、ユーザの操作に応じた画面を表示する。表示装置206は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどである。
The
接続インタフェース207は、制御装置2を撮影装置1に接続するためのインタフェースである。制御装置2は、接続インタフェース207を介して、撮影装置1を制御し、撮影装置1から顔画像(画像データ)を取得する。
The
通信インタフェース208は、制御装置2をインターネットやLAN(Local Area Network)などのネットワークに接続するためのインタフェースである。制御装置2は、通信インタフェース208を介して、ネットワーク上の外部装置と通信する。
The
バス209は、CPU201、ROM202、RAM203、HDD204、入力装置205、表示装置206、接続インタフェース207、及び通信インタフェース208を相互に接続する。
The
なお、図1の例では、制御装置2がPC(Personal Computer)、サーバ、タブレット端末、スマートフォンなどのコンピュータにより構成される場合を想定している。しかしながら、制御装置2は、FPGA(Field Programmable Gate Array)やASIC(Application Specified Integrated Circuit)などのICにより、1チップで構成されてもよい。この場合、制御装置2は、HDD204、入力装置205、及び表示装置206を備えない。
In the example of FIG. 1, it is assumed that the
次に、顔向き推定装置の機能構成について説明する。図2は、顔向き推定装置の機能構成の一例を示す図である。図2の顔向き推定装置は、顔画像取得部21と、瞳孔座標算出部22と、重心座標算出部23と、顔向き推定部24と、推定モデル記憶部25と、を備える。これらの各機能構成は、制御装置2のCPU201がプログラムを実行し、顔向き推定装置の各ハードウェア構成と協働することにより実現される。
Next, the functional configuration of the face orientation estimation device will be described. FIG. 2 is a diagram illustrating an example of a functional configuration of the face orientation estimation apparatus. 2 includes a face
顔画像取得部21は、対象者の顔を撮影し、当該対象者の顔画像を取得する。顔画像取得部21は、CPU201が撮影装置1を制御することにより実現される。より詳細には、顔画像取得部21は、短い間隔で連続して対象者の顔を撮影することにより、明瞳孔画像、暗瞳孔画像、及び無照明画像をそれぞれ取得する。撮影間隔は、例えば、1msec以上100msec以下である。
The face
明瞳孔画像は、対象者の瞳孔が明るく撮影された顔画像である。明瞳孔画像は、光源12から対象者の顔に光を照射した状態で、当該光源12と略同軸の撮影部11により対象者の顔を撮影することにより取得される。このように撮影することにより、光源12からの光が、対象者の網膜により、撮影部11の方向に反射するため、対象者の瞳孔が明るく撮影される。図1の撮影装置1では、光源12Lから対象者の顔に光を照射した状態で、撮影部11Lにより対象者の顔を撮影することにより、明瞳孔画像が取得される。また、光源12Rから対象者の顔に光を照射した状態で、撮影部11Rにより対象者の顔を撮影することにより、明瞳孔画像が取得される。
The bright pupil image is a face image in which the subject's pupil is photographed brightly. The bright pupil image is acquired by photographing the subject's face with the photographing unit 11 that is substantially coaxial with the light source 12 in a state in which light is emitted from the light source 12 to the subject's face. By photographing in this way, the light from the light source 12 is reflected by the subject's retina in the direction of the photographing unit 11, so that the subject's pupil is photographed brightly. In the
暗瞳孔画像は、対象者の瞳孔が、明瞳孔画像に比べて暗く撮影された顔画像である。暗瞳孔画像は、光源12から対象者の顔に光を照射した状態で、当該光源12と非同軸の撮影部11により対象者の顔を撮影することにより取得される。このように撮影することにより、光源12からの光が、対象者の網膜により、撮影部11とは異なる方向に反射するため、対象者の瞳孔が暗く撮影される。図1の撮影装置1では、光源12Lから対象者の顔に光を照射した状態で、撮影部11Rにより対象者の顔を撮影することにより、暗瞳孔画像が取得される。また、光源12Rから対象者の顔に光を照射した状態で、撮影部11Lにより対象者の顔を撮影することにより、暗瞳孔画像が取得される。
The dark pupil image is a face image in which the subject's pupil is photographed darker than the bright pupil image. The dark pupil image is acquired by photographing the face of the subject by the photographing unit 11 that is non-coaxial with the light source 12 in a state where light is irradiated from the light source 12 to the face of the subject. By photographing in this way, the light from the light source 12 is reflected by the subject's retina in a direction different from that of the photographing unit 11, so that the subject's pupil is photographed dark. In the
無照明画像は、光源12から対象者の顔に光を照射しない状態で、撮影部11により対象者の顔を撮影することにより取得される顔画像である。 The non-illuminated image is a face image acquired by photographing the face of the subject by the photographing unit 11 in a state where the light source 12 does not irradiate the face of the subject.
顔画像取得部21は、顔画像を取得すると、明瞳孔画像及び暗瞳孔画像を瞳孔座標算出部22に渡す。また、顔画像取得部21は、顔画像を取得すると、明瞳孔画像、暗瞳孔画像、及び無照明画像を重心座標算出部23に渡す。
When the face
瞳孔座標算出部22は、顔画像に基づいて、第1瞳孔座標及び第2瞳孔座標を算出する。第1瞳孔座標は、顔画像において左側に位置する瞳孔(対象者の右目の瞳孔)の座標である。第2瞳孔座標は、顔画像おいて右側に位置する瞳孔(対象者の左目の瞳孔)の座標である。瞳孔座標算出部22は、算出した第1瞳孔座標及び第2瞳孔座標を顔向き推定部24に渡す。
The pupil coordinate
ここで、瞳孔座標算出部22による瞳孔座標の算出方法について説明する。図3は、瞳孔座標の算出方法の一例を説明する図である。図3の画像Im1〜Im4は、顔画像における瞳孔周辺部分に相当する。
Here, a method for calculating pupil coordinates by the pupil coordinate
まず、瞳孔座標算出部22は、明瞳孔画像Im1から暗瞳孔画像Im2を減算し、差分画像Im3を生成する。明瞳孔画像Im1及び暗瞳孔画像Im2は、瞳孔以外の部分の輝度が略同一である。また、明瞳孔画像Im1における瞳孔部分の輝度は、暗瞳孔画像Im2における瞳孔部分の輝度より高い。したがって、明瞳孔画像Im1から暗瞳孔画像Im2を減算することにより、瞳孔部分の輝度が、瞳孔以外の部分の輝度より高い差分画像Im3が生成される。
First, the pupil coordinate
次に、瞳孔座標算出部22は、差分画像Im3を二値化し、二値画像Im4を生成する。二値画像Im4は、2値の輝度のいずれかを有する画素により構成される。以下、2値の輝度のうち、高い方の輝度を1、低い方の輝度を0とする。また、輝度が1の画素を白画素、輝度が0の画素を黒画素と称する。
Next, the pupil coordinate
具体的には、瞳孔座標算出部22は、差分画像Im3における各画素の輝度を、所定の閾値と比較し、輝度が閾値以上の画素を白画素(輝度が1の画素)に変換し、輝度が閾値未満の画素を黒画素(輝度が0の画素)に変換する。これにより、瞳孔部分が白画素であり、瞳孔以外の部分が黒画素である、二値画像Im4が生成される。
Specifically, the pupil coordinate
その後、瞳孔座標算出部22は、二値画像Im4に基づいて、瞳孔部分(白画素の部分)の重心座標を算出する。算出された重心座標が、瞳孔座標に相当する。顔画像において左側に位置する瞳孔について算出された瞳孔座標が第1瞳孔座標であり、右側に位置する瞳孔について算出された瞳孔座標が第2瞳孔座標である。
Thereafter, the pupil coordinate
重心座標算出部23は、顔画像に基づいて、顔重心座標を算出する。顔重心座標は、顔画像に含まれる顔部分の重心座標である。重心座標算出部23は、算出した顔重心座標を顔向き推定部24に渡す。
The barycentric coordinate
ここで、重心座標算出部23による顔重心座標の算出方法について説明する。図4は、顔重心座標の算出方法の一例を説明する図である。
Here, a method of calculating the face centroid coordinates by the centroid coordinate
まず、重心座標算出部23は、明瞳孔画像Im5から無照明画像Im6を減算し、差分画像Im7を生成する。明瞳孔画像Im5における顔部分の輝度は、無照明画像Im6における顔部分の輝度に比べて高い。これは、明瞳孔画像Im5が、光源12から対象者の顔に光を照射した状態で撮影されるためである。一方、明瞳孔画像Im5における顔以外の部分(背景部分)の輝度は、無照明画像Im6における顔以外の部分(背景部分)の輝度と略同一である。これは、光源12から背景までの距離が遠いため、背景部分は、光源12からの光による輝度の上昇が小さいためである。したがって、明瞳孔画像Im5から無照明画像Im6を減算することにより、対象者の顔部分の輝度が背景部分の輝度に比べて高い差分画像Im7が生成される。
First, the barycentric coordinate
同様に、重心座標算出部23は、暗瞳孔画像Im8から無照明画像Im6を減算し、差分画像Im9を生成する。暗瞳孔画像Im8における顔部分の輝度は、無照明画像Im6における顔部分の輝度に比べて高い。これは、暗瞳孔画像Im8が、光源12から対象者の顔に光を照射した状態で撮影されるためである。一方、暗瞳孔画像Im8における顔以外の部分(背景部分)の輝度は、無照明画像Im6における顔以外の部分(背景部分)の輝度と略同一である。これは、光源12から背景までの距離が遠いため、背景部分は、光源12からの光による輝度の上昇が小さいためである。したがって、暗瞳孔画像Im8から無照明画像Im6を減算することにより、対象者の顔部分の輝度が背景部分の輝度に比べて高い差分画像Im9が生成される。
Similarly, the barycentric coordinate
次に、重心座標算出部23は、差分画像Im7及び差分画像Im9を乗算し、乗算画像Im10を生成する。これにより、対象者の顔部分がより強調された(すなわち、対象者の顔部分の輝度がより高められた)乗算画像Im10が生成される。また、差分画像Im7及び差分画像Im9を乗算することにより、光源12以外からの光に起因するノイズ(輝度のオフセット)や、明瞳孔画像Im5及び暗瞳孔画像Im8における瞳孔部分の輝度の差に起因するノイズを除去できる。
Next, the barycentric coordinate
続いて、重心座標算出部23は、乗算画像Im10を二値化し、二値画像Im11を生成する。具体的には、重心座標算出部23は、乗算画像Im10における各画素の輝度を、所定の閾値と比較し、輝度が閾値以上の画素を白画素(輝度が1の画素)に変換し、輝度が閾値未満の画素を黒画素(輝度が0の画素)に変換する。これにより、対象者の顔部分が白画素であり、背景部分が黒画素である、二値画像Im11が生成される。
Subsequently, the barycentric coordinate
その後、重心座標算出部23は、二値画像Im11に基づいて、顔部分(白画素部分)の重心座標を算出する。算出された重心座標が、顔重心座標に相当する。
Thereafter, the barycentric coordinate
なお、図4の例では、対象者の胴体部分についても、顔部分と同様の処理が行われているが、顔認識技術を利用して、胴体部分と顔部分とを区別してもよい。これにより、胴体部分を除く顔部分から顔重心座標を算出できるため、顔重心座標をより精度よく算出できる。また、重心座標算出部23は、差分画像Im7や差分画像Im9から二値画像を生成し、生成した二値画像に基づいて顔重心座標を算出してもよい。また、重心座標算出部23は、差分画像Im7や差分画像Im9をそれぞれ二乗して乗算画像を生成し、生成した乗算画像から二値画像を生成し、生成した二値画像に基づいて顔重心座標を算出してもよい。
In the example of FIG. 4, the same process as the face part is performed on the torso part of the subject. However, the torso part and the face part may be distinguished using face recognition technology. As a result, the face center-of-gravity coordinates can be calculated from the face part excluding the body part, so that the face center-of-gravity coordinates can be calculated more accurately. The barycentric coordinate
顔向き推定部24は、第1瞳孔座標、第2瞳孔座標、及び顔重心座標に基づいて、対象者の顔向きqを推定する。具体的には、顔向き推定部24は、第1瞳孔座標及び第2瞳孔座標に基づいて、瞳孔間距離Lを算出し、第1瞳孔座標、第2瞳孔座標、及び顔重心座標に基づいて、重心誤差Dを算出する。そして、顔向き推定部24は、瞳孔間距離L及び重心誤差Dに基づいて、パラメータpを算出し、パラメータp及び推定モデルに基づいて、顔向きqを推定する。
The face
図5は、瞳孔間距離L及び重心誤差Dの算出方法を説明する図である。図5に示すように、瞳孔間距離Lは、第1瞳孔座標と第2瞳孔座標との間の、顔画像Imにおける水平方向(矢印xの方向)の距離である。第1瞳孔座標が(x1,y1)、第2瞳孔座標が(x2,y2)である場合、L=|x1−x2|となる。すなわち、顔向き推定部24は、左側に位置する瞳孔のx座標x1と、右側に位置する瞳孔のx座標x2と、の間の距離(差の絶対値)を、瞳孔間距離Lとして算出する。
FIG. 5 is a diagram for explaining a method for calculating the interpupillary distance L and the centroid error D. FIG. As shown in FIG. 5, the interpupillary distance L is the distance in the horizontal direction (the direction of the arrow x) in the face image Im between the first pupil coordinate and the second pupil coordinate. When the first pupil coordinate is (x1, y1) and the second pupil coordinate is (x2, y2), L = | x1-x2 |. That is, the face
これに対して、重心誤差Dは、第1瞳孔座標及び第2瞳孔座標の中心座標と顔重心座標との間の、顔画像Imにおける水平方向(矢印x方向)の差である。第1瞳孔座標が(x1,y1)、第2瞳孔座標が(x2,y2)、顔重心座標が(x3,y3)である場合、D=(x1+x2)/2−x3となる。すなわち、顔向き推定部24は、第1瞳孔座標及び第2瞳孔座標の中心座標のx座標(x1+x2)/2と、顔の重心座標のx座標x3と、の差を、重心誤差Dとして算出する。重心誤差Dの符号は、顔が正面に対して右を向いているか左を向いているかを示す。
On the other hand, the centroid error D is a difference in the horizontal direction (arrow x direction) in the face image Im between the center coordinates of the first and second pupil coordinates and the face centroid coordinates. When the first pupil coordinate is (x1, y1), the second pupil coordinate is (x2, y2), and the face centroid coordinate is (x3, y3), D = (x1 + x2) / 2−x3. That is, the face
対象者の顔が正面(撮影装置1の方向)を向いている場合、重心誤差Dは0となる。一方、対象者の顔が向いている方向が正面から離れるほど、重心誤差Dの大きさ(絶対値)は大きくなる。 When the subject's face is facing the front (the direction of the photographing apparatus 1), the gravity center error D is zero. On the other hand, the magnitude (absolute value) of the center-of-gravity error D increases as the direction in which the subject's face faces away from the front.
顔向き推定部24は、こうして算出した重心誤差Dを瞳孔間距離Lで除算することにより、パラメータpを算出する(p=D/L)。パラメータpは、重心誤差Dを、瞳孔間距離Lで正規化した値である。重心誤差Dを瞳孔間距離Lで正規化することにより、重心誤差Dに対する顔と撮影装置1との間の距離の影響を抑制できる。その後、顔向き推定部24は、パラメータp及び推定モデルに基づいて、顔向きqを推定する。
The face
推定モデル記憶部25は、推定モデルを記憶する。推定モデルは、パラメータpと、顔向きqと、の関係を示すモデルであり、予め用意される。推定モデルは、パラメータpと顔向きqとが対応付けられたテーブルであってもよいし、パラメータpと顔向きqとの関係を示す関数(q=f(p))であってもよい。
The estimated
ここで、推定モデルの具体例について説明する。図6は、上から見た対象者の頭部の一例を示す図である。図6において、破線矢印は、撮影装置1の方向(正面)を示し、実線矢印は、対象者の顔向きq及びx軸を示す。図6の例では、顔向きqの基準は正面(q=0°)であり、頭部の回転中心は後頭部であり、左右の瞳孔間の距離は62mmであり、頭長は1900mmである。
Here, a specific example of the estimation model will be described. FIG. 6 is a diagram illustrating an example of a subject's head viewed from above. In FIG. 6, a broken line arrow indicates the direction (front) of the photographing
図7は、推定モデルの一例を示す図である。図7の推定モデルは、図6の例に基づいて、パラメータpに対応する顔向きqをシミュレーションし、得られたシミュレーション結果に基づいて生成された近似式f(p)である。図7の例では、f(p)=−0.0389p4+0.961p3−8.9494p2+40.003p−0.3287である。 FIG. 7 is a diagram illustrating an example of the estimation model. The estimation model in FIG. 7 is an approximate expression f (p) generated based on the simulation result obtained by simulating the face orientation q corresponding to the parameter p based on the example in FIG. In the example of FIG. 7, f (p) = − 0.0389p 4 + 0.961p 3 −8.9494p 2 + 40.003p−0.3287.
顔向き推定部24は、このような推定モデルに、瞳孔間距離L及び重心誤差Dに基づいて算出したパラメータpを入力することにより、顔向きqを推定する。図7の推定モデルは、pが1の場合、顔向きqとして約30°が推定される。
The face
次に、本実施形態に係る顔向き推定装置の処理について説明する。図8は、顔向き推定装置の処理の一例を示すフローチャートである。 Next, the process of the face direction estimation apparatus according to the present embodiment will be described. FIG. 8 is a flowchart illustrating an example of processing of the face orientation estimation apparatus.
まず、顔画像取得部21が、顔画像として、明瞳孔画像、暗瞳孔画像、及び無照明画像を取得する(ステップS101)。図9は、顔画像取得部21(撮影装置1)による顔画像の取得方法の一例を示す図である。図9の例では、撮影部11L,11Rは、時刻t1,t2,t3に対象者の顔をそれぞれ撮影する。また、光源12Lは時刻t1に発光し、光源12Rは時刻t2に発光する。このような動作により、撮影部11Lは、時刻t1に明瞳孔画像を取得し、時刻t2に暗瞳孔画像を取得し、時刻t3に無照明画像を取得できる。また、撮影部11Rは、時刻t1に暗瞳孔画像を取得し、時刻t2に明瞳孔画像を取得し、時刻t3に無照明画像を取得できる。時刻t1,t2,t3の間隔は、例えば、16.67msecであるが、これに限られない。
First, the face
撮影部11L,11Rにより取得されたこれらの顔画像は、瞳孔座標算出部22及び重心座標算出部23に入力される。以降の処理は、撮影部11L又は撮影部11Rにより取得された顔画像のいずれかを利用して行われてもよいし、撮影部11L及び撮影部11Rにより取得された顔画像の両方に対して行われてもよい。
These face images acquired by the
瞳孔座標算出部22は、顔画像取得部21から顔画像を入力されると、入力された顔画像に基づいて、第1瞳孔座標(x1,y1)及び第2瞳孔座標(x2,y2)を算出する(ステップS102)。第1瞳孔座標(x1,y1)及び第2瞳孔座標(x2,y2)の算出方法は上述の通りである。瞳孔座標算出部22は、算出した第1瞳孔座標(x1,y1)及び第2瞳孔座標(x2,y2)を顔向き推定部24に渡す。
When the face image is input from the face
一方、重心座標算出部23は、顔画像取得部21から顔画像を入力されると、入力された顔画像に基づいて、顔重心座標(x3,y3)を算出する(ステップS103)。顔重心座標(x3,y3)の算出方法は上述の通りである。重心座標算出部23は、算出した顔重心座標(x3,y3)を顔向き推定部24に渡す。
On the other hand, when a face image is input from the face
顔向き推定部24は、第1瞳孔座標(x1,y1)、第2瞳孔座標(x2,y2)、及び顔重心座標(x3,y3)を受け取ると、瞳孔間距離L(=|x1−x2|)を算出する(ステップS104)。また、顔向き推定部24は、重心誤差D(=(x1+x2)/2−x3)を算出する(ステップS105)。
When the face
その後、顔向き推定部24は、瞳孔間距離L及び重心誤差Dに基づいて、パラメータp(=D/L)を算出し、算出したパラメータpを推定モデルに入力して顔向きqを推定する(ステップS106)。
Thereafter, the face
顔向き推定装置は、以上の処理を、所定の時間間隔で、又は所定のタイミングで実行する。これにより、顔向き推定装置は、所定の時間間隔で、又は所定のタイミングで、対象者の顔向きを推定できる。 The face orientation estimation apparatus executes the above processing at predetermined time intervals or at predetermined timing. Thereby, the face orientation estimation apparatus can estimate the subject's face orientation at a predetermined time interval or at a predetermined timing.
以上説明した通り、本実施形態に係る顔向き推定装置は、第1瞳孔座標、第2瞳孔座標、及び顔重心座標に基づいて、対象者の顔向きqを推定できる。第1瞳孔座標、第2瞳孔座標、及び顔重心座標は、対象者の顔がマスクなどにより覆われている場合であっても取得可能である。したがって、本実施形態に係る顔向き推定装置は、マスクなどにより対象者の顔の一部が覆われている場合であっても、対象者の顔向きqを推定できる。 As described above, the face direction estimation device according to the present embodiment can estimate the face direction q of the subject based on the first pupil coordinates, the second pupil coordinates, and the face barycentric coordinates. The first pupil coordinates, the second pupil coordinates, and the face centroid coordinates can be acquired even when the subject's face is covered with a mask or the like. Therefore, the face orientation estimation apparatus according to the present embodiment can estimate the subject's face orientation q even when a part of the subject's face is covered with a mask or the like.
なお、本実施形態に係る顔向き推定装置は、対象者の顔向きqを利用する任意の装置に適用可能である。このような装置として、運転中のドライバの視線を検知する車載装置や、ディスプレイに表示された広告を視聴する視聴者の視線を検知する広告装置などが挙げられる。 In addition, the face direction estimation apparatus according to the present embodiment is applicable to any apparatus that uses the face direction q of the target person. Examples of such a device include an in-vehicle device that detects the line of sight of a driving driver and an advertising device that detects the line of sight of a viewer who views an advertisement displayed on a display.
また、本実施形態に係る顔向き推定装置は、推定される顔向きqをキャリブレーションする機能を有してもよい。顔向き推定装置は、例えば、対象者に複数の顔向きqiに顔を向けるように要求し、対象者が各顔向きqiに顔を向けた際の顔向きqをそれぞれ推定し、推定された各顔向きqが各顔向きqiと一致するように、推定モデルのパラメータを調整する。これにより、顔向き推定装置は、顔向きqをキャリブレーションできる。顔向きqをキャリブレーションすることにより、頭部の形状や瞳孔の位置などの個人差に起因する顔向きqの推定誤差を抑制できる。 Further, the face orientation estimation apparatus according to the present embodiment may have a function of calibrating the estimated face orientation q. For example, the face direction estimation device requests the subject to face the face in a plurality of face orientations qi, and estimates and estimates the face orientation q when the subject faces the face in each face orientation qi. The parameters of the estimation model are adjusted so that each face orientation q matches each face orientation qi. Thereby, the face direction estimation apparatus can calibrate the face direction q. By calibrating the face direction q, an estimation error of the face direction q caused by individual differences such as the shape of the head and the position of the pupil can be suppressed.
なお、上記実施形態に挙げた構成等と他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更可能であり、その応用形態に応じて適切に定めることができる。 Note that the present invention is not limited to the configuration shown here, such as a combination of the configuration described in the above embodiment and other elements. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.
1:撮影装置
2:制御装置
11L,11R:撮影部
12L,12R:光源
21:顔画像取得部
22:瞳孔座標算出部
23:重心座標算出部
24:顔向き推定部
25:推定モデル記憶部
1: imaging device 2:
Claims (8)
前記顔画像に基づいて、顔重心座標を算出する重心座標算出部と、
前記第1瞳孔座標と前記第2瞳孔座標との間の前記顔画像における水平方向の距離と、前記第1瞳孔座標及び前記第2瞳孔座標の中心座標と前記顔重心座標との間の前記顔画像における水平方向の差と、に基づいて顔向きを推定する顔向き推定部と、
を備える顔向き推定装置。 A pupil coordinate calculation unit for calculating the first pupil coordinate and the second pupil coordinate based on the face image;
Based on the face image, a center-of-gravity coordinate calculation unit that calculates face center-of-gravity coordinates;
The horizontal distance in the face image between the first pupil coordinates and the second pupil coordinates, and the face between the center coordinates of the first pupil coordinates and the second pupil coordinates and the face barycentric coordinates A face direction estimation unit that estimates a face direction based on a difference in a horizontal direction in an image;
A face direction estimation device comprising:
請求項1に記載の顔向き推定装置。 The face direction estimation device according to claim 1, wherein the face direction estimation unit estimates the face direction based on an estimation model indicating a relationship between the value corresponding to the distance and the difference and the face direction.
請求項1又は請求項2に記載の顔向き推定装置。 The face orientation estimation apparatus according to claim 1, wherein the face orientation is a rotation angle around a vertical axis.
請求項1乃至請求項3のいずれか1項に記載の顔向き推定装置。 The face orientation estimation apparatus according to claim 1, wherein the face image includes a bright pupil image, a dark pupil image, and a non-illuminated image.
請求項4に記載の顔向き推定装置。 The face orientation estimation apparatus according to claim 4, wherein the pupil coordinate calculation unit calculates the first pupil coordinate and the second pupil coordinate based on the bright pupil image and the dark pupil image.
請求項4又は請求項5に記載の顔向き推定装置。 6. The face orientation estimation apparatus according to claim 4, wherein the barycentric coordinate calculation unit calculates the face barycentric coordinates based on the bright pupil image, the dark pupil image, and the unilluminated image.
請求項1乃至請求項6のいずれか1項に記載の顔向き推定装置。 The face orientation estimation apparatus according to claim 1, further comprising a face image acquisition unit that acquires the face image.
前記顔画像に基づいて、顔重心座標を算出する重心座標算出工程と、
前記第1瞳孔座標と前記第2瞳孔座標との間の前記顔画像における水平方向の距離と、前記第1瞳孔座標及び前記第2瞳孔座標の中心座標と前記顔重心座標との間の前記顔画像における水平方向の差と、に基づいて顔向きを推定する顔向き推定工程と、
を有する顔向き推定方法。 A pupil coordinate calculation step of calculating a first pupil coordinate and a second pupil coordinate based on the face image;
A center-of-gravity coordinate calculation step of calculating a face center-of-gravity coordinate based on the face image;
The horizontal distance in the face image between the first pupil coordinates and the second pupil coordinates, and the face between the center coordinates of the first pupil coordinates and the second pupil coordinates and the face barycentric coordinates A face direction estimating step for estimating a face direction based on a difference in a horizontal direction in the image;
A face orientation estimation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058896A JP2018163411A (en) | 2017-03-24 | 2017-03-24 | Face direction estimation device and face direction estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017058896A JP2018163411A (en) | 2017-03-24 | 2017-03-24 | Face direction estimation device and face direction estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018163411A true JP2018163411A (en) | 2018-10-18 |
Family
ID=63861015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017058896A Pending JP2018163411A (en) | 2017-03-24 | 2017-03-24 | Face direction estimation device and face direction estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018163411A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022072017A (en) * | 2020-10-29 | 2022-05-17 | 富士通クライアントコンピューティング株式会社 | Information processing device and program |
JP7418386B2 (en) | 2021-12-14 | 2024-01-19 | 矢崎総業株式会社 | Face orientation determination system |
-
2017
- 2017-03-24 JP JP2017058896A patent/JP2018163411A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022072017A (en) * | 2020-10-29 | 2022-05-17 | 富士通クライアントコンピューティング株式会社 | Information processing device and program |
JP7216297B2 (en) | 2020-10-29 | 2023-02-01 | 富士通クライアントコンピューティング株式会社 | Information processing device and program |
JP7418386B2 (en) | 2021-12-14 | 2024-01-19 | 矢崎総業株式会社 | Face orientation determination system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11741624B2 (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale | |
US11644896B2 (en) | Interactive motion-based eye tracking calibration | |
CN104871084B (en) | Self adaptation projector | |
US20170148220A1 (en) | Information processing apparatus, display control method, and program | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
TWI704501B (en) | Electronic apparatus operated by head movement and operation method thereof | |
US10893802B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US20190147241A1 (en) | Line-of-sight detection device and method for detecting line of sight | |
US20210215940A1 (en) | End-to-end artificial reality calibration testing | |
US11055920B1 (en) | Performing operations using a mirror in an artificial reality environment | |
CN108475180A (en) | The distributed video between multiple display areas | |
CN108463789A (en) | Information processing equipment, information processing method and program | |
US20170156585A1 (en) | Eye condition determination system | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
US10606351B2 (en) | Information processing apparatus, information processing method, and computer readable recording medium | |
US10757337B2 (en) | Information processing apparatus and information processing method to control exposure for imaging the eye | |
JP2018163411A (en) | Face direction estimation device and face direction estimation method | |
US10402939B2 (en) | Information processing device, information processing method, and program | |
JP2020201572A (en) | Information processor, information processing method, and program | |
Kar et al. | Eye-gaze systems-An analysis of error sources and potential accuracy in consumer electronics use cases | |
WO2021131335A1 (en) | Corneal reflex detection device, line-of-sight detection device, corneal reflex detection method, and corneal reflex detection program | |
CN110858095A (en) | Electronic device capable of being controlled by head and operation method thereof | |
JP7323234B2 (en) | Guide method | |
JP2018180623A (en) | Sight line direction estimation device and sight line direction estimation method | |
JP2019097807A (en) | Pupil detector |