JP2021033938A - Device and method for estimating facial direction - Google Patents
Device and method for estimating facial direction Download PDFInfo
- Publication number
- JP2021033938A JP2021033938A JP2019156979A JP2019156979A JP2021033938A JP 2021033938 A JP2021033938 A JP 2021033938A JP 2019156979 A JP2019156979 A JP 2019156979A JP 2019156979 A JP2019156979 A JP 2019156979A JP 2021033938 A JP2021033938 A JP 2021033938A
- Authority
- JP
- Japan
- Prior art keywords
- fitting
- face
- face model
- model
- dimensional face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000001815 facial effect Effects 0.000 title abstract description 23
- 230000010354 integration Effects 0.000 claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 5
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 claims 2
- 238000012544 monitoring process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、画像データ中の人の顔に関して、安定して精度よく顔向きを推定する顔向き推定装置、及び方法に関する。 The present disclosure relates to a face orientation estimation device and a method for estimating the face orientation of a person in image data in a stable and accurate manner.
画像データの中から人の顔を検出し、更に検出した顔についてその顔の向きを推定する様々な技術が知られている。例えば、特許文献1は、人の顔における複数の特徴点に対応する複数の3次元位置を定める3次元顔モデルを、画像中の顔にフィッティングすることにより、画像中の顔の向きを推定する、3次元顔モデルフィッティングアルゴリズム、及び、同アルゴリズムを利用する検出装置を、開示している。
Various techniques are known that detect a human face from image data and estimate the orientation of the detected face. For example,
しかしながら、斜め方向を向く顔の向きを、上述のような従来の3次元顔モデルフィッティングアルゴリズムにより検出しようとすると、推定の精度が安定しないことがある。横顔に近い斜め方向を向く顔、即ち、正面からのヨー角が大きい顔である場合であって、特に、眼鏡等の装飾品が掛けられている顔である場合においては、顔の奥側の顔特徴点が見え辛い(即ち、画像上にて明確ではない)ため、3次元顔モデルがフィットし辛く、結果として局所解に陥ってしまい、このことが顔向き推定精度に影響を及ぼす可能性があるからである。 However, when trying to detect the orientation of a face facing in an oblique direction by the conventional three-dimensional face model fitting algorithm as described above, the estimation accuracy may not be stable. In the case of a face facing diagonally close to the profile, that is, a face having a large yaw angle from the front, and particularly in the case of a face on which ornaments such as eyeglasses are hung, the back side of the face. Since the facial feature points are hard to see (that is, they are not clear on the image), the 3D face model is hard to fit, resulting in a local solution, which may affect the facial orientation estimation accuracy. Because there is.
特許文献2に開示される顔特徴点検出装置は、あらかじめ顔特徴点の位置関係のルールを定めておくことによって、不自然な形状の変形3次元顔モデルでフィッティング処理をして局所解に陥り精度の低い顔特徴点検出結果となってしまうことを、抑制している。しかしながら、当該顔特徴点検出装置は、横顔等の正面からのヨー角が大きい場合、特に眼鏡等の装飾品を掛けている場合においては、自然な顔特徴点モデルによるフィッティング処理をしている際に、局所解に陥ることが考えられる。その結果として、顔特徴点検出において、精度の低い顔特徴点検出、即ち、精度の低い顔向き角度推定となってしまうおそれがある。
The face feature point detection device disclosed in
また、特許文献3に開示される特徴点位置検出装置は、目、鼻、口等の主要な少数の顔特徴点位置の初期情報を外部から入力することによって、より多くの所望の顔特徴点の概略の位置を推定する。当該特徴点位置検出装置は、入力される位置から顔特徴点探索を開始するので、正解とは異なる姿勢や表情などの顔形状を、誤ってフィッティングする、すなわち、局所解に陥ることが、抑制される。しかしながら、当該特徴点位置検出装置においては、予め少数の顔特徴点が外部から入力されなければならず、よって、当該特徴点位置検出装置は高速且つリアルタイムの処理には不向きである。
Further, the feature point position detecting device disclosed in
本開示は、画像データ中の人の顔に関して、安定して精度良く顔向きを推定するアルゴリズム、及び同アルゴリズムを利用する顔向き推定装置及び方法を提供する。 The present disclosure provides an algorithm for estimating the face orientation of a person in image data in a stable and accurate manner, and a face orientation estimation device and method using the algorithm.
本開示の顔向き推定装置は、
画像データから人の顔画像データを検出する顔検出部と、及び、検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部とを備える顔向き推定装置である。前記顔向き推定部は、3次元顔モデル初期設定部と、3次元顔モデル移動(ずらし)部と、3次元顔モデル詳細フィッティング部と、3次元顔モデルフィッティングスコア算出部と、及び、3次元顔モデル統合部とを含み、
前記3次元顔モデル初期設定部は、顔画像データ上に3次元顔モデルを設定するものであり、
更に、
(1)前記3次元顔モデル移動(ずらし)部は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、
(2)前記3次元顔モデル詳細フィッティング部は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための三次元顔モデルを詳細フィッティングする処理を行い、
(3)前記3次元顔モデルフィッティングスコア算出部は、前記3次元顔モデル詳細フィッティング部による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、
(4)前記3次元顔モデル統合部は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する
ものであり、
前記顔向き推定部は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する。
The face orientation estimation device of the present disclosure is
It is a face orientation estimation device including a face detection unit that detects human face image data from image data and a face orientation estimation unit that estimates the angle of the face orientation with respect to the detected human face image data. The face orientation estimation unit includes a three-dimensional face model initial setting unit, a three-dimensional face model moving (shifting) unit, a three-dimensional face model detailed fitting unit, a three-dimensional face model fitting score calculation unit, and three-dimensional. Including face model integration part
The three-dimensional face model initial setting unit sets the three-dimensional face model on the face image data.
In addition
(1) The three-dimensional face model moving (shifting) unit shifts the position of a given three-dimensional face model by the amount of shifting one or more times to generate a plurality of three-dimensional face models for detailed fitting.
(2) The three-dimensional face model detailed fitting unit performs a process of performing detailed fitting of a plurality of three-dimensional face models for detailed fitting generated by shifting the position with respect to the face image data.
(3) The three-dimensional face model fitting score calculation unit calculates the fitting score of the three-dimensional face model immediately after the detailed fitting process by the three-dimensional face model detailed fitting unit.
(4) The three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results to calculate the angle of the face orientation.
The face orientation estimation unit repeatedly executes the processes (1) to (4) and outputs the angle of the face orientation.
本開示に係る顔向き推定装置及び方法は、画像データ中の人の顔に関して、安定して精度良く顔向きを推定することができる。 The face orientation estimation device and method according to the present disclosure can estimate the face orientation of a person in the image data in a stable and accurate manner.
以下、適宜図面を参照しながら、本発明に係る実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the inventors intend to limit the subject matter described in the claims by those skilled in the art by providing the accompanying drawings and the following description in order to fully understand the present disclosure. is not it.
[本開示に至る経緯]
画像データから人の顔を検出し、更に検出した顔についてその顔の向きを推定する技術は、これまで様々に開発されている。特許文献1は、人の顔における複数の特徴点に対応する複数の3次元位置を定める3次元顔モデルを、画像中の顔にフィッティングすることにより、画像中の顔の向きを推定する、3次元顔モデルフィッティングアルゴリズム、及び、同アルゴリズムを利用する検出装置を、開示している。
[Background to this disclosure]
Various techniques have been developed so far for detecting a human face from image data and estimating the orientation of the detected face.
しかしながら、斜め方向を向く顔の向きを、従来の3次元顔モデルフィッティングアルゴリズムにより検出しようとすると、推定の精度が安定しない。正面からのヨー角が大きい、横顔に近い場合、特に、眼鏡等の装飾品が掛けられている場合においては、顔の奥側の顔特徴点が画像上にて明確ではないため、3次元顔モデルがフィットし辛く、結果として局所解に陥ってしまうことがあるからである。 However, when trying to detect the orientation of a face facing in an oblique direction by a conventional three-dimensional face model fitting algorithm, the estimation accuracy is not stable. A three-dimensional face because the facial feature points on the back side of the face are not clear on the image when the yaw angle from the front is large and it is close to the profile, especially when ornaments such as glasses are hung. This is because the model is difficult to fit and may result in a local solution.
図6(b−1)〜(b−7)は、ヨー(Yaw)角を変化させたときの3次元顔モデルの形状の様子を示す図である。正面を向くモデルが、ヨー角が0°である(図6(b−7))。図6(b−6)から図6(b−1)に移るにつれて、3次元顔モデルは右方向を深く向き、ヨー角が「約−10°」から「約−60°」に移行している。 6 (b-1) to 6 (b-7) are views showing the shape of the three-dimensional face model when the yaw angle is changed. The front-facing model has a yaw angle of 0 ° (FIG. 6 (b-7)). As we move from FIG. 6 (b-6) to FIG. 6 (b-1), the 3D face model points deeply to the right, and the yaw angle shifts from "about -10 °" to "about -60 °". There is.
図6(a−1)(a−2)は、ヨー角が約−40°である顔画像に対して、2種類の、点(ノード)のみにより構成される3次元顔モデルを、合わせた様子を示す図である。図6(a−2)では、ヨー角が約−40°である3次元顔モデルが合わせられ、図6(a−1)では、ヨー角が約−50°である3次元顔モデルが合わせられている。
図6(a−1)に示されるように、ヨー角約−40°の顔画像に対して、ヨー角約−50°であると誤推定が生じる可能性がある。これは以下のような要因によるものである。
(要因1)ヨー角約−50°の3次元顔モデルに対しても、ヨー角約−40°の顔画像における多くの顔特徴点がフィットすること。
(要因2)顔の奥側(ここでは右側)の顔特徴点が明確でない(即ち、見辛い)ことから、ヨー角約−40°の3次元顔モデルもヨー角約−50°の3次元顔モデルも、いずれに対しても、顔の奥側の顔特徴点がフィットし難いこと。
つまり、3次元顔モデルフィッティングが結果として、局所解に陥り、誤推定を生じ、顔向き推定精度に影響を及ぼす。
In FIGS. 6 (a-1) and 6 (a-2), a three-dimensional face model composed of only points (nodes) of two types is combined with a face image having a yaw angle of about −40 °. It is a figure which shows the state. In FIG. 6 (a-2), a three-dimensional face model having a yaw angle of about −40 ° is matched, and in FIG. 6 (a-1), a three-dimensional face model having a yaw angle of about −50 ° is matched. Has been done.
As shown in FIG. 6 (a-1), for a face image having a yaw angle of about −40 °, an erroneous estimation may occur if the yaw angle is about −50 °. This is due to the following factors.
(Factor 1) Many facial feature points in a face image with a yaw angle of about -40 ° fit even for a three-dimensional face model with a yaw angle of about -50 °.
(Factor 2) Since the facial feature points on the back side (right side here) of the face are not clear (that is, it is hard to see), the three-dimensional face model with a yaw angle of about -40 ° is also three-dimensional with a yaw angle of about -50 °. It is difficult for the facial feature points on the back side of the face to fit to any of the face models.
That is, the three-dimensional face model fitting results in a local solution, which causes erroneous estimation and affects the accuracy of face orientation estimation.
本開示は、このような問題点を解決するために、発明者により考案された技術である。図7は、本開示に係る顔向き推定アルゴリズムの概要を説明する図である。まず、顔画像に対して、初期の位置に3次元顔モデルを配置して(図7(a))、凡その位置に3次元顔モデルをフィッティングする。即ち、顔画像に対して、ラフフィッティングを行う(図7(b))。なおラフフィッティングは行われなくてもよい。次に、3次元顔モデルの位置を左右又は上下等にずらし、複数方向から、詳細フィッティングを行う(図7(c−1)、図7(c−2))。ここでのずらし量は、例えば、口幅の約半分である。更に、複数方向からのフィッティングの結果を統合する。この統合の際には、詳細フィッティング直後に算出されるフィッティングスコアが所定の閾値(即ち、所定の第3閾値)以上となる結果について、フィッティングスコアで重み付けして統合する。 The present disclosure is a technique devised by the inventor in order to solve such a problem. FIG. 7 is a diagram illustrating an outline of the face orientation estimation algorithm according to the present disclosure. First, the three-dimensional face model is placed at the initial position of the face image (FIG. 7A), and the three-dimensional face model is fitted at the approximate position. That is, rough fitting is performed on the face image (FIG. 7 (b)). Rough fitting does not have to be performed. Next, the position of the three-dimensional face model is shifted to the left, right, up and down, and detailed fitting is performed from a plurality of directions (FIGS. 7 (c-1) and 7 (c-2)). The amount of shift here is, for example, about half the width of the mouth. In addition, the results of fitting from multiple directions are integrated. At the time of this integration, the result that the fitting score calculated immediately after the detailed fitting is equal to or higher than a predetermined threshold value (that is, a predetermined third threshold value) is weighted by the fitting score and integrated.
ラフフィッティング処理を含み得る初期配置処理を経た、又は統合処理を経た、3次元顔モデルの位置を、左右又は上下等にずらし、複数方向から、詳細フィッティングを行うことと、複数方向からのフィッティングの結果を統合することは、例えば、以下の条件をいずれも満たすまで繰り返す(イタレーションする)。
(条件1)統合されたフィッティングスコアが所定の第1閾値より大きい。
(条件2)顔向きの角度の変動量が所定の第2閾値より小さい。
但し、処理を終了する(打ち切る)ためのイタレーション回数の上限を設けることがある。
The position of the three-dimensional face model that has undergone the initial placement process that may include the rough fitting process or the integrated process is shifted to the left, right, up and down, etc., and detailed fitting is performed from multiple directions, and fitting from multiple directions. Integrating the results is repeated (iterated), for example, until all of the following conditions are met.
(Condition 1) The integrated fitting score is larger than the predetermined first threshold value.
(Condition 2) The amount of variation in the face-facing angle is smaller than the predetermined second threshold value.
However, there may be an upper limit on the number of iterations to end (discontinue) the process.
以上を経て、3次元顔モデルフィッティングの最終結果を得る(図7(d))。このようして得られる最終結果は、安定して精度良く顔向きを推定するものである。 Through the above, the final result of the three-dimensional face model fitting is obtained (FIG. 7 (d)). The final result obtained in this way is to estimate the face orientation stably and accurately.
[本開示で利用する3次元顔モデルフィッティング]
本開示で利用する3次元顔モデルフィッティングのアルゴリズムについて説明する。3次元顔モデルフィッティングのアルゴリズムは、様々存在する。特許文献1に開示される3次元顔モデルフィッティングのアルゴリズムは、リアルタイム性及び高精度が求められる車載モニタリングセンサの技術分野で用いられる、一つの例である。本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、特許文献1に開示される3次元顔モデルフィッティングのアルゴリズムであってもよいし、別の3次元顔モデルフィッティングのアルゴリズムであってもよい。
[Three-dimensional face model fitting used in this disclosure]
The three-dimensional face model fitting algorithm used in the present disclosure will be described. There are various algorithms for 3D face model fitting. The three-dimensional face model fitting algorithm disclosed in
本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、概略以下のようなものである。学習画像を用いて、モデルの各ノードが顔特徴点の正しい位置に配置された正解モデルと、いずれかのノードが誤った位置に配置された誤差モデルとの差、及び誤差モデルに基づいて取得されたノード特徴量、についての相関関係の情報を、予め取得しておく。入力画像から顔特徴点を検出する際には、複数のノードの3次元位置を定めた3次元モデルを作成し、各ノードを入力画像上に投影し、投影点からノード特徴量を取得し、このノード特徴量と学習した相関関係の情報に基づいて、現在の各ノードの位置と対応する特徴点の位置とのずれを示す誤差推定量を取得する。更に、この誤差推定量と現在の各ノードの位置に基づいて、入力画像における各顔特徴点の3次元位置を推定し、それに合わせて各ノードを動かす。 The three-dimensional face model fitting algorithm used in the present disclosure is as follows. Obtained based on the difference between the correct model in which each node of the model is placed in the correct position of the facial feature point and the error model in which any node is placed in the wrong position, and the error model using the training image. Information on the correlation with respect to the created node feature amount is acquired in advance. When detecting facial feature points from the input image, a 3D model that defines the 3D positions of multiple nodes is created, each node is projected onto the input image, and the node feature amount is acquired from the projection points. Based on this node feature amount and the learned correlation information, an error estimator indicating the deviation between the current position of each node and the position of the corresponding feature point is acquired. Further, based on this error estimator and the current position of each node, the three-dimensional position of each face feature point in the input image is estimated, and each node is moved accordingly.
なお、本開示で利用する「ラフフィッティング」では、相関関係を取得するための学習段階で用いる学習画像において、正解モデルと誤差モデルの差が比較的大きいものが用いられ、これにより相関関係が形成される。一方、本開示で利用する「詳細フィッティング」では、相関関係を取得するための学習段階で用いる学習画像において、正解モデルと誤差モデルの差が比較的小さいものが用いられ、これにより相関関係が形成される。 In the "rough fitting" used in the present disclosure, in the learning image used in the learning stage for acquiring the correlation, an image in which the difference between the correct answer model and the error model is relatively large is used, and a correlation is formed by this. Will be done. On the other hand, in the "detailed fitting" used in the present disclosure, in the learning image used in the learning stage for acquiring the correlation, an image in which the difference between the correct answer model and the error model is relatively small is used, and a correlation is formed by this. Will be done.
本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、上記以外のものであってもよい。 The three-dimensional face model fitting algorithm used in the present disclosure may be other than the above.
[適用例]
本開示に係る顔向き推定装置が適用可能な一例について、図2を用いて説明する。図2は、本開示に係る顔向き推定装置14の適用例を説明するための図である。
[Application example]
An example to which the face orientation estimation device according to the present disclosure can be applied will be described with reference to FIG. FIG. 2 is a diagram for explaining an application example of the face
図2は、いずれも自動車に搭載される、車両制御部4と、及びドライバモニタリングセンサ12との、内部構成を示すブロック図である。車両制御部4は、ECU(electronic control unit:電子制御ユニット)6と、アクチュエータ8を含む。ECU6は、複数のものであってもよいし、アクチュエータ8も複数のものであってもよい。
FIG. 2 is a block diagram showing an internal configuration of a
ドライバモニタリングセンサ12は、運転者の表情を中心にリアルタイムでモニタリングを行う装置であり、撮像装置であるカメラ16と、及び、顔向き推定装置である画像処理部14とを、含む。顔向き推定装置である画像処理部14は、ハードウェアプロセッサに相当するCPU18と、メモリに相当するROM(Read Only Memory)20と、メモリに相当するRAM(Random Access Memory)22とを有する。これら各構成は、適宜のバスを介して相互にデータ送受信可能に接続される。
更に、ドライバモニタリングセンサ12のCPU18と、車両制御部4のECU6とは、CAN(Control Area Network)10を介して接続する。
The
Further, the
CPU18は、ROM20又はRAM22に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う。CPU18は、様々なプログラム(例えば、3次元顔モデルフィッティングアルゴリズムのためのプログラム)を実行する演算装置である。CPU18は、カメラ16や、車両制御部4のECU6から種々の入力データを受け取り、入力データの演算結果を、CAN10を介して車両制御部4のECU6に出力したり、ROM20やRAM22に格納したりする。
The
ROM20は、データの読み出しのみが可能な記憶部であり、例えば半導体記憶素子で構成される。ROM20は、例えばCPU18が実行するアプリケーションのプログラムやデータ等を記憶する。
The
RAM22は、データの書き換えが可能な記憶部であり、例えば半導体記憶素子で構成される。RAM22は、カメラ16からの入力画像等を記憶する。
The
以上のような、車両制御部4及びドライバモニタリングセンサ12において、顔向き推定装置は、画像処理部14により実現される。
In the
[構成例]
以下、顔向き推定装置14の構成例としての実施の形態を説明する。
[Configuration example]
Hereinafter, embodiments of the face
1.実施の形態1
1.1.構成
実施の形態1に係る顔向き推定装置14の構成について、図1を用いて説明する。図1は、本実施の形態に係る顔向き推定装置14の機能構成を示すブロック図である。
1.
1.1. Configuration The configuration of the face
顔向き推定装置14は、顔検出部23、顔向き推定部24、目開閉検出部38、及び、視線推定部40により、構成される。顔検出部23は、カメラ16等により撮像される画像データから人の顔画像データを検出する。顔向き推定部24は、検出された人の顔画像データに関して顔の向き(角度)を推定する。目開閉検出部38は、検出された人の顔画像データ及び推定された顔の向きのデータに基づいて、目の開閉を検出する。視線推定部40は、検出された人の顔画像データ、推定された顔の向きのデータ、及び検出された目の開閉のデータに基づいて、視線の方向を推定する。なお、顔向き推定装置14は、目開閉検出部38と視線推定部40を備えなくてもよい。
The face
更に、顔向き推定部24は、3次元顔モデル初期設定部26、3次元顔モデル移動(ずらし)部30、3次元顔モデル詳細フィッティング部32、3次元顔モデルフィッティングスコア算出部34、及び、3次元顔モデル統合部36を、含む。更に3次元顔モデル初期設定部26は、3次元顔モデルラフフィッティング部28を含む。なお、3次元顔モデル初期設定部26は、3次元顔モデルラフフィッティング部28を含まないこともある。
Further, the face
3次元顔モデル初期設定部26は、顔画像データに対して、初期の位置に3次元顔モデルを配置する。このとき、3次元顔モデル初期設定部26は、先ず配置した3次元顔モデルに基づいて、3次元顔モデルラフフィッティング部28により、顔画像データに対して、凡その位置に3次元顔モデルをフィッティングする、ラフフィッティングを行い、ラフフィッティング後の3次元顔モデルを初期配置の3次元顔モデルとする。なお、3次元顔モデルラフフィッティング部28によるラフフィッティングは行われないこともある。
The three-dimensional face model
3次元顔モデル移動(ずらし)部30は、複数方向からのフィッティングのために3次元顔モデルの位置を左右又は上下等にずらし量だけ一又は複数回ずらす。ここでのずらし量は、例えば、口幅の約半分である。これは、以下の理由による。
(理由1)複数方向のフィッティング処理で、各々、各顔器官点の各両端の特徴(例えば、左からのフィッティングでは左側の特徴)が少なくともフィッティングされるようにするため。
(理由2)「口幅」は最大長さの器官点であり基準とされるべきものであるため。
なお、ずらし量は別の値であってもよい。
ずらすことにより詳細フィッティングのための3次元顔モデルが、例えば、M個(M≧1)生成される。
The three-dimensional face model moving (shifting)
(Reason 1) In order to ensure that the features at both ends of each facial organ point (for example, the feature on the left side when fitting from the left) are at least fitted in the fitting process in multiple directions.
(Reason 2) "Mouth width" is the maximum length of organ points and should be used as a reference.
The amount of shift may be another value.
By shifting, for example, M (M ≧ 1) three-dimensional face models for detailed fitting are generated.
3次元顔モデル詳細フィッティング部32は、M個のうちの一つ(m番目(1≦m≦M))の3次元顔モデルに基づいて、詳細フィッティングを行う。
3次元顔モデルフィッティングスコア算出部34は、3次元顔モデル詳細フィッティング部32による詳細フィッティングの直後の、3次元顔モデルのフィッティングスコアを算出する。
更に、3次元顔モデル統合部36は、複数方向からの詳細フィッティングの結果を統合して、顔向きの角度を算出する。
The three-dimensional face model detailed
The 3D face model fitting score calculation unit 34 calculates the fitting score of the 3D face model immediately after the detailed fitting by the 3D face model detailed
Further, the three-dimensional face model integration unit 36 integrates the results of detailed fitting from a plurality of directions to calculate the angle of the face orientation.
1.2.動作
以上のように構成される顔向き推定装置14の動作について、以下説明する。
1.2. Operation The operation of the face
1.2.1.全体動作
図3は、実施の形態1に係る顔向き推定装置14の全体動作を示すフローチャートである。顔向き推定装置14の動作開始(ステップS02)後、「t」の初期化処理を行う(ステップS04)。
1.2.1. Overall operation FIG. 3 is a flowchart showing the overall operation of the face
次に、tフレーム目の画像データに関して、顔検出部23が顔画像データ検出処理を行う(ステップS06)。顔検出ができれば(ステップS08・YES)、顔向き推定部24が顔向きを推定して(ステップS10)、「t」をインクリメントする(ステップS12)。顔検出ができなければ(ステップS08・NO)、そのまま「t」をインクリメントする(ステップS12)。
Next, the
「t」が終了値でなければ(ステップS14・NO)、次のフレームに関して顔検出処理から顔向き推定処理が行われる(ステップS06〜)。 If "t" is not the end value (step S14 / NO), the face orientation estimation process is performed from the face detection process for the next frame (step S06 to).
「t」が終了値となれば(ステップS14・YES)、顔向き推定装置14の動作を終了する(ステップS16)。
When “t” becomes the end value (YES in step S14), the operation of the face
1.2.2.顔向き推定処理
図4は、実施の形態1に係る顔向き推定装置14における、顔向き推定部24の顔向き推定処理(図3・ステップS10)の内容を示すフローチャートである。
1.2.2. Face orientation estimation process FIG. 4 is a flowchart showing the contents of the face orientation estimation process (FIG. 3, step S10) of the face
顔向き推定処理開始(ステップS20)後、3次元顔モデル初期設定部26が、顔画像データ上に3次元顔モデルを初期配置(初期設定)する(ステップS22)。このとき、3次元顔モデル初期設定部26は、先ず配置した3次元顔モデルに基づいて、3次元顔モデルラフフィッティング部28により、顔画像データに対してラフフィッティングを行い、ラフフィッティング後の3次元顔モデルを初期配置の3次元顔モデルとすることがある。なお、3次元顔モデルラフフィッティング部28によるラフフィッティングは行われなくてもよい。また、3次元顔モデルラフフィッティング部28を備えない3次元顔モデル初期設定部26では、ラフフィッティングは行われない。「ラフフィッティング」については、上述の[本開示で利用する3次元顔モデルフィッティング]において説明している。
After the face orientation estimation process is started (step S20), the three-dimensional face model
次に、イタレーション回数を初期化(i=1)する(ステップS26)。続いて、3次元顔モデル移動(ずらし)部30が、3次元顔モデルの位置を左右又は上下等に一又は複数回ずらす(ステップS28)。ずらし量は、上述のように、例えば口幅の約半分である。なお、ずらすことにより詳細フィッティングのための3次元顔モデルがM個(M≧1)生成される。
Next, the number of iterations is initialized (i = 1) (step S26). Subsequently, the three-dimensional face model moving (shifting)
イタレーション回数(i)が“1”であるとき、3次元顔モデルの位置ずらし処理(ステップS32)の基になる3次元顔モデルは、初期配置処理(ステップS22)を経たものである。イタレーション回数(i)が複数であるときは、3次元顔モデルの位置ずらし処理(ステップS32)の基になる3次元顔モデルは、後で説明するステップS40における「M個の3次元顔モデルフィッティング結果の統合処理」を直前に且つ少なくとも1回経由したものである。 When the number of iterations (i) is "1", the three-dimensional face model that is the basis of the position shift processing (step S32) of the three-dimensional face model has undergone the initial placement processing (step S22). When the number of iterations (i) is plural, the three-dimensional face model that is the basis of the position shift processing (step S32) of the three-dimensional face model is "M three-dimensional face models" in step S40 described later. This is the process of "integrating the fitting result" immediately before and at least once.
次に、1〜Mまでインクリメントされる変数であるmを初期化(m=1)する(ステップS30)。続いて、M個のうちのm番目の3次元顔モデルに基づいて、3次元顔モデル詳細フィッティング部32が、顔画像データに対して3次元顔モデルを詳細フィッティングする(ステップS32)。「詳細フィッティング」については、上述の[本開示で利用する3次元顔モデルフィッティング]において説明している。
Next, m, which is a variable that is incremented from 1 to M, is initialized (m = 1) (step S30). Subsequently, the 3D face model detailed
次に、3次元顔モデルフィッティングスコア算出部34が、3次元顔モデル詳細フィッティング部32による詳細フィッティング処理(ステップS32)の直後の、3次元顔モデルのフィッティングスコアを算出する(ステップS34)。フィッティングスコアは、例えば、以下のように算出する。ROM20に記憶される、正解モデルに基づいて取得される特徴量と、ステップS32の詳細フィッティング処理を経たm番目の3次元顔モデルに基づいて取得される特徴量との、相関値を求めて、フィッティングスコアとする。なお、フィッティングスコアは、この値に限定されるものでは無い。
Next, the 3D face model fitting score calculation unit 34 calculates the fitting score of the 3D face model immediately after the detailed fitting process (step S32) by the 3D face model detailed fitting unit 32 (step S34). The fitting score is calculated as follows, for example. The correlation value between the feature amount stored in the
次に、変数mをインクリメントする(ステップS36)。ここでmがM以下であるならば(ステップS38・NO)、インクリメントしたm番目の3次元顔モデルについて、詳細フィッティング処理(ステップS32)、及び、フィッティングスコアの算出(ステップS34)を行う。 Next, the variable m is incremented (step S36). Here, if m is M or less (step S38 / NO), detailed fitting processing (step S32) and calculation of the fitting score (step S34) are performed on the incremented m-th three-dimensional face model.
mがMより大きければ(ステップS38・YES)、3次元顔モデル統合部36が、M個の3次元顔モデルフィッティング結果を統合する(ステップS40)。このステップS40については、図5a及び図5bを用いて、後で説明する。3次元顔モデル統合部36がM個の3次元顔モデルフィッティング結果を統合することにより、顔画像における顔向きの角度が算出される。 If m is larger than M (step S38 / YES), the three-dimensional face model integration unit 36 integrates M three-dimensional face model fitting results (step S40). This step S40 will be described later with reference to FIGS. 5a and 5b. By integrating the three-dimensional face model fitting results of M pieces by the three-dimensional face model integrating unit 36, the angle of the face orientation in the face image is calculated.
続いて、統合されたフィッティングスコアが所定の第1閾値より大きく且つ顔向き変動が所定の第2閾値より小さければ(ステップS42・YES)、顔向き推定部24が、最終的な顔向きの角度を出力して(ステップS48)、顔向き推定処理を終了する(ステップS50)。ここで「統合されたフィッティングスコア」とは、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)を経由した3次元顔モデルに係るフィッティングスコアである。即ち、「統合されたフィッティングスコア」とは、例えば、後で説明する、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)において、所定の第3閾値以上でありそれ故に重み付けに用いられるフィッティングスコアについての平均値である。また「顔向き変動」とは、イタレーション回数が「i−1」である処理フローの際に算出された顔向きの角度からの変動値である。なお、i=1の際、即ち、i−1=0の際は、ステップS24のラフフィッティング処理を経た3次元顔モデルの顔向きの角度からの変動値が「顔向き変動」とされる。
Subsequently, if the integrated fitting score is larger than the predetermined first threshold value and the face orientation variation is smaller than the predetermined second threshold value (step S42 · YES), the face
統合されたフィッティングスコアが所定の第1閾値より大きく且つ顔向き変動が所定の第2閾値より小さい、のでは無いならば(ステップS42・NO)、イタレーション回数をインクリメント(i++)して、次のイタレーション回数に入る(ステップS44)。 If the integrated fitting score is greater than the predetermined first threshold value and the facial variation is smaller than the predetermined second threshold value (step S42 / NO), the number of iterations is incremented (i ++), and then the next step is performed. Enter the number of iterations of (step S44).
イタレーション回数(i)が、所定のイタレーション上限回数“N”以下であるならば(ステップS46・NO)、3次元顔モデルの位置ずらし処理(ステップS28)〜M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)のフローを行う(繰り返す)。イタレーション回数(i)が多くなる程、3次元顔モデル統合部36による、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)が多く経由されることになる。即ち、3次元顔モデルの位置ずらし処理(ステップS28)の基になる3次元顔モデルも、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)を多く経由したものとなる。 If the number of iterations (i) is equal to or less than the predetermined upper limit number of iterations "N" (step S46 / NO), the three-dimensional face model position shift processing (step S28) to M three-dimensional face model fittings. The flow of the result integration process (step S40) is performed (repeated). As the number of iterations (i) increases, the integration process (step S40) of M three-dimensional face model fitting results by the three-dimensional face model integration unit 36 is performed more often. That is, the three-dimensional face model that is the basis of the position shift processing (step S28) of the three-dimensional face model also goes through a lot of integration processing (step S40) of M three-dimensional face model fitting results.
イタレーション回数(i)が所定のイタレーション上限回数“N”より大きければ(ステップS46・YES)、顔向き推定部24が、その時点での顔向きの角度を出力して(ステップS48)、顔向き推定処理を終了する(ステップS50)。
If the number of iterations (i) is larger than the predetermined upper limit number of iterations "N" (step S46 / YES), the face
1.2.3.M個の3次元顔モデルフィッティング結果の統合処理
図5a及び図5bは、実施の形態1に係る顔向き推定装置14における、3次元顔モデル統合部36の、M個の3次元顔モデルフィッティング結果の統合処理を示すフローチャートである。図5a及び図5bに示すフローチャートでは、M個の詳細フィッティング結果について、フィッティングスコアで重み付けして統合して、顔向きを算出する。
1.2.3. Integration processing of M 3D face model fitting results FIGS. 5a and 5b show M 3D face model fitting results of the 3D face model integration unit 36 in the face
図5a及び図5bに示すフローチャートが用いる変数及び定数は、次のように定義される。
・「paraN」:所定のフィッティングモデルパラメータ数(定数)。
・「ModelPara[k]」:「paraN」個のフィッティングモデルパラメータのうち、k番目のフィッティングモデルパラメータ。
「フィッティングモデルパラメータ」は、例えば、3次元顔モデルを左右方向に何度回転するか、などを表すものである。
・「validModelScoreSum」:“フィッティングスコアSm≧所定の第3閾値”を満たす3次元顔モデル(以下、有効モデルと言う。)のフィッティングスコアの合計値。
・「validModelParaSum[k]」:k番目のフィッティングモデルパラメータ「ModelPara[k]」について、“フィッティングスコアSm≧所定の第3閾値”を満たす有効モデルの分だけ、フィッティングスコアSmで重み付けして、フィッティングモデルパラメータ値を合計(積算)したもの。
・「Model[m].ModelPara[k]」:m番目の3次元顔モデルにおける、k番目のフィッティングモデルパラメータ。
The variables and constants used in the flowcharts shown in FIGS. 5a and 5b are defined as follows.
-"ParaN": The number of predetermined fitting model parameters (constant).
-"ModelPara [k]": The kth fitting model parameter among the "paraN" fitting model parameters.
The "fitting model parameter" represents, for example, how many times the three-dimensional face model is rotated in the left-right direction.
-"ValidModelScoreSum": The total value of the fitting scores of the three-dimensional face model (hereinafter referred to as the valid model) satisfying "fitting score Sm ≥ predetermined third threshold value".
-"ValidModelParaSum [k]": For the kth fitting model parameter "ModelPara [k]", weight the valid model satisfying "fitting score Sm ≥ predetermined third threshold value" with the fitting score Sm for fitting. The total (integrated) model parameter values.
-"Model [m] .ModelPara [k]": The kth fitting model parameter in the mth 3D face model.
図5a及び図5bに示すフローチャートでは、概略、開始(図5a・ステップS60)後、変数を初期化し(図5a・ステップS62〜S70)、M個の詳細フィッティング結果についてフィッティングスコアSmで重み付けして積算し(図5a・ステップS72〜S88)、積算後、正規化により統合値を算出して顔向きの角度を算出し(図5b・ステップS90〜98)、終了する(図5b・ステップS100)。以下にて、図5a及び図5bに示すフローチャートの各ステップを説明する。 In the flowcharts shown in FIGS. 5a and 5b, after roughly starting (FIG. 5a, step S60), the variables are initialized (FIG. 5a, steps S62 to S70), and M detailed fitting results are weighted by the fitting score Sm. Accumulation (FIGS. 5a, steps S72 to S88), and after integration, the integrated value is calculated by normalization to calculate the face-facing angle (FIG. 5b, steps S90 to 98), and the process ends (FIG. 5b, steps S100). .. Each step of the flowchart shown in FIGS. 5a and 5b will be described below.
図5aに示すフローチャートにおいて、開始(ステップS60)後、「validModelScoreSum」(有効モデルのフィッティングスコアの合計値)を初期化し(ステップS62)、変数kを0から「paraN」までインクリメントして全部の「validModelParaSum[k]」を初期化する(ステップS64、ステップS66、ステップS68、及び、ステップS70)。 In the flowchart shown in FIG. 5a, after the start (step S60), the "validModelScoreSum" (total value of the fitting scores of the valid models) is initialized (step S62), the variable k is incremented from 0 to "paraN", and all the "validModelScoreSum" "validModelParaSum [k]" is initialized (step S64, step S66, step S68, and step S70).
「validModelParaSum[k]」の初期化が完了すれば(ステップS70・NO)、1〜Mまでインクリメントされるmにまず“1”を設定する(m=1)(ステップS72)。 When the initialization of "validModelParaSum [k]" is completed (step S70 / NO), "1" is first set for m to be incremented from 1 to M (m = 1) (step S72).
続いて、M個のうちのm番目の3次元顔モデルについて、フィッティングスコアSmが所定の第3閾値より小さければ(ステップS74・YES)、フィッティング結果の積算処理(ステップS76〜ステップS84)を行うこと無く、mをインクリメントし(ステップS86)、mがM以下である限り(ステップS88・NO)、ステップS74以下を繰り返す。 Subsequently, if the fitting score Sm is smaller than the predetermined third threshold value (step S74 / YES) for the m-th three-dimensional face model among the M pieces, the fitting result integration process (steps S76 to S84) is performed. Without doing so, m is incremented (step S86), and as long as m is M or less (step S88 / NO), step S74 or less is repeated.
フィッティングスコアSmが所定の第3閾値以上であれば(ステップS74・NO)、変数kを0から「paraN」までインクリメントして、M個のうちのm番目の3次元顔モデルにおける、k番目のフィッティングモデルパラメータ「Model[m].ModelPara[k]」の夫々について、フィッティングスコアSmで重み付けして、フィッティングモデルパラメータ値を足し込む。即ち、以下の処理を行う(ステップS76、ステップS78、ステップS80、及び、ステップS82)。
更に、有効モデルのフィッティングスコアSmについての足し込み処理を行う。即ち、以下の処理を行う(ステップS84)。
続いて、mをインクリメントし(ステップS86)、mがM以下である限り(ステップS88・NO)、ステップS74以下を繰り返す。mがMより大きくなれば(ステップSS88・YES)、図5bに示すステップS90〜の、正規化による統合値の算出、及び、顔向き角度の算出の、処理ステップに進む。 Subsequently, m is incremented (step S86), and as long as m is M or less (step S88 / NO), step S74 or less is repeated. If m becomes larger than M (step SS88 / YES), the process proceeds to the processing steps of the calculation of the integrated value by normalization and the calculation of the face orientation angle in steps S90 to FIG. 5b shown in FIG. 5b.
図5bに示すフローチャートでは、変数kを0から「paraN」までインクリメントして、k番目のフィッティングモデルパラメータ「ModelPara[k]」について、正規化することにより統合値を算出する。つまり、以下の処理のようにして、「validModelParaSum[k]」を「validModelScoreSum」で除することにより、統合値である「ModelPara[k]」を求める(ステップS90、ステップS92、ステップS94、及び、ステップS96)。
統合したフィッティング結果である、フィッティングモデルパラメータの統合値から、顔画像データにおける顔の向きの角度を算出して(ステップS98)、M個の3次元顔モデルフィッティング結果の統合処理が終了する(ステップS100)。 The angle of the face orientation in the face image data is calculated from the integrated value of the fitting model parameters, which is the integrated fitting result (step S98), and the integration process of the M three-dimensional face model fitting results is completed (step). S100).
1.3.まとめ
以上のように、本実施の形態に係る顔向き推定装置は、画像データから人の顔画像データを検出する顔検出部23と、及び、検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部24とを備える顔向き推定装置14である。顔向き推定部24は、3次元顔モデル初期設定部26と、3次元顔モデル移動(ずらし)部30と、3次元顔モデル詳細フィッティング部32と、3次元顔モデルフィッティングスコア算出部34と、及び、3次元顔モデル統合部36とを含む。3次元顔モデル初期設定部26は、顔画像データ上に3次元顔モデルを設定するものである。更に、(1)3次元顔モデル移動(ずらし)部30は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、(2)3次元顔モデル詳細フィッティング部32は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理を行い、(3)3次元顔モデルフィッティングスコア算出部34は、3次元顔モデル詳細フィッティング部32による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、(4)3次元顔モデル統合部36は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出するものである。顔向き推定部14は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する。
1.3. Summary As described above, the face orientation estimation device according to the present embodiment includes the
以上の、本実施の形態に係る顔向き推定装置は、画像データ中の人の顔に関して、安定して精度良く顔の向きの角度を推定することができる。 As described above, the face orientation estimation device according to the present embodiment can estimate the angle of the face orientation with respect to the human face in the image data in a stable and accurate manner.
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technology disclosed in the present application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate.
実施の形態1に係る顔向き推定装置は、自動車に搭載されるドライバモニタリングセンサに適用されることが想定されるが、適用例はドライバモニタリングセンサに限定されない。例えば、工場における作業者の表情をモニタするモニタリングシステムや、カメラを駅や広場等に設置した上で特定の人物を検出してその人物の表情を検出する検出システム等に適用され得る。 The face orientation estimation device according to the first embodiment is assumed to be applied to a driver monitoring sensor mounted on an automobile, but the application example is not limited to the driver monitoring sensor. For example, it can be applied to a monitoring system that monitors the facial expression of a worker in a factory, a detection system that detects a specific person after installing a camera in a station, a plaza, or the like, and detects the facial expression of that person.
また、実施の形態を説明するために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Also provided are accompanying drawings and detailed description to illustrate embodiments. Therefore, among the components described in the attached drawings and the detailed description, not only the components essential for solving the problem but also the components not essential for solving the problem in order to exemplify the above technology. Can also be included. Therefore, the fact that these non-essential components are described in the accompanying drawings or detailed description should not immediately determine that those non-essential components are essential.
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Further, since the above-described embodiment is for exemplifying the technique in the present disclosure, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent scope thereof.
4・・・車両制御部、6・・・ECU、8・・・アクチュエータ、10・・・CAN、12・・・ドライバモニタリングセンサ、14・・・顔向き推定装置(画像処理部)、16・・・カメラ、18・・・CPU、20・・・ROM、22・・・RAM、23・・・顔検出部、24・・・顔向き推定部、26・・・3次元顔モデル初期設定部、28・・・3次元顔モデルラフフィッティング部、30・・・3次元顔モデル移動(ずらし)部、32・・・3次元顔モデル詳細フィッティング部、34・・・3次元顔モデルフィッティングスコア算出部、36・・・3次元顔モデル統合部、38・・・目開閉検出部、40・・・視線推定部。 4 ... Vehicle control unit, 6 ... ECU, 8 ... Actuator, 10 ... CAN, 12 ... Driver monitoring sensor, 14 ... Face orientation estimation device (image processing unit), 16.・ ・ Camera, 18 ・ ・ ・ CPU, 20 ・ ・ ・ ROM, 22 ・ ・ ・ RAM, 23 ・ ・ ・ Face detection part, 24 ・ ・ ・ Face orientation estimation part, 26 ・ ・ ・ 3D face model initial setting part , 28 ... 3D face model rough fitting part, 30 ... 3D face model moving (shifting) part, 32 ... 3D face model detailed fitting part, 34 ... 3D face model fitting score calculation Unit, 36 ... 3D face model integration unit, 38 ... eye opening / closing detection unit, 40 ... line-of-sight estimation unit.
Claims (8)
検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部と
を備える顔向き推定装置であって、
前記顔向き推定部は、
3次元顔モデル初期設定部と、
3次元顔モデル移動(ずらし)部と、
3次元顔モデル詳細フィッティング部と、
3次元顔モデルフィッティングスコア算出部と、及び、
3次元顔モデル統合部と
を含み、
前記3次元顔モデル初期設定部は、顔画像データ上に3次元顔モデルを初期配置するものであり、
更に、
(1)前記3次元顔モデル移動(ずらし)部は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、
(2)前記3次元顔モデル詳細フィッティング部は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理を行い、
(3)前記3次元顔モデルフィッティングスコア算出部は、前記3次元顔モデル詳細フィッティング部による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、
(4)前記3次元顔モデル統合部は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する
ものであり、
前記顔向き推定部は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する、顔向き推定装置。 A face detection unit that detects human face image data from image data, and
It is a face orientation estimation device including a face orientation estimation unit that estimates the angle of the face orientation with respect to the detected human face image data.
The face orientation estimation unit
3D face model initial setting part and
3D face model movement (shift) part,
3D face model details fitting part and
3D face model fitting score calculation unit and
Including 3D face model integration part
The three-dimensional face model initial setting unit initially arranges the three-dimensional face model on the face image data.
In addition
(1) The three-dimensional face model moving (shifting) unit shifts the position of a given three-dimensional face model by the amount of shifting one or more times to generate a plurality of three-dimensional face models for detailed fitting.
(2) The three-dimensional face model detailed fitting unit performs a process of finely fitting a three-dimensional face model for a plurality of detailed fittings generated by shifting the position with respect to the face image data.
(3) The three-dimensional face model fitting score calculation unit calculates the fitting score of the three-dimensional face model immediately after the detailed fitting process by the three-dimensional face model detailed fitting unit.
(4) The three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results to calculate the angle of the face orientation.
The face orientation estimation unit is a face orientation estimation device that repeatedly executes the processes (1) to (4) and outputs the angle of the face orientation.
又は、
繰り返し回数が繰り返し上限回数を超えるまで、
実行され、
上記(1)〜(4)の処理の繰り返しの実行後、顔の向きの角度を出力する、
請求項1に記載の顔向き推定装置。 In the above (4), the fitting score related to the three-dimensional face model that has passed through the integration processing of the plurality of three-dimensional face model fitting results in the above (4) is larger than the predetermined first threshold value and is the number of repetitions in the previous time. Until the variation value from the angle of face orientation becomes smaller than the predetermined second threshold value.
Or
Until the number of iterations exceeds the maximum number of iterations
Executed,
After repeating the above processes (1) to (4), the angle of the face orientation is output.
The face orientation estimation device according to claim 1.
複数の詳細フィッティング結果について、夫々のフィッティングスコアが所定の第3閾値以上であれば当該フィッティングスコアで重み付けして積算し、
積算後、正規化により統合値を算出して顔向きの角度を算出する、
請求項1に記載の顔向き推定装置。 In the process of (4) above, the three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results and calculates the angle of the face orientation.
For a plurality of detailed fitting results, if each fitting score is equal to or higher than a predetermined third threshold value, the fitting score is weighted and integrated.
After integration, the integrated value is calculated by normalization to calculate the face-facing angle.
The face orientation estimation device according to claim 1.
請求項3に記載の顔向き推定装置。 The fitting score related to the three-dimensional face model that has passed through the integrated processing of the plurality of three-dimensional face model fitting results in (4) above is the average value of the fitting scores that are equal to or higher than the predetermined third threshold value among the plurality of fitting scores. Is,
The face orientation estimation device according to claim 3.
画像データから人の顔画像データを検出するステップと、
顔画像データ上に3次元顔モデルを初期配置するステップと、並びに、
下記(処理1)〜(処理4)の処理を繰り返し実行し、顔の向きの角度を出力するステップと
を含む、顔向き推定方法。
(処理1)所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成する処理。
(処理2)顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理。
(処理3)上記(処理2)における詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出する処理。
(処理4)複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する処理。 A computer-run face-to-face estimation method
Steps to detect human face image data from image data,
The steps to initially place the 3D face model on the face image data, and
A face orientation estimation method including a step of repeatedly executing the following processes (processes 1) to (process 4) and outputting the angle of the face orientation.
(Process 1) A process of shifting the position of a given three-dimensional face model one or more times by a shift amount to generate a plurality of three-dimensional face models for detailed fitting.
(Process 2) A process of detailed fitting a three-dimensional face model for a plurality of detailed fittings generated by shifting the position with respect to the face image data.
(Process 3) A process of calculating the fitting score of the three-dimensional face model immediately after the detailed fitting process in the above (process 2).
(Process 4) A process of integrating a plurality of three-dimensional face model fitting results and calculating the angle of face orientation.
又は、
繰り返し回数が繰り返し上限回数を超えるまで、
実行され、
上記(処理1)〜(処理4)の処理の繰り返しの実行後、顔の向きの角度を出力する、
請求項5に記載の顔向き推定方法。 The fitting score related to the three-dimensional face model that has passed through the integration process of the plurality of three-dimensional face model fitting results in the above (process 4) is larger than the predetermined first threshold value, and the above-mentioned (process) is performed in the previous number of repetitions. Until the fluctuation value from the angle of the face orientation in 4) becomes smaller than the predetermined second threshold value.
Or
Until the number of iterations exceeds the maximum number of iterations
Executed,
After repeating the above processes (process 1) to (process 4), the angle of the face orientation is output.
The face orientation estimation method according to claim 5.
複数の詳細フィッティング結果について、夫々のフィッティングスコアが所定の第3閾値以上であれば当該フィッティングスコアで重み付けして積算し、
積算後、正規化により統合値を算出して顔向きの角度を算出する、
請求項5に記載の顔向き推定方法。 In the process of calculating the angle of the face orientation by integrating the plurality of three-dimensional face model fitting results in the above (process 4),
For a plurality of detailed fitting results, if each fitting score is equal to or higher than a predetermined third threshold value, the fitting score is weighted and integrated.
After integration, the integrated value is calculated by normalization to calculate the face-facing angle.
The face orientation estimation method according to claim 5.
請求項7に記載の顔向き推定方法。 The fitting score related to the three-dimensional face model that has passed through the integrated processing of the plurality of three-dimensional face model fitting results in the above (process 4) is the average of the fitting scores that are equal to or higher than the predetermined third threshold value among the plurality of fitting scores. Value,
The face orientation estimation method according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019156979A JP7354693B2 (en) | 2019-08-29 | 2019-08-29 | Face direction estimation device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019156979A JP7354693B2 (en) | 2019-08-29 | 2019-08-29 | Face direction estimation device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033938A true JP2021033938A (en) | 2021-03-01 |
JP7354693B2 JP7354693B2 (en) | 2023-10-03 |
Family
ID=74677489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019156979A Active JP7354693B2 (en) | 2019-08-29 | 2019-08-29 | Face direction estimation device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7354693B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023144950A1 (en) * | 2022-01-27 | 2023-08-03 | 三菱電機株式会社 | Adjustment device, face orientation estimation device, and adjustment method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009091029A1 (en) * | 2008-01-16 | 2009-07-23 | Asahi Kasei Kabushiki Kaisha | Face posture estimating device, face posture estimating method, and face posture estimating program |
-
2019
- 2019-08-29 JP JP2019156979A patent/JP7354693B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009091029A1 (en) * | 2008-01-16 | 2009-07-23 | Asahi Kasei Kabushiki Kaisha | Face posture estimating device, face posture estimating method, and face posture estimating program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023144950A1 (en) * | 2022-01-27 | 2023-08-03 | 三菱電機株式会社 | Adjustment device, face orientation estimation device, and adjustment method |
Also Published As
Publication number | Publication date |
---|---|
JP7354693B2 (en) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5772821B2 (en) | Facial feature point position correction apparatus, face feature point position correction method, and face feature point position correction program | |
US8411966B2 (en) | Estimation of image relations from point correspondences between images | |
KR100860640B1 (en) | Method and system for multi-modal component-based tracking of an object using robust information fusion | |
US8958609B2 (en) | Method and device for computing degree of similarly between data sets | |
EP1727087A1 (en) | Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same | |
US20070065015A1 (en) | Image processing apparatus and method | |
WO2009091029A1 (en) | Face posture estimating device, face posture estimating method, and face posture estimating program | |
JP5012615B2 (en) | Information processing apparatus, image processing method, and computer program | |
CN110942015B (en) | Crowd density estimation method | |
US9904843B2 (en) | Information processing device, information processing method, and program | |
EP3166074A1 (en) | Method of camera calibration for a multi-camera system and apparatus performing the same | |
JP2017123087A (en) | Program, device and method for calculating normal vector of planar object reflected in continuous photographic images | |
JP2021033938A (en) | Device and method for estimating facial direction | |
CN113899364B (en) | Positioning method and device, equipment and storage medium | |
Tagawa | Depth perception model based on fixational eye movements using bayesian statistical inference | |
EP2128820A1 (en) | Information extracting method, registering device, collating device and program | |
US20220327728A1 (en) | Information processing apparatus, information processing method, learning method, and storage medium | |
WO2021039403A1 (en) | Face orientation estimation device and method | |
US20230316460A1 (en) | Binocular image quick processing method and apparatus and corresponding storage medium | |
Skocaj et al. | Weighted Incremental Subspace Learning Ѓ | |
Song et al. | ConcatNet: A deep architecture of concatenation-assisted network for dense facial landmark alignment | |
EP3076370A1 (en) | Method and system for selecting optimum values for parameter set for disparity calculation | |
CN113658156A (en) | Sphere fitting method and device for removing local outliers in depth image | |
Ieng et al. | Evaluation of robust fitting based detection | |
US20220326768A1 (en) | Information processing apparatus, information processing method, learning method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7354693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |