JP2021033938A - Device and method for estimating facial direction - Google Patents

Device and method for estimating facial direction Download PDF

Info

Publication number
JP2021033938A
JP2021033938A JP2019156979A JP2019156979A JP2021033938A JP 2021033938 A JP2021033938 A JP 2021033938A JP 2019156979 A JP2019156979 A JP 2019156979A JP 2019156979 A JP2019156979 A JP 2019156979A JP 2021033938 A JP2021033938 A JP 2021033938A
Authority
JP
Japan
Prior art keywords
fitting
face
face model
model
dimensional face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019156979A
Other languages
Japanese (ja)
Other versions
JP7354693B2 (en
Inventor
相澤 知禎
Chitei Aizawa
知禎 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019156979A priority Critical patent/JP7354693B2/en
Publication of JP2021033938A publication Critical patent/JP2021033938A/en
Application granted granted Critical
Publication of JP7354693B2 publication Critical patent/JP7354693B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a device and a method for estimating a facial direction of a person in image data stably and precisely.SOLUTION: The facial direction estimating device includes: a face detector for detecting facial image data of a person from image data; a facial direction estimation unit for estimating the angle of the direction of the face in the facial image data of a detected person. The facial direction estimation unit includes: a three-dimensional face model initial setting unit: a three-dimensional face model moving (displacing) unit; a three-dimensional face model minute fitting unit; a three-dimensional face model fitting score calculation unit; and a three-dimensional face model integration unit.SELECTED DRAWING: Figure 1

Description

本開示は、画像データ中の人の顔に関して、安定して精度よく顔向きを推定する顔向き推定装置、及び方法に関する。 The present disclosure relates to a face orientation estimation device and a method for estimating the face orientation of a person in image data in a stable and accurate manner.

画像データの中から人の顔を検出し、更に検出した顔についてその顔の向きを推定する様々な技術が知られている。例えば、特許文献1は、人の顔における複数の特徴点に対応する複数の3次元位置を定める3次元顔モデルを、画像中の顔にフィッティングすることにより、画像中の顔の向きを推定する、3次元顔モデルフィッティングアルゴリズム、及び、同アルゴリズムを利用する検出装置を、開示している。 Various techniques are known that detect a human face from image data and estimate the orientation of the detected face. For example, Patent Document 1 estimates the orientation of a face in an image by fitting a three-dimensional face model that determines a plurality of three-dimensional positions corresponding to a plurality of feature points on a human face to the face in the image. A three-dimensional face model fitting algorithm and a detection device using the algorithm are disclosed.

しかしながら、斜め方向を向く顔の向きを、上述のような従来の3次元顔モデルフィッティングアルゴリズムにより検出しようとすると、推定の精度が安定しないことがある。横顔に近い斜め方向を向く顔、即ち、正面からのヨー角が大きい顔である場合であって、特に、眼鏡等の装飾品が掛けられている顔である場合においては、顔の奥側の顔特徴点が見え辛い(即ち、画像上にて明確ではない)ため、3次元顔モデルがフィットし辛く、結果として局所解に陥ってしまい、このことが顔向き推定精度に影響を及ぼす可能性があるからである。 However, when trying to detect the orientation of a face facing in an oblique direction by the conventional three-dimensional face model fitting algorithm as described above, the estimation accuracy may not be stable. In the case of a face facing diagonally close to the profile, that is, a face having a large yaw angle from the front, and particularly in the case of a face on which ornaments such as eyeglasses are hung, the back side of the face. Since the facial feature points are hard to see (that is, they are not clear on the image), the 3D face model is hard to fit, resulting in a local solution, which may affect the facial orientation estimation accuracy. Because there is.

特許文献2に開示される顔特徴点検出装置は、あらかじめ顔特徴点の位置関係のルールを定めておくことによって、不自然な形状の変形3次元顔モデルでフィッティング処理をして局所解に陥り精度の低い顔特徴点検出結果となってしまうことを、抑制している。しかしながら、当該顔特徴点検出装置は、横顔等の正面からのヨー角が大きい場合、特に眼鏡等の装飾品を掛けている場合においては、自然な顔特徴点モデルによるフィッティング処理をしている際に、局所解に陥ることが考えられる。その結果として、顔特徴点検出において、精度の低い顔特徴点検出、即ち、精度の低い顔向き角度推定となってしまうおそれがある。 The face feature point detection device disclosed in Patent Document 2 performs fitting processing with a deformed three-dimensional face model having an unnatural shape by predetermining rules for the positional relationship of face feature points, and falls into a local solution. It suppresses the result of detecting facial feature points with low accuracy. However, when the facial feature point detecting device has a large yaw angle from the front such as a profile, especially when a decorative item such as eyeglasses is worn, when the fitting process is performed by a natural facial feature point model. In addition, it is possible to fall into a local solution. As a result, in the face feature point detection, there is a possibility that the face feature point detection with low accuracy, that is, the face orientation angle estimation with low accuracy is performed.

また、特許文献3に開示される特徴点位置検出装置は、目、鼻、口等の主要な少数の顔特徴点位置の初期情報を外部から入力することによって、より多くの所望の顔特徴点の概略の位置を推定する。当該特徴点位置検出装置は、入力される位置から顔特徴点探索を開始するので、正解とは異なる姿勢や表情などの顔形状を、誤ってフィッティングする、すなわち、局所解に陥ることが、抑制される。しかしながら、当該特徴点位置検出装置においては、予め少数の顔特徴点が外部から入力されなければならず、よって、当該特徴点位置検出装置は高速且つリアルタイムの処理には不向きである。 Further, the feature point position detecting device disclosed in Patent Document 3 allows more desired facial feature points by inputting initial information of a small number of major facial feature point positions such as eyes, nose, and mouth from the outside. Estimate the approximate position of. Since the feature point position detection device starts the face feature point search from the input position, it is possible to prevent erroneous fitting of a face shape such as a posture or facial expression different from the correct answer, that is, to fall into a local solution. Will be done. However, in the feature point position detecting device, a small number of facial feature points must be input from the outside in advance, and therefore, the feature point position detecting device is not suitable for high-speed and real-time processing.

特開2007−249280号公報JP-A-2007-249280 特開2011−128966号公報Japanese Unexamined Patent Publication No. 2011-128966 特許第6387831号公報Japanese Patent No. 6387831

本開示は、画像データ中の人の顔に関して、安定して精度良く顔向きを推定するアルゴリズム、及び同アルゴリズムを利用する顔向き推定装置及び方法を提供する。 The present disclosure provides an algorithm for estimating the face orientation of a person in image data in a stable and accurate manner, and a face orientation estimation device and method using the algorithm.

本開示の顔向き推定装置は、
画像データから人の顔画像データを検出する顔検出部と、及び、検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部とを備える顔向き推定装置である。前記顔向き推定部は、3次元顔モデル初期設定部と、3次元顔モデル移動(ずらし)部と、3次元顔モデル詳細フィッティング部と、3次元顔モデルフィッティングスコア算出部と、及び、3次元顔モデル統合部とを含み、
前記3次元顔モデル初期設定部は、顔画像データ上に3次元顔モデルを設定するものであり、
更に、
(1)前記3次元顔モデル移動(ずらし)部は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、
(2)前記3次元顔モデル詳細フィッティング部は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための三次元顔モデルを詳細フィッティングする処理を行い、
(3)前記3次元顔モデルフィッティングスコア算出部は、前記3次元顔モデル詳細フィッティング部による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、
(4)前記3次元顔モデル統合部は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する
ものであり、
前記顔向き推定部は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する。
The face orientation estimation device of the present disclosure is
It is a face orientation estimation device including a face detection unit that detects human face image data from image data and a face orientation estimation unit that estimates the angle of the face orientation with respect to the detected human face image data. The face orientation estimation unit includes a three-dimensional face model initial setting unit, a three-dimensional face model moving (shifting) unit, a three-dimensional face model detailed fitting unit, a three-dimensional face model fitting score calculation unit, and three-dimensional. Including face model integration part
The three-dimensional face model initial setting unit sets the three-dimensional face model on the face image data.
In addition
(1) The three-dimensional face model moving (shifting) unit shifts the position of a given three-dimensional face model by the amount of shifting one or more times to generate a plurality of three-dimensional face models for detailed fitting.
(2) The three-dimensional face model detailed fitting unit performs a process of performing detailed fitting of a plurality of three-dimensional face models for detailed fitting generated by shifting the position with respect to the face image data.
(3) The three-dimensional face model fitting score calculation unit calculates the fitting score of the three-dimensional face model immediately after the detailed fitting process by the three-dimensional face model detailed fitting unit.
(4) The three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results to calculate the angle of the face orientation.
The face orientation estimation unit repeatedly executes the processes (1) to (4) and outputs the angle of the face orientation.

本開示に係る顔向き推定装置及び方法は、画像データ中の人の顔に関して、安定して精度良く顔向きを推定することができる。 The face orientation estimation device and method according to the present disclosure can estimate the face orientation of a person in the image data in a stable and accurate manner.

実施の形態1に係る顔向き推定装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the face orientation estimation apparatus which concerns on Embodiment 1. FIG. 本開示に係る顔向き推定装置の適用例を説明するための図である。It is a figure for demonstrating the application example of the face orientation estimation apparatus which concerns on this disclosure. 実施の形態1に係る顔向き推定装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation of the face orientation estimation apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る顔向き推定装置における、顔向き推定部の顔向き推定処理を示すフローチャートである。It is a flowchart which shows the face orientation estimation processing of the face orientation estimation part in the face orientation estimation apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る顔向き推定装置における、3次元顔モデル統合部の、M個の3次元顔モデルフィッティング結果の統合処理を示すフローチャートである。図5aに示すフローチャートでは、開始後、変数を初期化し、M個のフィッティング結果についてフィッティングスコアSmで重み付けして、積算する(足し込む)。It is a flowchart which shows the integration process of M 3D face model fitting results of the 3D face model integration part in the face orientation estimation apparatus which concerns on Embodiment 1. FIG. In the flowchart shown in FIG. 5a, after the start, the variables are initialized, and the M fitting results are weighted by the fitting score Sm and integrated (added). 実施の形態1に係る顔向き推定装置における、3次元顔モデル統合部の、M個の3次元顔モデルフィッティング結果の統合処理を示すフローチャートである。図5bに示すフローチャートでは、正規化により統合値を算出して顔向きの角度を算出し、終了する。It is a flowchart which shows the integration process of M 3D face model fitting results of the 3D face model integration part in the face orientation estimation apparatus which concerns on Embodiment 1. FIG. In the flowchart shown in FIG. 5b, the integrated value is calculated by normalization, the face-facing angle is calculated, and the process ends. 図6(a−1)(a−2)は、ヨー(Yaw)角が約−40°である顔画像に対して、2種類の、点(ノード)のみにより構成される3次元顔モデルを、合わせた様子を示す図である。 図6(b−1)〜(b−7)は、ヨー角を変化させたときの3次元顔モデルの形状の様子を示す図である。FIGS. 6 (a-1) and 6 (a-2) show a three-dimensional face model composed of only points (nodes) of two types for a face image having a yaw angle of about −40 °. , It is a figure which shows the combined state. 6 (b-1) to 6 (b-7) are views showing the shape of the three-dimensional face model when the yaw angle is changed. 本開示に係る顔向き推定アルゴリズムの概要を説明する図である。It is a figure explaining the outline of the face orientation estimation algorithm which concerns on this disclosure.

以下、適宜図面を参照しながら、本発明に係る実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.

なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the inventors intend to limit the subject matter described in the claims by those skilled in the art by providing the accompanying drawings and the following description in order to fully understand the present disclosure. is not it.

[本開示に至る経緯]
画像データから人の顔を検出し、更に検出した顔についてその顔の向きを推定する技術は、これまで様々に開発されている。特許文献1は、人の顔における複数の特徴点に対応する複数の3次元位置を定める3次元顔モデルを、画像中の顔にフィッティングすることにより、画像中の顔の向きを推定する、3次元顔モデルフィッティングアルゴリズム、及び、同アルゴリズムを利用する検出装置を、開示している。
[Background to this disclosure]
Various techniques have been developed so far for detecting a human face from image data and estimating the orientation of the detected face. Patent Document 1 estimates the orientation of a face in an image by fitting a three-dimensional face model that determines a plurality of three-dimensional positions corresponding to a plurality of feature points on a human face to the face in the image. A three-dimensional face model fitting algorithm and a detection device using the algorithm are disclosed.

しかしながら、斜め方向を向く顔の向きを、従来の3次元顔モデルフィッティングアルゴリズムにより検出しようとすると、推定の精度が安定しない。正面からのヨー角が大きい、横顔に近い場合、特に、眼鏡等の装飾品が掛けられている場合においては、顔の奥側の顔特徴点が画像上にて明確ではないため、3次元顔モデルがフィットし辛く、結果として局所解に陥ってしまうことがあるからである。 However, when trying to detect the orientation of a face facing in an oblique direction by a conventional three-dimensional face model fitting algorithm, the estimation accuracy is not stable. A three-dimensional face because the facial feature points on the back side of the face are not clear on the image when the yaw angle from the front is large and it is close to the profile, especially when ornaments such as glasses are hung. This is because the model is difficult to fit and may result in a local solution.

図6(b−1)〜(b−7)は、ヨー(Yaw)角を変化させたときの3次元顔モデルの形状の様子を示す図である。正面を向くモデルが、ヨー角が0°である(図6(b−7))。図6(b−6)から図6(b−1)に移るにつれて、3次元顔モデルは右方向を深く向き、ヨー角が「約−10°」から「約−60°」に移行している。 6 (b-1) to 6 (b-7) are views showing the shape of the three-dimensional face model when the yaw angle is changed. The front-facing model has a yaw angle of 0 ° (FIG. 6 (b-7)). As we move from FIG. 6 (b-6) to FIG. 6 (b-1), the 3D face model points deeply to the right, and the yaw angle shifts from "about -10 °" to "about -60 °". There is.

図6(a−1)(a−2)は、ヨー角が約−40°である顔画像に対して、2種類の、点(ノード)のみにより構成される3次元顔モデルを、合わせた様子を示す図である。図6(a−2)では、ヨー角が約−40°である3次元顔モデルが合わせられ、図6(a−1)では、ヨー角が約−50°である3次元顔モデルが合わせられている。
図6(a−1)に示されるように、ヨー角約−40°の顔画像に対して、ヨー角約−50°であると誤推定が生じる可能性がある。これは以下のような要因によるものである。
(要因1)ヨー角約−50°の3次元顔モデルに対しても、ヨー角約−40°の顔画像における多くの顔特徴点がフィットすること。
(要因2)顔の奥側(ここでは右側)の顔特徴点が明確でない(即ち、見辛い)ことから、ヨー角約−40°の3次元顔モデルもヨー角約−50°の3次元顔モデルも、いずれに対しても、顔の奥側の顔特徴点がフィットし難いこと。
つまり、3次元顔モデルフィッティングが結果として、局所解に陥り、誤推定を生じ、顔向き推定精度に影響を及ぼす。
In FIGS. 6 (a-1) and 6 (a-2), a three-dimensional face model composed of only points (nodes) of two types is combined with a face image having a yaw angle of about −40 °. It is a figure which shows the state. In FIG. 6 (a-2), a three-dimensional face model having a yaw angle of about −40 ° is matched, and in FIG. 6 (a-1), a three-dimensional face model having a yaw angle of about −50 ° is matched. Has been done.
As shown in FIG. 6 (a-1), for a face image having a yaw angle of about −40 °, an erroneous estimation may occur if the yaw angle is about −50 °. This is due to the following factors.
(Factor 1) Many facial feature points in a face image with a yaw angle of about -40 ° fit even for a three-dimensional face model with a yaw angle of about -50 °.
(Factor 2) Since the facial feature points on the back side (right side here) of the face are not clear (that is, it is hard to see), the three-dimensional face model with a yaw angle of about -40 ° is also three-dimensional with a yaw angle of about -50 °. It is difficult for the facial feature points on the back side of the face to fit to any of the face models.
That is, the three-dimensional face model fitting results in a local solution, which causes erroneous estimation and affects the accuracy of face orientation estimation.

本開示は、このような問題点を解決するために、発明者により考案された技術である。図7は、本開示に係る顔向き推定アルゴリズムの概要を説明する図である。まず、顔画像に対して、初期の位置に3次元顔モデルを配置して(図7(a))、凡その位置に3次元顔モデルをフィッティングする。即ち、顔画像に対して、ラフフィッティングを行う(図7(b))。なおラフフィッティングは行われなくてもよい。次に、3次元顔モデルの位置を左右又は上下等にずらし、複数方向から、詳細フィッティングを行う(図7(c−1)、図7(c−2))。ここでのずらし量は、例えば、口幅の約半分である。更に、複数方向からのフィッティングの結果を統合する。この統合の際には、詳細フィッティング直後に算出されるフィッティングスコアが所定の閾値(即ち、所定の第3閾値)以上となる結果について、フィッティングスコアで重み付けして統合する。 The present disclosure is a technique devised by the inventor in order to solve such a problem. FIG. 7 is a diagram illustrating an outline of the face orientation estimation algorithm according to the present disclosure. First, the three-dimensional face model is placed at the initial position of the face image (FIG. 7A), and the three-dimensional face model is fitted at the approximate position. That is, rough fitting is performed on the face image (FIG. 7 (b)). Rough fitting does not have to be performed. Next, the position of the three-dimensional face model is shifted to the left, right, up and down, and detailed fitting is performed from a plurality of directions (FIGS. 7 (c-1) and 7 (c-2)). The amount of shift here is, for example, about half the width of the mouth. In addition, the results of fitting from multiple directions are integrated. At the time of this integration, the result that the fitting score calculated immediately after the detailed fitting is equal to or higher than a predetermined threshold value (that is, a predetermined third threshold value) is weighted by the fitting score and integrated.

ラフフィッティング処理を含み得る初期配置処理を経た、又は統合処理を経た、3次元顔モデルの位置を、左右又は上下等にずらし、複数方向から、詳細フィッティングを行うことと、複数方向からのフィッティングの結果を統合することは、例えば、以下の条件をいずれも満たすまで繰り返す(イタレーションする)。
(条件1)統合されたフィッティングスコアが所定の第1閾値より大きい。
(条件2)顔向きの角度の変動量が所定の第2閾値より小さい。
但し、処理を終了する(打ち切る)ためのイタレーション回数の上限を設けることがある。
The position of the three-dimensional face model that has undergone the initial placement process that may include the rough fitting process or the integrated process is shifted to the left, right, up and down, etc., and detailed fitting is performed from multiple directions, and fitting from multiple directions. Integrating the results is repeated (iterated), for example, until all of the following conditions are met.
(Condition 1) The integrated fitting score is larger than the predetermined first threshold value.
(Condition 2) The amount of variation in the face-facing angle is smaller than the predetermined second threshold value.
However, there may be an upper limit on the number of iterations to end (discontinue) the process.

以上を経て、3次元顔モデルフィッティングの最終結果を得る(図7(d))。このようして得られる最終結果は、安定して精度良く顔向きを推定するものである。 Through the above, the final result of the three-dimensional face model fitting is obtained (FIG. 7 (d)). The final result obtained in this way is to estimate the face orientation stably and accurately.

[本開示で利用する3次元顔モデルフィッティング]
本開示で利用する3次元顔モデルフィッティングのアルゴリズムについて説明する。3次元顔モデルフィッティングのアルゴリズムは、様々存在する。特許文献1に開示される3次元顔モデルフィッティングのアルゴリズムは、リアルタイム性及び高精度が求められる車載モニタリングセンサの技術分野で用いられる、一つの例である。本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、特許文献1に開示される3次元顔モデルフィッティングのアルゴリズムであってもよいし、別の3次元顔モデルフィッティングのアルゴリズムであってもよい。
[Three-dimensional face model fitting used in this disclosure]
The three-dimensional face model fitting algorithm used in the present disclosure will be described. There are various algorithms for 3D face model fitting. The three-dimensional face model fitting algorithm disclosed in Patent Document 1 is an example used in the technical field of an in-vehicle monitoring sensor that requires real-time performance and high accuracy. The three-dimensional face model fitting algorithm used in the present disclosure may be the three-dimensional face model fitting algorithm disclosed in Patent Document 1, or may be another three-dimensional face model fitting algorithm.

本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、概略以下のようなものである。学習画像を用いて、モデルの各ノードが顔特徴点の正しい位置に配置された正解モデルと、いずれかのノードが誤った位置に配置された誤差モデルとの差、及び誤差モデルに基づいて取得されたノード特徴量、についての相関関係の情報を、予め取得しておく。入力画像から顔特徴点を検出する際には、複数のノードの3次元位置を定めた3次元モデルを作成し、各ノードを入力画像上に投影し、投影点からノード特徴量を取得し、このノード特徴量と学習した相関関係の情報に基づいて、現在の各ノードの位置と対応する特徴点の位置とのずれを示す誤差推定量を取得する。更に、この誤差推定量と現在の各ノードの位置に基づいて、入力画像における各顔特徴点の3次元位置を推定し、それに合わせて各ノードを動かす。 The three-dimensional face model fitting algorithm used in the present disclosure is as follows. Obtained based on the difference between the correct model in which each node of the model is placed in the correct position of the facial feature point and the error model in which any node is placed in the wrong position, and the error model using the training image. Information on the correlation with respect to the created node feature amount is acquired in advance. When detecting facial feature points from the input image, a 3D model that defines the 3D positions of multiple nodes is created, each node is projected onto the input image, and the node feature amount is acquired from the projection points. Based on this node feature amount and the learned correlation information, an error estimator indicating the deviation between the current position of each node and the position of the corresponding feature point is acquired. Further, based on this error estimator and the current position of each node, the three-dimensional position of each face feature point in the input image is estimated, and each node is moved accordingly.

なお、本開示で利用する「ラフフィッティング」では、相関関係を取得するための学習段階で用いる学習画像において、正解モデルと誤差モデルの差が比較的大きいものが用いられ、これにより相関関係が形成される。一方、本開示で利用する「詳細フィッティング」では、相関関係を取得するための学習段階で用いる学習画像において、正解モデルと誤差モデルの差が比較的小さいものが用いられ、これにより相関関係が形成される。 In the "rough fitting" used in the present disclosure, in the learning image used in the learning stage for acquiring the correlation, an image in which the difference between the correct answer model and the error model is relatively large is used, and a correlation is formed by this. Will be done. On the other hand, in the "detailed fitting" used in the present disclosure, in the learning image used in the learning stage for acquiring the correlation, an image in which the difference between the correct answer model and the error model is relatively small is used, and a correlation is formed by this. Will be done.

本開示で利用する3次元顔モデルフィッティングのアルゴリズムは、上記以外のものであってもよい。 The three-dimensional face model fitting algorithm used in the present disclosure may be other than the above.

[適用例]
本開示に係る顔向き推定装置が適用可能な一例について、図2を用いて説明する。図2は、本開示に係る顔向き推定装置14の適用例を説明するための図である。
[Application example]
An example to which the face orientation estimation device according to the present disclosure can be applied will be described with reference to FIG. FIG. 2 is a diagram for explaining an application example of the face orientation estimation device 14 according to the present disclosure.

図2は、いずれも自動車に搭載される、車両制御部4と、及びドライバモニタリングセンサ12との、内部構成を示すブロック図である。車両制御部4は、ECU(electronic control unit:電子制御ユニット)6と、アクチュエータ8を含む。ECU6は、複数のものであってもよいし、アクチュエータ8も複数のものであってもよい。 FIG. 2 is a block diagram showing an internal configuration of a vehicle control unit 4 and a driver monitoring sensor 12 mounted on an automobile. The vehicle control unit 4 includes an ECU (electronic control unit) 6 and an actuator 8. The ECU 6 may have a plurality of ones, and the actuator 8 may also have a plurality of ones.

ドライバモニタリングセンサ12は、運転者の表情を中心にリアルタイムでモニタリングを行う装置であり、撮像装置であるカメラ16と、及び、顔向き推定装置である画像処理部14とを、含む。顔向き推定装置である画像処理部14は、ハードウェアプロセッサに相当するCPU18と、メモリに相当するROM(Read Only Memory)20と、メモリに相当するRAM(Random Access Memory)22とを有する。これら各構成は、適宜のバスを介して相互にデータ送受信可能に接続される。
更に、ドライバモニタリングセンサ12のCPU18と、車両制御部4のECU6とは、CAN(Control Area Network)10を介して接続する。
The driver monitoring sensor 12 is a device that monitors the driver's facial expression in real time, and includes a camera 16 that is an image pickup device and an image processing unit 14 that is a face orientation estimation device. The image processing unit 14 which is a face orientation estimation device has a CPU 18 corresponding to a hardware processor, a ROM (Read Only Memory) 20 corresponding to a memory, and a RAM (Random Access Memory) 22 corresponding to the memory. Each of these configurations is connected to each other via an appropriate bus so that data can be transmitted and received.
Further, the CPU 18 of the driver monitoring sensor 12 and the ECU 6 of the vehicle control unit 4 are connected via a CAN (Control Area Network) 10.

CPU18は、ROM20又はRAM22に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う。CPU18は、様々なプログラム(例えば、3次元顔モデルフィッティングアルゴリズムのためのプログラム)を実行する演算装置である。CPU18は、カメラ16や、車両制御部4のECU6から種々の入力データを受け取り、入力データの演算結果を、CAN10を介して車両制御部4のECU6に出力したり、ROM20やRAM22に格納したりする。 The CPU 18 controls, calculates, and processes data related to the execution of a program stored in the ROM 20 or the RAM 22. The CPU 18 is an arithmetic unit that executes various programs (for example, a program for a three-dimensional face model fitting algorithm). The CPU 18 receives various input data from the camera 16 and the ECU 6 of the vehicle control unit 4, outputs the calculation result of the input data to the ECU 6 of the vehicle control unit 4 via the CAN 10, and stores the input data in the ROM 20 and the RAM 22. To do.

ROM20は、データの読み出しのみが可能な記憶部であり、例えば半導体記憶素子で構成される。ROM20は、例えばCPU18が実行するアプリケーションのプログラムやデータ等を記憶する。 The ROM 20 is a storage unit capable of only reading data, and is composed of, for example, a semiconductor storage element. The ROM 20 stores, for example, an application program or data executed by the CPU 18.

RAM22は、データの書き換えが可能な記憶部であり、例えば半導体記憶素子で構成される。RAM22は、カメラ16からの入力画像等を記憶する。 The RAM 22 is a storage unit capable of rewriting data, and is composed of, for example, a semiconductor storage element. The RAM 22 stores an input image or the like from the camera 16.

以上のような、車両制御部4及びドライバモニタリングセンサ12において、顔向き推定装置は、画像処理部14により実現される。 In the vehicle control unit 4 and the driver monitoring sensor 12 as described above, the face orientation estimation device is realized by the image processing unit 14.

[構成例]
以下、顔向き推定装置14の構成例としての実施の形態を説明する。
[Configuration example]
Hereinafter, embodiments of the face orientation estimation device 14 as a configuration example will be described.

1.実施の形態1
1.1.構成
実施の形態1に係る顔向き推定装置14の構成について、図1を用いて説明する。図1は、本実施の形態に係る顔向き推定装置14の機能構成を示すブロック図である。
1. Embodiment 1
1.1. Configuration The configuration of the face orientation estimation device 14 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a functional configuration of the face orientation estimation device 14 according to the present embodiment.

顔向き推定装置14は、顔検出部23、顔向き推定部24、目開閉検出部38、及び、視線推定部40により、構成される。顔検出部23は、カメラ16等により撮像される画像データから人の顔画像データを検出する。顔向き推定部24は、検出された人の顔画像データに関して顔の向き(角度)を推定する。目開閉検出部38は、検出された人の顔画像データ及び推定された顔の向きのデータに基づいて、目の開閉を検出する。視線推定部40は、検出された人の顔画像データ、推定された顔の向きのデータ、及び検出された目の開閉のデータに基づいて、視線の方向を推定する。なお、顔向き推定装置14は、目開閉検出部38と視線推定部40を備えなくてもよい。 The face orientation estimation device 14 is composed of a face detection unit 23, a face orientation estimation unit 24, an eye opening / closing detection unit 38, and a line-of-sight estimation unit 40. The face detection unit 23 detects human face image data from the image data captured by the camera 16 or the like. The face orientation estimation unit 24 estimates the orientation (angle) of the face with respect to the detected face image data of the person. The eye opening / closing detection unit 38 detects the opening / closing of the eyes based on the detected face image data of the person and the estimated face orientation data. The line-of-sight estimation unit 40 estimates the direction of the line of sight based on the detected face image data of the person, the estimated face orientation data, and the detected eye opening / closing data. The face orientation estimation device 14 does not have to include the eye opening / closing detection unit 38 and the line-of-sight estimation unit 40.

更に、顔向き推定部24は、3次元顔モデル初期設定部26、3次元顔モデル移動(ずらし)部30、3次元顔モデル詳細フィッティング部32、3次元顔モデルフィッティングスコア算出部34、及び、3次元顔モデル統合部36を、含む。更に3次元顔モデル初期設定部26は、3次元顔モデルラフフィッティング部28を含む。なお、3次元顔モデル初期設定部26は、3次元顔モデルラフフィッティング部28を含まないこともある。 Further, the face orientation estimation unit 24 includes a three-dimensional face model initial setting unit 26, a three-dimensional face model moving (shifting) unit 30, a three-dimensional face model detailed fitting unit 32, a three-dimensional face model fitting score calculation unit 34, and a three-dimensional face model fitting score calculation unit 34. The three-dimensional face model integration unit 36 is included. Further, the three-dimensional face model initial setting unit 26 includes a three-dimensional face model rough fitting unit 28. The three-dimensional face model initial setting unit 26 may not include the three-dimensional face model rough fitting unit 28.

3次元顔モデル初期設定部26は、顔画像データに対して、初期の位置に3次元顔モデルを配置する。このとき、3次元顔モデル初期設定部26は、先ず配置した3次元顔モデルに基づいて、3次元顔モデルラフフィッティング部28により、顔画像データに対して、凡その位置に3次元顔モデルをフィッティングする、ラフフィッティングを行い、ラフフィッティング後の3次元顔モデルを初期配置の3次元顔モデルとする。なお、3次元顔モデルラフフィッティング部28によるラフフィッティングは行われないこともある。 The three-dimensional face model initial setting unit 26 arranges the three-dimensional face model at an initial position with respect to the face image data. At this time, the three-dimensional face model initial setting unit 26 first places the three-dimensional face model at approximately the position with respect to the face image data by the three-dimensional face model rough fitting unit 28 based on the arranged three-dimensional face model. Fitting, rough fitting is performed, and the 3D face model after rough fitting is used as the initial 3D face model. Rough fitting by the three-dimensional face model rough fitting unit 28 may not be performed.

3次元顔モデル移動(ずらし)部30は、複数方向からのフィッティングのために3次元顔モデルの位置を左右又は上下等にずらし量だけ一又は複数回ずらす。ここでのずらし量は、例えば、口幅の約半分である。これは、以下の理由による。
(理由1)複数方向のフィッティング処理で、各々、各顔器官点の各両端の特徴(例えば、左からのフィッティングでは左側の特徴)が少なくともフィッティングされるようにするため。
(理由2)「口幅」は最大長さの器官点であり基準とされるべきものであるため。
なお、ずらし量は別の値であってもよい。
ずらすことにより詳細フィッティングのための3次元顔モデルが、例えば、M個(M≧1)生成される。
The three-dimensional face model moving (shifting) unit 30 shifts the position of the three-dimensional face model left and right, up and down, etc. one or more times for fitting from a plurality of directions. The amount of shift here is, for example, about half the width of the mouth. This is due to the following reasons.
(Reason 1) In order to ensure that the features at both ends of each facial organ point (for example, the feature on the left side when fitting from the left) are at least fitted in the fitting process in multiple directions.
(Reason 2) "Mouth width" is the maximum length of organ points and should be used as a reference.
The amount of shift may be another value.
By shifting, for example, M (M ≧ 1) three-dimensional face models for detailed fitting are generated.

3次元顔モデル詳細フィッティング部32は、M個のうちの一つ(m番目(1≦m≦M))の3次元顔モデルに基づいて、詳細フィッティングを行う。
3次元顔モデルフィッティングスコア算出部34は、3次元顔モデル詳細フィッティング部32による詳細フィッティングの直後の、3次元顔モデルのフィッティングスコアを算出する。
更に、3次元顔モデル統合部36は、複数方向からの詳細フィッティングの結果を統合して、顔向きの角度を算出する。
The three-dimensional face model detailed fitting unit 32 performs detailed fitting based on one of the M (mth (1 ≦ m ≦ M)) three-dimensional face models.
The 3D face model fitting score calculation unit 34 calculates the fitting score of the 3D face model immediately after the detailed fitting by the 3D face model detailed fitting unit 32.
Further, the three-dimensional face model integration unit 36 integrates the results of detailed fitting from a plurality of directions to calculate the angle of the face orientation.

1.2.動作
以上のように構成される顔向き推定装置14の動作について、以下説明する。
1.2. Operation The operation of the face orientation estimation device 14 configured as described above will be described below.

1.2.1.全体動作
図3は、実施の形態1に係る顔向き推定装置14の全体動作を示すフローチャートである。顔向き推定装置14の動作開始(ステップS02)後、「t」の初期化処理を行う(ステップS04)。
1.2.1. Overall operation FIG. 3 is a flowchart showing the overall operation of the face orientation estimation device 14 according to the first embodiment. After the operation of the face orientation estimation device 14 is started (step S02), the initialization process of "t" is performed (step S04).

次に、tフレーム目の画像データに関して、顔検出部23が顔画像データ検出処理を行う(ステップS06)。顔検出ができれば(ステップS08・YES)、顔向き推定部24が顔向きを推定して(ステップS10)、「t」をインクリメントする(ステップS12)。顔検出ができなければ(ステップS08・NO)、そのまま「t」をインクリメントする(ステップS12)。 Next, the face detection unit 23 performs face image data detection processing on the image data at the t-frame (step S06). If the face can be detected (step S08 / YES), the face orientation estimation unit 24 estimates the face orientation (step S10) and increments “t” (step S12). If face detection cannot be performed (step S08 / NO), "t" is incremented as it is (step S12).

「t」が終了値でなければ(ステップS14・NO)、次のフレームに関して顔検出処理から顔向き推定処理が行われる(ステップS06〜)。 If "t" is not the end value (step S14 / NO), the face orientation estimation process is performed from the face detection process for the next frame (step S06 to).

「t」が終了値となれば(ステップS14・YES)、顔向き推定装置14の動作を終了する(ステップS16)。 When “t” becomes the end value (YES in step S14), the operation of the face orientation estimation device 14 ends (step S16).

1.2.2.顔向き推定処理
図4は、実施の形態1に係る顔向き推定装置14における、顔向き推定部24の顔向き推定処理(図3・ステップS10)の内容を示すフローチャートである。
1.2.2. Face orientation estimation process FIG. 4 is a flowchart showing the contents of the face orientation estimation process (FIG. 3, step S10) of the face orientation estimation unit 24 in the face orientation estimation device 14 according to the first embodiment.

顔向き推定処理開始(ステップS20)後、3次元顔モデル初期設定部26が、顔画像データ上に3次元顔モデルを初期配置(初期設定)する(ステップS22)。このとき、3次元顔モデル初期設定部26は、先ず配置した3次元顔モデルに基づいて、3次元顔モデルラフフィッティング部28により、顔画像データに対してラフフィッティングを行い、ラフフィッティング後の3次元顔モデルを初期配置の3次元顔モデルとすることがある。なお、3次元顔モデルラフフィッティング部28によるラフフィッティングは行われなくてもよい。また、3次元顔モデルラフフィッティング部28を備えない3次元顔モデル初期設定部26では、ラフフィッティングは行われない。「ラフフィッティング」については、上述の[本開示で利用する3次元顔モデルフィッティング]において説明している。 After the face orientation estimation process is started (step S20), the three-dimensional face model initial setting unit 26 initially arranges (initializes) the three-dimensional face model on the face image data (step S22). At this time, the three-dimensional face model initial setting unit 26 first performs rough fitting on the face image data by the three-dimensional face model rough fitting unit 28 based on the arranged three-dimensional face model, and 3 after the rough fitting. The three-dimensional face model may be the initial arrangement of the three-dimensional face model. Rough fitting by the three-dimensional face model rough fitting unit 28 does not have to be performed. Further, the rough fitting is not performed in the three-dimensional face model initial setting unit 26 which does not include the three-dimensional face model rough fitting unit 28. "Rough fitting" is described in the above-mentioned [3D face model fitting used in the present disclosure].

次に、イタレーション回数を初期化(i=1)する(ステップS26)。続いて、3次元顔モデル移動(ずらし)部30が、3次元顔モデルの位置を左右又は上下等に一又は複数回ずらす(ステップS28)。ずらし量は、上述のように、例えば口幅の約半分である。なお、ずらすことにより詳細フィッティングのための3次元顔モデルがM個(M≧1)生成される。 Next, the number of iterations is initialized (i = 1) (step S26). Subsequently, the three-dimensional face model moving (shifting) unit 30 shifts the position of the three-dimensional face model left and right, up and down, etc. one or more times (step S28). As described above, the amount of shift is, for example, about half the width of the mouth. By shifting, M (M ≧ 1) three-dimensional face models for detailed fitting are generated.

イタレーション回数(i)が“1”であるとき、3次元顔モデルの位置ずらし処理(ステップS32)の基になる3次元顔モデルは、初期配置処理(ステップS22)を経たものである。イタレーション回数(i)が複数であるときは、3次元顔モデルの位置ずらし処理(ステップS32)の基になる3次元顔モデルは、後で説明するステップS40における「M個の3次元顔モデルフィッティング結果の統合処理」を直前に且つ少なくとも1回経由したものである。 When the number of iterations (i) is "1", the three-dimensional face model that is the basis of the position shift processing (step S32) of the three-dimensional face model has undergone the initial placement processing (step S22). When the number of iterations (i) is plural, the three-dimensional face model that is the basis of the position shift processing (step S32) of the three-dimensional face model is "M three-dimensional face models" in step S40 described later. This is the process of "integrating the fitting result" immediately before and at least once.

次に、1〜Mまでインクリメントされる変数であるmを初期化(m=1)する(ステップS30)。続いて、M個のうちのm番目の3次元顔モデルに基づいて、3次元顔モデル詳細フィッティング部32が、顔画像データに対して3次元顔モデルを詳細フィッティングする(ステップS32)。「詳細フィッティング」については、上述の[本開示で利用する3次元顔モデルフィッティング]において説明している。 Next, m, which is a variable that is incremented from 1 to M, is initialized (m = 1) (step S30). Subsequently, the 3D face model detailed fitting unit 32 finely fits the 3D face model to the face image data based on the mth 3D face model among the M pieces (step S32). "Detailed fitting" is described in the above-mentioned [3D face model fitting used in the present disclosure].

次に、3次元顔モデルフィッティングスコア算出部34が、3次元顔モデル詳細フィッティング部32による詳細フィッティング処理(ステップS32)の直後の、3次元顔モデルのフィッティングスコアを算出する(ステップS34)。フィッティングスコアは、例えば、以下のように算出する。ROM20に記憶される、正解モデルに基づいて取得される特徴量と、ステップS32の詳細フィッティング処理を経たm番目の3次元顔モデルに基づいて取得される特徴量との、相関値を求めて、フィッティングスコアとする。なお、フィッティングスコアは、この値に限定されるものでは無い。 Next, the 3D face model fitting score calculation unit 34 calculates the fitting score of the 3D face model immediately after the detailed fitting process (step S32) by the 3D face model detailed fitting unit 32 (step S34). The fitting score is calculated as follows, for example. The correlation value between the feature amount stored in the ROM 20 and acquired based on the correct answer model and the feature amount acquired based on the m-th three-dimensional face model that has undergone the detailed fitting process in step S32 is obtained. Use as a fitting score. The fitting score is not limited to this value.

次に、変数mをインクリメントする(ステップS36)。ここでmがM以下であるならば(ステップS38・NO)、インクリメントしたm番目の3次元顔モデルについて、詳細フィッティング処理(ステップS32)、及び、フィッティングスコアの算出(ステップS34)を行う。 Next, the variable m is incremented (step S36). Here, if m is M or less (step S38 / NO), detailed fitting processing (step S32) and calculation of the fitting score (step S34) are performed on the incremented m-th three-dimensional face model.

mがMより大きければ(ステップS38・YES)、3次元顔モデル統合部36が、M個の3次元顔モデルフィッティング結果を統合する(ステップS40)。このステップS40については、図5a及び図5bを用いて、後で説明する。3次元顔モデル統合部36がM個の3次元顔モデルフィッティング結果を統合することにより、顔画像における顔向きの角度が算出される。 If m is larger than M (step S38 / YES), the three-dimensional face model integration unit 36 integrates M three-dimensional face model fitting results (step S40). This step S40 will be described later with reference to FIGS. 5a and 5b. By integrating the three-dimensional face model fitting results of M pieces by the three-dimensional face model integrating unit 36, the angle of the face orientation in the face image is calculated.

続いて、統合されたフィッティングスコアが所定の第1閾値より大きく且つ顔向き変動が所定の第2閾値より小さければ(ステップS42・YES)、顔向き推定部24が、最終的な顔向きの角度を出力して(ステップS48)、顔向き推定処理を終了する(ステップS50)。ここで「統合されたフィッティングスコア」とは、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)を経由した3次元顔モデルに係るフィッティングスコアである。即ち、「統合されたフィッティングスコア」とは、例えば、後で説明する、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)において、所定の第3閾値以上でありそれ故に重み付けに用いられるフィッティングスコアについての平均値である。また「顔向き変動」とは、イタレーション回数が「i−1」である処理フローの際に算出された顔向きの角度からの変動値である。なお、i=1の際、即ち、i−1=0の際は、ステップS24のラフフィッティング処理を経た3次元顔モデルの顔向きの角度からの変動値が「顔向き変動」とされる。 Subsequently, if the integrated fitting score is larger than the predetermined first threshold value and the face orientation variation is smaller than the predetermined second threshold value (step S42 · YES), the face orientation estimation unit 24 determines the final face orientation angle. Is output (step S48), and the face orientation estimation process is completed (step S50). Here, the "integrated fitting score" is a fitting score related to the three-dimensional face model via the integrated processing (step S40) of M three-dimensional face model fitting results. That is, the "integrated fitting score" is, for example, equal to or higher than a predetermined third threshold value in the integration process (step S40) of M three-dimensional face model fitting results, which will be described later, and is therefore used for weighting. It is an average value for the fitting score to be obtained. Further, the “face orientation variation” is a variation value from the face orientation angle calculated during the processing flow in which the number of iterations is “i-1”. When i = 1, that is, when i-1 = 0, the fluctuation value from the face orientation angle of the three-dimensional face model that has undergone the rough fitting process in step S24 is defined as “face orientation variation”.

統合されたフィッティングスコアが所定の第1閾値より大きく且つ顔向き変動が所定の第2閾値より小さい、のでは無いならば(ステップS42・NO)、イタレーション回数をインクリメント(i++)して、次のイタレーション回数に入る(ステップS44)。 If the integrated fitting score is greater than the predetermined first threshold value and the facial variation is smaller than the predetermined second threshold value (step S42 / NO), the number of iterations is incremented (i ++), and then the next step is performed. Enter the number of iterations of (step S44).

イタレーション回数(i)が、所定のイタレーション上限回数“N”以下であるならば(ステップS46・NO)、3次元顔モデルの位置ずらし処理(ステップS28)〜M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)のフローを行う(繰り返す)。イタレーション回数(i)が多くなる程、3次元顔モデル統合部36による、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)が多く経由されることになる。即ち、3次元顔モデルの位置ずらし処理(ステップS28)の基になる3次元顔モデルも、M個の3次元顔モデルフィッティング結果の統合処理(ステップS40)を多く経由したものとなる。 If the number of iterations (i) is equal to or less than the predetermined upper limit number of iterations "N" (step S46 / NO), the three-dimensional face model position shift processing (step S28) to M three-dimensional face model fittings. The flow of the result integration process (step S40) is performed (repeated). As the number of iterations (i) increases, the integration process (step S40) of M three-dimensional face model fitting results by the three-dimensional face model integration unit 36 is performed more often. That is, the three-dimensional face model that is the basis of the position shift processing (step S28) of the three-dimensional face model also goes through a lot of integration processing (step S40) of M three-dimensional face model fitting results.

イタレーション回数(i)が所定のイタレーション上限回数“N”より大きければ(ステップS46・YES)、顔向き推定部24が、その時点での顔向きの角度を出力して(ステップS48)、顔向き推定処理を終了する(ステップS50)。 If the number of iterations (i) is larger than the predetermined upper limit number of iterations "N" (step S46 / YES), the face orientation estimation unit 24 outputs the angle of the face orientation at that time (step S48). The face orientation estimation process is completed (step S50).

1.2.3.M個の3次元顔モデルフィッティング結果の統合処理
図5a及び図5bは、実施の形態1に係る顔向き推定装置14における、3次元顔モデル統合部36の、M個の3次元顔モデルフィッティング結果の統合処理を示すフローチャートである。図5a及び図5bに示すフローチャートでは、M個の詳細フィッティング結果について、フィッティングスコアで重み付けして統合して、顔向きを算出する。
1.2.3. Integration processing of M 3D face model fitting results FIGS. 5a and 5b show M 3D face model fitting results of the 3D face model integration unit 36 in the face orientation estimation device 14 according to the first embodiment. It is a flowchart which shows the integrated process of. In the flowcharts shown in FIGS. 5a and 5b, the face orientation is calculated by weighting and integrating the M detailed fitting results with the fitting score.

図5a及び図5bに示すフローチャートが用いる変数及び定数は、次のように定義される。
・「paraN」:所定のフィッティングモデルパラメータ数(定数)。
・「ModelPara[k]」:「paraN」個のフィッティングモデルパラメータのうち、k番目のフィッティングモデルパラメータ。
「フィッティングモデルパラメータ」は、例えば、3次元顔モデルを左右方向に何度回転するか、などを表すものである。
・「validModelScoreSum」:“フィッティングスコアSm≧所定の第3閾値”を満たす3次元顔モデル(以下、有効モデルと言う。)のフィッティングスコアの合計値。
・「validModelParaSum[k]」:k番目のフィッティングモデルパラメータ「ModelPara[k]」について、“フィッティングスコアSm≧所定の第3閾値”を満たす有効モデルの分だけ、フィッティングスコアSmで重み付けして、フィッティングモデルパラメータ値を合計(積算)したもの。
・「Model[m].ModelPara[k]」:m番目の3次元顔モデルにおける、k番目のフィッティングモデルパラメータ。
The variables and constants used in the flowcharts shown in FIGS. 5a and 5b are defined as follows.
-"ParaN": The number of predetermined fitting model parameters (constant).
-"ModelPara [k]": The kth fitting model parameter among the "paraN" fitting model parameters.
The "fitting model parameter" represents, for example, how many times the three-dimensional face model is rotated in the left-right direction.
-"ValidModelScoreSum": The total value of the fitting scores of the three-dimensional face model (hereinafter referred to as the valid model) satisfying "fitting score Sm ≥ predetermined third threshold value".
-"ValidModelParaSum [k]": For the kth fitting model parameter "ModelPara [k]", weight the valid model satisfying "fitting score Sm ≥ predetermined third threshold value" with the fitting score Sm for fitting. The total (integrated) model parameter values.
-"Model [m] .ModelPara [k]": The kth fitting model parameter in the mth 3D face model.

図5a及び図5bに示すフローチャートでは、概略、開始(図5a・ステップS60)後、変数を初期化し(図5a・ステップS62〜S70)、M個の詳細フィッティング結果についてフィッティングスコアSmで重み付けして積算し(図5a・ステップS72〜S88)、積算後、正規化により統合値を算出して顔向きの角度を算出し(図5b・ステップS90〜98)、終了する(図5b・ステップS100)。以下にて、図5a及び図5bに示すフローチャートの各ステップを説明する。 In the flowcharts shown in FIGS. 5a and 5b, after roughly starting (FIG. 5a, step S60), the variables are initialized (FIG. 5a, steps S62 to S70), and M detailed fitting results are weighted by the fitting score Sm. Accumulation (FIGS. 5a, steps S72 to S88), and after integration, the integrated value is calculated by normalization to calculate the face-facing angle (FIG. 5b, steps S90 to 98), and the process ends (FIG. 5b, steps S100). .. Each step of the flowchart shown in FIGS. 5a and 5b will be described below.

図5aに示すフローチャートにおいて、開始(ステップS60)後、「validModelScoreSum」(有効モデルのフィッティングスコアの合計値)を初期化し(ステップS62)、変数kを0から「paraN」までインクリメントして全部の「validModelParaSum[k]」を初期化する(ステップS64、ステップS66、ステップS68、及び、ステップS70)。 In the flowchart shown in FIG. 5a, after the start (step S60), the "validModelScoreSum" (total value of the fitting scores of the valid models) is initialized (step S62), the variable k is incremented from 0 to "paraN", and all the "validModelScoreSum" "validModelParaSum [k]" is initialized (step S64, step S66, step S68, and step S70).

「validModelParaSum[k]」の初期化が完了すれば(ステップS70・NO)、1〜Mまでインクリメントされるmにまず“1”を設定する(m=1)(ステップS72)。 When the initialization of "validModelParaSum [k]" is completed (step S70 / NO), "1" is first set for m to be incremented from 1 to M (m = 1) (step S72).

続いて、M個のうちのm番目の3次元顔モデルについて、フィッティングスコアSmが所定の第3閾値より小さければ(ステップS74・YES)、フィッティング結果の積算処理(ステップS76〜ステップS84)を行うこと無く、mをインクリメントし(ステップS86)、mがM以下である限り(ステップS88・NO)、ステップS74以下を繰り返す。 Subsequently, if the fitting score Sm is smaller than the predetermined third threshold value (step S74 / YES) for the m-th three-dimensional face model among the M pieces, the fitting result integration process (steps S76 to S84) is performed. Without doing so, m is incremented (step S86), and as long as m is M or less (step S88 / NO), step S74 or less is repeated.

フィッティングスコアSmが所定の第3閾値以上であれば(ステップS74・NO)、変数kを0から「paraN」までインクリメントして、M個のうちのm番目の3次元顔モデルにおける、k番目のフィッティングモデルパラメータ「Model[m].ModelPara[k]」の夫々について、フィッティングスコアSmで重み付けして、フィッティングモデルパラメータ値を足し込む。即ち、以下の処理を行う(ステップS76、ステップS78、ステップS80、及び、ステップS82)。

Figure 2021033938
If the fitting score Sm is equal to or higher than the predetermined third threshold value (step S74 / NO), the variable k is incremented from 0 to “paraN”, and the k-th in the m-th three-dimensional face model among the M pieces. Each of the fitting model parameters "Model [m] .ModelPara [k]" is weighted by the fitting score Sm, and the fitting model parameter values are added. That is, the following processing is performed (step S76, step S78, step S80, and step S82).
Figure 2021033938

更に、有効モデルのフィッティングスコアSmについての足し込み処理を行う。即ち、以下の処理を行う(ステップS84)。

Figure 2021033938
Further, the fitting process of the fitting score Sm of the effective model is performed. That is, the following processing is performed (step S84).
Figure 2021033938

続いて、mをインクリメントし(ステップS86)、mがM以下である限り(ステップS88・NO)、ステップS74以下を繰り返す。mがMより大きくなれば(ステップSS88・YES)、図5bに示すステップS90〜の、正規化による統合値の算出、及び、顔向き角度の算出の、処理ステップに進む。 Subsequently, m is incremented (step S86), and as long as m is M or less (step S88 / NO), step S74 or less is repeated. If m becomes larger than M (step SS88 / YES), the process proceeds to the processing steps of the calculation of the integrated value by normalization and the calculation of the face orientation angle in steps S90 to FIG. 5b shown in FIG. 5b.

図5bに示すフローチャートでは、変数kを0から「paraN」までインクリメントして、k番目のフィッティングモデルパラメータ「ModelPara[k]」について、正規化することにより統合値を算出する。つまり、以下の処理のようにして、「validModelParaSum[k]」を「validModelScoreSum」で除することにより、統合値である「ModelPara[k]」を求める(ステップS90、ステップS92、ステップS94、及び、ステップS96)。

Figure 2021033938
In the flowchart shown in FIG. 5b, the variable k is incremented from 0 to “paraN”, and the k-th fitting model parameter “ModelPara [k]” is normalized to calculate the integrated value. That is, the integrated value "ModelPara [k]" is obtained by dividing "validModelParaSum [k]" by "validModelScoreSum" as in the following processing (step S90, step S92, step S94, and Step S96).
Figure 2021033938

統合したフィッティング結果である、フィッティングモデルパラメータの統合値から、顔画像データにおける顔の向きの角度を算出して(ステップS98)、M個の3次元顔モデルフィッティング結果の統合処理が終了する(ステップS100)。 The angle of the face orientation in the face image data is calculated from the integrated value of the fitting model parameters, which is the integrated fitting result (step S98), and the integration process of the M three-dimensional face model fitting results is completed (step). S100).

1.3.まとめ
以上のように、本実施の形態に係る顔向き推定装置は、画像データから人の顔画像データを検出する顔検出部23と、及び、検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部24とを備える顔向き推定装置14である。顔向き推定部24は、3次元顔モデル初期設定部26と、3次元顔モデル移動(ずらし)部30と、3次元顔モデル詳細フィッティング部32と、3次元顔モデルフィッティングスコア算出部34と、及び、3次元顔モデル統合部36とを含む。3次元顔モデル初期設定部26は、顔画像データ上に3次元顔モデルを設定するものである。更に、(1)3次元顔モデル移動(ずらし)部30は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、(2)3次元顔モデル詳細フィッティング部32は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理を行い、(3)3次元顔モデルフィッティングスコア算出部34は、3次元顔モデル詳細フィッティング部32による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、(4)3次元顔モデル統合部36は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出するものである。顔向き推定部14は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する。
1.3. Summary As described above, the face orientation estimation device according to the present embodiment includes the face detection unit 23 that detects the human face image data from the image data, and the face orientation with respect to the detected human face image data. The face orientation estimation device 14 includes a face orientation estimation unit 24 for estimating an angle. The face orientation estimation unit 24 includes a 3D face model initial setting unit 26, a 3D face model moving (shifting) unit 30, a 3D face model detailed fitting unit 32, and a 3D face model fitting score calculation unit 34. And the three-dimensional face model integration unit 36. The three-dimensional face model initial setting unit 26 sets the three-dimensional face model on the face image data. Further, (1) the three-dimensional face model moving (shifting) unit 30 shifts the position of a given three-dimensional face model one or more times by the amount of shifting to generate a plurality of three-dimensional face models for detailed fitting. , (2) The three-dimensional face model detailed fitting unit 32 performs a process of detailed fitting the three-dimensional face model for a plurality of detailed fittings generated by shifting the position with respect to the face image data, and (3). The 3D face model fitting score calculation unit 34 calculates the fitting score of the 3D face model immediately after the detailed fitting process by the 3D face model detailed fitting unit 32, and (4) the 3D face model integration unit 36 determines. The angle of the orientation of the face is calculated by integrating a plurality of three-dimensional face model fitting results. The face orientation estimation unit 14 repeatedly executes the processes (1) to (4) above, and outputs the angle of the face orientation.

以上の、本実施の形態に係る顔向き推定装置は、画像データ中の人の顔に関して、安定して精度良く顔の向きの角度を推定することができる。 As described above, the face orientation estimation device according to the present embodiment can estimate the angle of the face orientation with respect to the human face in the image data in a stable and accurate manner.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technology disclosed in the present application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate.

実施の形態1に係る顔向き推定装置は、自動車に搭載されるドライバモニタリングセンサに適用されることが想定されるが、適用例はドライバモニタリングセンサに限定されない。例えば、工場における作業者の表情をモニタするモニタリングシステムや、カメラを駅や広場等に設置した上で特定の人物を検出してその人物の表情を検出する検出システム等に適用され得る。 The face orientation estimation device according to the first embodiment is assumed to be applied to a driver monitoring sensor mounted on an automobile, but the application example is not limited to the driver monitoring sensor. For example, it can be applied to a monitoring system that monitors the facial expression of a worker in a factory, a detection system that detects a specific person after installing a camera in a station, a plaza, or the like, and detects the facial expression of that person.

また、実施の形態を説明するために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Also provided are accompanying drawings and detailed description to illustrate embodiments. Therefore, among the components described in the attached drawings and the detailed description, not only the components essential for solving the problem but also the components not essential for solving the problem in order to exemplify the above technology. Can also be included. Therefore, the fact that these non-essential components are described in the accompanying drawings or detailed description should not immediately determine that those non-essential components are essential.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Further, since the above-described embodiment is for exemplifying the technique in the present disclosure, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent scope thereof.

4・・・車両制御部、6・・・ECU、8・・・アクチュエータ、10・・・CAN、12・・・ドライバモニタリングセンサ、14・・・顔向き推定装置(画像処理部)、16・・・カメラ、18・・・CPU、20・・・ROM、22・・・RAM、23・・・顔検出部、24・・・顔向き推定部、26・・・3次元顔モデル初期設定部、28・・・3次元顔モデルラフフィッティング部、30・・・3次元顔モデル移動(ずらし)部、32・・・3次元顔モデル詳細フィッティング部、34・・・3次元顔モデルフィッティングスコア算出部、36・・・3次元顔モデル統合部、38・・・目開閉検出部、40・・・視線推定部。 4 ... Vehicle control unit, 6 ... ECU, 8 ... Actuator, 10 ... CAN, 12 ... Driver monitoring sensor, 14 ... Face orientation estimation device (image processing unit), 16.・ ・ Camera, 18 ・ ・ ・ CPU, 20 ・ ・ ・ ROM, 22 ・ ・ ・ RAM, 23 ・ ・ ・ Face detection part, 24 ・ ・ ・ Face orientation estimation part, 26 ・ ・ ・ 3D face model initial setting part , 28 ... 3D face model rough fitting part, 30 ... 3D face model moving (shifting) part, 32 ... 3D face model detailed fitting part, 34 ... 3D face model fitting score calculation Unit, 36 ... 3D face model integration unit, 38 ... eye opening / closing detection unit, 40 ... line-of-sight estimation unit.

Claims (8)

画像データから人の顔画像データを検出する顔検出部と、及び、
検出された人の顔画像データに関して顔の向きの角度を推定する顔向き推定部と
を備える顔向き推定装置であって、
前記顔向き推定部は、
3次元顔モデル初期設定部と、
3次元顔モデル移動(ずらし)部と、
3次元顔モデル詳細フィッティング部と、
3次元顔モデルフィッティングスコア算出部と、及び、
3次元顔モデル統合部と
を含み、
前記3次元顔モデル初期設定部は、顔画像データ上に3次元顔モデルを初期配置するものであり、
更に、
(1)前記3次元顔モデル移動(ずらし)部は、所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成し、
(2)前記3次元顔モデル詳細フィッティング部は、顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理を行い、
(3)前記3次元顔モデルフィッティングスコア算出部は、前記3次元顔モデル詳細フィッティング部による詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出し、
(4)前記3次元顔モデル統合部は、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する
ものであり、
前記顔向き推定部は、上記(1)〜(4)の処理を繰り返し実行し、顔の向きの角度を出力する、顔向き推定装置。
A face detection unit that detects human face image data from image data, and
It is a face orientation estimation device including a face orientation estimation unit that estimates the angle of the face orientation with respect to the detected human face image data.
The face orientation estimation unit
3D face model initial setting part and
3D face model movement (shift) part,
3D face model details fitting part and
3D face model fitting score calculation unit and
Including 3D face model integration part
The three-dimensional face model initial setting unit initially arranges the three-dimensional face model on the face image data.
In addition
(1) The three-dimensional face model moving (shifting) unit shifts the position of a given three-dimensional face model by the amount of shifting one or more times to generate a plurality of three-dimensional face models for detailed fitting.
(2) The three-dimensional face model detailed fitting unit performs a process of finely fitting a three-dimensional face model for a plurality of detailed fittings generated by shifting the position with respect to the face image data.
(3) The three-dimensional face model fitting score calculation unit calculates the fitting score of the three-dimensional face model immediately after the detailed fitting process by the three-dimensional face model detailed fitting unit.
(4) The three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results to calculate the angle of the face orientation.
The face orientation estimation unit is a face orientation estimation device that repeatedly executes the processes (1) to (4) and outputs the angle of the face orientation.
上記(4)における複数の3次元顔モデルフィッティング結果の統合処理を経由した3次元顔モデルに係るフィッティングスコアが、所定の第1閾値より大きく、且つ、前回の繰り返し回数における、上記(4)における顔の向きの角度からの変動値が、所定の第2の閾値より小さく、なるまで、
又は、
繰り返し回数が繰り返し上限回数を超えるまで、
実行され、
上記(1)〜(4)の処理の繰り返しの実行後、顔の向きの角度を出力する、
請求項1に記載の顔向き推定装置。
In the above (4), the fitting score related to the three-dimensional face model that has passed through the integration processing of the plurality of three-dimensional face model fitting results in the above (4) is larger than the predetermined first threshold value and is the number of repetitions in the previous time. Until the variation value from the angle of face orientation becomes smaller than the predetermined second threshold value.
Or
Until the number of iterations exceeds the maximum number of iterations
Executed,
After repeating the above processes (1) to (4), the angle of the face orientation is output.
The face orientation estimation device according to claim 1.
上記(4)における、前記3次元顔モデル統合部が、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する処理では、
複数の詳細フィッティング結果について、夫々のフィッティングスコアが所定の第3閾値以上であれば当該フィッティングスコアで重み付けして積算し、
積算後、正規化により統合値を算出して顔向きの角度を算出する、
請求項1に記載の顔向き推定装置。
In the process of (4) above, the three-dimensional face model integration unit integrates a plurality of three-dimensional face model fitting results and calculates the angle of the face orientation.
For a plurality of detailed fitting results, if each fitting score is equal to or higher than a predetermined third threshold value, the fitting score is weighted and integrated.
After integration, the integrated value is calculated by normalization to calculate the face-facing angle.
The face orientation estimation device according to claim 1.
上記(4)における、複数の3次元顔モデルフィッティング結果の統合処理を経由した3次元顔モデルに係るフィッティングスコアは、複数のフィッティングスコアのうち所定の第3閾値以上であるフィッティングスコアについての平均値である、
請求項3に記載の顔向き推定装置。
The fitting score related to the three-dimensional face model that has passed through the integrated processing of the plurality of three-dimensional face model fitting results in (4) above is the average value of the fitting scores that are equal to or higher than the predetermined third threshold value among the plurality of fitting scores. Is,
The face orientation estimation device according to claim 3.
コンピュータが実行する顔向き推定方法であって、
画像データから人の顔画像データを検出するステップと、
顔画像データ上に3次元顔モデルを初期配置するステップと、並びに、
下記(処理1)〜(処理4)の処理を繰り返し実行し、顔の向きの角度を出力するステップと
を含む、顔向き推定方法。
(処理1)所与の3次元顔モデルの位置をずらし量だけ一又は複数回ずらし、詳細フィッティングのための複数の3次元顔モデルを生成する処理。
(処理2)顔画像データに対して位置をずらすことにより生成された複数の詳細フィッティングのための3次元顔モデルを詳細フィッティングする処理。
(処理3)上記(処理2)における詳細フィッティング処理の直後の、3次元顔モデルのフィッティングスコアを算出する処理。
(処理4)複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する処理。
A computer-run face-to-face estimation method
Steps to detect human face image data from image data,
The steps to initially place the 3D face model on the face image data, and
A face orientation estimation method including a step of repeatedly executing the following processes (processes 1) to (process 4) and outputting the angle of the face orientation.
(Process 1) A process of shifting the position of a given three-dimensional face model one or more times by a shift amount to generate a plurality of three-dimensional face models for detailed fitting.
(Process 2) A process of detailed fitting a three-dimensional face model for a plurality of detailed fittings generated by shifting the position with respect to the face image data.
(Process 3) A process of calculating the fitting score of the three-dimensional face model immediately after the detailed fitting process in the above (process 2).
(Process 4) A process of integrating a plurality of three-dimensional face model fitting results and calculating the angle of face orientation.
上記(処理4)における、複数の3次元顔モデルフィッティング結果の統合処理を経由した3次元顔モデルに係るフィッティングスコアが、所定の第1閾値より大きく、且つ、前回の繰り返し回数における、上記(処理4)における顔の向きの角度からの変動値が、所定の第2の閾値より小さく、なるまで、
又は、
繰り返し回数が繰り返し上限回数を超えるまで、
実行され、
上記(処理1)〜(処理4)の処理の繰り返しの実行後、顔の向きの角度を出力する、
請求項5に記載の顔向き推定方法。
The fitting score related to the three-dimensional face model that has passed through the integration process of the plurality of three-dimensional face model fitting results in the above (process 4) is larger than the predetermined first threshold value, and the above-mentioned (process) is performed in the previous number of repetitions. Until the fluctuation value from the angle of the face orientation in 4) becomes smaller than the predetermined second threshold value.
Or
Until the number of iterations exceeds the maximum number of iterations
Executed,
After repeating the above processes (process 1) to (process 4), the angle of the face orientation is output.
The face orientation estimation method according to claim 5.
上記(処理4)における、複数の3次元顔モデルフィッティング結果を統合して、顔の向きの角度を算出する処理では、
複数の詳細フィッティング結果について、夫々のフィッティングスコアが所定の第3閾値以上であれば当該フィッティングスコアで重み付けして積算し、
積算後、正規化により統合値を算出して顔向きの角度を算出する、
請求項5に記載の顔向き推定方法。
In the process of calculating the angle of the face orientation by integrating the plurality of three-dimensional face model fitting results in the above (process 4),
For a plurality of detailed fitting results, if each fitting score is equal to or higher than a predetermined third threshold value, the fitting score is weighted and integrated.
After integration, the integrated value is calculated by normalization to calculate the face-facing angle.
The face orientation estimation method according to claim 5.
上記(処理4)における、複数の3次元顔モデルフィッティング結果の統合処理を経由した3次元顔モデルに係るフィッティングスコアは、複数のフィッティングスコアのうち所定の第3閾値以上であるフィッティングスコアについての平均値である、
請求項7に記載の顔向き推定方法。
The fitting score related to the three-dimensional face model that has passed through the integrated processing of the plurality of three-dimensional face model fitting results in the above (process 4) is the average of the fitting scores that are equal to or higher than the predetermined third threshold value among the plurality of fitting scores. Value,
The face orientation estimation method according to claim 7.
JP2019156979A 2019-08-29 2019-08-29 Face direction estimation device and method Active JP7354693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019156979A JP7354693B2 (en) 2019-08-29 2019-08-29 Face direction estimation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019156979A JP7354693B2 (en) 2019-08-29 2019-08-29 Face direction estimation device and method

Publications (2)

Publication Number Publication Date
JP2021033938A true JP2021033938A (en) 2021-03-01
JP7354693B2 JP7354693B2 (en) 2023-10-03

Family

ID=74677489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019156979A Active JP7354693B2 (en) 2019-08-29 2019-08-29 Face direction estimation device and method

Country Status (1)

Country Link
JP (1) JP7354693B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023144950A1 (en) * 2022-01-27 2023-08-03 三菱電機株式会社 Adjustment device, face orientation estimation device, and adjustment method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009091029A1 (en) * 2008-01-16 2009-07-23 Asahi Kasei Kabushiki Kaisha Face posture estimating device, face posture estimating method, and face posture estimating program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009091029A1 (en) * 2008-01-16 2009-07-23 Asahi Kasei Kabushiki Kaisha Face posture estimating device, face posture estimating method, and face posture estimating program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023144950A1 (en) * 2022-01-27 2023-08-03 三菱電機株式会社 Adjustment device, face orientation estimation device, and adjustment method

Also Published As

Publication number Publication date
JP7354693B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
JP5772821B2 (en) Facial feature point position correction apparatus, face feature point position correction method, and face feature point position correction program
US8411966B2 (en) Estimation of image relations from point correspondences between images
KR100860640B1 (en) Method and system for multi-modal component-based tracking of an object using robust information fusion
US8958609B2 (en) Method and device for computing degree of similarly between data sets
EP1727087A1 (en) Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same
US20070065015A1 (en) Image processing apparatus and method
WO2009091029A1 (en) Face posture estimating device, face posture estimating method, and face posture estimating program
JP5012615B2 (en) Information processing apparatus, image processing method, and computer program
CN110942015B (en) Crowd density estimation method
US9904843B2 (en) Information processing device, information processing method, and program
EP3166074A1 (en) Method of camera calibration for a multi-camera system and apparatus performing the same
JP2017123087A (en) Program, device and method for calculating normal vector of planar object reflected in continuous photographic images
JP2021033938A (en) Device and method for estimating facial direction
CN113899364B (en) Positioning method and device, equipment and storage medium
Tagawa Depth perception model based on fixational eye movements using bayesian statistical inference
EP2128820A1 (en) Information extracting method, registering device, collating device and program
US20220327728A1 (en) Information processing apparatus, information processing method, learning method, and storage medium
WO2021039403A1 (en) Face orientation estimation device and method
US20230316460A1 (en) Binocular image quick processing method and apparatus and corresponding storage medium
Skocaj et al. Weighted Incremental Subspace Learning Ѓ
Song et al. ConcatNet: A deep architecture of concatenation-assisted network for dense facial landmark alignment
EP3076370A1 (en) Method and system for selecting optimum values for parameter set for disparity calculation
CN113658156A (en) Sphere fitting method and device for removing local outliers in depth image
Ieng et al. Evaluation of robust fitting based detection
US20220326768A1 (en) Information processing apparatus, information processing method, learning method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R150 Certificate of patent or registration of utility model

Ref document number: 7354693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150