JP2008261662A - Three-dimensional shape restoration device - Google Patents

Three-dimensional shape restoration device Download PDF

Info

Publication number
JP2008261662A
JP2008261662A JP2007102914A JP2007102914A JP2008261662A JP 2008261662 A JP2008261662 A JP 2008261662A JP 2007102914 A JP2007102914 A JP 2007102914A JP 2007102914 A JP2007102914 A JP 2007102914A JP 2008261662 A JP2008261662 A JP 2008261662A
Authority
JP
Japan
Prior art keywords
matrix
distribution
shape
test
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007102914A
Other languages
Japanese (ja)
Other versions
JP5048381B2 (en
Inventor
Mikiro Shimizu
幹郎 清水
Naoki Fukaya
直樹 深谷
Yoshiji Bando
誉司 坂東
Tomohiro Shibata
智広 柴田
Makoto Ishii
信 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Denso Corp
Original Assignee
Nara Institute of Science and Technology NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC, Denso Corp filed Critical Nara Institute of Science and Technology NUC
Priority to JP2007102914A priority Critical patent/JP5048381B2/en
Priority to US11/906,557 priority patent/US8107735B2/en
Publication of JP2008261662A publication Critical patent/JP2008261662A/en
Application granted granted Critical
Publication of JP5048381B2 publication Critical patent/JP5048381B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute factorization even if low-reliability data exist in an observation matrix (a feature-point position series), as to a three-dimensional shape restoration device. <P>SOLUTION: In factorizing the observation matrix W, a reliability matrix Q is used which expresses the reliability (variance of probability distribution (normal distribution) expressing the position of a feature point) of respective observation values x<SB>t</SB>constituting the observation matrix W. By causing the variance Σ<SB>s</SB>of test distribution q(S) of a shape matrix to reflect the reliability matrix Q, factorization is performed in which the higher the reliability of feature points is, the more they are emphasized. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、対象物体を撮影した画像(二次元形状)から、その対象物体の三次元形状を復元する三次元形状復元装置に関する。   The present invention relates to a three-dimensional shape restoration apparatus that restores a three-dimensional shape of a target object from an image (two-dimensional shape) obtained by photographing the target object.

従来より、対象物体を撮影した画像系列を入力し、対象物体について予め設定された複数の特徴点について、その特徴点の位置を画像面上で追跡し、追跡により得られた特徴点位置系列から対象物体の三次元形状を復元する手法の一つとして、因子分解法が知られている。   Conventionally, an image sequence obtained by capturing a target object is input, the positions of the feature points of a plurality of feature points set in advance for the target object are tracked on the image plane, and the feature point position sequence obtained by the tracking is used. A factorization method is known as one of methods for restoring the three-dimensional shape of a target object.

この因子分解法は、特徴点位置系列から観測行列を生成し、その観測行列を、対象物体の形状(特徴点の三次元位置)を表す形状行列と、対象物体の運動を表す運動行列とに因子分解するものである。   This factorization method generates an observation matrix from a feature point position sequence, and converts the observation matrix into a shape matrix that represents the shape of the target object (three-dimensional position of the feature point) and a motion matrix that represents the motion of the target object. It is factorized.

但し、因子分解法は、観測行列を構成するデータが全て揃っていないと、有効な結果が得られないため、特徴点の隠れ,誤追跡,フレームアウト等によって、特徴点位置系列(ひいては観測行列を構成するデータ)の欠損が頻繁に生じる実問題への適用は、非常に困難であるという問題があった。   However, since the factorization method cannot obtain effective results unless all the data that make up the observation matrix is available, the feature point position series (and thus the observation matrix) may be affected by feature point hiding, mistracking, frame out, etc. There is a problem that it is very difficult to apply to actual problems in which loss of data) is frequently generated.

これに対して、観測行列から欠損のあるデータを除去して、因子分解計算を実行する方法や、観測行列から欠損のあるデータを除いた部分観測行列を生成し、その部分観測行列を因子分解することで得られた形状行列および運動行列から欠損データを推定し、その推定値によって欠損データが置換された観測行列を用いて因子分解する方法(例えば、特許文献1参照)が提案されている。
特許第3711203号公報
On the other hand, remove the missing data from the observation matrix and perform factorization calculation, or generate a partial observation matrix by removing the missing data from the observation matrix, and factorize the partial observation matrix A method has been proposed in which missing data is estimated from a shape matrix and a motion matrix obtained by performing the above, and factorization is performed using an observation matrix in which the missing data is replaced by the estimated value (see, for example, Patent Document 1). .
Japanese Patent No. 3711203

しかし、従来の方法では、観測行列を生成する際に、正常なデータと異常なデータとを識別する必要があるが、その識別が難しいため、自動処理が困難であり、十分な精度が得られないという問題や、識別した異常なデータを除去したり、欠損データの推定を繰り返す手順等が必要となり、必要な演算量が増大するという問題があった。   However, in the conventional method, when generating an observation matrix, it is necessary to distinguish between normal data and abnormal data. However, since the identification is difficult, automatic processing is difficult and sufficient accuracy is obtained. There is a problem that there is no problem, a procedure for removing identified abnormal data, a procedure for repeatedly estimating missing data, and the like, resulting in an increase in the amount of necessary computation.

また、従来の因子分解法では、三次元形状の推定精度を向上させるためには、計算に用いる画像系列を多くする(即ち、観測行列の次元を大きくする)必要があり、それに応じて、計算量(計算時間)が指数関数的に増大する。   In addition, in the conventional factorization method, in order to improve the estimation accuracy of the three-dimensional shape, it is necessary to increase the number of image sequences used for the calculation (that is, to increase the dimension of the observation matrix). The quantity (calculation time) increases exponentially.

そして、計算量が増大すると、三次元形状復元装置を車両に搭載する場合等のように、使用できる演算器の計算能力に制限がある場合には、適用することが困難になるという問題もあった。   And when the amount of calculation increases, there is a problem that it becomes difficult to apply when there is a limit to the calculation capability of an arithmetic unit that can be used, such as when a three-dimensional shape restoration device is mounted on a vehicle. It was.

本発明は、上記問題点を解決するために、三次元形状復元装置において、観測行列(特徴点位置系列)中に信頼性の低いデータが存在していても因子分解の実行を可能とすること、更には、計算時間を低減することを目的とする。   In order to solve the above problems, the present invention makes it possible to perform factorization in a three-dimensional shape restoration apparatus even if data with low reliability exists in an observation matrix (feature point position series). Furthermore, it aims at reducing calculation time.

上記目的を達成するためになされた本発明の三次元形状復元装置では、観測行列生成手段が、対象物体を撮影した画像系列を入力し、対象物体について予め設定された複数の特徴点の位置を画像面上で追跡し、その特徴点の位置を時系列的に並べてなる観測行列を生成し、信頼性評価手段が、特徴点毎に、特徴点の位置の信頼性を表す位置信頼性評価値を生成する。   In the three-dimensional shape restoration apparatus of the present invention made to achieve the above object, the observation matrix generation means inputs an image sequence obtained by photographing the target object, and sets the positions of a plurality of feature points preset for the target object. A position reliability evaluation value indicating the reliability of the position of the feature point for each feature point by generating an observation matrix that is tracked on the image plane and generating a time series of the positions of the feature points. Is generated.

そして、分解手段が、観測行列生成手段にて生成された観測行列を因子分解して、対象物体の三次元形状を表す形状行列および対象物体の運動を表す運動行列を生成する。このとき、分解手段は、位置信頼性評価値の高い特徴点を重視した因子分解を行う。   Then, the decomposition means factorizes the observation matrix generated by the observation matrix generation means to generate a shape matrix representing the three-dimensional shape of the target object and a motion matrix representing the motion of the target object. At this time, the decomposition means performs factorization that places importance on feature points having high position reliability evaluation values.

つまり、本発明の三次元形状復元装置では、ノイズが重畳する等して信頼性の低い特徴点の除去を行わなくても、信頼性(位置信頼性評価値)の高い特徴点での当てはまりが良くなるように因子分解が行われる。   That is, in the three-dimensional shape restoration apparatus of the present invention, it is possible to apply a feature point with high reliability (position reliability evaluation value) without removing feature points with low reliability due to noise superimposition or the like. Factorization is performed to improve.

従って、本発明の三次元形状復元装置によれば、特徴点の隠れ,誤追跡,フレームアウト等に基づく信頼性の低いデータや観測行列中に存在していたとしても、これを除去するといった余計な手順を必要とすることなく、因子分解を確実に実行することができ、しかも信頼性の高いデータほど重視されるため、生成される形状行列や運動行列の精度を向上させることができる。   Therefore, according to the three-dimensional shape restoration apparatus of the present invention, even if it exists in unreliable data or observation matrix based on hiding, mistracking, frame-out, etc. of feature points, it is unnecessary to remove this. Therefore, factorization can be reliably executed without requiring a simple procedure, and more reliable data is emphasized. Therefore, the accuracy of the generated shape matrix and motion matrix can be improved.

なお、本発明において、分解手段は、請求項2に記載のように、観測行列をW,運動行列をM,形状行列をSとし、行列Xの各要素の値を確率的に示した分布をq(X)で表記するものとして、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、尤度P(W|M,S)を最大にする運動行列Mの試験分布q(M)および形状行列Sの試験分布q(S)を、形状行列の試験分布q(S)の分散に信頼性評価値を反映させた上で求めることにより、確率的に因子分解計算を実行するように構成されていてもよい。   In the present invention, as described in claim 2, the decomposition means has a distribution in which the observation matrix is W, the motion matrix is M, the shape matrix is S, and the values of the elements of the matrix X are stochastically indicated. As represented by q (X), the likelihood P (W |) is based on a Bayesian estimation formula that defines the relationship between the posterior probability P (M, S | W) and the likelihood P (W | M, S). The test distribution q (M) of the motion matrix M that maximizes M, S) and the test distribution q (S) of the shape matrix S are reflected in the variance of the test distribution q (S) of the shape matrix. Further, the factorization calculation may be executed probabilistically by obtaining the above.

このように構成された本発明の三次元形状復元装置によれば、運動行列Mや形状行列Sがベイズ推定によって確率的に求められることになるため、画像面上で追跡した特徴点の位置に重畳されているノイズの影響を、大幅に軽減することができると共に、形状行列の試験分布q(S)の分散に信頼性評価値が反映されるため、信頼性評価値の高い特徴点を重視した因子分解を実現することができる。   According to the three-dimensional shape restoration apparatus of the present invention configured as described above, since the motion matrix M and the shape matrix S are obtained probabilistically by Bayesian estimation, the position of the feature point tracked on the image plane is determined. The influence of superimposed noise can be greatly reduced, and the reliability evaluation value is reflected in the variance of the test distribution q (S) of the shape matrix. Therefore, emphasis is placed on feature points with high reliability evaluation values. Factorization can be realized.

そして、このようにベイズ推定を用いた因子分解を行う場合、分解手段は、請求項3に記載のように、推定手段が、運動行列の試験分布q(M)を固定して形状行列の試験分布q(S)を推定する第1のステップ、及び、形状行列の試験分布q(S)を固定して運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて交互に繰り返し実行し、終了手段が、予め設定された終了条件が満たされている場合に、推定手段を終了させ、最終的に得られた形状行列の試験分布q(S)が形状行列の分布であるものとして、その形状行列の分布から形状行列を得るように構成されていてもよい。   Then, when factorization using Bayesian estimation is performed in this way, the decomposition means, as described in claim 3, the estimation means fixes the motion matrix test distribution q (M) and tests the shape matrix. The first step of estimating the distribution q (S) and the second step of estimating the test distribution q (M) of the motion matrix by fixing the test distribution q (S) of the shape matrix are mutually estimated results. Are repeatedly executed alternately, and the end means terminates the estimation means when the preset end condition is satisfied, and the finally obtained shape matrix test distribution q (S) is the shape As a matrix distribution, the shape matrix may be obtained from the shape matrix distribution.

この場合、分解手段は、変分ベイズ推定法を実現するものであり、第1のステップがEステップ、第2のステップがMステップに相当する。
但し、変分ベイズ推定法を用いても、計算に用いる画像系列の増加(即ち、観測行列の次元の増大)に応じて、計算量(計算時間)が指数関数的に増大することを避けることはできない。
In this case, the decomposition means implements a variational Bayesian estimation method, and the first step corresponds to the E step and the second step corresponds to the M step.
However, even if the variational Bayesian estimation method is used, it should be avoided that the calculation amount (calculation time) increases exponentially in accordance with the increase of the image sequence used for the calculation (that is, the increase of the dimension of the observation matrix). I can't.

そこで、分解手段は、請求項4に記載のように、推定手段が、観測行列生成手段にて観測行列が生成される毎に、運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、形状行列の試験分布q(S)を固定して運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて実行し、更新手段が、推定手段にて推定された形状行列の試験分布q(S)に基づいて、出力とする形状行列の分布を更新し、終了手段が、予め設定された終了条件が満たされている場合に、推定手段及び更新手段を終了させ、更新手段によって最終的に得られた形状行列の分布から形状行列を得るように構成されていることが望ましい。   Therefore, as described in claim 4, the decomposition means fixes the motion matrix test distribution q (M) each time the estimation means generates the observation matrix and the shape matrix. A first step of estimating the test distribution q (S) of the movement matrix, and a second step of estimating the test distribution q (M) of the motion matrix by fixing the test distribution q (S) of the shape matrix. The update unit updates the shape matrix distribution to be output based on the shape matrix test distribution q (S) estimated by the estimation unit, and the end unit is preset. When the termination condition is satisfied, it is desirable that the estimating unit and the updating unit are terminated, and the shape matrix is obtained from the distribution of the shape matrix finally obtained by the updating unit.

つまり、推定手段では、計算に用いる画像系列を制限して、第1のステップ(Eステップ),第2のステップ(Mステップ)を1回ずつ実行し、これを繰り返し実行すると共に、推定手段から計算結果が得られる毎に、その計算結果に基づいて形状行列の分布を更新する。これは、変分ベイズ推定法を逐次計算にて実現(いわゆるオンライン化)するものである。   In other words, the estimation means limits the image series used for the calculation, executes the first step (E step) and the second step (M step) once, repeatedly executes this, and from the estimation means Each time a calculation result is obtained, the distribution of the shape matrix is updated based on the calculation result. This realizes the variational Bayesian estimation method by sequential calculation (so-called online).

このように、本発明の三次元形状復元装置によれば、使用する画像系列を複数に分割し、その分割した画像系列毎に因子分解を実行するため、画像系列を増やしても、処理量は推定手段での1回の処理を単位として加算的に増大するだけで、指数関数的に増大することがないため、因子分解に要する処理負荷(ひいては処理に要する時間)を大幅に削減することができる。   Thus, according to the three-dimensional shape restoration apparatus of the present invention, the image sequence to be used is divided into a plurality of parts, and factorization is performed for each of the divided image sequences. Since it only increases incrementally in units of one process in the estimation means and does not increase exponentially, the processing load required for factorization (and thus the time required for processing) can be greatly reduced. it can.

また、上述したように、分解手段を、変分ベイズ推定法にて因子分解を実行するように構成した場合、請求項5に記載のように、エネルギー算出手段が、推定手段にて試験分布q(S),q(M)の推定結果が得られる毎に、試験事後分布q(S,M)=q(S)q(M)に関する自由エネルギーを算出し、終了手段は、エネルギー算出手段での算出結果が、予め設定されたエネルギー閾値より大きいことを終了条件とするように構成されていてもよい。   In addition, as described above, when the decomposition unit is configured to perform factorization by the variational Bayes estimation method, as described in claim 5, the energy calculation unit performs the test distribution q by the estimation unit. Each time the estimation results of (S) and q (M) are obtained, the free energy related to the test posterior distribution q (S, M) = q (S) q (M) is calculated, and the ending means is energy calculating means. The calculation result may be set to be larger than a preset energy threshold as an end condition.

もともと、変分ベイズ推定法では、自由エネルギーが最大となるように運動行列や形状行列を推定しているため、この自由エネルギーを終了条件として用いることにより、所望の精度を有した形状行列を確実に取得することができる。   Originally, the variational Bayesian estimation method estimates the motion matrix and the shape matrix so that the free energy is maximized. Therefore, using this free energy as the termination condition ensures the shape matrix with the desired accuracy. Can be obtained.

また、終了手段は、請求項6に記載のように、推定手段にて形状行列の試験分布q(S)を算出した回数が、予め設定された回数閾値より大きいことを終了条件とするように構成されていてもよい。   Further, as described in claim 6, the ending means sets the ending condition that the number of times the estimation means calculates the test distribution q (S) of the shape matrix is larger than a preset number threshold. It may be configured.

この場合、自由エネルギーを算出する必要がないため、当該装置での処理負荷を、より一層軽減することができ、また、常に一定時間内で処理を終了させることができる。
ところで、信頼性評価手段は、請求項7に記載のように、位置信頼性評価値として観測行列の分布の分散値を用いるように構成されていてもよい。特に、特徴点の追跡をベイズ推定を用いて行っている場合には、特徴点の位置(観測行列の各要素)の分布の分散値が必ず算出されるため、これを利用することにより処理負荷を軽減することができる。
In this case, since it is not necessary to calculate free energy, the processing load on the apparatus can be further reduced, and the processing can always be terminated within a certain time.
By the way, as described in claim 7, the reliability evaluation unit may be configured to use a variance value of the distribution of the observation matrix as the position reliability evaluation value. In particular, when feature points are tracked using Bayesian estimation, the distribution value of the distribution of feature point positions (each element of the observation matrix) is always calculated. Can be reduced.

そして、当該三次元形状復元装置は、請求項8に記載のように、自動車に搭載して使用するように構成されていてもよい。
自動車に搭載される演算器は一般的に計算能力が低いが、そのような場合でも適用することができる。
And the said three-dimensional shape decompression | restoration apparatus may be comprised so that it may mount and use for a motor vehicle, as described in Claim 8.
An arithmetic unit mounted on an automobile generally has a low calculation capability, but can be applied even in such a case.

以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
図1は、本発明を適用した三次元形状復元装置としての画像処理装置1の全体構成を示すブロック図である。なお、画像処理装置1は、車両に搭載され、ドライバの頭部を撮影した画像から、ドライバのわき見や居眠り等を検出するための情報である頭部姿勢を時系列的に求める処理を実行する装置である。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing an overall configuration of an image processing apparatus 1 as a three-dimensional shape restoration apparatus to which the present invention is applied. The image processing apparatus 1 is mounted on a vehicle and executes processing for obtaining a head posture in time series, which is information for detecting a driver's sidewalk, doze, or the like from an image obtained by photographing the driver's head. Device.

<全体構成>
画像処理装置1は、ドライバシートの前面上部又は下部(例えば、メータ内)に設置され、図1に示すようにドライバの頭部を含む画像を取得するカメラ2と、カメラ2が取得した画像を取り込む画像取込装置3と、初期化指令が入力された場合に、画像取込装置3を介して取り込んだ入力画像zt (tは時刻を表す)から、ドライバの顔の特徴を表す複数(Nf個)の特徴点の位置(画像面上での二次元座標:以下、特徴点位置という)p(n)(n=1,2,…Nf)を抽出する初期特徴点抽出部4と、初期特徴点抽出部4が抽出した特徴点位置p(n) のそれぞれについて、その特徴点位置p(n) を中心とする予め設定された大きさの画像をテンプレートtp(n) として切り出して記憶するテンプレート生成・記憶部5と、特徴点の三次元位置(ひいては、頭部の三次元形状)を規定する顔モデル(形状行列)Ca を供給する顔モデル供給部6と、入力画像zt ,テンプレートtp(n) ,顔モデルCa に基づいて、時系列ベイズ推定を行うことにより、頭部姿勢を表すアフィンパラメータAt を推定すると共に、その推定の過程で算出される各特徴点の位置の分布を規定するための特徴点推定分布パラメータ(平均値xt ,分散Vt )を、顔モデル供給部6に供給する推定部8と、推定部8が推定したアフィンパラメータAt に従って、頭部姿勢θx,θy,θzを算出する頭部姿勢算出部9から構成される。
<Overall configuration>
The image processing apparatus 1 is installed on the front upper portion or lower portion (for example, in a meter) of the driver seat, and acquires a camera 2 that acquires an image including the driver's head as shown in FIG. When an image capture device 3 to be captured and an initialization command are input, a plurality ((t represents time)) of the facial features of the driver are represented from the input image z t captured via the image capture device 3 (t represents time). N f feature point positions (two-dimensional coordinates on the image plane: hereinafter referred to as feature point positions) p (n) (n = 1, 2,... N f ) are extracted. When, for each of the feature points initial feature point extracting unit 4 is extracted position p (n), cutting out an image of predetermined size centered at characteristic points position p (n) as a template tp (n) Template generation / storage unit 5 to be stored and the three-dimensional position of feature points ( Based on the input model z t , template tp (n) , and face model C a , the time model supply unit 6 that supplies a face model (shape matrix) C a that defines the three-dimensional shape of the head) by performing the series Bayesian estimation, the estimated affine parameters a t representing the head posture, feature points estimated distribution parameters for defining the distribution of positions of the feature points calculated in the course of the estimated (mean x t, the variance V t), the estimation unit 8 supplies the face model supply unit 6, according to the affine parameters a t the estimation unit 8 estimates, head posture [theta] x, [theta] y, the head orientation calculation unit that calculates the θz It is composed of nine.

このうち、初期特徴点抽出部4では、図2(a)に示すように、目尻,目頭,口元、鼻(鼻の穴,鼻の中心,鼻の左右端)等を特徴点として抽出する。但し、本実施形態では、左右目尻、左右目頭,左右口元,鼻の中心の7(=Nf)個の点を抽出するものとする。また、初期化指令は、ドライバが正面を向き、全ての特徴点が映っている(特徴点の隠れのない)画像をカメラ2で撮影した時に、ドライバの操作によって入力されるものとする。 Among these, the initial feature point extraction unit 4 extracts the corners of the eyes, the eyes, the mouth, the nose (the nostrils, the center of the nose, the right and left ends of the nose) and the like as the feature points, as shown in FIG. However, in this embodiment, it is assumed that 7 (= N f ) points are extracted from the left and right eye corners, left and right eye heads, left and right mouths, and the center of the nose. The initialization command is input by an operation of the driver when the camera 2 captures an image in which all the feature points are reflected (no feature points are hidden).

テンプレート生成・記憶部5が生成するテンプレートtp(n) は、具体的には、図2(a)中の点線白枠にて示すようなものとなる。但し、図では、左口元、鼻の中心、左目尻についてのみ示す。 Specifically, the template tp (n) generated by the template generation / storage unit 5 is as shown by a dotted white frame in FIG. However, in the figure, only the left mouth, the center of the nose, and the left eye corner are shown.

また、顔モデル供給部6から供給される顔モデルCaは、特徴点(図2(b)に示す線図の各頂点)の位置を三次元的に規定するものであり、図3に示すように、画像面における水平方向の座標軸をu軸、垂直方向の座標軸をv軸、3次元空間における水平方向の座標軸をX軸、垂直方向の座標軸をY軸、光軸方向(奥行き方向)の座標軸をZ軸として(1)(2)式で表される。但し、s(n)は、初期特徴点抽出部4で抽出されたn番目の特徴点(特徴点位置p(n)=(u(n),v(n)))の3次元空間内での座標である。 The face model C a supplied from the face model supply unit 6, the feature point is intended to define the position of the three-dimensionally in (each vertex of the diagram shown in FIG. 2 (b)), shown in FIG. 3 As described above, the horizontal coordinate axis on the image plane is the u axis, the vertical coordinate axis is the v axis, the horizontal coordinate axis in the three-dimensional space is the X axis, the vertical coordinate axis is the Y axis, and the optical axis direction (depth direction). The coordinate axis is represented by the equations (1) and (2) with the Z axis. However, s (n) is within the three-dimensional space of the nth feature point (feature point position p (n) = (u (n) , v (n) )) extracted by the initial feature point extraction unit 4. Coordinates.

次に、推定部8で推定されるアフィンパラメータAt は、実世界(三次元のXYZ空間)における座標変換を、射影面である画像面(二次元のuv平面)上での座標変換として表す際に用いる変換行列であり、(3)(4)式に示す関係を有する。 Then, affine parameters A t estimated by the estimating unit 8, a coordinate transformation in the real world (three-dimensional XYZ space), expressed as a coordinate transformation on the image plane is a projection plane (two-dimensional uv plane) This is a conversion matrix used at the time, and has the relationship shown in equations (3) and (4).

但し、ある特徴点の三次元座標を(X,Y,Z)T,座標変換後の三次元座標を(X’,Y’,Z’)T、これら三次元座標を画像面上に射影した二次元座標、すなわち画像面上での特徴点の座標を(u,v)T,(u’,v’)Tとして、X=u,Y=v(すなわちX’=u’,Y’=v’)であると仮定する。 However, the three-dimensional coordinates of a certain feature point are (X, Y, Z) T , the three-dimensional coordinates after coordinate transformation are (X ′, Y ′, Z ′) T , and these three-dimensional coordinates are projected onto the image plane. Two-dimensional coordinates, that is, the coordinates of feature points on the image plane are (u, v) T and (u ′, v ′) T , and X = u, Y = v (that is, X ′ = u ′, Y ′ = v ′).

そして、頭部姿勢算出部9では、頭部姿勢情報として、頭部の3軸角度θx,θy,θzを(5)〜(7)式を用いて算出する。 Then, the head posture calculation unit 9 calculates the three-axis angles θx, θy, and θz of the head using equations (5) to (7) as head posture information.

即ち、三次元座標をX軸を中心に角度θxだけ回転させる変換行列をRx,Y軸を中心に角度θyだけ回転させる変換行列をRy,Z軸を中心に角度θzだけ回転させる変換行列をRzとし、これら変換行列Rt(=RxRyRz)を作用させることで三次元座標が(X,Y,Z)Tから(X’,Y’,Z’)Tに移動するものとすると、これらの関係は、(8)(9)式で表される。 That is, Rx is a transformation matrix that rotates three-dimensional coordinates about the X axis by the angle θx, Ry is a transformation matrix that rotates the Y axis about the angle θy, and Rz is a transformation matrix that rotates the Z axis about the angle θz. If the three-dimensional coordinates are moved from (X, Y, Z) T to (X ′, Y ′, Z ′) T by applying these transformation matrices Rt (= RxRyRz), these relationships are , (8) and (9).

また、上記回転に加えて、三次元座標をX軸にt1,Y軸にt2,Z軸にt3だけ平行移動させる変換を考慮した場合、その変換式は(10)式で表される。 Further, in addition to the above rotation, when taking into account the transformation that translates the three-dimensional coordinates by t 1 on the X-axis, t 2 on the Y-axis, and t 3 on the Z-axis, the conversion formula is expressed by equation (10). The

そして、(3)式と(10)式を比較することにより、アフィンパラメータa1〜a8と(10)式に示す変換行列の各要素r1〜r6,t1,t2との対応関係が得られ、また、(9)式を整理することで(11)〜(18)に示す関係式が得られる。 Then, by comparing the equations (3) and (10), the correspondence between the affine parameters a 1 to a 8 and the elements r 1 to r 6 , t 1 , t 2 of the transformation matrix shown in the equation (10). Relations are obtained, and the relational expressions shown in (11) to (18) are obtained by rearranging the formula (9).

つまり、これら(11)〜(18)式から、(5)〜(7)式が導かれるのである。 That is, the equations (5) to (7) are derived from these equations (11) to (18).

そして、時刻tにおける頭部姿勢を表すアフィンパラメータAtが得られれば、そのアフィンパラメータAtを顔モデルCaに作用させることで、時刻tにおける画像に映っていない隠れた特徴点の位置も含めて、時刻tにおける全ての特徴点の位置を予測することができる。 Then, as long obtained affine parameters A t representing the head posture at the time t, the affine parameters A t the be to act on the face model C a, the position of the hidden feature points not appearing in the image at time t In addition, the positions of all feature points at time t can be predicted.

また、このようなアフィンパラメータAtには、カメラパラメータ(カメラの焦点距離、設置場所、向き等)及びドライバの頭部姿勢の変化を全て反映させることができる。
<推定部の構成>
ここで、図4は、推定部8が扱う状態空間モデルを表すグラフである。
Further, such a affine parameter A t, camera parameters (the focal length of the camera, location, orientation, etc.) can be reflected all the changes in the head pose of and driver.
<Configuration of estimation unit>
Here, FIG. 4 is a graph showing a state space model handled by the estimation unit 8.

図4に示すように、推定部8は、時刻tにおける顔モデルの姿勢を表すアフィンパラメータat を隠れ状態として求める上位層と、時刻tにおける特徴点群の位置xt=(xt (1),xt (2), …,xt (Nf)Tを隠れ状態として求める特徴点毎に設けられたNf個の下位層(図では一つだけ示す)とを備えており、時刻1からtまでに入力された入力画像系列z1:tから、これら隠れ状態At,xtを、時系列ベイズ推定により推定するものである。 As shown in FIG. 4, the estimation unit 8, and the upper layer obtained as hidden state affine parameter a t representing the orientation of the face model at time t, the feature points at time t the position x t = (x t (1 ) , X t (2) ,..., X t (Nf) ) N f lower layers (only one is shown in the figure) provided for each feature point for which T is determined as a hidden state These hidden states A t and x t are estimated by time series Bayesian estimation from the input image sequence z 1: t input from 1 to t.

なお、時系列ベイズ推定は、図5に示すように、状態変数をすべて確率変数として扱い、隠れ状態に関する時刻t−1における推定結果(推定分布)から時刻tにおける予測分布を求めると共に、時刻tにおける観測データから、検出すべき隠れ状態であるもっともらしさ(尤度)を求め、これら予測分布と尤度を考慮して時刻tにおける推定結果(推定分布)を得るという手順を繰り返すことで、逐次的に隠れ状態を推定するものである。   As shown in FIG. 5, time-series Bayesian estimation treats all state variables as random variables, obtains a predicted distribution at time t from an estimation result (estimated distribution) at time t-1 regarding the hidden state, and By repeating the procedure of obtaining the likelihood (likelihood) that is the hidden state to be detected from the observation data and obtaining the estimation result (estimation distribution) at time t in consideration of these prediction distribution and likelihood, The hidden state is estimated.

つまり、推定部8では、入力画像系列(観測データ)z1:tに基づいて、アフィンパラメータ(頭部姿勢の隠れ状態)Atを推定した事後確率分布(推定分布)p(At|z1:t)を求めることになり、これを数式で記述すると(19)(20)式で表される。 That is, in the estimation unit 8, the input image sequence (the observed data) z 1: based on t, affine parameters a posteriori probability distribution estimated the A t (hidden state of the head pose) (estimated distribution) p (A t | z 1: t ), which is expressed by equations (19) and (20).

ここで、p(At|z1:t-1)はアフィンパラメータAtの事前確率分布(予測分布)、p(xt|At,z1:t-1)は特徴点群の位置xtの事前確率分布(予測分布)、p(xt|At,z1:t-1),p(zt|xt)は尤度を表す。 Here, p (A t | z 1 : t-1) is the prior probability distribution (predictive distribution) of affine parameters A t, p (x t | A t, z 1: t-1) is the position of the feature point group prior probability distribution of x t (prediction distribution), p (x t | a t, z 1: t-1), p (z t | x t) represents the likelihood.

そして、(20)式の部分を下位層がパーティクルフィルタを用いて推定し、(19)式の部分を上位層がカルマンフィルタを用いて推定する。
なお、あるパラメータfの確率分布がガウス分布(正規分布)に従う場合、その確率分布は、平均をμ,分散をΣとすると、(21)式で表すことができる。つまりこの場合、パラメータの確率分布の計算は、実際には、その平均μと分散Σを求めれば十分である。
Then, the lower layer estimates the part of equation (20) using a particle filter, and the upper layer estimates the part of equation (19) using a Kalman filter.
When the probability distribution of a certain parameter f follows a Gaussian distribution (normal distribution), the probability distribution can be expressed by equation (21), where the average is μ and the variance is Σ. In other words, in this case, the calculation of the probability distribution of parameters is actually sufficient if the average μ and variance Σ are obtained.

次に、図6は推定部8の具体的な構成を表すブロック図である。 Next, FIG. 6 is a block diagram showing a specific configuration of the estimation unit 8.

図6に示すように、推定部8は、(Nf)特徴点毎に設けられたNf個の追跡器BK(n)からなり、それぞれが一つの特徴点の位置x(n)を追跡して、時刻tにおけるその特徴点の位置xt (n)を推定した確率分布をガウス近似した確率分布を規定する特徴点推定分布パラメータ(平均、標準偏差)を生成する特徴点追跡部10と、各追跡器BK(n)にて算出された特徴点推定分布パラメータに基づき、カルマンフィルタを用いてアフィンパラメータAt及びアフィンパラメータの予測値At+1,その分散Vt+1(以下、予測値等という)を算出するアフィンパラメータ算出部30と、アフィンパラメータ算出部30にて算出されるアフィンパラメータの予測値等を保持する予測値保持部40と、予測値保持部40にて保持された時刻t−1において算出されたアフィンパラメータの予測値等に基づいて、時刻tの特徴点群の位置xt(=(xt (1), xt (2), …,xt (Nf)T)を予測した確率分布p(xt|At)を規定する上位予測分布パラメータ(平均値,分散)を算出して、追跡器BK(n)のそれぞれに供給する予測分布パラメータ算出部41とを備えている。 As shown in FIG. 6, the estimation unit 8 includes N f trackers BK (n) provided for each (Nf) feature point, and each tracks the position x (n) of one feature point. A feature point tracking unit 10 that generates a feature point estimation distribution parameter (mean, standard deviation) that defines a probability distribution obtained by Gaussian approximation of the probability distribution obtained by estimating the position x t (n) of the feature point at time t; based on the calculated feature points estimated distribution parameters at each tracker BK (n), the predicted value a t + 1 of the affine parameter a t and the affine parameter by using a Kalman filter, the variance V t + 1 (hereinafter, the predicted value The affine parameter calculation unit 30 for calculating the affine parameter calculation unit 30, the predicted value holding unit 40 for storing the predicted value of the affine parameter calculated by the affine parameter calculation unit 30, and the time stored in the prediction value holding unit 40 calculated at t-1 The position x t (= (x t (1) , x t (2) ,..., X t (Nf) ) T ) of the feature point group at time t is predicted based on the predicted value of the affine parameter. A prediction distribution parameter calculation unit 41 that calculates upper prediction distribution parameters (average value, variance) that define the probability distribution p (x t | A t ) and supplies them to each of the trackers BK (n) . .

つまり、アフィンパラメータ算出部30が上述の上位層、特徴点追跡部10を構成する各追跡器BK(n)が上述の下位層に相当する。
なお、このような推定部8を実現する具体的な構成は、例えば、特願2005−368124号等に詳述されているため、ここではその詳細についての説明を省略し、以下では、特徴点推定分布パラメータの生成に関係する追跡器BK(n)の概要についてのみ説明する。
In other words, the affine parameter calculation unit 30 corresponds to the above-described upper layer, and each tracker BK (n) constituting the feature point tracking unit 10 corresponds to the above-described lower layer.
In addition, since the specific structure which implement | achieves such an estimation part 8 is explained in full detail, for example in Japanese Patent Application No. 2005-368124 etc., the description about the detail is abbreviate | omitted here, and is a feature point below. Only the outline of the tracker BK (n) related to the generation of the estimated distribution parameter will be described.

<追跡器の概要>
まず、特徴点追跡部10を構成する追跡器BK(n)は、パーティクルフィルタによって一つの特徴点を追跡するものである。ここでは、そのパーティクルフィルタの動作概要を、図7に示す説明図を参照して説明する。
<Outline of tracker>
First, the tracker BK (n) constituting the feature point tracking unit 10 tracks one feature point using a particle filter. Here, an outline of the operation of the particle filter will be described with reference to an explanatory diagram shown in FIG.

図7に示すように、パーティクルフィルタでは、推定したい対象の状態(特徴点の位置)の実現値(画像面上の座標)をパーティクルで表し、予測,観測,リサンプルという三つの過程を繰り返し実行することで、時系列的にパーティクルの分布を求める。なお、パーティクルフィルタでは、カルマンフィルタとは異なり、ガウス分布に限らず任意の確率分布を対象とすることができる。   As shown in FIG. 7, in the particle filter, the actual value (coordinates on the image plane) of the target state (feature point position) to be estimated is represented by particles, and the three processes of prediction, observation, and resampling are executed repeatedly. By doing so, the particle distribution is obtained in time series. Note that, unlike the Kalman filter, the particle filter is not limited to the Gaussian distribution but can be an arbitrary probability distribution.

まず、予測過程では、推定したい対象の動きを考慮して、状態空間(ここでは画像面上)での各パーティクルの状態(ここでは画像面上での位置)を遷移させ、推定したい対象の動きに加わるノイズを考慮してパーティクルを確率的に散らすことで,推定したい対象が存在しそうな位置にパーティクル群を配置する。これにより、推定したい対象の状態を予測した確率分布が、パーティクル群の位置と数により離散的かつ近似的に表現されることになる。   First, in the prediction process, taking into account the motion of the target to be estimated, the state of each particle (here the position on the image plane) in the state space (here on the image plane) is transitioned, and the motion of the target to be estimated Particles are placed at positions where the target to be estimated is likely to exist by randomly scattering particles in consideration of the noise added to the. As a result, the probability distribution predicting the state of the target to be estimated is discretely and approximately expressed by the position and number of the particle group.

次に、観測過程では、各パーティクルの状態が推定したい対象の状態であることの尤度(ここでは特徴点を表すテンプレートとの正規化相関値)を、尤度に応じてパーティクルの重みを算出する。これにより、推定したい対象の状態の確率分布が、重みのあるパーティクルによって表現されることになる。   Next, in the observation process, the likelihood that the state of each particle is the target state to be estimated (in this case, the normalized correlation value with the template representing the feature point) is calculated, and the weight of the particle is calculated according to the likelihood. To do. Thus, the probability distribution of the target state to be estimated is expressed by the weighted particles.

また、リサンプル過程では、重みの小さいパーティクルを消去すると共に重み大きいパーティクルを重みのない複数のパーティクルに増殖させることにより、推定したい対象の状態の確率分布を、重みのあるパーティクルによる表現から、重みのないパーティクルにより表現に確率的に変換する。   Also, in the resampling process, the probability distribution of the target state to be estimated is weighted from the representation by weighted particles by erasing the weighted particles and multiplying the weighted particles to multiple unweighted particles. Probabilistic conversion to representation with non-particles.

そして、このリサンプル(リサンプル過程で生成)されたパーティクルを用いて上述の予測過程を行うことにより、パーティクルで表された推定したい対象の状態の確率分布が時系列的に求められることになる。   Then, by performing the above prediction process using the resampled particles (generated in the resample process), the probability distribution of the target state to be estimated represented by the particles can be obtained in time series. .

ここで、パーティクルの個数をNp、パーティクルの画像面上での座標をpi=(ui,vi)、観測過程にて尤度に応じて算出されるパーティクルの重みをwi(i=1,2,…,Np)とすると、観測によって得られる推定したい対象の状態(即ち、特徴点の位置)の確率分布は、(22)(23)式に示す平均値、及び(24)式(25)式に示す分散値によって表される。 Here, the number of particles is N p , the coordinates of the particles on the image plane are p i = (u i , v i ), and the weight of the particles calculated according to the likelihood in the observation process is w i (i = 1, 2,..., N p ), the probability distribution of the target state to be estimated (that is, the position of the feature point) obtained by observation is the average value shown in the equations (22) and (23), and (24 ) Expressed by the dispersion value shown in the equation (25).

つまり、時刻tにおけるn番目の特徴点の位置を表す確率分布の平均値をxt (n)=(x(n),y(n))、分散をVt (n)=(Vx (n),Vy (n))として、xt=(xt (1),xt (2),…,xt (Nf))、Vt =(Vt (1),Vt (2),…,Vt (Nf))が、特徴点推定分布パラメータとして、各時刻t毎に顔モデル供給部6に供給されることになる。 That is, the average value of the probability distribution representing the position of the nth feature point at time t is x t (n) = (x (n) , y (n) ), and the variance is V t (n) = (V x ( n) , V y (n) ), x t = (x t (1) , x t (2) ,..., x t (Nf) ), V t = (V t (1) , V t (2 ) ), ..., V t (Nf )) is, as a feature point estimation distribution parameter, to be supplied to the face model supply unit 6 at each time t.

<顔モデル供給部>
次に、本発明の主要部である顔モデル供給部6について詳述する。
顔モデル供給部6は、図1に示すように、頭部を撮影した複数人分の映像から、それぞれ特徴点を抽出し、その抽出した結果に基づいて設定された平均的な特徴点の配置を表す平均顔モデルSAを記憶する平均顔モデル記憶部61と、初期化指令が入力されると起動し、推定部8から逐次供給される特徴点推定分布パラメータxt,Vtに基づいて、カメラ2に被写体(ドライバ)の特徴点の配置を表す個人顔モデルSPを、学習,生成する個人顔モデル学習部62と、個人顔モデル学習部62からの切替信号に従って、平均顔モデル記憶部61に記憶された平均顔モデルSA、個人顔モデル学習部62にて生成された個人顔モデルSPのいずれかを、顔モデルCaとして選択して推定部8に供給する顔モデル切替部63とを備えている。
<Face model supply department>
Next, the face model supply unit 6 which is a main part of the present invention will be described in detail.
As shown in FIG. 1, the face model supply unit 6 extracts feature points from the images of a plurality of persons whose heads are photographed, and arranges the average feature points set based on the extracted results. The average face model storage unit 61 that stores the average face model S A that is activated and activated when an initialization command is input, and is based on the feature point estimation distribution parameters x t and V t that are sequentially supplied from the estimation unit 8. the personal face model S P representing the arrangement of the feature point of the object to the camera 2 (the driver), learning and personal face model learning unit 62 for generating, in accordance with the switching signal from the personal face model learning unit 62, the average face model storage Face model switching which selects either the average face model S A stored in the unit 61 or the individual face model S P generated by the individual face model learning unit 62 as the face model C a and supplies it to the estimation unit 8 Part 63.

<学習の概要>
なお、個人顔モデル学習部62では、以下に示す手法により学習を実行する。
即ち、求めるべき三次元形状(即ち、個人顔モデルSP)を表す形状行列をS,特徴点推定分布パラメータxtの系列に基づいて生成される観測行列をW,形状行列Sの運動を表す運動行列をMとすると、これらは、W=MSの関係を有する。そして、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、尤度P(W|M,S)が最大となる運動行列の試験分布q(M),形状行列の試験分布q(S)を求めることにより、運動行列M及び形状行列Sを推定する。
<Summary of learning>
The personal face model learning unit 62 performs learning by the following method.
That is, the shape matrix representing the three-dimensional shape to be obtained (that is, the individual face model S P ) is S, the observation matrix generated based on the sequence of feature point estimation distribution parameters x t is W, and the motion of the shape matrix S is represented. If the motion matrix is M, these have the relationship W = MS. The likelihood P (W | M, S) is maximized based on a Bayesian estimation formula that defines the relationship between the posterior probability P (M, S | W) and the likelihood P (W | M, S). The motion matrix M and the shape matrix S are estimated by obtaining the motion matrix test distribution q (M) and the shape matrix test distribution q (S).

これは、(26)式に定義された自由エネルギーF[q(M,S)]を最大化するM,Sを求めることと等価であり、具体的には、(27)(28)式を解けばよい。   This is equivalent to obtaining M and S that maximize the free energy F [q (M, S)] defined in the equation (26). Specifically, the equations (27) and (28) are expressed as follows. It only has to be solved.

但し、この計算は簡単には解けないため、(29)式が成立すること(即ち、運動行列Mと形状行列Sとに独立な生起確率を仮定すること)、及び、モデル構造(形状行列S)と運動構造(運動行列M)の生起確率は、それぞれ正規分布に従うものと仮定し、いわゆる変分ベイズ法を適用して計算を行う。 However, since this calculation cannot be solved easily, the expression (29) is established (that is, an independent occurrence probability is assumed for the motion matrix M and the shape matrix S), and the model structure (the shape matrix S). ) And the occurrence probability of the motion structure (motion matrix M) are calculated by applying a so-called variational Bayes method, assuming that they follow a normal distribution.

これにより、求める分布も正規分布に従うため、解くべき問題を、分布の形状を表す特徴点推定分布パラメータxt,Vtの最適化というように簡略化できる。 Thereby, since the distribution to be obtained also follows the normal distribution, the problem to be solved can be simplified such as optimization of the feature point estimation distribution parameters x t and V t representing the shape of the distribution.

そして、変分ベイズ法のEステップでは、運動行列の分布q(M)を固定した上で、自由エネルギーを最大化する計算を行えばよく、結局、(27)(28)式を変形した(30)(31)式からなる方程式を、ラグランジュの未定乗数法を用いて解くことで得られた(32)式の計算を実行すればよい。但し、式中で記号に付与されている^(ハット)は、更新値を表すものとする(以下同様)。   Then, in the E step of the variational Bayes method, the calculation of maximizing free energy may be performed after fixing the distribution q (M) of the motion matrix. Eventually, the equations (27) and (28) are modified ( (30) What is necessary is just to perform calculation of (32) Formula obtained by solving the equation which consists of (31) Formula using the Lagrange's undetermined multiplier method. However, ^ (hat) given to a symbol in the equation represents an updated value (the same applies hereinafter).

同様に、変分ベイズ法のMステップでは、形状行列の分布q(S)を固定した上で、自由エネルギーを最大化する計算を行えばよく、結局、(27)(28)式を変形した(33)(34)式からなる方程式を、ラグランジュの未定乗数法を用いて解くことで得られた(35)式の計算を実行すればよい。 Similarly, in the M step of the variational Bayes method, the calculation of maximizing the free energy may be performed after fixing the distribution q (S) of the shape matrix. Eventually, the equations (27) and (28) were modified. (33) The equation (35) obtained by solving the equation (34) using the Lagrange's undetermined multiplier method may be executed.

<個人顔モデル学習部での処理>
ここで、個人顔モデル学習部62が実行する処理を、図8に示すフローチャートに沿って説明する。なお、本処理は、初期化指令の入力により起動される。
<Processing in the personal face model learning unit>
Here, the process executed by the individual face model learning unit 62 will be described with reference to the flowchart shown in FIG. Note that this process is started by inputting an initialization command.

但し、n番目の特徴点の三次元座標s(n)、求めたい3次元形状を表す形状行列S、形状行列Sに要素がオール1の行ベクトルを加えた同次形状行列〜Sを(36)〜(38)式で表すものとする。なお、平均顔モデルSA及び個人顔モデルSPは、同次形状行列 〜Sの形式で表現されているものとする。 However, the three-dimensional coordinates s (n) of the nth feature point, the shape matrix S representing the three-dimensional shape to be obtained, and the homogeneous shape matrix to S obtained by adding the row vector of all 1 elements to the shape matrix S (36 ) To (38). The average face model S A and individual facial model S P is assumed to be expressed in the form of homogeneous shape matrix to S.

また、運動のi番目の基底ベクトルをmiとして、運動行列M,同次運動行列〜M,Θ、d番目の運動行列の行ベクトルθdを(39)〜(42)式で表すものとする。 Further, the i-th basis vector of motion as m i, movement matrix M, the following motion matrix ~M, theta, as represented by a row vector theta d of d-th motion matrix (39) - (42) below To do.

本処理が起動すると、まず、S110では、顔モデル切替部63が推定部8に供給する顔モデルCaとして、平均顔モデルSAを選択するように切替信号を出力して、S120に進む。 When this process is started, first, in S110, a switching signal is output so as to select the average face model S A as the face model C a that the face model switching unit 63 supplies to the estimation unit 8, and the process proceeds to S120.

これにより、推定部8では、映像が入力される時刻t毎に、平均顔モデルSAを用いたアフィンパラメータAt、及び特徴点推定分布パラメータxt,Vtの算出が行われる。また、頭部姿勢算出部9では、推定部8にて求められたアフィンパラメータAtに基づいて、頭部姿勢θx,θy,θzの算出が行われる。 Thus, the estimation unit 8, for each time t on which an image is inputted, the average face model S affine parameter using A A t, and the feature point estimation distribution parameter x t, the calculation of V t is performed. Further, the head posture calculating portion 9, on the basis of the affine parameters A t obtained by estimating portion 8, head posture [theta] x, [theta] y, the calculation of θz performed.

S120では、運動行列の試験分布q(M)を初期化してS130に進む。
なお、形状行列の試験分布q(S)は、形状行列Sとその分散を表すΣS(以下、形状行列の分布パラメータという)によって規定され、運動行列の試験分布q(M)は、運動行列Θとその分散を表すVΘ(以下、運動行列の分布パラメータという)によって規定される。そして、運動行列の分布パラメータΘ,VΘは、この初期化によって、全ての要素が、同じ一定値(例えば、0又は1又は0.5)に設定される。
In S120, the motion matrix test distribution q (M) is initialized, and the process proceeds to S130.
The shape matrix test distribution q (S) is defined by the shape matrix S and Σ S (hereinafter referred to as the shape matrix distribution parameter) representing the variance, and the motion matrix test distribution q (M) is the motion matrix. Θ and VΘ representing the variance (hereinafter referred to as motion matrix distribution parameter). The motion matrix distribution parameters Θ and VΘ are set to the same constant value (for example, 0, 1 or 0.5) by this initialization.

S130では、予め設定された規定個数Tの特徴点推定分布パラメータxt,Vtの取得を完了したか否かを判断し、完了していなければ、完了するまで待機する。
そして規定個数Tの特徴点推定分布パラメータxt,Vtの取得を完了すると、S140に移行し、その取得した特徴点推定分布パラメータxt,Vtに基づいて、観測行列Wおよび信頼度行列Qを生成して、S150へ進む。
In S130, it is determined whether or not the acquisition of the preset predetermined number T of feature point estimation distribution parameters x t and V t is completed. If not completed, the process waits until completion.
When the acquisition of the predetermined number T of feature point estimation distribution parameters x t and V t is completed, the process proceeds to S140, and the observation matrix W and the reliability matrix are based on the acquired feature point estimation distribution parameters x t and V t. Q is generated and the process proceeds to S150.

なお、取得した特徴点推定分布パラメータxtに基づいて作成され、n(n=1,2,…,Nf)番目の特徴点の位置(画像面上での2次元座標)を時系列(t=1〜T)に並べてなる特徴点ベクトルx1:T (n)を(43)式で表すものとして、観測行列Wは、(44)式により表される。即ち、観測行列Wは、特徴点ベクトルx1:T (n)を列ベクトルして、全ての特徴点について並べることで構成されている。 Note that the position (two-dimensional coordinates on the image plane) of the nth (n = 1, 2,..., N f ) th feature point is created based on the acquired feature point estimation distribution parameter x t in time series ( Assuming that the feature point vectors x 1: T (n) arranged in t = 1 to T ) are expressed by the equation (43), the observation matrix W is expressed by the equation (44). That is, the observation matrix W is configured by arranging feature point vectors x 1: T (n) as column vectors and arranging them for all feature points.

また、信頼度行列Qは、特徴点推定分布パラメータVtに基づいて作成され、d=2t−1が時刻tにおけるx成分、d=2tが時刻tにおけるy成分を表し、n番目の特徴点のd番目(d=1,2,…,2T)の観測信頼度をσx,d (n)で表すものとして、(45)式により表される。即ち、信頼度行列Qは、観測行列Wと同じ次数を有する。 The reliability matrix Q is created based on the feature point estimation distribution parameter V t , where d = 2t−1 represents the x component at time t, d = 2t represents the y component at time t, and the nth feature point Assuming that the d-th (d = 1, 2,..., 2T) observation reliability is represented by σ x, d (n) , it is expressed by the equation (45). That is, the reliability matrix Q has the same order as the observation matrix W.

S150では、形状行列の試験分布q(S)を算出する、変分ベイズEステップとしての処理を実行して、S160に進む。 In S150, the variation matrix Bayes E step for calculating the shape matrix test distribution q (S) is executed, and the process proceeds to S160.

このS150では、具体的には、S140にて得られたW,Q、及びS120にて初期設定又は後述するS160にて更新された最新の運動行列の分布パラメータΘ,VΘに基づいて、特徴点(n=1〜Nf)毎に、次の(46)(47)式を用いて、s(n),Σs (n)を求めることにより、形状行列の分布パラメータS,Σsを更新する。なお、Ikはk次の単位行列である。 More specifically, in S150, the feature points are based on W and Q obtained in S140 and the latest motion matrix distribution parameters Θ and VΘ initially set in S120 or updated in S160 described later. (n = 1 to n f) for each, using the following (46) (47) where, s (n), by determining the sigma s (n), the distribution parameter S shape matrix, update the sigma s To do. Note that I k is a k-th order unit matrix.

但し、(46)(47)式は、(32)式を、特徴点の三次元座標s(n)及び分散Σs (n)を用いて書き直した(48)を解くことにより求められたものであり、具体的には、(49)〜(56)式を用いて計算を実行する。 However, the equations (46) and (47) are obtained by solving (48), which is the rewrite of the equation (32) using the three-dimensional coordinates s (n) and the variance Σ s (n) of the feature points. Specifically, the calculation is executed using the equations (49) to (56).

S160では、運動行列の試験分布q(M)を算出する、変分ベイズMステップとしての処理を実行して、S170に進む。 In S160, the process as the variational Bayes M step for calculating the motion matrix test distribution q (M) is executed, and the process proceeds to S170.

このS160では、具体的には、S140にて得られたW,Q、及びS150にて設定された最新の形状行列の分布パラメータS,ΣSに基づいて、運動行列の行ベクトルθd毎に、次の(57)(58)式を用いて、θd,Vdを求めることにより、運動行列の分布パラメータΘ,VΘを更新する。但し、期待値計算を記述する場合、(59)式に示す記述ルールを用いるものとする。 In this S160, specifically, W obtained in S140, Q, and distribution parameters S of the latest shape matrix set by S150, sigma based on the S, each row vector theta d motion matrix Then, using the following equations (57) and (58), θ d and V d are obtained to update the motion matrix distribution parameters Θ and VΘ. However, when describing the expected value calculation, the description rule shown in the equation (59) is used.

但し、(57)(58)式は、(35)式を、特徴点の三次元座標s(n)及び分散Σs (n)を用いて書き直した(60)を解くことにより求められたものであり、具体的には、(61)(62)式を用いて計算を実行する。 However, the equations (57) and (58) are obtained by solving (60), which is a rewrite of the equation (35) using the three-dimensional coordinates s (n) and the variance Σ s (n) of the feature points. Specifically, the calculation is executed using the equations (61) and (62).

S170では、S150,S160で算出された形状行列の分布パラメータS,Σs (即ち、試験分布q(S))及び運動行列の分布パラメータΘ,VΘ(即ち、試験分布q(M))に基づき、上述の(26)式を用いて自由エネルギーF[q(M,S)]を算出してS180に進む。 In S170, based on the distribution parameters S, Σ s (ie, test distribution q (S)) of the shape matrix and the distribution parameters Θ, VΘ (ie, test distribution q (M)) of the motion matrix calculated in S150 and S160. The free energy F [q (M, S)] is calculated using the above equation (26), and the process proceeds to S180.

但し、自由エネルギーは、上述の処理によって得られた運動行列Mおよび形状行列Sに基づいて推定される位置と、観測により得られた位置(観測行列W)とが近いほど大きな値となる。   However, the free energy becomes larger as the position estimated based on the motion matrix M and the shape matrix S obtained by the above-described processing and the position obtained by observation (observation matrix W) are closer.

S180では、S170にて算出された自由エネルギーが、予め設定されたエネルギー閾値より大きいことを終了条件として、その終了条件を充足しているか否かを判断し、充足していなければ、S150に戻って、S150〜S170の処理を繰り返し、一方、終了条件を充足していれば、S190に移行する。   In S180, it is determined whether or not the free energy calculated in S170 is larger than a preset energy threshold, and whether or not the termination condition is satisfied. If not, the process returns to S150. Then, the processes of S150 to S170 are repeated, and if the end condition is satisfied, the process proceeds to S190.

ここでは、エネルギー閾値として、例えば、平均顔モデルSAを表す形状行列と、上述の処理で得られた運動行列Mとを用いて算出した自由エネルギーを用いる。但し、エネルギー閾値は、これに限るものではなく、何らかの固定値であってもよい。 Here, as the energy threshold, for example, free energy calculated using a shape matrix representing the average face model S A and the motion matrix M obtained by the above-described processing is used. However, the energy threshold is not limited to this, and may be any fixed value.

S190では、上述の処理により最終的に得られた形状行列Sを個人顔モデルSPとして出力すると共に、顔モデル切替部63が推定部8に供給する顔モデルCaとして、個人顔モデルSPを選択するように切替信号を出力して、本処理を終了する。 In S190, and outputs a finally obtained shape matrix S by the above-described process as an individual face model S P, as face model C a supply face model switching unit 63 is in the estimation unit 8, the personal face model S P The switching signal is output so as to select and the present process is terminated.

これにより、以後、推定部8では、映像が入力される時刻t毎に、個人顔モデルSPを用いたアフィンパラメータAtの算出が行われ、更に、そのアフィンパラメータAtに基づいて、頭部姿勢算出部9では、頭部姿勢θx,θy,θzの算出が行われる。 Thus, hereafter, the estimation unit 8, for each time t on which an image is inputted, the calculation of the affine parameters A t with individual facial model S P is performed, further, on the basis of the affine parameter A t, head The head posture calculation unit 9 calculates head postures θx, θy, and θz.

<効果>
以上説明したように、画像処理装置1では、頭部姿勢θx,θy,θzを推定する処理を開始した直後は、平均顔モデルSAを用いてアフィンパラメータAtの算出(顔向き推定)を行い、これと並行して、個人顔モデルSPの学習を実行し、その個人顔モデルSPの精度が十分に向上した時点で、平均顔モデルSAから個人顔モデルSPへの切替を行うようにされている。
<Effect>
As described above, in the image processing apparatus 1, head posture [theta] x, [theta] y, immediately after starting the process of estimating the [theta] z, calculation of the affine parameters A t using the average face model S A (the face orientation estimation) In parallel with this, learning of the individual face model S P is executed, and when the accuracy of the individual face model S P is sufficiently improved, switching from the average face model S A to the individual face model S P is performed. Have been to do.

従って、画像処理装置1によれば、ドライバが誰であっても、頭部姿勢θx,θy,θzの推定を、処理の初期段階から、安定した精度の推定結果を得ることができ、しかも、平均顔モデルSAから個人顔モデルSPへの切替後は、高い精度の推定結果を得ることができる。 Therefore, according to the image processing apparatus 1, the estimation of the head postures θx, θy, and θz can be obtained from the initial stage of processing, regardless of who the driver is, and the estimation result with stable accuracy can be obtained. after switching from the average face model S a to individual facial model S P can be obtained estimation result of the high accuracy.

即ち、個人顔モデルSPを用いた場合、平均顔モデルSAを用いる場合より、推定精度が向上する可能性が高いが、学習に時間がかかり、また、計算に失敗すると平均顔モデルSA以上に誤差が大きくなる可能性があるが、画像処理装置1では、このような問題をいずれも解決することができる。 That is, when the individual face model S P is used, the estimation accuracy is more likely to be improved than when the average face model S A is used, but learning takes time, and if the calculation fails, the average face model S A Although the error may be increased as described above, the image processing apparatus 1 can solve all of these problems.

また、画像処理装置1では、平均顔モデルSAから個人顔モデルSPへの切替を、自由エネルギーを用いて判断しているため、モデルの切替後は、推定精度を確実に向上させることができる。 In the image processing apparatus 1, since the switching from the average face model S A to individual facial model S P, it is determined using the free energy, after switching model is possible to reliably improve the estimation accuracy it can.

即ち、個人顔モデルSPは、正解データというものが存在しないため、その精度を定量的に評価することが困難である。但し、観測行列Wを運動行列Mと形状行列Sに因子分解する際に、自由エネルギーが最大となるように因子分解を行っている。つまり、これは、自由エネルギーとは、運動行列Mおよび形状行列Sから算出される予測値が、観測値(観測行列W)に当てはまっている度合いを定量的に表しているものであると考えることができる。従って、この自由エネルギーを、顔モデルの精度を評価する基準として使用することができるのである。 That is, individual face model S P, since there is nothing that correct data, it is difficult to evaluate its accuracy quantitatively. However, when the observation matrix W is factorized into the motion matrix M and the shape matrix S, the factorization is performed so that the free energy is maximized. In other words, this means that the free energy quantitatively represents the degree to which the predicted values calculated from the motion matrix M and the shape matrix S are applied to the observed values (observed matrix W). Can do. Therefore, this free energy can be used as a reference for evaluating the accuracy of the face model.

また、画像処理装置1では、観測行列Wを因子分解する際に、観測行列Wを構成する各観測値xtの信頼性(特徴点の位置を表す確率分布(正規分布)の分散)を表す信頼度行列Qを用い、これを形状行列の試験分布q(S)の分散Σs に反映させることにより((43)〜(53)式参照)、信頼性の高い特徴点ほど重視した因子分解を行うようにされている。 In the image processing apparatus 1, when the observation matrix W is factorized, the reliability of each observation value x t constituting the observation matrix W (the distribution of the probability distribution (normal distribution) representing the position of the feature point) is expressed. By using the reliability matrix Q and reflecting this in the variance Σ s of the test distribution q (S) of the shape matrix (see formulas (43) to (53)), factorization that emphasizes higher reliability feature points Have been to do.

従って、画像処理装置1によれば、特徴点の隠れ,誤追跡,フレームアウト等に基づく信頼性の低い観測値xt が観測行列W中に存在していたとしても、これを除去するといった余計な手順を必要とすることなく、因子分解を確実に実行することができ、しかも信頼性の高いデータほど重視されるため、生成される形状行列や運動行列の精度を向上させることができる。 Therefore, according to the image processing apparatus 1, even if the observation value xt having low reliability based on the hiding, mistracking, frame-out, etc. of the feature point exists in the observation matrix W, it is unnecessary to remove it. Therefore, factorization can be reliably executed without requiring a simple procedure, and more reliable data is emphasized. Therefore, the accuracy of the generated shape matrix and motion matrix can be improved.

また、画像処理装置1によれば、観測行列Wを因子分解する際に、変分ベイズ法を適用して、運動行列Mの試験分布q(M),形状行列Sの試験分布q(S)を求めることにより、確率的に因子分解計算を実行するようにされているため、観測値xtに重畳されているノイズの影響を、大幅に軽減することができる。 Also, according to the image processing apparatus 1, when factorizing the observation matrix W, the variational Bayes method is applied to test distribution q (M) of the motion matrix M and test distribution q (S) of the shape matrix S. Since the factorization calculation is executed probabilistically, the influence of noise superimposed on the observation value x t can be greatly reduced.

[第2実施形態]
次に、第2実施形態について説明する。
なお、本実施形態では、個人顔モデル学習部62での処理内容の一部が、第1実施形態のものとは異なるだけであるため、この相違する部分を中心に説明する。
[Second Embodiment]
Next, a second embodiment will be described.
In the present embodiment, only a part of the processing contents in the personal face model learning unit 62 is different from that in the first embodiment, and thus this difference will be mainly described.

<個人顔モデル学習部での処理>
図8は、個人顔モデル学習部62が実行する処理の内容を示すフローチャートである。
第1実施形態の場合と同様に、本処理は、初期化指令の入力により起動され、S210〜S250は、第1実施形態のS110〜S150と同様であるため説明を省略する。
<Processing in the personal face model learning unit>
FIG. 8 is a flowchart showing the contents of processing executed by the individual face model learning unit 62.
As in the case of the first embodiment, this process is activated by the input of an initialization command, and S210 to S250 are the same as S110 to S150 of the first embodiment, and thus description thereof is omitted.

但し、S230にて使用される規定個数は、第1実施形態の場合より少ない数(例えば、数分の一から数十分の一程度)でよい。
そして、S260では、運動行列の試験分布q(M)を算出する、変分ベイズMステップとしての処理を実行して、S270に進む。
However, the specified number used in S230 may be a smaller number (for example, about a fraction to a fraction of a tenth) than in the first embodiment.
In S260, the process as a variational Bayes M step for calculating the test distribution q (M) of the motion matrix is executed, and the process proceeds to S270.

このS260では、具体的には、S240にて得られたW,Q、S250にて設定された最新の形状行列の分布パラメータS,ΣS、前サイクルで算出された統計量(後述の(66)(67)式参照)に基づいて、運動行列の行ベクトルθd毎に、次の(63)〜(67)式を用いて、θd,Vdを求めることにより、運動行列の分布パラメータΘ,VΘを更新する。 In S260, specifically, W, Q obtained in S240, distribution parameters S, Σ S of the latest shape matrix set in S250, statistics calculated in the previous cycle (described later (66 ) (See equation (67)), for each row vector θ d of the motion matrix, θ d and V d are obtained using the following equations (63) to (67), whereby the motion matrix distribution parameter is obtained. Θ and VΘ are updated.

S270では、前サイクルで算出された統計量(後述の(70)式参照)に基づき、(68)〜(70)式を用いて、形状行列Sを更新する。 In S270, the shape matrix S is updated using the equations (68) to (70) based on the statistics calculated in the previous cycle (see the equation (70) described later).

以下、S280〜S300は、第1実施形態のS170〜S190と同様であるため説明を省略する。但し、S290では、終了条件を充足していない場合に、S230に戻る。 Hereinafter, S280 to S300 are the same as S170 to S190 of the first embodiment, and thus description thereof is omitted. However, in S290, if the end condition is not satisfied, the process returns to S230.

<効果>
以上説明したように、本実施形態では、観測行列Wの次数(即ち、規定個数T)を少ない数に制限して、Eステップ,Mステップを1回ずつ実行して運動行列の試験分布p(M)及び形状行列の試験分布p(S)を求める処理を繰り返し、その結果を過去のデータほど比率が低下するような係数を乗じて足し合わせていく、いわゆるオンライン化した変分ベイズ推定法を用いて、因子分解を行っている。
<Effect>
As described above, in the present embodiment, the order (that is, the specified number T) of the observation matrix W is limited to a small number, the E step and the M step are executed once, and the motion matrix test distribution p ( M) and the process of obtaining the shape matrix test distribution p (S) are repeated, and the so-called online variational Bayesian estimation method in which the results are multiplied by a coefficient that decreases the ratio as the past data is added. Used to perform factorization.

従って、本実施形態によれば、使用する画像系列の数を増加させても、それによって増加する処理量は、Eステップ,Mステップを1回ずつ実行する際の処理量を単位として、加算的に増大するだけで、指数関数的に増大することがないため、因子分解に要する処理負荷(ひいては処理に要する時間)を大幅に削減することができる。   Therefore, according to the present embodiment, even if the number of image sequences to be used is increased, the amount of processing increased by that is incremental with the processing amount when executing the E step and the M step once as a unit. Therefore, the processing load required for factorization (and thus the time required for processing) can be greatly reduced.

その結果、自動車に搭載される演算器は一般的に計算能力が低いが、そのような場合でも問題なく適用することができる。
[他の実施形態]
以上本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様での実施が可能である。
As a result, an arithmetic unit mounted on an automobile generally has a low calculation capability, but even in such a case, it can be applied without any problem.
[Other Embodiments]
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist of the present invention.

例えば、上記実施形態では、頭部姿勢を推定するためにアフィンパラメータを用いているが、これは頭部姿勢の推定を行うことができれば、例えば、アフィンパラメータを用いずに、拡張カルマンフィルタを利用して直接頭部推定を行う手法等を採用してもよい。   For example, in the above embodiment, an affine parameter is used to estimate the head posture. If the head posture can be estimated, for example, an extended Kalman filter is used without using the affine parameter. For example, a method of directly performing head estimation may be employed.

また、因子分解を終了させる際の終了条件として、平均顔モデルSAから求めた自由エネルギーをエネルギー閾値として、学習中の個人顔モデルSPから求めた自由エネルギーがそのエネルギー閾値より大きいことを用いているが、エネルギー閾値は予め設定された固定値であってもよい。 Further, used as the end condition for terminating the factorization, the energy threshold of the free energy obtained from the average face model S A, that free energy obtained from individuals face model S P output in the training is larger than its energy threshold However, the energy threshold value may be a preset fixed value.

更に、自由エネルギーを用いるのではなく、処理の繰り返し回数が、予め設定された回数閾値より大きいことを終了条件としてもよい。この場合、処理を終了させるか否かの判断のために、自由エネルギーを算出する必要がなくなるため、当該装置での処理負荷を、より一層軽減することができ、また、常に一定時間内で処理を終了させることができる。   Furthermore, instead of using free energy, the end condition may be that the number of repetitions of processing is greater than a preset number of times threshold. In this case, since it is not necessary to calculate free energy to determine whether or not to end the processing, the processing load on the device can be further reduced, and the processing is always performed within a certain time. Can be terminated.

上記実施形態では、ベイズ推定法および変分ベイズ推定法により因子分解を行ったが、因子分解の際に、観測行列Wの各要素に信頼度を反映させることができれば、どのような方法を用いてもよく、例えば、特異値分解により因子分解を行ってもよい。   In the above embodiment, the factorization is performed by the Bayesian estimation method and the variational Bayesian estimation method. However, any method can be used as long as the reliability can be reflected in each element of the observation matrix W during the factorization. For example, factorization may be performed by singular value decomposition.

発明が適用された画像処理装置の全体構成を示すブロック図。1 is a block diagram showing the overall configuration of an image processing apparatus to which the invention is applied. 特徴点,テンプレートについての説明図。Explanatory drawing about a feature point and a template. 画像処理装置が使用する座標系を示す説明図。Explanatory drawing which shows the coordinate system which an image processing apparatus uses. 推定部が扱う状態空間モデルを表すグラフ。The graph showing the state space model which an estimation part handles. 時系列ベイズ推定の動作概要を示す説明図。Explanatory drawing which shows the operation | movement outline | summary of time series Bayes estimation. 推定部の構成を示すブロック図。The block diagram which shows the structure of an estimation part. パーティクルフィルタの動作概要を示す説明図。Explanatory drawing which shows the operation | movement outline | summary of a particle filter. 第1実施形態における個人顔モデル学習部の処理内容を示すフローチャート。The flowchart which shows the processing content of the personal face model learning part in 1st Embodiment. 第2実施形態における個人顔モデル学習部の処理内容を示すフローチャート。The flowchart which shows the processing content of the personal face model learning part in 2nd Embodiment.

符号の説明Explanation of symbols

1…画像処理装置 2…カメラ 3…画像取込装置 4…初期特徴点抽出部 5…テンプレート生成・記憶部 6…顔モデル供給部 8…推定部 9…頭部姿勢算出部 10…特徴点追跡部 30…アフィンパラメータ算出部 40…予測値保持部 41…予測分布パラメータ算出部 61…平均顔モデル記憶部 62…個人顔モデル学習部 63…顔モデル切替部 BK(n)…追跡器 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 2 ... Camera 3 ... Image capture apparatus 4 ... Initial feature point extraction part 5 ... Template production | generation / storage part 6 ... Face model supply part 8 ... Estimation part 9 ... Head posture calculation part 10 ... Feature point tracking Unit 30 ... Affine parameter calculation unit 40 ... Predicted value holding unit 41 ... Prediction distribution parameter calculation unit 61 ... Average face model storage unit 62 ... Individual face model learning unit 63 ... Face model switching unit BK (n) ... Tracker

Claims (8)

対象物体を撮影した画像系列を入力し、前記対象物体について予め設定された複数の特徴点の位置を画像面上で追跡し、該特徴点の位置を時系列的に並べてなる観測行列を生成する観測行列生成手段と、
該観測行列生成手段にて生成された観測行列を因子分解して、前記対象物体の三次元形状を表す形状行列および前記対象物体の運動を表す運動行列を生成する分解手段と、
を備えた三次元形状復元装置において、
前記特徴点毎に、前記特徴点の位置の信頼性を表す位置信頼性評価値を生成する信頼性評価手段を備え、
前記分解手段は、前記位置信頼性評価値の高い特徴点を重視した因子分解を実行することを特徴とする三次元形状復元装置。
An image series obtained by photographing the target object is input, the positions of a plurality of feature points set in advance for the target object are tracked on the image plane, and an observation matrix is generated by arranging the positions of the feature points in time series. An observation matrix generating means;
Factorizing the observation matrix generated by the observation matrix generating means to generate a shape matrix representing the three-dimensional shape of the target object and a motion matrix representing the motion of the target object;
In a three-dimensional shape restoration apparatus equipped with
For each feature point, comprising a reliability evaluation means for generating a position reliability evaluation value representing the reliability of the position of the feature point,
The three-dimensional shape restoration apparatus, wherein the decomposition means performs factorization focusing on a feature point having a high position reliability evaluation value.
前記観測行列をW,前記運動行列をM,前記形状行列をSとし、行列Xの各要素の値を確率的に示した分布をq(X)で表記するものとして、
前記分解手段は、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、前記尤度P(W|M,S)を最大にする前記運動行列の試験分布q(M)および前記形状行列の試験分布q(S)を、前記形状行列の試験分布q(S)の分散に前記信頼性評価値を反映させた上で求めることにより、確率的に因子分解計算を実行することを特徴とする請求項1に記載の三次元形状復元装置。
The observation matrix is W, the motion matrix is M, the shape matrix is S, and the distribution of each element of the matrix X stochastically expressed as q (X),
The decomposition means is based on a Bayesian estimation formula that defines the relationship between the posterior probability P (M, S | W) and the likelihood P (W | M, S). The reliability distribution of the test distribution q (S) of the shape matrix and the test distribution q (S) of the shape matrix are reflected on the variance of the test distribution q (S) of the shape matrix. The three-dimensional shape restoration apparatus according to claim 1, wherein the factorization calculation is executed probabilistically by obtaining the above.
前記分解手段は、
前記運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、前記形状行列の試験分布q(S)を固定して前記運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて交互に繰り返し実行する推定手段と、
予め設定された終了条件が満たされている場合に、前記推定手段を終了させる終了手段と、
からなり、最終的に得られた前記形状行列の試験分布q(S)が前記形状行列の分布であるものとして、該形状行列の分布から形状行列Sを得ることを特徴とする請求項2に記載の三次元形状復元装置。
The disassembling means includes
A first step of estimating the test distribution q (S) of the shape matrix by fixing the test distribution q (M) of the motion matrix, and fixing the test distribution q (S) of the shape matrix to the motion Estimating means for alternately and repeatedly executing the second step of estimating the test distribution q (M) of the matrix using each other's estimation results;
Ending means for ending the estimating means when a preset ending condition is satisfied;
The shape matrix S is obtained from the distribution of the shape matrix, assuming that the finally obtained test distribution q (S) of the shape matrix is the distribution of the shape matrix. The three-dimensional shape restoration apparatus described.
前記分解手段は、
前記観測行列生成手段にて観測行列が生成される毎に、前記運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、前記形状行列の試験分布q(S)を固定して前記運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて実行する推定手段と、
前記推定手段にて推定された前記形状行列の試験分布q(S)の系列に基づいて、出力とする前記形状行列の分布を更新する更新手段と、
予め設定された終了条件が満たされている場合に、前記推定手段及び更新手段を終了させる終了手段と、
からなり、前記更新手段によって最終的に得られた前記形状行列の分布から形状行列Sを得ることを特徴とする請求項2に記載の三次元形状復元装置。
The disassembling means includes
A first step of fixing the test distribution q (M) of the motion matrix and estimating the test distribution q (S) of the shape matrix each time an observation matrix is generated by the observation matrix generation means; Estimating means for executing the second step of estimating the test distribution q (M) of the motion matrix by fixing the test distribution q (S) of the shape matrix using each estimation result;
Updating means for updating the distribution of the shape matrix to be output based on the series of the test distribution q (S) of the shape matrix estimated by the estimating means;
Ending means for ending the estimating means and the updating means when a preset ending condition is satisfied;
3. The three-dimensional shape restoration apparatus according to claim 2, wherein the shape matrix S is obtained from the distribution of the shape matrix finally obtained by the updating means.
前記推定手段にて試験分布q(S),q(M)の推定結果が得られる毎に、試験事後分布q(S,M)=q(S)q(M)に関する自由エネルギーを算出するエネルギー算出手段を備え、
前記終了手段は、前記エネルギー算出手段での算出結果が、予め設定されたエネルギー閾値より大きいことを前記終了条件とすることを特徴とする請求項3又は請求項4に記載の三次元形状復元装置。
Energy for calculating the free energy for the test posterior distribution q (S, M) = q (S) q (M) every time the estimation means obtains the estimation results of the test distributions q (S) and q (M). A calculation means,
5. The three-dimensional shape restoration apparatus according to claim 3, wherein the termination unit sets the termination condition that a calculation result of the energy calculation unit is larger than a preset energy threshold value. .
前記終了手段は、前記推定手段にて前記形状行列を算出した回数が、予め設定された回数閾値より大きいことを前記終了条件とすることを特徴とする請求項3又は請求項4に記載の三次元形状復元装置。   5. The tertiary according to claim 3, wherein the termination unit uses the termination condition that the number of times the shape matrix is calculated by the estimation unit is larger than a preset number of times threshold. Original shape restoration device. 前記信頼性評価手段は、前記位置信頼性評価値として前記特徴点の位置を確率的に表す分布の分散値を用いることを特徴とする請求項2乃至請求項7のいずれかに記載の三次元形状復元装置。   The three-dimensional according to any one of claims 2 to 7, wherein the reliability evaluation means uses a distribution value of a distribution that stochastically represents the position of the feature point as the position reliability evaluation value. Shape restoration device. 自動車に搭載して使用することを特徴とする請求項1乃至請求項7のいずれかに記載の三次元形状復元装置。   The three-dimensional shape restoration apparatus according to any one of claims 1 to 7, wherein the three-dimensional shape restoration apparatus is used by being mounted on an automobile.
JP2007102914A 2007-04-10 2007-04-10 3D shape restoration device Expired - Fee Related JP5048381B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007102914A JP5048381B2 (en) 2007-04-10 2007-04-10 3D shape restoration device
US11/906,557 US8107735B2 (en) 2007-04-10 2007-10-02 Three dimensional shape reconstitution device and estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007102914A JP5048381B2 (en) 2007-04-10 2007-04-10 3D shape restoration device

Publications (2)

Publication Number Publication Date
JP2008261662A true JP2008261662A (en) 2008-10-30
JP5048381B2 JP5048381B2 (en) 2012-10-17

Family

ID=39984259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007102914A Expired - Fee Related JP5048381B2 (en) 2007-04-10 2007-04-10 3D shape restoration device

Country Status (1)

Country Link
JP (1) JP5048381B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010123070A (en) * 2008-11-21 2010-06-03 Nara Institute Of Science & Technology Three-dimensional shape restoration device
WO2019117001A1 (en) * 2017-12-11 2019-06-20 オムロン株式会社 Image processing device and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078228A (en) * 1999-09-03 2001-03-23 Sony Corp Image generation device and method
JP2001141425A (en) * 1999-11-12 2001-05-25 Laboratories Of Image Information Science & Technology Three-dimensional shape measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078228A (en) * 1999-09-03 2001-03-23 Sony Corp Image generation device and method
JP2001141425A (en) * 1999-11-12 2001-05-25 Laboratories Of Image Information Science & Technology Three-dimensional shape measuring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010123070A (en) * 2008-11-21 2010-06-03 Nara Institute Of Science & Technology Three-dimensional shape restoration device
WO2019117001A1 (en) * 2017-12-11 2019-06-20 オムロン株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JP5048381B2 (en) 2012-10-17

Similar Documents

Publication Publication Date Title
JP4568223B2 (en) Estimator
CN108369643B (en) Method and system for 3D hand skeleton tracking
Yuan et al. 3d ego-pose estimation via imitation learning
Vondrak et al. Physical simulation for probabilistic motion tracking
Luo et al. Dynamics-regulated kinematic policy for egocentric pose estimation
JP5647155B2 (en) Body feature detection and human pose estimation using inner distance shape relation
JP4728432B2 (en) Face posture estimation device, face posture estimation method, and face posture estimation program
CN110730970B (en) Method and system for optimizing policy controller
US8107735B2 (en) Three dimensional shape reconstitution device and estimation device
JP7345664B2 (en) Image processing system and method for landmark position estimation with uncertainty
CN114581613B (en) Trajectory constraint-based human model posture and shape optimization method and system
US20110208685A1 (en) Motion Capture Using Intelligent Part Identification
Bandouch et al. Accurate human motion capture using an ergonomics-based anthropometric human model
JP2008140101A (en) Unconstrained and real-time hand tracking device using no marker
Lee et al. Human body tracking with auxiliary measurements
JP5048381B2 (en) 3D shape restoration device
JP4971015B2 (en) Estimator
JP7489247B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS AND MODEL GENERATION METHOD
JP5485044B2 (en) Facial expression learning device, facial expression recognition device, facial expression learning method, facial expression recognition method, facial expression learning program, and facial expression recognition program
CN115471863A (en) Three-dimensional posture acquisition method, model training method and related equipment
JP5231183B2 (en) 3D shape restoration device
JP2022092528A (en) Three-dimensional person attitude estimation apparatus, method, and program
JP2021135770A (en) Information processing apparatus and information processing method, computer program, as well as observation device
Marks et al. Joint tracking of pose, expression, and texture using conditionally Gaussian filters
Rius et al. Posture constraints for bayesian human motion tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees