JP2009075880A - Apparatus and program for deforming virtual face model - Google Patents

Apparatus and program for deforming virtual face model Download PDF

Info

Publication number
JP2009075880A
JP2009075880A JP2007244361A JP2007244361A JP2009075880A JP 2009075880 A JP2009075880 A JP 2009075880A JP 2007244361 A JP2007244361 A JP 2007244361A JP 2007244361 A JP2007244361 A JP 2007244361A JP 2009075880 A JP2009075880 A JP 2009075880A
Authority
JP
Japan
Prior art keywords
deformation
face model
virtual face
expression
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007244361A
Other languages
Japanese (ja)
Other versions
JP4886645B2 (en
Inventor
Clippingdale Simon
クリピングデル サイモン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2007244361A priority Critical patent/JP4886645B2/en
Publication of JP2009075880A publication Critical patent/JP2009075880A/en
Application granted granted Critical
Publication of JP4886645B2 publication Critical patent/JP4886645B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a virtual face model deformed into a certain expression with efficiency and high accuracy. <P>SOLUTION: A virtual face model deformation apparatus for deforming the expression of a virtual face model to match the expression of a subject's face photographed has an input unit for inputting information on the positions of a plurality of preset feature points from the subject's face; a deformation estimating unit for estimating, using expression deformation data obtained from a plurality of previously stored face images for learning, deformation data corresponding to the information on the positions of the plurality of feature points input by the input unit; and a deforming unit for combining the deformation data estimated by the deformation estimating unit with a virtual face model selected from a set of a plurality of preset virtual face models, and deforming the expression of the virtual face model. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、仮想顔モデル変形装置及び仮想顔モデル変形プログラムに係り、特に効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得するための仮想顔モデル変形装置及び仮想顔モデル変形プログラムに関する。   The present invention relates to a virtual face model deforming apparatus and a virtual face model deforming program, and in particular, a virtual face model deforming apparatus and a virtual face model deforming for acquiring a virtual face model deformed into a predetermined expression efficiently and with high accuracy. Regarding the program.

従来、コンピュータグラフィックス(CG)やコンピュータアニメーション等の業界では、三次元のコンピュータモデルが頻繁に使用されている。多くの三次元CGモデル(仮想3次元モデル)は、物体(人物も含む)の表面形状を「メッシュ」(多角形の立体的な網)により記述し、輝度・色等の表面の見える部分を「テクスチャ」という画像情報により記述する。   Conventionally, three-dimensional computer models are frequently used in industries such as computer graphics (CG) and computer animation. Many three-dimensional CG models (virtual three-dimensional models) describe the surface shape of an object (including a person) with a “mesh” (polygonal three-dimensional network). It is described by image information called “texture”.

また、従来のCGソフトウェアを用いて三次元モデルをレンダリングすると、「メッシュ」の見える部分に「テクスチャ」を貼り付けることで、ほぼ任意の照明条件下で任意の角度から見た物体の見え方を静止画又は動画(アニメーション)として再現することができる。   In addition, when a 3D model is rendered using conventional CG software, the appearance of an object viewed from an arbitrary angle under almost arbitrary lighting conditions can be obtained by pasting a “texture” on the visible portion of the “mesh”. It can be reproduced as a still image or a moving image (animation).

しかしながら、CGモデルでは、表情を演じる人物の顔を自然に見えるように再現することが難しく、また、顔の表情に伴う動き(動的変形)は特に自然に再現しにくいといった問題がある。   However, the CG model has a problem that it is difficult to reproduce the face of a person who plays a facial expression so that it looks natural, and the movement (dynamic deformation) associated with the facial expression is particularly difficult to reproduce naturally.

そこで、静止画や動画に三次元CGモデルを用いてCGキャラクタの表情を制作する場合、目的の表情に相当する顔形状メッシュを幾つかの基底表情(無表情を含む)に相当するメッシュの線形組み合わせ(「ブレンド・シェイプ、blend shape」)として近似する手法が使用されている。また、無表情から目的の表情(満表情)まで動的に変動していく動画シーケンスを制作する場合には、各フレーム毎に同一の基底表情のブレンド・シェイプとして近似する手法がよく使用されている。   Therefore, when producing a facial expression of a CG character using a three-dimensional CG model for a still image or a moving image, the face shape mesh corresponding to the target facial expression is a linear mesh of several basic facial expressions (including no expression). An approach is used that approximates as a combination ("blend shape"). Also, when creating a video sequence that dynamically changes from an expressionless expression to a desired expression (full expression), a technique that approximates the blend shape of the same base expression for each frame is often used. Yes.

ここで、ブレンド・シェイプとは、ベースとなる表情と、その表情と異なる複数の表情のオブジェクトを用意し、ベースに対して所定の度合いで混合することにより表情を生成する手法である。   Here, the blend shape is a technique for generating a facial expression by preparing a base facial expression and a plurality of facial expression objects different from the facial expression and mixing them with a predetermined degree to the base.

また、CGソフトウェアにより再現された顔表情の自然性を向上させるために、表情を演じた出演者(被写体)の顔をカメラ等により撮影して得られる静止画又は動画から、表情に伴った顔の変形を学習し、CGモデルに移行してCGキャラクタで表情を再現する手法が研究されている(例えば、非特許文献1、2参照。)。
Raouzaiouら、Parameterized Facial Expression Synthesis Based on MPEG−4、EURASIP Journal on Applied Signal Processing 10,1021−1038,2002. Zhangら、Geometry−Driven Photorealistic Facial Expression Synthesis、IEEE Transactions on Visualization and Computer Graphics,vol.12,no.1,48−60,2006.
In addition, in order to improve the naturalness of facial expressions reproduced by CG software, the faces associated with facial expressions from still images or videos obtained by photographing the face of the performer (subject) who performed the facial expression with a camera or the like. A method of learning the deformation of the image, moving to the CG model, and reproducing the expression with the CG character has been studied (for example, see Non-Patent Documents 1 and 2).
Raousaiou et al., Parameterized Facial Expression Synthesis Based on MPEG-4, EURASIP Journal on Applied Signal Processing 10, 1021-1038, 2002. Zhang et al., Geometric-Driving Photorealistic Facial Expression Synthesis, IEEE Transactions on Visualization and Computer Graphics, vol. 12, no. 1, 48-60, 2006.

ところで、上述したように出演者等の被写体が顔で演じた表情を三次元CGモデルで近似して自然に再現するためには、予め出演者毎に顔における多数の特徴点の位置や動きを自動的に抽出しなければならない。一方、手動で出演者の多数の特徴点の位置を指定するには手間がかかり、リアルタイムでの動作は不可能となる。   By the way, as described above, in order to naturally reproduce the facial expression performed by a subject such as a performer with a three-dimensional CG model, the positions and movements of a large number of feature points on the face for each performer in advance. Must be extracted automatically. On the other hand, it is troublesome to manually specify the positions of many feature points of performers, and real-time operation becomes impossible.

ここで、上述した非特許文献1に示されている手法では、多数の特徴点の位置と動きから顔の三次元モデルを変形させて表情を再現する場合に、モデルを変形させるためのパラメータを作業者等が手動で調整している。また、非特許文献2に示されている手法でも、多数の特徴点を作業者等が手動で調整し、モデルの表情を生成するシステムについて開示されている。したがって、何れも作業者の手間がかかると共に、作業者の設定次第で精度が異なるため、高精度な結果を得ることができない。   Here, in the method described in Non-Patent Document 1 described above, when a facial expression is reproduced by deforming a three-dimensional model of a face from the positions and movements of many feature points, parameters for deforming the model are set. The operator etc. adjusts manually. Further, the technique disclosed in Non-Patent Document 2 also discloses a system in which an operator or the like manually adjusts many feature points to generate a model expression. Therefore, in both cases, it takes time and effort for the operator, and the accuracy differs depending on the setting of the operator, so that a highly accurate result cannot be obtained.

また、上述したように、動的に変動していく顔の表情を近似する場合には、各フレーム毎に、固定した幾つかの基底表情メッシュのブレンド・シェイプを合成する手法を用いる。その結果、フレーム毎にブレンド・シェイプ組み合わせの係数が変わるが、全フレームでの近似は同一基底表情の組み合わせとなってしまうため、高精度な表現を再現することができない。   Further, as described above, when approximating dynamically changing facial expressions, a method of combining blend shapes of several fixed base expression meshes is used for each frame. As a result, the blend / shape combination coefficient varies from frame to frame, but the approximation in all frames results in a combination of the same base facial expressions, so that a highly accurate expression cannot be reproduced.

本発明は、上述した問題点に鑑みなされたものであり、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得するための仮想顔モデル変形装置及び仮想顔モデル変形プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a virtual face model deforming apparatus and a virtual face model deforming program for acquiring a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy. The purpose is to do.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形装置において、前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力部と、予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力部により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定部と、前記変形推定部により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形部とを有することを特徴とする。   According to the first aspect of the present invention, in the virtual face model deforming device that deforms the facial expression of the virtual face model in correspondence with the facial expression of the photographed subject, a plurality of feature points set in advance from the face of the subject Corresponding to the position information of the plurality of feature points input by the input unit using the input unit for inputting the position information and facial expression deformation data obtained from a plurality of learning face images accumulated in advance. A deformation estimation unit that estimates deformation data, and the deformation data estimated by the deformation estimation unit are combined with a virtual face model selected from a set of a plurality of virtual face models set in advance to deform the facial expression of the virtual face model It has a deformation part.

請求項1記載の発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。   According to the first aspect of the present invention, it is possible to acquire a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy.

請求項2に記載された発明は、前記変形推定部は、予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて前記位置情報に近似する変形データを推定することを特徴とする。   According to a second aspect of the present invention, the deformation estimation unit obtains deformation data that approximates the position information using a deformation database having base mesh deformation data corresponding to a plurality of facial expressions of a plurality of preset models. It is characterized by estimating.

請求項2記載の発明によれば、メッシュの頂点を基準にして、変形データを推定することができ、この変形データを用いて被写体の表情に対応した仮想顔モデルの表情を高精度に変形させることができる。   According to the second aspect of the present invention, deformation data can be estimated on the basis of the vertex of the mesh, and the expression of the virtual face model corresponding to the expression of the subject is deformed with high accuracy using the deformation data. be able to.

請求項3に記載された発明は、前記変形推定部は、前記入力部により入力される被写体の顔の表情に対応した特徴点の位置ベクトルから、前記モデルの無表情のときの位置ベクトルを差分して得られる入力特徴点の変形ベクトルを、ある画像フレームにおける部分空間上に射影することで射影係数を求め、前記射影係数により変形データを生成することを特徴とする。   According to a third aspect of the present invention, the deformation estimation unit calculates a difference between a position vector of the model without expression from a position vector of a feature point corresponding to the facial expression of the subject input by the input unit. The modification vector of the input feature point obtained in this way is projected onto a partial space in a certain image frame to obtain a projection coefficient, and the modification data is generated by the projection coefficient.

請求項3記載の発明によれば、射影係数を用いて変形データを生成することで、部分空間に属する成分のみが残り、部分空間に直交する成分は除去することができる。そのため、効率的かつ高精度に仮想顔モデルの変形に必要な変形データを取得することができる。   According to the third aspect of the invention, by generating the deformation data using the projection coefficient, only the component belonging to the partial space remains, and the component orthogonal to the partial space can be removed. Therefore, deformation data necessary for the deformation of the virtual face model can be acquired efficiently and with high accuracy.

請求項4に記載された発明は、前記変形部は、前記特徴点の位置情報に近似するように前記変形データと仮想顔モデルのメッシュデータを組み合わせて仮想顔モデルの表情を変形させることを特徴とする。   The invention described in claim 4 is characterized in that the deformation unit deforms the expression of the virtual face model by combining the deformation data and the mesh data of the virtual face model so as to approximate the position information of the feature point. And

請求項4記載の発明によれば、効率的かつ高精度に仮想顔モデルをより自然な表情に変形させることができる。   According to the fourth aspect of the present invention, the virtual face model can be transformed into a more natural expression efficiently and with high accuracy.

請求項5に記載された発明は、前記変形部は、前記予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整することを特徴とする。   The invention described in claim 5 is characterized in that the deforming unit adjusts the number of times of use of time-series data of dynamic deformation accompanying the facial expression of the plurality of preset virtual face models.

請求項5記載の発明によれば、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができる。これにより、高精度な変形データを取得することができる。   According to the invention described in claim 5, it is possible to adjust in detail according to the performance of the apparatus, the degree of quality of the output result, the desired processing speed, and the like. Thereby, highly accurate deformation data can be acquired.

請求項6に記載された発明は、撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形プログラムにおいて、コンピュータに、前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力処理と、予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力処理により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定処理と、前記変形推定処理により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形処理とを実行させる。   According to a sixth aspect of the present invention, in the virtual face model deformation program for deforming the expression of the virtual face model in correspondence with the expression of the face of the photographed subject, a plurality of preset presets from the face of the subject to the computer Position information of a plurality of feature points input by the input process using input processing for inputting the position information of the feature points and deformation data of facial expressions obtained from a plurality of learning face images accumulated in advance The facial expression of the virtual face model by combining the deformation estimation process for estimating the deformation data corresponding to, and the deformation data estimated by the deformation estimation process in combination with a virtual face model selected from a set of a plurality of preset virtual face models And a deformation process for deforming.

請求項6記載の発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。また、実行プログラムをコンピュータにインストールすることにより、容易に所定の表情に変形させた仮想顔モデルを取得することができる。   According to the sixth aspect of the present invention, it is possible to acquire a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy. Further, by installing the execution program in the computer, a virtual face model that is easily transformed into a predetermined expression can be acquired.

本発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。   According to the present invention, it is possible to acquire a virtual face model transformed into a predetermined facial expression efficiently and with high accuracy.

<本発明の概要>
本発明は、例えば、ある番組の出演者等の実際の人物(被写体)の顔等における少数の特徴点の位置情報を動的に顔特徴点追跡装置により取得し、その位置情報に基づいて、複数の学習用三次元顔モデル(基底表情)のブレンド・シェイプとして出演者の表情に伴った変形を近似し、別の仮想三次元モデルの顔の表情を変形させて静止画又は動画(アニメーション)等で出力する。
<Outline of the present invention>
The present invention, for example, dynamically acquires position information of a small number of feature points in the face of an actual person (subject) such as a performer of a program by a face feature point tracking device, and based on the position information, As a blend shape of multiple learning 3D face models (basic facial expressions), it approximates the deformation accompanying the facial expression of the performer, deforms the facial expression of another virtual 3D model, and creates a still image or animation (animation) And so on.

ここで、ブレンド・シェイプ組み合わせの係数の値を定めるには、出演者等の顔画像から抽出された特徴点と、それぞれと略同一の位置における三次元モデルのメッシュ頂点との誤差(近似誤差)を最小化する。更に、本発明は、ブレンド・シェイプの係数のみならず、基底表情も動的に変形していくことにより、近似誤差を更に減少する。   Here, in order to determine the value of the blend / shape combination coefficient, the error (approximation error) between the feature point extracted from the face image of the performer or the like and the mesh vertex of the 3D model at approximately the same position as each of them. Minimize. Furthermore, the present invention further reduces the approximation error by dynamically deforming not only the blend shape coefficient but also the base expression.

<実施形態>
以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
<Embodiment>
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

<仮想顔モデル変形システム>
図1は、本実施形態における仮想顔モデル変形システムの一構成例を示す図である。図1に示す仮想顔モデル変形システム10は、実際の人物(被写体)の顔を撮影する撮像部としてのカメラ11と、顔特徴点追跡装置12と、仮想顔モデル変形装置13とを有するよう構成されている。また、本発明に係る仮想顔モデル変形装置13は、入力部21と、変形推定部22と、変形データベース23と、変形部24と、表示用仮想3次元顔モデル集合部25と、表示部26と、出力部27とを有するよう構成されている。
<Virtual face model transformation system>
FIG. 1 is a diagram illustrating a configuration example of a virtual face model deformation system in the present embodiment. A virtual face model deformation system 10 shown in FIG. 1 is configured to include a camera 11 as an image capturing unit that captures the face of an actual person (subject), a face feature point tracking device 12, and a virtual face model deformation device 13. Has been. The virtual face model deformation device 13 according to the present invention includes an input unit 21, a deformation estimation unit 22, a deformation database 23, a deformation unit 24, a display virtual three-dimensional face model aggregation unit 25, and a display unit 26. And an output unit 27.

図1に示すカメラ11は、例えば番組出演者等の被写体31の顔を含む画像を取得して顔の動画像を取得する。また、カメラ11は、撮影された被写体31の動画像を顔特徴点追跡装置12に出力する。   The camera 11 shown in FIG. 1 acquires an image including the face of the subject 31 such as a program performer and acquires a moving image of the face. The camera 11 also outputs the captured moving image of the subject 31 to the face feature point tracking device 12.

顔特徴点追跡装置12は、カメラ11により撮影された動画像の時間的連続性を用いて、顔の検出、追跡、及び認識を行い、顔の特徴点を取得する。具体的には、撮影された動画像に対してGaborウェーブレット係数等の特徴を用いて予め設定された可変テンプレートとのテンプレートマッチングを行う。なお、このマッチング処理は、同じデータ表現で動画像全てに対して処理を行う。   The face feature point tracking device 12 performs face detection, tracking, and recognition using the temporal continuity of moving images taken by the camera 11, and acquires face feature points. Specifically, template matching is performed on a captured moving image with a preset variable template using features such as Gabor wavelet coefficients. This matching process is performed on all moving images with the same data representation.

また、顔特徴点追跡装置12は、動画像から顔の部分を抽出し、抽出した顔に対して特徴点を抽出する。ここで、図2は、抽出される顔の特徴点の一例を示す図である。図2に示す特徴点の一例では、撮影した被写体31の顔領域から眉間、目元、目尻、鼻先、口先、口元からなる9点を特徴点32−1〜32−9として抽出している。なお、特徴点の場所や数等については特にこれに制限されない。   Further, the face feature point tracking device 12 extracts a face portion from the moving image, and extracts a feature point for the extracted face. Here, FIG. 2 is a diagram illustrating an example of extracted facial feature points. In the example of the feature points illustrated in FIG. 2, nine points including the eyebrows, the eyes, the corners of the eyes, the nose, the mouth, and the mouth are extracted as feature points 32-1 to 32-9 from the face area of the photographed subject 31. The location and number of feature points are not particularly limited to this.

また、顔特徴点追跡装置12は、多重解像度でのマッチング機能を有していてもよく、この場合には低解像度から高解像度までのマッチングを行い、重み付き推定を行うことにより、信頼性が低いデータの影響を減少させることができる。また、顔特徴点追跡装置12は、ロバスト推定を行い、時間・空間的フィルタリングとBayes推定により、フレーム数分のマッチング情報を積分し、その結果を特徴点の座標を位置情報として出力する。   Further, the face feature point tracking device 12 may have a multi-resolution matching function. In this case, the face feature point tracking device 12 performs matching from a low resolution to a high resolution and performs weighted estimation, thereby improving reliability. The impact of low data can be reduced. Further, the face feature point tracking device 12 performs robust estimation, integrates matching information for the number of frames by temporal / spatial filtering and Bayes estimation, and outputs the result of the feature point coordinates as position information.

なお、顔特徴点追跡装置12における顔の特徴点の取得については、例えば既存の顔特徴点追跡手法(例えば、サイモン・クリピングデルら、「動画像の顔検出・追跡・認識への統一されたアプローチ」、電子情報通信学会、信学技報 PRMU98−200(1999年1月))等を用いることができる。   As for the acquisition of facial feature points in the facial feature point tracking device 12, for example, an existing facial feature point tracking method (for example, Simon Krippingdel et al., “A unified approach to face detection / tracking / recognition of moving images”). The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report PRMU 98-200 (January 1999)) and the like can be used.

上述した顔特徴点追跡装置12によりカメラ11で撮影中の被写体の顔画像における幾つかの特徴点の位置情報を仮想顔モデル変形装置13に出力する。   The face feature point tracking device 12 described above outputs position information of several feature points in the face image of the subject being photographed by the camera 11 to the virtual face model deforming device 13.

なお、仮想顔モデル変形装置13に入力する特徴点の位置情報等は、例えば、被写体31の撮影中にリアルタイムに入力してもよく、また外部蓄積装置等に動画として一時的に蓄積しておき仮想顔モデル変形装置13での処理を実行したい所定のタイミングで仮想顔モデル変形装置13に入力してもよい。更に、他の装置等を用いて上述以外の手法で得られた特徴点の位置情報等を入力してもよい。   Note that the position information of the feature points input to the virtual face model deforming device 13 may be input in real time, for example, during shooting of the subject 31, or may be temporarily stored as a moving image in an external storage device or the like. You may input into the virtual face model deformation | transformation apparatus 13 at the predetermined timing which wants to perform the process in the virtual face model deformation | transformation apparatus 13. FIG. Further, the position information of the feature points obtained by a method other than the above using another device or the like may be input.

仮想顔モデル変形装置13において、入力部21は、顔画像の各特徴点の位置情報を入力すると、その位置情報(座標情報)を変形推定部22に出力する。   In the virtual face model deformation device 13, when the input unit 21 inputs position information of each feature point of the face image, the input unit 21 outputs the position information (coordinate information) to the deformation estimation unit 22.

変形推定部22は、入力部21から得られる顔画像の各特徴点の座標と変形データベース23に予め蓄積されている複数の学習用の顔画像から得られる変形データ(基底メッシュ変形データ、サブサンプル変形データ)等を用いて、撮影された顔画像の表情に対し、後述する仮想3次元顔モデルの表情を近似(一致も含む)させるための適切な変形データの推定を行う。なお、変形データベース23の詳細については後述する。また、変形推定部22は、変形に対する推定パラメータ(変形データ)を変形部24に出力する。   The deformation estimation unit 22 uses the coordinates of each feature point of the face image obtained from the input unit 21 and deformation data (basic mesh deformation data, subsamples) obtained from a plurality of learning face images stored in advance in the deformation database 23. Deformation data) is used to estimate appropriate deformation data for approximating (including matching) the expression of a virtual three-dimensional face model, which will be described later, with respect to the expression of the captured face image. Details of the deformation database 23 will be described later. Further, the deformation estimation unit 22 outputs an estimation parameter (deformation data) for the deformation to the deformation unit 24.

また、変形部24は、予め蓄積されている複数の仮想顔モデル(CGモデル)毎に形状メッシュ情報及びテクスチャ情報等を有する表示用仮想3次元顔モデル集合部25から予め使用者等により選択された任意の仮想3次元顔モデルの形状メッシュに上述した変形推定部22で推定された変形データを組み合わせて、仮想3次元顔モデルの表情を変形する。   The deforming unit 24 is selected in advance by a user or the like from the display virtual three-dimensional face model set unit 25 having shape mesh information and texture information for each of a plurality of virtual face models (CG models) stored in advance. The expression data of the virtual three-dimensional face model is deformed by combining the shape data of the arbitrary virtual three-dimensional face model with the deformation data estimated by the deformation estimation unit 22 described above.

具体的には、変形部24は、各特徴点の座標に近似するように変形データと仮想顔モデルを組み合わせて仮想顔モデルの表情を変形させる。これにより、効率的かつ高精度に仮想顔モデルをより自然な表情に変形させることができる。なお、変形部24は、予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整してもよい。これにより、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができ、高精度な変形データを取得することができる。   Specifically, the deformation unit 24 deforms the expression of the virtual face model by combining the deformation data and the virtual face model so as to approximate the coordinates of each feature point. Thereby, the virtual face model can be transformed into a more natural expression efficiently and with high accuracy. In addition, the deformation | transformation part 24 may adjust the use number of the time series data of the dynamic deformation | transformation accompanying a facial expression with the several virtual face model set beforehand. Thereby, it is possible to adjust in detail according to the performance of the apparatus, the degree of quality of the output result, the desired processing speed, etc., and highly accurate deformation data can be acquired.

また、変形部24は、変形された仮想3次元顔モデルの顔画像データをメッシュ及びテクスチャ情報と共に表示部26に出力して表示部28から表示させたり、顔画像データを所定のフォーマット形式のファイルで蓄積部27に蓄積させたり、顔画像データを出力部28に出力して出力部28から画像ファイルとして出力させることができる。   The deforming unit 24 outputs the deformed virtual three-dimensional face model face image data together with the mesh and texture information to the display unit 26 and causes the display unit 28 to display the face image data. Can be stored in the storage unit 27, or face image data can be output to the output unit 28 and output from the output unit 28 as an image file.

なお、上述した変形推定部22及び変形部24における具体的な処理の詳細については後述する。   Details of specific processes in the deformation estimation unit 22 and the deformation unit 24 described above will be described later.

表示部26は、変形部24から得られた変形された仮想3次元顔モデルの顔画像を直接表示したり、メッシュ及びテクスチャ情報を用いてディスプレイ等にレンダリング(数値データとして与えられた物体や図形に関する情報を計算により画像化)して得られる仮想3次元顔モデルの顔画像を表示する。また、蓄積部27は、変形部24から得られる画像データ等を蓄積する。また、出力部28は、変形部24から得られる画像データ等を所定のフォーマット形式のファイルで出力する。   The display unit 26 directly displays the face image of the deformed virtual three-dimensional face model obtained from the deforming unit 24 or renders it on a display or the like using mesh and texture information (an object or figure given as numerical data) The face image of the virtual three-dimensional face model obtained by imaging the information regarding the image is displayed. The storage unit 27 stores image data obtained from the deformation unit 24 and the like. The output unit 28 outputs the image data obtained from the deforming unit 24 as a file in a predetermined format.

これにより、被写体31の顔画像の表情に対応させて予め設定された表示用仮想3次元顔モデルの表情を変形して表示させることができる。したがって、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。   Thereby, the expression of the virtual three-dimensional face model for display set in advance corresponding to the expression of the face image of the subject 31 can be deformed and displayed. Therefore, it is possible to acquire a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy.

なお、上述の入力部21や出力部28は、例えば、ソケット通信等の通信インタフェースにより外部装置等とのデータの送受信を実施することができ、表示部26は、コンピュータに接続するディスプレイ等で実施することができる。   The input unit 21 and the output unit 28 described above can perform data transmission / reception with an external device or the like through a communication interface such as socket communication, and the display unit 26 is implemented with a display connected to a computer or the like. can do.

<変形データベース23について>
次に、上述した変形データベース23について具体的に説明する。図3は、変形データベースの構築までの処理の流れを説明するための一例の図である。図3では、学習データとして学習用メッシュ変形データ41を用いる。これは、例えばある所定人数(M人)の出演者(実際の人物)等がE個(種類)の表情(例えば、「笑顔」、「悲しみ」、「驚き」の場合にはE=3)を演じた顔の三次元モデル(顔形状メッシュ)の無表情から満表情(所定の表情)までの同一フレーム数のシーケンスから構成されている。
<About the deformation database 23>
Next, the deformation database 23 described above will be specifically described. FIG. 3 is an example for explaining the flow of processing up to the construction of the modified database. In FIG. 3, learning mesh deformation data 41 is used as learning data. This is because, for example, a certain number (M) of performers (actual persons) have E (type) facial expressions (for example, E = 3 when “smile”, “sadness”, “surprise”). Is composed of a sequence of the same number of frames from the expressionless to the full expression (predetermined expression) of the three-dimensional face model (face shape mesh).

また、図3の例では、例えばシーケンスの長さ(フレーム数)は、F+1フレーム(0フレーム〜Fフレーム)であり、図3に示す最初のフレーム(0フレーム)には顔が無表情に映っており、最後のフレーム(Fフレーム)まで表情が滑らかにフル(満表情)に変形していくものとする。   In the example of FIG. 3, for example, the length of the sequence (number of frames) is F + 1 frame (0 frame to F frame), and the face appears in the first frame (0 frame) shown in FIG. It is assumed that the expression smoothly changes to full (full expression) until the last frame (F frame).

ここで変形データベース23を構築するには、まず、各表情のフレーム毎に全人物(1〜M)のメッシュ頂点座標の平均情報42を取得する。これにより、E個のシーケンスp(1),…,p(E)を求める。そして、シーケンスp(1),…,p(E)のメッシュ情報から幾つかの頂点の座標をサブサンプル43として抽出(サンプリング)することにより、シーケンスq(1),…,q(E)を求める。なお、抽出するメッシュ頂点は、顔特徴点追跡装置12から入力される特徴点(入力特徴点)と最も近い頂点を選択する(理想的には、メッシュ頂点と、特徴点の位置とは一致することが好ましい)。   In order to construct the deformation database 23, first, average information 42 of mesh vertex coordinates of all persons (1 to M) is acquired for each frame of each facial expression. Thus, E sequences p (1),..., P (E) are obtained. Then, by extracting (sampling) the coordinates of some vertices as subsamples 43 from the mesh information of the sequence p (1),..., P (E), the sequence q (1),. Ask. As the mesh vertex to be extracted, a vertex closest to the feature point (input feature point) input from the face feature point tracking device 12 is selected (ideally, the mesh vertex and the position of the feature point coincide with each other). Preferably).

したがって、最終的な変形データベース23は、各表情(1〜E)におけるメッシュシーケンス(基底メッシュ変形データ)p(1),…p(E)とサブサンプルされたシーケンス(サブサンプル変形データ)q(1),…q(E)から構成される。   Accordingly, the final deformation database 23 includes mesh sequences (basic mesh deformation data) p (1),... P (E) and subsampled sequences (subsample deformation data) q ( 1),... Q (E).

<変形推定部22及び変形部24について>
次に、上述した変形推定部22及び変形部24について具体的に説明する。図4は、本実施形態における変形推定部と変形部の処理の流れを説明するための一例の図である。変形推定部22は、入力部21からの各特徴点の座標と、変形データベース23における変形データ群を用い、入力特徴点ベクトルrから無表情のときのベクトルr[0]を差分し、あるフレームjにおけるサブサンプル変形データq(1)[j]−q[0],…,q(E)[j]−q[0]が張る部分空間に射影する。これにより、射影係数α(1),…,α(E)を求める。なお、q[0]=q(1)[0]=…=q(E)[0]は、無表情のときのサブサンプル変形データを示している。
<About the deformation estimation unit 22 and the deformation unit 24>
Next, the deformation estimation unit 22 and the deformation unit 24 described above will be specifically described. FIG. 4 is a diagram illustrating an example for explaining the flow of processing of the deformation estimation unit and the deformation unit in the present embodiment. The deformation estimation unit 22 uses the coordinates of each feature point from the input unit 21 and the deformation data group in the deformation database 23 to subtract a vector r [0] when there is no expression from the input feature point vector r to obtain a certain frame. Projecting to the subspace spanned by the subsample deformation data q (1) [j] -q [0],..., q (E) [j] -q [0] in j. Thereby, the projection coefficients α (1),..., Α (E) are obtained. Note that q [0] = q (1) [0] =... = Q (E) [0] indicates subsample deformation data when there is no expression.

次に、上述の処理で得られた射影係数α(1),…,α(E)を用いて、フレームjでの基底メッシュ変形データp(1)[j]−p[0],…,p(E)[j]−p[0]の重み付き線形組み合わせ変形分を計算((α(1)×(p(1)[j]−p[0])×…×α(E)(p(E)[j]−p[0])))し、この計算結果を変形データとして変形部24に出力する。なお、p[0]=p(1)[0]=…=p(E)[0]は、無表情のときの基底メッシュ変形データを示している。   Next, using the projection coefficients α (1),..., Α (E) obtained by the above processing, the base mesh deformation data p (1) [j] −p [0],. Calculate the weighted linear combination deformation of p (E) [j] −p [0] ((α (1) × (p (1) [j] −p [0]) ×... × α (E) ( p (E) [j] −p [0]))), and outputs the calculation result to the deformation unit 24 as deformation data. Note that p [0] = p (1) [0] =... = P (E) [0] represents the base mesh deformation data when there is no expression.

次に、変形部24は、表示用仮想3次元顔モデルのメッシュs[0]に変形推定部22から得られる変形データを加算して(組み合わせて)変形させ、その結果として、変形された表示用メッシュsを出力する。なお、メッシュs[0]は、無表情の状態にあることを示している。   Next, the deformation unit 24 adds (combines) the deformation data obtained from the deformation estimation unit 22 to the mesh s [0] of the display virtual three-dimensional face model to deform, and as a result, the deformed display is displayed. Output mesh s. Note that the mesh s [0] indicates that there is no expression.

ここで、図5は、基底表情として使用される変形データのフレーム位置の設定を説明するための一例の図である。図5に示すように、入力特徴点の変形ベクトル|r−r[0]|の大きさにより、基底メッシュの変形データを使用するフレーム番号jを設定する。   Here, FIG. 5 is a diagram illustrating an example of setting the frame position of the deformation data used as the base expression. As shown in FIG. 5, the frame number j using the deformation data of the base mesh is set according to the magnitude of the deformation vector | r−r [0] | of the input feature points.

出力表情の近似は、入力特徴点の変形ベクトル|r−r[0]|が小さい場合には、基底メッシュ変形データのフレームJのブレンド・シェイプ組み合わせとなり、|r−r[0]|が充分大きい場合には、その大きさに相当する基底メッシュ変形データのフレームJ<=j<=Fのブレンド・シェイプ組み合わせとなる。   When the deformation vector | r−r [0] | of the input feature point is small, the approximation of the output facial expression is a blend shape combination of the frame J of the base mesh deformation data, and | r−r [0] | If it is larger, it becomes a blend shape combination of frames J <= j <= F of the base mesh deformation data corresponding to the size.

ここで、上述までの実施形態の処理の手順を更に具体的に説明する。例えば、基底表情を固定する場合の処理においては、まず、予めオフラインでE個(種類)の基本表情を演じた顔の形状(CGモデルのメッシュ)の変形データを集め、同一長さ(フレーム数)のシーケンスに調整して、基底メッシュ変形データp(1),…,p(E)として変形データベース23に格納する。各シーケンスにおいて、最初に顔が無表情の状態で時間が経つにつれて表情が大きく現れてくる。このとき、サブサンプルとして上述した顔特徴点追跡装置12から入力される顔画像の各特徴点の位置に最も近いメッシュ頂点のみをp(1),…,p(E)の各フレームから抽出し、サブサンプル変形データq(1),…,q(E)として変形データベース23に格納しておく。   Here, the processing procedure of the above-described embodiment will be described more specifically. For example, in the process of fixing the base facial expression, first, the deformation data of the face shape (CG model mesh) that played E (type) basic facial expressions in advance is collected offline, and the same length (number of frames) is collected. ) And stored in the deformation database 23 as base mesh deformation data p (1),..., P (E). In each sequence, facial expressions appear larger as time passes with the face initially having no expression. At this time, only mesh vertices closest to the position of each feature point of the face image input from the face feature point tracking device 12 described above as a subsample are extracted from each frame of p (1),..., P (E). , Subsample deformation data q (1),..., Q (E) are stored in the deformation database 23.

変形推定部22では、入力する特徴点の座標ベクトルrから、出演者の顔が無表情の時の値r[0]を引くことにより求めた入力特徴点の変形ベクトルr−r[0]を、あるフレームjでのサブサンプル変形データq(1)[j]−q[0],…,q(E)[j]−q[0]が張る部分空間に射影する。これにより、入力特徴点の変形ベクトルr−r[0]に対して、この部分空間に属する成分のみが残る(部分空間に直交する成分は除去される)。なお、射影の結果としては、係数α(1),…,α(E)を求める。ここで、
Q[j]=[q(1)[j]−q[0]…q(E)[j]−q[0]]
とすると、
α=(Q[j]Q[j])−1Q[j](r−r[0])
として求めることができる。なお、q(0)=q(1)[0]=…=q(E)[0]は無表情の時のサブサンプル変形データを示している。
The deformation estimation unit 22 obtains a deformation vector rr [0] of the input feature point obtained by subtracting a value r [0] when the performer's face is expressionless from the coordinate vector r of the input feature point. , Q (E) [j] -q [0] is projected onto a subspace spanned by subsample modified data q (1) [j] -q [0],. As a result, only the component belonging to this partial space remains with respect to the deformation vector rr [0] of the input feature point (the component orthogonal to the partial space is removed). As a result of projection, coefficients α (1),..., Α (E) are obtained. here,
Q [j] = [q (1) [j] −q [0]... Q (E) [j] −q [0]]
Then,
α = (Q [j] T Q [j]) −1 Q [j] T (r−r [0])
Can be obtained as Note that q (0) = q (1) [0] =... = Q (E) [0] indicates subsample deformation data when there is no expression.

また、上述の処理で得られた射影係数α(1),…,α(E)を用い、フレームjでの基底メッシュ変形データp(1)[j]−p[0],…,p(E)[j]−p[0]の重み付き線形組み合わせを計算し、その計算結果を変形データとして変形部24に出力する。なお、p[0]=p(1)[0]=…=p(E)[0]は無表情の時の基底メッシュ変形データを示している。   Further, using the projection coefficients α (1),..., Α (E) obtained by the above processing, the base mesh deformation data p (1) [j] −p [0],. E) A weighted linear combination of [j] -p [0] is calculated, and the calculation result is output to the deformation unit 24 as deformation data. Note that p [0] = p (1) [0] =... = P (E) [0] indicates the base mesh deformation data when there is no expression.

変形部24は、表示用仮想3次元顔モデルのメッシュs[0]に変形推定部22から得られる変形データを加算して(組み合わせて)変形させ、その結果として得られるメッシュsを出力する。なお、s[0]は無表情の状態にあることを示している。ここで、
P[j]=[p(1)[j]−p[0] … p(E)[j]−p[0]]
とすると、出力する変形されたメッシュは、
s=s[0]+α(1)(p(1)[j]−p[0])+…+α(E)(p(E)[j]−p[0])=s[0]+P[j]α.
として求めることができる。
The deformation unit 24 adds (combines) the deformation data obtained from the deformation estimation unit 22 to the mesh s [0] of the display virtual three-dimensional face model, and outputs the resulting mesh s. Note that s [0] indicates that there is no expression. here,
P [j] = [p (1) [j] −p [0]... P (E) [j] −p [0]]
Then, the deformed mesh to be output is
s = s [0] + α (1) (p (1) [j] −p [0]) +... + α (E) (p (E) [j] −p [0]) = s [0] + P [J] α.
Can be obtained as

ここで、学習データの中に基底表情として使用するフレームjを選択するには複数の可能性がある。例えば、j=F(学習データの「満表情」を示す最後のフレーム)に固定した場合、各フレームでの出力メッシュ変形分s−s[0]はp(1)[F]−p[0],…,p(E)[F]−p[0]の組み合わせとなり、これは通常のブレンド・シェイプ方法に相当する。なお、計算量を重視する場合には、これが最良な選択となる。   Here, there are a plurality of possibilities for selecting the frame j to be used as the base expression in the learning data. For example, when j = F (the last frame indicating “full expression” of the learning data) is fixed, the output mesh deformation s−s [0] in each frame is p (1) [F] −p [0. ],..., P (E) [F] -p [0], which corresponds to a normal blend shape method. Note that this is the best choice when the amount of calculation is important.

一方、入力特徴点が無表情から満表情まで変形するにつれて、フレームjも変わる可能性があれば、結果の近似誤差を減少することができる。しかしながら、フレームjを小さく設定すると、変形ベクトルp()[j]−p[0]、又はq()[j]−q[0]も小さくなり、ノイズが比較的大きくなってしまう。したがって、本実施形態では、図5に示すように、変形ベクトルが充分大きくなるフレーム(フレームJ)とする)以降の変形データを使用する。   On the other hand, if the frame j is likely to change as the input feature point is transformed from an expressionless expression to a full expression, the resulting approximation error can be reduced. However, if the frame j is set small, the deformation vector p () [j] -p [0] or q () [j] -q [0] also becomes small, and the noise becomes relatively large. Therefore, in this embodiment, as shown in FIG. 5, the deformation data after the frame (frame J) in which the deformation vector becomes sufficiently large is used.

なお、フレームj>=Jを選択する方法の一つとして、例えば、入力特徴点の変形ベクトルr−r[0]の大きさに相当するフレームjを次のアルゴリズムにより設定する。   As one method for selecting frame j> = J, for example, a frame j corresponding to the magnitude of the deformation vector rr [0] of the input feature point is set by the following algorithm.

j=(int)(k*|r−r[0]|;
if (j<J) j:=J;
ここでは、定数のk(勾配)は、システムのパラメータ等に依存するので、実験等により設定する。
j = (int) (k * | r−r [0] |;
if (j <J) j: = J;
Here, the constant k (gradient) depends on system parameters and the like, and is therefore set by experimentation or the like.

したがって、上述したように、出力表情の近似は、入力特徴点の変形ベクトル|r−r[0]|が小さい場合には、基底メッシュ変形データのフレームJのブレンド・シェイプ組み合わせとなり、|r−r[0]|が充分大きい場合には、その大きさに相当する基底メッシュ変形データのフレームJ<=j<=Fのブレンド・シェイプ組み合わせとなる。   Therefore, as described above, when the deformation vector | r−r [0] | of the input feature point is small, the approximation of the output facial expression becomes a blend shape combination of the frame J of the base mesh deformation data, and | r− When r [0] | is sufficiently large, a blend shape combination of frames J <= j <= F of the base mesh deformation data corresponding to the size is obtained.

なお、メモリ等の容量や処理計算量等によって、この2つの例(変形データのフレームJ<=j<=Fを使用する例と、フレームJ=Fのみを使用する例)以外の別の設定方法もある。例えば、図5に示された基底ベクトルの幾つかだけを用いることは、全てを用いることにより計算量が軽くなる。   Depending on the capacity of the memory or the like, the amount of processing calculation, etc., other settings other than these two examples (an example using the frame J <= j <= F of the modified data and an example using only the frame J = F) There is also a method. For example, using only some of the basis vectors shown in FIG. 5 reduces the amount of calculation by using all of them.

したがって、変形部24は、予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整する。これにより、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができる。これにより、高精度な変形データを取得することができる。   Therefore, the deformation unit 24 adjusts the number of times of use of time-series data of dynamic deformation associated with facial expressions for a plurality of preset virtual face models. Thereby, it is possible to adjust in detail according to the performance of the apparatus, the degree of quality of the output result, the desired processing speed, and the like. Thereby, highly accurate deformation data can be acquired.

逆に、J<=j<=Fの全てのフレームでの変形データの組み合わせをとると近似誤差が最小となるが、計算量が重くなる。したがって、所望する条件に応じて任意に設定することができる。   On the other hand, if the combination of the deformation data in all the frames of J <= j <= F is taken, the approximation error is minimized, but the calculation amount is heavy. Therefore, it can be arbitrarily set according to desired conditions.

上述したように、本実施形態によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することできる。   As described above, according to this embodiment, it is possible to acquire a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy.

<仮想顔モデル変形プログラム>
ここで、仮想顔モデル変形装置13は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
<Virtual face model transformation program>
Here, the virtual face model deforming device 13 includes a volatile storage medium such as a CPU and a RAM, a non-volatile storage medium such as a ROM, an input device such as a mouse, a keyboard, and a pointing device, and a display unit that displays images and data. And a computer having an interface for communicating with the outside.

したがって、仮想顔モデル変形装置13に備えた入力部21、変形推定部22、変形部24、表示部26、及び出力部27における各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Therefore, each function in the input unit 21, the deformation estimation unit 22, the deformation unit 24, the display unit 26, and the output unit 27 included in the virtual face model deformation device 13 causes the CPU to execute a program describing these functions. Can be realized respectively. These programs can also be stored and distributed in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(仮想顔モデル変形プログラム)を生成し、例えば、汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、仮想顔モデル変形処理を実現することができる。   That is, an execution program (virtual face model deformation program) for causing a computer to execute the processing in each configuration described above is generated, and the program is installed in, for example, a general-purpose personal computer or a server, so that the virtual face model deformation is performed. Processing can be realized.

<ハードウェア構成>
ここで、本発明における実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図6は、本発明における仮想顔モデル変形処理が実現可能なハードウェア構成の一例を示す図である。
<Hardware configuration>
Here, an example of a hardware configuration of an executable computer in the present invention will be described with reference to the drawings. FIG. 6 is a diagram illustrating an example of a hardware configuration capable of realizing the virtual face model deformation process according to the present invention.

図6におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   6 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 for performing various controls, and a network connection device. 57 are connected to each other by a system bus B.

入力装置51は、使用者等が操作するキーボード及びマウス等のポインティングデバイスやマイク等の音声入力デバイス等を有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイや音声を出力するスピーカ等を有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示又は音声出力することができる。   The input device 51 includes a keyboard and a pointing device such as a mouse operated by a user, a voice input device such as a microphone, and the like, and inputs various operation signals such as execution of a program from the user. The output device 52 includes a display for displaying various windows and data necessary for operating the computer main body for performing processing in the present invention, a speaker for outputting sound, and the like, and the program of the program is controlled by the control program of the CPU 56. Execution progress, results, etc. can be displayed or voice output.

ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えば光ディスク等の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。   Here, in the present invention, the execution program installed in the computer main body is provided by the recording medium 58 such as an optical disk, for example. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.

補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.

メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 55 stores an execution program or the like read from the auxiliary storage device 54 by the CPU 56. The memory device 55 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU56は、OS(Operating System)等の制御プログラム、メモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。また、CPU56は、プログラムの実行中に必要な各種情報を補助記憶装置54から取得することができ、またCPU56は、処理結果等を格納することもできる。   The CPU 56 controls processing of the entire computer, such as various operations and data input / output with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 55. Each processing can be realized. Further, the CPU 56 can acquire various types of information necessary during execution of the program from the auxiliary storage device 54, and the CPU 56 can also store processing results and the like.

ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 57 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで効率的に仮想顔モデル変形処理を実現することができる。また、プログラムをインストールすることにより、容易に所定の表情に変形させた仮想顔モデルを取得することができる。   With the hardware configuration as described above, it is possible to efficiently realize the virtual face model deformation process at a low cost without requiring a special device configuration. In addition, by installing the program, a virtual face model that is easily transformed into a predetermined facial expression can be acquired.

<仮想顔モデル変形処理手順>
次に、本発明における実行プログラム(仮想顔モデル変形プログラム)による仮想顔モデル変形処理手順についてフローチャートを用いて説明する。図7は、本実施形態における仮想顔モデル変形処理手順の一例を示すフローチャートである。
<Virtual face model deformation processing procedure>
Next, the virtual face model deformation processing procedure by the execution program (virtual face model deformation program) in the present invention will be described using a flowchart. FIG. 7 is a flowchart illustrating an example of a virtual face model deformation process procedure according to the present embodiment.

図7において、上述したようにカメラ等により撮影された出演者等の被写体の顔画像から、顔特徴点追跡装置等を用いて処理することで得られる顔の各特徴点の位置情報としての座標情報を含む動画像を入力する(S01)。次に、入力した各特徴点の座標情報から上述した変形データベース23等を用いて入力した顔の各特徴点の座標に対応する変形データを推定する(S02)。   In FIG. 7, as described above, coordinates as position information of each feature point of a face obtained by processing using a face feature point tracking device or the like from a face image of a subject such as a performer photographed by a camera or the like. A moving image including information is input (S01). Next, deformation data corresponding to the coordinates of each feature point of the face input using the above-described deformation database 23 is estimated from the coordinate information of each input feature point (S02).

次に、予め設定される複数の仮想顔モデルの集合から表示用の仮想顔モデルを選択し(S03)、更に必要に応じて動画像に対して動的変形の時系列データをどの程度使用するか、その使用数を調整する(S04)。また、S01の処理にて入力した顔の特徴点の座標と近似(一致含む)するように仮想顔モデルに変形データを組み合わせて仮想顔モデルの表情を変形し(S05)、変形された仮想顔モデルをディスプレイ等の表示部に表示する(S06)。   Next, a virtual face model for display is selected from a set of a plurality of virtual face models set in advance (S03), and how much time series data of dynamic deformation is used for the moving image as necessary. Or the number of uses is adjusted (S04). Further, the facial expression of the virtual face model is transformed by combining the virtual face model with the transformation data so as to approximate (including matching) the coordinates of the facial feature point input in the process of S01 (S05). The model is displayed on a display unit such as a display (S06).

なお、上述したS06の処理の代わりに、変形された仮想顔モデルを所定のフィーマット形式のファイルを生成し、蓄積部に蓄積してもよく、外部装置に出力してもよい。   Instead of the above-described processing of S06, a file having a predetermined format may be generated from the deformed virtual face model and stored in the storage unit or output to an external device.

上述したように、本発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。具体的に説明すると、顔のCGモデルに表情を演じさせる従来の技術に比べて、本発明は、出演者(被写体)の顔において追跡される特徴点の位置に基づき、CGモデル(仮想顔モデル)で出演者の表情を近似させることにより,直接CGモデルを詳細に調整して表情を制作するよりも、より自然に見えると共に手間がかからなくなる。   As described above, according to the present invention, it is possible to acquire a virtual face model that has been transformed into a predetermined facial expression efficiently and with high accuracy. More specifically, in comparison with the conventional technique in which a facial CG model plays a facial expression, the present invention is based on the position of a feature point tracked in the face of a performer (subject) and a CG model (virtual face model). ), The appearance of the performer is approximated, so that it looks more natural and takes less time than directly adjusting the CG model in detail.

また、予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて変形データを推定することにより、メッシュの頂点を基準にして、変形データを推定することができ、この変形データを用いて被写体の表情に対応した仮想顔モデルの表情を高精度に変形させることができる。また、射影係数等を用いて変形データを生成することで、部分空間に属する成分のみが残り、部分空間に直交する成分は除去することができる。そのため、効率的かつ高精度に仮想顔モデルの変形に必要な変形データを取得することができる。   In addition, it is possible to estimate deformation data based on mesh vertices by estimating deformation data using a deformation database having base mesh deformation data corresponding to a plurality of facial expressions of a plurality of preset models. It is possible to deform the expression of the virtual face model corresponding to the expression of the subject with high accuracy using the deformation data. Further, by generating deformation data using a projection coefficient or the like, only the components belonging to the partial space remain, and the components orthogonal to the partial space can be removed. Therefore, deformation data necessary for the deformation of the virtual face model can be acquired efficiently and with high accuracy.

また、CGソフトウェアがよく提供する「ブレンド・シェイプ」という幾つか固定したCGモデルの形状を組み合わせる機能を用いて、表情に伴う動的変形の時系列データを組み合わせることにより表情の近似誤差を減少することができる。更に、動的変形の時系列データをどの程度使用するか調整することにより、目盛りや計算量を調整することができる。   In addition, using the function of combining several fixed CG model shapes called “Blend Shape” that CG software often provides, the approximation error of facial expressions is reduced by combining time-series data of dynamic deformation accompanying facial expressions. be able to. Furthermore, the scale and calculation amount can be adjusted by adjusting how much the time series data of dynamic deformation is used.

なお、上述した実施形態は、3次元モデルに適用可能であるが、これに限定されず、例えば2次元モデル等についても適用可能である。また、本発明は、コンピュータグラフィックス(CG)やコンピュータアニメーション等の技術分野に広く適用することができる。   The embodiment described above can be applied to a three-dimensional model, but is not limited thereto, and can be applied to, for example, a two-dimensional model. The present invention can be widely applied to technical fields such as computer graphics (CG) and computer animation.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

本実施形態における仮想顔モデル変形システムの一構成例を示す図である。It is a figure which shows the example of 1 structure of the virtual face model deformation | transformation system in this embodiment. 抽出される顔の特徴点の一例を示す図である。It is a figure which shows an example of the feature point of the extracted face. 変形データベースの構築までの処理の流れを説明するための一例の図である。It is a figure of an example for demonstrating the flow of a process until construction of a deformation | transformation database. 本実施形態における変形推定部と変形部の処理の流れを説明するための一例の図である。It is a figure of an example for demonstrating the flow of a process of the deformation | transformation estimation part in this embodiment, and a deformation | transformation part. 基底表情として使用される変形データのフレーム位置の設定を説明するための一例の図である。It is a figure of an example for demonstrating the setting of the frame position of the deformation data used as a base expression. 本発明における仮想顔モデル変形処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the virtual face model deformation | transformation process in this invention. 本実施形態における仮想顔モデル変形処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the virtual face model deformation | transformation process procedure in this embodiment.

符号の説明Explanation of symbols

10 仮想顔モデル変形システム
11 カメラ
12 顔特徴点追跡装置
13 仮想顔モデル変形装置
21 入力部
22 変形推定部
23 変形データベース
24 変形部
25 表示用仮想3次元顔モデル集合部
26 表示部
27 出力部
31 被写体
41 学習用メッシュ変形データ
42 全人物のメッシュ頂点座標の平均情報
43 サブサンプル
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
DESCRIPTION OF SYMBOLS 10 Virtual face model deformation | transformation system 11 Camera 12 Face feature point tracking apparatus 13 Virtual face model deformation | transformation apparatus 21 Input part 22 Deformation estimation part 23 Deformation database 24 Deformation part 25 Display virtual three-dimensional face model collection part 26 Display part 27 Output part 31 Subject 41 Learning mesh deformation data 42 Average information of mesh vertex coordinates of all persons 43 Subsample 51 Input device 52 Output device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 CPU
57 Network connection device 58 Recording medium

Claims (6)

撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形装置において、
前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力部と、
予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力部により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定部と、
前記変形推定部により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形部とを有することを特徴とする仮想顔モデル変形装置。
In a virtual face model transformation device that transforms the facial expression of a virtual face model in accordance with the facial expression of a photographed subject,
An input unit for inputting position information of a plurality of feature points set in advance from the face of the subject;
A deformation estimation unit that estimates deformation data corresponding to position information of a plurality of feature points input by the input unit using deformation data of facial expressions obtained from a plurality of facial images for learning accumulated in advance;
A deformation unit that deforms the expression of the virtual face model by combining the deformation data estimated by the deformation estimation unit with a virtual face model selected from a set of a plurality of virtual face models set in advance. Virtual face model deformation device.
前記変形推定部は、
予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて前記位置情報に近似する変形データを推定することを特徴とする請求項1に記載の仮想顔モデル変形装置。
The deformation estimation unit includes:
The virtual face model according to claim 1, wherein deformation data that approximates the position information is estimated using a deformation database having base mesh deformation data corresponding to a plurality of facial expressions of a plurality of models set in advance. Deformation device.
前記変形推定部は、
前記入力部により入力される被写体の顔の表情に対応した特徴点の位置ベクトルから、前記モデルの無表情のときの位置ベクトルを差分して得られる入力特徴点の変形ベクトルを、ある画像フレームにおける部分空間上に射影することで射影係数を求め、前記射影係数により変形データを生成することを特徴とする請求項1又は2に記載の仮想顔モデル変形装置。
The deformation estimation unit includes:
A deformation vector of an input feature point obtained by subtracting a position vector at the time of expressionlessness of the model from a position vector of a feature point corresponding to a facial expression of the subject input by the input unit in a certain image frame 3. The virtual face model deformation apparatus according to claim 1, wherein a projection coefficient is obtained by projecting onto a partial space, and deformation data is generated based on the projection coefficient.
前記変形部は、
前記特徴点の位置情報に近似するように前記変形データと仮想顔モデルのメッシュデータを組み合わせて仮想顔モデルの表情を変形させることを特徴とする請求項1乃至3の何れか1項に記載の仮想顔モデル変形装置。
The deformation part is
The expression of the virtual face model is deformed by combining the deformation data and the mesh data of the virtual face model so as to approximate the position information of the feature point. Virtual face model deformation device.
前記変形部は、
前記予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整することを特徴とする請求項1乃至4の何れか1項に記載の仮想顔モデル変形装置。
The deformation part is
5. The virtual face model deformation apparatus according to claim 1, wherein the number of uses of time-series data of dynamic deformation associated with a facial expression of the plurality of preset virtual face models is adjusted. .
撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形プログラムにおいて、
コンピュータに、
前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力処理と、
予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力処理により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定処理と、
前記変形推定処理により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形処理とを実行させる仮想顔モデル変形プログラム。
In the virtual face model transformation program that transforms the facial expression of the virtual face model according to the facial expression of the photographed subject,
On the computer,
An input process for inputting positional information of a plurality of feature points set in advance from the face of the subject;
Deformation estimation processing for estimating deformation data corresponding to position information of a plurality of feature points input by the input processing using deformation data of facial expressions obtained from a plurality of facial images for learning accumulated in advance;
Virtual face model deformation for executing deformation processing for deforming a facial expression of a virtual face model by combining deformation data estimated by the deformation estimation processing with a virtual face model selected from a set of a plurality of virtual face models set in advance program.
JP2007244361A 2007-09-20 2007-09-20 Virtual face model deformation device and virtual face model deformation program Expired - Fee Related JP4886645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007244361A JP4886645B2 (en) 2007-09-20 2007-09-20 Virtual face model deformation device and virtual face model deformation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007244361A JP4886645B2 (en) 2007-09-20 2007-09-20 Virtual face model deformation device and virtual face model deformation program

Publications (2)

Publication Number Publication Date
JP2009075880A true JP2009075880A (en) 2009-04-09
JP4886645B2 JP4886645B2 (en) 2012-02-29

Family

ID=40610781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007244361A Expired - Fee Related JP4886645B2 (en) 2007-09-20 2007-09-20 Virtual face model deformation device and virtual face model deformation program

Country Status (1)

Country Link
JP (1) JP4886645B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160937A (en) * 2011-02-01 2012-08-23 Casio Comput Co Ltd Image processor, image processing method, and program
JP2013535051A (en) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション Real-time animation of facial expressions
US8792708B2 (en) 2009-11-13 2014-07-29 Samsung Electronics Co., Ltd. Method and apparatus for rendering a three-dimensional object from a two-dimensional image
CN105335991A (en) * 2014-06-27 2016-02-17 联想(北京)有限公司 Information processing method and electronic device
KR20190002081A (en) * 2017-06-29 2019-01-08 라인 가부시키가이샤 Method and system for image processing
KR20190039045A (en) * 2019-04-01 2019-04-10 라인 가부시키가이샤 Method and system for image processing
JP2019153863A (en) * 2018-03-01 2019-09-12 ソニー株式会社 Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method
KR20200005964A (en) * 2018-07-09 2020-01-17 에스케이텔레콤 주식회사 Method and apparatus for processing face image
CN110941332A (en) * 2019-11-06 2020-03-31 北京百度网讯科技有限公司 Expression driving method and device, electronic equipment and storage medium
KR20200140550A (en) * 2019-06-07 2020-12-16 주식회사 네오시큐 Method for generating analogical face and method for recognizing face using the same
CN112150594A (en) * 2020-09-23 2020-12-29 网易(杭州)网络有限公司 Expression making method and device and electronic equipment
CN113674385A (en) * 2021-08-05 2021-11-19 北京奇艺世纪科技有限公司 Virtual expression generation method and device, electronic equipment and storage medium
CN114694221A (en) * 2016-10-31 2022-07-01 谷歌有限责任公司 Face reconstruction method based on learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018828A (en) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc Method for constructing variable multilinear model representing class of deformable surface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018828A (en) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc Method for constructing variable multilinear model representing class of deformable surface

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8792708B2 (en) 2009-11-13 2014-07-29 Samsung Electronics Co., Ltd. Method and apparatus for rendering a three-dimensional object from a two-dimensional image
US9443345B2 (en) 2009-11-13 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus for rendering three-dimensional (3D) object
JP2013535051A (en) * 2010-06-09 2013-09-09 マイクロソフト コーポレーション Real-time animation of facial expressions
JP2012160937A (en) * 2011-02-01 2012-08-23 Casio Comput Co Ltd Image processor, image processing method, and program
CN105335991A (en) * 2014-06-27 2016-02-17 联想(北京)有限公司 Information processing method and electronic device
CN114694221A (en) * 2016-10-31 2022-07-01 谷歌有限责任公司 Face reconstruction method based on learning
KR20190002081A (en) * 2017-06-29 2019-01-08 라인 가부시키가이샤 Method and system for image processing
KR101966384B1 (en) * 2017-06-29 2019-08-13 라인 가부시키가이샤 Method and system for image processing
US10878224B2 (en) 2017-06-29 2020-12-29 Line Corporation Method and system for image processing
US11508123B2 (en) 2018-03-01 2022-11-22 Sony Corporation Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method for processing multiple video camera image streams to generate stroboscopic images
JP7119425B2 (en) 2018-03-01 2022-08-17 ソニーグループ株式会社 Image processing device, encoding device, decoding device, image processing method, program, encoding method and decoding method
JP2019153863A (en) * 2018-03-01 2019-09-12 ソニー株式会社 Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method
KR102109818B1 (en) * 2018-07-09 2020-05-13 에스케이텔레콤 주식회사 Method and apparatus for processing face image
KR20200005964A (en) * 2018-07-09 2020-01-17 에스케이텔레콤 주식회사 Method and apparatus for processing face image
KR102238036B1 (en) * 2019-04-01 2021-04-08 라인 가부시키가이샤 Method and system for image processing
KR20190039045A (en) * 2019-04-01 2019-04-10 라인 가부시키가이샤 Method and system for image processing
KR102280361B1 (en) * 2019-06-07 2021-07-22 주식회사 네오시큐 Method for generating analogical face and method for recognizing face using the same
KR20200140550A (en) * 2019-06-07 2020-12-16 주식회사 네오시큐 Method for generating analogical face and method for recognizing face using the same
CN110941332A (en) * 2019-11-06 2020-03-31 北京百度网讯科技有限公司 Expression driving method and device, electronic equipment and storage medium
CN112150594A (en) * 2020-09-23 2020-12-29 网易(杭州)网络有限公司 Expression making method and device and electronic equipment
CN112150594B (en) * 2020-09-23 2023-07-04 网易(杭州)网络有限公司 Expression making method and device and electronic equipment
CN113674385A (en) * 2021-08-05 2021-11-19 北京奇艺世纪科技有限公司 Virtual expression generation method and device, electronic equipment and storage medium
CN113674385B (en) * 2021-08-05 2023-07-18 北京奇艺世纪科技有限公司 Virtual expression generation method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4886645B2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
JP4886645B2 (en) Virtual face model deformation device and virtual face model deformation program
Thies et al. Real-time expression transfer for facial reenactment.
US8681158B1 (en) Using animation libraries for object identification
US8941665B1 (en) Model production for animation libraries
US8861800B2 (en) Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
JP4950787B2 (en) Image processing apparatus and method
US8199152B2 (en) Combining multiple session content for animation libraries
Bao et al. High-fidelity 3d digital human head creation from rgb-d selfies
US8854376B1 (en) Generating animation from actor performance
US8923392B2 (en) Methods and apparatus for face fitting and editing applications
US20020041285A1 (en) Non-linear morphing of faces and their dynamics
EP3859681A1 (en) Method for generating facial animation from single image
JP2007265396A (en) Method and system for generating face model
JP2002170112A (en) Computer readable recording medium recording resolution conversion program, and resolution conversion apparatus and method
KR20160098560A (en) Apparatus and methdo for analayzing motion
US20220398797A1 (en) Enhanced system for generation of facial models and animation
JP2008102972A (en) Automatic 3d modeling system and method
JP2002024811A (en) Shadow component removing device
US20220398795A1 (en) Enhanced system for generation of facial models and animation
JP2009545083A (en) FACS (Facial Expression Coding System) cleaning in motion capture
JP2009211513A (en) Image processing apparatus and method therefor
Neophytou et al. Shape and pose space deformation for subject specific animation
JPH10240908A (en) Video composing method
Paier et al. Example-based facial animation of virtual reality avatars using auto-regressive neural networks
JP2020149174A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4886645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees