JP2003022451A - Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation - Google Patents

Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation

Info

Publication number
JP2003022451A
JP2003022451A JP2001206479A JP2001206479A JP2003022451A JP 2003022451 A JP2003022451 A JP 2003022451A JP 2001206479 A JP2001206479 A JP 2001206479A JP 2001206479 A JP2001206479 A JP 2001206479A JP 2003022451 A JP2003022451 A JP 2003022451A
Authority
JP
Japan
Prior art keywords
texture
image
shape
data
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001206479A
Other languages
Japanese (ja)
Inventor
Hiroshi Hasegawa
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001206479A priority Critical patent/JP2003022451A/en
Publication of JP2003022451A publication Critical patent/JP2003022451A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To restore an image to a shape having nearly the same precision as the original image. SOLUTION: An image composing method includes a step (S01) for receiving the original image, a step (S03) for generating the parameters of a reference model by extracting shape data showing the shape of an object and texture data representing a texture corresponding to the shape data from the inputted original image and projecting them on the reference model, a step (S04) for changing at least one element of the generated parameters, a step (S05) for reconstituting the shape data and texture data of the object corresponding to the changed parameters, a step (S06) for correcting the reconstituted texture data by using the texture data extracted from the original image, and a step (S08) for generating an image by using the reconstituted shape data and reconstituted texture data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は画像生成方法、画
像生成プログラム、画像生成プログラムを記録したコン
ピュータ読取可能な記録媒体および画像生成装置に関
し、特に、入力された画像をオブジェクトモデル空間に
射影して編集することが可能な画像生成方法、画像生成
プログラム、画像生成プログラムを記録したコンピュー
タ読取可能な記録媒体および画像生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generation method, an image generation program, a computer-readable recording medium recording the image generation program, and an image generation apparatus, and more particularly, it projects an input image onto an object model space. The present invention relates to an editable image generating method, an image generating program, a computer-readable recording medium recording the image generating program, and an image generating apparatus.

【0002】[0002]

【従来の技術】従来、人物の顔を含む顔画像を固有空間
モデル上にマッピングすることにより、主として顔の表
情などの特徴をより低次元の表現で説明する方法が知ら
れている。特開平10−228544号公報には、入力
影像を固有顔データベースを用いて符号化する技術が開
示されている。符号化には、主成分分析として知られる
ているKL(Karhuuen-Loeve)拡張が用いられる。KL
拡張を用いて入力影像を符号化することにより、特徴の
変化を説明するためのより低次元の表現を見つけること
ができる。そして、特開平10−228544号公報で
は、入力された顔画像を固有顔データベースを用いてよ
り低次元の空間内の点で表わした固有顔の符号化係数
(固有値)を送信し、受信側に設けられた固有顔データ
ベースを用いて、受信した固有顔の符号化係数から顔の
影像を復元するものである。
2. Description of the Related Art Conventionally, a method is known in which a facial image including a human face is mapped on an eigenspace model to mainly describe features such as facial expressions in a lower dimensional expression. Japanese Unexamined Patent Application Publication No. 10-228544 discloses a technique of encoding an input image using an eigenface database. For encoding, the KL (Karhuuen-Loeve) extension known as principal component analysis is used. KL
By encoding the input image with extensions, a lower dimensional representation can be found to explain the change in features. In Japanese Patent Laid-Open No. 10-228544, the coding coefficient (eigenvalue) of the eigenface, which represents the input face image by points in a lower dimensional space using the eigenface database, is transmitted to the receiving side. Using a provided eigenface database, a face image is reconstructed from the received eigenface coding coefficients.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、特開平
10−228544号公報では、固有顔データベースを
用いて符号化することにより得られた符号化係数を、そ
のまま固有顔データベースを用いて復号することにより
顔の影像を復元するものである。このため、送信側で符
号化に用いられた顔の影像と、受信側で復元された顔の
影像とは同じ表情の影像となる。したがって、表情を変
化させることはできない。
However, in Japanese Patent Laid-Open No. 10-228544, the coding coefficient obtained by coding using the eigenface database is directly decoded using the eigenface database. It restores the image of the face. Therefore, the image of the face used for encoding on the transmitting side and the image of the face restored on the receiving side have the same facial expression. Therefore, the facial expression cannot be changed.

【0004】また、固有顔データベースを用いて固有顔
の影像を復号化する場合、符号化係数は、影像よりも低
次元の空間内の点で表現されるため、固有顔データベー
スを用いて復号した影像は、元の影像がそのまま復元さ
れることはなく、形状が異なったり、解像度が低くなっ
たりするといった問題があった。
Further, when the eigenface image is decoded using the eigenface database, the coding coefficient is represented by a point in a space lower in dimension than the image, and therefore the eigenface database is used for decoding. As for the image, the original image is not restored as it is, and there are problems that the shape is different and the resolution is lowered.

【0005】この発明は上述の問題点を解決するために
なされたもので、この発明の目的の1つは、オブジェク
トモデル空間における形状の精度が原画像に比べて悪い
場合であっても、原画像とほぼ同程度の精度の形状で画
像を復元することが可能な画像生成方法、画像生成プロ
グラム、画像生成プログラムを記録したコンピュータ読
取可能な記録媒体、および画像生成装置を提供すること
である。
The present invention has been made to solve the above-mentioned problems, and one of the objects of the present invention is to solve the problem even if the accuracy of the shape in the object model space is worse than the original image. An object of the present invention is to provide an image generation method, an image generation program, a computer-readable recording medium recording the image generation program, and an image generation apparatus capable of restoring the image with a shape having substantially the same accuracy as the image.

【0006】この発明の他の目的は、オブジェクトモデ
ル空間におけるテクスチャの精度が原画像に比べて悪い
場合であっても、原画像とほぼ同程度の精度のテクスチ
ャで画像を復元することが可能な画像生成方法、画像生
成プログラム、画像生成プログラムを記録したコンピュ
ータ読取可能な記録媒体、および画像生成装置を提供す
ることである。
Another object of the present invention is to be able to restore an image with a texture having substantially the same accuracy as the original image even if the accuracy of the texture in the object model space is worse than that of the original image. An object is to provide an image generation method, an image generation program, a computer-readable recording medium recording the image generation program, and an image generation device.

【0007】[0007]

【課題を解決するための手段】上述の目的を達成するた
めにこの発明のある局面によれば、画像生成方法は、原
画像の入力を受付けるステップと、入力された原画像か
らオブジェクトの形状を表わす形状データおよび形状デ
ータに対応したテクスチャを表わすテクスチャデータを
抽出するステップと、同一の属性を有する複数のオブジ
ェクト画像を統計的に解析して得られたオブジェクトモ
デル空間に、抽出された形状データおよびテクスチャデ
ータを射影してオブジェクトモデル空間におけるパラメ
ータを生成するステップと、生成されたパラメータの少
なくとも1つの要素を変更するステップと、変更された
パラメータに対応するオブジェクトの形状データとテク
スチャデータとを再構成するステップと、原画像から抽
出されたテクスチャデータを用いて、再構成されたテク
スチャデータを補正するステップと、再構成された形状
データと再構成されたテクスチャデータとを用いて画像
を生成するステップとを含む。
According to one aspect of the present invention for achieving the above object, an image generation method includes a step of receiving an input of an original image, and a method of determining an object shape from the input original image. Extracting the shape data representing the shape data and the texture data representing the texture corresponding to the shape data, and extracting the shape data extracted into the object model space obtained by statistically analyzing a plurality of object images having the same attribute. Projecting the texture data to generate parameters in the object model space, changing at least one element of the generated parameters, and reconstructing shape data and texture data of the object corresponding to the changed parameters. And the texture extracted from the original image. Data using, comprises the steps of correcting the texture data reconstructed, and generating an image using the texture data reconstructed and the reconstructed shape data.

【0008】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出されたテクスチャデータを用いて再
構成されたテクスチャデータが補正される。このため、
オブジェクトモデル空間におけるテクスチャの精度が原
画像に比べて悪い場合であっても、原画像とほぼ同程度
の精度のテクスチャで画像を復元することが可能な画像
生成方法を提供することができる。
According to the present invention, the reconstructed texture data is corrected using the texture data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. It For this reason,
Even when the accuracy of the texture in the object model space is poorer than that of the original image, it is possible to provide an image generation method capable of restoring the image with the texture of about the same accuracy as the original image.

【0009】好ましくは、原画像から抽出された形状デ
ータを用いて再構成された形状データを補正するステッ
プをさらに含む。
Preferably, the method further comprises the step of correcting the reconstructed shape data using the shape data extracted from the original image.

【0010】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出された形状データを用いて再構成さ
れた形状データが補正される。このため、オブジェクト
モデル空間における形状の精度が原画像に比べて悪い場
合であっても、原画像とほぼ同程度の精度の形状で画像
を復元することが可能な画像生成方法を提供することが
できる。
According to the present invention, the reconstructed shape data is corrected using the shape data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. It Therefore, even if the accuracy of the shape in the object model space is poorer than that of the original image, it is possible to provide an image generation method capable of restoring an image with a shape having almost the same accuracy as the original image. it can.

【0011】好ましくは、再構成されたテクスチャデー
タを補正するステップは、原画像から抽出されたテクス
チャデータと原画像から抽出された形状データとを用い
て再構成されたテクスチャデータを補正するステップを
さらに含む。
Preferably, the step of correcting the reconstructed texture data includes the step of correcting the reconstructed texture data using the texture data extracted from the original image and the shape data extracted from the original image. Including further.

【0012】この発明に従えば、原画像から抽出された
テクスチャデータと原画像から抽出された形状データと
を用いて再構成されたテクスチャデータが補正されるの
で、再構成されたテクスチャデータを部分的に補正する
ことができる。
According to the present invention, the reconstructed texture data is corrected using the texture data extracted from the original image and the shape data extracted from the original image. Can be corrected dynamically.

【0013】この発明の他の局面によれば、画像生成方
法は、原画像の入力を受付けるステップと、入力された
原画像からオブジェクトの形状を表わす形状データおよ
び形状データに対応したテクスチャを表わすテクスチャ
データを抽出するステップと、同一の属性を有する複数
のオブジェクト画像を統計的に解析して得られたオブジ
ェクトモデル空間に、抽出された形状データおよびテク
スチャデータを射影してオブジェクトモデル空間におけ
るパラメータを生成するステップと、生成されたパラメ
ータの少なくとも1つの要素を変更するステップと、変
更されたパラメータに対応するオブジェクトの形状デー
タとテクスチャデータとを再構成するステップと、原画
像から抽出された形状データを用いて、再構成された形
状データを補正するステップと、再構成された形状デー
タと再構成されたテクスチャデータとを用いて画像を生
成するステップとを含む。
According to another aspect of the present invention, an image generation method includes a step of receiving an input of an original image, shape data representing a shape of an object from the input original image, and a texture representing a texture corresponding to the shape data. Generate the parameters in the object model space by projecting the extracted shape data and texture data onto the object model space obtained by statistically analyzing the step of extracting data and multiple object images having the same attributes. , Changing at least one element of the generated parameter, reconstructing the shape data and texture data of the object corresponding to the changed parameter, and the shape data extracted from the original image. To correct the reconstructed shape data using Comprising a step, and generating an image using the shape data reconstructed reconstructed texture data.

【0014】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出された形状データを用いて再構成さ
れた形状データが補正されるので、オブジェクトモデル
空間における形状の精度が原画像に比べて悪い場合であ
っても、原画像とほぼ同程度の精度の形状で画像を復元
することが可能な画像生成方法を提供することができ
る。
According to the present invention, the reconstructed shape data is corrected by using the shape data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. Therefore, even if the accuracy of the shape in the object model space is lower than that of the original image, it is possible to provide an image generation method capable of restoring an image with a shape having substantially the same accuracy as the original image. it can.

【0015】好ましくは、再構成されたテクスチャデー
タを補正するステップは、原画像から抽出されたテクス
チャデータと原画像から抽出された形状データとを用い
て再構成されたテクスチャデータを補正するステップを
さらに含む。
Preferably, the step of correcting the reconstructed texture data includes the step of correcting the reconstructed texture data using the texture data extracted from the original image and the shape data extracted from the original image. Including further.

【0016】この発明に従えば、原画像から抽出された
テクスチャデータと原画像から抽出された形状データと
を用いて再構成されたテクスチャデータが補正されるの
で、再構成されたテクスチャデータを部分的に補正する
ことができる。
According to the present invention, the reconstructed texture data is corrected using the texture data extracted from the original image and the shape data extracted from the original image. Can be corrected dynamically.

【0017】好ましくは、同一の属性を有する複数のオ
ブジェクト画像を統計的に解析して得られたオブジェク
トモデル空間は、主成分分析により得られる固有空間で
ある。
Preferably, the object model space obtained by statistically analyzing a plurality of object images having the same attribute is an eigenspace obtained by principal component analysis.

【0018】この発明に従えば、オブジェクトモデル空
間は主成分分析により得られる固有空間なので、オブジ
ェクトモデル空間を容易に求めることができる。
According to the present invention, since the object model space is an eigenspace obtained by principal component analysis, the object model space can be easily obtained.

【0019】好ましくは、オブジェクトは人間の顔であ
る。この発明に従えば、人間の顔の形状とテクスチャを
変化させた画像を合成することができる。
Preferably, the object is a human face. According to the present invention, it is possible to synthesize an image in which the shape and texture of the human face are changed.

【0020】好ましくは、パラメータの要素を変更する
ステップは、顔の表情のカテゴリに属するパラメータを
変更するステップを含む。
Preferably, the step of changing the element of the parameter includes the step of changing the parameter belonging to the facial expression category.

【0021】この発明に従えば、顔の表情のカテゴリに
属するパラメータが変更されるので、表情を変化させた
顔の画像を合成することができる。
According to the present invention, since the parameters belonging to the facial expression category are changed, it is possible to synthesize an image of a face with a changed expression.

【0022】好ましくは、パラメータの要素を変更する
ステップは、年齢のカテゴリに属するパラメータを変更
するステップを含む。
Preferably, the step of changing the element of the parameter includes the step of changing the parameter belonging to the age category.

【0023】この発明に従えば、年齢のカテゴリに属す
るパラメータが変更されるので、年齢を変化させた顔の
画像を合成することができる。
According to the present invention, since the parameters belonging to the age category are changed, it is possible to synthesize face images of different ages.

【0024】この発明のさらに他の局面によれば、画像
生成プログラムは、原画像の入力を受付けるステップ
と、入力された原画像からオブジェクトの形状を表わす
形状データおよび形状データに対応したテクスチャを表
わすテクスチャデータを抽出するステップと、同一の属
性を有する複数のオブジェクト画像を統計的に解析して
得られたオブジェクトモデル空間に、抽出された形状デ
ータおよびテクスチャデータを射影してオブジェクトモ
デル空間におけるパラメータを生成するステップと、生
成されたパラメータの少なくとも1つの要素を変更する
ステップと、変更されたパラメータに対応するオブジェ
クトの形状データとテクスチャデータとを再構成するス
テップと、原画像から抽出されたテクスチャデータを用
いて、再構成されたテクスチャデータを補正するステッ
プと、再構成された形状データと再構成されたテクスチ
ャデータとを用いて画像を生成するステップとをコンピ
ュータに実行させる。
According to still another aspect of the present invention, the image generation program represents a step of receiving an input of an original image, shape data representing the shape of an object from the input original image, and a texture corresponding to the shape data. The step of extracting the texture data and projecting the extracted shape data and texture data onto the object model space obtained by statistically analyzing a plurality of object images having the same attributes to set the parameters in the object model space. A step of generating, a step of changing at least one element of the generated parameter, a step of reconstructing shape data and texture data of an object corresponding to the changed parameter, and a texture data extracted from the original image. Was reconstructed using And correcting the box Cha data, and a step of generating an image using the texture data reconstructed and the reconstructed shape data to the computer.

【0025】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出されたテクスチャデータを用いて再
構成されたテクスチャデータが補正される。このため、
オブジェクトモデル空間におけるテクスチャの精度が原
画像に比べて悪い場合であっても、原画像とほぼ同程度
の精度のテクスチャで画像を復元することが可能な画像
生成プログラムおよび画像生成プログラムを記録したコ
ンピュータ読取可能な記録媒体を提供することができ
る。
According to the present invention, the reconstructed texture data is corrected using the texture data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. It For this reason,
Even if the accuracy of the texture in the object model space is poorer than that of the original image, an image generation program capable of restoring the image with a texture having substantially the same accuracy as the original image and a computer recording the image generation program A readable recording medium can be provided.

【0026】この発明のさらに他の局面によれば、画像
生成プログラムは、原画像の入力を受付けるステップ
と、入力された原画像からオブジェクトの形状を表わす
形状データおよび形状データに対応したテクスチャを表
わすテクスチャデータを抽出するステップと、同一の属
性を有する複数のオブジェクト画像を統計的に解析して
得られたオブジェクトモデル空間に、抽出された形状デ
ータおよびテクスチャデータを射影してオブジェクトモ
デル空間におけるパラメータを生成するステップと、生
成されたパラメータの少なくとも1つの要素を変更する
ステップと、変更されたパラメータに対応するオブジェ
クトの形状データとテクスチャデータとを再構成するス
テップと、原画像から抽出された形状データを用いて、
再構成された形状データを補正するステップと、再構成
された形状データと再構成されたテクスチャデータとを
用いて画像を生成するステップとをコンピュータに実行
させる。
According to still another aspect of the present invention, the image generation program represents a step of receiving an input of an original image, shape data representing the shape of an object from the input original image, and a texture corresponding to the shape data. The step of extracting the texture data and projecting the extracted shape data and texture data onto the object model space obtained by statistically analyzing a plurality of object images having the same attributes to set the parameters in the object model space. A step of generating, a step of changing at least one element of the generated parameter, a step of reconstructing shape data and texture data of the object corresponding to the changed parameter, and a shape data extracted from the original image Using,
A computer is made to perform the step of correcting the reconstructed shape data and the step of generating an image using the reconstructed shape data and the reconstructed texture data.

【0027】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出された形状データを用いて再構成さ
れた形状データが補正される。このため、オブジェクト
モデル空間における形状の精度が原画像に比べて悪い場
合であっても、原画像とほぼ同程度の精度の形状で画像
を復元することが可能な画像生成プログラムおよび画像
生成プログラムを記録したコンピュータ読取可能な記録
媒体を提供することができる。
According to the present invention, the reconstructed shape data is corrected using the shape data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. It Therefore, even if the accuracy of the shape in the object model space is poorer than that of the original image, an image generation program and an image generation program capable of restoring the image with the shape of almost the same accuracy as the original image are provided. It is possible to provide a computer-readable recording medium in which the data is recorded.

【0028】この発明のさらに他の局面によれば、画像
生成装置は、原画像の入力を受付ける受付手段と、入力
された原画像からオブジェクトの形状を表わす形状デー
タおよび形状データに対応したテクスチャを表わすテク
スチャデータを抽出する抽出手段と、同一の属性を有す
る複数のオブジェクト画像を統計的に解析して得られた
オブジェクトモデル空間に、抽出された形状データおよ
びテクスチャデータを射影してオブジェクトモデル空間
におけるパラメータを生成する生成手段と、生成された
パラメータの少なくとも1つの要素を変更する変更手段
と、変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成する再構成手段
と、原画像から抽出されたテクスチャデータを用いて、
再構成されたテクスチャデータを補正する補正手段と、
再構成された形状データと再構成されたテクスチャデー
タとを用いて画像を生成する合成手段とを備える。
According to still another aspect of the present invention, the image generating apparatus receives the input of the original image, the receiving means, the shape data representing the shape of the object from the input original image, and the texture corresponding to the shape data. In the object model space, the extraction means for extracting the represented texture data and the extracted shape data and texture data are projected onto the object model space obtained by statistically analyzing a plurality of object images having the same attribute. Generating means for generating a parameter, changing means for changing at least one element of the generated parameter, reconstructing means for reconstructing shape data and texture data of an object corresponding to the changed parameter, and an original image Using the texture data extracted from
Correction means for correcting the reconstructed texture data,
And a synthesizing unit for generating an image using the reconstructed shape data and the reconstructed texture data.

【0029】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出されたテクスチャデータを用いて再
構成されたテクスチャデータが補正されるので、オブジ
ェクトモデル空間におけるテクスチャの精度が原画像に
比べて悪い場合であっても、原画像とほぼ同程度の精度
のテクスチャで画像を復元することが可能な画像生成装
置を提供することができる。
According to the present invention, the reconstructed texture data is corrected using the texture data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. Therefore, even if the accuracy of the texture in the object model space is lower than that of the original image, it is possible to provide an image generation device capable of restoring the image with the texture of almost the same accuracy as the original image. it can.

【0030】この発明のさらに他の局面によれば、画像
生成装置は、原画像の入力を受付ける受付手段と、入力
された原画像からオブジェクトの形状を表わす形状デー
タおよび形状データに対応したテクスチャを表わすテク
スチャデータを抽出する抽出手段と、同一の属性を有す
る複数のオブジェクト画像を統計的に解析して得られた
オブジェクトモデル空間に、抽出された形状データおよ
びテクスチャデータを射影してオブジェクトモデル空間
におけるパラメータを生成する生成手段と、生成された
パラメータの少なくとも1つの要素を変更する変更手段
と、変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成する再構成手段
と、原画像から抽出された形状データを用いて、再構成
された形状データを補正する補正手段と、再構成された
形状データと再構成されたテクスチャデータとを用いて
画像を生成する合成手段とを備える。
According to still another aspect of the present invention, the image generating apparatus receives the input of the original image, the reception means, the shape data representing the shape of the object from the input original image, and the texture corresponding to the shape data. In the object model space, the extraction means for extracting the represented texture data and the extracted shape data and texture data are projected onto the object model space obtained by statistically analyzing a plurality of object images having the same attribute. Generating means for generating a parameter, changing means for changing at least one element of the generated parameter, reconstructing means for reconstructing shape data and texture data of an object corresponding to the changed parameter, and an original image Shape data reconstructed using the shape data extracted from Comprising a correction means for correcting, and combining means for generating an image by using the reconstructed shape data and the reconstructed texture data.

【0031】この発明に従えば、再構成された形状デー
タと再構成されたテクスチャデータとが合成される前
に、原画像から抽出された形状データを用いて再構成さ
れた形状データが補正されるので、オブジェクトモデル
空間における形状の精度が原画像に比べて悪い場合であ
っても、原画像とほぼ同程度の精度の形状で画像を復元
することが可能な画像生成装置を提供することができ
る。
According to the present invention, the reconstructed shape data is corrected using the shape data extracted from the original image before the reconstructed shape data and the reconstructed texture data are combined. Therefore, even if the accuracy of the shape in the object model space is poorer than that of the original image, it is possible to provide an image generation apparatus capable of restoring an image with a shape having substantially the same accuracy as the original image. it can.

【0032】[0032]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。なお、図中同一符号は同一または
相当する部材を示し、重複する説明を繰返さない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding members, and the duplicated description will not be repeated.

【0033】[第1の実施の形態]図1は、発明の第1の
実施の形態における画像生成システムの概略構成を示す
ブロック図である。図1を参照して、画像生成システム
1は、人の顔の画像を入力するための画像入力装置20
と、画像入力装置20から受信した画像に含まれる顔の
表情等を変化させた画像を生成する画像生成装置10
と、画像生成装置10で生成された画像を表示するため
の画像表示装置30と、画像入力装置20、画像生成装
置10および画像表示装置30と接続され、それらを制
御するための制御装置40と、制御装置40に接続され
た外部記憶装置50とを含む。
[First Embodiment] FIG. 1 is a block diagram showing a schematic configuration of an image generation system according to a first embodiment of the present invention. Referring to FIG. 1, the image generation system 1 includes an image input device 20 for inputting an image of a human face.
And an image generation apparatus 10 for generating an image in which the facial expression included in the image received from the image input apparatus 20 is changed.
An image display device 30 for displaying an image generated by the image generation device 10, and a control device 40 connected to the image input device 20, the image generation device 10 and the image display device 30 for controlling them. , And an external storage device 50 connected to the control device 40.

【0034】画像入力装置20は、イメージスキャナで
あり、ライン型のCCD(Charge Coupled Device)セ
ンサを有する。顔が撮影された写真等を読込み、2次元
の顔画像を画像生成装置10に出力する。なお、実際の
人物を撮影して2次元の顔画像をデジタルデータとして
出力することが可能なデジタルカメラ、デジタルビデオ
カメラ等を用いることもできる。さらに、画像入力装置
20は、外部のイメージスキャナやデジタルカメラ等と
接続するための入力端子であってもよい。
The image input device 20 is an image scanner and has a line type CCD (Charge Coupled Device) sensor. A photograph of a face is read, and a two-dimensional face image is output to the image generation device 10. It is also possible to use a digital camera, a digital video camera, or the like capable of photographing an actual person and outputting a two-dimensional face image as digital data. Further, the image input device 20 may be an input terminal for connecting to an external image scanner, digital camera, or the like.

【0035】画像生成装置10は、画像入力装置20よ
り受信した顔画像を、後述する固有空間に射影し、表情
等の顔の特徴を固有空間モデル上で変化させた後、表情
が変化した顔を固有空間モデルを用いて復号化して画像
表示装置30に出力する。
The image generating apparatus 10 projects the face image received from the image input apparatus 20 onto an eigenspace described later, changes facial features such as facial expressions on the eigenspace model, and then changes the facial expression. Is decoded using the eigenspace model and output to the image display device 30.

【0036】画像生成装置10は、パーソナルコンピュ
ータ等で構成することができ、中央演算装置(CPU)
と、CPUで実行するプログラムを記録するための読出
専用メモリ(ROM)と、CPUでプログラムを実行す
る際に用いられるランダムアクセスメモリ(RAM)
と、磁気記録装置等の固定記録装置を有する。CPU
は、画像入力装置20および画像表示装置30と接続す
るためのインターフェイスと接続されている。
The image generating apparatus 10 can be constituted by a personal computer or the like, and has a central processing unit (CPU).
And a read-only memory (ROM) for recording the program executed by the CPU, and a random access memory (RAM) used when the program is executed by the CPU
And a fixed recording device such as a magnetic recording device. CPU
Is connected to an interface for connecting to the image input device 20 and the image display device 30.

【0037】画像表示装置30は、液晶表示装置または
陰極線管等で構成され、画像生成装置10で生成された
画像を表示するためのディスプレイである。なお、ディ
スプレイに代えてプリンタを用いるようにしてもよい。
The image display device 30 is a display which is composed of a liquid crystal display device, a cathode ray tube or the like and which displays the image generated by the image generation device 10. A printer may be used instead of the display.

【0038】制御装置40は、画像入力装置20、画像
生成装置10および画像表示装置30と接続され、それ
らの動作を制御する。具体的には、画像入力装置20で
の画像の読込、および画像生成装置10への送信、画像
生成装置10における顔の表情を変化させるための変化
パラメータの入力、画像生成装置10に対する画像の生
成指示および生成された画像の画像表示装置30への送
信等を行なう。
The control device 40 is connected to the image input device 20, the image generation device 10 and the image display device 30 and controls their operations. Specifically, the image input device 20 reads an image, transmits the image to the image generation device 10, inputs a change parameter for changing the facial expression of the image generation device 10, and generates an image for the image generation device 10. Instructions and transmission of the generated image to the image display device 30 are performed.

【0039】外部記憶装置50は、コンピュータ読取可
能な記録媒体51に記録されたプログラムやデータを読
込み、制御装置40を介して画像生成装置10に送信す
る。また、画像生成装置10からの指示により、コンピ
ュータ読取可能な記録媒体51に必要なデータを書込
む。
The external storage device 50 reads the program and data recorded in the computer-readable recording medium 51 and sends them to the image generation device 10 via the control device 40. In addition, according to an instruction from the image generating apparatus 10, necessary data is written in the computer-readable recording medium 51.

【0040】コンピュータ読取可能な記録媒体51とし
ては、磁気テープやカセットテープなどのテープ系、磁
気ディスク(フレキシブルディスク、ハードディスク
等)や光ディスク(CD−ROM/MO/MD/DVD
等)などのディスク系、ICカード(メモリカードを含
む)や光カードなどのカード系、あるいはマスクRO
M、EPROM、フラッシュメモリなどの半導体メモリ
等の固定的にプログラムを担持する媒体である。また、
記録媒体51をネットワークからプログラムがダウンロ
ードされるように流動的にプログラムを担持する記録媒
体とすることもできる。
The computer-readable recording medium 51 is a tape system such as a magnetic tape or a cassette tape, a magnetic disk (flexible disk, hard disk, etc.) or an optical disk (CD-ROM / MO / MD / DVD).
Etc.) disk systems, IC cards (including memory cards), optical cards, etc., or mask RO
It is a medium such as a semiconductor memory such as an M, an EPROM, a flash memory, or the like that fixedly carries a program. Also,
The recording medium 51 may be a recording medium that fluidly carries the program so that the program may be downloaded from a network.

【0041】プログラムとは、中央演算装置により直接
実行可能なプログラムだけでなく、ソースプログラム形
式のプログラム、圧縮処理されたプログラム、暗号化さ
れたプログラム等を含む概念である。
The program is a concept including not only a program directly executable by the central processing unit, but also a program in a source program format, a compressed program, an encrypted program and the like.

【0042】図2は、第1の実施の形態における画像生
成システムの制御装置40の操作パネルの一例を示す図
である。図2を参照して、制御装置40は、表情操作パ
ネル41と年齢操作パネル42と、OKボタン47と、
NGボタン48と、リセットボタン49とを含む。なお
制御装置40の操作パネルに隣接して画像表示装置30
が配置されている。
FIG. 2 is a diagram showing an example of an operation panel of the control device 40 of the image generation system according to the first embodiment. 2, the control device 40 includes a facial expression operation panel 41, an age operation panel 42, an OK button 47,
An NG button 48 and a reset button 49 are included. The image display device 30 is provided adjacent to the operation panel of the control device 40.
Are arranged.

【0043】表情操作パネル41は、喜びの表情を表わ
すための変化パラメータを変動させるためのスライドス
イッチ41aと、怒りの表情を表わす変化パラメータを
変動させるためのスライドスイッチ41bと、悲しみの
表情を表わす変化パラメータを変動させるためのスライ
ドスイッチ41cと、驚きの表情を表わす変化パラメー
タを変動させるためのスライドスイッチ41dとを含
む。年齢操作パネル42は、年齢を表わす変化パラメー
タを変化させるためのスライドスイッチ42aを含む。
The facial expression operation panel 41 displays a slide switch 41a for changing a change parameter for expressing a joyful expression, a slide switch 41b for changing a change parameter for expressing an angry expression, and a sad expression. A slide switch 41c for changing the change parameter and a slide switch 41d for changing the change parameter expressing a surprising expression are included. The age operation panel 42 includes a slide switch 42a for changing a change parameter representing age.

【0044】制御装置40の表情操作パネル41または
年齢操作パネル42の各スイッチ41a〜41d,42
aで使用者が所望の変化パラメータを設定することが可
能である。そして、スライドスイッチ41a〜41d,
42aで設定された各変化パラメータが、OKボタン4
7の押下により画像生成装置10へ送信される。
Each switch 41a to 41d, 42 of the facial expression operation panel 41 or the age operation panel 42 of the control device 40
The user can set a desired change parameter with a. Then, the slide switches 41a to 41d,
Each change parameter set by 42a is displayed on the OK button 4
It is transmitted to the image generation apparatus 10 by pressing 7.

【0045】制御装置40の操作パネルの近傍には画像
表示装置30の表示部が配置される。画像入力装置20
より画像が読込まれると、読込まれた画像が画像生成装
置10および画像表示装置30へ送信される。画像表示
装置30では、画像入力装置20より受信した顔画像を
表示部に表示する。
The display portion of the image display device 30 is arranged near the operation panel of the control device 40. Image input device 20
When the image is further read, the read image is transmitted to the image generation device 10 and the image display device 30. The image display device 30 displays the face image received from the image input device 20 on the display unit.

【0046】この状態で、制御装置40の表情操作パネ
ル41のスライドスイッチ41a〜41dおよび年齢操
作パネル42のスライドスイッチ42aを使用者が操作
し、それぞれの変化パラメータを設定した後、OKボタ
ン47が押下されると、設定された変化パラメータが画
像生成装置10へ送信される。画像生成装置10では、
受信された変化パラメータに従って表情を変化させた顔
画像を生成し、画像表示装置30に出力する。画像表示
装置30では、表情が変化した後の顔画像が表示部に表
示される。
In this state, the user operates the slide switches 41a to 41d of the facial expression operation panel 41 of the control device 40 and the slide switch 42a of the age operation panel 42 to set respective change parameters, and then the OK button 47 is pressed. When pressed, the set change parameter is transmitted to the image generating apparatus 10. In the image generation device 10,
A face image whose expression is changed according to the received change parameter is generated and output to the image display device 30. In the image display device 30, the face image after the facial expression is changed is displayed on the display unit.

【0047】NGボタン48は、画像生成装置10で生
成された顔画像の表情をさらに変化させる場合に、その
指示を入力するためのボタンである。
The NG button 48 is a button for inputting an instruction to further change the facial expression of the face image generated by the image generating apparatus 10.

【0048】リセットボタン49は、表情操作パネル4
1および年齢操作パネル42で設定された変化パラメー
タをデフォルトの状態に戻すスイッチである。リセット
ボタン49が押下されると、スライドスイッチ41a〜
41d,42aがデフォルトの位置に自動的に戻るよう
になっている。
The reset button 49 is used for the facial expression operation panel 4
1 and a switch for returning the change parameter set on the age operation panel 42 to the default state. When the reset button 49 is pressed, the slide switches 41a ...
41d and 42a are automatically returned to the default positions.

【0049】なお、制御装置40の操作パネルを、画像
表示装置30のディスプレイに表示し、マウス等のポイ
ンティングデバイスを用いて、スライドスイッチ41a
〜41d,42aを構成するようにしてもよい。この場
合には、制御装置40と画像表示装置30とが一体の装
置となる。
The operation panel of the control device 40 is displayed on the display of the image display device 30, and the slide switch 41a is moved by using a pointing device such as a mouse.
˜41d, 42a may be configured. In this case, the control device 40 and the image display device 30 are integrated.

【0050】図3は、第1の実施の形態における画像生
成システムの画像生成装置の概略機能を示すブロック図
である。図3を参照して、画像生成装置10は、画像入
力装置20より受信した2次元画像に含まれる人の顔の
形状を抽出し、形状ベクトルを生成する形状抽出部10
2と、画像入力装置20より受信した2次元画像から形
状抽出部102で生成された形状ベクトルに対応するテ
クスチャを抽出し、テクスチャベクトルgを生成するテ
クスチャ抽出部103と、参照モデル111および特徴
モデル112を記憶するための記憶部110と、形状ベ
クトルsとテクスチャベクトルgを参照モデル111に
射影してパラメータベクトルcを生成する符号化部10
4と、符号化部104で生成したパラメータベクトルc
を、特徴モデル112を用いて変換する特徴変換部10
5と、特徴変換部105により変換されたパラメータベ
クトルctを、参照モデル111において復号化するこ
とにより、形状ベクトルstおよびテクスチャベクトル
tを生成する復号化部106と、復号化部106によ
り生成された形状ベクトルstを形状抽出部102で生
成された形状ベクトルsを用いて補正する形状決定部1
07と、復号化部106で復号化されたテクスチャベク
トルgtをテクスチャ抽出部103で生成されたテクス
チャベクトルgを用いて補正するテクスチャ決定部10
8と、形状決定部107で補正された形状ベクトルs′
とテクスチャ決定部108で補正されたテクスチャベク
トルg′とを用いて人の顔画像を復元する画像復元部1
09とを含む。
FIG. 3 is a block diagram showing a schematic function of the image generating apparatus of the image generating system according to the first embodiment. With reference to FIG. 3, the image generation device 10 extracts the shape of the human face included in the two-dimensional image received from the image input device 20 and generates a shape vector.
2, a texture extraction unit 103 that extracts a texture corresponding to the shape vector generated by the shape extraction unit 102 from the two-dimensional image received from the image input device 20, and generates a texture vector g, a reference model 111, and a feature model. A storage unit 110 for storing 112, and an encoding unit 10 for projecting a shape vector s and a texture vector g onto a reference model 111 to generate a parameter vector c.
4 and the parameter vector c generated by the encoding unit 104
Is converted using the feature model 112.
5 and the decoding unit 106 that generates the shape vector s t and the texture vector g t by decoding the parameter vector c t converted by the feature conversion unit 105 in the reference model 111, and the decoding unit 106. shape determination unit 1 corrected using the generated the generated shape vector s t in shape extraction section 102 shape vector s
07, and the texture determination unit 10 that corrects the texture vector g t decoded by the decoding unit 106 using the texture vector g generated by the texture extraction unit 103.
8 and the shape vector s ′ corrected by the shape determination unit 107.
An image restoration unit 1 that restores a human face image using the texture vector g ′ corrected by the texture determination unit 108.
09 and.

【0051】画像入力装置20では、人の顔を含む画像
が出力され、画像生成装置10に出力される。
The image input device 20 outputs an image including a human face, and the image is output to the image generation device 10.

【0052】形状抽出部102は、画像入力装置20か
ら入力された画像から、ポインティングデバイスなどを
用いた手作業によって顔の形状抽出を行なう。顔の形状
とは、たとえば顔の輪郭、目、眉、鼻、口などの各部位
の輪郭をいう。それぞれの輪郭を特定するために特徴点
がポインティングデバイスなどで指定されると、指定さ
れた特徴点の座標値が形状ベクトルsとして生成され
る。形状ベクトルsは、特徴点の座標を予め定められた
順に配列したベクトルである。したがって、形状ベクト
ルsから人の顔の輪郭、目、鼻、眉および口などの輪郭
を特定することができる。
The shape extracting unit 102 extracts the shape of the face from the image input from the image input device 20 by hand using a pointing device or the like. The shape of the face means, for example, the contour of the face, the contour of each part such as eyes, eyebrows, nose, mouth and the like. When a feature point is designated by a pointing device or the like to identify each contour, the coordinate value of the designated feature point is generated as a shape vector s. The shape vector s is a vector in which the coordinates of the feature points are arranged in a predetermined order. Therefore, it is possible to specify the contour of the human face, the contours of the eyes, the nose, the eyebrows, the mouth, and the like from the shape vector s.

【0053】なお、形状の抽出は、ポインティングデバ
イスを用いた手作業によるものに代えて、たとえば、画
像にエッジ抽出処理等を行なうことにより、特徴点を自
動的に抽出することもできる。
It should be noted that the feature extraction can be performed automatically by performing edge extraction processing or the like on the image instead of the manual operation using a pointing device.

【0054】生成された形状ベクトルsは、テクスチャ
抽出部103、符号化部104および形状決定部107
に出力される。
The generated shape vector s is used as a texture extraction unit 103, an encoding unit 104 and a shape determination unit 107.
Is output to.

【0055】テクスチャ抽出部103は、画像入力装置
20より入力された画像と、形状抽出部102より入力
された形状ベクトルsを用いて、人の顔の各部位のテク
スチャを抽出する。より具体的には、形状ベクトルsで
特定された特徴点の画素値を抽出し、テクスチャベクト
ルgを生成する。テクスチャベクトルgは、形状ベクト
ルsで特定された特徴点の画素値を、形状ベクトルsの
各要素に対応して配列したベクトルである。したがっ
て、形状ベクトルsとテクスチャベクトルgとで人の顔
の輪郭とテクスチャとが定義される。
The texture extraction unit 103 extracts the texture of each part of the human face using the image input from the image input device 20 and the shape vector s input from the shape extraction unit 102. More specifically, the pixel value of the feature point specified by the shape vector s is extracted, and the texture vector g is generated. The texture vector g is a vector in which the pixel values of the feature points specified by the shape vector s are arranged corresponding to each element of the shape vector s. Therefore, the shape vector s and the texture vector g define the contour and texture of the human face.

【0056】テクスチャ抽出部103で生成されたテク
スチャベクトルgは、符号化部104とテクスチャ決定
部108に出力される。
The texture vector g generated by the texture extraction unit 103 is output to the coding unit 104 and the texture determination unit 108.

【0057】符号化部104では、形状抽出部102か
ら受信した形状ベクトルsおよびテクスチャ抽出部10
3より受信したテクスチャベクトルsをそれぞれ適切な
正規化関数fs,fgを用いて正規化する。そして、正規
化された形状ベクトルfs(s)および正規化されたテ
クスチャベクトルfg(g)を参照モデル111に射影
してパラメータベクトルcを生成する。生成されたパラ
メータベクトルcは、特徴変換部105へ出力される。
また、形状ベクトルsの正規化処理に用いた正規化関数
sは、形状決定部107へ出力され、テクスチャベク
トルgの正規化処理に用いられた正規化関数fgは、テ
クスチャ決定部108へ出力される。
In the encoding unit 104, the shape vector s and the texture extraction unit 10 received from the shape extraction unit 102.
The texture vector s received from No. 3 is normalized using appropriate normalization functions f s and f g . Then, the normalized shape vector f s (s) and the normalized texture vector f g (g) are projected onto the reference model 111 to generate a parameter vector c. The generated parameter vector c is output to the feature conversion unit 105.
Further, the normalization function f s used in the normalization process of the shape vector s is output to the shape determination unit 107, and the normalization function f g used in the normalization process of the texture vector g is input to the texture determination unit 108. Is output.

【0058】正規化関数fsは、形状ベクトルsを正規
化するために用いられる。ここでいう正規化とは、たと
えば、形状の回転、拡大、縮小または平行移動などのア
フィン変換、または、線形補正などを含む。
The normalization function f s is used to normalize the shape vector s. The normalization here includes, for example, affine transformation such as rotation, enlargement, reduction, or parallel movement of a shape, or linear correction.

【0059】また、正規化関数fgは、テクスチャベク
トルgを正規化するために用いられる。ここでの正規化
には、たとえば、解像度変換、濃度ヒストグラム変換、
色補正変換などが含まれる。
The normalization function f g is used to normalize the texture vector g. The normalization here includes, for example, resolution conversion, density histogram conversion,
Color correction conversion etc. are included.

【0060】記憶部110に記憶される参照モデル11
1は、人の顔を含む複数の画像それぞれから得られる顔
の形状ベクトルおよびテクスチャベクトルを用いて、た
とえば、主成分分析法などによる統計的な解析を行なう
ことによって、作成されるより次元の低い統計モデルで
ある。この統計モデルは、固有モデル空間である。
Reference model 11 stored in storage unit 110
1 has a lower dimension than that created by performing statistical analysis by, for example, the principal component analysis method using the shape vector and texture vector of the face obtained from each of a plurality of images including human faces. It is a statistical model. This statistical model is an eigenmodel space.

【0061】符号化部104は、予め作成された参照モ
デル111に、形状ベクトルsおよびテクスチャベクト
ルgを射影する。これにより、参照モデルにおけるパラ
メータベクトルcが導出される。パラメータベクトルc
は、参照モデル111において、形状ベクトルsとテク
スチャベクトルgとから定まるパラメータベクトルであ
る。パラメータベクトルcは、その成分が顔画像を表わ
すのに重要度の高い順に要素が並べられた多次元のベク
トルである。
The coding unit 104 projects the shape vector s and the texture vector g on the reference model 111 created in advance. Thereby, the parameter vector c in the reference model is derived. Parameter vector c
Is a parameter vector determined from the shape vector s and the texture vector g in the reference model 111. The parameter vector c is a multidimensional vector in which elements are arranged in descending order of importance in representing a face image.

【0062】特徴変換部105は、符号化部104より
受信したパラメータベクトルcに特徴モデル112を用
いて、パラメータベクトルcを変換したパラメータベク
トルctを生成する。
The characteristic conversion unit 105 uses the characteristic model 112 for the parameter vector c received from the encoding unit 104 to generate a parameter vector c t obtained by converting the parameter vector c.

【0063】ここで、特徴モデル112について説明す
る。ここでは、一例として人の顔の表情成分を変換する
場合について説明する。この場合、特徴モデル112
は、顔の表情に関する特徴モデル空間となる。このよう
な特徴モデルは、たとえば次のような方法で作成するこ
とができる。
The characteristic model 112 will be described below. Here, as an example, a case where the facial expression component of a human face is converted will be described. In this case, the feature model 112
Is a feature model space for facial expressions. Such a feature model can be created, for example, by the following method.

【0064】(1) 複数の人物のいろいろな表情の顔
を含む画像と無表情の顔を含む画像を1枚準備する。
(1) Prepare one image containing faces of various persons with various expressions and one image containing faceless faces.

【0065】(2) これらの画像それぞれに対して、
形状抽出部102、テクスチャ抽出部103および符号
化部104で、パラメータベクトルcを算出しておく。
(2) For each of these images,
The shape extracting unit 102, the texture extracting unit 103, and the encoding unit 104 calculate the parameter vector c.

【0066】(3) 表情成分の抽出を行なう。表情成
分の抽出は、同一人物の表情のある顔を含む画像に基づ
き生成されたパラメータベクトルceと、無表情の顔を
含む画像に基づき生成されたパラメータベクトルcn
差分をとった差分ベクトルxを算出する。
(3) Extract facial expression components. The expression component is extracted by a difference vector obtained by taking the difference between the parameter vector c e generated based on the image containing the face of the same person having the facial expression and the parameter vector c n generated based on the image containing the expressionless face. Calculate x.

【0067】x=ce−cn 差分ベクトルxは、同一人物のパラメータベクトル
e,cnから算出されるので、差分ベクトルxには個人
性が排除された表情に関わる成分のみが抽出されること
になる。このようにして算出された差分ベクトルxを複
数の人物ごとに、表情ごとに算出する。
X = c e −c n Since the difference vector x is calculated from the parameter vectors c e and c n of the same person, only the component relating to the facial expression excluding individuality is extracted from the difference vector x. Will be. The difference vector x calculated in this manner is calculated for each of a plurality of persons and for each facial expression.

【0068】(4) 差分ベクトルxについて、表情ご
とにたとえば主成分分析を行ない、表情ごとの固有空間
を求める。すなわち、表情ごとの固有空間は、無表情の
顔を含む画像を表わすパラメータベクトルcからの差分
ベクトルを平均した差分平均ベクトルバーxと、この点
まわりの固有ベクトルe1,e2,e3,…で定義するこ
とができる。
(4) For the difference vector x, for example, principal component analysis is performed for each facial expression to obtain an eigenspace for each facial expression. That is, the eigenspace for each facial expression is a difference average vector bar x obtained by averaging a difference vector from a parameter vector c representing an image including an expressionless face, and eigenvectors e 1 , e 2 , e 3 , ... Around this point. Can be defined as

【0069】一方、この特徴モデルを用いた表情に関す
るパラメータベクトルcの変換は、次の手順で行なうこ
とができる。
On the other hand, the conversion of the parameter vector c relating to the facial expression using this feature model can be performed in the following procedure.

【0070】(1) 符号化部104から出力されるパ
ラメータベクトルcに、表情を変化させたい表情に対応
する差分平均ベクトルバーxと、特徴モデル112の固
有空間を定義する固有ベクトルe1,e2,e3,…を、
係数h,k1,k2,k3,…で適当に線形加算して任意
の表情成分を付加したパラメータベクトルctに変換す
る。
(1) In the parameter vector c output from the encoding unit 104, the difference average vector bar x corresponding to the facial expression to be changed, and the eigenvectors e 1 and e 2 defining the eigenspace of the feature model 112. , E 3 , ...
The coefficients h, k 1 , k 2 , k 3 , ... Are appropriately linearly added and converted into a parameter vector c t to which an arbitrary facial expression component is added.

【0071】この変換式は、(1)式により表わされ
る。特徴変換部105で変換されたパラメータベクトル
tは復号化部106へ出力される。復号化部106で
は、特徴変換部105より受信したパラメータベクトル
tと参照モデル111とを用いて、形状ベクトルst
よびテクスチャベクトルgtを生成する。形状ベクトル
tとテクスチャベクトルgtとは、表情が付加された結
果の形状およびテクスチャをそれぞれ表わすベクトルで
ある。
This conversion equation is expressed by equation (1). The parameter vector c t converted by the feature conversion unit 105 is output to the decoding unit 106. The decoding unit 106 uses the parameter vector c t received from the feature conversion unit 105 and the reference model 111 to generate a shape vector s t and a texture vector g t . The shape vector s t and the texture vector g t are vectors respectively representing the shape and texture of the result to which the facial expression is added.

【0072】補正部121は、形状決定部107および
テクスチャ決定部108とを含む。形状決定部107
は、形状抽出部102から受信した形状ベクトルsおよ
び復号化部106より受信した表情が付加された形状を
表わす形状ベクトルstを用いて、(2)式を用いた変
換処理が行なわれ、出力形状ベクトルs′を生成する。
The correction section 121 includes a shape determining section 107 and a texture determining section 108. Shape determining unit 107
Is subjected to a conversion process using the equation (2) using the shape vector s received from the shape extraction unit 102 and the shape vector s t representing the shape to which the facial expression is added, received from the decoding unit 106, and output Generate a shape vector s'.

【0073】ここで、変換関数fS -1は、形状抽出部1
02で正規化処理に用いた正規化関数fSの逆関数であ
る。形状決定部107で生成された出力形状ベクトル
s′は、画像復元部109へ出力される。
Here, the transformation function f S -1 is obtained by the shape extraction unit 1
This is an inverse function of the normalization function f S used in the normalization process in 02. The output shape vector s ′ generated by the shape determination unit 107 is output to the image restoration unit 109.

【0074】テクスチャ決定部108は、テクスチャ抽
出部103より受信したテクスチャベクトルgおよび復
号化部106より受信した表情が付加された画像のテク
スチャを表わすテクスチャベクトルgtを用いて、
(3)式による変換処理が行なわれ、出力テクスチャベ
クトルg′を決定する。
The texture determining unit 108 uses the texture vector g received from the texture extracting unit 103 and the texture vector g t representing the texture of the image added with the expression received from the decoding unit 106,
The conversion process according to the equation (3) is performed to determine the output texture vector g '.

【0075】ここで、関数fg -1はテクスチャ抽出部1
03で正規化処理で用いた正規化関数fgの逆関数であ
る。関数fgまたは逆関数fg -1には画素の間引きによる
解像度変換が含まれるため、これらの関数を合成した合
成関数fg*fg -1は、必ずしも恒等変換とはならない。
Here, the function f g -1 is the texture extraction unit 1
It is an inverse function of the normalization function f g used in the normalization process in 03. Since the function f g or the inverse function f g -1 includes resolution conversion by thinning out pixels, the composite function f g * f g -1 that combines these functions is not necessarily an identity conversion.

【0076】参照モデル111より得られるテクスチャ
ベクトルgtとの原画像からの変化分を原画像から得ら
れるテクスチャベクトルgに配合することによって、参
照モデルから得られるテクスチャベクトルgtだけでは
復元することができない成分を、原画像から得られるテ
クスチャベクトルgで補間するので、不自然さのないよ
りリアルな画質の画像を出力することができる。
By blending the change from the original image with the texture vector g t obtained from the reference model 111 into the texture vector g obtained from the original image, the texture vector g t obtained from the reference model alone can be restored. Since the component that cannot be corrected is interpolated by the texture vector g obtained from the original image, it is possible to output an image with more realistic image quality without unnaturalness.

【0077】テクスチャ決定部108で生成された出力
テクスチャベクトルg′は、画像復元部109へ出力さ
れる。
The output texture vector g ′ generated by the texture determining section 108 is output to the image restoring section 109.

【0078】画像復元部109では、形状決定部107
より受信した出力形状ベクトルs′およびテクスチャ決
定部108より受信した出力テクスチャベクトルg′と
を用いて、出力テクスチャベクトルg′を出力形状ベク
トルs′で表わされる形状に変形するワーピング処理が
行なわれる。そして、ワーピング処理により出力画像
I′(s′,g′)が生成される。生成された出力画像
I(s′,g′)は、画像表示装置30へ出力される。
In the image restoration unit 109, the shape determination unit 107
Using the output shape vector s ′ thus received and the output texture vector g ′ received from the texture determining unit 108, warping processing is performed to transform the output texture vector g ′ into the shape represented by the output shape vector s ′. Then, the output image I ′ (s ′, g ′) is generated by the warping process. The generated output image I (s ′, g ′) is output to the image display device 30.

【0079】図4は、第1の実施の形態における画像生
成装置10で実行される画像生成処理の流れを示すフロ
ーチャートである。図4を参照して、画像生成装置10
では、画像入力装置20より原画像を入力する(ステッ
プS01)。画像入力装置20より入力される原画像に
は、人の顔が含まれる。
FIG. 4 is a flow chart showing the flow of image generation processing executed by the image generation apparatus 10 according to the first embodiment. With reference to FIG. 4, the image generation device 10
Then, the original image is input from the image input device 20 (step S01). The original image input from the image input device 20 includes a human face.

【0080】そして、入力された原画像を、画像表示装
置30へ出力する(ステップS02)。この結果、画像
表示装置30では、画像入力装置20で読取られた画像
が表示されることになる。
Then, the input original image is output to the image display device 30 (step S02). As a result, the image read by the image input device 20 is displayed on the image display device 30.

【0081】次に、画像入力装置より入力された原画像
に対して、形状抽出部102およびテクスチャ抽出部1
03それぞれにおいて、形状ベクトルsとテクスチャベ
クトルgとが生成され、符号化部104において生成さ
れた形状ベクトルsとテクスチャベクトルgとを参照モ
デル111に射影することにより符号化される。そし
て、符号化の結果生成されたパラメータベクトルcが特
徴変換部105へ出力される(ステップS03)。
Next, the shape extraction unit 102 and the texture extraction unit 1 are applied to the original image input from the image input device.
In each of 03, a shape vector s and a texture vector g are generated, and the shape vector s and the texture vector g generated by the encoding unit 104 are projected on the reference model 111 to be encoded. Then, the parameter vector c generated as a result of the encoding is output to the feature conversion unit 105 (step S03).

【0082】制御装置40から特徴変換指示が受信され
る(ステップS04)。ここでの特徴変換指示は、図2
に示した表情操作パネル41または年齢操作パネル42
により入力された変化パラメータが、制御装置40から
受信される。
A feature conversion instruction is received from control device 40 (step S04). The feature conversion instruction here is shown in FIG.
Expression operation panel 41 or age operation panel 42 shown in FIG.
The change parameter input by is received from the control device 40.

【0083】そして、制御装置40より受信した特徴変
換指示に基づき、特徴モデル112より受信された変化
パラメータに従った表情に対応する差分平均ベクトルバ
ーxとその特徴モデル112を定義する固有ベクトルe
1,e2,e3,…とを用いて、(1)式を用いてパラメ
ータベクトルcを表情が付加された顔を表わすパラメー
タベクトルctに変換する。この変換処理は、特徴変換
部105において行なわれる。
Then, based on the feature conversion instruction received from the control device 40, the difference average vector bar x corresponding to the facial expression according to the change parameter received from the feature model 112 and the eigenvector e defining the feature model 112.
1, e 2, e 3, ... by using the convert the parameter vector c t representing the face of the parameter vector c expression is added using the equation (1). This conversion processing is performed in the characteristic conversion unit 105.

【0084】次に、ステップS04で変換されたパラメ
ータベクトルctを、参照モデル111を用いて形状ベ
クトルstとテクスチャベクトルgtとに復号化する(ス
テップS05)。これにより、表情が付加された顔の画
像を定義する形状ベクトルs tとテクスチャベクトルgt
とが生成されることになる。
Next, the parameters converted in step S04.
Data vector ctWith the reference model 111.
Cutle stAnd texture vector gtDecrypt to and (
Step S05). This makes it possible to add facial expressions with facial expressions.
Shape vector s that defines the image tAnd texture vector gt
And will be generated.

【0085】そして、生成された形状ベクトルstが形
状決定部107で形状抽出部102で生成された形状ベ
クトルsを用いて補正されるとともに、テクスチャ決定
部108で復号化部106で生成されたテクスチャベク
トルgtがテクスチャ抽出部103で生成されたテクス
チャベクトルgを用いて補正される(ステップS0
6)。形状ベクトルstの補正は、(2)式に基づき行
なわれ、テクスチャベクトルgtの補正は、(3)式に
基づき行なわれる。
Then, the generated shape vector s t is corrected by the shape determination unit 107 using the shape vector s generated by the shape extraction unit 102, and also generated by the texture determination unit 108 by the decoding unit 106. The texture vector g t is corrected using the texture vector g generated by the texture extraction unit 103 (step S0
6). The shape vector s t is corrected based on the equation (2), and the texture vector g t is corrected based on the equation (3).

【0086】そして、画像復元部109において、補正
された形状ベクトルs′と補正されたテクスチャベクト
ルg′とを用いて、テクスチャベクトルg′を形状ベク
トルs′で表わされる形状に変形するワーピング処理が
行なわれることにより、出力画像が生成される(ステッ
プS07)。
Then, the image restoration unit 109 uses the corrected shape vector s ′ and the corrected texture vector g ′ to perform warping processing for transforming the texture vector g ′ into the shape represented by the shape vector s ′. As a result, the output image is generated (step S07).

【0087】そして、生成された出力画像が画像表示装
置30に出力される(ステップS08)。この結果、制
御装置40の操作パネルから入力された表情に、顔の表
情が変換された画像が画像表示装置30に出力されるこ
とになる。
Then, the generated output image is output to the image display device 30 (step S08). As a result, an image in which the facial expression is converted into the facial expression input from the operation panel of the control device 40 is output to the image display device 30.

【0088】次にステップS09では、制御装置40か
らOKの指示が入力されたか否かが判断される。OKの
指示が入力された場合にはステップS01へ進み、そう
でない場合にはステップS04に進む。OKの指示は、
制御装置40のOKボタン47が押下されることによ
り、画像生成装置10へ出力される。NGボタン48が
押下された場合には、画像生成装置10にNGの指示が
出力される。制御装置40よりNGの指示が入力された
場合には、ステップS04〜ステップS08の処理が繰
返し行なわれる。この結果、画像生成システム1の使用
者は、制御装置40の操作パネルのスライドスイッチ4
1a〜41d,42aを操作して所望の表情の顔画像が
画像表示装置30に出力されるまで繰返すことができ
る。
Next, in step S09, it is determined whether or not an OK instruction has been input from the control device 40. If the OK instruction is input, the process proceeds to step S01, and if not, the process proceeds to step S04. The OK instruction is
When the OK button 47 of the control device 40 is pressed, the image is output to the image generation device 10. When the NG button 48 is pressed, an NG instruction is output to the image generation device 10. When an NG instruction is input from control device 40, the processes of steps S04 to S08 are repeated. As a result, the user of the image generation system 1 operates the slide switch 4 on the operation panel of the control device 40.
It is possible to repeat 1a to 41d, 42a until a face image having a desired expression is output to the image display device 30.

【0089】ステップS10では、出力画像が画像生成
装置10が備える記憶部110に記憶される。次のステ
ップS11では、別の画像が画像入力装置20より入力
されたか否かが判断される。別の画像が入力された場合
にはステップS01へ進み、そうでない場合には処理を
終了する。
In step S10, the output image is stored in the storage section 110 of the image generating apparatus 10. In the next step S11, it is determined whether or not another image is input from the image input device 20. If another image is input, the process proceeds to step S01, and if not, the process ends.

【0090】以上説明したように、第1の実施の形態に
おける画像生成システムにおいては、補間原画像から得
られるテクスチャベクトルgと、参照モデル111より
得られるテクスチャベクトルgtとを配合することによ
って、参照モデルから得られるテクスチャベクトルgt
だけでは復元することができない成分を、原画像から得
られるテクスチャベクトルgで補間するので、不自然さ
のないよりリアルな画質の画像を出力することができ
る。
As described above, in the image generation system according to the first embodiment, the texture vector g obtained from the interpolated original image and the texture vector g t obtained from the reference model 111 are blended, Texture vector g t obtained from the reference model
Since the components that cannot be restored only by the interpolation are interpolated by the texture vector g obtained from the original image, it is possible to output an image with more realistic image quality without unnaturalness.

【0091】次に第1の実施の形態における画像生成シ
ステムのテクスチャ決定部108と形状決定部107の
変形例について説明する。
Next, a modification of the texture determining unit 108 and the shape determining unit 107 of the image generating system according to the first embodiment will be described.

【0092】<テクスチャ決定部108の第1の変形例
>上述のテクスチャ決定部108では、(3)式に基づ
き、復号化部106で生成された表情が付加された画像
のテクスチャを表わすテクスチャベクトルgtを、テク
スチャ抽出部103で生成されたテクスチャベクトルg
を用いて補正するものであった。変形されたテクスチャ
決定部108では、係数kgを用いた(4)式によって
配合の割合を決定するものである。これにより、入力さ
れた画像から生成されるテクスチャベクトルgと、表情
が付加されて復号化部106で生成されたテクスチャベ
クトルgtとの配合割合を係数kgで調節することが可能
となる。このため、復元される画像の解像度を重視する
のか、あるいは、表情の変化を重視するのかを係数kg
で決定することができる。係数kgの値が大きければ、
表情が付加された画像のテクスチャを表わすテクスチャ
ベクトルgが重視されるが、参照モデル111の解像度
が小さい場合には、解像度も小さくなる。
<First Modification of Texture Determining Unit 108> In the texture determining unit 108 described above, a texture vector representing the texture of the image to which the facial expression generated by the decoding unit 106 is added based on the equation (3). g t is the texture vector g generated by the texture extraction unit 103
Was corrected using. The deformed texture determination unit 108 determines the blending ratio by the equation (4) using the coefficient k g . As a result, it becomes possible to adjust the blending ratio of the texture vector g generated from the input image and the texture vector g t generated by the decoding unit 106 by adding the facial expression with the coefficient k g . Therefore, whether the emphasis is placed on the resolution of the image to be restored or the change in facial expression is determined by the coefficient k g.
Can be determined at. If the value of coefficient k g is large,
The texture vector g representing the texture of the image to which the facial expression is added is emphasized, but when the resolution of the reference model 111 is small, the resolution is also small.

【0093】このように、参照モデル111から復元さ
れたテクスチャベクトルgtと原画像から抽出されたテ
クスチャベクトルgを適切な割合で配合することによっ
て、よりリアルな画像を復元することができる。
As described above, by blending the texture vector g t restored from the reference model 111 and the texture vector g extracted from the original image at an appropriate ratio, a more realistic image can be restored.

【0094】<テクスチャ決定部108の第2の変形例
>次に、テクスチャ決定部108の第2の変形例につい
て説明する。第2の変形例におけるテクスチャ決定部1
08は、テクスチャ抽出部103で生成されたテクスチ
ャベクトルgおよび復号化部106で表情が付加された
画像を表わすテクスチャベクトルgtを用いて、適当な
係数kgによって、(5)式を用いてテクスチャベクト
ルg′が決定される。ここで、関数fg -1は、形状の正
規化処理に用いられた変換関数fgの逆関数である。出
力テクスチャベクトルg′は、画像復元部109へ出力
される。
<Second Modification of Texture Determining Unit 108> Next, a second modification of the texture determining unit 108 will be described. Texture determining unit 1 in the second modified example
08 uses the texture vector g generated by the texture extraction unit 103 and the texture vector g t representing the image to which the facial expression is added by the decoding unit 106, using the equation (5) with an appropriate coefficient k g . The texture vector g'is determined. Here, the function f g -1 is an inverse function of the conversion function f g used in the shape normalization process. The output texture vector g ′ is output to the image restoration unit 109.

【0095】(5)式では、特徴変換部105により表
情を変化させた画像に対するテクスチャベクトルgt
変化分に逆正規化変換を施し、これに配合割合である係
数kgで調節したものを原画像から抽出されたテクスチ
ャベクトルgに加算する。このため、参照モデル111
のテクスチャに関する解像度が原画像の解像度よりも低
い場合であっても、原画像と同等の解像度を持った画像
を復元することができる。また、テクスチャの変化分を
配合する割合を、係数kgで決定することができる。そ
の結果、符号化部104で行なわれる符号化および復号
化部130で行なわれる復号化処理で生じる符号化歪み
が画質に与える影響を小さくすることができる。
In the equation (5), the inverse normalization conversion is applied to the change amount of the texture vector g t for the image whose expression is changed by the feature conversion unit 105, and this is adjusted by the coefficient k g which is the mixture ratio. Add to the texture vector g extracted from the original image. Therefore, the reference model 111
Even if the resolution of the texture is lower than the resolution of the original image, it is possible to restore an image having the same resolution as the original image. Further, the ratio of blending the change in texture can be determined by the coefficient k g . As a result, it is possible to reduce the influence of the coding distortion generated in the coding process performed by the coding unit 104 and the decoding process performed by the decoding unit 130 on the image quality.

【0096】<テクスチャ決定部108の第3の変形例
>第3の変形例におけるテクスチャ決定部108は、
(6)式により、復号化部106で生成された表情が付
加された画像のテクスチャを表わすテクスチャベクトル
tをテクスチャ抽出部103で生成されたテクスチャ
ベクトルgを用いて補正する。(6)式において、関数
gは、形状決定部107で生成された表情が付加され
た画像の形状を表わす形状ベクトルstによって制御さ
れる値を出力する。これにより、関数Kgが出力する値
を、顔の形状の部分により異ならせることが可能とな
る。たとえば、口と目の部分においては、Kg=1.0
とし、その他の部分はKg=0.0のように出力する値
が形状ベクトルstにより制御されることが可能とな
る。すなわち、口と目の部分はテクスチャベクトルgt
を100%反映させ、その他の顔の部分に関しては、テ
クスチャベクトルgtを用いないようにすることができ
る。これにより、テクスチャ抽出部103で生成された
テクスチャベクトルgによる解像度を維持しながら、顔
の表情を部分的に変更させることができる。
<Third Modification of Texture Determining Section 108> The texture determining section 108 in the third modification is
Using the expression (6), the texture vector g t, which is generated by the decoding unit 106 and represents the texture of the image to which the facial expression is added, is corrected using the texture vector g generated by the texture extraction unit 103. In the equation (6), the function K g outputs a value controlled by the shape vector s t which is generated by the shape determining unit 107 and represents the shape of the image to which the facial expression is added. As a result, the value output by the function K g can be changed depending on the face shape portion. For example, in the mouth and eyes, K g = 1.0
And then, other portions is the value to be output as K g = 0.0 it is possible to be controlled by the shape vector s t. That is, the mouth and eyes are texture vectors g t
Can be reflected 100%, and the texture vector g t can be omitted for other face portions. As a result, the facial expression can be partially changed while maintaining the resolution of the texture vector g generated by the texture extraction unit 103.

【0097】<形状決定部107の第1の変形例>形状
決定部107の第1の変形例においては、(7)式を用
いて、復号化部106で生成された表情が付加された画
像の形状を表わす形状ベクトルstを形状抽出部102
で生成された形状ベクトルsを用いて補正するものであ
る。形状ベクトルsと表情が付加された形状ベクトルs
tとを配合する割合が係数ksによって定められる。この
ため、入力された画像から生成される形状ベクトルs
と、表情が付加されて復号化部106で生成された形状
ベクトルstとの配合割合を係数kgで調節することが可
能となる。このため、復元される画像の解像度を重視す
るのか、あるいは、表情の変化を重視するのかを係数k
gで決定することができる。係数kgの値が大きければ、
表情が付加された画像の形状を表わす形状ベクトルsが
重視されるが、参照モデル111の解像度が小さい場合
には、解像度も小さくなる。
<First Modification of Shape Determining Unit 107> In the first modification of the shape determining unit 107, the image added with the facial expression generated by the decoding unit 106 using the equation (7). shape vector s t a shape extraction unit representing the shapes 102
The correction is performed using the shape vector s generated in (1). The shape vector s and the shape vector s to which the facial expression is added
The proportion at which t and is compounded is defined by the coefficient k s . Therefore, the shape vector s generated from the input image
If, it is possible to adjust the mixing ratio of the generated shape vector s t in the decoding unit 106 is added expression by a factor k g. Therefore, whether the emphasis is placed on the resolution of the image to be restored or the change in facial expression is determined by the coefficient k.
It can be determined by g . If the value of coefficient k g is large,
The shape vector s representing the shape of the image to which the facial expression is added is emphasized, but when the resolution of the reference model 111 is small, the resolution is also small.

【0098】<形状決定部107の第2の変形例>第2
の変形例における形状決定部107においては、(8)
式を用いて、復号化部106で生成された表情が付加さ
れた画像の形状を表わす形状ベクトルstが形状抽出部
102で生成された形状ベクトルsを用いて補正され
る。(8)式には、表情が付加された画像の形状を表わ
す形状ベクトルstによってその出力される値が制御さ
れる関数Ksが含まれる。これにより、関数Ksが出力す
る値を、顔の形状の一部分、たとえば口と目の部分につ
いては、関数Ksの出力を「1.0」とし、その他の部
分での関数Ksの出力を「0.0」のようにすることが
できる。すなわち、口と目の部分は表情が付加された画
像の形状を表わす形状ベクトルstを用い、その他の顔
の部分に関しては形状ベクトルsを用いるように補正す
ることができる。
<Second Modification of Shape Determining Unit 107> Second
In the shape determining unit 107 in the modified example of (8)
Using Equation, shape vector s t that generated expression representing the shape of the added image decoding unit 106 is corrected using the shape vector s produced by the shape extracting unit 102. (8) The expression contains a function K s value to be output by the shape vector s t representing the shape of the image expression is added is controlled. Thus, the value of the function K s is output, a portion of the shape of the face, for example mouth and eye portion, the output of the function K s is "1.0", the function K s in other parts Output Can be like "0.0". That is, mouth and eyes of the parts using a shape vector s t representing the shape of the image expression is added, with respect to portions of the other face may be corrected to use the shape vector s.

【0099】なお、上述の形状決定部107またはその
変形例と、テクスチャ決定部108またはその変形例と
を組合わせることも可能である。たとえば、形状決定部
107の第2の変形例とテクスチャ決定部108の第3
の変形例との組み合わせることにより、参照モデル11
1を用いて表情を変化させて復元された形状ベクトルs
tおよびテクスチャベクトルgtを用いるか、原画像から
得られる形状ベクトルsおよびテクスチャベクトルgを
用いるかを、顔の形状の部分により、選択的に重み付け
することができる。たとえば、顔の口、目、鼻、眉、輪
郭等で、いずれのデータを用いるのか、またいずれのデ
ータを重視して用いるのかを変更することができる。こ
のため、たとえば、原画像が目または口を閉じた表情の
顔を含む画像から目や口をあけた表情の画像に表情を変
化させた場合であっても、目や口の中の形状とテクスチ
ャ(この場合には、眼球や歯などになる)を復元するこ
とができる。
It is also possible to combine the above-described shape determining unit 107 or its modification with the texture determining unit 108 or its modification. For example, the second modification of the shape determining unit 107 and the third modification of the texture determining unit 108.
The reference model 11
Shape vector s restored by changing the facial expression using 1
Whether t and the texture vector g t are used or whether the shape vector s and the texture vector g obtained from the original image are used can be selectively weighted by the face shape portion. For example, for the mouth, eyes, nose, eyebrows, contour, etc. of the face, it is possible to change which data is used and which data is used with emphasis. For this reason, for example, even if the original image is changed from an image containing a face with closed eyes or mouth to an image with open eyes or mouth, the shape of the eyes or mouth is not changed. Textures (in this case, eyes, teeth, etc.) can be restored.

【0100】[0100]

【数1】 [Equation 1]

【0101】[第2の実施の形態]次に、第2の実施の
形態における画像生成システムについて説明する。第2
の実施の形態における画像生成システムは、第1の実施
の形態における画像生成システムの画像生成装置10を
変更したものである。その他の点については第1の実施
の形態における画像生成システムと同じであるので、異
なる部分について説明する。
[Second Embodiment] Next, an image generation system according to a second embodiment will be described. Second
The image generation system in the embodiment is a modification of the image generation device 10 of the image generation system in the first embodiment. Since the other points are the same as those of the image generation system according to the first embodiment, only different points will be described.

【0102】図5は、第2の実施の形態における画像生
成装置60の概略機能を示すブロック図である。図5を
参照して、第2の実施の形態における画像生成装置60
は、第1の実施の形態における復号化部106と補正部
121に変更を加えたものである。その他の点について
は、第1の実施の形態における画像生成装置10と同じ
である。
FIG. 5 is a block diagram showing a schematic function of the image generating apparatus 60 according to the second embodiment. With reference to FIG. 5, the image generation device 60 according to the second embodiment.
Is a modification of the decoding unit 106 and the correction unit 121 in the first embodiment. The other points are the same as those of the image generating apparatus 10 in the first embodiment.

【0103】第2の実施の形態における画像生成装置6
0の復号化部130は、特徴変換部105より受信する
パラメータベクトルctから参照モデル111を用いて
形状ベクトルstおよびテクスチャベクトルgtを生成す
るのに加えて、符号化部104が出力するパラメータベ
クトルcから参照モデル111を用いて形状ベクトルs
OおよびテクスチャベクトルgOを生成する。復号化部1
30が生成した形状ベクトルst,sOは、ともに形状決
定部132へ出力される。また、復号化部130が生成
するテクスチャベクトルgt,gOは、ともにテクスチャ
決定部133へ出力される。
Image generation device 6 in the second embodiment
Decoding unit 130 of 0, in addition to generating the shape vector s t and texture vector g t using the reference model 111 from the parameter vector c t receive from the feature transform unit 105, the encoding unit 104 outputs The shape vector s from the parameter vector c using the reference model 111
Generate O and the texture vector g O. Decoding section 1
30 resulting shape vector s t, s O is output together to the shape determination unit 132. The texture vectors g t and g O generated by the decoding unit 130 are both output to the texture determination unit 133.

【0104】形状決定部132では、(9)式を用い
て、形状ベクトルstが補正される。この補正には、パ
ラメータベクトルcから復号化された形状ベクトルsO
と形状抽出部102で生成された形状ベクトルsとが加
味される。(9)式を用いて生成された出力形状ベクト
ルs′は、画像復元部109へ出力される。
[0104] In the shape determining unit 132, by using the equation (9), the shape vector s t is corrected. This correction, shape decoded from parameter vector c vector s O
And the shape vector s generated by the shape extraction unit 102 are added. The output shape vector s ′ generated using the equation (9) is output to the image restoration unit 109.

【0105】参照モデル111で表情を変化させた後の
形状ベクトルstと表情を変化させる前の形状ベクトル
0との差を、原画像から得られる形状ベクトルsに配
合することによって、参照モデルから得られる形状ベク
トルstだけでは復元することができない成分を、原画
像から得られる形状ベクトルsで補間することができ
る。
By adding the difference between the shape vector s t after changing the facial expression in the reference model 111 and the shape vector s 0 before changing the facial expression to the shape vector s obtained from the original image, the reference model The component that cannot be restored only by the shape vector s t obtained from the above can be interpolated by the shape vector s obtained from the original image.

【0106】テクスチャ決定部133では、(10)式
を用いて、復号化部130で生成された表情が付加され
た画像のテクスチャを表わすテクスチャベクトルgt
補正される。この補正には、パラメータベクトルcから
復号化されたテクスチャベクトルgOとテクスチャ抽出
部103で生成されたテクスチャベクトルgとが加味さ
れる。(10)式を用いて生成された出力テクスチャベ
クトルg′は、画像復元部109へ出力される。
The texture determining unit 133 corrects the texture vector g t representing the texture of the image added with the facial expression, which is generated by the decoding unit 130, using the expression (10). In this correction, the texture vector g O decoded from the parameter vector c and the texture vector g generated by the texture extraction unit 103 are taken into consideration. The output texture vector g ′ generated using the equation (10) is output to the image restoration unit 109.

【0107】参照モデル111で表情を変化させた後の
テクスチャベクトルgtと表情を変化させる前のテクス
チャベクトルg0との差を、原画像から得られるテクス
チャベクトルgに配合することによって、参照モデルか
ら得られるテクスチャベクトルgtだけでは復元するこ
とができない成分を、原画像から得られるテクスチャベ
クトルgで補間することができる。
By adding the difference between the texture vector g t after the facial expression is changed by the reference model 111 and the texture vector g 0 before the facial expression is changed to the texture vector g obtained from the original image, The component that cannot be restored only by the texture vector g t obtained from the above can be interpolated by the texture vector g obtained from the original image.

【0108】以上説明したように、第2の実施の形態に
おける画像生成システムにおいては、参照モデル111
上で特徴変換をさせて得られる形状ベクトルstとテク
スチャベクトルgtとの特徴変換をさせた成分のみを、
原画像から得られる形状ベクトルsおよびテクスチャベ
クトルgにそれぞれ加算する。このため、処理対象とな
る画像に含まれる顔が参照モデル111によく適合しな
い場合であって、参照モデル111を用いて復元された
画像が画質的に不十分な場合であっても画質が劣化する
のを防止することができる。すなわち、参照モデル11
1のテクスチャに関する解像度が原画像の解像度よりも
低い場合であっても、原画像と同等の解像度を持った画
像を復元することができる。
As described above, in the image generation system according to the second embodiment, the reference model 111
Only the component obtained by performing the feature conversion between the shape vector s t and the texture vector g t obtained by performing the feature conversion above is
The shape vector s and the texture vector g obtained from the original image are added respectively. Therefore, even if the face included in the image to be processed does not fit the reference model 111 well, and the image restored by using the reference model 111 has insufficient image quality, the image quality deteriorates. Can be prevented. That is, the reference model 11
Even if the resolution of the texture 1 is lower than the resolution of the original image, it is possible to restore the image having the same resolution as the original image.

【0109】また、符号化部104で行なわれる符号化
および復号化部130で行なわれる復号化処理で生じる
符号化歪みが画質に与える影響を小さくすることができ
る。
Further, it is possible to reduce the influence of the coding distortion caused by the coding process performed by the coding unit 104 and the decoding process performed by the decoding unit 130 on the image quality.

【0110】<テクスチャ決定部133の第1の変形例
>テクスチャ決定部133の第1の変形例においては、
(11)式を用いて、復号化部130で生成された表情
が付加された画像のテクスチャを表わすテクスチャベク
トルgtが補正される。この補正には、適当な係数kg
よって、補正の度合いが定められる。
<First Modification of Texture Determining Section 133> In the first modification of texture determining section 133,
Using the equation (11), the texture vector g t, which is generated by the decoding unit 130 and represents the texture of the image to which the facial expression is added, is corrected. For this correction, the degree of correction is determined by an appropriate coefficient k g .

【0111】補正されたテクスチャベクトルg′は、入
力された画像から生成されるテクスチャベクトルgと、
表情が付加されて復号化部106で生成されたテクスチ
ャベクトルgtの参照モデル111上での変化分との配
合割合を係数kgで調節する。このため、変化分を配合
する割合を係数kgで決定することができる。
The corrected texture vector g'is the texture vector g generated from the input image,
A mixture ratio of the texture vector g t generated by the decoding unit 106 to which the facial expression is added and the change amount on the reference model 111 is adjusted by a coefficient k g . Therefore, it is possible to determine the proportion in which the variation is mixed by the coefficient kg .

【0112】<テクスチャ決定部133の第2の変形例
>第2の変形例におけるテクスチャ決定部133では、
(12)式を用いて復号化部130が生成した表情が付
加された画像のテクスチャを表わすテクスチャベクトル
tが補正される。
<Second Modification of Texture Determining Section 133> In the texture determining section 133 in the second modification,
The texture vector g t representing the texture of the image added with the facial expression generated by the decoding unit 130 is corrected using the expression (12).

【0113】この補正には、復号化部130が出力する
表情が付加される前のテクスチャベクトルgOと復号化
される前のテクスチャベクトルgとが用いられる。(1
2)式において、関数Kgは、復号化部130で生成さ
れた表情が付加された画像の形状を表わす形状ベクトル
tによりその出力が制御される関数である。たとえ
ば、関数Kgの出力を、顔の形状の一部分、たとえば口
と目の部分は「1.0」とし、その他の部分はその関数
gの出力を「0.0」のように変化させることが可能
である。このため、参照モデル111上での変化分を部
分的に配合することができる。
For this correction, the texture vector g O before the expression added by the decoding unit 130 and the texture vector g before the decoding are used. (1
In the expression (2), the function K g is a function whose output is controlled by the shape vector s t which is generated by the decoding unit 130 and represents the shape of the image to which the facial expression is added. For example, the output of the function K g is set to “1.0” for a part of the shape of the face, for example, the mouth and eyes, and the other part is changed to “0.0” for the output of the function K g . It is possible. Therefore, the change on the reference model 111 can be partially blended.

【0114】これにより、形状ベクトルおよびテクスチ
ャベクトルが符号化および復号化されることにより生じ
る符号化歪みが画質に与える影響を小さくすることがで
きるとともに、顔の一部分のみを変化させることができ
る。
As a result, it is possible to reduce the influence of the coding distortion caused by the coding and decoding of the shape vector and the texture vector on the image quality, and to change only a part of the face.

【0115】<形状決定部132の第1の変形例>形状
決定部132の第1の変形例においては、(13)式を
用いて、復号化部130で生成された表情が付加された
画像の形状を表わす形状ベクトルstが補正される。特
徴変換部105で表情が付加されたテクスチャベクトル
tの表情が付加される前のテクスチャベクトルs0から
得られるテクスチャの変化分に逆正規化変換を施し、こ
れを原画像から抽出されたテクスチャベクトルgに対し
て配合する際、その配合割合が係数ksによって定めら
れる。
<First Modification of Shape Determining Unit 132> In the first modification of the shape determining unit 132, the image added with the facial expression generated by the decoding unit 130 using the equation (13). shape vector s t representing the shape is corrected. The feature conversion unit 105 performs inverse normalization conversion on the change amount of the texture obtained from the texture vector s 0 before the expression of the texture vector s t to which the expression is added, and the texture extracted from the original image. When blending with respect to the vector g, the blending ratio is determined by the coefficient k s .

【0116】したがって、入力された画像から生成され
る形状ベクトルsと、表情が付加されて復号化部106
で生成された形状ベクトルstの参照モデル111上で
の変化分との配合割合を係数kgで調節することが可能
となる。このため、入力画像と復元画像との間に解像度
の違いがある場合でも適切に対処可能である。
Therefore, the shape vector s generated from the input image and the facial expression are added to the decoding unit 106.
In the the mixing ratio of the change in the on reference model 111 of the generated shape vector s t can be adjusted by a factor k g. Therefore, even when there is a difference in resolution between the input image and the restored image, it is possible to appropriately deal with it.

【0117】<形状決定部132の第2の変形例>第2
の変形例における形状決定部132は、(14)式を用
いて、形状ベクトルを補正する。形状ベクトルs′は、
復号化部130が出力する形状ベクトルs t,sOおよび
形状抽出部102が出力する形状ベクトルsとを用いて
決定される。また、(14)式における関数Ksは、復
号化部130が出力する形状ベクトルstの値によりそ
の出力が変化する関数である。たとえば、関数Ksの出
力を、顔の形状の一部分、たとえば口と目の部分の場合
は「1.0」とし、その他の部分の場合は「0.0」の
ように部分の違いにより選択的に出力を異ならせるよう
にした関数である。これにより、参照モデル111上で
の形状の変化分を、部分的に配合することができる。
<Second Modification of Shape Determining Unit 132> Second
The shape determining unit 132 in the modified example uses the equation (14).
Then, the shape vector is corrected. The shape vector s'is
Shape vector s output by the decoding unit 130 t, SOand
Using the shape vector s output by the shape extraction unit 102,
It is determined. Further, the function K in the equation (14)sIs the
Shape vector s output by the encoding unit 130tDepending on the value of
Is a function whose output changes. For example, the function KsOut of
Force in the case of part of the shape of the face, for example the mouth and eyes
Is "1.0", and other parts are "0.0"
So that the output can be made different depending on the difference of the parts.
Is a function that As a result, on the reference model 111
The change in the shape can be partially blended.

【0118】なお、上述の形状決定部132またはその
変形例とテクスチャ決定部133またはその変形例とを
組合わせることも可能である。たとえば、形状決定部1
32の第2の変形例とテクスチャ決定部133の第2の
変形例とを組み合わせることにより、参照モデル111
を用いて表情を変化させて復元された形状ベクトルs t
およびテクスチャベクトルgtの参照モデル111上で
の変化分を用いるか、原画像から得られる形状ベクトル
sおよびテクスチャベクトルgを用いるかを、顔の形状
の部分により、選択的に重み付けすることができる。た
とえば、顔の口、目、鼻、眉、輪郭等で、いずれのデー
タを用いるのか、またいずれのデータを重視して用いる
のかを変更することができる。このため、たとえば、原
画像が目または口を閉じた表情の顔を含む画像から目や
口をあけた表情の画像に表情を変化させた場合であって
も、目や口の中の形状とテクスチャ(この場合には、眼
球や歯などになる)を復元することができる。
The shape determining unit 132 or the shape determining unit 132 described above is used.
The modification and the texture determination unit 133 or its modification are
It is also possible to combine. For example, the shape determining unit 1
32 second modification and texture determination unit 133 second
By combining with the modification, the reference model 111
Shape vector s restored by changing the facial expression using t
And texture vector gtOn the reference model 111 of
Shape vector obtained from the original image
s and texture vector g
Can be selectively weighted. Was
For example, face, mouth, eye, nose, eyebrows, outline, etc.
Data, and which data to use
Can be changed. Therefore, for example,
If the image contains a face with closed eyes or mouth,
When the facial expression is changed to an open facial expression image,
Even the shape and texture of the eyes and mouth (in this case the eyes
It becomes possible to restore spheres, teeth, etc.).

【0119】[0119]

【数2】 [Equation 2]

【0120】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の実施の形態の1つにおける画像生成シ
ステムの概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an image generation system in one of the first embodiments.

【図2】 第1の実施の形態における画像生成システム
の制御装置の操作パネルの一例を示す図である。
FIG. 2 is a diagram illustrating an example of an operation panel of a control device of the image generation system according to the first embodiment.

【図3】 第1の実施の形態における画像生成システム
の画像生成装置の概略機能を示すブロック図である。
FIG. 3 is a block diagram showing a schematic function of an image generation device of the image generation system according to the first embodiment.

【図4】 第1の実施の形態における画像生成装置で実
行される画像生成処理の流れを示すフローチャートであ
る。
FIG. 4 is a flowchart showing a flow of image generation processing executed by the image generation apparatus according to the first embodiment.

【図5】 第2の実施の形態における画像生成装置の概
略機能を示すブロック図である。
FIG. 5 is a block diagram showing a schematic function of an image generating apparatus according to a second embodiment.

【符号の説明】[Explanation of symbols]

1 画像生成システム、10,60 画像生成装置、2
0 画像入力装置、30 画像表示装置、40 制御装
置、41 表情操作パネル、42 年齢操作パネル、4
1a,41b,41c,41d,42d スライドスイ
ッチ、50 外部記憶装置、51 記録媒体、102
形状抽出部、103 テクスチャ抽出部、104 符号
化部、105 特徴変換部、106 復号化部、10
7,132形状決定部、108,133 テクスチャ決
定部、109 画像復元部、110 記憶部、111
参照モデル、112 特徴モデル、121 補正部、1
30 復号化部。
1 image generation system, 10,60 image generation device, 2
0 image input device, 30 image display device, 40 control device, 41 facial expression operation panel, 42 age operation panel, 4
1a, 41b, 41c, 41d, 42d slide switch, 50 external storage device, 51 recording medium, 102
Shape extraction unit, 103 texture extraction unit, 104 encoding unit, 105 feature conversion unit, 106 decoding unit, 10
7, 132 shape determination unit, 108, 133 texture determination unit, 109 image restoration unit, 110 storage unit, 111
Reference model, 112 feature model, 121 correction unit, 1
30 Decoding unit.

フロントページの続き Fターム(参考) 5B050 BA06 CA07 DA01 EA04 EA28 FA02 5B057 BA11 CA16 CB18 CG07 CH08 CH11 5B080 BA07 GA22 Continued front page    F-term (reference) 5B050 BA06 CA07 DA01 EA04 EA28                       FA02                 5B057 BA11 CA16 CB18 CG07 CH08                       CH11                 5B080 BA07 GA22

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 原画像の入力を受付けるステップと、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出するステップと、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するステップと、 前記生成されたパラメータの少なくとも1つの要素を変
更するステップと、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成するステップ
と、 前記原画像から抽出されたテクスチャデータを用いて、
前記再構成されたテクスチャデータを補正するステップ
と、 前記再構成された形状データと前記補正されたテクスチ
ャデータとを用いて画像を生成するステップとを含む、
画像生成方法。
1. A step of receiving an input of an original image; a step of extracting shape data representing a shape of an object and texture data representing a texture corresponding to the shape data from the input original image; Generating a parameter in the object model space by projecting the extracted shape data and texture data in an object model space obtained by statistically analyzing a plurality of object images having; Changing at least one element of the parameter, reconstructing shape data and texture data of the object corresponding to the changed parameter, and using texture data extracted from the original image,
Compensating the reconstructed texture data, and generating an image using the reconstructed shape data and the compensated texture data,
Image generation method.
【請求項2】 前記原画像から抽出された形状データを
用いて前記再構成された形状データを補正するステップ
をさらに含む、請求項1に記載の画像生成方法。
2. The image generation method according to claim 1, further comprising a step of correcting the reconstructed shape data by using shape data extracted from the original image.
【請求項3】 前記再構成されたテクスチャデータを補
正するステップは、前記原画像から抽出されたテクスチ
ャデータと前記原画像から抽出された形状データとを用
いて前記再構成されたテクスチャデータを補正するステ
ップを含む、請求項1に記載の画像生成方法。
3. The step of correcting the reconstructed texture data corrects the reconstructed texture data using texture data extracted from the original image and shape data extracted from the original image. The image generation method according to claim 1, further comprising:
【請求項4】 原画像の入力を受付けるステップと、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出するステップと、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するステップと、 前記生成されたパラメータの少なくとも1つの要素を変
更するステップと、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成するステップ
と、 前記原画像から抽出された形状データを用いて、前記再
構成された形状データを補正するステップと、 前記補正された形状データと前記再構成されたテクスチ
ャデータとを用いて画像を生成するステップとを含む、
画像生成方法。
4. A step of receiving an input of an original image; a step of extracting shape data representing a shape of an object and texture data representing a texture corresponding to the shape data from the input original image; Generating a parameter in the object model space by projecting the extracted shape data and texture data in an object model space obtained by statistically analyzing a plurality of object images having; Changing at least one element of the parameter; reconstructing shape data and texture data of the object corresponding to the changed parameter; and using the shape data extracted from the original image, A screen for correcting the configured shape data. Tsu including a flop, and generating an image using said corrected shape data and texture data the reconstructed,
Image generation method.
【請求項5】 前記原画像から抽出されたテクスチャデ
ータと前記原画像から抽出された形状データとを用いて
前記再構成されたテクスチャデータを補正するステップ
をさらに含む、請求項4に記載の画像生成方法。
5. The image according to claim 4, further comprising the step of correcting the reconstructed texture data using texture data extracted from the original image and shape data extracted from the original image. Generation method.
【請求項6】 前記オブジェクトは人間の顔であり、前
記パラメータの要素を変更するステップは、顔の表情の
カテゴリまたは年齢のカテゴリに属するパラメータを変
更するステップを含む、請求項1〜5のいずれかに記載
の画像生成方法。
6. The object according to claim 1, wherein the object is a human face, and the step of changing an element of the parameter includes a step of changing a parameter belonging to a facial expression category or an age category. The image generation method according to claim 1.
【請求項7】 原画像の入力を受付けるステップと、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出するステップと、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するステップと、 前記生成されたパラメータの少なくとも1つの要素を変
更するステップと、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成するステップ
と、 前記原画像から抽出されたテクスチャデータを用いて、
前記再構成されたテクスチャデータを補正するステップ
と、 前記再構成された形状データと前記補正されたテクスチ
ャデータとを用いて画像を生成するステップとをコンピ
ュータに実行させる、画像生成プログラム。
7. A step of receiving an input of an original image; a step of extracting shape data representing a shape of an object and texture data representing a texture corresponding to the shape data from the input original image; Generating a parameter in the object model space by projecting the extracted shape data and texture data in an object model space obtained by statistically analyzing a plurality of object images having; Changing at least one element of the parameter, reconstructing shape data and texture data of the object corresponding to the changed parameter, and using texture data extracted from the original image,
An image generation program that causes a computer to execute a step of correcting the reconstructed texture data and a step of generating an image using the reconstructed shape data and the corrected texture data.
【請求項8】 原画像の入力を受付けるステップと、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出するステップと、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するステップと、 前記生成されたパラメータの少なくとも1つの要素を変
更するステップと、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成するステップ
と、 前記原画像から抽出された形状データを用いて、前記再
構成された形状データを補正するステップと、 前記補正された形状データと前記再構成されたテクスチ
ャデータとを用いて画像を生成するステップとをコンピ
ュータに実行させる、画像生成プログラム。
8. A step of receiving an input of an original image; a step of extracting shape data representing a shape of an object and texture data representing a texture corresponding to the shape data from the input original image; Generating a parameter in the object model space by projecting the extracted shape data and texture data in an object model space obtained by statistically analyzing a plurality of object images having; Changing at least one element of the parameter; reconstructing shape data and texture data of the object corresponding to the changed parameter; and using the shape data extracted from the original image, A screen for correcting the configured shape data. And-up, and a step of generating an image using said corrected shape data and texture data the reconstructed on the computer, the image generating program.
【請求項9】 請求項7または8に記載の画像生成プロ
グラムを記録したコンピュータ読取可能な記録媒体。
9. A computer-readable recording medium in which the image generation program according to claim 7 or 8 is recorded.
【請求項10】 原画像の入力を受付ける受付手段と、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出する抽出手段と、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するパラメータ生成手段と、 前記生成されたパラメータの少なくとも1つの要素を変
更する変更手段と、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成する再構成手段
と、 前記原画像から抽出されたテクスチャデータを用いて、
前記再構成されたテクスチャデータを補正する補正手段
と、 前記再構成された形状データと前記補正手段によって補
正されたテクスチャデータとを用いて画像を生成する画
像生成手段とを備えた、画像生成装置。
10. An accepting means for accepting an input of an original image, and an extracting means for extracting shape data representing an object shape and texture data representing a texture corresponding to the shape data from the input original image, the same. Parameter generation means for generating parameters in the object model space by projecting the extracted shape data and texture data in the object model space obtained by statistically analyzing a plurality of object images having attributes, Changing means for changing at least one element of the generated parameter; reconstructing means for reconstructing the shape data and texture data of the object corresponding to the changed parameter; and the texture extracted from the original image. Using the data,
An image generation apparatus comprising: a correction unit that corrects the reconstructed texture data; and an image generation unit that generates an image using the reconstructed shape data and the texture data corrected by the correction unit. .
【請求項11】 原画像の入力を受付ける受付手段と、 前記入力された原画像からオブジェクトの形状を表わす
形状データおよび前記形状データに対応したテクスチャ
を表わすテクスチャデータを抽出する抽出手段と、 同一の属性を有する複数のオブジェクト画像を統計的に
解析して得られたオブジェクトモデル空間に、抽出され
た前記形状データおよび前記テクスチャデータを射影し
て前記オブジェクトモデル空間におけるパラメータを生
成するパラメータ生成手段と、 前記生成されたパラメータの少なくとも1つの要素を変
更する変更手段と、 前記変更されたパラメータに対応するオブジェクトの形
状データとテクスチャデータとを再構成する再構成手段
と、 前記原画像から抽出された形状データを用いて、前記再
構成された形状データを補正する補正手段と、 前記補正手段によって補正された形状データと前記再構
成されたテクスチャデータとを用いて画像を生成する画
像生成手段とを備えた、画像生成装置。
11. Receiving means for receiving an input of an original image, and extraction means for extracting shape data representing a shape of an object and texture data representing a texture corresponding to the shape data from the input original image Parameter generation means for generating parameters in the object model space by projecting the extracted shape data and texture data in the object model space obtained by statistically analyzing a plurality of object images having attributes. Changing means for changing at least one element of the generated parameter; reconstructing means for reconstructing the shape data and texture data of the object corresponding to the changed parameter; and the shape extracted from the original image. Using the data, the reconstructed shape data And correcting means for correcting, with an image generating means for generating an image using the corrected shape data and texture data the reconstructed by said correction means, the image generating apparatus.
JP2001206479A 2001-07-06 2001-07-06 Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation Withdrawn JP2003022451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001206479A JP2003022451A (en) 2001-07-06 2001-07-06 Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001206479A JP2003022451A (en) 2001-07-06 2001-07-06 Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation

Publications (1)

Publication Number Publication Date
JP2003022451A true JP2003022451A (en) 2003-01-24

Family

ID=19042599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001206479A Withdrawn JP2003022451A (en) 2001-07-06 2001-07-06 Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation

Country Status (1)

Country Link
JP (1) JP2003022451A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054759A (en) * 2012-10-31 2013-03-21 Olympus Imaging Corp Image acquiring device, image handling method, and program for image handling
JP2021064408A (en) * 2017-05-02 2021-04-22 日本電信電話株式会社 Signal changing device, method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054759A (en) * 2012-10-31 2013-03-21 Olympus Imaging Corp Image acquiring device, image handling method, and program for image handling
JP2021064408A (en) * 2017-05-02 2021-04-22 日本電信電話株式会社 Signal changing device, method, and program
US11288851B2 (en) 2017-05-02 2022-03-29 Nippon Telegraph And Telephone Corporation Signal change apparatus, method, and program
JP7144699B2 (en) 2017-05-02 2022-09-30 日本電信電話株式会社 SIGNAL MODIFIER, METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
JP2918499B2 (en) Face image information conversion method and face image information conversion device
JP4767718B2 (en) Image processing method, apparatus, and program
US11620739B2 (en) Image generation device, image generation method, and storage medium storing program
JP4886645B2 (en) Virtual face model deformation device and virtual face model deformation program
US6820137B2 (en) Computer-readable recording medium storing resolution converting program, resolution converting device and resolution converting method
JP4795718B2 (en) Image processing apparatus and method, and program
JP3023961B2 (en) Encoder and decoder
JPH0962865A (en) Face picture processing method and face picture processor
CN116648729A (en) Head portrait display device, head portrait generation device, and program
KR20020015642A (en) Apparatus and method for generating a synthetic facial image based on shape information of a facial image
JP2007006182A (en) Image processing apparatus and method therefor, and program
JP2012231367A (en) Image compression device, image decompression device, method, and program
CN112132836A (en) Video image clipping method and device, electronic equipment and storage medium
US7139439B2 (en) Method and apparatus for generating texture for 3D facial model
JP2002024811A (en) Shadow component removing device
JP2013226286A (en) Method for synthesizing hair style, device for synthesizing hair style, and program for synthesizing hair style
JP2006350769A (en) Image processing device, method and program
JP2003022451A (en) Method and program for image formation, computer- readable recording medium having program for image formation recorded thereon, and device for image formation
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
JP2001231037A (en) Image processing system, image processing unit, and storage medium
CN114782240A (en) Picture processing method and device
JP3077869B2 (en) Image data compression and decompression methods
JPH08149461A (en) Moving image processor and method therefor
CN115294622B (en) Method, system and storage medium for synthesizing and enhancing voice-driven speaker head motion video
WO2024099319A1 (en) Virtual video image generation method and apparatus, and device and medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007