JP3799633B2 - 顔画像処理方法および顔画像処理装置 - Google Patents
顔画像処理方法および顔画像処理装置 Download PDFInfo
- Publication number
- JP3799633B2 JP3799633B2 JP28169395A JP28169395A JP3799633B2 JP 3799633 B2 JP3799633 B2 JP 3799633B2 JP 28169395 A JP28169395 A JP 28169395A JP 28169395 A JP28169395 A JP 28169395A JP 3799633 B2 JP3799633 B2 JP 3799633B2
- Authority
- JP
- Japan
- Prior art keywords
- face image
- color
- shape
- face
- color interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Description
【発明の属する技術分野】
本発明は、たとえば2枚の顔画像と背景となる1枚の顔画像を用いて、この背景となる1枚の顔画像をベースとして前記2枚の顔画像を合成する顔画像処理方法及び顔画像処理装置に関する。
【0002】
【従来の技術】
この種の画像合成の例として、たとえば、或る男性の顔画像と或る女性の顔画像を用いて、適当な子どもの顔画像をベースにして、男性の顔画像の特徴と女性の顔画像の特徴を加味して合成し、子どもの顔画像を作成するというようなことが従来より行われている。
【0003】
このような画像合成を行う場合は、2枚の顔画像G1,G2と背景となる1枚の顔画像G3があって、これらの顔画像G1,G2,G3に整合させたそれぞれの形状モデルを用意し、顔画像G1,G2,G3とそれぞれに対応する形状モデルをもとに、背景となる顔画像G3をベースにして顔画像G1,G2の特徴を加味した画像を合成するのが一般的である。
【0004】
図12は従来の画像合成装置の処理を説明するブロック図であり、以下、図12を参照して説明する。
【0005】
図12において、1は形状補間処理部、2は色補間処理部である。形状補間処理部1には、顔画像G1、顔画像G2、背景となる顔画像G3のそれぞれの形状データ(後に説明する)が入力され、色補間処理部2には、顔画像G1、顔画像G2、顔画像G3のそれぞれの画像データ(色データ)が入力されるとともに、顔画像G1、顔画像G2、顔画像G3のそれぞれの形状データ、さらに前記形状補間処理部1からの形状補間データが入力されるよになっている。そして、この色補間処理部2から合成画像データが出力される。
【0006】
ところで、前記形状データというのは、図13に示すような形状モデルにおける顔画像内のそれぞれの点qの番号(q0,q1,・・・)、2つの点間を結ぶラインLの番号(L0,L1,・・・)、近傍の3つの点を結んで形成されるパッチpの番号(p0,p1,・・・)を基に得られた前記それぞれの点qの座標データ、前記それぞれのラインLに関するデータ(たとえば、ラインL0は点q0とq1で形成されるというようなデータ)、前記それぞれのパッチpに関するデータ(たとえば、パッチp0は点q0,q1,q2で形成されるというようなデータ)である。
【0007】
そして、前記形状補間処理部1では、顔画像G1、顔画像G2のそれぞれの形状データを用いて形状補間する処理を行う。つまり、顔画像G1と顔画像G2の対応する点の座標を所定の比率で補間する(たとえば、両者の座標値をたして2で割る)というような処理を行って形状補間を行う。そして、このように形状補間されたのち、色補間処理部2では、形状補間された後のそれぞれのパッチにおいて、それぞれのパッチ内の所定の位置に対応する顔画像G1と顔画像G2のそれぞれの画素の色データを所定の比率で補間して、それを前記形状補間された所定のパッチの所定位置に書き込むというような処理を行って、合成画像データを作成する。
【0008】
さらに、たとえば、顔画像G1を父親の顔画像、顔画像G2を母親の顔画像として、背景となる顔画像G3(或るこどもの顔画像)に顔画像G1と顔画像G2を合成した顔画像を作成する場合は、顔画像G1、顔画像G2、顔画像G3の補間比率が合計で1となるように形状補間補間処理および色補間処理して画像合成を行う。
【0009】
【発明が解決しようとする課題】
しかしながら、従来のこの種の顔画像合成装置は、合成しようとする顔画像G1と顔画像G2の2つの形状モデルの座標値をそのまま補間して、合成画像の形状モデルを求めている。このため、たとえば、図14に示すように、補間比率を連続的に変化させて顔画像の合成を行う場合、目や口などの顔の特徴的な構成部品の位置が細かく移動してしまうという問題があった。なお、図14において、同図(a)は顔画像G1と顔画像G2の形状補間比率を、G1:G2=0.7:0.3とした場合、同図(b)は顔画像G1と顔画像G2の形状補間比率を、G1:G2=0.5:0.5とした場合、同図(c)は顔画像G1と顔画像G2の形状補間比率を、G1:G2=0.3:0.7とした場合を示している。
【0010】
また、従来の顔画像合成装置においては、目、口、鼻などの部品単位に形状補間比率および色補間比率を変化させる手段はなく、一定の形状補間比率および色補間比率で補間処理を行っていた。そのため、たとえば、目は顔画像G1(男性の顔画像)、鼻は顔画像G2(女性の顔画像)に似せるというように、部品単位にどちらかの顔画像に似せるというような処理は行えないのが普通であった。また、色補間を一定の比率で補間処理することから、顔画像G1,G2や背景となる顔画像G3において、輝度の極端に低い陰や髪の部分、あるいは、ハイライト部分の色が中途半端に合成画像に影響し、合成された色が不自然なものとなる問題もあった。
【0011】
さらに、従来の顔合成処理は、顔画像の髪の色、目の色、肌の色など人種を示す特徴的な色については何等考慮されない合成処理であった。したがって、日本人同志の合成の場合は、特に問題はないが、髪の色、目の色、肌の色の異なる人同志の顔画像を合成する場合、従来の合成処理方法では不自然な合成顔画像が作成される場合もある。たとえば、金髪で肌の色が白色、眼球が青色の大人の男女の顔画像G1,G2を、或る子どもの顔画像をベースにして合成する場合、ベースとなる子どもの顔画像が日本人では、合成後の子どもの顔画像が不自然なものとなってしまうのは明らかである。
【0012】
しかしながら、従来では、顔画像G1,G2の髪の色、目の色、肌の色など人種を示す特徴的な色に対応して、背景となる顔画像G3を選択するという処理を行っていないのが一般的である。
【0013】
また、或る1枚の顔画像を用いて、目、鼻、眉、口などの部品の或る点の座標値を少し動かすことで顔の表情を変化させることも従来より行われている。たとえば、目の下瞼の部分の点を上に少し動かすことによって、微笑んだ表情を作るというように顔の表情を変化させる場合は、顔のどの点をどの程度どの方向に移動させるかというデータ(これを表情データという)を予め設定しておくことで、表情を変化させることができる。たとえば、微笑んだ表情を作る場合には、目の下瞼の或る点を10画素だけ上方に移動させるというような表情データを予め作成しておき、この表情データに基づいて表情を変化させるのが一般的であった。
【0014】
しかし、このような定数による表情データでは、顔画像の大きさに関係なく、同じ量だけ点の移動が行われるので、小さい顔画像の場合には、移動量が大きすぎて不自然な表情となってしまう問題があった。
【0015】
これに対処する従来技術として、移動ベクトルの正規化をする方法があるが、従来の移動ベクトルの正規化方法は、四角の曲面パッチ(ベッツイ・パッチ)を対象としたものであり、演算も微分演算を必要とするなどその計算量はきわめて多いという問題があった。
【0016】
また、或る1枚の顔画像を用いて、その顔画像に年齢変化を加える処理、たとえば、或る顔画像が年をとったときどのような顔画像となるかの処理(これをここでは加齢処理という)を施すことが従来より行われている。この技術の1つとして、たとえば、肌のたるみ処理を施す技術がある。これは、皮膚を弾性を持った布地物体として、下方向の重力の作用を加えることで皮膚の垂みを表そうとするものである。
【0017】
しかし、この方法は、多少の加齢効果は期待できるものの、リアリティのある加齢処理を行うことはできなかった。
【0018】
そこで、本発明は、形状補間比率を連続的に変えて複数の顔画像を合成する場合、顔の特徴的な部分の位置が動くのを防止するとともに、合成後の顔画像を顔の部品単位で補間比率を変化させることにより、部品単位でいずれかの顔画像に似せたりすることを可能とし、また、顔画像の輝度に応じて補間比率を変化させることにより、自然な合成画像を得ることを可能とし、また、顔画像の髪の色、目の色、肌の色など人種を示す特徴的な色を考慮した合成処理をも可能とし、さらに、簡単な計算量で顔の表情を変化させることができ、さらに、適切な年齢変化処理を施すことができる顔画像処理方法および顔画像処理装置を実現することを目的とする。
【0019】
【課題を解決するための手段】
本発明の画像処理方法は、2枚の顔画像G1,G2および背景となる顔画像G3と、これら顔画像G1,G2,G3に整合させたそれぞれの形状モデルとから、前記顔画像G3をベースとして前記顔画像G1,G2の特徴を加えた顔画像を合成する画像処理方法であって、第1の形状整合処理手段が、前記顔画像G1の特徴的部分に注目し、前記顔画像G1の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像G3の形状モデルの対応する点の座標に座標変換することで、前記顔画像G1を前記顔画像G3に大まかに整合するステップと、第2の形状整合処理手段が、前記顔画像G2の特徴的部分に注目し、前記顔画像G2の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像G3の形状モデルの対応する点の座標に座標変換することで、前記顔画像G2を前記顔画像G3に大まかに整合するステップと、形状補間処理手段が、前記第1の形状整合処理手段により整合された前記顔画像G1の整合後の形状モデルと、前記第2の形状整合処理手段により整合された前記顔画像G2の整合後の形状モデルのそれぞれと、前記顔画像G3の形状モデルのそれぞれ対応する点の座標値を所定の比率で形状補間するステップと、色補間処理手段が、前記形状補間処理手段により形状補間された形状モデルに対し、それぞれ対応する画素について所定の比率で色補間するステップとを有することを特徴としている。これにより、形状補間比率を連続的に変化させて2つの顔画像を合成する場合でも、目や口といった顔の特徴的部分の位置が形状補間比率を変化させる毎に微妙に動いてしまうということがなくなり、高品質な合成画像を得ることが可能となる。
【0020】
また、前記形状補間処理手段は、顔を形作る特徴部分単位に形状補間の比率を変化させて形状補間を行うようにする。これにより、合成画像を、目や口といった部品ごとに顔画像G1に似せたり、顔画像G2に似せたりすることができる。
【0021】
また、前記色補間処理手段は、背景となる前記顔画像G3の各部分の輝度値の大きさに応じて色補間比率を設定するようにしている。これにより、背景となる顔画像において特徴的な輝度値を有する部分が存在する場合、その特徴的部分の色相を合成画像に残すような色補間比率を設定することができ、自然な状態の合成画像を得ることができる。
【0022】
そして、前記輝度値に応じた色補間比率の設定は、前記顔画像G3の肌色の中心輝度を有する部分に対しては前記顔画像G3の色補間比率を前記顔画像G1,G2の色補間比率に比べて最も小さくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像G3の色補間比率を前記顔画像G1,G2の色補間比率に比べて最も大きくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像G3の色補間比率を大きくするようにしている。これにより、背景となる顔画像の髪の毛やハイライト部分など輝度値が極端に大きい部分や小さい部分はそのまま残した状態で合成が行えるので、自然な合成が可能となる。
【0023】
また、前記色補間処理手段は、前記顔画像G1,G2の各部分の輝度値の大きさに応じて色補間比率を設定するようにしている。これにより、顔画像G1,G2において特徴的な輝度値を有する部分が存在する場合は、それに対応した色補間比率を設定することで、たとえば、顔画像G1,G2の額部分に髪の毛がかかっているような場合、それを合成画像に現さないようにすることが可能となる。
【0024】
そして、前記輝度値に応じた色補間比率の設定は、前記顔画像G1,G2の肌色の中心輝度を有する部分に対しては前記顔画像G1,G2の色補間比率を前記顔画像G3の色補間比率に比べて最も大きくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像G1,G2の色補間比率を前記顔画像G3の色補間比率に比べて最も小さくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像G1,G2の色補間比率を小さくするようにする。これにより、顔画像G1,G2の髪の毛など輝度値が極端に大きい部分に対しては、色補間比率を小さく設定することで、たとえば、顔画像G1,G2の額部分に髪の毛がかかっているような場合、それを合成画像に現さないようにすることが可能となる。
【0025】
また、前記色補間処理手段は、顔を形作る特徴部分単位に色補間の比率を変化させて色補間を行うようにする。これにより、色相についても、目や口といった特徴部分ごとに顔画像G1またはG2のいずれかに似せた合成画像を作ることができる。これを前述の形状補間比率を目や口などの部品ごとに変化させる技術と組み合わせることにより、より一層、きめ細やかに、顔画像G1に似せたり、顔画像G2に似せたりした合成画像を得ることができる。
【0026】
また、本発明の顔画像処理方法は、2枚の顔画像G1,G2および背景となる顔画像G3と、これら顔画像G1,G2,G3に整合させたそれぞれの形状モデルとから、前記顔画像G3をベースとして前記顔画像G1,G2の特徴を加えた顔画像を合成する顔画像処理方法であって、色補間手段が、前記顔画像G1,G2の特徴的な領域に注目し、前記顔画像G1,G2のそれぞれの特徴的な領域の色を検出するステップと、背景顔画像選択処理手段が、前記色検出手段が検出した前記特徴的な領域の色データを基にして、前記ベースとなる前記顔画像G3を選択するステップとを有することを特徴としている。これによれば、合成しようとする顔画像G1,G2にふさわしい顔画像G3を選択できるので、自然な合成画像を作成することができる。
【0027】
前記背景顔画像選択処理手段は、前記色検出手段が検出した前記顔画像G1,G2の前記特徴的な領域の画像データを基に遺伝的な情報に基づいて、前記顔画像G3を選択する。これによれば、顔画像G1,G2の人種的な特徴に対応した顔画像G3を選択できるので、自然な合成画像を作成することができる。
【0028】
また、前記顔画像G1,G1の特徴的な領域は、少なくとも髪領域、肌領域、目領域のうちの1つを含むことを特徴としている。これによれば、顔画像の中で特に特徴的な領域を考慮して顔画像G3が選択されるので、自然な合成画像を作成することができる。
【0029】
また、本発明の顔画像処理方法は、顔画像G1,G2、または背景となる顔画像G3をベースとして前記顔画像G1,G2の特徴を加えて得られた合成後の顔画像など、或るいずれか1つの顔画像を処理対象顔画像とし、この処理対象顔画像とその処理対象画像に整合させた形状モデルを用い、当該処理対象顔画像の所定の点を所定量だけ移動させることによって表情を変化させる顔画像処理方法であって、表情を変化させるための予め設定された定数が格納される表情データ記憶手段と、表情変化処理手段が、当該処理対象の顔画像内の或る一点からその顔画像の輪郭に向かって横方向および縦方向に向かう2つのベクトル、これらの2つのベクトルに直交しこれら各ベクトルの相乗平均の大きさを有するベクトルを求め、これら各ベクトルと、前記表情を変化させるための予め設定された定数とを基に、当該顔画像の所定の点の移動方向及び移動量を表す移動ベクトルを算出するステップとを有することを特徴としている。これにより、顔の表情を変化させる処理を簡単な演算にて行うことができる。
【0030】
また、本発明の顔画像処理方法は、顔画像G1,G2、または背景となる顔画像G3をベースとして前記顔画像G1,G2の特徴を加えて得られた合成後の顔画像など、或るいずれか1つの顔画像を処理対象顔画像とし、この処理対象顔画像とその処理対象画像に整合させた形状モデルを用い、前記処理対象顔画像に年齢変化を加える処理を行う顔画像処理方法であって、年齢変化処理部が、予め用意された或る年齢相応の顔画像G5とこの顔画像G5に整合させた形状モデルから、この顔画像G5の肌領域の画像を抽出し、この抽出された肌領域の画像を前記処理対象顔画像の肌領域にマッピングして年齢変化処理を行うことを特徴としている。これにより、リアリティのある年齢変化処理が可能となる。
【0031】
また、本発明の画像処理装置は、2枚の顔画像G1,G2および背景となる顔画像G3と、これら顔画像G1,G2,G3に整合させたそれぞれの形状モデルとから、前記顔画像G3をベースとして前記顔画像G1,G2の特徴を加えた顔画像を合成する画像処理装置であって、前記顔画像G1の特徴的部分に注目し、前記顔画像G1の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像G3の形状モデルの対応する点の座標に座標変換することで、前記顔画像G1を前記顔画像G3に大まかに整合する第1の形状整合処理手段と、前記顔画像G2の特徴的部分に注目し、前記顔画像G2の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像G3の形状モデルの対応する点の座標に座標変換することで、前記顔画像G2を前記顔画像G3に大まかに整合させる第2の形状整合処理手段と、前記第1の形状整合処理手段により整合された前記顔画像G1の整合後の形状モデルと、前記第2の形状整合処理手段により整合された前記顔画像(G2)の整合後の形状モデルのそれぞれと、前記顔画像G3の形状モデルのそれぞれ対応する点の座標値を所定の比率で形状補間する形状補間処理手段と、前記形状補間処理手段にて形状補間された形状モデルに対し、それぞれ対応する画素について所定の比率で色補間する色補間処理手段とを有したことを特徴としている。これにより、形状補間比率を連続的に変化させて2つの顔画像を合成する場合でも、目や口といった顔の特徴的部分の位置が形状補間比率を変化させる毎に微妙に動いてしまうということがなくなり、高品質な合成画像を得ることが可能となる。
【0032】
また、前記形状補間処理手段は、顔を形作る特徴部分単位に形状補間の比率を変化させて形状補間を行うようにする。これにより、合成画像を、目や口といった部品ごとに顔画像G1に似せたり、顔画像G2に似せたりすることができる。
【0033】
また、前記色補間処理手段は、前記顔画像G3の各部分の輝度値の大小を判断し、前記輝度値の大きさに応じて色補間比率を設定する。これにより、背景となる顔画像において特徴的な輝度値を有する部分が存在する場合、その特徴的部分の色相を合成画像に残すような色補間比率を設定することができ、自然な状態の合成画像を得ることができる。
【0034】
そして、前記輝度値に応じた色補間比率の設定は、前記顔画像G3の肌色の中心輝度を有する部分に対しては前記顔画像G3の色補間比率を前記顔画像G1,G2の色補間比率に比べて最も小さくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像G3の色補間比率を前記顔画像G1,G2の色補間比率に比べて最も大きくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像G3の色補間比率大きくするようにする。これにより、背景となる顔画像の髪の毛やハイライト部分など輝度値が極端に大きい部分や小さい部分はそのまま残した状態で合成が行えるので、自然な合成が可能となる。
【0035】
また、前記色補間処理手段は、前記顔画像G1,G2の各部分の輝度値の大小を判断し、前記輝度値の大きさに応じて色補間比率を設定する。これにより、顔画像G1,G2において特徴的な輝度値を有する部分が存在する場合は、それに対応した色補間比率を設定することで、たとえば、顔画像G1,G2の額部分に髪の毛がかかっているような場合、それを合成画像に現さないようにすることが可能となる。
【0036】
そして、前記輝度値に応じた色補間比率の設定は、前記顔画像G1,G2の肌色の中心輝度を有する部分に対しては前記顔画像G1,G2の色補間比率を前記顔画像G3の色補間比率に比べて最も大きくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像G1,G2の色補間比率を前記顔画像G3の色補間比率に比べて最も小さくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像G1,G2の色補間比率を小さくするようにする。これにより、顔画像G1,G2の髪の毛など輝度値が極端に小さい部分に対しては、色補間比率を小さく設定することで、たとえば、顔画像G1,G2の額部分に髪の毛がかかっているような場合、それを合成画像に現さないようにすることが可能となる。
【0037】
また、前記色補間処理手段は、顔を形作る特徴部分単位に色補間の比率を変化させて色補間を行うようにする。これにより、色相についても、目や口といった特徴部分ごとに顔画像G1またはG2のいずれかに似せた合成画像を作ることができる。これを前述の形状補間比率を目や口などの部品ごとに変化させる技術と組み合わせることにより、より一層、きめ細やかに、顔画像G1に似せたり、顔画像G2に似せたりした合成画像を得ることができる。
【0038】
本発明の顔画像処理装置は、2枚の顔画像G1,G2および背景となる顔画像G3と、これら顔画像G1,G2,G3に整合させたそれぞれの形状モデルとから、前記顔画像G3をベースとして前記顔画像G1,G2の特徴を加えた顔画像を合成する顔画像処理装置であって、前記顔画像G1,G2の特徴的な領域の色を検出するそれぞれの色検出手段と、それぞれの前記色検出手段により検出されたそれぞれの前記特徴的な領域の色データを基にして、前記ベースとなる前記顔画像G3を選択する背景顔画像選択処理手段とを有することを特徴としている。これによれば、合成しようとする顔画像G1,G2にふさわしい背景となる顔画像G3を選択できるので、自然な合成画像を作成することができる。
【0039】
前記背景顔画像選択処理手段は、遺伝的な情報を予め格納した遺伝情報テーブルを設け、前記顔画像G1,G2の前記特徴的な領域の画像データを基に、前記遺伝情報テーブルを参照して、前記顔画像G1,G2の画像データに対応する前記背景顔画像G3を選択する。これによれば、顔画像G1,G2の人種的な特徴に対応した背景となる顔画像G3を選択できるので、自然な合成画像を作成することができる。
【0040】
前記顔画像G1,G2の特徴的な領域は、少なくとも髪領域、肌領域、目領域のうちの1つを含むことを特徴としている。これによれば、顔画像の中で特に特徴的な領域を考慮して背景となる顔画像G3が選択されるので、自然な合成画像を作成することができる。
【0041】
また、本発明の顔画像処理装置は、顔画像G1,G2、または背景となる顔画像G3をベースとして前記顔画像G1,G2の特徴を加えて得られた合成後の顔画像など、或るいずれか1つの顔画像を処理対象顔画像とし、この処理対象顔画像とその処理対象画像に整合させた形状モデルを用い、当該処理対象顔画像の所定の点を所定量だけ移動させることによって表情を変化させる顔画像処理装置であって、表情を変化させるための予め設定された定数が格納される表情データ記憶手段と、当該処理対象の顔画像内の或る一点からその顔画像の輪郭に向かって横方向および縦方向に向かう2つのベクトル、これらの各ベクトルに直交しこれら各ベクトルの相乗平均の大きさを有するベクトルを求め、これら2つのベクトルと、前記表情を変化させるための予め設定された定数とを基に、当該顔画像の所定の点の移動方向及び移動量を表す移動ベクトルを算出する表情変化処理手段とを有することを特徴としている。これにより、顔の表情を変化させる処理を簡単な演算にて行うことができる。
【0042】
また、本発明の顔画像処理装置は、顔画像G1,G2、または背景となる顔画像G3をベースとして前記顔画像G1,G2の特徴を加えて得られた合成後の顔画像など、或るいずれか1つの顔画像を処理対象顔画像とし、この処理対象顔画像とその処理対象画像に整合させた形状モデルを用い、前記処理対象顔画像に年齢変化を加える処理を行う顔画像処理装置であって、予め用意された或る年齢相応の顔画像G5とこの顔画像G5に整合させた形状モデルから、この顔画像G5の肌領域の画像を抽出し、この抽出された肌領域の画像を前記処理対象顔画像の肌領域にマッピングして年齢変化処理を行う年齢変化処理部を有したことを特徴としている。これにより、リアリティのある年齢変化処理が可能となる。
【0043】
【発明の実施の形態】
以下、本発明の実施の形態について説明する。
【0044】
(第1の実施の形態)
図1は本発明の処理を説明するブロック図であり、図12と同一部分には同一符号が付されている。本発明では、図12で示す構成に対して、顔画像G1および顔画像G2のそれぞれの形状データを用いて、顔画像G3に大まかに整合させる処理を行うそれぞれの形状整合処理部11,12(その処理については後に説明する)が新たに設けられ、それぞれの形状整合処理部11,12(第1の形状整合処理部11、第2の形状整合処理部12)からのそれぞれの整合後の形状データが出力され、形状補間処理部1に与えられるようになっている。
【0045】
すなわち、図1においては、形状補間処理部1には、前記したように、第1の形状整合処理部11および第2の形状整合処理部12からのそれぞれの整合後形状データと、顔画像G3の形状データが入力され、色補間処理部2には、顔画像G1の画像データと形状データ、顔画像G2の画像データと形状データ、顔画像G3の画像データと形状データ、さらに、前記形状補間処理部1からの形状補間データが入力される構成となっている。
【0046】
このような構成において、以下にその処理について説明する。
【0047】
前記第1、第2の形状整合処理部11,12は、顔画像G1、顔画像G2のそれぞれの形状データを用いて、顔画像G1、顔画像G2の形状モデルを、背景となる顔画像G3に大まかに整合させるための処理を行う。たとえば、顔画像G1を顔画像G3に大まかに整合させる例についてを図2を参照して説明する。
【0048】
まず、顔画像G1の特徴的な部品として、両目と口を選び、両目部分のそれぞれの中心点をα,β、口の部分の中心点をγとすると、点α,β,γのそれぞれの座標を、顔画像G3の両目と口の中心点α’,β’,γ’の座標へ座標変換を、下記に示す式を用いてアフィン変換により行う。
【0049】
【数1】
【0050】
この(1)式に示す式を連立させてアフィン係数c0〜c5を求める。なお、アフィン係数c0からc3は回転、拡大、縮小を表し、c4,c5は平行移動を表している。また、(1)式において、Xα,Yαは点αの座標、Xβ,Yβは点βの座標、Xγ,Yγは点γの座標、Xα’,Yα’は点α’の座標、Xβ’,Yβ’は点β’の座標、Xγ’,Yγ’は点γ’の座標である。なお、実際には各点の座標は、X,Y,Zの3次元空間の座標である。
【0051】
この(1)式により求められたアフィン係数c0〜c5を用いることにより、両目のそれぞれの中心点α,βと口の中心点γ以外の全ての点も顔画像G3に座標変換することができる。つまり、顔画像G1内のそれぞれの点の座標値を前記(1)式に代入することにより、変換後の各点の座標値を求めることができる。
【0052】
このように、まず、顔画像G1の両目と口のそれぞれの座標位置を、顔画像G3の両目と口の座標位置にアフィン変換することにより、顔画像G1の両目と口の部分を大まかに整合させ、なおかつ、顔画像G1の他の点(顔画像全体)も顔画像G3に大まかに整合させることができる。このような大まかな整合処理は、第1の形状整合処理部11により行われ、この第1の形状整合処理部11にて得られた大まかな整合後の形状データは、形状補間処理部1と色補間処理部2に送られる。
【0053】
これと同様に、顔画像G2も顔画像G3に大まかに整合させる処理を行い、第2の形状整合処理部12で得られた大まかな整合後の形状データは形状補間処理部1と色補間処理部2に送られる。
【0054】
形状補間処理部2では、顔画像G1の整合後の形状データと顔画像G2の整合後の形状データおよび顔画像G3の形状データを用い、それぞれの補間比率が合計で1になるような比率で形状補間処理を行う。
【0055】
ここまでの動作を図3(a),(b),(c)に示す。図3(a)は顔画像G1および顔画像G2を示すもので、これらの顔画像G1,G2を、同図(b)の点線で示す背景となる顔画像G3に大まかに整合させる。この大まかな整合処理は、前記したように、顔画像G1(顔画像G2)の両目の中心点α,βの座標(Xα,Yα)、(Xβ,Yβ)と口の中心点γの座標(Xγ,Yγ)を、顔画像G3の両目と口のそれぞれの中心点α’,β’,γ’の座標に前記(1)式によりアフィン変換することで行う。そして、前記(1)式によりそれぞれの係数c0〜c5を求め、この係数c0〜c5を用いて(1)式により顔画像G1(顔画像G2)の各点の座標をアフィン変換して、顔画像G3の対応する位置に合わせ込む。図3(b)は顔画像G1および顔画像G2を顔画像G3に大まかに整合させた状態を示すものであり、点線が背景となる顔画像G3、実線が顔画像G1および顔画像G2を示している。
【0056】
これにより、形状補間処理部1では形状補間を行う際、大まかに整合された形状データ(座標データ)および顔画像G3の形状データ(座標データ)を用いて形状補間を行うため、同図(c)に示すように顔画像G1、顔画像G2の両目と口が一致した状態で、形状補間処理を行うことができる。したがって、それぞれの補間比率を連続的に変化させた場合でも、目や口の位置が細かく移動してしまうことが無くなる。
【0057】
このようにして、形状補間が行われ、続いて、色補間処理部2により色補間処理が行われる。この色補間処理は、顔画像G1、顔画像G2および顔画像G3のそれぞれの形状データと、形状補間処理部1の形状補間データ、さらには、顔画像G1、顔画像G2、顔画像G3のそれぞれの画像データ(色データ)を入力して、所定の比率で色補間しながらマッピングを行ったのち、合成された顔画像の合成画像データとして出力する。
【0058】
ところで、前記形状補間処理部1は、目、口、鼻、眉といった顔を形作る部品の部品位置に存在する点の座標値の形状補間比率を部品位置に応じて変えることを可能とする。これにより、顔画像G1に似た合成画像または顔画像G2に似た合成画像を得ることができる。たとえば、鼻の位置に存在する点の座標値の形状補間比率を顔画像G1の補間比率を顔画像G2よりも高くすれば、顔画像G1(父親)似となる合成画像とすることができる。
【0059】
また、前記色補間処理部2は、顔画像G3の輝度値に応じて色補間比率を変化させることを可能とする。
【0060】
これは背景となる顔画像G3において、輝度の低い陰や髪の部分、あるいは、ハイライト部分の色が中途半端に合成画像に影響し、合成された色が不自然なものとなる問題、あるいは、顔画像G3の髪の部分が薄れたものとなってしまう問題に対処するためである。すなわち、背景となる顔画像G3の持つ特徴的な色相(たとえば、髪の毛の色具合、ハイライト部分など)はそのまま残した上で、顔画像G1と顔画像G2を、顔画像G3をベースにして合成するのが望ましいからである。
【0061】
これを実現するには、背景となる顔画像G3の輝度値のなかで、基準となる部分の輝度値を選んで、その基準となる部分の輝度値(基準輝度値という)からプラス方向及びマイナス方向に所定値以上外れた輝度値の部分は、顔画像G3の表現したい特徴的な色相とみなして、その顔画像G3の持つ輝度値を最大限生かせるように、顔画像G3の色補間率を顔画像G1と顔画像G2の色補間比率に比べて大きくするような処理(たとえば、顔画像G3の色補間比率を取り得る最大の色補間比率とする)を行う。これを図4に示す具体例を用いて説明する。図4において、太線で示す横軸には顔画像G3の輝度値Ycをとり、太線で示す縦軸には顔画像G3の色補間比率をとっている。いま、ここでは、顔画像G3の基準輝度値に顔の肌色の中心輝度値Yctを選ぶとともに、この基準輝度値Yctを中心としてプラス方向及びマイナス方向にそれぞれ所定の範囲の輝度値aを選び、顔画像G3の輝度値Ycが、(Yct−a)≦Yc≦(Yct+a)の場合は、
【0062】
【数2】
【0063】
で表される曲線(図4の細線で示される曲線部分)によって顔画像G3の色補間比率Rcを求める。なお、この場合、顔画像G3の色補間比率Rcの値は、顔画像G3の取り得る色補間比率の最小の色補間比率Rminから最大の色補間比率Rmaxの間の値である。
【0064】
また、顔画像G3の輝度値Ycが、(Yct−a)>Ycの場合、または、Yc>(Yct+a)の場合は、
【0065】
【数3】
【0066】
で表される直線(図4の細線で示される直線部分)によって顔画像G3の色補間比率を求める。なお、この場合、顔画像G3の色補間比率Rcの値は、顔画像G3の取り得る色補間比率の最大の色補間比率Rmaxとする。
【0067】
つまり、顔画像G3の輝度値がきわめて低い場合、たとえば、髪の毛の部分や陰の部分、または、顔画像G3の輝度値がきわめて高い部分、たとえばハイライトの部分などは顔画像G3の持つ特徴部分をそのまま残した方が自然な画像となるため、顔画像G3の色補間比率を最大とする。これに対して、肌色の部分は顔画像G1及び顔画像G2の色を加味した色相としたいことから、肌色の輝度値に応じて、顔画像G3の色補間率を適応的に変化させる。ここでは、肌色の中で中心的な基準輝度値のときには、顔画像G3の色補間比率を最も小さくし、その±aの輝度値の範囲では図4に示す曲線に従って色補間比率を決めるようにする。
【0068】
ところで、このような色補間比率の決定処理は、髪の毛や陰の部分などのように、顔画像G3の残しておきたい特徴部分に対してのみ適応されれば良い結果が得られるが、たとえば、顔画像G3の目やまゆに対しても図4に示す処理がなされると、背景となる顔画像G3の目やまゆが高い比率で色補間された顔画像となり、顔画像G1と顔画像G2の特徴が殆ど現れない顔画像となってしまうことになる。したがって、顔画像G3の目やまゆは図4で示した処理によらず、最適な補間比率で処理を行うようにする。
【0069】
なお、ここでは、基準輝度値から±aの輝度値の範囲では図4に示す曲線に従って色補間率を決めるようにしたが、これに限られるものではなく、その範囲の間は曲線による変化ではなく、段階的に輝度値を変化させるようにしてもよく、また、直線的な変化としてもよい。
【0070】
また、色補間処理部2は、顔画像G1、顔画像G2の輝度値に応じて色補間比率を変化させることを可能とする。これは、顔画像G1、顔画像G2、顔画像G3を一定の比率で色補間すると、たとえば、顔画像G1または顔画像G2の額部分に髪がかかっているような場合、合成後の顔画像にその髪がうっすらと残ってしまうという問題に対処するためである。これを解決するために、顔画像G1と顔画像G2の輝度に応じて、顔画像G1の輝度値が極端に小さい(暗い)部分、あるいは、顔画像G2の輝度値が極端に小さい(暗い)部分は、合成後の顔画像G4にその極端に暗い部分(髪の毛の部分)を残すと不自然な合成画像となるので、その部分は顔画像G1または顔画像G2の色補間率を小さくし、背景となる顔画像G3の色補間比率を大きくする処理を行う。
【0071】
これを実現するには、顔画像G1および顔画像G2の輝度値のなかで、基準となる部分の輝度値を選んで、その基準となる部分の輝度値(基準輝度値という)からプラス方向及びマイナス方向に所定値以上外れた輝度値の部分は、顔画像G1または顔画像G2の表現したくない特徴的な部分(この場合は髪の毛など)とみなして、顔画像G1または顔画像G2の色補間比率を最大限小さくし、顔画像G3の色補間比率を最大限大きくするようにする。これを図5に示す具体例を用いて説明する。図5において、太線で示す横軸には顔画像G1および顔画像G2の輝度値Ycをとり、太線で示す縦軸には顔画像G1または顔画像G2の色補間比率をとっている。ここでは、顔画像G1および顔画像G2の基準輝度値Yctに顔の肌色の中心輝度値を選ぶとともに、この基準輝度値Yctを中心としてプラス方向及びマイナス方向にそれぞれ所定の範囲の輝度値aを選び、顔画像G1または顔画像G2の輝度値Ycが、(Yct−a)≦Yc≦(Yct+a)の場合は、
【0072】
【数4】
【0073】
で表される曲線(図5の細線で示される曲線部分)によって顔画像G1または顔画像G2の色補間比率Rcを求める。なお、この場合、顔画像G1または顔画像G2の色補間比率Rcの値は、顔画像G1または顔画像G2の取り得る色補間比率の最小の色補間比率Rminから最大の色補間比率Rmaxの間の値である。
【0074】
また、顔画像G1または顔画像G2の輝度値Ycが、(Yct−a)>Ycの場合、または、Yc>(Yct+a)の場合は、
【0075】
【数5】
【0076】
で表される直線(図5の細線で示される直線部分)によって顔画像G1または顔画像G2の色補間比率を求める。なお、この場合、顔画像G1または顔画像G2の色補間比率Rcの値は、顔画像G1または顔画像G2の取り得る色補間比率の最小の色補間比率Rminとする。
【0077】
つまり、顔画像G1または顔画像G2の輝度値が極端に低い場合、たとえば、髪の毛の部分などは合成画像に現したくないため、顔画像G1または顔画像G2の色補間比率を最小とする。これに対して、肌色の部分は顔画像G1及び顔画像G2の色を加味した色相としたいことから、肌色の輝度値に応じて、顔画像G1または顔画像G2の色補間比率を適応的に変化させる。ここでは、肌色の中で中心的な輝度値のときには、顔画像G1または顔画像G2の色補間比率を最も大きくし、その±aの輝度値の範囲では図5に示す曲線に従って色補間比率を決めるようにする。
【0078】
ところで、このような色補間比率の決定処理は、合成画像に現したくない顔画像G1,G2の髪の毛などの部分に対してのみ適応されれば良い結果が得られるが、顔画像G1,G2の目やまゆに対しても図5に示す処理がなされると、顔画像G1,G2の目やまゆが低い比率で色補間された画像となり、顔画像G1,G2の目やまゆの特徴が殆ど現れない顔画像となってしまうことになる。したがって、顔画像G1,G2の目やまゆは図5で示した処理によらず、最適な補間比率で処理を行うようにする。
【0079】
なお、ここでは、基準輝度値から±aの輝度値の範囲では図5に示す曲線に従って色補間率を決めるようにしたが、これに限られるものではなく、その範囲の間は曲線による変化ではなく、段階的に輝度値を変化させるようにしてもよく、また、直線的な変化としてもよい。
【0080】
また、この色補間処理部2は、目、口、鼻、眉といった顔を形作る部品の部品位置に存在する領域(パッチ)ごとに、そのパッチ内の画素の色補間比率を変えることで、それぞれの部品の色相を顔画像G1(父親)似または顔画像G2(母親)似とすることを可能とする。たとえば、鼻の色相を父親似としようとする場合、鼻を構成するそれぞれのパッチについては、各パッチ毎にたとえば、父親の顔画像G1の色補間比率を大きくするような処理を行う。これにより、顔の各部品毎にその色相を顔画像G1似または顔画像G2似とすることが可能となる。なお、実際には、前記した形状補間手段1による部品単位毎に形状補間比率を変える処理と連動させて行う。このように、顔を形作る部品ごとに、形状補間比率および色補間比率を適当に設定することにより、それらの部品毎の形状および色相を顔画像G1または顔画像G2に似せた、いわゆる父親似あるいは母親似といった合成顔画像を得ることができる。
【0081】
また、この第1の実施の形態において、顔画像G1、G2のうちのいずれかと、背景となる顔画像G3の2枚の顔画像を用いて、両者を合成することにより、顔画像G1あるいはG2を年齢変化処理することが可能となる。たとえば、顔画像G1を比較的若い或る大人の男性の顔画像、顔画像G3を或る男性の老人の顔画像として、前記顔画像G1と、背景となる顔画像G3をベースにして合成すれば、顔画像G1を大まかに老齢化処理することも可能となる。これとは逆に、顔画像G3を男の子どもの顔画像とすれば、大まかな若返り処理も可能となる。
【0082】
(第2の実施の形態)
この第2の実施の形態は、或る子どもの顔画像をベースにして、顔画像G1と顔画像G2を合成する場合、顔画像G1とG2の人種によって異なる特徴的な色を考慮した合成処理を行うものである。ここでは、人種によって異なる特徴的な色として、髪の色、眼球の色、肌の色を用いる。以下、この第2の実施の形態について説明する。
【0083】
図6は第2の実施の形態を説明するための構成図であり、男性側の顔画像G1の画像データ(色データ)と形状データを基に、髪色の検出を行う髪色検出部13、肌の色を検出する肌色検出部14、眼球の色を検出する眼球色検出部15が設けられ、女性側の顔画像G2の画像データと形状データを基に、髪色の検出を行う髪色検出部16、肌の色を検出する肌色検出部17、眼球の色を検出する眼球色検出部18が設けられる。
【0084】
前記髪色検出部13、肌色検出部14、眼球色検出部15は顔画像G1の形状データおよび画像データより得られた髪の領域、肌の領域、眼球の領域に対応する各画素の色データの平均値を求め、その求められた平均値をもとに髪色、肌色、眼球色の代表色を求め、それぞれの代表色を表す髪色検出データ、肌色検出データ、眼球色検出データを出力する。たとえば、眼球色検出部15を例に取れば、形状データにより眼球領域を抽出し、その眼球領域に含まれる総ての画素毎の画像データ(色データ)を取り出し、その総ての画素の色データの平均値を求めて、求められた平均値をもとに眼球の代表色を決定し、それに対応した眼球色検出データを出力する。髪色検出部13、肌色検出部14も同様にしてそれぞれの代表色を求め、それに対応した肌色検出データ、髪色検出データを出力する。
【0085】
ただし髪の領域は、前記形状モデル(図13参照)に示されていないので、顔の額の辺より上の予め定めた位置における画像データを取り出すようにする。前記額の辺より上の予め定めた位置は、たとえば、形状モデルに示される顔の大きさを基にして設定する。
【0086】
一方、前記髪色検出部16、肌色検出部17、眼球色検出部18も前記同等に、顔画像G2の形状データおよび画像データより得られた髪の領域、肌の領域、眼球の領域に対応する各画素の色データの平均値を求め、その求められた平均値をもとに髪色、肌色、眼球色の代表色を求め、それぞれの代表色を表す髪色検出データ、肌色検出データ、眼球色検出データを出力する。
【0087】
なお、前記髪色検出部13,16、肌色検出部14,17、眼球色検出部15,18によるそれぞれの領域の色検出は、髪の領域、肌の領域、眼球の領域に対応する各画素の色データの平均値を求める以外に、たとえば、それぞれの部分における各画素の色データを基に、色の分散を求め、その分散値をもとにして代表色を求めるようにしてもよく、また、それぞれの部分における各画素の色データの頻度を計数して最多色を代表色とするようにしてもよい。
【0088】
このようにして髪色検出部13,16、肌色検出部14,17、眼球色検出部15,18からはそれぞれの色検出データが出力される。これらの各色検出データは遺伝情報テーブル19に送られる。この遺伝情報テーブル19の内容は、図7に示すように、顔画像G1の髪色、肌色、眼球色のそれぞれの色と顔画像G2の髪色、肌色、眼球色のそれぞれの色の組み合わせに対して、髪、肌、眼球がどのような色を持つ子どもが生まれる可能性があるかを示すもので、それぞれの色の組み合わせに対する子どもの顔画像のグループ名(グループz1,z2,・・・,zn)およびそのグループの髪色、肌色、眼球色が格納されている。
【0089】
たとえば、顔画像G1の髪色が黒色、肌色が黄色、眼球色が茶色であって、顔画像G2の髪色が黒色、肌色が白色、眼球色が青色である場合は、選択される子どもの顔画像(背景となる顔画像G3)はグループz1(髪色は黒色、肌色は白色、眼球色は青色のグループ)であり、顔画像G1の髪色が金色、肌色が白色、眼球色が青色であって、顔画像G2の髪色が金色、肌色が白色、眼球色が茶色である場合は、選択される子どもの顔画像(背景となる顔画像G3)はグループz2(髪色は金色、肌色は白色、眼球色は青色のグループ)であるというように、父親と母親の髪色、肌色、眼球色の種々の組み合わせに対して、生まれてくる可能性のある子どもの顔画像のグループz1,z2,・・・,znが予め設定されている。
【0090】
そして、髪色検出部13,16、肌色検出部14,17、眼球色検出部15,18から出力される顔画像G1,G2のそれぞれの色検出データをもとに、子どもの顔画像のグループz1,z2,・・・,znのうち、どれか1つが選択されると、その選択されたグループを示す情報が出力される。
【0091】
たとえば、髪色検出部13、肌色検出部14、眼球色検出部15から出力される顔画像G1の髪色の色検出データが金色を示す色検出データ、肌の色の色検出データが白色を示す色検出データ、眼球の色の色検出データが青色を示す色検出データであって、髪色検出部16、肌色検出部17、眼球色検出部18から出力される顔画像G2の髪色の色検出データが金色を示す色検出データ、肌の色の色検出データが白色を示す色検出データ、眼球の色の色検出データが茶色を示す色検出データである場合、それらの色検出データによって、遺伝情報テーブル19が参照されると、この場合、グループz2が選択され、これによって、グループz2が選択されたことを示す信号が出力される。
【0092】
このグループz2は、髪色は金色、肌色は白色、眼球色は青色である子ども顔画像のグループである。したがって、父親である顔画像G1と母親である顔画像G2のそれぞれの髪の色、肌の色、眼球の色に対して遺伝的に適切な髪の色、肌の色、眼球の色を持った子供の顔画像のグループが選択されることになる。
【0093】
そして、選択された子どもの顔画像のグループ(前記した例では、グループz2)の中から、1枚の顔画像G3が選択されるが、この選択手段はここでは特に限定されるものではなく種々の方法が考えられる。
【0094】
たとえば、顔画像G3の男女、年齢などの選択は、顔画像G1,G2の入力前にユーザが予め設定するようにしてもよく、あるいは、グループが選択された以降にユーザが選択するようにしてもよい。また、選択されたグループに属する子どもの個別の顔画像の選択については、たとえば、ユーザによって、既に、男の子という指定がなされていたとすると、選択されたグループ内の男の子の中から、ユーザが或1つの顔画像を任意に選択できるようにしてもよく、あるいは、システム側が乱数などを用いて指定された範囲の中から或る1つの顔画像を選択するようにしてもよい。
【0095】
以上説明したように、この第2の実施の形態によれば、髪の色、肌の色、眼球の色などが異なる人種同志の顔画像G1,G2を、背景となる顔画像G3を用いて合成する場合、背景となる顔画像G3を、遺伝的に見て適切な髪の色、肌の色、眼球の色を持つグループの中から選択することができる。これにより、たとえば、金色の髪を持つ顔画像G1とG2とから、黒い髪の顔画像が合成されるというような明らかに不自然な合成画像が作成されるのを防止できる。
【0096】
(第3の実施の形態)
前記した第1、第2の実施の形態では、2枚の顔画像G1,G2と背景となる顔画像G3を用いて、背景となる顔画像G3をベースにして顔画像G1,G2の特徴を加味した合成画像を作成する例について説明したが、この第3の実施の形態は、或る1枚の顔画像、たとえば、顔画像G1または顔画像G2、さらには、これらを顔画像G3をベースに合成された顔画像について、目、鼻、眉、口などの部品の或る点の座標値を少し動かすことで顔の表情を変化させるものである。たとえば、目の下瞼の部分の点を上に少し動かすことによって、微笑んだ表情を作るというように顔の表情を変化させるものである。
【0097】
このように、顔の点を動かすことによって表情を変化させることができる。つまり、顔のどの点をどの程度どの方向に移動させるかというデータ(これを表情データという)を予め設定しておくことで、表情を変化させることができる。
【0098】
この第3の実施の形態は、顔画像の中の或る一点から横方向および縦方向に向かう2つのベクトルを基準として正規化された表情データを用いて表情を変化させるようにする。この場合、処理対象となる顔画像は、前記第1、第2の実施の形態により得られた合成後の顔画像、あるいは、顔画像G1、顔画像G2など、どのような顔画像にも適用可能であるが、ここでは、図1の構成(第1の実施の形態)により得られた合成後の顔画像(これを顔画像G4という)の合成画像データ、つまり、顔画像G4の画像データおよび形状データを用いて、合成された顔画像G4の表情を変化させる例について示す。
【0099】
図8は第3の実施の形態を説明するための構成図であり、図1の構成により得られた合成後の顔画像G4の形状データをもとに、表情を変化させる処理を行う表情変化処理部20と前記表情データを記憶する表情データ記憶部21などを新たに設けた構成となっている。なお、図8におけるその他の部分は図1と同じであるので、同一部分には同一番号が付されている。
【0100】
次に表情変化処理部20の具体的な処理について説明する。図9に示すように、顔画像の両目α,βの中心部(眉間部)から横方向に向かって顔の輪郭までの長さによって決められるベクトルA、両目α,βの中心部(眉間部)から下方向に向かって顔の輪郭までの長さによって決められるベクトルB、これらベクトルA,Bに直交して、かつ、ベクトルA,Bの相乗平均の大きさを持つベクトルをそれぞれ求める。そして、表情を変化させるための予め設定された定数をv1,v2,v3(v1はA方向の移動量を決める定数、v2はB方向の移動量を決める定数、v3はA,Bに直交する方向の移動量を決定する定数)とすれば、ある点の移動方向と移動量を示す移動ベクトルVは次式のように表すことができる。
【0101】
【数6】
【0102】
なお、(6)式において、A×BはベクトルAとベクトルBの外積を表し、A×B/|A×B|は単位ベクトルである。このように、3つのベクトルを考えて、移動ベクトルVを前記(6)式により求める。ここで、定数v1,v2,v3は前記したように、表情を変化させるために予め定められた移動量を表している。たとえば、微笑んだ表情を得るには、或る点をどの程度どの方向に移動させるかで決められるが、その移動量を示す定数がv1,v2,v3であり、v1はA方向の移動量を決める定数、v2はB方向の移動量を決める定数、v3はA,Bに直交する方向の移動量を決める定数である。これらの定数は表情データとして顔画像に関係なくどの顔画像にも共通の予め決められた定数であり、それぞれの表情に対応して前記表情データ記憶部21内記憶されている。一方、ベクトルA、ベクトルBとこれらのベクトルに直交するベクトルは、それぞれの顔画像の大きさによって異なる。したがって、以上のような3個のベクトルを用いることにより、移動量は主に顔の横幅と縦の長さで正規化され、顔画像の大小などの個人差を吸収することができる。
【0103】
これにより、表情を変化させるに必要な或る点の移動量は、前記(6)式から移動ベクトルVを求めることにより、その顔画像の大きさに応じた移動量が得られる。そして、この移動量に応じて点を移動させることにより所望とする表情を得ることができる。
【0104】
なお、以上の説明は、形状モデルを3次元と考えた場合についてであったが、たとえば正面を向いた顔画像などのように形状モデルが2次元的な場合においても同様に適用できる。この場合には、前記(6)式における移動ベクトルVは、A方向の移動量を決める定数をv1、B方向の移動量を決める定数をv2とすれば、V=v1・A+v2・Bで表すことができる。
【0105】
(第4の実施の形態)
この第4の実施の形態は、或る1枚の顔画像、たとえば、顔画像G1または顔画像G2、さらには、これらを顔画像G3をベースに合成した顔画像G4を用いて、これらの或る顔画像に年齢変化処理を施すものである。以下、この第4の実施の形態について図10を参照しながら説明する。
【0106】
この第4の実施の形態において、処理対象となる顔画像は、前記第1、第2のの実施の形態により得られた合成後の顔画像G4、あるいは、画像G1、画像G2など、どのような顔画像にも適用可能であるが、ここでは、前記図1の構成(第1の実施の形態)により得られた合成後の顔画像G4の合成画像データ(画像データおよび形状データ)を用いて、その合成された顔画像G4に年齢変化処理(ここでは加齢処理)を施す例について示す。図10は第4の実施の形態を説明するための構成図であり、前記図1により得られた合成後の顔画像G4の合成画像データ(画像データおよび形状データ)と、予め用意された或る老人の顔画像の画像データおよび形状データをもとに、加齢合成処理を行う年齢変化処理部31を新たに設けた構成となっている。なお、図10におけるその他の部分は図1と同じであるので、同一部分には同一番号が付されている。
【0107】
前記年齢変化処理部31は、図1の構成により得られた合成後の顔画像G4の肌に、或る老人の顔画像G5の肌を合成することで加齢処理する。これを行うには、老人の顔画像G5の形状データにより顔の肌領域を取り出し、その肌領域の部分の画像データを、合成後の顔画像G4の肌領域にテクスチャマッピングすることにより加齢処理を行う。図11はこの加齢処理を説明するフローチャートである。以下、図11を参照しながら簡単に説明する。
【0108】
まず、顔画像G4の肌領域に或る老人の顔画像G5の肌画像データをマッピングする(ステップs1)。そして、顔画像G4のまゆ領域に顔画像G4のまゆ画像データをマッピングし(ステップs2)、そのあと、顔画像G4の目領域に顔画像G4の目画像データをマッピングし(ステップs3)、続いて、顔画像G4の鼻領域に顔画像G4の鼻画像データをマッピングし(ステップs4)、その後、顔画像G4の口領域に顔画像G4の口画像データをマッピングする(ステップs5)。
【0109】
このように、実際の老人の顔画像の肌領域を用いて、その老人の肌領域と加齢処理を施そうとする顔画像の肌領域とを交換するようにして加齢処理を行うので、リアリティのある表情を持った加齢処理が可能となる。また、老齢化の度合いに応じて老人の顔画像を選ぶことにより、老齢化の度合いを自由に変化させることが可能となる。なお、老齢化処理だけでなく、処理対象の顔画像G1,G2より若い顔画像を使用すれば、若返りの処理も可能となる。
【0110】
なお、以上説明した各実施の形態において、それぞれの処理を行う処理プログラムはフロッピィディスクなどの記憶媒体に記憶させておくことも可能である。
【0111】
【発明の効果】
以上説明したように、本発明は、まず、顔画像の特徴的な部分、たとえば、両目、口などのそれぞれの中心点に注目し、これらの中心点を座標変換して背景画像の対応する部分に整合させることで、画像全体を背景画像に大まかに整合した後、形状補間と色補間を行うようにしている。したがって、形状補間比率を連続的に変化させるような処理を行う場合でも、目や口など顔の特徴的な部分が動いてしまうようなことが無くなる。
【0112】
また、顔を形作る特徴部分単位に形状補間の比率を変化させて形状補間を行うようにすることで、目や口といった特徴部分ごとに顔画像G1またはG2のいずれかに似せた合成画像を作ることができる。
【0113】
また、ベースとなる顔画像G3の各部分の輝度値の大きさに応じて色補間比率を設定するような色補間処理を行うので、ベースとなる顔画像の髪の毛やハイライトな部分など輝度値が極端に大きい部分または小さい部分はそのまま残した状態で合成が行えるので、自然な合成が可能となる。
【0114】
また、顔画像G1,G2の各部分の輝度値の大きさに応じて色補間比率を設定するような色補間処理を行うので、たとえば、輝度値の極端に低い顔画像G1,G2の髪の毛などが、合成後の顔画像に現れることが無くなり、高品質な合成画像が得られる。
【0115】
また、顔を形作る特徴部分単位に色補間の比率を変化させて色補間を行うようにすることで、色相についても、目や口といった特徴部分ごとに顔画像G1またはG2のいずれかに似せた合成画像を作ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を説明する構成図。
【図2】同実施の形態における大まかな形状整合を説明する図。
【図3】同実施の形態における形状補間処理を説明する図。
【図4】同実施の形態における背景顔画像の輝度値に応じた色補間比率を設定する例を説明する図。
【図5】同実施の形態における合成しようとする2つの顔画像の輝度値に応じた色補間比率を設定する例を説明する図。
【図6】本発明の第2の実施の形態を説明する構成図。
【図7】第2の実施の形態における遺伝情報テーブルの内容の一例を示す図。
【図8】本発明の第3の実施の形態を説明する構成図。
【図9】第3の実施の形態において正規化ベクトルの定義を説明する図。
【図10】本発明の第4の実施の形態を説明する構成図。
【図11】第4の実施の形態の処理を説明するフローチャート。
【図12】従来の画像合成処理を説明する構成図。
【図13】或る顔画像に対する形状モデルの一例を示す図。
【図14】従来における形状補間比率を連続的に変化させる場合の形状補間処理を説明する図。
【符号の説明】
1・・・形状補間処理部
2・・・色補間処理部
11・・・第1の形状整合処理部
12・・・第2の形状整合処理部
13,16・・髪色検出部
14,17・・・肌色検出部
15,18・・・眼球色検出部
19・・・遺伝情報テーブル
20・・・表情変化処理部
21・・・表情データ記憶部
31・・・年齢変化処理部
G1,G2・・・合成される顔画像
G3・・・背景となる顔画像
G4・・・合成後の顔画像
α,β・・・目の中心点
γ・・・口の中心点
Yc・・・顔画像G1,G2,G3の輝度値
Rc・・・顔画像G1,G2,G3の色補間比率
q・・・形状モデルにおける点
q0,q1,・・・点の番号
L・・・形状モデルにおける点と点との間を結ぶライン
L0,L1・・・点と点との間を結ぶラインの番号
p・・・形状モデルにおけるパッチ
p0,p1・・・パッチの番号
Claims (14)
- 2枚の顔画像(G1,G2)および背景となる顔画像(G3)と、これら顔画像(G1,G2,G3)に整合させたそれぞれの形状モデルとから、前記顔画像(G3)をベースとして前記顔画像(G1,G2)の特徴を加えた顔画像を合成する顔画像処理方法であって、 第1の形状整合処理手段が、前記顔画像(G1)の特徴的部分に注目し、前記顔画像(G1)の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像(G3)の形状モデルの対応する点の座標に座標変換することで、前記顔画像(G1)を前記顔画像(G3)に大まかに整合するステップと、
第2の形状整合処理手段が、前記顔画像(G2)の特徴的部分に注目し、前記顔画像(G2)の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像(G3)の形状モデルの対応する点の座標に座標変換することで、前記顔画像(G2)を前記顔画像(G3)に大まかに整合するステップと、
形状補間処理手段が、前記第1の形状整合処理手段により整合された前記顔画像(G1)の整合後の形状モデルと、前記第2の形状整合処理手段により整合された前記顔画像(G2)の整合後の形状モデルのそれぞれと、前記顔画像(G3)の形状モデルのそれぞれ対応する点の座標値を所定の比率で形状補間するステップと、
色補間処理手段が、前記形状補間処理手段により形状補間された形状モデルに対し、それぞれ対応する画素について所定の比率で色補間するステップとを有することを特徴とする顔画像処理方法。 - 前記形状補間処理手段は、顔を形作る特徴部分単位に形状補間の比率を変化させて形状補間を行うことを特徴とする請求項1記載の顔画像処理方法。
- 前記色補間処理手段は、前記顔画像(G3)の各部分の輝度値の大きさに応じて色補間比率を設定することを特徴とする請求項1記載の顔画像処理方法。
- 前記輝度値に応じた色補間比率の設定は、前記顔画像(G3)の肌色の中心輝度を有する部分に対しては前記顔画像(G3)の色補間比率を前記顔画像(G1,G2)の色補間比率に比べて最も小さくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像(G3)の色補間比率を前記顔画像(G1,G2)の色補間比率に比べて最も大きくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像(G3)の色補間比率を大きくすることを特徴とする請求項3記載の顔画像処理方法。
- 前記色補間処理手段は、前記顔画像(G1,G2)の各部分の輝度値の大きさに応じて色補間比率を設定することを特徴とする請求項1記載の顔画像処理方法。
- 前記輝度値に応じた色補間比率の設定は、前記顔画像(G1,G2)の肌色の中心輝度を有する部分に対しては前記顔画像(G1,G2)の色補間比率を前記顔画像(G3)の色補間比率に比べて最も大きくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像(G1,G2)の色補間比率を前記顔画像(G3)の色補間比率に比べて最も小さくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像(G1,G2)の色補間比率を小さくすることを特徴とする請求項5記載の顔画像処理方法。
- 前記色補間処理手段は、顔を形作る特徴部分単位に色補間の比率を変化させて色補間を行うことを特徴とする請求項1記載の顔画像処理方法。
- 2枚の顔画像(G1,G2)および背景となる顔画像(G3)と、これら顔画像(G1,G2,G3)に整合させたそれぞれの形状モデルとから、前記顔画像(G3)をベースとして前記顔画像(G1,G2)の特徴を加えた顔画像を合成する顔画像処理装置であって、
前記顔画像(G1)の特徴的部分に注目し、前記顔画像(G1)の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像(G3)の形状モデルの対応する点の座標に座標変換することで、前記顔画像(G1)を前記顔画像(G3)に大まかに整合する第1の形状整合処理手段と、
前記顔画像(G2)の特徴的部分に注目し、前記顔画像(G2)の形状モデルの前記特徴的部分に対応する所定点の座標を、前記顔画像(G3)の形状モデルの対応する点の座標に座標変換することで、前記顔画像(G2)を前記顔画像(G3)に大まかに整合させる第2の形状整合処理手段と、
前記第1の形状整合処理手段により整合された前記顔画像(G1)の整合後の形状モデルと、前記第2の形状整合処理手段により整合された前記顔画像(G2)の整合後の形状モデルのそれぞれと、前記顔画像(G3)の形状モデルのそれぞれ対応する点の座標値を所定の比率で形状補間する形状補間処理手段と、
前記形状補間処理手段にて形状補間された形状モデルに対し、それぞれ対応する画素について所定の比率で色補間する色補間処理手段と、
を有したことを特徴とする顔画像処理装置。 - 前記形状補間処理手段は、顔を形作る特徴部分単位に形状補間の比率を変化させて形状補間を行うことを特徴とする請求項8記載の顔画像処理装置。
- 前記色補間処理手段は、前記顔画像(G3)の各部分の輝度値の大小を判断し、前記輝度値の大きさに応じて色補間比率を設定することを特徴とする請求項8記載の顔画像処理装置。
- 前記輝度値に応じた色補間比率の設定は、前記顔画像(G3)の肌色の中心輝度を有する部分に対しては前記顔画像(G3)の色補間比率を前記顔画像(G1,G2)の色補間比率に比べて最も小さくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像(G3)の色補間比率を前記顔画像(G1,G2)の色補間比率に比べて最も大きくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像(G3)の色補間比率を大きくすることを特徴とする請求項10記載の顔画像処理装置。
- 前記色補間処理手段は、前記顔画像(G1,G2)の各部分の輝度値の大小を判断し、前記輝度値の大きさに応じて色補間比率を設定することを特徴とする請求項8記載の顔画像処理装置。
- 前記輝度値に応じた色補間比率の設定は、前記顔画像(G1,G2)の肌色の中心輝度を有する部分に対しては前記顔画像(G1,G2)の色補間比率を前記顔画像(G3)の色補間比率に比べて最も大きくし、その肌色の中心輝度を中心としてその前後の所定範囲の輝度値以上または以下の輝度値を有する部分に対しては、前記顔画像(G1,G2)の色補間比率を前記顔画像(G3)の色補間比率に比べて最も小さくし、前記中心輝度の前後所定範囲内は輝度値が前記中心輝度から離れるに従って前記顔画像(G1,G2)の色補間比率を小さくすることを特徴とする請求項12記載の顔画像処理装置。
- 前記色補間処理手段は、顔を形作る特徴部分単位に色補間の比率を変化させて色補間を行うことを特徴とする請求項8記載の顔画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28169395A JP3799633B2 (ja) | 1995-06-16 | 1995-10-30 | 顔画像処理方法および顔画像処理装置 |
US08/665,149 US5850463A (en) | 1995-06-16 | 1996-06-13 | Facial image processing method and facial image processing apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7-150625 | 1995-06-16 | ||
JP15062595 | 1995-06-16 | ||
JP28169395A JP3799633B2 (ja) | 1995-06-16 | 1995-10-30 | 顔画像処理方法および顔画像処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006062263A Division JP3876922B2 (ja) | 1995-06-16 | 2006-03-08 | 顔画像処理方法および顔画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0962865A JPH0962865A (ja) | 1997-03-07 |
JP3799633B2 true JP3799633B2 (ja) | 2006-07-19 |
Family
ID=26480166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28169395A Expired - Fee Related JP3799633B2 (ja) | 1995-06-16 | 1995-10-30 | 顔画像処理方法および顔画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5850463A (ja) |
JP (1) | JP3799633B2 (ja) |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7859551B2 (en) | 1993-10-15 | 2010-12-28 | Bulman Richard L | Object customization and presentation system |
US6020892A (en) * | 1995-04-17 | 2000-02-01 | Dillon; Kelly | Process for producing and controlling animated facial representations |
GB9620061D0 (en) * | 1996-09-26 | 1996-11-13 | Secr Defence | Liquid crystalline (e,e)-butadiene compounds and mixtures and devices containing such compounds |
JP3912834B2 (ja) * | 1997-03-06 | 2007-05-09 | 有限会社開発顧問室 | 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜 |
JP3222091B2 (ja) * | 1997-05-27 | 2001-10-22 | シャープ株式会社 | 画像処理装置及び画像処理装置制御プログラムを記憶した媒体 |
JP2000048184A (ja) * | 1998-05-29 | 2000-02-18 | Canon Inc | 画像処理方法及び顔領域抽出方法とその装置 |
US6204860B1 (en) * | 1998-07-02 | 2001-03-20 | Silicon Graphics, Inc. | Method and apparatus for geometric model deformation using wires |
JP2000165648A (ja) * | 1998-11-27 | 2000-06-16 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びに記録媒体 |
JP2000293687A (ja) * | 1999-02-02 | 2000-10-20 | Minolta Co Ltd | 3次元形状データ処理装置および3次元形状データ処理方法 |
JP4396873B2 (ja) * | 1999-10-01 | 2010-01-13 | 株式会社資生堂 | 口紅又はアイシャドーの選択方法 |
US7106898B2 (en) * | 1999-12-06 | 2006-09-12 | California Institute Of Technology | 3D scanning using shadows |
US7561994B1 (en) * | 2000-06-29 | 2009-07-14 | Corsi Adam B | Method for a virtual pregnancy experience |
KR20000064110A (ko) * | 2000-08-22 | 2000-11-06 | 이성환 | 얼굴 영상에 기반한 캐릭터 자동 생성 장치 및 방법 |
KR20020031630A (ko) * | 2000-10-20 | 2002-05-03 | 구자홍 | 칼라 왜곡 정보를 이용한 얼굴 영역 추출 방법 |
US6690822B1 (en) * | 2000-10-20 | 2004-02-10 | Eastman Kodak Company | Method for detecting skin color in a digital image |
US6711286B1 (en) * | 2000-10-20 | 2004-03-23 | Eastman Kodak Company | Method for blond-hair-pixel removal in image skin-color detection |
US6990452B1 (en) | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
US20080040227A1 (en) | 2000-11-03 | 2008-02-14 | At&T Corp. | System and method of marketing using a multi-media communication system |
US6963839B1 (en) | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
US6976082B1 (en) | 2000-11-03 | 2005-12-13 | At&T Corp. | System and method for receiving multi-media messages |
US7091976B1 (en) | 2000-11-03 | 2006-08-15 | At&T Corp. | System and method of customizing animated entities for use in a multi-media communication application |
US7203648B1 (en) | 2000-11-03 | 2007-04-10 | At&T Corp. | Method for sending multi-media messages with customized audio |
US7035803B1 (en) | 2000-11-03 | 2006-04-25 | At&T Corp. | Method for sending multi-media messages using customizable background images |
US7827488B2 (en) * | 2000-11-27 | 2010-11-02 | Sitrick David H | Image tracking and substitution system and methodology for audio-visual presentations |
JP2002232908A (ja) * | 2000-11-28 | 2002-08-16 | Monolith Co Ltd | 画像補間方法および装置 |
US6734858B2 (en) * | 2000-12-27 | 2004-05-11 | Avon Products, Inc. | Method and apparatus for use of computer aging to demonstrate a product benefit |
US6834119B2 (en) * | 2001-04-03 | 2004-12-21 | Stmicroelectronics, Inc. | Methods and apparatus for matching multiple images |
US6870954B1 (en) * | 2001-04-04 | 2005-03-22 | Adobe Systems Incorporated | Methods apparatus for generating shaped gradient fills |
US7671861B1 (en) * | 2001-11-02 | 2010-03-02 | At&T Intellectual Property Ii, L.P. | Apparatus and method of customizing animated entities for use in a multi-media communication application |
US7356453B2 (en) * | 2001-11-14 | 2008-04-08 | Columbia Insurance Company | Computerized pattern texturing |
US6922201B2 (en) * | 2001-12-05 | 2005-07-26 | Eastman Kodak Company | Chronological age altering lenticular image |
JP3911527B2 (ja) * | 2002-01-17 | 2007-05-09 | 富士通株式会社 | 携帯端末、携帯端末処理用プログラム及び携帯端末システム |
US6828972B2 (en) * | 2002-04-24 | 2004-12-07 | Microsoft Corp. | System and method for expression mapping |
JP2004005265A (ja) * | 2002-05-31 | 2004-01-08 | Omron Corp | 画像合成方法、画像合成装置、画像合成システム |
US7734070B1 (en) * | 2002-12-31 | 2010-06-08 | Rajeev Sharma | Method and system for immersing face images into a video sequence |
JP4397212B2 (ja) * | 2003-02-05 | 2010-01-13 | 富士フイルム株式会社 | 本人認証装置 |
US7711155B1 (en) * | 2003-04-14 | 2010-05-04 | Videomining Corporation | Method and system for enhancing three dimensional face modeling using demographic classification |
US7574016B2 (en) * | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
JP4345440B2 (ja) * | 2003-11-04 | 2009-10-14 | オムロン株式会社 | 輪郭判断装置及び輪郭判断方法 |
GB0400894D0 (en) * | 2004-01-15 | 2004-02-18 | British Telecomm | Adaptive closed group caricaturing |
US20050163379A1 (en) * | 2004-01-28 | 2005-07-28 | Logitech Europe S.A. | Use of multimedia data for emoticons in instant messaging |
JP2006004158A (ja) | 2004-06-17 | 2006-01-05 | Olympus Corp | 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体 |
WO2006043643A1 (ja) * | 2004-10-22 | 2006-04-27 | Shiseido Co., Ltd. | 唇の分類方法、化粧方法、分類マップ及び化粧用器具 |
EP1818869A1 (en) * | 2004-11-25 | 2007-08-15 | NEC Corporation | Face image synthesis method and face image synthesis device |
US7366635B1 (en) | 2004-12-06 | 2008-04-29 | Adobe Systems Incorporated | Methods and apparatus for generating shaped gradients |
GB2424332A (en) * | 2004-12-13 | 2006-09-20 | Mark Charles Spittle | An image processing system |
US7950925B2 (en) * | 2004-12-30 | 2011-05-31 | Kimberly-Clark Worldwide, Inc. | Interacting with consumers to inform, educate, consult, and assist with the purchase and use of personal care products |
US8606950B2 (en) * | 2005-06-08 | 2013-12-10 | Logitech Europe S.A. | System and method for transparently processing multimedia data |
JP4750520B2 (ja) * | 2005-09-21 | 2011-08-17 | 富士フイルム株式会社 | 人物画像補正装置および方法 |
US20070133940A1 (en) * | 2005-12-10 | 2007-06-14 | Freeman Andrew P | System and method for generating and documenting personalized stories |
US20070230794A1 (en) * | 2006-04-04 | 2007-10-04 | Logitech Europe S.A. | Real-time automatic facial feature replacement |
WO2008107002A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face searching and detection in a digital image acquisition device |
JP5127067B2 (ja) * | 2009-03-06 | 2013-01-23 | パナソニック株式会社 | 画像検索装置及び画像検索方法 |
US20110194762A1 (en) * | 2010-02-04 | 2011-08-11 | Samsung Electronics Co., Ltd. | Method for detecting hair region |
CN102147852B (zh) * | 2010-02-04 | 2016-01-27 | 三星电子株式会社 | 检测头发区域的方法 |
JP5642583B2 (ja) * | 2011-02-07 | 2014-12-17 | 公立大学法人会津大学 | 画像生成装置および画像生成プログラム |
CN102136158B (zh) * | 2011-03-23 | 2014-07-09 | 浙江大学 | 一种基于预计算速度场的可并行形状插值方法 |
US9111144B2 (en) * | 2011-09-15 | 2015-08-18 | Identigene, L.L.C. | Eye color paternity test |
JP6341085B2 (ja) * | 2014-12-26 | 2018-06-13 | ブラザー工業株式会社 | 画像処理装置、および、コンピュータプログラム |
EP3433818A1 (en) | 2016-03-21 | 2019-01-30 | The Procter and Gamble Company | Systems and methods for providing customized product recommendations |
US10586379B2 (en) | 2017-03-08 | 2020-03-10 | Ebay Inc. | Integration of 3D models |
US10614623B2 (en) * | 2017-03-21 | 2020-04-07 | Canfield Scientific, Incorporated | Methods and apparatuses for age appearance simulation |
US10621771B2 (en) | 2017-03-21 | 2020-04-14 | The Procter & Gamble Company | Methods for age appearance simulation |
KR102339915B1 (ko) | 2017-05-31 | 2021-12-17 | 더 프록터 앤드 갬블 캄파니 | 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법 |
WO2018222808A1 (en) | 2017-05-31 | 2018-12-06 | The Procter & Gamble Company | Systems and methods for determining apparent skin age |
US11727656B2 (en) | 2018-06-12 | 2023-08-15 | Ebay Inc. | Reconstruction of 3D model with immersive experience |
US11074733B2 (en) | 2019-03-15 | 2021-07-27 | Neocortext, Inc. | Face-swapping apparatus and method |
CN111914604A (zh) * | 2019-05-10 | 2020-11-10 | 丽宝大数据股份有限公司 | 将头发颜色套用至眉毛的扩充实境显示方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3023961B2 (ja) * | 1989-10-04 | 2000-03-21 | 三菱電機株式会社 | 符号化器及び復号化器 |
ATE158129T1 (de) * | 1992-03-23 | 1997-09-15 | Canon Kk | Bildaufnahmevorrichtung mit mehreren linsen und korrektur von falschregistrierung |
US5375195A (en) * | 1992-06-29 | 1994-12-20 | Johnston; Victor S. | Method and apparatus for generating composites of human faces |
US5623587A (en) * | 1993-10-15 | 1997-04-22 | Kideo Productions, Inc. | Method and apparatus for producing an electronic image |
-
1995
- 1995-10-30 JP JP28169395A patent/JP3799633B2/ja not_active Expired - Fee Related
-
1996
- 1996-06-13 US US08/665,149 patent/US5850463A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH0962865A (ja) | 1997-03-07 |
US5850463A (en) | 1998-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3799633B2 (ja) | 顔画像処理方法および顔画像処理装置 | |
JP3639476B2 (ja) | 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体 | |
EP0725364B1 (en) | Image processing apparatus | |
US20070127844A1 (en) | Image processing apparatus, image processing method, program, and data configuration | |
WO2012056744A1 (ja) | 画像処理装置、画像処理方法、および制御プログラム | |
CN105139438A (zh) | 视频人脸卡通动画生成方法 | |
JP2010507854A (ja) | ビデオイメージシーケンスを仮想シミュレーションする方法及び装置 | |
JP4682373B2 (ja) | 顔画像合成装置、顔画像合成方法および顔画像合成プログラム | |
US10650564B1 (en) | Method of generating 3D facial model for an avatar and related device | |
CN110197462A (zh) | 一种人脸图像实时美化与纹理合成方法 | |
CN109949237A (zh) | 图像处理方法及装置、图像设备及存储介质 | |
CN115689869A (zh) | 一种视频美妆迁移方法及系统 | |
CN109615690A (zh) | 试衣人体模型的建模方法和装置、电子设备、存储介质 | |
JP3951061B2 (ja) | 顔画像処理方法および顔画像処理装置 | |
CN113344837B (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
Ueda et al. | AR food changer using deep learning and cross-modal effects | |
CN117157673A (zh) | 用于形成个性化的3d头部和面部模型的方法和系统 | |
JP3915844B2 (ja) | 顔画像処理方法および顔画像処理装置 | |
KR20030048913A (ko) | 3차원 얼굴 모델을 위한 텍스쳐 생성 방법 및 장치 | |
Sheu et al. | Automatic generation of facial expression using triangular geometric deformation | |
JP3876922B2 (ja) | 顔画像処理方法および顔画像処理装置 | |
CN109635674A (zh) | 一种基于姿态适应的树突状卷积神经网络的人脸对齐方法 | |
CN110335332B (zh) | 一种人脸卡通画自动绘制方法 | |
KR20010084996A (ko) | 단일 이미지를 이용한 3차원 아바타 제작 방법 및 이를이용한 자판기 | |
KR100902995B1 (ko) | 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060417 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110512 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120512 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130512 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140512 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |