JP2004102359A - Image processing device, method and program - Google Patents

Image processing device, method and program Download PDF

Info

Publication number
JP2004102359A
JP2004102359A JP2002259311A JP2002259311A JP2004102359A JP 2004102359 A JP2004102359 A JP 2004102359A JP 2002259311 A JP2002259311 A JP 2002259311A JP 2002259311 A JP2002259311 A JP 2002259311A JP 2004102359 A JP2004102359 A JP 2004102359A
Authority
JP
Japan
Prior art keywords
image
principal component
attribute
images
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002259311A
Other languages
Japanese (ja)
Other versions
JP3920747B2 (en
Inventor
Shigeru Mukoda
向田 茂
Miyuki Kamaike
蒲池 みゆき
Keisuke Kinoshita
木下 敬介
Kunihiro Chihara
千原 國宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2002259311A priority Critical patent/JP3920747B2/en
Publication of JP2004102359A publication Critical patent/JP2004102359A/en
Application granted granted Critical
Publication of JP3920747B2 publication Critical patent/JP3920747B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device, method and program for extracting the characteristic of a specific attribute of an image without depending on subjectivity. <P>SOLUTION: A plurality of personal face images are stored. Coordinate values of a plurality of characteristic points of each stored face image are extracted. An age attribute value of each face image is acquired. The shape characteristic vector F<SB>i</SB>of each face image is configurated by using the coordinate values of the plurality of characteristic points and the age attribute value acquired for each face image. A characteristic value σ<SB>1</SB>of a first main component is calculated by analyzing the main component on the basis of the shape characteristic vector F<SB>i</SB>of the plurality of face images. A main component characteristic vector P<SB>max</SB>, P<SB>min</SB>of the first main component is configurated by using a characteristic value σ<SB>1</SB>of the first main component. A face shape vector F<SB>max</SB>, F<SB>min</SB>of the first main component is configurated by using the characteristic value σ<SB>1</SB>of the first main component. The face shape vector F<SB>max</SB>, F<SB>min</SB>of the first main component is reconfigurated by using the characteristic value σ<SB>1</SB>of the first main component, and the age characteristic vector F representing the age attribute characteristic is extracted. The face image of the desired age is composed by using the age characteristic vector F. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像の所定の属性の特徴を抽出する画像処理装置、画像処理方法および画像処理プログラムに関する。
【0002】
【従来の技術】
コミュニケーションにおいて、顔は重要な役割を果たしている。特に、顔からは、年齢、人種、性別、表情等の様々な情報を得ることができる。経験的には、相手の年齢から言葉遣いや態度を決めることもしばしばあり、年齢はコミュニケーションのための重要な要素の一つと言える。
【0003】
顔の年齢変化を操作する顔画像合成手法には、顔の経年変化の骨格モデルから形状変化の特徴的な部分を変形パラメータとして用いることにより顔画像を合成する方法や、複数の顔画像を元に生成した異なる世代の平均顔の差分情報を用いて顔画像を合成する方法等が提案されている(例えば、非特許文献1、非特許文献2参照)。骨格モデルから変形パラメータを用いる方法では、人為的に設定した限られた変形パラメータのみを用いているため、経年変化に影響する特徴を的確に操作できているとは言いきれない。一方、異なる世代の平均顔の差分情報を用いる方法では、各世代の平均顔を作成する際に、十分な数のオリジナル顔画像を用いる必要がある。オリジナル顔画像の数が十分でないと、抽出した差分情報には年齢要素だけではなく、オリジナル顔画像のもつ個人特徴の要素の差が含まれてしまいかねない。
【0004】
【非特許文献1】
中川雅通,宋續敏彦,角義恭,前原文雄,千原國宏,“骨格モデルを用いた顔画像の年齢変化シミュレーション,”信学論(A),Vol.J80−A,No.8,pp.1312−1315,Aug. 1997.
【非特許文献2】
D.A.Rowland, D.I.Perrett, “Manipulating Facial Appearance through Shape and Color, ” IEEE Computer Graphics and Applications, Vol.15, No.5, pp.70−76, Sep.1995.
【0005】
【発明が解決しようとする課題】
近年、主成分分析(Principal Component Analysis:PCA)を用いた年齢特徴抽出が試みられている。PCAは、複数の変量(変数)により構成される多次元空間(特徴ベクトル)を、できる限り少ない次元数の特徴ベクトルとして表現しようとする多変量解析手法である。
【0006】
PCAを用いた顔画像合成も行われているが、従来手法の特徴抽出では、年齢や表情に関する主成分を指示および抽出することは難しい。年齢の異なる複数の顔画像をデータとして投入し分析する場合、PCAの性質から上位の主成分には年齢変化に関与する成分を含んだ結果が得られることは十分に考えられる。しかし、得られた結果から、年齢変化に強く関与する主成分を取得するには、主成分ごとにデータを復元し、もっともらしい主成分を主観で選択するという方法が取られてきた。したがって、主成分を選択する人により得られる結果が異なることになる。
【0007】
本発明の目的は、画像の所定の属性の特徴を主観によらずに抽出することができる画像処理装置、画像処理方法および画像処理プログラムに関する。
【0008】
【課題を解決するための手段および発明の効果】
第1の発明に係る画像処理装置は、複数の画像を記憶する画像記憶手段と、画像記憶手段に記憶された各画像の複数の形態的特徴を抽出する特徴抽出手段と、形態的特徴とは異なる各画像の属性を取得する属性取得手段と、特徴抽出手段により抽出された各画像の複数の形態的特徴および属性取得手段により取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成する形態特徴ベクトル構成手段と、形態特徴ベクトル構成手段により構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出する主成分分析手段とを備えたものである。
【0009】
本発明に係る画像処理装置においては、複数の画像が画像記憶手段により記憶され、記憶された各画像の複数の形態的特徴が特徴抽出手段により抽出される。また、形態的特徴とは異なる各画像の属性が属性取得手段により取得される。抽出された各画像の複数の形態的特徴および取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルが形態特徴ベクトル構成手段により構成される。構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分が主成分分析手段により算出される。
【0010】
このようにして得られた第1主成分は、形態特徴ベクトルに変量として加えられた属性と密接に関与している。したがって、第1主成分に基づいて画像の所定の特徴を主観によらずに確実に抽出することができる。
【0011】
第2の発明に係る画像処理装置は、第1の発明に係る画像処理装置の構成において、主成分分析手段により算出された第1主成分の固有値を用いて第1主成分の変化範囲を決定する変化範囲決定手段と、変化範囲決定手段により決定された第1主成分の変化範囲での複数の形態的特徴の変化量を変量として用いて属性の特徴を示す属性特徴ベクトルを再構成する属性特徴ベクトル再構成手段とをさらに備えたことを特徴とする。
【0012】
この場合、主成分分析手段により算出された第1主成分の固有値を用いて第1主成分の変化範囲が変化範囲決定手段により決定される。また、決定された第1主成分の変化範囲での複数の形態的特徴の変化量を変量として用いて属性の特徴を示す属性特徴ベクトルが属性特徴ベクトル再構成手段により再構成される。
【0013】
このようにして得られた属性特徴ベクトルの各変量は、属性の変化による各形態的特徴の変化量を示している。したがって、画像の属性の特徴を各形態的特徴の変化量として抽出することができる。
【0014】
第3の発明に係る画像処理装置は、第2の発明に係る画像処理装置の構成において、属性特徴ベクトル再構成手段により得られた属性特徴ベクトルを用いて特定の画像から属性が異なる他の画像を合成する画像合成手段をさらに備えたことを特徴とする。
【0015】
この場合、属性特徴ベクトルの各変量が画像の属性の変化による各形態的特徴の変化量を示しているので、属性特徴ベクトルを用いて特定の画像から属性が異なる他の画像を合成することができる。
【0016】
第4の発明に係る画像処理装置は、第3の発明に係る画像処理装置の構成において、画像合成手段は、特定の画像の複数の形態的特徴を変量とする形態特徴ベクトルを構成し、その形態特徴ベクトルの各変量を属性特徴ベクトルの対応する変量に基づいて修正し、修正された変量を有する形態特徴ベクトルから他の画像を合成することを特徴とする。
【0017】
この場合、特定の画像の複数の形態的特徴を変量とする形態特徴ベクトルが構成され、その形態特徴ベクトルの各変量が属性特徴ベクトルの対応する変量に基づいて修正され、修正された変量を有する形態特徴ベクトルから他の画像が合成される。このようにして、属性特徴ベクトルを用いて特定の画像から属性が異なる他の画像を合成することができる。
【0018】
第5の発明に係る画像処理装置は、第1〜第4のいずれかの発明に係る画像処理装置の構成において、複数の画像は、複数の顔画像であり、属性は、見かけの年齢、実年齢、性別、人種、表情または体形であることを特徴とする。
【0019】
属性が見かけの年齢の場合、形態特徴ベクトルに見かけの年齢を変量として加えることにより、主成分分析により得られた第1主成分は見かけの年齢と密接に関与している。したがって、第1主成分に基づいて顔画像の見かけの年齢の特徴を主観によらずに確実に抽出することができる。属性が実年齢の場合、形態特徴ベクトルに実年齢を変量として加えることにより、主成分分析により得られた第1主成分は実年齢と密接に関与している。したがって、第1主成分に基づいて顔画像の実年齢の特徴を主観によらずに確実に抽出することができる。属性が性別の場合、形態特徴ベクトルに性別を変量として加えることにより、主成分分析により得られた第1主成分は性別と密接に関与している。したがって、第1主成分に基づいて顔画像の性別の特徴を主観によらずに確実に抽出することができる。属性が人種の場合、形態特徴ベクトルに人種を変量として加えることにより、主成分分析により得られた第1主成分は人種と密接に関与している。したがって、第1主成分に基づいて顔画像の人種の特徴を主観によらずに確実に抽出することができる。属性が表情の場合、形態特徴ベクトルに表情を変量として加えることにより、主成分分析により得られた第1主成分は表情と密接に関与している。したがって、第1主成分に基づいて顔画像の表情の特徴を主観によらずに確実に抽出することができる。属性が体形の場合、形態特徴ベクトルに体形を変量として加えることにより、主成分分析により得られた第1主成分は体形と密接に関与している。したがって、第1主成分に基づいて顔画像の体形の特徴を主観によらずに確実に抽出することができる。
【0020】
第6の発明に係る画像処理装置は、第1〜第5のいずれかの発明に係る画像処理装置の構成において、複数の形態的特徴は、予め定められた複数の特徴点の座標値を含むことを特徴とする。
【0021】
この場合、複数の形態的特徴が複数の特徴点の座標値により表される。したがって、第1主成分により画像の形状における属性の特徴を主観によらずに確実に抽出することができる。
【0022】
第7の発明に係る画像処理方法は、複数の画像を記憶するステップと、記憶された各画像の複数の形態的特徴を抽出するステップと、形態的特徴とは異なる各画像の属性を取得するステップと、抽出された各画像の複数の形態的特徴および取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成するステップと、構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出するステップとを備えたものである。
【0023】
本発明に係る画像処理方法においては、複数の画像が記憶され、記憶された各画像の複数の形態的特徴が抽出される。また、形態的特徴とは異なる各画像の属性が取得される。抽出された各画像の複数の形態的特徴および取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルが構成される。構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分が算出される。
【0024】
このようにして得られた第1主成分は、形態特徴ベクトルに変量として加えられた属性と密接に関与している。したがって、第1主成分に基づいて画像の所定の特徴を主観によらずに確実に抽出することができる。
【0025】
第8の発明に係る画像処理プログラムは、コンピュータ読み取り可能な画像処理プログラムであって、コンピュータ読み取り可能な画像処理プログラムであって、複数の画像を記憶する処理と、記憶された各画像の複数の形態的特徴を抽出する処理と、形態的特徴とは異なる各画像の属性を取得する処理と、抽出された各画像の複数の形態的特徴および取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成する処理と、構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出する処理とを、コンピュータに実行させるものである。
【0026】
本発明に係る画像処理プログラムによれば、複数の画像が記憶され、記憶された各画像の複数の形態的特徴が抽出される。また、形態的特徴とは異なる各画像の属性が取得される。抽出された各画像の複数の形態的特徴および取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルが構成される。構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分が算出される。
【0027】
このようにして得られた第1主成分は、形態特徴ベクトルに変量として加えられた属性と密接に関与している。したがって、第1主成分に基づいて画像の所定の特徴を主観によらずに確実に抽出することができる。
【0028】
【発明の実施の形態】
以下、本発明の一実施の形態における画像処理方法の概念を説明する。ここでは、画像が個人の顔画像であり、複数の形態的特徴が目、口等の顔パーツ(顔部品)の形状特徴を構成するL個の特徴点(x,y)の2次元座標であり、属性が年齢である場合を説明する。ここで、Lは、2以上の整数であり、xは顔画像におけるx座標、yは顔画像におけるy座標である。
【0029】
本実施の形態では、まず、個人の顔画像を表す特徴ベクトル(形状特徴ベクトル)として、L個の特徴点(x,y)の2次元座標だけでなく、画像には直接関係はないが、年齢特徴に強く影響を与える既知の属性値(年齢属性値)に重みを加えたものを変量aとして加え、以下に示すように、主成分分析(PCA)による次元圧縮を行う。
【0030】
具体的には以下の手順で行う。個人の顔画像の形状特徴ベクトルは、次式のように、2L+1次元のベクトルF(i=1,2,・・・,M)として表す。MはPCAに用いる個人の顔画像の数である。
【0031】
=[x,y,x,y,x,y,…,x,y,a] …(1)
上式(1)において、Tは転置を示す。すべての顔画像の形状特徴ベクトルの平均値が形状特徴ベクトル空間の中心に配置されるように各要素(変量)から平均FAVを引く。
【0032】
ΔF=F−FAV …(2)
次に、上式(2)を用いて新たに顔特徴空間Gを次式(3)により定義する。
【0033】
G=[ΔF,ΔF…,ΔF] …(3)
そして、次式(4)により顔特徴空間Gの共分散行列Sを求める。
【0034】
S=GG …(4)
上式(4)より求められた共分散行列Sに対して次式(5)により特異値分解を行うことにより、各固有ベクトルを顔特徴空間Gの主成分として求めることができる。
【0035】
S=UDU …(5)
Uはユニタリ行列であり、各列が固有ベクトルとなる。すなわち、ユニタリ行列Uの第1列には第1番目〜第M番目の顔画像における第1主成分の主成分得点が順に並び、第2列には第1番目〜第M番目の顔画像における第2主成分の主成分得点が順に並び、第3列には第1番目〜第M番目の顔画像における第3主成分の主成分得点が順に並ぶ。同様に、ユニタリ行列Uの第M列には第1番目〜第M番目の顔画像における第(2L+1)主成分の主成分得点が並ぶ。Dは対角行列であり、対角成分が各主成分の固有値である。すなわち、対角行列Dの対角成分は、第1主成分〜第(2L+1)主成分の固有値λ〜λ2L+1である。
【0036】
ここで得られた第1主成分は、後述するように、属性値として加えた成分(年齢)の影響を強く受けており、第1主成分の主成分得点の値は、年齢属性値を強く反映したものになる。
【0037】
ここで、第1主成分の標準偏差をσとし、その3倍を形状特徴の変化範囲とする。主成分の固有値は主成分の分散であることから、第1主成分の標準偏差σは、第1主成分の固有値λより次式(6)のようになる。
【0038】
σ =λ …(6)
第1主成分の標準偏差σの3倍の範囲、すなわち−(3/2)σから+(3/2)σの範囲を顔形状(形状特徴)の変化範囲とする。この変化範囲にすべての顔画像のうち90%以上が属する。+(3/2)σを第1主成分の主成分得点とし、他の主成分の主成分得点を0とする主成分特徴ベクトルをPmaxとする。また、−(3/2)σを第1主成分の主成分得点とし、他の主成分の主成分得点を0とする主成分特徴ベクトルをPminとする。主成分特徴ベクトルPmaxはM個の顔画像より求められる平均顔画像において最年長(または最年少)の顔画像に対応し、主成分特徴ベクトルPminはM個の顔画像により求められる平均顔画像において最年少(または最年長)の顔画像に対応する。
【0039】
max=[+(3/2)σ,0,0,…,0] …(7)
min=[−(3/2)σ,0,0,…,0] …(8)
上式(7),(8)の主成分特徴ベクトルPmax,Pminより顔形状ベクトルFmax,Fminを再構成する。顔形状ベクトルFmaxは最年長(または最年少)の平均顔画像を表し、顔形状ベクトルFminは最年少(または最年長)の平均顔画像を表す。そして、次式のように、顔形状ベクトルFmaxと顔形状ベクトルFminとの差を年齢特徴を表す特徴ベクトル(年齢特徴ベクトル)Fとして抽出する。
【0040】
F=Fmax−Fmin …(9)
ただし、年齢特徴ベクトルFには属性値は必要ないため、年齢特徴ベクトルFは年齢属性値を削除した2L次元のベクトルとする。
【0041】
F=[x,y,x,y,…,x2L,y2L …(10)
上式(10)の年齢特徴ベクトルFは、最年長の平均顔画像と最年少の平均顔画像との間での各特徴点の移動量を表している。例えば、変量xは1番目の特徴点のx座標の移動量を表し、変量yは1番目の特徴点のy座標の移動量を表す。
【0042】
上式(10)の年齢特徴ベクトルFを用いて次のようにして特定の個人のオリジナル顔画像からその個人の異なる年齢の顔画像を合成することができる。
【0043】
まず、特定の個人のオリジナル顔画像の形状特徴ベクトルFを次式のように構成する。
【0044】
=[x,y,x,y,…,x2L,y2L …(11)
上式(11)の変量x,y,x,y,…,x2L,y2Lはオリジナル顔画像のL個の特徴点のx座標およびy座標である。
【0045】
次に、上式(10)の年齢特徴ベクトルFの各変量x,y,x,y,…,x2L,y2Lに合成割合bを乗算し、次式の修正ベクトルF’を算出する。
【0046】
F’=[bx,by,bx,by,…,bx2L,by2L …(12)
上式(11)のオリジナル顔画像の形状特徴ベクトルFに上式(12)の修正ベクトルF’を次式のように加算または減算し、年齢特徴をマッピングした形状特徴ベクトルFを作成する。
【0047】
=F±F’ …(13)
上式(13)の形状特徴ベクトルFから顔画像を再構成することによりオリジナル顔画像に対して年齢が異なる顔画像を合成することができる。この場合、上式(12)における合成割合bの値を任意に設定することにより、任意の年齢の顔画像を合成することが可能となる。
【0048】
次に、図1を用いて本実施の形態の画像処理方法を実行するための画像処理装置の構成を説明する。図1は本実施の形態の画像処理方法を実施するための画像処理装置の構成を示すブロック図である。
【0049】
画像処理装置50は、CPU(中央演算処理装置)501、ROM(リードオンリメモリ)502、RAM(ランダムアクセスメモリ)503、入力装置504、表示装置505、外部記憶装置506、記録媒体駆動装置507および印刷装置508を含む。
【0050】
入力装置504は、キーボード、マウス、スキャナ、デジタルカメラ等からなり、各種指令、データおよび画像を入力するために用いられる。ROM502にはシステムプログラムが記憶される。記録媒体駆動装置507は、CD−ROMドライブ、フロッピィディスクドライブ等からなり、CD−ROM、フロッピィディスク等の記録媒体509に対してデータの読み書きを行う。記録媒体509には、画像処理プログラムが記憶されている。外部記憶装置506は、ハードディスク装置等からなり、記録媒体駆動装置507を介して記録媒体509から読み込まれた画像処理プログラムおよび各種データを記憶する。CPU501は、外部記憶装置506に記憶された画像処理プログラムをRAM503上で実行する。
【0051】
表示装置505は、液晶表示パネル、CRT(陰極線管)等からなり、各種画像等を表示する。印刷装置508は、各種画像等を印刷する。
【0052】
なお、画像処理プログラムを記録する記録媒体509として、ROM等の半導体メモリ、ハードディスク等の種々の記録媒体を用いることができる。また、画像処理プログラムを通信回線等の通信媒体を介して外部記憶装置506にダウンロードし、RAM503上で実行してもよい。
【0053】
本実施の形態では、外部記憶装置506が画像記憶手段に相当し、CPU501が特徴抽出手段、属性取得手段、形態特徴ベクトル構成手段、主成分分析手段、変化範囲決定手段、属性特徴ベクトル再構成手段および画像合成手段に相当する。
【0054】
図2は図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。ここでは、ある年齢の個人のオリジナル顔画像からその個人の他の年齢の顔画像を合成する方法の例を示す。
【0055】
まず、CPU501は、入力装置504により入力された複数の個人の顔画像を画像データとして外部記憶装置506に記憶する(ステップS1)。この場合、予めデータベースに記憶された複数の個人の顔画像の画像データを用いてもよい。
【0056】
次に、CPU501は、外部記憶装置506に記憶された画像データに基づいて各顔画像の複数の特徴点の座標値を抽出する(ステップS2)。本実施の形態では、各特徴点のx座標およびy座標を抽出する。
【0057】
次に、CPU501は、各顔画像の年齢属性値を取得する(ステップS3)。年齢属性値は、各顔画像ごとに入力装置504により入力してもよく、あるいは各顔画像ごとに予めデータベースに記憶された年齢属性値を用いてもよい。本実施の形態では、後述する年齢知覚実験により得られた見かけの年齢を年齢属性値として用いる。
【0058】
さらに、CPU501は、各顔画像ごとに抽出された複数の特徴点の座標値および年齢属性値を用いて各顔画像の形状特徴ベクトルF(式(1)参照)を構成する(ステップS4)。
【0059】
次いで、CPU501は、複数の顔画像の形状特徴ベクトルFから式(2)〜(6)に従って主成分分析により第1主成分の固有値σを算出する(ステップS5)。また、CPU501は、第1主成分の固有値σを用いて式(7)の第1主成分の主成分特徴ベクトルPmax,Pminを構成する(ステップS6)。
【0060】
次に、CPU501は、第1主成分の固有値σを用いて式(7)の第1主成分の顔形状ベクトルFmax,Fminを再構成し(ステップS7)、式(8)の年齢特徴を表す年齢特徴ベクトルFを抽出する(ステップS8)。
【0061】
次いで、CPU501は、年齢特徴ベクトルFを用いて特定の個人のオリジナル顔画像から所望の年齢の顔画像を合成する(ステップS9)。
【0062】
このようにして、画像処理プログラムを画像処理装置において実行することにより複数の個人の顔画像を用いて年齢特徴に密接に関連する顔形状の特徴を年齢特徴ベクトルFとして抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から所望の年齢の顔画像を合成することができる。
【0063】
上記のように、本実施の形態の画像処理装置、画像処理方法および画像処理プログラムにより未知の顔画像を合成することができるので、それらを犯罪捜査等に利用することができる。
【0064】
なお、上記実施の形態では、画像の形態的特徴として顔形状の特徴を表す複数の特徴点の座標値を用いているが、画像の形態的特徴として肌の色合い、しみ、しわ等のテクスチャ(肌合い)を用いることもできる。また、年齢の知覚は、顔内部の形状だけではなく、髪型等を考慮してもよい。
【0065】
さらに、上記実施の形態では、属性として見かけの年齢を用いているが、属性として見かけの年齢の代わりに実年齢を用いてもよい。また、属性として表情、人種、性別、体形等の他の属性を用いてもよい。
【0066】
属性が実年齢の場合、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて実年齢の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から実年齢の異なる顔画像を合成することができる。
【0067】
属性が表情の場合、喜怒哀楽等の表情をそれぞれ異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて表情の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から表情の異なる顔画像を合成することができる。
【0068】
属性が人種の場合、異なる複数の人種をそれぞれ異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて人種の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から人種の異なる顔画像を合成することができる。
【0069】
属性が性別の場合、男女の性別を異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて性別の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から性別の異なる顔画像を合成することができる。
【0070】
属性が体形の場合、異なる体形を異なる値で表し、上記実施の形態の画像処理方法を適用することにより、複数の個人の顔画像を用いて体形の特徴に密接に関連する顔形状の特徴を抽出することができ、さらに抽出した顔形状の特徴を用いて特定の個人のオリジナル顔画像から体形の異なる顔画像を合成することができる。
【0071】
また、上記実施の形態では、画像が個人の顔画像である場合を説明したが、これに限定されない。例えば、画像が動物の画像であってもよい。
【0072】
【実施例】
1.予備実験
個人の顔の経年変化に関わる形状特徴について考える場合、PCAの変量に与える属性値として、実年齢を利用すればよい。しかし、顔の経年変化では、形状とともに、しみやしわ、肌のきめ等も変化することは経験的にも明らかである。本実施例では、経年変化により変化する顔の形状特徴ではなく、みかけの年齢、つまり若く見える顔や、老けて見える顔の形状の特徴について検討した。そして、見かけの年齢の属性値として、実年齢を与えたのでは不十分であるため、見かけの年齢の属性値を求めるために年齢知覚実験(年齢評定実験)を行った。
【0073】
1−1.手続
年齢知覚実験における実験刺激には、ATR(株式会社国際電気通信基礎技術研究所)の表情顔画像データベースから、日本人男女各142名の無表情、正面向き、実年齢が10代後半から30代後半の顔画像を用いた。また、顔画像は512×512ピクセルのカラー画像であり、顔が枠内に十分入る大きさであった。被験者は大学生(18才〜22才)の男性25名および女性22名であった。
【0074】
実験は、次の手順で行われた。被験者は、モニタに表示される顔画像の年齢を推定し、表1に示す年齢評定カテゴリの中で最も適するカテゴリを選択するよう求められた。
【0075】
【表1】

Figure 2004102359
【0076】
表1に示すように、年齢を8つのカテゴリに分類し、それらのカテゴリに年齢の若い順に0〜7の評定値を与えた。
【0077】
1−2.結果
顔画像ごとに評定値の平均および標準偏差を求めた。図4は顔画像ごとの評定置の平均を降順に並び替えてプロットした図である。図4の横軸は、142名の顔画像を示し、縦軸は、各顔画像の評定値の平均を示す。三角印および丸印はそれぞれ男性および女性の顔画像の評定値の平均を表す。
【0078】
個々の顔画像より得られた標準偏差から顔画像の性別ごとに平均を求めた。標準偏差の平均は、男性の顔画像では0.85、女性の顔画像では0.89であった。つまり、男女の顔とも±5才程度の誤差で年齢が推定されたことになる。
【0079】
なお、男女で顔画像は異なり、顔画像間に関連もないため、顔画像間の比較には意味がない。
【0080】
2.年齢特徴抽出実験
次に、上記の年齢知覚実験により得られた見かけの年齢属性値を用いて顔年齢特徴抽出実験を行った。顔情報に見かけの年齢属性値を付加する場合(以下、属性値付加条件と呼ぶ)と、顔情報に見かけの年齢属性値を付加しない場合(以下、属性値なし条件と呼ぶ)とで、抽出される形状特徴の比較を行った。
【0081】
2−1.手続き
顔画像の形状特徴には、ATRの顔画像合成システム(FUTON)(蒲池みゆき,向田茂,吉川左紀子,加藤隆,尾田正臣,赤松茂,“顔・表情認知に関する心理実験のための顔画像合成システム−FUTON System−,”信学技法,HIP97−39,pp.73−80,Jan.1998および向田茂,蒲池みゆき,赤松茂,“顔画像合成システム(FUTON system)におけるマニュアルサンプリングの評価,”信学技法,HIP99−49,pp.13−18,Nov.1999参照)のデフォルト特徴点83点の座標値を用いた。図5は顔特徴ベクトルの変量として用いた特徴点を示す図である。図5において、83点の特徴点を黒丸で示し、各特徴点を識別するために符号を付している。
【0082】
顔画像としては、予備実験で用いた男女の各142枚の顔画像を用いた。ただし、顔幅(特徴点Fr3,Fl3間の長さ)が230ピクセルになるように、また両目の瞳を結ぶ直線が水平になるように正規化した。
【0083】
男女の顔画像ごとに、属性値なし条件および属性値付加条件のそれぞれにおいてPCAによる次元圧縮を行った。
・属性値なし条件
従来手法の属性値なし条件では、顔情報(形状特徴ベクトルの変量)として、83点の特徴点の座標値のみを用いた。1枚の顔画像を166次元の形状特徴ベクトルFとして表した。
【0084】
=(x,y,x,y,x,y,…,x83,y83
・属性値付加条件
属性値付加条件では、顔情報として(形状特徴ベクトルの変量)、83点の特徴点の座標値に加え,予備実験で得られた各顔画像の評定値の平均値を100倍した値を、見かけの年齢属性値aとして用いた。そして、1枚の顔画像を167次元の形状特徴ベクトルFとして表した。
【0085】
=(x,y,x,y,x,y,…,x83,y83,a)
得られた主成分ごとの固有値から、その主成分の変化量を決定し、主成分ごとに形状特徴ベクトルを再構成後、視覚的にその差を比較した。
【0086】
2−3.結果
男女それぞれの顔画像について、属性値なし条件および属性値付加条件から得られた各主成分における主成分得点を分析した。もし、主成分が年齢変化に強く関与しているのであれば、顔画像を年齢順に並べたとき、主成分上の各顔画像の主成分得点は昇順あるいは降順に並んでいるはずである。そこで、男女の顔画像での各条件で得られた主成分のうち第1主成分から第3主成分までの主成分得点をプロットした。
【0087】
図6(a)は男性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図、図6(b)は女性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図である。また、図7(a)は男性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図、図7(b)は女性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図である。図6および図7の横軸は見かけの年齢(評定値)の高い順に並べた顔画像を示し、縦軸は主成分得点(PC score)を示す。四角印は第1主成分の主成分得点を示し、丸印は第2主成分の主成分得点を示し、三角印は第3主成分の主成分得点を示す。
【0088】
図6(a),(b)に示すように、属性値なし条件では、男性の顔画像および女性の顔画像とも、年齢順に並べられた顔画像の主成分得点がほぼ昇順あるいは降順に並ぶ主成分を見つけることができなかった。
【0089】
図7(a),(b)に示すように、属性値付加条件では、男性の顔画像および女性の顔画像とも、第1主成分の主成分得点がほぼ順に並んだ形で示された。
【0090】
これらの結果から、属性値付加条件で得られた第1主成分が顔画像の見かけの年齢に影響を与える特徴と密接に関係していることがわかった。
【0091】
次に、各主成分がどのような形状変化に関わっているのかを視覚的に確認するために、確認する主成分の固有値から得られた変化範囲を用いて、それぞれ顔パーツの特徴点の座標を再構成した。以下に示すように、属性値付加条件での主成分の顔形状への影響を調べた。
【0092】
図8、図9、図10および図11は男性の顔画像において属性値付加条件で得られた第1主成分、第2主成分、第3主成分および第4主成分をそれぞれ用いて再構成した顔形状を示す図である。また、図12、図13、図14および図15は女性の顔画像において属性値付加条件で得られた第1主成分、第2主成分、第3主成分および第4主成分をそれぞれ用いて再構成した顔形状を示す図である。図8〜図11において、(a)および(b)は見かけの年齢が両極端の顔形状を示している。
【0093】
再構成した顔画像から各主成分の2枚の顔形状を比較した。各主成分が形状的な特徴の変化とどのように関係しているかを、主観的な印象として挙げると次のようになる。男性の顔画像について属性値付加条件で得られた第1主成分では、眉の内側が上下に変化、外側は内側とは逆向きに上下に変化する。鼻と口は上下に変化し、口の幅は若干狭まったり、広がったり、そしてあごがやや大きくなったり、小さくなったりする。第2主成分では、額が拡大縮小し、眉の外側が水平方向へ変化し(眉の大きさが変わる)、両目の間隔もやや広くなったり、狭くなったりし、そして、鼻、口およびあごが大きく上下に変化する。第3主成分では、眉の内側が上下に変化し、外側は若干水平方向に変化する。鼻と口は大きく上下に変化し、あごは四角くややえらの張ったような形や、少し小さく、とがった形に変化する。第4主成分では、額の大きさが急激に変化し、眉の内側が大きく上下に変化する。そして、鼻および口の左側が若干水平方向に変化し、あごの左側がごくわずか変化する。
【0094】
一方、属性値なし条件では、第1主成分は属性値付加条件の第2主成分とほぼ同じ変化を示し、第2主成分は属性値付加条件の第3主成分とほぼ同じ変化を示した。以降の主成分についても同様であった。
【0095】
女性の顔画像について属性値付加条件で得られた第1主成分では、口が上下に変化し、幅が広くなったり狭くなったりする。そして、あごがやや大きくなったり、小さくなったりする。第2主成分では、男性の顔画像について属性値付加条件で得られた第2主成分とほぼ同様であった。第3主成分では、額が拡大縮小し、眉の内側は若干上下に変化し、そして鼻と口は若干左側で水平方向に変化し、あごはややえらの張ったような形や、少し小さく、とがった形になる。第4主成分では、顔輪郭、鼻、口が若干右側で変化する。そして、顔輪郭については横幅が変化する。
【0096】
一方、属性値なし条件では、男性の顔画像と同様に、第1主成分は属性値付加条件の第2主成分とほぼ同じ変化を示し、第2主成分は属性値付加条件の第3主成分とほぼ同じ変化を示した。以降の主成分についても同様であった。
【0097】
2−3.考察
各主成分における主成分得点の分布から見ると、属性値なし条件と、属性値付加条件の第2主成分以降では、顔画像を見かけの年齢順に並べたときに、主成分得点が全く昇順あるいは降順になっていなかったことから、これらの主成分は見かけの年齢に影響を与える特徴と密接に関係しているとは言えない。一方、属性値付加条件の第1主成分では、見かけの年齢順に顔画像を並べたとき、男女の顔画像とも、主成分得点はほぼ順に並んでいたこと、さらには年齢知覚実験(年齢評定実験)で得られたデータ(評定値)の分布と第1主成分のデータ(主成分得点)の分布はよく似た分布を示していることから、属性値付加条件で得られた第1主成分は、見かけの年齢に影響を与える形状特徴と密接に関係していると言える。
【0098】
各主成分の主成分得点の値を変え、顔パーツの特徴点座標に再構成させた特徴点の座標の変化についても、属性値付加条件の第1主成分は、解剖学的な知見による青年期の加齢変化とほぼ合っているように見える。
【0099】
本発明に係る画像処理方法では、顔の形状情報である特徴点の座標値だけでなく、直接顔画像の構成には関係のない見かけの年齢という属性値を加えてPCAを行うことにより、第1主成分の主成分得点が定量的にも年齢変化との関係を示していること、第1主成分から再構成した顔形状において定性的にも妥当な変形を観察できたことから、見かけの年齢に密接に関係する形状特徴を得られることを示している。
【0100】
3−1.個人の顔画像へのマッピング
年齢特徴抽出実験により得られた見かけの年齢特徴を個人の顔画像へマッピングした。
【0101】
図16〜図19は4人のオリジナルの顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。各図において、3枚の顔画像のうち、中央がオリジナル顔画像、左側が若く見えるように合成した顔画像、右側が老けて見えるように合成した画像である。合成割合は、いずれも年齢特徴抽出実験の属性値付加条件の第1主成分の変化量の±50%とした。
【0102】
合成の手順は次の通りである。個人のオリジナル顔画像から、FUTONで用いる83点の特徴点を取得し、オリジナル顔画像の形状特徴ベクトルFを特徴点の座標値を用いて、166次元のベクトルFとする。
=(x,y,x,x,…,x166,y166 …(11)
オリジナル顔画像の形状特徴ベクトルFと、見かけの年齢特徴ベクトルFの各要素に合成割合0.5を乗じた修正ベクトルF’を加算あるいは減算し、年齢特徴をマッピングした顔形状ベクトルFを作成した。
【0103】
F’=(0.5x,0.5y,0.5x,0.5y…,0.5x83,0.5y83 …(12)
=F±F’ …(13)
そして、顔形状がFからFへと変化する形状モーフィング(顔合成技術)をFUTONで行った。
【0104】
ここで、抽出した見かけの年齢特徴は形状のみであったため、顔形状のみの合成となった。合成結果は、「オリジナル顔画像の人物が若く見られるならばこんな感じ」、「老けて見られるならばこんな感じ」という印象の顔画像となった。
【0105】
以上のように、上記実施例では、顔画像の形状特徴ベクトルに画像とは直接関係のない見かけの年齢という属性値を変量として加え、PCAを行うことにより、見かけの年齢変化に密接に関与する形状特徴を抽出することが可能であることが示された。
【図面の簡単な説明】
【図1】本発明の一実施の形態における画像処理方法を実施するための画像処理装置の構成を示すブロック図である。
【図2】図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。
【図3】図1の画像処理装置において実行される画像処理プログラムの処理を示すフローチャートである。
【図4】顔画像ごとの評定置の平均を降順に並び替えてプロットした図である
【図5】形状特徴ベクトルの変量として用いた特徴点を示す図である。
【図6】男性および女性の顔画像において属性値なし条件で得られた上位主成分の主成分得点を示す図である。
【図7】男性および女性の顔画像において属性値付加条件で得られた上位主成分の主成分得点を示す図である。
【図8】男性の顔画像において属性付加条件で得られた第1主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図9】男性の顔画像において属性付加条件で得られた第2主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図10】男性の顔画像において属性付加条件で得られた第3主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図11】男性の顔画像において属性付加条件で得られた第4主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図12】女性の顔画像において属性付加条件で得られた第1主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図13】女性の顔画像において属性付加条件で得られた第2主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図14】女性の顔画像において属性付加条件で得られた第3主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図15】女性の顔画像において属性付加条件で得られた第4主成分をそれぞれ用いて再構成した顔形状を示す図である。
【図16】オリジナルの顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。
【図17】オリジナルの顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。
【図18】オリジナルの顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。
【図19】オリジナルの顔画像に年齢形状特徴をマッピングすることにより年齢の異なる顔画像を合成した結果を示す図である。
【符号の説明】
50 画像処理装置
501 CPU
502 ROM
503 RAM
504 入力装置
505 表示装置
506 外部記憶装置
507 記録媒体駆動装置
508 印刷装置
509 記録媒体[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and an image processing program for extracting characteristics of a predetermined attribute of an image.
[0002]
[Prior art]
Faces play an important role in communication. In particular, various information such as age, race, gender, and facial expression can be obtained from the face. Empirically, we often determine language and attitude based on the age of the other person, and age is one of the important factors for communication.
[0003]
The face image synthesis method for manipulating the age change of the face includes a method of synthesizing a face image by using a characteristic part of the shape change from a skeleton model of the aging of the face as a deformation parameter, or a method of synthesizing a plurality of face images. There is proposed a method of synthesizing a face image using difference information of average faces of different generations generated as described above (for example, see Non-Patent Documents 1 and 2). In the method using the deformation parameters from the skeletal model, since only limited deformation parameters set artificially are used, it cannot be said that the characteristics affecting the secular change can be accurately operated. On the other hand, in the method using the difference information of the average faces of different generations, it is necessary to use a sufficient number of original face images when creating the average face of each generation. If the number of the original face images is not sufficient, the extracted difference information may include not only the age element but also the difference of the element of the personal characteristic of the original face image.
[0004]
[Non-patent document 1]
Masamichi Nakagawa, Toshihiko Song, Yoshiyasu Kado, Fumio Maehara, Kunihiro Chihara, "Simulation of Age Change of Face Image Using Skeleton Model," IEICE (A), Vol. J80-A, No. 8, pp. 1312-1315, Aug. {1997.
[Non-patent document 2]
D. A. Rowland, D. I. Perrett, "Manipulating, Facial, Appearance, Through, Shape, and Color," "IEEE Computer, Graphics and Applications, Vol. 15, @No. 5, @pp. 70-76, {Sep. 1995.
[0005]
[Problems to be solved by the invention]
In recent years, age feature extraction using principal component analysis (Principal \ Component \ Analysis: PCA) has been attempted. PCA is a multivariate analysis method that attempts to represent a multidimensional space (feature vector) composed of a plurality of variables (variables) as a feature vector having as few dimensions as possible.
[0006]
Although face image synthesis using PCA is also performed, it is difficult to specify and extract principal components related to age and facial expression in the feature extraction of the conventional method. When inputting and analyzing a plurality of face images of different ages as data, it is sufficiently conceivable that a result including a component related to age change is obtained as a main principal component from the nature of PCA. However, in order to obtain principal components that are strongly involved in age change from the obtained results, a method has been adopted in which data is restored for each principal component and a plausible principal component is subjectively selected. Therefore, the result obtained differs depending on the person who selects the main component.
[0007]
An object of the present invention relates to an image processing apparatus, an image processing method, and an image processing program capable of extracting characteristics of a predetermined attribute of an image without subjectivity.
[0008]
Means for Solving the Problems and Effects of the Invention
An image processing apparatus according to a first aspect of the present invention includes: an image storage unit that stores a plurality of images; a feature extraction unit that extracts a plurality of morphological features of each image stored in the image storage unit; Attribute acquisition means for acquiring the attributes of different images, a plurality of morphological features of each image extracted by the feature extraction means, and morphological features for each image in which the attributes of each image acquired by the attribute acquisition means are variables A morphological feature vector constructing means for constructing a vector; and a principal component analyzing means for calculating a first principal component by principal component analysis from morphological feature vectors of a plurality of images constituted by the morphological feature vector constructing means. .
[0009]
In the image processing apparatus according to the present invention, a plurality of images are stored by the image storage unit, and a plurality of morphological features of each stored image are extracted by the feature extraction unit. Further, the attribute of each image different from the morphological feature is obtained by the attribute obtaining unit. A plurality of morphological features of each of the extracted images and a morphological feature vector for each of the images having the attribute of each of the obtained images as a variable are configured by a morphological feature vector constructing unit. A first principal component is calculated by principal component analysis means by principal component analysis from the morphological feature vectors of the plurality of configured images.
[0010]
The first principal component obtained in this manner is closely related to the attribute added as a variable to the morphological feature vector. Therefore, it is possible to reliably extract a predetermined feature of an image based on the first principal component without depending on subjectivity.
[0011]
An image processing device according to a second aspect of the present invention is the image processing device according to the first aspect, wherein the change range of the first principal component is determined using the eigenvalue of the first principal component calculated by the principal component analysis means. And an attribute for reconstructing an attribute feature vector indicating an attribute feature by using, as a variable, a change amount of a plurality of morphological features in a change range of the first principal component determined by the change range determining unit. A feature vector reconstructing unit.
[0012]
In this case, the change range of the first principal component is determined by the change range determination means using the eigenvalue of the first principal component calculated by the principal component analysis means. Also, an attribute feature vector indicating an attribute feature is reconstructed by the attribute feature vector reconstructing means using the determined change amounts of the plurality of morphological features in the change range of the first principal component as variables.
[0013]
Each variable of the attribute feature vector obtained in this way indicates the amount of change of each morphological feature due to the change of the attribute. Therefore, the feature of the attribute of the image can be extracted as the amount of change of each morphological feature.
[0014]
An image processing apparatus according to a third aspect of the present invention is the image processing apparatus according to the second aspect of the invention, wherein the other image having a different attribute from a specific image using the attribute feature vector obtained by the attribute feature vector reconstructing means. The image processing apparatus further comprises an image synthesizing means for synthesizing.
[0015]
In this case, since each variable of the attribute feature vector indicates the amount of change of each morphological feature due to the change of the attribute of the image, it is possible to synthesize another image having a different attribute from the specific image using the attribute feature vector. it can.
[0016]
An image processing apparatus according to a fourth invention is the image processing apparatus according to the third invention, wherein the image synthesizing means forms a morphological feature vector having a plurality of morphological features of a specific image as variables. The method is characterized in that each variable of the morphological feature vector is corrected based on the corresponding variate of the attribute feature vector, and another image is synthesized from the morphological feature vector having the corrected variate.
[0017]
In this case, a morphological feature vector having a plurality of morphological features of a specific image as a variate is constructed, and each variate of the morphological feature vector is modified based on the corresponding variate of the attribute feature vector, and has the modified variate. Another image is synthesized from the morphological feature vector. In this manner, another image having different attributes from a specific image can be synthesized using the attribute feature vector.
[0018]
An image processing apparatus according to a fifth aspect is the image processing apparatus according to any one of the first to fourth aspects, wherein the plurality of images are a plurality of face images, and the attributes are apparent age, actual It is characterized by age, gender, race, facial expression or body shape.
[0019]
When the attribute is apparent age, the first principal component obtained by the principal component analysis is closely related to the apparent age by adding the apparent age to the morphological feature vector as a variable. Therefore, the feature of the apparent age of the face image can be reliably extracted based on the first principal component irrespective of subjectivity. When the attribute is the actual age, the first principal component obtained by the principal component analysis is closely related to the actual age by adding the actual age to the morphological feature vector as a variable. Therefore, it is possible to reliably extract the characteristics of the actual age of the face image based on the first principal component without depending on the subjectivity. When the attribute is gender, the first principal component obtained by principal component analysis is closely related to gender by adding gender to the morphological feature vector as a variable. Therefore, the gender feature of the face image can be reliably extracted based on the first principal component without depending on subjectivity. When the attribute is race, the first principal component obtained by principal component analysis is closely related to race by adding race to the morphological feature vector as a variable. Therefore, it is possible to reliably extract the racial features of the face image based on the first principal component without depending on the subjectivity. When the attribute is an expression, the first principal component obtained by the principal component analysis is closely related to the expression by adding the expression to the morphological feature vector as a variable. Therefore, the features of the facial expression of the face image can be reliably extracted based on the first principal component irrespective of subjectivity. When the attribute is body shape, the first principal component obtained by principal component analysis is closely related to the body shape by adding the body shape to the morphological feature vector as a variable. Therefore, the features of the body shape of the face image can be reliably extracted based on the first principal component irrespective of subjectivity.
[0020]
An image processing device according to a sixth aspect is the image processing device according to any one of the first to fifth aspects, wherein the plurality of morphological features include predetermined coordinate values of a plurality of feature points. It is characterized by the following.
[0021]
In this case, a plurality of morphological features are represented by coordinate values of a plurality of feature points. Therefore, the feature of the attribute in the shape of the image can be reliably extracted by the first principal component without depending on the subjectivity.
[0022]
An image processing method according to a seventh aspect is a step of storing a plurality of images, a step of extracting a plurality of morphological features of each of the stored images, and acquiring an attribute of each image different from the morphological features. A step of constructing a morphological feature vector for each image having a plurality of morphological features of each of the extracted images and an attribute of each of the acquired images as variables, and Calculating a first principal component by principal component analysis.
[0023]
In the image processing method according to the present invention, a plurality of images are stored, and a plurality of morphological features of each stored image are extracted. Also, attributes of each image different from the morphological features are obtained. A plurality of morphological features of each of the extracted images and a morphological feature vector of each of the images, each of which has the attribute of each of the obtained images as a variable, are configured. A first principal component is calculated from the morphological feature vectors of the plurality of configured images by principal component analysis.
[0024]
The first principal component obtained in this manner is closely related to the attribute added as a variable to the morphological feature vector. Therefore, it is possible to reliably extract a predetermined feature of an image based on the first principal component without depending on subjectivity.
[0025]
An image processing program according to an eighth aspect of the present invention is a computer-readable image processing program, a computer-readable image processing program, a process of storing a plurality of images, and a process of storing a plurality of images. A process of extracting a morphological feature, a process of acquiring an attribute of each image different from the morphological feature, and each image having a plurality of morphological features of each extracted image and an attribute of each acquired image as a variable And causing the computer to execute a process of forming a morphological feature vector for each image and a process of calculating a first principal component by principal component analysis from the morphological feature vectors of the plurality of images.
[0026]
According to the image processing program of the present invention, a plurality of images are stored, and a plurality of morphological features of each stored image are extracted. Also, attributes of each image different from the morphological features are obtained. A plurality of morphological features of each of the extracted images and a morphological feature vector of each of the images, each of which has the attribute of each of the obtained images as a variable, are configured. A first principal component is calculated from the morphological feature vectors of the plurality of configured images by principal component analysis.
[0027]
The first principal component obtained in this manner is closely related to the attribute added as a variable to the morphological feature vector. Therefore, it is possible to reliably extract a predetermined feature of an image based on the first principal component without depending on subjectivity.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the concept of an image processing method according to an embodiment of the present invention will be described. Here, the image is a face image of an individual, and a plurality of morphological features are represented by two-dimensional coordinates of L feature points (x, y) constituting the shape features of face parts (face parts) such as eyes and mouth. Yes, the case where the attribute is age will be described. Here, L is an integer of 2 or more, x is the x coordinate in the face image, and y is the y coordinate in the face image.
[0029]
In the present embodiment, first, as a feature vector (shape feature vector) representing a face image of an individual, not only the two-dimensional coordinates of L feature points (x, y) but also the image is not directly related. A value obtained by adding a weight to a known attribute value (age attribute value) that strongly influences the age characteristic is added as a variable a, and dimension compression is performed by principal component analysis (PCA) as described below.
[0030]
Specifically, the following procedure is performed. The shape feature vector of an individual's face image is represented by a 2L + 1-dimensional vector Fi(I = 1, 2,..., M). M is the number of personal face images used for PCA.
[0031]
Fi= [X1, Y1, X2, Y2, X3, Y3, ..., xL, YL, A]T… (1)
In the above equation (1), T indicates transposition. From each element (variate), the average value of the shape feature vectors of all face images is set to the averageAVpull.
[0032]
ΔFi= Fi-FAV… (2)
Next, the face feature space G is newly defined by the following equation (3) using the above equation (2).
[0033]
G = [ΔF1, ΔF2..., ΔFM]… (3)
Then, the covariance matrix S of the face feature space G is obtained by the following equation (4).
[0034]
S = GGT… (4)
By performing singular value decomposition on the covariance matrix S obtained by the above equation (4) by the following equation (5), each eigenvector can be obtained as a main component of the face feature space G.
[0035]
S = UDUT… (5)
U is a unitary matrix, and each column is an eigenvector. That is, in the first column of the unitary matrix U, the principal component scores of the first principal component in the first to Mth face images are arranged in order, and in the second column, the first to Mth face images in the first to Mth face images are arranged. The principal component scores of the second principal component are arranged in order, and the third column is arranged with the principal component scores of the third principal component in the first to Mth face images. Similarly, in the M-th column of the unitary matrix U, the principal component scores of the (2L + 1) -th principal component in the first to M-th face images are arranged. D is a diagonal matrix, and the diagonal components are eigenvalues of each principal component. That is, the diagonal components of the diagonal matrix D are the eigenvalues λ of the first to (2L + 1) th principal components.1~ Λ2L + 1It is.
[0036]
The first principal component obtained here is strongly influenced by the component (age) added as an attribute value, as described later, and the value of the principal component score of the first principal component has a strong age attribute value. It will reflect.
[0037]
Here, the standard deviation of the first principal component is σ1And three times as the change range of the shape feature. Since the eigenvalue of the principal component is the variance of the principal component, the standard deviation σ of the first principal component1Is the eigenvalue λ of the first principal component1Thus, the following equation (6) is obtained.
[0038]
σ1 2= Λ1… (6)
Standard deviation σ of the first principal component1, Ie,-(3/2) σ1To + (3/2) σ1Is defined as a change range of the face shape (shape feature). 90% or more of all face images belong to this change range. + (3/2) σ1Is the principal component score of the first principal component, and the principal component feature vector with the principal component scores of the other principal components being 0 is PmaxAnd Also,-(3/2) σ1Is the principal component score of the first principal component, and the principal component feature vector with the principal component scores of the other principal components being 0 is PminAnd Principal component feature vector PmaxCorresponds to the oldest (or youngest) face image in the average face image obtained from M face images, and the principal component feature vector PminCorresponds to the youngest (or oldest) face image in the average face images obtained from the M face images.
[0039]
Pmax= [+ (3/2) σ1, 0,0, ..., 0]T… (7)
Pmin= [-(3/2) σ1, 0,0, ..., 0]T… (8)
Principal component feature vectors P in equations (7) and (8)max, PminMore face shape vector Fmax, FminTo reconfigure. Face shape vector FmaxRepresents the oldest (or youngest) average face image, and the face shape vector FminRepresents the youngest (or oldest) average face image. Then, as shown in the following equation, the face shape vector FmaxAnd face shape vector FminIs extracted as a feature vector (age feature vector) F representing an age feature.
[0040]
F = Fmax-Fmin… (9)
However, since the attribute value is not required for the age feature vector F, the age feature vector F is a 2L-dimensional vector from which the age attribute value has been deleted.
[0041]
F = [x1, Y1, X2, Y2, ..., x2L, Y2L]T… (10)
The age feature vector F in the above equation (10) represents the movement amount of each feature point between the oldest average face image and the youngest average face image. For example, the variable x1Represents the amount of movement of the x-coordinate of the first feature point, and the variable y1Represents the movement amount of the y-coordinate of the first feature point.
[0042]
Using the age feature vector F of the above equation (10), a face image of a specific individual of different age can be synthesized from an original face image of the specific individual as follows.
[0043]
First, the shape feature vector F of an original face image of a specific individualIIs configured as in the following equation.
[0044]
FI= [X1, Y1, X2, Y2, ..., x2L, Y2L]T… (11)
The variable x of the above equation (11)1, Y1, X2, Y2, ..., x2L, Y2LAre the x and y coordinates of the L feature points of the original face image.
[0045]
Next, each variable x of the age feature vector F in the above equation (10)1, Y1, X2, Y2, ..., x2L, Y2LIs multiplied by the combination ratio b to calculate a correction vector F 'of the following equation.
[0046]
F '= [bx1, By1, Bx2, By2, ..., bx2L, By2L]T… (12)
The shape feature vector F of the original face image of the above equation (11)IIs added or subtracted to the correction vector F 'of the above equation (12) as shown in the following equation, and the age feature is mapped to the shape feature vector FSCreate
[0047]
FS= FI± F '... (13)
The shape feature vector F of the above equation (13)SBy reconstructing a face image from, face images of different ages can be combined with the original face image. In this case, by arbitrarily setting the value of the combination ratio b in the above equation (12), it is possible to combine face images of any age.
[0048]
Next, a configuration of an image processing apparatus for executing the image processing method according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus for performing the image processing method according to the present embodiment.
[0049]
The image processing device 50 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an input device 504, a display device 505, an external storage device 506, a recording medium driving device 507, And a printing device 508.
[0050]
The input device 504 includes a keyboard, a mouse, a scanner, a digital camera, and the like, and is used to input various commands, data, and images. The ROM 502 stores a system program. The recording medium drive 507 includes a CD-ROM drive, a floppy disk drive and the like, and reads and writes data from and on a recording medium 509 such as a CD-ROM and a floppy disk. The recording medium 509 stores an image processing program. The external storage device 506 includes a hard disk device or the like, and stores an image processing program and various data read from the recording medium 509 via the recording medium driving device 507. The CPU 501 executes the image processing program stored in the external storage device 506 on the RAM 503.
[0051]
The display device 505 includes a liquid crystal display panel, a CRT (cathode ray tube), and the like, and displays various images and the like. The printing device 508 prints various images and the like.
[0052]
Note that as the recording medium 509 for recording the image processing program, various recording media such as a semiconductor memory such as a ROM and a hard disk can be used. Further, the image processing program may be downloaded to the external storage device 506 via a communication medium such as a communication line and executed on the RAM 503.
[0053]
In this embodiment, the external storage device 506 corresponds to an image storage unit, and the CPU 501 is a feature extraction unit, an attribute acquisition unit, a morphological feature vector configuration unit, a principal component analysis unit, a change range determination unit, an attribute feature vector reconfiguration unit. And image combining means.
[0054]
FIG. 2 is a flowchart showing the processing of the image processing program executed in the image processing apparatus of FIG. Here, an example of a method of synthesizing a face image of an individual of another age from an original face image of an individual of a certain age will be described.
[0055]
First, the CPU 501 stores, in the external storage device 506, face images of a plurality of individuals input by the input device 504 as image data (step S1). In this case, image data of face images of a plurality of individuals stored in a database in advance may be used.
[0056]
Next, the CPU 501 extracts coordinate values of a plurality of feature points of each face image based on the image data stored in the external storage device 506 (Step S2). In the present embodiment, the x coordinate and the y coordinate of each feature point are extracted.
[0057]
Next, the CPU 501 acquires an age attribute value of each face image (step S3). The age attribute value may be input by the input device 504 for each face image, or may be an age attribute value stored in a database in advance for each face image. In the present embodiment, an apparent age obtained by an age perception experiment described later is used as an age attribute value.
[0058]
Further, the CPU 501 uses the coordinate values and age attribute values of a plurality of feature points extracted for each face image to generate the shape feature vector F of each face image.i(See Equation (1)) (Step S4).
[0059]
Next, the CPU 501 determines the shape feature vectors F of the plurality of face images.iFrom the principal component analysis according to equations (2) to (6)1Is calculated (step S5). Further, the CPU 501 calculates the eigenvalue σ of the first principal component.1Using the principal component feature vector P of the first principal component in the equation (7)max, Pmin(Step S6).
[0060]
Next, the CPU 501 calculates the eigenvalue σ of the first principal component.1Is used to calculate the face shape vector F of the first principal component of Expression (7).max, FminIs reconstructed (step S7), and an age feature vector F representing the age feature of Expression (8) is extracted (step S8).
[0061]
Next, the CPU 501 synthesizes a face image of a desired age from an original face image of a specific individual using the age feature vector F (step S9).
[0062]
In this way, by executing the image processing program in the image processing apparatus, it is possible to extract the face shape feature closely related to the age feature as the age feature vector F using the face images of a plurality of individuals. A face image of a desired age can be synthesized from an original face image of a specific individual using the extracted face shape features.
[0063]
As described above, an unknown face image can be synthesized by the image processing device, the image processing method, and the image processing program according to the present embodiment, so that they can be used for criminal investigation and the like.
[0064]
In the above embodiment, the coordinate values of a plurality of feature points representing the features of the face shape are used as the morphological features of the image. However, as the morphological features of the image, textures such as skin tone, spots, wrinkles, etc. Texture) can also be used. Moreover, the perception of age may consider not only the shape inside the face but also the hairstyle and the like.
[0065]
Further, in the above embodiment, the apparent age is used as the attribute, but the actual age may be used instead of the apparent age as the attribute. Other attributes such as facial expression, race, gender, and body shape may be used as attributes.
[0066]
When the attribute is real age, by applying the image processing method of the above embodiment, it is possible to extract facial shape features that are closely related to real age characteristics using a plurality of individual face images, Further, face images having different actual ages can be synthesized from original face images of a specific individual using the extracted face shape features.
[0067]
When the attribute is a facial expression, facial expressions such as emotions, emotions, and so on are represented by different values, and by applying the image processing method of the above embodiment, the facial expression is closely related to facial features using a plurality of individual face images. The facial shape features can be extracted, and a facial image with a different expression can be synthesized from an original facial image of a specific individual using the extracted facial shape features.
[0068]
If the attribute is race, different races are represented by different values, and by applying the image processing method of the above embodiment, by using the face images of a plurality of individuals, it is closely related to the characteristics of the race. The feature of the face shape to be extracted can be extracted, and a face image of a different race can be synthesized from the original face image of a specific individual using the extracted face shape feature.
[0069]
If the attribute is gender, the gender of the gender is represented by different values, and by applying the image processing method of the above embodiment, the face shape feature closely related to the gender feature using a plurality of individual face images Can be extracted, and face images having different genders can be synthesized from original face images of a specific individual using the extracted face shape features.
[0070]
When the attribute is a body shape, different body shapes are represented by different values, and by applying the image processing method of the above embodiment, a feature of the face shape closely related to the feature of the body shape using a plurality of face images of individuals. The face images having different body shapes can be synthesized from an original face image of a specific individual using the extracted face shape characteristics.
[0071]
Further, in the above embodiment, the case where the image is a face image of an individual has been described, but the present invention is not limited to this. For example, the image may be an image of an animal.
[0072]
【Example】
1. Preliminary experiment
When considering the shape characteristics related to the aging of the face of the individual, the actual age may be used as the attribute value given to the PCA variable. However, it is empirically clear that the aging of the face changes the shape, the wrinkles, the wrinkles, the texture of the skin, and the like. In the present embodiment, the apparent age, that is, the feature of the shape of the face that looks young and the shape of the face that looks old, instead of the shape feature of the face that changes with aging, was examined. Then, since it is not enough to give the actual age as the attribute value of the apparent age, an age perception experiment (age evaluation experiment) was performed to obtain the attribute value of the apparent age.
[0073]
1-1. procedure
The experimental stimulus in the age perception experiment was based on the facial expression image database of ATR (International Telecommunications Research Institute, Inc.). The latter half face image was used. The face image was a color image of 512 × 512 pixels, and was large enough for the face to fit in the frame. The subjects were 25 male and 22 female college students (18 to 22 years old).
[0074]
The experiment was performed in the following procedure. The subject was asked to estimate the age of the face image displayed on the monitor and to select the most appropriate category from the age rating categories shown in Table 1.
[0075]
[Table 1]
Figure 2004102359
[0076]
As shown in Table 1, the ages were classified into eight categories, and the categories were given rating values of 0 to 7 in ascending age.
[0077]
1-2. result
The average and standard deviation of the rating values were determined for each face image. FIG. 4 is a diagram in which the average of the rating devices for each face image is rearranged in descending order and plotted. The horizontal axis in FIG. 4 shows the face images of 142 persons, and the vertical axis shows the average of the rating values of each face image. The triangles and circles represent the average of the rating values of the male and female face images, respectively.
[0078]
An average was determined for each gender of the face image from the standard deviation obtained from each face image. The average of the standard deviation was 0.85 for a male face image and 0.89 for a female face image. In other words, the age of both male and female faces is estimated with an error of about ± 5 years.
[0079]
It should be noted that since face images are different between men and women and there is no relation between the face images, comparison between the face images is meaningless.
[0080]
2. Age feature extraction experiment
Next, a face age feature extraction experiment was performed using the apparent age attribute value obtained by the above age perception experiment. Extraction is performed when an apparent age attribute value is added to face information (hereinafter, referred to as an attribute value addition condition) and when no apparent age attribute value is added to face information (hereinafter, referred to as an attribute value no condition). The comparison of the shape features performed was performed.
[0081]
2-1. procedure
The facial image features include the ATR face image synthesis system (FUTON) (Miyuki Kamachi, Shigeru Mukada, Sakinoko Yoshikawa, Takashi Kato, Masaomi Oda, Shigeru Akamatsu, "Face image synthesis for facial and facial expression recognition psychological experiments." System-FUTON @ System-, "Electronics Technique, HIP97-39, pp.73-80, Jan. 1998 and Shigeru Mukaita, Miyuki Kamachi, Shigeru Akamatsu," Evaluation of Manual Sampling in Face Image Synthesis System (FUTON @ system), " The coordinates of 83 default feature points of IEICE, HIP99-49, pp. 13-18, Nov. 1999) were used. FIG. 5 is a diagram showing feature points used as variables of the face feature vector. In FIG. 5, 83 feature points are indicated by black circles, and reference numerals are assigned to identify each feature point.
[0082]
As the face images, 142 face images of both men and women used in the preliminary experiment were used. However, the face width (the length between the feature points Fr3 and F13) was normalized such that it was 230 pixels, and the straight line connecting the pupils of both eyes was horizontal.
[0083]
Dimensional compression by PCA was performed for each of the gender face images under the attribute value-free condition and the attribute value addition condition.
-Condition without attribute value
Under the condition of no attribute value in the conventional method, only coordinate values of 83 feature points were used as face information (variation of shape feature vector). One face image is converted to a 166-dimensional shape feature vector FNExpressed as
[0084]
FN= (X1, Y1, X2, Y2, X3, Y3, ..., x83, Y83)T
・ Attribute value addition condition
In the attribute value addition condition, as the face information (variation of the shape feature vector), a value obtained by multiplying the average value of the rating values of each face image obtained by the preliminary experiment by 100 in addition to the coordinate values of the 83 feature points, It was used as an apparent age attribute value a. Then, one face image is transformed into a 167-dimensional shape feature vector F.AExpressed as
[0085]
FA= (X1, Y1, X2, Y2, X3, Y3, ..., x83, Y83, A)T
The amount of change of the principal component was determined from the obtained eigenvalue for each principal component, and the difference was visually compared after reconstructing the shape feature vector for each principal component.
[0086]
2-3. result
The principal component score of each principal component obtained from the no-attribute-value condition and the attribute-value addition condition was analyzed for the face images of both men and women. If the principal components are strongly involved in the age change, when the face images are arranged in age order, the principal component scores of each face image on the principal components should be arranged in ascending or descending order. Therefore, the principal component scores from the first principal component to the third principal component among the principal components obtained under the respective conditions in the face images of men and women are plotted.
[0087]
FIG. 6A is a diagram showing the principal component scores of the upper principal components obtained under the condition without attribute values in a male face image, and FIG. 6B is the diagram showing the higher principal components obtained under the condition without attribute values in a female face image. It is a figure which shows the principal component score of a main component. FIG. 7A is a diagram showing the principal component scores of the upper principal components obtained under the attribute value addition condition in the male face image, and FIG. 7B is obtained by the attribute value addition condition in the female face image. It is a figure which shows the principal component score of the upper main component. 6 and 7, the horizontal axes indicate face images arranged in descending order of apparent age (evaluation value), and the vertical axes indicate principal component scores (PC) score). Squares indicate the principal component scores of the first principal component, circles indicate the principal component scores of the second principal component, and triangles indicate the principal component scores of the third principal component.
[0088]
As shown in FIGS. 6A and 6B, under the condition with no attribute value, both the male face image and the female face image have the main component scores of the face images arranged in chronological order in almost ascending or descending order. No ingredients could be found.
[0089]
As shown in FIGS. 7A and 7B, under the attribute value addition condition, both the male face image and the female face image are shown in such a manner that the principal component scores of the first principal component are arranged in almost order.
[0090]
From these results, it was found that the first principal component obtained under the attribute value addition condition was closely related to a feature affecting the apparent age of the face image.
[0091]
Next, in order to visually confirm what kind of shape change each principal component is involved in, using the change range obtained from the eigenvalue of the principal component to be checked, the coordinates of the feature points of the face parts are Was reconstructed. As shown below, the influence of the principal component on the face shape under the attribute value addition condition was examined.
[0092]
FIGS. 8, 9, 10 and 11 show reconstruction using a first principal component, a second principal component, a third principal component, and a fourth principal component, respectively, obtained under the attribute value addition condition in a male face image. It is a figure which shows the face shape. FIGS. 12, 13, 14, and 15 show the first principal component, the second principal component, the third principal component, and the fourth principal component, respectively, obtained under the attribute value addition condition in the female face image. It is a figure showing the reconstructed face shape. 8A to 11B, (a) and (b) show face shapes of which the apparent age is extreme.
[0093]
Two face shapes of each principal component were compared from the reconstructed face image. The following is a subjective impression of how each principal component is related to a change in the shape characteristic. In the first principal component obtained from the male face image under the attribute value addition condition, the inside of the eyebrow changes vertically and the outside changes vertically in the opposite direction to the inside. The nose and mouth change up and down, the width of the mouth is slightly narrowed or widened, and the chin is slightly larger or smaller. In the second principal component, the forehead expands or contracts, the outside of the eyebrows changes horizontally (the size of the eyebrows changes), the distance between the eyes becomes slightly wider or narrower, and the nose, mouth and The chin changes greatly up and down. In the third principal component, the inside of the eyebrow changes vertically, and the outside changes slightly in the horizontal direction. The nose and mouth change greatly up and down, and the chin changes into a square, slightly gilled shape, or a slightly smaller, pointed shape. In the fourth principal component, the size of the forehead changes rapidly, and the inside of the eyebrows changes greatly up and down. The left side of the nose and mouth slightly changes in the horizontal direction, and the left side of the chin changes very slightly.
[0094]
On the other hand, under the condition without attribute value, the first principal component showed almost the same change as the second principal component of the attribute value addition condition, and the second principal component showed almost the same change as the third principal component of the attribute value addition condition. . The same applies to the subsequent main components.
[0095]
In the first principal component obtained under the attribute value addition condition for the female face image, the mouth changes up and down, and becomes wider or narrower. And the chin becomes slightly larger or smaller. The second principal component was almost the same as the second principal component obtained under the attribute value addition condition for the male face image. In the third principal component, the forehead expands and contracts, the inside of the eyebrows changes slightly up and down, and the nose and mouth change slightly horizontally on the left side, and the chin is slightly gilled and slightly smaller , In a pointed form. In the fourth principal component, the face outline, the nose, and the mouth slightly change on the right side. Then, the width of the face contour changes.
[0096]
On the other hand, in the condition with no attribute value, the first principal component shows almost the same change as the second principal component in the attribute value addition condition, and the second principal component shows the third main component in the attribute value addition condition, similarly to the male face image. It showed almost the same change as the components. The same applies to the subsequent main components.
[0097]
2-3. Consideration
From the distribution of the principal component scores in each principal component, when the face images are arranged in the order of apparent age in the second principal component and subsequent conditions of the attribute value no condition and the attribute value addition condition, the principal component scores are completely ascending or Because they were not in descending order, they could not be said to be closely related to features that affect apparent age. On the other hand, in the first principal component of the attribute value addition condition, when the face images were arranged in the order of apparent age, the principal component scores were almost arranged in both male and female face images, and furthermore, the age perception experiment (the age evaluation experiment) ) And the distribution of the data of the first principal component (principal component score) are very similar to the distribution of the first principal component obtained under the attribute value addition condition. Can be said to be closely related to shape features that affect apparent age.
[0098]
The first principal component of the attribute value addition condition is based on the anatomical knowledge of the youth based on the change of the coordinates of the feature points reconstructed into the feature point coordinates of the face parts by changing the value of the principal component score of each principal component. It seems to be almost in line with the aging change of the period.
[0099]
In the image processing method according to the present invention, the PCA is performed by adding not only the coordinate value of the feature point, which is the face shape information, but also the attribute value of apparent age that is not directly related to the configuration of the face image. The fact that the principal component score of one principal component quantitatively indicates a relationship with age change, and that a qualitatively appropriate deformation was observed in the face shape reconstructed from the first principal component. It shows that shape features closely related to age can be obtained.
[0100]
3-1. Mapping to personal face images
The apparent age features obtained by the age feature extraction experiment were mapped to individual face images.
[0101]
FIGS. 16 to 19 are diagrams showing the results of synthesizing face images of different ages by mapping age shape features to four original face images. In each figure, of the three face images, the center is an original face image, the left side is a face image synthesized to look younger, and the right side is an image synthesized to look older. The combination ratio was ± 50% of the variation of the first principal component in the attribute value addition condition of the age feature extraction experiment.
[0102]
The procedure of the synthesis is as follows. From the personal original face image, 83 feature points used in FUTON are acquired, and the shape feature vector F of the original face image is obtained.IIs calculated using the coordinate values of the feature points as a 166-dimensional vector FIAnd
FI= (X1, Y1, X2, X3, ..., x166, Y166)T… (11)
Shape feature vector F of original face imageIAnd a correction vector F ′ obtained by multiplying each element of the apparent age feature vector F by the composition ratio 0.5, and adding or subtracting the face shape vector F to which the age feature is mapped.SIt was created.
[0103]
F '= (0.5x1, 0.5y1, 0.5x2, 0.5y2…, 0.5x83, 0.5y83)T… (12)
FS= FI± F '... (13)
And the face shape is FITo FSThe shape morphing (face synthesis technology) that changes to FUTON was performed.
[0104]
Here, since the extracted apparent age feature is only the shape, only the face shape is synthesized. The synthesized result is a face image with the impression that "If the person of the original face image is seen young, it looks like this" and "If it is old, it looks like this".
[0105]
As described above, in the above embodiment, by adding the attribute value of apparent age, which is not directly related to the image, to the shape feature vector of the face image as a variable, and performing PCA, it is closely related to the apparent age change. It was shown that it was possible to extract shape features.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus for performing an image processing method according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a process of an image processing program executed in the image processing apparatus of FIG. 1;
FIG. 3 is a flowchart illustrating processing of an image processing program executed in the image processing apparatus of FIG. 1;
FIG. 4 is a diagram in which averages of rating devices for each face image are rearranged in descending order and plotted.
FIG. 5 is a diagram showing feature points used as variables of a shape feature vector.
FIG. 6 is a diagram illustrating principal component scores of higher-order principal components obtained under conditions without attribute values in male and female face images.
FIG. 7 is a diagram showing principal component scores of higher-order principal components obtained under the attribute value addition condition in male and female face images.
FIG. 8 is a diagram showing a face shape reconstructed using a first principal component obtained under an attribute addition condition in a male face image.
FIG. 9 is a diagram showing a face shape reconstructed using a second principal component obtained under the attribute addition condition in a male face image.
FIG. 10 is a diagram illustrating a face shape reconstructed in a male face image using third principal components obtained under attribute addition conditions.
FIG. 11 is a diagram illustrating a face shape reconstructed using a fourth principal component obtained under the attribute addition condition in a male face image.
FIG. 12 is a diagram illustrating a face shape reconstructed using a first principal component obtained under an attribute addition condition in a female face image.
FIG. 13 is a diagram illustrating a face shape reconstructed using a second principal component obtained under the attribute addition condition in a female face image.
FIG. 14 is a diagram showing a face shape reconstructed using a third principal component obtained under the attribute addition condition in a female face image.
FIG. 15 is a diagram showing a face shape reconstructed using a fourth principal component obtained under an attribute addition condition in a female face image.
FIG. 16 is a diagram showing a result of synthesizing face images of different ages by mapping an age shape feature to an original face image.
FIG. 17 is a diagram showing a result of synthesizing face images of different ages by mapping an age shape feature to an original face image.
FIG. 18 is a diagram illustrating a result of synthesizing face images of different ages by mapping an age shape feature to an original face image.
FIG. 19 is a diagram illustrating a result of synthesizing face images of different ages by mapping an age shape feature to an original face image.
[Explanation of symbols]
50 image processing device
501 CPU
502 @ ROM
503 @ RAM
504 input device
505 display device
506 external storage device
507 Recording medium drive
508 printing device
509 recording medium

Claims (8)

複数の画像を記憶する画像記憶手段と、
前記画像記憶手段に記憶された各画像の複数の形態的特徴を抽出する特徴抽出手段と、
形態的特徴とは異なる各画像の属性を取得する属性取得手段と、
前記特徴抽出手段により抽出された各画像の複数の形態的特徴および前記属性取得手段により取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成する形態特徴ベクトル構成手段と、
前記形態特徴ベクトル構成手段により構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出する主成分分析手段とを備えたことを特徴とする画像処理装置。
Image storage means for storing a plurality of images;
Feature extraction means for extracting a plurality of morphological features of each image stored in the image storage means,
Attribute acquisition means for acquiring an attribute of each image different from the morphological feature;
A morphological feature vector configuration unit configured to configure a morphological feature vector for each image having a plurality of morphological features of each image extracted by the feature extraction unit and an attribute of each image acquired by the attribute acquisition unit as a variable;
An image processing apparatus comprising: a principal component analysis unit that calculates a first principal component by principal component analysis from the morphological feature vectors of a plurality of images configured by the morphological feature vector configuration unit.
前記主成分分析手段により算出された第1主成分の固有値を用いて第1主成分の変化範囲を決定する変化範囲決定手段と、
前記変化範囲決定手段により決定された第1主成分の変化範囲での前記複数の形態的特徴の変化量を変量として用いて属性の特徴を示す属性特徴ベクトルを再構成する属性特徴ベクトル再構成手段とをさらに備えたことを特徴とする請求項1記載の画像処理装置。
Change range determining means for determining a change range of the first principal component using the eigenvalue of the first principal component calculated by the principal component analysis means;
Attribute feature vector reconstructing means for reconstructing an attribute feature vector indicating an attribute feature by using, as a variable, a variation of the plurality of morphological features in a variation range of the first principal component determined by the variation range determining means. The image processing apparatus according to claim 1, further comprising:
前記属性特徴ベクトル再構成手段により得られた属性特徴ベクトルを用いて特定の画像から前記属性が異なる他の画像を合成する画像合成手段をさらに備えたことを特徴とする請求項2記載の画像処理装置。3. The image processing apparatus according to claim 2, further comprising an image synthesizing unit that synthesizes another image having the different attribute from a specific image by using the attribute feature vector obtained by the attribute feature vector reconstructing unit. apparatus. 前記画像合成手段は、前記特定の画像の前記複数の形態的特徴を変量とする形態特徴ベクトルを構成し、その形態特徴ベクトルの各変量を前記属性特徴ベクトルの対応する変量に基づいて修正し、修正された変量を有する形態特徴ベクトルから前記他の画像を合成することを特徴とする請求項3記載の画像処理装置。The image synthesizing means configures a morphological feature vector having the plurality of morphological features of the specific image as variables, and corrects each variable of the morphological feature vector based on a corresponding variable of the attribute feature vector. The image processing apparatus according to claim 3, wherein the other image is synthesized from a morphological feature vector having a corrected variable. 前記複数の画像は、複数の顔画像であり、
前記属性は、見かけの年齢、実年齢、性別、人種、表情または体形であることを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
The plurality of images are a plurality of face images,
The image processing apparatus according to claim 1, wherein the attribute is apparent age, real age, gender, race, facial expression, or body shape.
前記複数の形態的特徴は、予め定められた複数の特徴点の座標値を含むことを特徴とする請求項1〜5のいずれかに記載の画像処理装置。The image processing apparatus according to claim 1, wherein the plurality of morphological features include predetermined coordinate values of a plurality of feature points. 複数の画像を記憶するステップと、
前記記憶された各画像の複数の形態的特徴を抽出するステップと、
形態的特徴とは異なる各画像の属性を取得するステップと、
前記抽出された各画像の複数の形態的特徴および前記取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成するステップと、
前記構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出するステップとを備えたことを特徴とする画像処理方法。
Storing a plurality of images;
Extracting a plurality of morphological features of each of the stored images;
Obtaining attributes of each image different from the morphological features;
Constructing a morphological feature vector for each image having a plurality of morphological features of each of the extracted images and an attribute of each of the obtained images as variables;
Calculating a first principal component by principal component analysis from the morphological feature vectors of the plurality of images configured as described above.
コンピュータ読み取り可能な画像処理プログラムであって、
複数の画像を記憶する処理と、
前記記憶された各画像の複数の形態的特徴を抽出する処理と、
形態的特徴とは異なる各画像の属性を取得する処理と、
前記抽出された各画像の複数の形態的特徴および前記取得された各画像の属性を変量とする各画像ごとの形態特徴ベクトルを構成する処理と、
前記構成された複数の画像の形態特徴ベクトルから主成分分析により第1主成分を算出する処理とを、
前記コンピュータに実行させることを特徴とする画像処理プログラム。
A computer-readable image processing program,
A process of storing a plurality of images;
A process of extracting a plurality of morphological features of each of the stored images;
A process of acquiring an attribute of each image different from the morphological feature;
A process of configuring a morphological feature vector for each image using a plurality of morphological features of each of the extracted images and a variable of the attribute of each of the obtained images;
Processing of calculating a first principal component by principal component analysis from the morphological feature vectors of the plurality of configured images,
An image processing program that is executed by the computer.
JP2002259311A 2002-09-04 2002-09-04 Image processing device Expired - Fee Related JP3920747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002259311A JP3920747B2 (en) 2002-09-04 2002-09-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002259311A JP3920747B2 (en) 2002-09-04 2002-09-04 Image processing device

Publications (2)

Publication Number Publication Date
JP2004102359A true JP2004102359A (en) 2004-04-02
JP3920747B2 JP3920747B2 (en) 2007-05-30

Family

ID=32260374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002259311A Expired - Fee Related JP3920747B2 (en) 2002-09-04 2002-09-04 Image processing device

Country Status (1)

Country Link
JP (1) JP3920747B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018828A (en) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc Method for constructing variable multilinear model representing class of deformable surface
WO2006005917A1 (en) * 2004-07-08 2006-01-19 University Of Kent Plausible ageing of the human face
WO2006030687A1 (en) * 2004-09-14 2006-03-23 Nec Corporation Data collating system, data collating device, and data collating method
WO2009125578A1 (en) * 2008-04-07 2009-10-15 富士フイルム株式会社 Image processing system, image processing method, and computer-readable medium
JP2009253765A (en) * 2008-04-08 2009-10-29 Fujifilm Corp Image processing system, image processing method, and program
JP2009253764A (en) * 2008-04-08 2009-10-29 Fujifilm Corp Image processing system, image processing method, and program
JP2009273117A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing system, image processing method, and program
US7654673B2 (en) 2006-08-03 2010-02-02 Samsung Electronics Co., Ltd. Apparatus and method for determining eyesight age
JP2012164152A (en) * 2011-02-07 2012-08-30 Univ Of Aizu Image generation device and image generation program
WO2013005447A1 (en) 2011-07-07 2013-01-10 花王株式会社 Face impression analysis method, cosmetic counseling method, and face image generation method
US8447128B2 (en) 2008-04-07 2013-05-21 Fujifilm Corporation Image processing system
JP2016123588A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
CN111223164A (en) * 2020-01-08 2020-06-02 浙江省北大信息技术高等研究院 Face sketch generating method and device
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program
CN117078974A (en) * 2023-09-22 2023-11-17 腾讯科技(深圳)有限公司 Image processing method and device, electronic equipment and storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018828A (en) * 2004-06-30 2006-01-19 Mitsubishi Electric Research Laboratories Inc Method for constructing variable multilinear model representing class of deformable surface
WO2006005917A1 (en) * 2004-07-08 2006-01-19 University Of Kent Plausible ageing of the human face
WO2006030687A1 (en) * 2004-09-14 2006-03-23 Nec Corporation Data collating system, data collating device, and data collating method
US7654673B2 (en) 2006-08-03 2010-02-02 Samsung Electronics Co., Ltd. Apparatus and method for determining eyesight age
US8447128B2 (en) 2008-04-07 2013-05-21 Fujifilm Corporation Image processing system
WO2009125578A1 (en) * 2008-04-07 2009-10-15 富士フイルム株式会社 Image processing system, image processing method, and computer-readable medium
JP2009273117A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing system, image processing method, and program
JP2009253765A (en) * 2008-04-08 2009-10-29 Fujifilm Corp Image processing system, image processing method, and program
JP2009253764A (en) * 2008-04-08 2009-10-29 Fujifilm Corp Image processing system, image processing method, and program
JP2012164152A (en) * 2011-02-07 2012-08-30 Univ Of Aizu Image generation device and image generation program
WO2013005447A1 (en) 2011-07-07 2013-01-10 花王株式会社 Face impression analysis method, cosmetic counseling method, and face image generation method
US9330298B2 (en) 2011-07-07 2016-05-03 Kao Corporation Face impression analyzing method, aesthetic counseling method, and face image generating method
JP2016123588A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program
CN111223164A (en) * 2020-01-08 2020-06-02 浙江省北大信息技术高等研究院 Face sketch generating method and device
CN111223164B (en) * 2020-01-08 2023-10-24 杭州未名信科科技有限公司 Face simple drawing generation method and device
CN117078974A (en) * 2023-09-22 2023-11-17 腾讯科技(深圳)有限公司 Image processing method and device, electronic equipment and storage medium
CN117078974B (en) * 2023-09-22 2024-01-05 腾讯科技(深圳)有限公司 Image processing method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP3920747B2 (en) 2007-05-30

Similar Documents

Publication Publication Date Title
JP5231685B1 (en) Facial impression analysis method, beauty counseling method and face image generation method
Laurentini et al. Computer analysis of face beauty: A survey
Scandrett et al. A person-specific, rigorous aging model of the human face
Duan et al. 3D face reconstruction from skull by regression modeling in shape parameter spaces
TWI514291B (en) Method for age estimation
JP3920747B2 (en) Image processing device
JP3582458B2 (en) Makeup advice system
CN104851123B (en) A kind of three-dimensional face change modeling method
US10614174B2 (en) System and method for adding surface detail to digital crown models created using statistical techniques
US20080304736A1 (en) Method of estimating a visual evaluation value of skin beauty
Claes et al. Bayesian estimation of optimal craniofacial reconstructions
WO2007063878A1 (en) Face classifying method, face classifying device, classification map, face classifying program, recording medium where this program is recorded
Deng et al. A regional method for craniofacial reconstruction based on coordinate adjustments and a new fusion strategy
JP2007128171A (en) Face image synthesizer, face image synthesizing method and face image synthesizing program
JP5035524B2 (en) Facial image composition method and composition apparatus
KR101116838B1 (en) Generating Method for exaggerated 3D facial expressions with personal styles
JP5651385B2 (en) Face evaluation method
Zhang et al. Age and sex factors integrated 3D statistical models of adults' heads
Hill et al. Aging the human face-a statistically rigorous approach
Anwaar et al. Face image synthesis with weight and age progression using conditional adversarial autoencoder
JP4893968B2 (en) How to compose face images
JP5650012B2 (en) Facial image processing method, beauty counseling method, and facial image processing apparatus
JP6320844B2 (en) Apparatus, program, and method for estimating emotion based on degree of influence of parts
JP2022078936A (en) Skin image analysis method
CN112837304A (en) Skin detection method, computer storage medium and computing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees