JP2011059960A - 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム - Google Patents
画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム Download PDFInfo
- Publication number
- JP2011059960A JP2011059960A JP2009208569A JP2009208569A JP2011059960A JP 2011059960 A JP2011059960 A JP 2011059960A JP 2009208569 A JP2009208569 A JP 2009208569A JP 2009208569 A JP2009208569 A JP 2009208569A JP 2011059960 A JP2011059960 A JP 2011059960A
- Authority
- JP
- Japan
- Prior art keywords
- skin
- region
- background
- image
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims description 69
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000012545 processing Methods 0.000 claims abstract description 214
- 238000000605 extraction Methods 0.000 claims abstract description 59
- 238000000926 separation method Methods 0.000 claims abstract description 46
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 45
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 24
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 24
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 239000002537 cosmetic Substances 0.000 claims description 82
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 239000000203 mixture Substances 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 description 34
- 238000012937 correction Methods 0.000 description 19
- 230000010354 integration Effects 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010521 absorption reaction Methods 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 206010014970 Ephelides Diseases 0.000 description 1
- 208000003351 Melanosis Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000007788 roughening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】ウェーブレット変換時にリンギング歪が発生することにより、シミュレーション結果における出力画像の精度が低下していた。
【解決手段】人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成手段とを有する。
【選択図】 図1
【解決手段】人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成手段とを有する。
【選択図】 図1
Description
本発明は、画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラムに関する。特にウェーブレット変換による画像処理方法と、化粧料を素肌に塗布した画像のシミュレーション方法に関するものである。
顧客がメイクアップ化粧料の購買時に、皮膚への化粧料の適応(塗布)により、毛穴、しみやそばかすなどがどのように目立たなくなるか、又は素肌のツヤがどのように変化するかが重要な評価項目となっている。しかし、皮膚にファンデーション等のメイクアップ化粧料を適用した場合、メイクアップ化粧料そのものの色ではなく、素肌の色、質感が影響を与え、実際に皮膚に化粧料を塗布しなければその化粧料の仕上がりを確認することができないのが現状である。
そこで、近年、実際に化粧料を顔に塗布することなく、簡易に化粧料を皮膚に塗布した場合の仕上がりを確認可能とするため、コンピュータ上でシミュレーションする手法が検討されている。
例えば、特許文献1では、偏光を用いて顔画像を撮影し、それらを独立成分分析して鏡面反射光成分を分解し、ウェーブレット(Wavelet)変換による多重解像度解析を行う。そして、高周波成分又は低周波成分に増減を加えた後、これらの画像を再合成することで肌の質感を変化させたシミュレーション方法が開示されている。
しかし、上記のような方法で原信号に対し、高周波成分又は低周波成分のウェーブレット係数を変更して逆ウェーブレット変換で復号するサブバンド分解・合成による画像処理を行う場合、復号信号の急峻なエッジの近傍に微細な疑似エッジ(リンギング)が発生する。特に顔画像を用いた場合では、背景領域と肌領域の輪郭部に沿って、白い線上のノイズが生じ、強い違和感を生じさせる結果となる。
リンギングは、ブロック歪みと異なり、発生場所が画像に依存し、ブロックサイズのみで決まるブロック歪みに比べて、発生場所を特定することが困難である。従って、従前のブロックノイズの除去方法(例えば、特許文献2参照)をそのまま用いることができない。
このようなリンギングの発生を低減する方法として、特許文献3では、特定座標を含む分割画像にエッジ成分が含まれる場合に、第2の高周波サブバンドにおける特定座標の分割画像に対してコアリング処理(入力信号の絶対値が閾値よりも低い場合に、信号を抑制(例えば、閾値以下を一律に0に)する処理)を行わないように制御する。これにより、エッジ近傍のウェーブレット係数を変更させず、リンギングの発生を抑制している。
また、特許文献4では、伸張画像データの各画素のエッジ量を算出し、閾値ε(=エッジ量×α(定数)×圧縮率)を求め、閾値ε以下の薄いエッジ量が検出された近傍画像に対して平滑化フィルタ処理を行うことで、リンギングを目立たなくさせている。
しかし、特許文献3では、輪郭近傍に対して処理を行わないため、変換処理を適用後の画像データにおける輪郭近傍の質感が他の領域と異なったように見える。特に顔画像に適用して、シミュレーション処理を実施した場合、顔の輪郭情報は目立ちやすいため、顔の印象が異なったものとなり、処理結果に違和感を覚えるという問題があった。
また、特許文献4では、閾値εの設定が難しく、設定した値によっては鮮鋭度の悪い画像となり、ぼやけたような印象を与える画像となる。また、この手法による顔領域を対象としたシミュレーション方法では、シミや小ジワなどのリンギング歪みと異なるエッジも平滑化して、消してしまうことがある。その結果、シミュレーションの精度が低下する問題があった。
本発明は、上述の問題に鑑みて成されたものであり、リンギング歪みを効果的に除去した画像を生成する画像処理装置、画像処理方法、シミュレーション装置、シミュレーション方法及びそのためのプログラムを提供することを目的とする。また、上記リンギング歪みを効果的に除去したメイクアップシミュレーション装置、シミュレーション処理方法及びそのためのプログラムを提供することを目的とする。
本発明は、上記を解決するために以下の構成を有する。顔画像を含む人物画像データに対する変換処理に伴うノイズを抑制する画像処理装置であって、前記人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、当該両領域の境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成手段とを有する。
本発明によれば、顔画像を含む人物画像データに対して、サブバンド分解・合成による画像処理を行う際に生ずるリンギング歪みの発生を効果的に抑えた画像処理結果を提供することが可能である。特に本発明を、メイクアップ化粧料を塗布した顔を予測するメイクアップシミュレーションに用いた場合、人物画像においてキメや小ジワ等の肌情報や、輪郭部分付近の部分的な劣化がなく、顔画像の輪郭部分が不自然に強調されることのない、自然なメイクアップシミュレーション画像が得ることができる。
以下では、図を参照して、本発明における実施形態について説明する。なお、本実施形態にて境界エッジと記載しているものは、人物画像データにおいて肌領域と背景領域(肌領域以外)との境界に位置する画素を指す。
<第一の実施形態>
以下に第一の実施形態として、画像処理装置について詳細に説明する。
以下に第一の実施形態として、画像処理装置について詳細に説明する。
[画像処理装置の構成]
図1は、本発明の実施形態に係る画像処理装置1におけるブロック構成例を示す図である。画像処理装置1は、大きく分けて、画像入力部11、操作部12、出力部13、事前処理部14、係数記憶部15、画像処理部16を備える。画像処理装置1は、画像入力部11から入力された顔画像を含む人物画像データをもとに、画像処理部16において顔画像に対して所定の画像処理を施す。画像処理が施された画像処理結果は、画像処理装置1の出力部13によって出力する。
図1は、本発明の実施形態に係る画像処理装置1におけるブロック構成例を示す図である。画像処理装置1は、大きく分けて、画像入力部11、操作部12、出力部13、事前処理部14、係数記憶部15、画像処理部16を備える。画像処理装置1は、画像入力部11から入力された顔画像を含む人物画像データをもとに、画像処理部16において顔画像に対して所定の画像処理を施す。画像処理が施された画像処理結果は、画像処理装置1の出力部13によって出力する。
次に各部の構成、及び処理の流れについて説明する。画像入力部11は、デジタルカメラやイメージスキャナ等により得られた顔画像を含む人物画像データを電子データとして入力する。操作部12は、操作者からの指示を受け付け、画像処理装置1の各部に対し、人物画像データ等へ適用する処理を指示する。出力部13は、画像処理結果を文字、グラフや画像等で液晶ディスプレイ等のモニタに表示、又は紙媒体等に印刷出力を行い、操作者による画像処理結果の確認を可能とする。事前処理部14は、画像処理部16で行う画像処理に必要な重み付け係数を算出する。係数記憶部15は、事前処理部14で得られた重み付け係数を保持する。
画像処理部16は、画像分離・エッジ抽出部161、背景データ記憶部162、エッジ・背景処理部163、サブバンド処理部164、画像合成部165を有する。画像分離・エッジ抽出部161は、
(1)画像入力部11で入力された顔画像を含む人物画像データにおける各画素が肌領域に属するものか、肌領域以外(以下、背景領域)に属するものかを判別し、肌領域画像データと背景領域画像データとに分離し(肌領域と背景領域とに分ける)、
(2)肌領域と背景領域との境界に位置する画素を境界エッジとして抽出し(エッジ抽出)、
(3)背景領域に属する画像データ(画素値)を、背景領域画像の初期値として背景データ記憶部162に保存する。
(1)画像入力部11で入力された顔画像を含む人物画像データにおける各画素が肌領域に属するものか、肌領域以外(以下、背景領域)に属するものかを判別し、肌領域画像データと背景領域画像データとに分離し(肌領域と背景領域とに分ける)、
(2)肌領域と背景領域との境界に位置する画素を境界エッジとして抽出し(エッジ抽出)、
(3)背景領域に属する画像データ(画素値)を、背景領域画像の初期値として背景データ記憶部162に保存する。
尚、係数記憶部15、背景データ記憶部162としては、ハードディスク、RAMやネットワークストレージなど、情報を保持するための装置であればどのようなものでも構わない。また、ここでは分けて記載しているが、同一の装置であってもかまわない。
エッジ・背景処理部163では、
(1)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で置換し、
(2)上記領域以外の背景領域の画素値を肌領域の全画素値の平均値にて置換する。
(1)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で置換し、
(2)上記領域以外の背景領域の画素値を肌領域の全画素値の平均値にて置換する。
ここで、上記処理手順とは逆に処理を行っても良い。具体的には、エッジ・背景処理部163において、
(1’)背景領域の画素値を肌領域の全画素値の平均値にて置換し、
(2’)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で再置換する。
(1’)背景領域の画素値を肌領域の全画素値の平均値にて置換し、
(2’)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で再置換する。
その後、エッジ・背景処理部163にて背景領域の画素値が置換された画像データは、サブバンド処理部164へ移行される。
サブバンド処理部164は、ブロック分割部1641、サブバンド分解・補正部1642、ブロック統合部1643から構成される。ブロック分割部1641は、サブバンド分解・補正部1642において、膨大な記憶領域を確保せず、高速に処理できるように画像データを所定の大きさに分割する。尚、十分な記憶領域確保でき高速な処理機能であれば、ブロック分割部1641はスキップし、サブバンド分解・補正部1642に直接移行しても良い。
サブバンド分解・補正部1642は、ウェーブレット変換を用いたサブバンド分解により、画像データを複数の周波数成分に分解し、分解後の信号値としてウェーブレット係数を得る。得られた各レベルの高周波数成分LH、HL、HHに、事前処理部14で算出し係数記憶部15に保持されている重み付け係数を乗算させることにより、ウェーブレット係数を補正する。次に、サブバンド合成して画像データを再構成することで、処理画像データを生成する。
ブロック統合部1643は、ブロック分割部1641で画像データが分割された場合、サブバンド分解・補正部1642で生成された処理画像データを統合する。尚、ブロック分割部1641をスキップした場合は、ブロック統合部1643での処理を行わず、直接、画像合成部165へ移行する。
画像合成部165では、サブバンド処理部にて生成した処理画像データのうち、入力画像データの背景領域に該当する領域の画像データを、エッジ・背景処理部163において置換される前の画素値、すなわち、背景データ記憶部162にて保存していた背景領域画素データの初期値により置換する。これにより、サブバンド処理部164で画像処理された肌領域画像データと初期の背景領域画像データを合成させた処理画像データを得る。
[各部の機能及び処理]
画像処理装置1における各部の機能及び処理について、詳述する。
画像処理装置1における各部の機能及び処理について、詳述する。
[事前処理部14、係数記憶部15]
事前処理部14は、ウェーブレット変換によるサブバンド分解によって、分解された画像を再構成するときに、ウェーブレット係数を補正操作するために使用する重み付け係数を算出する。そして、重み付け係数を係数記憶部15に記憶させ、保持する。
事前処理部14は、ウェーブレット変換によるサブバンド分解によって、分解された画像を再構成するときに、ウェーブレット係数を補正操作するために使用する重み付け係数を算出する。そして、重み付け係数を係数記憶部15に記憶させ、保持する。
ここで、ウェーブレット変換による基本的な画像処理を行う場合の重み付け係数を設定する手段において関連する処理を説明するが、当該方法に限定されるものではない。
1)ノイズ除去処理
一般にデジタルカメラで被写体を撮影すると、固体撮像素子を電圧に変換する際にノイズが生じる。このような画像上のノイズを除去するために、平滑化処理を行う。特に人物画像の場合、注目されやすい顔領域にノイズ除去処理(平滑化)を行うことで違和感が無い画像となる。
一般にデジタルカメラで被写体を撮影すると、固体撮像素子を電圧に変換する際にノイズが生じる。このような画像上のノイズを除去するために、平滑化処理を行う。特に人物画像の場合、注目されやすい顔領域にノイズ除去処理(平滑化)を行うことで違和感が無い画像となる。
対象画像において、ノイズが点状で存在する場合、高周波成分の寄与が大きいため、高周波成分を抑制させるように重み付け係数を設定するが、鮮鋭度が過度に劣化しないよう、留意する必要がある。なお、本実施形態における重み付け係数の算出および設定は、予め算出し、係数記憶部15に保持しておくことにより、対象画像に依存して算出せず、汎用的な係数を用いても良い。
2)画像圧縮
コンピュータ等の記憶領域を有効に活用するために、画像圧縮技術が活用される。特に人物画像の場合、顔面部は肌の細かな凹凸、陰影によって情報量が増加すると考えられ、違和感が無い程度に情報圧縮を行えることが望ましい。また、ウェーブレット変換は可逆圧縮が可能であるため、印刷等で処理する場合は元画像に再構成することもできる。
コンピュータ等の記憶領域を有効に活用するために、画像圧縮技術が活用される。特に人物画像の場合、顔面部は肌の細かな凹凸、陰影によって情報量が増加すると考えられ、違和感が無い程度に情報圧縮を行えることが望ましい。また、ウェーブレット変換は可逆圧縮が可能であるため、印刷等で処理する場合は元画像に再構成することもできる。
情報圧縮を行う際には、画像の周波数成分が低周波成分に集中していることを利用する。なお、本実施形態における重み付け係数の算出および設定は、予め算出し、係数記憶部15に保持しておくことにより、対象画像に依存して算出せず、汎用的な係数を用いても良い。
3)肌の質感(テクスチャ)変換
背景技術にて上述したように近年、肌の質感(テクスチャ)を変化させるシミュレーション方法に、ウェーブレット変換によるサブバンド分解・合成手法が活用されている。例えば、肌画像に対してテカリを抑える、ツヤを与える、キメを滑らかにする、キメを荒くするといった皮膚の質感を変化させる画像処理を行う。これらの質感補正特性を肌領域画像データに付加するための重み付け係数を画像処理の前に算出しておく。
背景技術にて上述したように近年、肌の質感(テクスチャ)を変化させるシミュレーション方法に、ウェーブレット変換によるサブバンド分解・合成手法が活用されている。例えば、肌画像に対してテカリを抑える、ツヤを与える、キメを滑らかにする、キメを荒くするといった皮膚の質感を変化させる画像処理を行う。これらの質感補正特性を肌領域画像データに付加するための重み付け係数を画像処理の前に算出しておく。
本実施形態における重み付け係数の算出は、予め目的とする質感を変化させる前と変化させた後の顔画像データに対し、それぞれ次数N=8のDaubechiesのウェーブレット変換によるサブバンド分解を行い、各サブバンド分解レベルの標準偏差を求める。そして、それらの比率から重み付け係数を求める。目的とする質感変化処理ごとに重み付け係数の算出処理を行い、係数記憶部15に記憶させ、保持する。尚、比較に使用する画像データは、ほぼ同一解像度で取得しておくことが必要である。
[画像分離・エッジ抽出部161]
画像分離・エッジ抽出部161は、画像入力部11で入力された顔画像を含む人物画像データを肌領域と背景領域との画像データに分離し、また、所定のアルゴリズムによって境界エッジの位置を特定する。肌領域と背景領域の画像データの分離方法とエッジ抽出方法は、当該方法に合わせて、同時に並行して実施しても良いし、一方の処理毎に順番に実施してもよい。以下に上述した2つの処理を同時に実施する場合と順に実施する場合のそれぞれの手法について一例を説明する。
画像分離・エッジ抽出部161は、画像入力部11で入力された顔画像を含む人物画像データを肌領域と背景領域との画像データに分離し、また、所定のアルゴリズムによって境界エッジの位置を特定する。肌領域と背景領域の画像データの分離方法とエッジ抽出方法は、当該方法に合わせて、同時に並行して実施しても良いし、一方の処理毎に順番に実施してもよい。以下に上述した2つの処理を同時に実施する場合と順に実施する場合のそれぞれの手法について一例を説明する。
なお、明記しない限り、背景領域とは、背景と、目、髪の毛、眉毛、鼻の穴、唇等の肌以外の領域とを含めた領域をいう。
[画像データ分離とエッジ抽出とを同時に行う手法例]
1)肌領域画像データ及び背景領域画像データの分離
画像分離・エッジ抽出部161は、画像入力部11で入力された顔画像を含む人物画像データを、肌領域に属する画素か背景領域に属する画素かを判別し、肌領域画像データと背景領域画像データとに分離する。以下では、人物画像データを、肌領域に属するデータと背景領域に属するデータに分離する手段を説明するが、当該方法に限定されるものではない。
1)肌領域画像データ及び背景領域画像データの分離
画像分離・エッジ抽出部161は、画像入力部11で入力された顔画像を含む人物画像データを、肌領域に属する画素か背景領域に属する画素かを判別し、肌領域画像データと背景領域画像データとに分離する。以下では、人物画像データを、肌領域に属するデータと背景領域に属するデータに分離する手段を説明するが、当該方法に限定されるものではない。
まず、被験者の人物画像データの各画素が有するRGB値を取り出す。そして、各画素のR、G、B値から、下記の式(1)により、Normalized_R、Normalized_G及び、YIQ表色系のY値を求める。
そして、求めた値と予め定義した閾値との比較により当該画素が肌領域に属するものか背景領域に属するものかを判別し、肌領域画像データと背景領域画像データとに分離する。
2)エッジ抽出方法
人物画像データにおいて、肌領域と背景領域との境界に位置する画素を抽出し、境界エッジとして特定する。本手法では、エッジ抽出は、図3に示すように人物画像データを肌領域に属する画素と背景領域に属する画素とに分離する上記の処理と同時に行う。
人物画像データにおいて、肌領域と背景領域との境界に位置する画素を抽出し、境界エッジとして特定する。本手法では、エッジ抽出は、図3に示すように人物画像データを肌領域に属する画素と背景領域に属する画素とに分離する上記の処理と同時に行う。
具体的な境界エッジの抽出方法としては、図5に示すように、人物画像データにおける人物領域(顔領域)の中心線501(垂直線)を基準として、画像の水平方向、画像の両端に向けて走査させる。水平方向の走査の場合、画像の水平方向をx軸と設定し、画像データの左端から右端に向かう方向を正方向とする。x軸の中心線501から正方向へ走査し、走査中は各画素について肌領域か背景領域か判定する。画像末端まで走査が終了したら、判定結果が肌領域から背景領域に変化する境界に位置する画素を境界エッジとして抽出する。この処理を全てのx軸の正方向及び負方向について実施して境界エッジを抽出する。なお、境界を構成する肌領域側の画素と背景領域側の画素のうち、どちらを境界エッジとしても良い。以下では、境界を構成する画素のうち背景領域側の画素を境界エッジとして説明する。
画像の走査は水平方向(x軸方向)に限らず、垂直方向(y軸方向)であっても構わない。この場合、人物画像(顔領域)の中心付近を通る水平線(中心線501と直角をなす)を基準として、y軸の中心線から全ての正方向及び負方向へ走査し境界エッジを抽出する。ここでは画像データの下端から上端に向かう方向を正方向とする。一般的に肌領域は、略円形もしくは略楕円形であるため、全ての境界エッジを抽出するにはx軸とy軸の両方の走査を行うことが望ましい。しかし、処理時間が増加するため、x軸方向のみの走査であっても構わない。または、y軸方向のみの操作であっても構わない。
[画像データ生成とエッジ抽出を順に行う手法例]
画像データ生成とエッジ抽出を順に行う方法について述べる。境界エッジの抽出方法は上記方法に限らず、例えば微分フィルタによって濃度差から求める方法やウェーブレット変換による方法など、公知の方法を利用することもできる。ここでは、詳しくは説明せず、下記に概要のみ説明する。これらの方法を適用する場合、人物画像データを走査させて全画素を調べる方法ではないため、例えば図4のように、はじめにエッジ抽出を人物画像データの全画素を対象に行う。そして、抽出したエッジに基づき特定される領域を肌領域と背景領域とに分類し、肌領域と背景領域の境界を境界エッジとする。その後、境界エッジの位置が記録された肌領域画像データと、背景領域画像データを分離する。
画像データ生成とエッジ抽出を順に行う方法について述べる。境界エッジの抽出方法は上記方法に限らず、例えば微分フィルタによって濃度差から求める方法やウェーブレット変換による方法など、公知の方法を利用することもできる。ここでは、詳しくは説明せず、下記に概要のみ説明する。これらの方法を適用する場合、人物画像データを走査させて全画素を調べる方法ではないため、例えば図4のように、はじめにエッジ抽出を人物画像データの全画素を対象に行う。そして、抽出したエッジに基づき特定される領域を肌領域と背景領域とに分類し、肌領域と背景領域の境界を境界エッジとする。その後、境界エッジの位置が記録された肌領域画像データと、背景領域画像データを分離する。
例えば、顔のパターンであれば、画像データにおいて顔の輪郭のエッジは一番大きな領域における外側のエッジであり、その内側に目、口、鼻などのエッジが抽出される。そのためテンプレートなどを使い、顔の輪郭のエッジや目口鼻のエッジの位置を特定する。例えば、人物画像データから抽出されたエッジのうち、顔の輪郭の抽出が予想される領域において抽出されたエッジを輪郭エッジとし、目口鼻などの抽出が予想される領域において抽出されたエッジを、それぞれ目口鼻のエッジとする。そして、これらのエッジが抽出された後、抽出されたエッジに基づいて肌領域画像データ及び背景領域画像データを分離する。
具体的には輪郭エッジと、目口鼻の各エッジとの間の領域を肌領域、輪郭エッジより外の領域及び目口鼻の各エッジよりも内側の領域を背景領域とする。もしくは、予め肌領域を判定するための画素の閾値を用意しておき、各エッジに囲まれた領域の画素の値が与えられた閾値内であれば肌領域とみなす。それ以外の領域は、背景領域とみなす。この処理によって肌領域画像データと背景領域画像データを分離しても良い。以上の処理により順に画像データの分離とエッジ抽出を行うこともできる。
具体的には輪郭エッジと、目口鼻の各エッジとの間の領域を肌領域、輪郭エッジより外の領域及び目口鼻の各エッジよりも内側の領域を背景領域とする。もしくは、予め肌領域を判定するための画素の閾値を用意しておき、各エッジに囲まれた領域の画素の値が与えられた閾値内であれば肌領域とみなす。それ以外の領域は、背景領域とみなす。この処理によって肌領域画像データと背景領域画像データを分離しても良い。以上の処理により順に画像データの分離とエッジ抽出を行うこともできる。
a)微分フィルタによるエッジ抽出
微分フィルタを用いてエッジを抽出する方法としては、図6に示すような3×3のソーベルフィルタを用いて各画素に適用し、画素間における濃淡の差が大きい箇所をエッジ画素として抽出する。
微分フィルタを用いてエッジを抽出する方法としては、図6に示すような3×3のソーベルフィルタを用いて各画素に適用し、画素間における濃淡の差が大きい箇所をエッジ画素として抽出する。
ソーベルフィルタを用いる際に、エッジの走査方向の値にのみ依存しないようにする為、X方向とY方向のフィルタを組み合わせて勾配が大きい部分をエッジとして検出することが望ましい。横方向に検出されたエッジ画素の濃度値をfx(x,y)、縦方向に検出されたエッジ画素の濃度値をfy(x,y)とすると、この両方の検出をかけた画素の濃度値f’(x,y)は、以下の式(2)で求めることができる。
尚、顔画像が対象の場合、RGBの濃淡の差は小さいため、各画素のRGBの値から下記の式(3)により、HSV表色系におけるH(色相)値に変換してから、フィルタをかけることが望ましい。
b)ウェーブレット変換によるエッジ抽出
ウェーブレット変換結果を用いてエッジを抽出する方法は、例えば、次数N=8のDaubechiesのウェーブレット変換によるサブバンド分解を4レベルまで行い、各レベル成分の高周波数成分LH、HL、HHを2倍し、低周波成分LLを0とする。そして、各レベル画像を逆ウェーブレット変換によって再構成することで、画素間における濃淡の差が大きい箇所をエッジ画素として抽出する。
ウェーブレット変換結果を用いてエッジを抽出する方法は、例えば、次数N=8のDaubechiesのウェーブレット変換によるサブバンド分解を4レベルまで行い、各レベル成分の高周波数成分LH、HL、HHを2倍し、低周波成分LLを0とする。そして、各レベル画像を逆ウェーブレット変換によって再構成することで、画素間における濃淡の差が大きい箇所をエッジ画素として抽出する。
3)背景領域画素データの保存
分離した肌領域画像データと背景領域画像データのうち背景領域の画素データは、画像合成部165において、画像処理を施した肌領域画像データと背景領域画像データを合成するために、背景領域の初期値として背景データ記憶部162に保存する。画像合成部165における合成処理については後述する。
分離した肌領域画像データと背景領域画像データのうち背景領域の画素データは、画像合成部165において、画像処理を施した肌領域画像データと背景領域画像データを合成するために、背景領域の初期値として背景データ記憶部162に保存する。画像合成部165における合成処理については後述する。
[エッジ・背景処理部163]
エッジ・背景処理部163は、画像分離・エッジ抽出部161で分離された背景領域に対し、以下の処理を行う。
(1)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で置換する。
(2)上記領域以外の背景領域の画素値を肌領域における全画素値の平均値に置換する。
エッジ・背景処理部163は、画像分離・エッジ抽出部161で分離された背景領域に対し、以下の処理を行う。
(1)背景領域のうち、画像分離・エッジ抽出部161で抽出された境界エッジから一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で置換する。
(2)上記領域以外の背景領域の画素値を肌領域における全画素値の平均値に置換する。
つまり、(1)により肌領域近傍の背景領域のデータ置換を行い、(2)によりそれ以外の背景領域のデータ置換を行う。なお、上記(1)及び(2)の置換処理は逆の順で処理を行っても良い。具体的には、
(1’)背景領域の画素値を、肌領域における全画素値の平均値に置換し、
(2’)背景領域のうち画像分離・エッジ抽出部161で抽出された境界エッジの位置から一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で再置換する。
(1’)背景領域の画素値を、肌領域における全画素値の平均値に置換し、
(2’)背景領域のうち画像分離・エッジ抽出部161で抽出された境界エッジの位置から一定画素範囲にある領域の画素値を、境界エッジ近傍の肌領域の画素値で再置換する。
1)境界エッジ近傍の肌領域の画素値による背景領域画像データの置換
本実施形態において、サブバンド分解後に重み付け処理を行い、画像データを再合成した際に境界エッジ周辺に発生するリンギング歪みは、サブバンド分解レベルN=2〜6に対する重み付け処理に伴って発生する。ウェーブレット変換のサブバンド分解レベルが大きくなるにつれて、データ置換を行う境界エッジ近傍の背景領域の範囲を広くすることで、リンギング歪みの発生を抑えることが可能である。また、データを置換する背景領域の範囲は境界エッジから2のN乗画素とすることもできる。
本実施形態において、サブバンド分解後に重み付け処理を行い、画像データを再合成した際に境界エッジ周辺に発生するリンギング歪みは、サブバンド分解レベルN=2〜6に対する重み付け処理に伴って発生する。ウェーブレット変換のサブバンド分解レベルが大きくなるにつれて、データ置換を行う境界エッジ近傍の背景領域の範囲を広くすることで、リンギング歪みの発生を抑えることが可能である。また、データを置換する背景領域の範囲は境界エッジから2のN乗画素とすることもできる。
データを置換する背景領域の範囲は、処理の処理時間や画像品質により、適宜調整を行うことができる。本実施形態においては、処理効率の点から、特に視覚的ノイズの影響が大きいN=2〜5の重み付け処理によって発生するリンギング歪みを抑制するため、境界エッジから32画素(2の5乗)の範囲にある領域をデータ置換する背景領域とする。
置換される背景領域の画素値は、サブバンド合成を行ったとき、境界エッジの濃度差が原因となりリンギング歪が抑制できる濃度差に設定すれば良い。本発明では、境界エッジ近傍の肌領域の画素値で置換する。具体的には、図7(a)のように境界エッジ画素に隣接する肌色領域の画素で置換しても良いし、図7(b)のように境界エッジ画素に隣接する肌領域における所定領域(例えば、3×3画素領域)の平均値で置換しても良い。
また、本実施形態において、エッジ抽出処理を水平方向と垂直方向の両方向に対して行った場合、重複して抽出した境界エッジ画素に対する置換を、いずれかの方向の処理を優先しても良い。もしくは、両方の抽出処理が完了した後に境界エッジ画素とそれに隣接する背景領域の画素との値の差を基準として適用する置換値を選択の上、決定しても良い。
2)肌領域の平均画素値による背景領域画像データの置換
背景領域の画素値と肌領域の全画素の平均値が大きく異なる場合、低周波成分の寄与が大きくなる。そのため、ウェーブレット変換によるサブバンド合成を実行すると、肌領域の陰影情報が変化し、見た目にも画像全体の明るさが変化したように見える。その結果、人物画像データにおいて、背景領域の画素値が肌領域と同じ程度の画素値(RGB値の平均値)でない場合、サブバンド合成すると、肌領域の明るさが全体的に変わって見えるという問題が生じる。そこで、画像データの上記領域以外の背景領域の画素値を肌領域の画素値に近い値に置換する。本実施形態では、肌領域全体の画素値の平均値を背景領域の画素値とする。
背景領域の画素値と肌領域の全画素の平均値が大きく異なる場合、低周波成分の寄与が大きくなる。そのため、ウェーブレット変換によるサブバンド合成を実行すると、肌領域の陰影情報が変化し、見た目にも画像全体の明るさが変化したように見える。その結果、人物画像データにおいて、背景領域の画素値が肌領域と同じ程度の画素値(RGB値の平均値)でない場合、サブバンド合成すると、肌領域の明るさが全体的に変わって見えるという問題が生じる。そこで、画像データの上記領域以外の背景領域の画素値を肌領域の画素値に近い値に置換する。本実施形態では、肌領域全体の画素値の平均値を背景領域の画素値とする。
[ブロック分割部1641]
ブロック分割部1641は、サブバンド分解・補正部1642で膨大な記憶領域を確保せず、高速に処理できるように、処理対象画像データを予め定義したブロックのサイズに分割し、複数のブロック画像にする。本実施形態においては、処理効率の点からブロック画像のサイズを幅256画素、高さ256画素の大きさに分割しているが、処理時間や画質により必要に応じて、分割するブロック画像の幅及び高さを適宜調整しても良い。
ブロック分割部1641は、サブバンド分解・補正部1642で膨大な記憶領域を確保せず、高速に処理できるように、処理対象画像データを予め定義したブロックのサイズに分割し、複数のブロック画像にする。本実施形態においては、処理効率の点からブロック画像のサイズを幅256画素、高さ256画素の大きさに分割しているが、処理時間や画質により必要に応じて、分割するブロック画像の幅及び高さを適宜調整しても良い。
このとき、単純に処理対象画像データを分割すると、サブバンド分解及び合成後にブロック統合部1643において統合した画像は、統合部分にノイズがある状態になる。それは、サブバンド合成処理後に各ブロック分割画像の周辺にリンギング歪が生じており、そのまま統合すると各画像が持つノイズが処理画像に反映されてしまうからである。
そのため、図8(a)に示すように隣接する画像における上下左右の端から所定画素数の領域を重複してブロック分割を行う。本実施形態においては、処理効率の点から、エッジ・背景処理部163と同様に32画素(2の5乗)を重複画素範囲としているが、処理時間や画像品質により重複画素範囲は適宜調整を行っても良い。なお、ブロック画像に分割した後に、ウェーブレット変換によるサブバンド分解合成を実施する場合、分割する画像のサイズとして幅、高さは理論上、重複画素範囲を含めた領域を2のべき乗とすることが望ましい。
[サブバンド分解・補正部1642]
サブバンド分解・補正部1642は、肌の質感を変化させるために行う画像処理に必要な重み付け係数を、係数記憶部15から取得し、ブロック分割部1641で分割した各ブロック画像データに対して、ウェーブレット変換によるサブバンド分解を行う。そして、得られた各レベルの高周波数成分LH、HL、HHに重み付け係数を乗算し、LLを0とし、サブバンド合成して画像データを再構成する。これにより処理対象である画像データにおける肌領域に対し、テカリを抑える、ツヤを与える、キメを滑らかにするといった肌の質感を変化させることができる。
サブバンド分解・補正部1642は、肌の質感を変化させるために行う画像処理に必要な重み付け係数を、係数記憶部15から取得し、ブロック分割部1641で分割した各ブロック画像データに対して、ウェーブレット変換によるサブバンド分解を行う。そして、得られた各レベルの高周波数成分LH、HL、HHに重み付け係数を乗算し、LLを0とし、サブバンド合成して画像データを再構成する。これにより処理対象である画像データにおける肌領域に対し、テカリを抑える、ツヤを与える、キメを滑らかにするといった肌の質感を変化させることができる。
[ブロック統合部1643]
ブロック統合部1643は、ブロック分割部1641で分割し、サブバンド処理部164で処理された複数のブロック画像データを分割前の配置と同様になるように、統合処理を行う。統合処理は、隣接するブロック画像データのブロック分割部1641で設定した所定領域を重複させる。なお、図8(b)に示すようにブロック画像701及び702を統合する場合、斜線領域703及び704の重複画素部分を切り捨てても良いし、斜線領域703及び704を補間演算などの処理を施し、ブロック画像701及び702の重複画素範囲に反映させてから切り捨てても良い。
ブロック統合部1643は、ブロック分割部1641で分割し、サブバンド処理部164で処理された複数のブロック画像データを分割前の配置と同様になるように、統合処理を行う。統合処理は、隣接するブロック画像データのブロック分割部1641で設定した所定領域を重複させる。なお、図8(b)に示すようにブロック画像701及び702を統合する場合、斜線領域703及び704の重複画素部分を切り捨てても良いし、斜線領域703及び704を補間演算などの処理を施し、ブロック画像701及び702の重複画素範囲に反映させてから切り捨てても良い。
[画像合成部165]
画像合成部165は、サブバンド処理部164にて生成した処理画像データのうち、背景領域の画像データを、エッジ・背景処理部163でデータ置換される前の初期値、即ち背景データ記憶部162に保存させていた背景領域画像データの初期値で置換することにより合成し、目的とする画像処理が施された人物画像データを生成する。
画像合成部165は、サブバンド処理部164にて生成した処理画像データのうち、背景領域の画像データを、エッジ・背景処理部163でデータ置換される前の初期値、即ち背景データ記憶部162に保存させていた背景領域画像データの初期値で置換することにより合成し、目的とする画像処理が施された人物画像データを生成する。
[画像処理の手順]
次に、本実施形態における画像処理装置1の画像処理の手順を、図2を用いて説明する。S101では、顔画像を含む人物画像データを取得する。画像処理装置1は、例えば操作部12の操作によって、撮像装置(不図示)と連携し、画像入力部11で被験者の顔画像を含む人物画像を撮影することによって人物画像データを取得する。その後、人物画像データはS102へ移行する。
次に、本実施形態における画像処理装置1の画像処理の手順を、図2を用いて説明する。S101では、顔画像を含む人物画像データを取得する。画像処理装置1は、例えば操作部12の操作によって、撮像装置(不図示)と連携し、画像入力部11で被験者の顔画像を含む人物画像を撮影することによって人物画像データを取得する。その後、人物画像データはS102へ移行する。
S102では、画像分離・エッジ抽出部161において顔画像を含む人物画像データを肌領域か背景領域か判別し、肌領域画像データと背景領域画像データとに分離する。そして、肌領域と背景領域の境界部分より境界エッジを抽出する。背景領域の画像データ(画素値)は、背景領域に関する初期のデータとして背景データ記憶部162に記憶させる。S102で肌領域画像データと背景領域画像データに分離され、境界エッジが抽出された画像データはS103へ移行する。
S103では、エッジ・背景処理部163において、背景領域のうち境界エッジから当該境界エッジを含む所定数の画素範囲にある領域について、その画素値を当該境界エッジに接する画素の画素値、若しくは境界エッジ近傍画素の画素値の平均値で置換する。一方、上記以外の背景領域については、その画素値を肌領域の全画素値の平均値で置換する。S103の処理によって、人物画像データは、背景領域が境界エッジ近傍の肌領域の画素値若しくは肌領域の全画素値の平均値で置換された画像データとなり、S104へ移行する。
S104では、ブロック分割部1641において、S103から移行された画像データを、予め定義したブロックサイズ(256×256画素)に分割し、複数のブロック画像にする。このとき、本実施形態では、図8(a)に示すように隣接する上下左右の端を予め定義した重複画素範囲を重複させて分割する。
次に、サブバンド分解・補正部1642において、分割した各ブロック画像データに対し、Daubechiesのウェーブレット変換によるサブバンド分解を実行し、各周波数成分に分解する。これにより異なる周波数帯域に対応した各分解レベルの成分を、RGB値ごとに取得することができる。そして、取得したRGB値ごとの各分解レベルの高周波数成分LH、HL、HHに対して、係数記憶部15に記憶させておいた重み付け係数を乗算することにより、補正処理を実行する。その後、ウェーブレット逆変換により、再構成する。なお、本工程における補正にて用いる重み付け係数の値は、事前処理部14で重み付け係数を算出しても良いし、別途外部からダウンロード等により取得しても良い。
次にブロック統合部1643において、サブバンド分解・補正部1642で構成処理された複数のブロック画像を、分割処理前の配置になるように統合させる。このとき、隣接する画像はブロック分割部1641で指定した重複画素範囲を重複させる。統合された画像は、次のS105へ移行する。
S105では、画像合成部165において、統合画像のうち初期の背景領域に相当する領域の画素値を、S102で背景データ記憶部162に保存させておいた背景領域(背景部分と目、眉毛等の部分を含む)の初期画素値に置換する。これにより、肌領域画像と初期の背景画像とを合成し、人物画像の肌領域に画像処理を施した画像を生成する。そして、出力部13へ移行し、本処理を終了する。
[実行結果例]
人物画像の境界エッジ部分について、図9(a)にウェーブレット変換によるサブバンド分解・合成を行う前に、本実施形態のエッジ・背景処理部163の処理を行っていない画像を、図9(b)にエッジ・背景処理部163の処理を行った画像を示す。
人物画像の境界エッジ部分について、図9(a)にウェーブレット変換によるサブバンド分解・合成を行う前に、本実施形態のエッジ・背景処理部163の処理を行っていない画像を、図9(b)にエッジ・背景処理部163の処理を行った画像を示す。
図9(a)では、境界エッジ内側の肌領域が処理前に比べ明るくなり、逆に境界エッジ外側が暗くなっていることから、リンギング歪みが発生していることが分かる。一方、本発明の画像処理を行った図9(b)においては、上記リンギング歪みが発生していない。
<第二の実施形態>
本発明における第二の実施形態として、メイクアップ化粧料(以下、「化粧料」と称する)を塗布していない顔(以下、素顔という。)の皮膚の色を化粧料を塗布した顔(以下、化粧料塗布顔という。)の皮膚の色に変換させる機能を備えることにより、化粧料を皮膚に塗布したシミュレーション画像を模擬することが可能なシミュレーション装置を実現することができる。以下に第二の実施形態について説明する。
本発明における第二の実施形態として、メイクアップ化粧料(以下、「化粧料」と称する)を塗布していない顔(以下、素顔という。)の皮膚の色を化粧料を塗布した顔(以下、化粧料塗布顔という。)の皮膚の色に変換させる機能を備えることにより、化粧料を皮膚に塗布したシミュレーション画像を模擬することが可能なシミュレーション装置を実現することができる。以下に第二の実施形態について説明する。
[シミュレーション装置の構成]
図10は、本実施形態に係るシミュレーション装置2のブロック構成例を示す図である。シミュレーション装置2は、大きく分けて、画像入力部21、操作部22、出力部23、事前処理部24、係数記憶部25、画像処理部26、色情報入力部27、化粧肌色推定部28を備える。第一の実施形態と第二の実施形態との違いは、第二の実施形態では色情報入力部27、化粧肌色推定部28を追加していることである。
図10は、本実施形態に係るシミュレーション装置2のブロック構成例を示す図である。シミュレーション装置2は、大きく分けて、画像入力部21、操作部22、出力部23、事前処理部24、係数記憶部25、画像処理部26、色情報入力部27、化粧肌色推定部28を備える。第一の実施形態と第二の実施形態との違いは、第二の実施形態では色情報入力部27、化粧肌色推定部28を追加していることである。
シミュレーション装置2は、画像入力部21から入力された被験者の素顔の顔画像を含む人物画像データと、色情報入力部27から入力された被験者の素顔の皮膚の色の色情報から、画像処理部26で所定の画像処理を施す。これにより、被験者の顔に化粧料を塗布した場合の仕上がりをシミュレーションできる。被験者は、シミュレーション結果をシミュレーション装置2の出力部23から確認することができる。
次に各部の構成について説明する。画像入力部21は、シミュレーションを受ける被験者の素顔の顔画像を含む人物画像データが、デジタルカメラやイメージスキャナ等により入力される。操作部22は、シミュレーション装置2の各部に対し、シミュレーションを行う操作者が処理を指示する。出力部23は、シミュレーション結果を文字やグラフ及び画像等で液晶ディスプレイ等のモニタに表示又は紙媒体等に印刷出力を行う。これにより、被験者及び操作者がシミュレーション結果を確認できる。事前処理部24は、化粧料塗布による肌の質感変化を画像処理部26において画像データに付与するために必要な重み付け係数を、シミュレーションする化粧料ごとに算出する。係数記憶部25は、事前処理部24で得られた化粧料ごとの重み付け係数を保持する。
色情報入力部27は、分光測色計を用いて計測された被験者の所定箇所(頬、目の下、額中心、顎部等)の素肌色の色情報を分光反射率として入力される。化粧肌色推定部28では、色情報入力部27で入力された被験者の素肌の分光反射率と、シミュレーションに用いる化粧料の所定のデータとを用いて、化粧料塗布顔の皮膚の色情報として分光反射率を推定する。画像処理部26は、画像分離・エッジ抽出部261、背景データ記憶部262、エッジ・背景処理部263、サブバンド処理部264、画像合成部265、肌色変換部266を有する。画像処理部26は、第一の実施形態との構成と違い、肌色変換部266が追加している。
画像分離・エッジ抽出部261は、
(1)画像入力部21で入力された素顔の顔画像を含む人物画像データにおける各画素が肌領域に属するものか背景領域に属するものかを判別し、肌領域画像データと背景領域画像データとに分離し、
(2)肌領域と背景領域との境界に位置する画素を境界エッジとして抽出し、
(3)背景領域画像データ(画素値)を、背景領域画像の初期値として、背景データ記憶部262に保存する。
(1)画像入力部21で入力された素顔の顔画像を含む人物画像データにおける各画素が肌領域に属するものか背景領域に属するものかを判別し、肌領域画像データと背景領域画像データとに分離し、
(2)肌領域と背景領域との境界に位置する画素を境界エッジとして抽出し、
(3)背景領域画像データ(画素値)を、背景領域画像の初期値として、背景データ記憶部262に保存する。
肌色変換部266は、化粧肌色推定部28から化粧料塗布顔の皮膚の色情報として取得した分光反射率をRGB値に変換し、画像分離・エッジ抽出部261で分離した肌領域画像データの各画素に対し、化粧料塗布顔の皮膚の色に変換する。肌色変換部266にて素肌色を化粧肌色に変換された肌領域画像データを含む画像データはエッジ・背景処理部263に移行する。
エッジ・背景処理部263以降のサブバンド処理部264のブロック分割部2641、サブバンド分解・補正部2642、ブロック統合部2643と、画像合成部265の処理は、第一の実施形態にて述べた画像処理装置1のエッジ・背景処理部163から画像合成部165の処理と同じ処理が実施される。
次に第二の実施形態におけるシミュレーション装置2に特有の構成部の機能及び処理について、詳述する。
[事前処理部24、係数記憶部25]
事前処理部24は、化粧料によってテカリを抑える、ツヤを与えるといった皮膚の質感補正特性を人物画像データに付加するための重み付け係数を化粧料それぞれについて算出する。そして、係数記憶部25に記憶させ、保持する。
事前処理部24は、化粧料によってテカリを抑える、ツヤを与えるといった皮膚の質感補正特性を人物画像データに付加するための重み付け係数を化粧料それぞれについて算出する。そして、係数記憶部25に記憶させ、保持する。
重み付け係数の算出は、予めサンプル被験者の化粧料を塗布していない状態の顔(以下、サンプル素肌という。)の画像データと、化粧料を一定の厚さで塗布した状態の顔(以下、サンプル化粧料塗布肌という。)の画像データをそれぞれ次数N=8のDaubechiesのウェーブレット変換によるサブバンド分解を行い、各分解レベルの標準偏差を求め、サンプル素肌の標準偏差とサンプル化粧料塗布肌の比率から重み付け係数を求める。
上記の重み付け算出処理をシミュレーションに利用する化粧料の数だけ行い、これらの重み付け係数を係数記憶部25に記憶させ、保持する。尚、被験者の人物画像データとサンプル素肌画像データ、サンプル化粧料塗布肌画像データとは、ほぼ同一解像度で取得しておくことが必要である。
[化粧肌色推定部28]
化粧肌色推定部28は、色情報入力部27から得た被験者の素肌色の所定箇所における分光反射率と、シミュレーションに用いる化粧料の所定のデータを用いて、化粧料塗布肌色の分光反射率を推定する。
1)化粧料塗布肌の分光反射率Ra(λ)の推定
化粧料塗布肌の分光反射率Ra(λ)は、クベルカ・ムンク理論、モンテカルロ法、逆モンテカルロ法などの公知の分光反射推定理論に基づいて推定することができる。以下では、クベルカ・ムンク理論による分光反射率Ra(λ)を推定する手段を説明するが、分光反射率の推定は当該方法に限定されるものではない。
化粧肌色推定部28は、色情報入力部27から得た被験者の素肌色の所定箇所における分光反射率と、シミュレーションに用いる化粧料の所定のデータを用いて、化粧料塗布肌色の分光反射率を推定する。
1)化粧料塗布肌の分光反射率Ra(λ)の推定
化粧料塗布肌の分光反射率Ra(λ)は、クベルカ・ムンク理論、モンテカルロ法、逆モンテカルロ法などの公知の分光反射推定理論に基づいて推定することができる。以下では、クベルカ・ムンク理論による分光反射率Ra(λ)を推定する手段を説明するが、分光反射率の推定は当該方法に限定されるものではない。
クベルカ・ムンク理論に基づき、分光反射率Ra(λ)は、素肌層の分光反射率Rb(λ)、化粧料の散乱係数Sf(λ)及び吸収係数Kf(λ)、皮膚に塗布された化粧料層の厚みDf、並びに化粧料層表面と空気層の境界面反射率Ri(λ)を用いることによって求めることができる。
まず、化粧料層の分光反射率Rf(λ)及び分光透過率Tf(λ)が、化粧料の散乱係数Sf(λ)、吸収係数Kf(λ)、及び厚みDfを用いて次の式(4)により求められる。
さらに、化粧料塗布肌の分光反射率Ra(λ)は、Rb(λ)、Ri(λ)、並びに式(4)により求めたRf(λ)及びTf(λ)に基づいて、式(5)により推定することができる。
ここで、化粧料の散乱係数Sf(λ)及び吸収係数Kf(λ)に関しては、下地の色を完全に遮蔽する十分厚い塗膜の分光反射率R∞(λ)、下地が透けるような薄い塗膜の分光反射率R0(λ)及びその厚みD0、並びに下地の分光反射率Rg(λ)に基づいて、以下の式(6)により予め求めておく。
なお、素肌層の分光反射率Rb(λ)に関しては、分光測色計を用いて、被験者の素肌を計測しておく必要がある。そのためには、例えば、被験者の肌で事前に計測した値を、被験者の肌の色情報として色情報入力部27に入力できるようにすればよい。あるいは、一度入力された値を色情報入力部27に記憶させておき、その値をシミュレーションで再利用できるようにしてもよい。また、化粧料固有の各分光反射率R∞(λ)、R0(λ)、及びRg(λ)に関しても、予め計測しておく必要がある。これらの値についても、予め各化粧料に関して測色計を用いて計測し、計測値を化粧肌色推定部28に記憶させておくことにより、シミュレーションで利用できる。
一方、化粧料層の厚みDfは人により塗り方や好みにより個人差が大きく、また、塗膜表面と空気層の境界面反射率Ri(λ)は化粧料を塗布する前の皮膚の滑らかさや化粧のり加減によって変わる。従って、Df及びRi(λ)を実際に計測することは困難である。そこで、例えば、画像処理装置1への入力により、Df及びRi(λ)としておおよその値を設定してもよいし、予めデフォルト値を設定してもよい。また、被験者に対するアンケート等により、当該デフォルト値をインタラクティブに調整できるようにしてもよい。
[肌色変換部266]
肌色変換部266は、化粧肌色推定部28から推定した化粧料塗布肌色の分光反射率Ra(λ)をRGB変換し被験者の化粧肌色を求め、画像分離・エッジ抽出部261で分離した肌領域画像データの各画素に対し、化粧料塗布顔の皮膚の色に変換する。
肌色変換部266は、化粧肌色推定部28から推定した化粧料塗布肌色の分光反射率Ra(λ)をRGB変換し被験者の化粧肌色を求め、画像分離・エッジ抽出部261で分離した肌領域画像データの各画素に対し、化粧料塗布顔の皮膚の色に変換する。
本実施形態においては、被験者の素顔の顔画像を含む人物画像データの目鼻交点付近の領域を代表肌領域と定める。そして、当該代表肌領域の分光反射率から算出した化粧料塗布肌色を化粧肌色の基本色とする。ここで、目鼻交点とは、目の中心付近から垂直に伸びる直線と、小鼻の中心位置から水平方向に伸びる直線の交差部分の領域であり、顔画像における頬の部分にあたる肌領域に対応する。そして、肌領域画像データの各画素と、画像分離・エッジ抽出部261で得られた肌領域画像データ上の代表肌領域における肌色の画素との差分を当該化粧肌色の基本色に加算することで化粧肌色に変換している。
尚、化粧肌色の精度を高めるために、肌領域画像データを顔の立体形状等から複数の箇所に分割し、分割箇所ごとに代表肌領域を設定し、当該分割箇所ごとの化粧肌色に変換することもできる。例えば、目鼻の交点以外に、目の下、額中心、下唇の下を代表肌領域として分光反射率を測定し、化粧料塗布肌色の分光反射率を推定して、それぞれの代表肌領域の化粧肌色における基本色を求める。その後、頬部、目周辺部、額部、顎部の分割肌領域画像データと、それぞれに該当する代表肌領域の肌色の差分を、それぞれの化粧肌の基本色に加算することで、それぞれの分割箇所ごとの化粧肌色へ変換する。
1)化粧料肌色の基本色(Rf,Gf,Bf)の算出
化粧肌色推定部28で得られた化粧料塗布肌色の分光反射率Ra(λ)は、色の表示に用いる光源下におけるCIE−XYZ表色系の三刺激値XYZに変換した後、式(7)の線形変換により、RGB値へ変換される。尚、色の表示に用いる光源は、光源の分光分布S(λ)が既知であれば、標準光源でなくても問題ない。
化粧肌色推定部28で得られた化粧料塗布肌色の分光反射率Ra(λ)は、色の表示に用いる光源下におけるCIE−XYZ表色系の三刺激値XYZに変換した後、式(7)の線形変換により、RGB値へ変換される。尚、色の表示に用いる光源は、光源の分光分布S(λ)が既知であれば、標準光源でなくても問題ない。
RGB値への色変換は、出力部23の色再現特性に合わせて、補正を行う必要がある。例えば、式(8)に完全拡散反射面の三刺激値(Xn,Yn,Zn)及び、色の表示に用いる光源の分光分布S(λ)、XYZ表色系における等色関数(x(λ),y(λ),z(λ))を代入することで得られるCx、Cy、Czで補正する。なお、式(8)における分光分布及び等色関数には、可視光領域400〜700(nm)の範囲でN(nm)ごとの波長λpでサンプリングした情報を用いる。Nは使用する分光測色計の仕様に合わせる。
2)肌領域画像データの化粧肌色への変換
代表肌領域を設定した場合、当該代表肌領域の化粧肌色の基本色(Rf,Gf,Bf)を用いて、画像分離・エッジ抽出部261で得られた肌領域画像データの各画素のRGB値(R,G,B)を化粧肌色の各画素のRGB値(R’,G’,B’)へ変換する。
代表肌領域を設定した場合、当該代表肌領域の化粧肌色の基本色(Rf,Gf,Bf)を用いて、画像分離・エッジ抽出部261で得られた肌領域画像データの各画素のRGB値(R,G,B)を化粧肌色の各画素のRGB値(R’,G’,B’)へ変換する。
本実施形態では、以下の式(9)により、肌領域画像データの各画素のRGB値(R,G,B)と、肌領域画像データの代表画素領域におけるRGBの各平均値(Rn,Gn,Bn)の差分を化粧肌色の基本色(Rf,Gf,Bf)に加算する。これにより、肌の質感を表現するテクスチャ情報を維持したまま、化粧肌色(R’,G’,B’)に変換できる。
[シミュレーション処理の手順]
次に、本実施態様におけるシミュレーション装置2のシミュレーションの手順を、図11を用いて説明する。S201で、被験者の化粧料を塗布していない素顔の顔画像を含む人物画像データと、被験者の素肌色の色情報を取得する。シミュレーション装置2は、例えば、操作部22の操作によって撮像装置(不図示)と連携し、画像入力部21で被験者の化粧料を塗布していない素顔の顔画像を含む人物画像を撮影する。これにより、人物画像データを取得し、色情報入力部27で被験者の素肌色の色情報(分光反射率)を取得する。その後、被験者の人物画像データはS202へ、被験者の素肌色の色情報(分光反射率)はS203へ移行する。
次に、本実施態様におけるシミュレーション装置2のシミュレーションの手順を、図11を用いて説明する。S201で、被験者の化粧料を塗布していない素顔の顔画像を含む人物画像データと、被験者の素肌色の色情報を取得する。シミュレーション装置2は、例えば、操作部22の操作によって撮像装置(不図示)と連携し、画像入力部21で被験者の化粧料を塗布していない素顔の顔画像を含む人物画像を撮影する。これにより、人物画像データを取得し、色情報入力部27で被験者の素肌色の色情報(分光反射率)を取得する。その後、被験者の人物画像データはS202へ、被験者の素肌色の色情報(分光反射率)はS203へ移行する。
S202では、画像分離・エッジ抽出部261において人物画像データを肌領域画像データと背景領域画像データとに分離し、境界エッジを抽出すると同時に、背景領域の画像データ(画素値)を背景データ記憶部262へ記憶させる。
S203では、化粧肌色推定部28において上述した手法等により素肌色の色情報(分光反射率)を用いて、化粧料塗布肌色の分光反射率を推定する。
S204では、肌色変換部266において、S203で推定した分光反射率から化粧料塗布肌色の基本色(Rf,Gf,Bf)を算出する。そして、化粧料塗布肌色の基本色(Rf,Gf,Bf)を用いて、S202で分離した肌領域画像の全画素(R,G,B)を化粧肌色(R’,G’,B’)へ変換し、S205へ移行する。
S205では、エッジ・背景処理部263にて、背景領域のうち境界エッジから当該境界エッジを含む所定画素範囲にある領域について、その画素値を当該境界エッジに接する画素の画素値、若しくは境界エッジ近傍画素の画素値の平均値で置換する。一方、上記以外の背景領域については、その画素値を肌領域の全各画素値の平均値で置換する。S205の処理によって、人物画像データは、背景領域が境界エッジ近傍の肌領域の画素値若しくは肌領域の全画素値の平均値で置換された画像データとなって、S206へ移行する。
S206では、サブバンド分解・合成処理における処理効率の点から、ブロック分割部2641において、S205で処理した被験者の画像データを、予め定義したブロックサイズ(256×256画素)にブロック画像として分割する。このとき、本実施形態においては分割した各ブロック画像は、図8(a)に示すように隣接する画像の上下左右の端を予め定義した画素領域を重複させる。
次に、サブバンド分解・補正部2642において、各ブロック画像データに対し、Daubechiesのウェーブレット変換によるサブバンド分解を実行し、各周波数成分に分解する。これにより異なる周波数帯域に対応した各分解レベルの成分データを、RGB値ごとに取得する。そして、取得した高周波数成分LH、HL、HHのRGBそれぞれに対して、係数記憶部25に記憶させておいたシミュレーションを行う化粧料に係る重み付け係数を乗算し、LLを0にすることにより、化粧料塗布に伴う質感変化に関する補正処理を実行する。その後、ウェーブレット逆変換により、再構成する。なお、本工程における補正にて用いる重み付け係数の値は、重み付け係数を算出する処理を行って求めても良いし、別途外部からダウンロード等により取得しても良い。
次に、サブバンド分解・補正部2642において処理された各ブロック画像を、ブロック統合部2643において分割処理前の配置となるように、隣接する画像がブロック分割部2641において指定した重複画素領域と重なるように、ブロック統合処理を行い、S207へ移行する。
S207では、ブロック統合部2643で統合された画像の背景領域に相当する領域の画素値を、S202で背景データ記憶部262に保存させておいた背景領域(背景部分と目、眉毛等の部分を含む)の初期画素値に置換する。これにより、化粧料塗布顔へと変換された肌領域画像と初期の背景画像とを合成し、人物画像にメイクアップシミュレーション処理を施した画像を生成する。そして、出力部23へ移行し、本処理を終了する。
<他の実施形態>
以上の処理をプログラムとしてCD−R、DVD−R、CD−ROMやDVD−ROM、フラッシュメモリ等の記憶媒体に記憶させ、この記憶媒体に記憶されているプログラムをコンピュータに読み込ませる(インストール、もしくはコピーさせる)ことで、このコンピュータは上記の処理を行うことができる。よって、このようなプログラムや記憶媒体も本発明の範疇にあることは明白である。
以上の処理をプログラムとしてCD−R、DVD−R、CD−ROMやDVD−ROM、フラッシュメモリ等の記憶媒体に記憶させ、この記憶媒体に記憶されているプログラムをコンピュータに読み込ませる(インストール、もしくはコピーさせる)ことで、このコンピュータは上記の処理を行うことができる。よって、このようなプログラムや記憶媒体も本発明の範疇にあることは明白である。
1 画像処理装置
11 画像入力部
12 操作部
13 出力部
14 事前処理部
15 係数記憶部
16 画像処理部
11 画像入力部
12 操作部
13 出力部
14 事前処理部
15 係数記憶部
16 画像処理部
Claims (9)
- 顔画像を含む人物画像データに対する変換処理に伴うノイズを抑制する画像処理装置であって、
前記人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、
前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、
前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、
前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成手段と
を有することを特徴とする画像処理装置。 - 前記画像分離・エッジ抽出手段は、
前記人物画像データの水平方向の中心にある画素を基準として、前記人物画像データの水平方向の両端に向けて走査し、肌領域に属する画素か背景領域に属する画素かを判定し、該肌領域と該背景領域との境界に位置する画素を境界エッジとして抽出する手段と、
前記人物画像データの垂直方向の中心にある画素を基準として、前記人物画像データの垂直方向の両端に向けて走査し、肌領域に属する画素か背景領域に属する画素かを判定し、該肌領域と該背景領域との境界に位置する画素を境界エッジとして抽出する手段と
の少なくとも一方を有することを特徴とする請求項1に記載の画像処理装置。 - 被験者の素肌の顔画像を含む人物画像データに対し画像処理を行い、化粧料を塗布した化粧肌の人物画像をシミュレーションするシミュレーション装置であって、
前記人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、
被験者の化粧料を塗布していない素顔の皮膚の色(素肌色)の色情報を取得する色情報入力手段と、
前記色情報と塗布する化粧料のデータとに基いて、被験者の化粧料を塗布した皮膚の色(化粧料塗布肌色)の色情報を推定する化粧肌色推定手段と、
前記化粧肌色推定手段により推定した化粧料塗布肌色の色情報を用いて、前記肌領域における画素値を変換する肌色変換手段と、
前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、
前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、
前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより化粧料塗布肌色に変換された肌領域と前記背景領域との画像データを合成する画像合成手段と
を有することを特徴とするシミュレーション装置。 - 顔画像を含む人物画像データに対する変換処理に伴うノイズを抑制する画像処理装置の画像処理方法であって、
前記画像処理装置の画像分離・エッジ抽出手段が、前記人物画像データにおける画素を肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出工程と、
前記画像処理装置のエッジ・背景処理手段が、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理工程と、
前記画像処理装置のサブバンド処理手段が、前記エッジ・背景処理工程により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理工程と、
前記画像処理装置の画像合成手段が、前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理工程によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成工程と
を有し、
前記画像分離・エッジ抽出工程は、
前記人物画像データにおける画素を、前記肌領域に属する画素か前記背景領域に属する画素かを判別し、肌領域画像データと背景領域画像データとに分離する分離工程と、
前記肌領域画像データと前記背景領域画像データとの境界に位置する画素を境界エッジとして抽出する抽出工程と、
前記背景領域画像データの値を、前記初期の背景領域の画素値として保存する保存工程とを有し、
前記エッジ・背景処理工程は、
前記背景領域画像データのうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジに隣接する前記肌領域の画素値、若しくは当該境界エッジの近傍における前記肌領域の画素値の平均値で置換し、当該領域以外の背景領域の画素値を前記肌領域に属する全画素の画素値の平均値で置換する置換工程と
を有することを特徴とする画像処理方法。 - 顔画像を含む人物画像データに対する変換処理に伴うノイズを抑制する画像処理装置の画像処理方法であって、
前記画像処理装置の画像分離・エッジ抽出手段が、前記人物画像データにおける画素を肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出工程と、
前記画像処理装置のエッジ・背景処理手段が、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、それ以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理工程と、
前記画像処理装置のサブバンド処理手段が、前記エッジ・背景処理工程により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理工程と、
前記画像処理装置の画像合成手段が、前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理工程によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成工程と
を有し、
前記画像分離・エッジ抽出工程は、
前記人物画像データの所定領域内において抽出されるエッジを前記境界エッジとして抽出する抽出工程と、
前記抽出工程において抽出された前記境界エッジに基いて、前記人物画像データにおける画素を、前記肌領域に属する画素と前記背景領域に属する画素とに分離する分離工程と
前記背景領域に属する画素である背景領域画像データの値を、前記初期の背景領域の画素値として保存する保存工程とを有し、
前記エッジ・背景処理工程は、
前記背景領域画像データのうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジに隣接する前記肌領域の画素値、若しくは当該境界エッジの近傍における前記肌領域の画素値の平均値で置換し、当該領域以外の背景領域の画素値を前記肌領域に属する全画素の画素値の平均値で置換する置換工程と
を有することを特徴とする画像処理方法。 - 被験者の素肌の顔画像を含む人物画像データに対し画像処理を行い、化粧料を塗布した化粧肌の人物画像をシミュレーションするシミュレーション装置の画像処理方法であって、
前記シミュレーション装置の画像分離・エッジ抽出手段が、前記人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出工程と、
前記シミュレーション装置の色情報入力手段が、被験者の化粧料を塗布していない素顔の皮膚の色である素肌色の色情報を取得する色情報入力工程と、
前記シミュレーション装置の化粧肌色推定手段が、前記色情報と塗布する化粧料のデータとに基いて、被験者の化粧料を塗布した皮膚の色である化粧料塗布肌色の色情報を推定する化粧肌色推定工程と、
前記シミュレーション装置の肌色変換手段が、前記化粧肌色推定工程により推定した化粧料塗布肌色の色情報を用いて、前記肌領域における画素値を変換する肌色変換工程と、
前記シミュレーション装置のエッジ・背景処理手段が、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理工程と、
前記シミュレーション装置のサブバンド処理手段が、前記エッジ・背景処理工程により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理工程と、
前記シミュレーション装置の画像合成手段が、前記サブバンド処理工程によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより化粧料塗布肌色に変換された肌領域と前記背景領域との画像データを合成する画像合成工程と
を有し、
前記画像分離・エッジ抽出工程は、
前記人物画像データにおける画素を、前記肌領域に属する画素か前記背景領域に属する画素かを判別し肌領域画像データと背景領域画像データとに分離する分離工程と、
前記肌領域画像データと前記背景領域画像データとの境界に位置する画素を境界エッジとして抽出する抽出工程と、
前記背景領域画像データの値を、前記初期の背景領域の画素値として保存する保存工程とを有し、
前記エッジ・背景処理工程は、
前記背景領域画像データのうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジに隣接する前記肌領域の画素値、若しくは当該境界エッジの近傍における前記肌領域の画素値の平均値で置換し、当該領域以外の背景領域の画素値を前記肌領域に属する全画素の画素値の平均値で置換する置換工程と
を有することを特徴とする画像処理方法。 - 被験者の素肌の顔画像を含む人物画像データに対し画像処理を行い、化粧料を塗布した化粧肌の人物画像をシミュレーションするシミュレーション装置の画像処理方法であって、
前記シミュレーション装置の画像分離・エッジ抽出手段が、前記人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出工程と、
前記シミュレーション装置の色情報入力手段が、被験者の化粧料を塗布していない素顔の皮膚の色である素肌色の色情報を取得する色情報入力工程と、
前記シミュレーション装置の化粧肌色推定手段が、前記色情報と塗布する化粧料のデータとに基いて、被験者の化粧料を塗布した皮膚の色である化粧料塗布肌色の色情報を推定する化粧肌色推定工程と、
前記シミュレーション装置の肌色変換手段が、前記化粧肌色推定工程により推定した化粧料塗布肌色の色情報を用いて、前記肌領域における画素値を変換する肌色変換工程と、
前記シミュレーション装置のエッジ・背景処理手段が、前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、当該領域以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理工程と、
前記シミュレーション装置のサブバンド処理手段が、前記エッジ・背景処理工程により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理工程と、
前記シミュレーション装置の画像合成手段が、前記サブバンド処理工程によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより化粧料塗布肌色に変換された肌領域と前記背景領域との画像データを合成する画像合成工程と
を有し、
前記画像分離・エッジ抽出工程は、
前記人物画像データの所定領域内において抽出されるエッジを前記境界エッジとして抽出する抽出工程と、
前記抽出工程において抽出された前記境界エッジに基いて、前記人物画像データにおける画素を、前記肌領域に属する画素と前記背景領域に属する画素とに分離する分離工程と、
前記背景領域に属する画素である背景領域画像データの値を、前記初期の背景領域の画素値として保存する保存工程とを有し、
前記エッジ・背景処理工程は、
前記背景領域画像データのうち、前記境界エッジから一定画素範囲にある領域に画素値を、当該境界エッジに隣接する前記肌領域の画素値、若しくは当該境界エッジの近傍における前記肌領域の画素値の平均値で置換し、当該領域以外の背景領域の画素値を前記肌領域に属する全画素の画素値の平均値で置換する置換工程と
を有することを特徴とする画像処理方法。 - 画像処理装置を、
顔画像を含む人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、
前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、それ以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、
前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、
前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより画像処理された肌領域と前記背景領域との画像データを合成する画像合成手段と
して機能させることを特徴とするプログラム。 - シミュレーション装置を、
被験者の素肌の顔画像を含む人物画像データにおける画素を、肌領域に属する画素と肌領域以外の領域である背景領域に属する画素とに分離し、前記肌領域と前記背景領域との境界となる境界エッジを抽出する画像分離・エッジ抽出手段と、
被験者の化粧料を塗布していない素顔の皮膚の色である素肌色の色情報を取得する色情報入力手段と、
前記色情報と塗布する化粧料のデータとに基いて、被験者の化粧料を塗布した皮膚の色である化粧料塗布肌色の色情報を推定する化粧肌色推定手段と、
前記化粧肌色推定手段により推定した前記化粧料塗布肌色の色情報を用いて前記肌領域における画素を変換する肌色変換手段と、
前記背景領域のうち、前記境界エッジから一定画素範囲にある領域の画素値を、当該境界エッジ近傍の肌領域の画素値で置換し、それ以外の背景領域の画素値を、前記肌領域の全画素値の平均値で置換するエッジ・背景処理手段と、
前記エッジ・背景処理手段により背景領域の画素値が置換された画像データに対し、サブバンド分解及び合成による画像処理を行うサブバンド処理手段と、
前記サブバンド処理手段によって得られた画像データのうち、前記背景領域の画素値を、前記エッジ・背景処理手段によって置換される前の初期の背景領域の画素値で置換することにより化粧料塗布肌色に変換された肌領域と前記背景領域との画像データを合成する画像合成手段と
して機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009208569A JP2011059960A (ja) | 2009-09-09 | 2009-09-09 | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009208569A JP2011059960A (ja) | 2009-09-09 | 2009-09-09 | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011059960A true JP2011059960A (ja) | 2011-03-24 |
Family
ID=43947518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009208569A Withdrawn JP2011059960A (ja) | 2009-09-09 | 2009-09-09 | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011059960A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196640A (ja) * | 2012-03-22 | 2013-09-30 | Hitachi Solutions Ltd | 画像解析装置、画像解析方法及びプログラム |
JP2013254233A (ja) * | 2012-06-05 | 2013-12-19 | Dainippon Printing Co Ltd | テクスチャマッピング装置、テクスチャマッピング方法、プログラム |
JP2020091852A (ja) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | メイクアップ製品の現実的レンダリングをシミュレーションするための方法 |
-
2009
- 2009-09-09 JP JP2009208569A patent/JP2011059960A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196640A (ja) * | 2012-03-22 | 2013-09-30 | Hitachi Solutions Ltd | 画像解析装置、画像解析方法及びプログラム |
JP2013254233A (ja) * | 2012-06-05 | 2013-12-19 | Dainippon Printing Co Ltd | テクスチャマッピング装置、テクスチャマッピング方法、プログラム |
JP2020091852A (ja) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | メイクアップ製品の現実的レンダリングをシミュレーションするための方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9142054B2 (en) | System and method for changing hair color in digital images | |
JP5547730B2 (ja) | 顔検知を用いた顔及び肌の自動美化 | |
JP6026655B2 (ja) | 透明感評価装置、透明感評価装置の作動方法、透明感評価方法および透明感評価プログラム | |
JP5146667B2 (ja) | 肌のなめらかさの評価方法 | |
JP5095637B2 (ja) | 拡散ベースの照明正規化のための方法および装置 | |
US20080212894A1 (en) | Method and apparatus for simulation of facial skin aging and de-aging | |
EP1408448B1 (en) | Image processing method, image processing apparatus, image processing program and image recording apparatus | |
JP5095638B2 (ja) | 拡散ベースの画像再照明のための方法および装置 | |
JP2010198382A (ja) | シミュレーション装置、シミュレーション方法、及びコンピュータプログラム | |
JP2023521208A (ja) | 人体画像処理方法および電子機器 | |
JP2007179517A (ja) | 画像生成方法および装置ならびに化粧シミュレーション方法および装置 | |
JP2011059960A (ja) | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム | |
JP4506245B2 (ja) | 肌のシミュレーション画像形成方法 | |
JP2017111595A (ja) | 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム | |
JP5399874B2 (ja) | 画像処理装置および画像処理方法 | |
Cho et al. | Image inpainting using wavelet-based inter-and intra-scale dependency | |
JP2004283357A (ja) | 肌のシミュレーション画像の形成方法 | |
JPWO2018220780A1 (ja) | 画像生成装置、画像生成方法およびプログラム | |
JP4692786B2 (ja) | 肌のテクスチャの解析方法 | |
WO2022250905A1 (en) | Specular reflection reduction in endoscope visualization | |
CA2635068A1 (en) | Emulating cosmetic facial treatments with digital images | |
JP4506243B2 (ja) | 肌のシミュレーション画像形成方法 | |
Parihar et al. | A comparative analysis of deep learning based approaches for low-light image enhancement | |
JP4756398B2 (ja) | 肌のシミュレーション画像形成方法 | |
JP6730051B2 (ja) | 肌状態評価方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20121204 |