JP4001549B2 - Evaluation method of skin condition - Google Patents

Evaluation method of skin condition Download PDF

Info

Publication number
JP4001549B2
JP4001549B2 JP2002358509A JP2002358509A JP4001549B2 JP 4001549 B2 JP4001549 B2 JP 4001549B2 JP 2002358509 A JP2002358509 A JP 2002358509A JP 2002358509 A JP2002358509 A JP 2002358509A JP 4001549 B2 JP4001549 B2 JP 4001549B2
Authority
JP
Japan
Prior art keywords
color difference
skin
pixels
subset
unit pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002358509A
Other languages
Japanese (ja)
Other versions
JP2004187879A (en
Inventor
健一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kose Corp
Original Assignee
Kose Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kose Corp filed Critical Kose Corp
Priority to JP2002358509A priority Critical patent/JP4001549B2/en
Publication of JP2004187879A publication Critical patent/JP2004187879A/en
Application granted granted Critical
Publication of JP4001549B2 publication Critical patent/JP4001549B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、肌状態の評価方法に関する。更に詳細には、化粧料の自然な仕上がり感などの肌の状態の評価について、目視と近い評価結果を得ることのできる肌状態の評価方法に関する。
【0002】
【従来の技術】
一般に、女性の肌に化粧が施される場合、その仕上がりの状態に違和感がなく自然に近いものが好まれることが多い。従って、肌に適用する化粧料に関しては、このような自然な仕上がり状態を与えることができるものを目標として開発されることになる。
【0003】
しかしながら、肌に適用された化粧料が自然な仕上がりとなっているかどうか等の評価は、評価者の主観に依存することが多く、評価者、評価時期等により評価結果にばらつきが生じてしまうことがあり、客観的に測定することは非常に困難であった。
【0004】
また、従来から、肌状態を測定装置を用いて評価することもおこなわれており、例えば、マクロな観点からの手段として、色差計を用いる測定方法が知られている。しかしこの方法は、肌の色調の平均値を測定して評価するものであって、化粧後の肌が素肌に近いかどうかを評価するものではなかった。更に、ミクロな観点からの手段としては、マイクロスコープや顕微鏡を用いて測定する方法があるが、これらは肌の状態を微視的に示すだけのものであり、これらから得られた結果を用いて化粧料の自然な仕上がり感を判断することは困難であった。
【0005】
一方、異なる化粧料の仕上がり感を評価する方法として、パネラーによる評価も行われていたが、同一人の肌を用いて評価する場合は、時間をおいた評価になるという問題があった。また、複数のパネラーによる場合であっても、別人の肌を用いて評価することとなるため、パネラーの肌の状態の違いも考慮して評価しなければならないという問題も有していた。
【0006】
また、サンプル皮膚表面の二次元サンプル画像を撮像して、演算処理して、皮膚表面の凹凸や光の反射を分析検査する皮膚表面解析システムも提供されていたが(例えば、特許文献1)、操作が煩雑である等の問題があり、必ずしも満足のいくものではなかった。
【0007】
【特許文献1】
特許第3236731号公報(第1−10頁)
【0008】
【発明が解決しようとする課題】
従って、肌における化粧料の自然な仕上がり感について、目視での判断に近い評価を、簡便な操作により客観的かつ定量的に行うことのできる肌状態の評価方法の提供が求められていた。
【0009】
【課題を解決するための手段】
本発明者は、上記課題を解決すべく鋭意検討を行った結果、肌における化粧料の自然な仕上がり感は、化粧料の適用によって、肌上で色変化を起こすシミ、シワ、クマ、そばかす等が目立たなくなっているかどうかや、肌上で色変化の生じている部分が均一に分布しているかどうか等によって決定づけられていることを知った。そして、この自然な仕上り感の程度を客観的かつ定量的に表すためには、被験者の肌をデジタル画像として撮像した肌画像を用い、単位画素間の色差と、明暗が平均的に分布するかどうかを示すばらつき指数を算出し、この両者の関係をグラフ化すればよいことを見出し、本発明を完成した。
【0010】
すなわち本発明は、次の工程、
(1)被検対象の肌画像をデジタル画像として撮像する工程、
(2)撮像した画像の各単位画素ごとに、隣接する画素との間での色差を算出し、所定の色差を代表色差(D(x,y))とする工程、
(3)上記(2)で得た代表色差を、所定幅で区分し、各区分段階における部 分集合(U(m))とし、この部分集合に含まれる単位画素数(N(m))を求める工程、
(4)上記(3)で得た単位画素数と、対象となる領域に含まれる全単位画素 数(N0)から、次の式
【数2】

Figure 0004001549
により各部分集合毎の占有距離OD(m)を求める工程、
(5)上記(3)で得た各部分集合について、この部分集合に含まれる単位画 素毎に一定距離k以内に存在する同じ部分集合に含まれる他の単位画素数から、近隣単位画素数(SN(k))を求め、更にこの画素数を各部分集合の全単位画素数で割り、平均近隣単位画素数(SAN(k))を求める工程、
(6)一定距離kと平均近隣単位画素数の関係から、近似関数を導く工程、
(7)この関数のkに上記(4)で求めた占有距離OD(m)を代入してばらつき指数(AI(m))を求める工程、
(8)上記(2)で求めた代表色差とばらつき指数の関係をグラフ化する工程、
(9)このグラフの形状を他の肌状態と比較する工程
を含む肌状態の評価方法を提供するものである。
【0011】
【発明の実施の形態】
本発明の評価方法を実施するには、まず、被検対象の肌画像をデジタル画像として撮像することが必要である。
【0012】
この撮像は、一般的なデジタルカメラを用いて行うことができ、その画素数については特に制約はない。また、この撮像において、例えば、化粧後の仕上がりの自然さを評価する場合には、素肌の状態と化粧後の状態を同じ条件で撮像することが好ましい。
【0013】
また、肌状態をより正確に判定するためには、上記のようにして撮像した肌画像から、非評価部分を除去して、評価部分とすることが好ましい(以下、この部分のデジタル画像を「抽出画像」という)。この非評価部分とは、肌状態の評価に不要な部分のことであり、例えば毛髪や背景画像等を意味する。また、抽出画像の単位領域は、目的によりある程度の面積の部分を意識的に設定してもよいが、一般的には、デジタル画像の画素(ピクセル)をそのまま単位領域として使用すればよい。
【0014】
次に撮像した画像の各単位画素ごとに、隣接する画素との間での色差を算出し、代表色差(D(x,y))を求めることが必要である。この色差は、各単位画素の色情報、例えば、明度や彩度等から求めることができる。また、代表色差は、予め定められた方法により決めることができ、例えば、各色差の平均値や、そのうちの最大のものとすることができる。
【0015】
具体的に、色情報として明度および彩度を使用し、デジタル画像である抽出画像から最大の色差として代表色差を得るには、次のようにすればよい。すなわち、まず、抽出画像を市販の画像処理アプリケーション(例えば、PhotoShop(R)6.0:アドビシステムズ社製)を用いてビットマップ(bmp)形式に変換し、各画素ごとのRGBデータを取得する。
【0016】
次いで、上記のようにして得られたRGBデータを、L*、aおよびbデータに変換する。この変換は、パソコン等を使用し、例えば、以下の式により行われる。
【0017】
<L*、aおよびb値の算出式>
【数3】
Figure 0004001549
[式中、R、G、Bは画素毎のRGB値(0〜255)を、L*、a*、bは各画素のL*、a、b値をそれぞれ示し、Xは0.950、Yは1.00、Zは1.09の数を示す]
【0018】
このようにして得られた各単位画素ごとのL*、aおよびbデータから、各単位画素と隣接する画素間の色差が求められる。例えば、上下左右の単位画素との間での色差(D)を算出するには、下記に示す式に従って計算を行えば良い。すなわち、下式の色差は、着目している画素(単位画素)と隣接する上下の画素(y+1およびy−1)および左右の画素(x+1およびx−1)との間の色差を示すものである。
【0019】
<色差(D)の算出式>
【数4】
Figure 0004001549
[式中、L*(x,y)、a*(x,y)およびb*(x,y)は、座標(x,y)の画素のL*、a*およびb*値をそれぞれ意味する]
【0020】
このようにして得られた、各単位画素と隣接単位画素間での色差が算出され、次にこの色差を基に、代表色差が求められる。例えば、代表色差として各色差のうちの最大のものとすることを予め定めていた場合は、下式に従って代表色差を求めることができる。
【数5】
Figure 0004001549
[式中、max(D1,D,D,D)は、隣接単位画素間での最大色差を意味し、D(x,y)は、座標(x,y)の画素の代表色差を意味する]
【0021】
次に、上で得た代表色差を、いくつかに区分し、各区分段階(m)における部分集合(U(m))を求めると共に、この部分集合に含まれる全単位画素数(N(m)を求める(以下、部分集合(U(m))に含まれる各単位画素の代表色差値として、単一の数字mを用いる)。この区分の段階は、例えば、整数とすることができ、その場合の部分集合(U(m))は、次の式で表される。
【数6】
Figure 0004001549
[式中、mは0以上の整数であり、D(x,y)は、座標(x,y)の画素の代表色差を意味する]
【0022】
また、この部分集合(U(m))から、これに属する抽出画像中の全画素数(N(m))及び全単位画素数(N)は、対象となる領域に含まれている全ての画素を走査して、各画素の代表色差(D(x、y))から属する部分集合(U(m))を決定し、それぞれの部分集合に含まれる画素数を数えることで部分集合(U(m))に属する抽出画像中の全画素数(N(m))及び対象となる領域に含まれる全単位画素数(N)を求めることができる。
【0023】
更に、上記のように求めた単位画素数(N(m))と、対象となる領域に含まれる全単位画素数(N0)から、次の式により各部分集合毎の占有距離OD(m)を求める。
【数7】
Figure 0004001549
【0024】
そして、この占有距離は、ある部分集合中の単位画素が全領域中で理想的に均等に分布していると仮定した場合に、他の同じ部分集合中の単位画素が存在しない最大の距離を意味する。
【0025】
一方、前記で得た各部分集合について、この部分集合に含まれる単位画素毎に一定距離k以内に存在する同じ部分集合に含まれる他の単位画素数から、近隣単位画素数(SN(k))を求め、更にこの画素数を同じ部分集合に含まれる単位画素数で割り、平均近隣単位画素数(SAN(k))を求める。
【0026】
この近隣単位画素数SN(k)は、部分集合中の各画素毎に、一定距離kの範囲内に存在する画素を走査して、同じ部分集合に属する他の画素の個数を数えることにより求めることができる。なお、ここでいう距離kは、部分集合中の2点P(p,p)及びQ(q,q)について、下記の式(14)で表される。
【0027】
【数8】
Figure 0004001549
【0028】
また、SN(k)は、部分集合U(m)ごとの、距離kの円内に存在する同じ部分集合に属する単位画素の合計個数を意味する。また、平均近隣単位画素数SAN(k)は、各単位毎の距離k以内に存在する同じ単位画素の平均数を意味する。
【0029】
次に、上記の距離kと、平均近隣単位画素数SAN(k)の関係を求め、これからkとSAN(k)の間の関係を表す近似式を求める。具体的には、例えば、距離kを1,2,3,……、と10程度まで変化させた場合の対応するSAN(k)(SAN(1)、SAN(2)、SAN(3)……、SAN(10))を求めておき、この各値を、近似式に代入して連立方程式を作成し、最小二乗法によって求められた近似解から近似式の係数を求め、kとSAN(k)の間の関係を表す近似式とすることができる。
【0030】
例えば、近似式として下記の5次式を使用した場合、この式のxにkの値を、f(x)にSAN(k)の値を代入することによって連立方程式を作成し、最小二乗法を用いてaないしfの近似解を求めることで、kとSAN(k)の間の関係を表す近似式を得ることができる。
【数9】
Figure 0004001549
【0031】
上記のようにして得られた近似式のxの項に、距離kに代えて前記式(13)で求めた各占有距離OD(m)を代入すると、値f(OD(m))が得られるが、本発明では、この値をばらつき指数(AI(m))とする。このばらつき指数は、ある画素の部分集合における画素の分布が均一であるか否かを示す指標であり、ある画素の部分集合Uについて、全ての画素が、一定の範囲に色差を持つ部分集合内に対して理想的に均一分布されている場合に0となる一方、画素の分布が偏って存在するほど大きな値となる値である。具体的には、かかる部分集合内の画素が、上下左右方向に存在する他の画素に対して、後記する占有距離だけ移動した場合において、他の色差の画素がどの程度存在するかを示す値である。
【0032】
以上のようにして求められるばらつき指数(AI(m))を、代表色差の各区分毎に求め、これを代表色差値との関係でグラフ化する。例えば、代表色差値をx軸(横軸)、対応するばらつき指数をy軸(縦軸)としてプロットし、代表色差値とばらつき指数との関係をグラフとして表示すればよい。
【0033】
このようにして得られた代表色差値とばらつき指数との関係は、被験者の肌状態の評価を行なうために有用なものである。すなわち、このカーブ上で、例えば化粧した被験者の肌について得た上記グラフが、素肌について得たグラフと比べてどの方向にシフトしてるかを基に化粧による肌状態の評価を行うことができる。
【0034】
具体的には、カーブの位置および高さでどの方向にシフトしてるかにより評価を行うことができ、その際、x軸負方向の変化は、部分集合の色差が低くなっている状態であり、肌上で色変化の目立つ肌トラブル(毛穴やシミ、シワ、クマ等)が目立たなくなる効果が高いと解釈される。
【0035】
また、y軸負方向の変化は、部分集合のばらつき指数が低くなっている状態であり、肌上での色変化のある部分が均一に分布する状態であるため、肌が整って見える効果が高いと解釈される。
【0036】
これら評価及び判定方法は、次のようにまとめられる。
x軸正の方向にシフト:
部分集合の色差が全体的に高くなっている状態。肌トラブルを隠す効果 が低い。
x軸負の方向にシフト:
部分集合の色差が全体的に低くなっている状態。肌トラブルを隠す効果 が高い。
y軸正の方向にシフト:
部分集合のばらつき指数が全体的に高くなっている状態。肌が整って見 える効果が低い。
y軸負の方向にシフト:
部分集合のばらつき指数が全体的に低くなっている状態。肌が整って見 える効果が高い。
【0037】
【実施例】
次に実施例を挙げて本発明を更に詳しく説明するが、本発明はこれら実施例に何ら制約されるものではない。
【0038】
実 施 例 1
色差とばらつき指数の関係確認:
色評価用蛍光灯下において、青色で光沢のない布を背景として、500万画素デジタルカメラ(CAMEDIA E−20:オリンパス光学工業(株)製)を用い、被験者の顔を撮像した。撮像倍率は、1画素が100μm×100μmの範囲に相当する倍率とした。
【0039】
次いで、撮像した画像より、目視により対象領域と非対象領域を判別し、図1のように非対象領域を取り除いて抽出画像を得た。得られた抽出画像を、市販の画像処理アプリケーション(Adobe PhotoShop(R)6.0:アドビシステムズ社製)を用いてビットマップ(bmp)形式に変換し、抽出画像の1画素ごとのRGBデータを取得した。
【0040】
この抽出画像についてのRGBデータから、下式により各ドットのL値を算出した。
【数10】
Figure 0004001549
(式中、R、GおよびBは、ドット毎の256階調のRGB値であり、L,a,bは、各ドットのL値を意味する。また、Xは0.950,Yは1.00,Zは1.09である)
【0041】
このようにして算出される各画素のL、aおよびb値を基に、次の式により、上下左右で隣接する単位画素との間の色差、D1ないしD4を求める。
【数11】
Figure 0004001549
【0042】
このDないしDを比較し、このうちの最大色差のものを選び、これを3倍して代表色差D(x、y)とする。この操作を各単位画素について行い、対象領域の全画素の代表色差を求めた。なお、色差の算出については、図2に示すような軸方向になるようにした。
【0043】
次に、色差を、整数1毎に区分し、この各区分に入る代表色差D(x,y)を集め、各区分毎に部分集合U(m)とした。この各部分集合は、次の式
【数12】
Figure 0004001549
(ここで、mは0以上の整数を示す)
を満たすものであり、この各部分集合に含まれる単位画素の代表色差値は、整数mとした。従って、
【数13】
Figure 0004001549
を満たす単位画素の代表色差値は、整数1となる。
【0044】
更に、この部分集合U(m)に含まれる単位画素数N(m)を求め、この画素数と、抽出画像全体の画素数N0から、下記式
【数14】
Figure 0004001549
を用いて、占有距離OD(m)を算出した。
【0045】
具体的に、図1の対象領域について、求めた画素数および占有距離は、次の表1の通りである(全体の画素数Nは、503314である)。
【0046】
【表1】
Figure 0004001549
【0047】
別に、部分集合U(m)に対し、距離k(1画素長)を1,2,3,……,10と変化させた場合における、同じ部分集合に属する別の単位画素数(SN(k))を求めた。このSN(k)を、同じ部分集合の画素数(N(m))で割ってSAN(k)を算出した。図1の対象領域について、代表色差値6での距離kとSAN(k)の関係をグラフ上にプロットした結果を図3に示す。
【0048】
一方、前記した5次式を近似式とし、このxにkの数値を、f(x)にSAN(k)の数値を代入して、連立方程式を作成し、最小二乗法を用いて以下に示すa〜fの近似解を得た。
a=0.00003
b=−0.0009
c=0.0081
d=0.4551
e=0.1325
f=−0.0375
【0049】
これらの値を5次式に代入することにより、代表色差6における近似式として下記式を得た。なお、この式が示す曲線を、図3中に実線で示す。
【数15】
Figure 0004001549
【0050】
このようにして得られた近似式のxに、前で求めた占有距離OD(=2.02)を代入することにより、代表色差値6でのばらつき指数AI(=2.14)を算出した。
【0051】
同様に、各代表色差値について、それぞれのばらつき指数を求めた。このうち、代表色差値4から9について、ばらつき指数の関係をプロットしてグラフを図4に示す。
【0052】
実 施 例 2
ファンデーションの仕上がり判定方法(1):
実施例1に示した方法を用い、同じ被験者について、ファンデーション1ないし3で化粧した後の色差のばらつき指数の関係を求めてそれぞれグラフとし、素肌の状態で得たグラフと比較した。結果を図5に示す。なお、ファンデーション塗布時には共通の下地乳液を用いて、ファンデーションごとに塗布量を揃えて塗布した。
【0053】
この結果から、ファンデーション1を用いて化粧した場合は、素肌の状態に比べ、x軸負方向へのシフトが少なく、y軸負方向へのシフトが大きいため、肌トラブルを隠す効果が低く、肌が整って見える効果が高いと評価した。そして、化粧料の自然な仕上がり効果(総合評価)としては、「やや自然な仕上がりである」と評価した。
【0054】
また、ファンデーション2は素肌に比べ、x軸負方向及びy軸負方向へのシフトが大きいため、肌トラブルを隠す効果及び肌が整って見える効果がともに高いと評価した。そして、化粧料の自然な仕上がり効果(総合評価)としては、「非常に自然な仕上がりである」と評価した。
【0055】
更に、ファンデーション3は素肌に比べ、x軸負方向のシフトが大きく、y軸負方向のシフトが小さいため、肌トラブルを隠す効果が高く、肌が整って見える効果が低いと評価した。そして、化粧料の自然な仕上がり効果(総合評価)としては、「やや自然な仕上がりである」と評価した。以上のファンデーション1〜3の結果をまとめて表2に示す。
【0056】
実 施 例 3
ファンデーションの仕上がり判定方法(2):
専門パネル20名に、被験者の肌表面を、「肌トラブルを隠す効果」「肌が整って見える効果」及び「化粧料の自然な仕上がり効果」の3項目について、以下の評価基準で判定した。
【0057】
( 評価基準 )
4 点 : 非常に高い
3 点 : 高 い
2 点 : 普 通
1 点 : 低 い
0 点 : 非常に低い
【0058】
そして、上記の基準で判定した20名の平均点を算出し、以下の総合評価基準で判断した。この結果も併せて表2に示す。
【0059】
( 総合評価基準 )
3.5点以上 : ◎
2.5点以上3.5点未満 : ○
1.5点以上2.5点未満 : △
1.5点未満 : ×
【0060】
( 結 果 )
【表2】
Figure 0004001549
【0061】
表2の結果から、本発明の評価方法による判定は、専門パネルによる判定と相関が非常に高いものであり、本発明の方法が肌状態を評価する方法として妥当であることが確認できた。
【0062】
【発明の効果】
本発明の肌状態の評価方法は、被験者の肌の画像を用いて、化粧料の適用による肌トラブルを隠す効果、および肌が整って見える効果の程度を判断することにより、化粧料の自然な仕上がり感などの肌状態の評価を客観的かつ定量的に行うことを可能とするものである。
【0063】
そして、本発明の方法により、個人差のある化粧の仕上がり状態を客観的に把握することができるため、より自然で性能の優れた化粧料を開発することが可能となる。
【図面の簡単な説明】
【図1】 実施例1において、画像中の対象領域を示した図面である。
【図2】 実施例1において、対象領域の軸方向を示した図面である。
【図3】 実施例1において、代表色差値6での距離kをとSAN(k)の関係をプロットしたグラフである。
【図4】 実施例1において代表色差値とばらつき指数の関係をプロットしたグラフである。
【図5】 実施例2において、素肌時及びファンデーション1〜3を用いて化粧を施した場合の代表色差値とばらつき指数の関係をプロットしたグラフである。
以 上[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a skin condition evaluation method. More specifically, the present invention relates to a skin condition evaluation method capable of obtaining an evaluation result close to visual observation regarding evaluation of a skin condition such as a natural finish feeling of cosmetics.
[0002]
[Prior art]
In general, when makeup is applied to a woman's skin, it is often preferred that the finished state does not feel uncomfortable and is close to nature. Therefore, the cosmetics applied to the skin are developed with the goal of giving such a natural finish.
[0003]
However, the evaluation of whether the cosmetic applied to the skin has a natural finish often depends on the subjectivity of the evaluator, and the evaluation results may vary depending on the evaluator, evaluation time, etc. It was very difficult to measure objectively.
[0004]
Conventionally, the skin condition is also evaluated using a measuring device. For example, a measuring method using a color difference meter is known as a means from a macro viewpoint. However, this method measures and evaluates the average value of the skin tone, and does not evaluate whether the skin after makeup is close to the bare skin. Furthermore, as a means from a microscopic viewpoint, there is a method of measuring using a microscope or a microscope, but these only show the skin state microscopically, and the results obtained from these are used. It was difficult to judge the natural finish of cosmetics.
[0005]
On the other hand, as a method of evaluating the finished feeling of different cosmetics, evaluation by a paneler has been performed, but when evaluating using the skin of the same person, there is a problem that evaluation takes time. In addition, even in the case of a plurality of panelists, since evaluation is performed using another person's skin, there is a problem that the evaluation must be performed in consideration of the difference in the skin state of the panelists.
[0006]
In addition, a skin surface analysis system has been provided that takes a two-dimensional sample image of a sample skin surface, performs arithmetic processing, and analyzes and inspects skin surface unevenness and light reflection (for example, Patent Document 1). There are problems such as complicated operation, which is not always satisfactory.
[0007]
[Patent Document 1]
Japanese Patent No. 32367731 (page 1-10)
[0008]
[Problems to be solved by the invention]
Therefore, there has been a demand for providing a skin condition evaluation method that can objectively and quantitatively perform an evaluation close to visual judgment on the natural finish of cosmetics on the skin by a simple operation.
[0009]
[Means for Solving the Problems]
As a result of intensive studies to solve the above-mentioned problems, the present inventor has found that the natural finish of the cosmetics on the skin causes stains, wrinkles, bears, freckles, etc. that cause a color change on the skin by the application of the cosmetics. I found out that it is determined by whether or not the color change is inconspicuous, and whether or not the portion where the color change occurs on the skin is evenly distributed. In order to objectively and quantitatively express the degree of this natural finish, use a skin image obtained by imaging the subject's skin as a digital image. The present invention has been completed by calculating a variation index indicating whether or not and graphing the relationship between the two.
[0010]
That is, the present invention includes the following steps:
(1) A step of taking a skin image of a subject as a digital image,
(2) calculating a color difference between adjacent pixels for each unit pixel of the captured image and setting the predetermined color difference as a representative color difference (D (x, y));
(3) The representative color difference obtained in the above (2) is divided by a predetermined width to form a partial set (U (m)) in each division stage, and the number of unit pixels (N (m)) included in this partial set The process of seeking
(4) From the number of unit pixels obtained in (3) above and the total number of unit pixels (N 0 ) included in the target region,
Figure 0004001549
Obtaining the occupation distance OD (m) for each subset by
(5) For each subset obtained in (3) above, the number of neighboring unit pixels is calculated from the number of other unit pixels included in the same subset existing within a certain distance k for each unit pixel included in the subset. (SN (k)), and further dividing this number of pixels by the total number of unit pixels of each subset to obtain the average number of neighboring unit pixels (SAN (k));
(6) Deriving an approximate function from the relationship between the constant distance k and the average number of neighboring unit pixels,
(7) Substituting the occupation distance OD (m) obtained in (4) above into k of this function to obtain a variation index (AI (m));
(8) A step of graphing the relationship between the representative color difference obtained in (2) and the variation index,
(9) The present invention provides a skin condition evaluation method including a step of comparing the shape of this graph with other skin conditions.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
In order to carry out the evaluation method of the present invention, first, it is necessary to capture the skin image of the test object as a digital image.
[0012]
This imaging can be performed using a general digital camera, and the number of pixels is not particularly limited. Moreover, in this imaging, for example, when evaluating the naturalness of the finish after makeup, it is preferable to capture the skin condition and the state after makeup under the same conditions.
[0013]
Further, in order to more accurately determine the skin condition, it is preferable to remove the non-evaluation part from the skin image captured as described above to make an evaluation part (hereinafter, the digital image of this part is referred to as “ "Extracted image"). This non-evaluation part is a part unnecessary for the evaluation of the skin condition, and means, for example, hair or a background image. The unit area of the extracted image may be consciously set to a certain area depending on the purpose, but in general, a pixel (pixel) of the digital image may be used as it is as a unit area.
[0014]
Next, for each unit pixel of the captured image, it is necessary to calculate a color difference between adjacent pixels and obtain a representative color difference (D (x, y)). This color difference can be obtained from color information of each unit pixel, for example, brightness, saturation, and the like. The representative color difference can be determined by a predetermined method. For example, the representative color difference can be an average value of each color difference or the maximum value among them.
[0015]
Specifically, in order to obtain the representative color difference as the maximum color difference from the extracted image, which is a digital image, using brightness and saturation as the color information, the following may be performed. That is, first, the extracted image is converted into a bitmap (bmp) format using a commercially available image processing application (for example, PhotoShop® 6.0: manufactured by Adobe Systems), and RGB data for each pixel is acquired. .
[0016]
Next, the RGB data obtained as described above is converted into L * , a * and b * data. This conversion is performed using, for example, the following equation using a personal computer or the like.
[0017]
<Calculation formula of L * , a * and b * values>
[Equation 3]
Figure 0004001549
Wherein, R, G, B are the RGB values for each pixel (0 to 255), L *, a *, b * is L * of each pixel, a *, shows b * values, respectively, X 0 is 0.950, Y 0 is 1.00, Z 0 is 1.09]
[0018]
From the L * , a *, and b * data for each unit pixel obtained in this way, the color difference between each unit pixel and adjacent pixels is obtained. For example, in order to calculate the color difference (D) between the upper, lower, left and right unit pixels, the calculation may be performed according to the following formula. That is, the color difference in the following expression indicates the color difference between the pixel of interest (unit pixel) and the adjacent upper and lower pixels (y + 1 and y-1) and left and right pixels (x + 1 and x-1). is there.
[0019]
<Calculation formula of color difference (D)>
[Expression 4]
Figure 0004001549
[Where L * (x, y), a * (x, y) and b * (x, y) mean the L * , a * and b * values of the pixel at coordinates (x, y), respectively. To do]
[0020]
The color difference between each unit pixel and the adjacent unit pixel thus obtained is calculated, and then the representative color difference is obtained based on this color difference. For example, if it is predetermined that the representative color difference is the largest of the color differences, the representative color difference can be obtained according to the following equation.
[Equation 5]
Figure 0004001549
[Where, max (D 1 , D 2 , D 3 , D 4 ) means the maximum color difference between adjacent unit pixels, and D (x, y) is a representative of the pixel at coordinates (x, y). Means color difference]
[0021]
Next, the representative color difference obtained above is divided into several parts, and a subset (U (m)) in each division stage (m) is obtained, and the total number of unit pixels (N (m) included in this subset is obtained. (Hereafter, a single number m is used as the representative color difference value of each unit pixel included in the subset (U (m)).) The stage of this division can be, for example, an integer, The subset (U (m)) in that case is expressed by the following equation.
[Formula 6]
Figure 0004001549
[In the formula, m is an integer of 0 or more, and D (x, y) means a representative color difference of a pixel at coordinates (x, y)]
[0022]
Further, from this subset (U (m)), the total number of pixels (N (m)) and the total number of unit pixels (N 0 ) in the extracted image belonging to this are all included in the target region. , The subset (U (m)) belonging to each pixel is determined from the representative color difference (D (x, y)), and the number of pixels included in each subset is counted. The total number of pixels (N (m)) in the extracted image belonging to U (m)) and the total number of unit pixels (N 0 ) included in the target region can be obtained.
[0023]
Further, from the number of unit pixels (N (m)) obtained as described above and the total number of unit pixels (N 0 ) included in the target region, the occupation distance OD (m (m) for each subset is obtained by the following equation. )
[Expression 7]
Figure 0004001549
[0024]
And this occupancy distance is the maximum distance where no unit pixels in the same subset exist, assuming that the unit pixels in a subset are ideally evenly distributed in the entire region. means.
[0025]
On the other hand, for each subset obtained above, the number of neighboring unit pixels (SN (k)) is calculated from the number of other unit pixels included in the same subset existing within a certain distance k for each unit pixel included in the subset. And the number of pixels is divided by the number of unit pixels included in the same subset to determine the average number of neighboring unit pixels (SAN (k)).
[0026]
The number of neighboring unit pixels SN (k) is obtained by scanning the pixels existing within a certain distance k for each pixel in the subset and counting the number of other pixels belonging to the same subset. be able to. In addition, the distance k here is represented by the following formula (14) for two points P (p x , p y ) and Q (q x , q y ) in the subset.
[0027]
[Equation 8]
Figure 0004001549
[0028]
SN (k) means the total number of unit pixels belonging to the same subset existing in a circle of distance k for each subset U (m). The average neighboring unit pixel number SAN (k) means the average number of the same unit pixels existing within the distance k for each unit.
[0029]
Next, the relationship between the distance k and the average number of neighboring unit pixels SAN (k) is obtained, and an approximate expression representing the relationship between k and SAN (k) is obtained from the relationship. Specifically, for example, the corresponding SAN (k) (SAN (1), SAN (2), SAN (3)... When the distance k is changed to about 1, 2, 3,. ..., SAN (10)) is calculated, and each value is substituted into an approximate expression to create simultaneous equations. The coefficients of the approximate expression are determined from the approximate solution determined by the least square method, and k and SAN ( It can be an approximate expression that represents the relationship between k).
[0030]
For example, when the following quintic equation is used as an approximate expression, a simultaneous equation is created by substituting the value of k for x and the value of SAN (k) for f (x), and the least square method Is used to obtain an approximate solution of a to f, and an approximate expression representing the relationship between k and SAN (k) can be obtained.
[Equation 9]
Figure 0004001549
[0031]
Substituting each occupation distance OD (m) obtained by the above equation (13) in place of the distance k into the term x of the approximate equation obtained as described above, a value f (OD (m)) is obtained. However, in the present invention, this value is referred to as a variation index (AI (m)). This variation index is an index indicating whether or not the distribution of pixels in a subset of pixels is uniform. For a subset U of a certain pixel, all the pixels have a color difference within a certain range. On the other hand, the value is 0 when the distribution is ideally uniform, while the value becomes larger as the pixel distribution is biased. Specifically, a value indicating how many other color-difference pixels exist when the pixels in such a subset are moved by an occupation distance described later with respect to other pixels existing in the vertical and horizontal directions. It is.
[0032]
The variation index (AI (m)) obtained as described above is obtained for each representative color difference and is graphed in relation to the representative color difference value. For example, the representative color difference value may be plotted as the x-axis (horizontal axis), the corresponding variation index as the y-axis (vertical axis), and the relationship between the representative color difference value and the variation index may be displayed as a graph.
[0033]
The relationship between the representative color difference value and the variation index thus obtained is useful for evaluating the skin condition of the subject. That is, on this curve, for example, the skin condition by makeup can be evaluated on the basis of which direction the graph obtained for the skin of the subject who made up is shifted compared to the graph obtained for the bare skin.
[0034]
Specifically, the evaluation can be performed according to the direction in which the curve is shifted depending on the position and height of the curve, and the change in the negative x-axis direction is a state in which the color difference of the subset is low. It is interpreted that the skin trouble (pores, spots, wrinkles, bears, etc.) with noticeable color change on the skin is highly effective.
[0035]
In addition, the change in the negative y-axis direction is a state where the variation index of the subset is low, and the part where the color change on the skin is uniformly distributed, the effect of making the skin look good Interpreted as high.
[0036]
These evaluation and determination methods are summarized as follows.
x-axis positive shift:
A state in which the color difference of the subset is generally high. The effect of hiding skin problems is low.
x-axis negative shift:
A state in which the color difference of the subset is low overall. Highly effective in hiding skin problems.
Shift in the positive y-axis direction:
A state in which the variation index of the subset is generally high. The effect that the skin is in order is low.
Shift in negative y-axis direction:
A state in which the variation index of the subset is low overall. Highly effective skin appearance.
[0037]
【Example】
EXAMPLES Next, although an Example is given and this invention is demonstrated in more detail, this invention is not restrict | limited at all by these Examples.
[0038]
Example 1
Check the relationship between color difference and dispersion index:
Under the fluorescent lamp for color evaluation, the face of the subject was imaged using a 5 million pixel digital camera (CAMEDIA E-20: manufactured by Olympus Optical Co., Ltd.) against a blue, non-glossy cloth. The imaging magnification was a magnification corresponding to a range of 100 μm × 100 μm per pixel.
[0039]
Next, the target region and the non-target region were discriminated visually from the captured image, and the non-target region was removed as shown in FIG. 1 to obtain an extracted image. The obtained extracted image is converted into a bitmap (bmp) format using a commercially available image processing application (Adobe PhotoShop (R) 6.0: manufactured by Adobe Systems), and RGB data for each pixel of the extracted image is converted I got it.
[0040]
From the RGB data for this extracted image, the L * a * b * value of each dot was calculated by the following equation.
[Expression 10]
Figure 0004001549
(Wherein, R, G and B are the RGB values of 256 gradations for each dot, L *, a *, b * refers to the L * a * b * value of each dot. Further, X (0 is 0.950, Y 0 is 1.00, Z 0 is 1.09)
[0041]
Based on the L * , a *, and b * values of each pixel calculated in this manner, the color differences D 1 to D 4 between the unit pixels adjacent in the vertical and horizontal directions are obtained by the following equations.
[Expression 11]
Figure 0004001549
[0042]
These D 1 to D 4 are compared, the one with the largest color difference is selected, and this is multiplied by 3 to obtain the representative color difference D (x, y). This operation was performed for each unit pixel, and the representative color difference of all the pixels in the target area was obtained. The color difference was calculated in the axial direction as shown in FIG.
[0043]
Next, the color differences are divided into integers 1, representative color differences D (x, y) that fall into the respective sections are collected, and a subset U (m) is set for each section. Each subset is given by
Figure 0004001549
(Where m is an integer greater than or equal to 0)
The representative color difference value of the unit pixel included in each subset is an integer m. Therefore,
[Formula 13]
Figure 0004001549
The representative color difference value of the unit pixel that satisfies the condition is an integer 1.
[0044]
Further, the number of unit pixels N (m) included in the subset U (m) is obtained, and from this number of pixels and the number of pixels N 0 of the entire extracted image, the following equation:
Figure 0004001549
Was used to calculate the occupation distance OD (m).
[0045]
Specifically, the obtained number of pixels and occupied distance for the target region in FIG. 1 are as shown in the following Table 1 (the total number of pixels N 0 is 503314).
[0046]
[Table 1]
Figure 0004001549
[0047]
Separately, when the distance k (one pixel length) is changed to 1, 2, 3,..., 10 with respect to the subset U (m), the number of other unit pixels (SN (k )). SAN (k) was calculated by dividing this SN (k) by the number of pixels (N (m)) in the same subset. FIG. 3 shows the result of plotting the relationship between the distance k and the SAN (k) at the representative color difference value 6 on the graph for the target region in FIG.
[0048]
On the other hand, the above-mentioned quintic equation is used as an approximate expression, and the numerical value of k is substituted for x and the numerical value of SAN (k) is substituted for f (x) to create simultaneous equations. The approximate solutions of a to f shown were obtained.
a = 0.00003
b = −0.0009
c = 0.0081
d = 0.551
e = 0.325
f = −0.0375
[0049]
By substituting these values into the quintic equation, the following equation was obtained as an approximate equation for the representative color difference 6. In addition, the curve which this type | formula shows is shown as a continuous line in FIG.
[Expression 15]
Figure 0004001549
[0050]
The variation index AI (= 2.14) at the representative color difference value 6 was calculated by substituting the occupied distance OD (= 2.02) obtained previously in the approximate expression x thus obtained. .
[0051]
Similarly, each variation index was obtained for each representative color difference value. Among these, for representative color difference values 4 to 9, the relationship of the variation index is plotted and a graph is shown in FIG.
[0052]
Example 2
Foundation finish judging method (1):
Using the method shown in Example 1, for the same subject, the relationship of the variation index of the color difference after makeup with foundations 1 to 3 was determined and each graph was made, and compared with the graph obtained in the state of bare skin. The results are shown in FIG. When applying the foundation, a common base latex was used, and the coating was applied with the same coating amount for each foundation.
[0053]
From this result, when makeup is made using Foundation 1, there is less shift in the negative x-axis direction and greater shift in the negative y-axis direction compared to the bare skin state, so the effect of hiding skin troubles is low, and the skin Evaluated that the effect of looking at is high. And, as a natural finish effect (comprehensive evaluation) of cosmetics, it was evaluated as “slightly natural finish”.
[0054]
In addition, Foundation 2 was evaluated as having a high effect of hiding skin troubles and an effect of making the skin look good because the shift in the x-axis negative direction and the y-axis negative direction was large compared to bare skin. And as a natural finish effect (comprehensive evaluation) of cosmetics, it was evaluated as "very natural finish".
[0055]
Furthermore, since foundation 3 has a large shift in the negative x-axis direction and a small shift in the negative y-axis direction compared to bare skin, it was evaluated that the effect of hiding skin troubles was high and the effect of making the skin look good was low. And, as a natural finish effect (comprehensive evaluation) of cosmetics, it was evaluated as “slightly natural finish”. The results of the above foundations 1 to 3 are summarized in Table 2.
[0056]
Example 3
Foundation finish judging method (2):
Twenty expert panels evaluated the skin surface of the subjects according to the following evaluation criteria for three items of “effect of hiding skin troubles”, “effect of making the skin look good”, and “natural finish effect of cosmetics”.
[0057]
( Evaluation criteria )
4 points: very high 3 points: high 2 points: normal 1 point: low 0 point: very low [0058]
And the average score of 20 persons judged according to the above criteria was calculated, and judged according to the following comprehensive evaluation criteria. The results are also shown in Table 2.
[0059]
(Comprehensive evaluation criteria)
3.5 points or more: ◎
2.5 points or more and less than 3.5 points: ○
1.5 points or more and less than 2.5 points: △
Less than 1.5 points: ×
[0060]
(Result)
[Table 2]
Figure 0004001549
[0061]
From the results of Table 2, the determination by the evaluation method of the present invention has a very high correlation with the determination by the specialized panel, and it was confirmed that the method of the present invention is appropriate as a method for evaluating the skin condition.
[0062]
【The invention's effect】
The skin condition evaluation method of the present invention uses a skin image of a subject to determine the degree of the effect of hiding skin troubles due to the application of cosmetics and the effect of making the skin appear to be natural. This makes it possible to objectively and quantitatively evaluate the skin condition such as the finished feeling.
[0063]
Since the method of the present invention makes it possible to objectively grasp the finished state of makeup with individual differences, it is possible to develop more natural and superior cosmetics.
[Brief description of the drawings]
FIG. 1 is a drawing showing a target area in an image in Example 1. FIG.
FIG. 2 is a diagram showing an axial direction of a target area in Example 1.
3 is a graph plotting a relationship between a distance k at a representative color difference value of 6 and SAN (k) in Example 1. FIG.
4 is a graph plotting a relationship between a representative color difference value and a variation index in Example 1. FIG.
FIG. 5 is a graph plotting the relationship between the representative color difference value and the variation index when applying makeup using bare skin and foundations 1 to 3 in Example 2.
more than

Claims (6)

次の工程、
(1)被検対象の肌画像をデジタル画像として撮像する工程、
(2)撮像した画像の各単位画素ごとに、隣接する画素との間での色差を算出し、所定の色差を代表色差(D(x,y))とする工程、
(3)上記(2)で得た代表色差を、所定幅で区分して各区分段階における部分集合(U(m))とし、この部分集合に含まれる単位画素数(N(m))を求める工程、
(4)上記(3)で得た単位画素数と、対象となる領域に含まれる全単位画素数(N0)から、次の式
Figure 0004001549
により各部分集合毎の占有距離OD(m)を求める工程、
(5)上記(3)で得た各部分集合について、この部分集合に含まれる単位画素毎に一定距離k以内に存在する同じ部分集合に含まれる他の単位画素数から、近隣単位画素数(SN(k))を求め、更にこの画素数を各部分集合の全単位画素数で割り、平均近隣単位画素数(SAN(k))を求める工程、
(6)一定距離kと平均近隣単位画素数の関係から、近似関数を導く工程、
(7)この関数のkに上記(4)で求めた占有距離OD(m)を代入してばらつき指数(AI(m))を求める工程、
(8)上記(2)で求めた代表色差とばらつき指数の関係をグラフ化する工程、
(9)このグラフの形状を他の肌状態と比較する工程
を含む肌における化粧料の自然な仕上がり感の評価方法。
Next step,
(1) A step of taking a skin image of a subject as a digital image
(2) calculating a color difference between adjacent pixels for each unit pixel of the captured image and setting the predetermined color difference as a representative color difference (D (x, y));
(3) The representative color difference obtained in the above (2) is divided by a predetermined width into a subset (U (m)) at each division stage, and the number of unit pixels (N (m)) included in this subset is determined. The desired process,
(4) From the number of unit pixels obtained in (3) above and the total number of unit pixels (N 0 ) included in the target region,
Figure 0004001549
Obtaining the occupation distance OD (m) for each subset by
(5) For each subset obtained in (3) above, from the number of other unit pixels included in the same subset existing within a certain distance k for each unit pixel included in this subset, the number of neighboring unit pixels ( SN (k)), and further dividing this number of pixels by the total number of unit pixels of each subset to obtain the average number of neighboring unit pixels (SAN (k)).
(6) Deriving an approximate function from the relationship between the constant distance k and the average number of neighboring unit pixels,
(7) Substituting the occupation distance OD (m) obtained in (4) above into k of this function to obtain a variation index (AI (m));
(8) A step of graphing the relationship between the representative color difference obtained in (2) and the variation index,
(9) A method for evaluating the natural finish of cosmetics on the skin, including a step of comparing the shape of this graph with other skin conditions.
素肌状態で得られたグラフと化粧後の肌状態で得られたグラフを比較するものである請求項第1項記載の肌における化粧料の自然な仕上がり感の評価方法。The method for evaluating the natural finish of cosmetics on the skin according to claim 1, wherein the graph obtained in the bare skin state is compared with the graph obtained in the skin state after makeup . 単位画素とこの領域に隣接する画素の色差を、これらの領域の明度および彩度から算出する請求項第1項または第2項記載の肌における化粧料の自然な仕上がり感の評価方法。3. The method for evaluating the natural finish of cosmetics on the skin according to claim 1, wherein the color difference between the unit pixel and the pixel adjacent to the region is calculated from the brightness and saturation of these regions. 単位画素に隣接する画素が、単位画素の上下左右に同じ面積で隣接する画素である請求項第1項ないし第3項の何れかの項記載の肌における化粧料の自然な仕上がり感の評価方法。 4. A method for evaluating a natural finish of a cosmetic on a skin according to claim 1, wherein the pixels adjacent to the unit pixel are pixels adjacent in the same area on the top, bottom, left, and right of the unit pixel. . 代表色差が、最も大きい色差である請求項第1項ないし第4項の何れかの項記載の肌における化粧料の自然な仕上がり感の評価方法。The method for evaluating a natural finish of a cosmetic on a skin according to any one of claims 1 to 4, wherein the representative color difference is the largest color difference. 近似関数が、5次関数である請求項第1項ないし第5項の何れかの項記載の肌における化粧料の自然な仕上がり感の評価方法。6. The method for evaluating a natural finish feeling of a cosmetic on a skin according to any one of claims 1 to 5, wherein the approximate function is a quintic function.
JP2002358509A 2002-12-10 2002-12-10 Evaluation method of skin condition Expired - Fee Related JP4001549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002358509A JP4001549B2 (en) 2002-12-10 2002-12-10 Evaluation method of skin condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002358509A JP4001549B2 (en) 2002-12-10 2002-12-10 Evaluation method of skin condition

Publications (2)

Publication Number Publication Date
JP2004187879A JP2004187879A (en) 2004-07-08
JP4001549B2 true JP4001549B2 (en) 2007-10-31

Family

ID=32758210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002358509A Expired - Fee Related JP4001549B2 (en) 2002-12-10 2002-12-10 Evaluation method of skin condition

Country Status (1)

Country Link
JP (1) JP4001549B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6251489B2 (en) * 2013-03-28 2017-12-20 株式会社 資生堂 Image analysis apparatus, image analysis method, and image analysis program
JP6359389B2 (en) * 2014-09-02 2018-07-18 花王株式会社 Evaluation method for aesthetic impression of lips and support device for supporting the evaluation
JP7401866B2 (en) * 2021-12-17 2023-12-20 株式会社モルフォ Image processing device, terminal, monitoring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3236731B2 (en) * 1994-02-23 2001-12-10 カネボウ株式会社 Skin surface analysis system and skin surface analysis method
JP3351958B2 (en) * 1995-05-23 2002-12-03 ポーラ化成工業株式会社 Skin evaluation method
JP3349026B2 (en) * 1995-11-09 2002-11-20 カネボウ株式会社 Skin surface analysis device and skin surface evaluation method

Also Published As

Publication number Publication date
JP2004187879A (en) 2004-07-08

Similar Documents

Publication Publication Date Title
JP5146667B2 (en) Evaluation method of skin smoothness
JP6476510B2 (en) Skin condition discrimination method based on color information obtained by a colorimetric device
US20080304736A1 (en) Method of estimating a visual evaluation value of skin beauty
JP4761924B2 (en) Skin condition diagnosis system and beauty counseling system
KR101672047B1 (en) Method and apparatus for characterizing pigment spots, and its application in a method of assessing the pigmenting or depigmenting effect of a cosmetic, dermatological or pharmaceutical product
JP3351958B2 (en) Skin evaluation method
JP3426052B2 (en) Skin evaluation device
CN108024719B (en) Skin gloss evaluation device, gloss evaluation method, and recording medium
JP5426475B2 (en) Skin color unevenness analysis apparatus, skin color unevenness analysis method, and skin color unevenness analysis program
JP2009509708A (en) Method and apparatus for evaluating characteristics of defective part of skin and method for evaluating anti-aging effect of cosmetic product
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
WO2008042831A2 (en) Apparatus and method for analyzing skin using l*a*b* colorspace
JP2009082338A (en) Skin discrimination method using entropy
JP5753055B2 (en) Skin image analysis apparatus and skin image analysis method
JP4383352B2 (en) Histological evaluation of nuclear polymorphism
JP2004166801A (en) Evaluation method for luster of skin
JP7254868B2 (en) Skin strain measurement method
JP4001549B2 (en) Evaluation method of skin condition
WO2018203514A1 (en) Image analysis evaluation method, computer program, and image analysis evaluation device
JP2944309B2 (en) Skin surface morphological feature detection method
JP2007252892A (en) Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
JP2004283357A (en) Method of forming simulation picture of skin
CN108135346B (en) Skin evaluation device, skin evaluation method, and recording medium
JP2011118655A (en) Apparatus and method for processing image
JP2021121328A (en) Skin condition discrimination method, cosmetic evaluation method, and cosmetic design method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070710

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070814

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130824

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees