JP2011206513A - Image analysis method, evaluation method, image analyzer and image analysis program - Google Patents
Image analysis method, evaluation method, image analyzer and image analysis program Download PDFInfo
- Publication number
- JP2011206513A JP2011206513A JP2010199389A JP2010199389A JP2011206513A JP 2011206513 A JP2011206513 A JP 2011206513A JP 2010199389 A JP2010199389 A JP 2010199389A JP 2010199389 A JP2010199389 A JP 2010199389A JP 2011206513 A JP2011206513 A JP 2011206513A
- Authority
- JP
- Japan
- Prior art keywords
- image
- skin
- analysis
- subject
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、画像解析方法、評価方法、画像解析装置、及び画像解析プログラムに係り、特に近赤外領域の画像を用いて皮膚等の解析を高精度に行うための画像解析方法、評価方法、画像解析装置、及び画像解析プログラムに関する。 The present invention relates to an image analysis method, an evaluation method, an image analysis apparatus, and an image analysis program, and in particular, an image analysis method, an evaluation method for performing analysis of skin and the like with high accuracy using an image in the near infrared region, The present invention relates to an image analysis apparatus and an image analysis program.
近年、顔の水分変化を可視化するために近赤外カメラを用いて2枚の近赤外分光画像を用いて顔表面に塗布した保湿液の可視化を行う技術が開示されている(例えば、非特許文献1)。 In recent years, a technique for visualizing a moisturizing liquid applied to the face surface using two near-infrared spectroscopic images using a near-infrared camera in order to visualize the moisture change of the face has been disclosed (for example, non- Patent Document 1).
非特許文献1に示されている技術は、波長900〜1700nmまで感度を持つInGaAs近赤外カメラ(Sensors Unlimited,Inc.SU320M−1.7RT)を用いて顔の計測を行い、取得した2枚の近赤外分光画像を用いて差分吸光度画像に変換することで、顔に塗布した保湿液のみの可視化を実現している。 The technique shown in Non-Patent Document 1 is obtained by measuring a face using an InGaAs near-infrared camera (Sensors Unlimited, Inc. SU320M-1.7RT) having a sensitivity up to a wavelength of 900 to 1700 nm. Visualization of only the moisturizing liquid applied to the face is realized by converting to a differential absorbance image using the near-infrared spectroscopic image.
また、近赤外を用いて皮膚水分量を鑑別する手法も開示されている(例えば、特許文献1参照)。 Moreover, the method of discriminating the amount of skin moisture using near infrared is also disclosed (for example, refer patent document 1).
特許文献1に示されている技術は、1050〜1650nmの近赤外波長域に対して皮膚の複数点の反射強度を得る工程と、予め用意した皮膚水分量と近赤外波長域の反射強度との関係を示す予測式に前記工程で得られた反射強度を代入して複数点の皮膚水分量を得る工程と、得られた複数点の皮膚水分量から皮膚水分量分布を鑑別することが示されている。 The technique disclosed in Patent Document 1 includes a step of obtaining reflection intensity at a plurality of points on the skin in the near infrared wavelength range of 1050 to 1650 nm, a skin moisture content prepared in advance, and a reflection intensity in the near infrared wavelength range. Substituting the reflection intensity obtained in the above step into the prediction formula showing the relationship between the skin moisture content at a plurality of points and distinguishing the skin moisture content distribution from the obtained skin moisture content at a plurality of points. It is shown.
ここで、上述した従来技術において、非特許文献1では顔における水の強い吸収がある波長は1460nmとされており、一方、水の吸収がない波長は1060nmであることが示されている。また、特許文献1でも、1050〜1650nmの波長領域を基準としているのは、1450nm付近に存在する水の吸収波長前後の近赤外波長域に着目しているためである。 Here, in the above-described prior art, Non-Patent Document 1 shows that the wavelength at which strong absorption of water in the face is 1460 nm, while the wavelength without absorption of water is 1060 nm. Also in Patent Document 1, the wavelength range of 1050 to 1650 nm is based on the focus on the near-infrared wavelength region around the absorption wavelength of water existing in the vicinity of 1450 nm.
しかしながら、水(OH基)は、1920nm付近にも強い吸収があり、更に油(CH基)についても1750nm付近や2230〜2400nm付近に吸収がある。したがって、これらの特性を用いて肌の水分や油分に対する画像を高精度に行うことが好ましいが、そのような手法はまだ開示されていない。また、上述したような肌に対する水や油の吸収が強い部分を複数用いて肌に対する解析、評価、更には肌のカウンセリング等を行うことが好ましいが、これらの手法についても開示されていない。 However, water (OH group) has strong absorption around 1920 nm, and oil (CH group) also has absorption near 1750 nm and 2230-2400 nm. Therefore, it is preferable to perform an image of skin moisture and oil content with high accuracy using these characteristics, but such a method has not yet been disclosed. Moreover, although it is preferable to perform analysis, evaluation, skin counseling, etc. with respect to the skin by using a plurality of portions where water or oil is strongly absorbed as described above, these methods are not disclosed.
本発明は、上述した課題に鑑みてなされたものであって、近赤外領域の画像を用いて皮膚等の解析を高精度に行うための画像解析方法、評価方法、画像解析装置、及び画像解析プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and is an image analysis method, an evaluation method, an image analysis apparatus, and an image for performing analysis of skin and the like with high accuracy using an image in the near infrared region. The purpose is to provide an analysis program.
上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。 In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.
請求項1に記載された発明は、複数の異なる近赤外領域において撮影された被写体の顔画像を用いて、該被写体の皮膚の解析を行う画像解析方法において、前記被写体に皮膚外用剤を塗布する前後における前記顔画像を取得する画像取得ステップと、前記画像取得ステップにより取得した画像に輝度補正を行う輝度補正ステップと、前記輝度補正ステップにより得られた前記皮膚外用剤を塗布する前後の画像の差分量を前記複数の異なる近赤外領域毎に取得する差分量取得ステップと、前記差分量取得ステップにより得られる差分量に基づいて前記被写体の皮膚を解析する解析ステップと、前記解析ステップにより得られた解析結果を表示する画面を生成する画面生成ステップとを有することを特徴とする。 The invention described in claim 1 is an image analysis method for analyzing the skin of a subject using face images of the subject photographed in a plurality of different near-infrared regions, and applying a skin external preparation to the subject An image acquisition step for acquiring the face image before and after performing, a luminance correction step for performing luminance correction on the image acquired by the image acquisition step, and an image before and after applying the skin external preparation obtained by the luminance correction step A difference amount acquisition step for acquiring the difference amount for each of the plurality of different near infrared regions, an analysis step for analyzing the skin of the subject based on the difference amount obtained by the difference amount acquisition step, and the analysis step And a screen generation step of generating a screen for displaying the obtained analysis result.
請求項1記載の発明によれば、近赤外領域の画像を用いて皮膚等の解析を高精度に行うことができる。更に、その解析結果から、皮膚等に対する高精度な評価を行うことができる。 According to the first aspect of the present invention, it is possible to analyze skin and the like with high accuracy using an image in the near infrared region. Furthermore, it is possible to evaluate the skin and the like with high accuracy from the analysis result.
請求項2に記載された発明は、前記複数の近赤外領域は、1100〜1360nm、1300〜1640nm、1860〜2200nm、1700〜1860nm、及び2230〜2400nmのうち、少なくとも2つの帯域であることを特徴とする。 The invention described in claim 2 is that the plurality of near-infrared regions are at least two bands among 1100 to 1360 nm, 1300 to 1640 nm, 1860 to 2200 nm, 1700 to 1860 nm, and 2230 to 2400 nm. Features.
請求項2記載の発明によれば、近赤外領域でも光の吸収特性の高い領域における画像を取得することで、高精度な画像解析を行うことができる。 According to the second aspect of the present invention, high-accuracy image analysis can be performed by acquiring an image in a region having high light absorption characteristics even in the near-infrared region.
請求項3に記載された発明は、前記画面生成ステップは、前記差分量取得ステップにより得られた差分量の大きさに基づいて予め設定された色又は模様により所定の画素毎に強調表示した画面を生成することを特徴とする。 According to a third aspect of the present invention, in the screen generating step, the screen is highlighted for each predetermined pixel with a color or pattern set in advance based on the difference amount obtained in the difference amount acquiring step. Is generated.
請求項3記載の発明によれば、強調表示することにより、皮膚外用剤の塗布前後の皮膚の差をより明確に提示することができる。 According to invention of Claim 3, the difference of the skin before and behind application | coating of a skin external preparation can be shown more clearly by highlighting.
請求項4に記載された発明は、前記解析ステップは、前記画面生成ステップにより得られた解析結果の画面から、ユーザにより設定される前記画面中の所定領域に対する輝度変化値を算出することを特徴とする。 The invention described in claim 4 is characterized in that the analysis step calculates a luminance change value for a predetermined region in the screen set by the user from the screen of the analysis result obtained by the screen generation step. And
請求項4記載の発明によれば、ユーザが所望する位置における輝度変化を迅速且つ高精度に取得することができる。 According to invention of Claim 4, the brightness | luminance change in the position which a user desires can be acquired rapidly and with high precision.
請求項5に記載された発明は、請求項1乃至4の何れか1項に記載の画像解析方法により得られる解析結果に基づいて、前記被写体の肌に対する洗浄料による保湿効果の評価及び/又は化粧料の付着状態の評価を行う評価ステップを有することを特徴とする評価方法である。 According to a fifth aspect of the present invention, based on an analysis result obtained by the image analysis method according to any one of the first to fourth aspects, the evaluation of the moisturizing effect by the cleaning material on the skin of the subject and / or It is an evaluation method characterized by having an evaluation step which evaluates the adhesion state of cosmetics.
請求項5記載の発明によれば、近赤外領域の画像を用いて皮膚等の解析を高精度に行ことで、更に洗浄料による保湿効果及び/又は化粧料の付着状態に対して高精度な評価を行うことができる。 According to the fifth aspect of the present invention, the skin and the like are analyzed with high accuracy using an image in the near-infrared region. Can be evaluated.
請求項6に記載された発明は、複数の異なる近赤外領域において撮影された被写体の顔画像を用いて、該被写体の皮膚の解析を行う画像解析装置において、前記被写体に皮膚外用剤を塗布する前後における前記顔画像を取得する画像取得手段と、前記画像取得手段により取得した画像に輝度補正を行う輝度補正手段と、前記輝度補正手段により得られた前記皮膚外用剤を塗布する前後の画像の差分量を前記複数の異なる近赤外領域毎に取得する差分量取得手段と、前記差分量取得手段により得られる差分量に基づいて前記被写体の皮膚を解析する解析手段と、前記解析手段により得られた解析結果を表示する画面を生成する画面生成手段とを有することを特徴とする。 According to a sixth aspect of the present invention, in the image analysis apparatus for analyzing the skin of a subject using face images of the subject photographed in a plurality of different near-infrared regions, a skin external preparation is applied to the subject. Image acquisition means for acquiring the face image before and after the image acquisition, luminance correction means for correcting the luminance of the image acquired by the image acquisition means, and images before and after applying the skin external preparation obtained by the luminance correction means Difference amount acquisition means for acquiring the difference amount for each of the plurality of different near infrared regions, analysis means for analyzing the skin of the subject based on the difference amount obtained by the difference amount acquisition means, and the analysis means Screen generating means for generating a screen for displaying the obtained analysis result.
請求項6記載の発明によれば、近赤外領域の画像を用いて皮膚等の解析を高精度に行うことができる。更に、その解析結果から、皮膚等に対する高精度な評価を行うことができる。 According to the sixth aspect of the invention, it is possible to analyze the skin and the like with high accuracy using an image in the near infrared region. Furthermore, it is possible to evaluate the skin and the like with high accuracy from the analysis result.
請求項7に記載された発明は、前記複数の近赤外領域は、1100〜1360nm、1300〜1640nm、1860〜2200nm、1700〜1860nm、及び2230〜2400nmのうち、少なくとも2つの帯域であることを特徴とする。 The invention described in claim 7 is that the plurality of near-infrared regions are at least two bands among 1100 to 1360 nm, 1300 to 1640 nm, 1860 to 2200 nm, 1700 to 1860 nm, and 2230 to 2400 nm. Features.
請求項7記載の発明によれば、近赤外領域でも光の吸収特性の高い領域における画像を取得することで、高精度な画像解析を行うことができる。 According to the seventh aspect of the invention, it is possible to perform highly accurate image analysis by acquiring an image in a region having a high light absorption characteristic even in the near infrared region.
請求項8に記載された発明は、前記画面生成手段は、前記差分量取得手段により得られた差分量の大きさに基づいて予め設定された色又は模様により所定の画素毎に強調表示した画面を生成することを特徴とする。 The invention described in claim 8 is a screen in which the screen generation unit highlights each predetermined pixel with a color or pattern set in advance based on the difference amount obtained by the difference amount acquisition unit. Is generated.
請求項8記載の発明によれば、強調表示することにより、皮膚外用剤の塗布前後の皮膚の差をより明確に提示することができる。 According to invention of Claim 8, the difference of the skin before and behind application | coating of a skin external preparation can be shown more clearly by highlighting.
請求項9に記載された発明は、前記解析手段は、前記画面生成手段により得られた解析結果の画面から、ユーザにより設定される前記画面中の所定領域に対する輝度変化値を算出することを特徴とする。 The invention described in claim 9 is characterized in that the analysis means calculates a luminance change value for a predetermined area in the screen set by the user from the analysis result screen obtained by the screen generation means. And
請求項9記載の発明によれば、ユーザが所望する位置における輝度変化を迅速且つ高精度に取得することができる。 According to the ninth aspect of the present invention, it is possible to quickly and accurately acquire the luminance change at the position desired by the user.
請求項10に記載された発明は、前記解析手段により得られた解析結果に基づいて、前記被写体の肌に対する洗浄料による保湿効果の評価及び/又は化粧料の付着状態の評価を行う評価手段を有することを特徴とする。 The invention described in claim 10 is an evaluation means for evaluating the moisturizing effect of the cleaning material on the skin of the subject and / or evaluating the adhesion state of the cosmetic based on the analysis result obtained by the analyzing means. It is characterized by having.
請求項10記載の発明によれば、近赤外領域の画像を用いて皮膚等の解析を高精度に行ことで、更に洗浄料による保湿効果及び/又は化粧料の付着状態に対して高精度な評価を行うことができる。 According to the tenth aspect of the present invention, the skin and the like are analyzed with high accuracy using an image in the near-infrared region. Can be evaluated.
請求項11に記載された発明は、コンピュータを、請求項6乃至10の何れか1項に記載の画像解析装置として機能させることを特徴とする画像解析プログラムである。 The invention described in claim 11 is an image analysis program that causes a computer to function as the image analysis apparatus described in any one of claims 6 to 10.
請求項11記載の発明によれば、近赤外領域の画像を用いて皮膚等の解析を高精度に行うことができる。また、その解析結果から、皮膚等に対する高精度な評価を行うことができる。更に、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における皮膚外用剤の画像解析処理を容易に実現することができる。 According to the eleventh aspect of the present invention, skin and the like can be analyzed with high accuracy using an image in the near infrared region. Moreover, highly accurate evaluation with respect to skin etc. can be performed from the analysis result. Furthermore, by installing the program, the image analysis processing of the external preparation for skin in the present invention can be easily realized by a general-purpose personal computer or the like.
本発明によれば、近赤外領域の画像を用いて皮膚の解析を高精度に行うことができる。 According to the present invention, skin analysis can be performed with high accuracy using an image in the near infrared region.
<本発明について>
本発明は、例えば波長領域800〜2500nmまで撮影可能な近赤外カメラを用いて、約1460nm付近の水の吸収特性に加えて約1750nm付近の油の吸収特性、約1920nm付近の水の強い吸収特性、及び2230〜2400nm付近にある複数の油の強い吸収特性に対する被写体の画像を取得し、取得した画像に対して肌等の解析や評価等を行う。なお、本発明における近赤外光とは、具体的には、約800〜2500nm付近の波長の光を意味している。
<About the present invention>
The present invention uses, for example, a near-infrared camera capable of photographing in the wavelength region of 800 to 2500 nm, in addition to the absorption characteristic of water around 1460 nm, the absorption characteristic of oil around 1750 nm, and the strong absorption of water around 1920 nm. An image of a subject with respect to the characteristics and the strong absorption characteristics of a plurality of oils in the vicinity of 2230 to 2400 nm is acquired, and analysis and evaluation of skin and the like are performed on the acquired images. The near infrared light in the present invention specifically means light having a wavelength of about 800 to 2500 nm.
ここで、図1は、近赤外領域における皮膚の吸収特性の一例を示す図である。ここで、図1に示すグラフの横軸は測定波長(nm)を示し、縦軸は吸光度(Absorbance,A/W)を示している。 Here, FIG. 1 is a diagram showing an example of skin absorption characteristics in the near-infrared region. Here, the horizontal axis of the graph shown in FIG. 1 indicates the measurement wavelength (nm), and the vertical axis indicates the absorbance (Absorbance, A / W).
図1では、水、パルチミン酸、グリセリンにおける撮影される波長に対する吸収特性を図1(a)〜(d)にそれぞれ示している。なお、図1(a)は、水の吸収特性を示し、図1(b)は、パルチミン酸の吸収特性を示し、図1(c)は、グリセリンの吸収特性を示し、図1(d)は、肌の吸収特性を示している。 In FIG. 1, the absorption characteristic with respect to the image | photographed wavelength in water, a palmitic acid, and glycerol is each shown to Fig.1 (a)-(d). 1 (a) shows the absorption characteristics of water, FIG. 1 (b) shows the absorption characteristics of palmitic acid, FIG. 1 (c) shows the absorption characteristics of glycerin, and FIG. 1 (d). Shows the absorption characteristics of the skin.
また、図1(i)に示す特性範囲は、市販のカメラ(例えば、「FLIR SYSTEMS社製、ALPHA NIRカメラ」や、「XenlCs社製 XEVAシリーズ InGaAs近赤外線カメラ」等)で撮影可能な近赤外領域を示しており、図1(ii)は、本発明において使用されるカメラ(例えば、住友電気工業(株)社製等)で撮影可能な近赤外領域を示している。なお、住友電気工業(株)社製のカメラは、約1000〜2500nm程度の近赤外領域の画像を取得することができる。 The characteristic range shown in FIG. 1 (i) is a near red that can be taken with a commercially available camera (for example, “ALPHA NIR camera made by FLIR SYSTEMS”, “XEVA series InGaAs near infrared camera made by XenlCs”, etc.). FIG. 1 (ii) shows a near-infrared region that can be photographed by a camera used in the present invention (for example, manufactured by Sumitomo Electric Industries, Ltd.). A camera manufactured by Sumitomo Electric Industries, Ltd. can obtain an image in the near infrared region of about 1000 to 2500 nm.
図1に示すように、市販のカメラにて撮影される領域においては、上述した従来技術にも示すように約1460nm付近で水の強い吸収がある(図1(d)における領域A)。しかしながら、その領域Aの帯域は、油(パルチミン酸)や保湿剤(グリセリン)の特性のピークと重なるため、例えば化粧品を塗布した場合には、それら成分の影響を受け易くなり、その領域における画像を用いただけでは、正確な肌解析等を行うことができない。 As shown in FIG. 1, in a region photographed by a commercially available camera, there is strong water absorption around 1460 nm (region A in FIG. 1 (d)) as shown in the above-described prior art. However, since the band of the region A overlaps with the peak of the characteristics of oil (paltimic acid) and humectant (glycerin), for example, when cosmetics are applied, it is easily affected by those components, and the image in that region If only the use of is used, accurate skin analysis or the like cannot be performed.
ここで、図1(d)のグラフに示すように、肌の吸収特性では、約1460nm付近の他にも約1920nm付近に水による強い吸収特性が存在することがわかる。また、図1(b)に示すように、油の吸収特性では、約1700〜1800nm付近に吸収特性が存在し、更に約2230〜2400nm付近にも強い吸収特性が存在することがわかる。 Here, as shown in the graph of FIG. 1 (d), it can be seen that the skin absorption characteristic has a strong absorption characteristic due to water in the vicinity of about 1920 nm in addition to the vicinity of about 1460 nm. Moreover, as shown in FIG.1 (b), in the absorption characteristic of oil, it turns out that an absorption characteristic exists in about 1700-1800 nm vicinity, and also a strong absorption characteristic exists also in about 2230-2400 nm vicinity.
したがって、本実施形態では、水に対して約1460nm付近の画像の他にも、約1920nm付近の方が水だけの画像を検出できるため、この近赤外領域の画像も取得する。また、本実施形態では、油に対して約1700〜1800nm付近及び約2230〜2400nm付近の近赤外領域の画像を取得する。 Therefore, in the present embodiment, in addition to an image near about 1460 nm with respect to water, an image of only water can be detected near about 1920 nm, so an image in the near infrared region is also acquired. In the present embodiment, near-infrared images of about 1700 to 1800 nm and about 2230 to 2400 nm are acquired for oil.
このようにして、水(OH基)と油(CH基)の両方の画像を取得し、その画像を1又は複数用いて画像解析をすることで、例えば化粧水や乳液等の皮膚外用剤を塗布した肌等の状態を画像上に示し、塗りむら評価等に用いることができる。 In this way, by acquiring images of both water (OH group) and oil (CH group), and performing image analysis using one or more of the images, for example, skin external preparations such as skin lotions and emulsions. The state of the applied skin or the like is shown on the image and can be used for evaluation of uneven coating.
以下に、本発明における画像解析方法、評価方法、画像解析装置、及び画像解析プログラムを好適に実施した形態について、図面を用いて説明する。 Hereinafter, embodiments in which an image analysis method, an evaluation method, an image analysis apparatus, and an image analysis program according to the present invention are suitably implemented will be described with reference to the drawings.
<撮影システム:概略構成例>
まず、本実施形態において取得される画像を撮影する顔撮影装置の概略構成例について図を用いて説明する。なお、以下の例では、皮膚の一例として顔の肌を撮影する例を示すが、本発明においてはこれに限定されるものではなく、例えば、手や腕の他、代用皮膚(例えば、ブタ皮膚、人工皮膚、ウレタン)や毛髪等、水分や油分を評価するためのあらゆるものについて適用可能である。
<Photographing system: schematic configuration example>
First, a schematic configuration example of a face photographing apparatus for photographing an image acquired in the present embodiment will be described with reference to the drawings. In the following example, an example of photographing the skin of the face is shown as an example of skin. However, the present invention is not limited to this. For example, in addition to hands and arms, skin substitutes (for example, pig skin) , Artificial skin, urethane), hair, and the like for evaluating moisture and oil.
図2は、本実施形態における撮影システムの概略構成の一例を示す図である。図2に示す撮影システム10は、大略すると、顔撮影装置11と、画像解析装置12とを有するよう構成されており、顔撮影装置11と、画像解析装置12とは、ケーブル13等を有して、データ及び制御信号の送受信が可能な状態で接続されている。 FIG. 2 is a diagram illustrating an example of a schematic configuration of the imaging system in the present embodiment. 2 is configured to include a face photographing device 11 and an image analyzing device 12, and the face photographing device 11 and the image analyzing device 12 include a cable 13 and the like. Thus, they are connected in a state where data and control signals can be transmitted and received.
顔撮影装置11は、解析対象である被写体の顔をセットし、球体内に照射される所定の光源により顔の所定部位に照明を当てて、その画像をカメラ等により取得する。このとき、本実施形態では、複数の異なる近赤外領域において撮影された被写体の顔画像を取得するため、予め設定されるバンドパスフィルタによりフィルタリングを行い所定の近赤外領域における画像データを取得する。 The face photographing apparatus 11 sets the face of the subject to be analyzed, illuminates a predetermined part of the face with a predetermined light source irradiated into the sphere, and acquires the image by a camera or the like. At this time, in this embodiment, in order to acquire a face image of a subject photographed in a plurality of different near-infrared regions, filtering is performed using a preset bandpass filter to acquire image data in a predetermined near-infrared region. To do.
また、本実施形態では、顔撮影装置11により被写体の顔画像を撮影する際、顔画像と共に色票を撮影する。なお、色票は、顔撮影装置11に着脱可能に取り付けることができる。つまり、本実施形態では、撮影される画像に被写体の顔だけでなく色票も写るように撮影する。これにより、撮影された画像に対して色票を用いて画像補正を行うことができるため精度を向上させることができる。なお、色票は、1又は複数有することができ、複数有する場合には、例えば撮影時に用いられる光源の波長に対応する色票を選択して用いることができる。 In the present embodiment, when the face photographing device 11 photographs a face image of a subject, a color chart is photographed together with the face image. The color chart can be detachably attached to the face photographing apparatus 11. That is, in the present embodiment, shooting is performed so that not only the face of the subject but also the color chart appears in the shot image. As a result, image correction can be performed on the photographed image using the color chart, so that the accuracy can be improved. Note that one or a plurality of color charts can be provided, and when there are a plurality of color charts, for example, a color chart corresponding to the wavelength of the light source used at the time of photographing can be selected and used.
また、顔撮影装置11は、撮影するカメラのレンズに対して偏光フィルタ等を設置してノイズを低減させることができる。 Further, the face photographing apparatus 11 can reduce noise by installing a polarizing filter or the like on the camera lens to be photographed.
具体的に説明すると、図2に示す顔撮影装置11は、土台20の上に略球状のドーム(筐体)21と、少なくとも1つの光源22と、顎乗せ部材23と、撮像装置としてのカメラ24とを有するよう構成されている。 Specifically, the face photographing apparatus 11 shown in FIG. 2 includes a substantially spherical dome (housing) 21, at least one light source 22, a chin rest member 23, and a camera as an imaging apparatus on a base 20. 24.
図2において、ドーム21は、略球状の形状をしており球状内が空洞となっている。また、ドーム21は、例えば被写体である人物の顔が入る程度の形状となっている。このように、ドーム21の形状を球状にすることで、内部の光源から照射された光が拡散して効率的に被写体の顔に均一(フラット)に光を照射させることができる。 In FIG. 2, the dome 21 has a substantially spherical shape, and the inside of the sphere is hollow. Further, the dome 21 has a shape such that the face of a person who is a subject enters, for example. In this way, by making the shape of the dome 21 spherical, the light emitted from the internal light source is diffused, and the light of the subject can be efficiently and evenly irradiated onto the face of the subject.
また、光源22は、土台20上に設置されたドーム21内部に対して直接光源を照射する。なお、光源22の数は、少なくとも1つ有していればよい(図1の例では、顔の左右に2つの光源22−1,22−2)。なお、光源21−1,22−2の設置位置については、照射による被写体の顔の影の位置等により異なるため、必要に応じて調整することができる。 The light source 22 directly irradiates the inside of the dome 21 installed on the base 20 with the light source. The number of the light sources 22 may be at least one (in the example of FIG. 1, two light sources 22-1 and 22-2 on the left and right sides of the face). Note that the installation positions of the light sources 21-1 and 22-2 differ depending on the position of the shadow of the face of the subject by irradiation, and can be adjusted as necessary.
また、光源22−1,22−2としては、例えばハロゲンランプ等を用いることができ、例えば岩崎電気(株)社製JD110V50W/P/M等を使用することができるが、本発明においてはこれに限定されるものではない。 Further, as the light sources 22-1 and 22-2, for example, a halogen lamp can be used. For example, JD110V50W / P / M manufactured by Iwasaki Electric Co., Ltd. can be used. It is not limited to.
なお、光源22は、例えばハロゲンランプを使用することができるが、本発明においてはこれに限定されるものではなく、例えば、白熱電球・ハロゲン電球等の温度照射光源や、高圧水銀ランプ、セルフバラスト水銀ランプ、メタルハライドランプ、高圧ナトリウムランプ等の高圧放電ランプ(放電発光光源)、蛍光ランプ、低圧ナトリウムランプ等の定圧放電ランプ(放電発光光源)、EL(Electroluminescence)、LED(Light Emitting Diode)等の電界発光光源等を用いることができる。 For example, a halogen lamp can be used as the light source 22, but the present invention is not limited to this. For example, a temperature irradiation light source such as an incandescent bulb / halogen bulb, a high-pressure mercury lamp, a self-ballast High pressure discharge lamps (discharge light source) such as mercury lamp, metal halide lamp, high pressure sodium lamp, constant pressure discharge lamp (discharge light source) such as fluorescent lamp, low pressure sodium lamp, EL (Electroluminescence), LED (Light Emitting Diode), etc. An electroluminescent light source or the like can be used.
また、ハロゲンについては、例えばハロゲンランプや、両口金型ハロゲン、PARランプ、ダイクロイックミラー等を代用することができる。また、蛍光ランプについては、一般照明用ランプやレフランプ、クリプトンランプ、水銀ランプ、バラストレス水銀ランプ(チョークレス)、高圧ナトリウムランプ、メタルハライドランプ、HQIランプ等に代用することができる。 As for halogen, for example, a halogen lamp, a double-ended die halogen, a PAR lamp, a dichroic mirror, or the like can be used. The fluorescent lamp can be replaced with a general illumination lamp, a reflex lamp, a krypton lamp, a mercury lamp, a ballastless mercury lamp (chalkless), a high-pressure sodium lamp, a metal halide lamp, an HQI lamp, or the like.
なお、本実施形態では、例えば近赤外領域を撮影するために、例えば、ハロゲン光源又はLEDを用いるのが好ましい。なお、上記の2つの光源は、それぞれ同じ帯域を出すことができるが、その材質の性質等により違いがある。具体的には、ハロゲン光源とLEDとは、光の広がり方が異なり、LEDの方がハロゲン光源よりも直線性がある。また、LEDは、ハロゲン光源より熱量の放出が少ない。そのため、本実施形態では、ハロゲン光源とLEDのどちらの光源を使用するかは、撮影対象や撮影する目的、撮影環境等に応じて適宜設定される。 In the present embodiment, it is preferable to use, for example, a halogen light source or an LED in order to photograph, for example, the near infrared region. The above two light sources can emit the same band, but there are differences depending on the properties of the materials. Specifically, the halogen light source and the LED are different in how light spreads, and the LED is more linear than the halogen light source. Also, LEDs emit less heat than halogen light sources. Therefore, in the present embodiment, which one of the halogen light source and the LED light source is used is appropriately set according to the subject to be photographed, the purpose of photographing, the photographing environment, and the like.
顎乗せ部材23は、被写体がドーム21内部で進入させ、所定の位置で保持固定させるための保持部材である。また、顎乗せ部材23は、高さ調節や左右の位置を調整する機構を設けており、例えばカメラ24等から撮影された画像を画像解析装置12のディスプレイ上で表示し、カメラ24の中心と顔の上下左右の位置の調整可能となるスケール等を有することもできる。また、顎乗せ部材23は、被写体の正面画像ではなく、斜め、横、或いは後を向かせて側面画像や頭髪画像を取得できるような構成又は移動機構を有する。 The chin rest member 23 is a holding member that allows a subject to enter inside the dome 21 and hold and fix it at a predetermined position. Further, the chin rest member 23 is provided with a mechanism for adjusting the height and adjusting the left and right positions. For example, an image photographed from the camera 24 or the like is displayed on the display of the image analysis device 12, and the center of the camera 24 is It is also possible to have a scale or the like that can adjust the vertical and horizontal positions of the face. In addition, the chin rest member 23 has a configuration or a moving mechanism that can acquire a side image and a hair image in an oblique, lateral, or rearward direction instead of a front image of a subject.
カメラ24は、上述した所定の近赤外領域の画像を取得する。具体的には、約800〜2500nm付近の波長帯域における画像を取得可能な近赤外カメラ(例えば、住友電気工業(株)社製等)を使用することができる。また、カメラ24に取り付けられるレンズは、例えばフジノン(株)社製25mmレンズ等を使用することができる。なお、本実施形態においては、撮影される被写体の顔画像の表面反射等のノイズを消して、表面のぎらつき等を抑えてクリアな画像を取得するために偏光フィルタを設けてもよい。なお、偏光フィルタの具体例については、後述する。 The camera 24 acquires the image of the predetermined near infrared region described above. Specifically, a near-infrared camera (for example, manufactured by Sumitomo Electric Industries, Ltd.) capable of acquiring an image in a wavelength band near about 800 to 2500 nm can be used. Further, as a lens attached to the camera 24, for example, a 25 mm lens manufactured by Fujinon Corporation can be used. In the present embodiment, a polarizing filter may be provided in order to eliminate noise such as surface reflection of a face image of a subject to be photographed and to obtain a clear image while suppressing surface glare. A specific example of the polarizing filter will be described later.
なお、本実施形態では、所定の近赤外領域の画像を取得するため、例えば光源の前やレンズの前にバンドパスフィルタを設置して、所定の近赤外領域の画像を取得する。また、本実施形態は、複数の異なる近赤外領域からの画像を撮影するために、例えばフィルタをスライドさせて自動で切り換えられる機構が設けられていてもよく、撮影毎にユーザがスライドを移動してフィルタの切り換えを行ってもよい。ここで、図3は、フィルタの設置位置を説明するための図である。 In the present embodiment, in order to acquire an image in a predetermined near infrared region, for example, a band pass filter is installed in front of the light source or in front of the lens to acquire an image in the predetermined near infrared region. In the present embodiment, in order to capture images from a plurality of different near-infrared regions, for example, a mechanism that can be automatically switched by sliding a filter may be provided. Then, the filter may be switched. Here, FIG. 3 is a diagram for explaining the installation position of the filter.
また、上述したバンドパスフィルタは、光源22−1,22−2と被写体の間の光を通過させる第1のフィルタ31−1,31−2と、被写体により反射された光とカメラ(レンズ)の間の光を通過させる第2のフィルタ32及び第3のフィルタ33とを有する。ここで、第1のフィルタ31は、例えばUVAカット、赤外線減衰フィルタを用いることができ、例えばSCHOTT社製のGG395(例えば、厚さ3mm,100×100mm)等を使用することができる。 The band-pass filter described above includes the first filters 31-1 and 31-2 that allow light between the light sources 22-1 and 22-2 and the subject to pass through, the light reflected by the subject, and the camera (lens). A second filter 32 and a third filter 33 that allow light between them to pass therethrough. Here, for example, a UVA cut or infrared attenuation filter can be used as the first filter 31, and for example, GG395 (for example, thickness 3 mm, 100 × 100 mm) manufactured by SCHOTT can be used.
更に、第2のフィルタ32は、例えば後述するバンドパスフィルタ(第3のフィルタ33)と重ねて使用するNDフィルタである。NDフィルタは、レンズに入る光量を調整するためのフィルタであり、バンドパスフィルタの種類によって異なる光量を調整するためのものである。 Furthermore, the second filter 32 is an ND filter that is used, for example, in combination with a band-pass filter (third filter 33) described later. The ND filter is a filter for adjusting the amount of light entering the lens, and is for adjusting the amount of light that varies depending on the type of bandpass filter.
本実施形態では、複数のバンドパスフィルタを使用して所定の近赤外領域の画像を取得するが、その波長により透過光量が異なるため、レンズの調整等、カメラ設定をなるべく変えずに測定できることが好ましい。したがって、上述したNDフィルタを複数のバンドパスフィルタに対応させて複数用意し、適宜切り換えて用いることで光量の減衰等を行い、光量を調整することができる。なお、NDフィルタとしては、例えばSCHOTT社製NG5(例えば、直径25.4mmの円、厚さ1mm)等を用いることができる。 In this embodiment, images of a predetermined near-infrared region are acquired using a plurality of bandpass filters. However, since the amount of transmitted light varies depending on the wavelength, measurement can be performed without changing camera settings as much as possible. Is preferred. Therefore, by preparing a plurality of the above-described ND filters corresponding to a plurality of bandpass filters and switching them as appropriate, the amount of light can be attenuated and the amount of light can be adjusted. As the ND filter, for example, NG5 manufactured by SCHOTT (for example, a circle having a diameter of 25.4 mm, a thickness of 1 mm) or the like can be used.
ここで、複数のバンドパスフィルタを用いて所定の近赤外帯域の画像を取得するための第3のフィルタ37は、例えばSpectrogon社製のフィルタを使用することができる。また、第3のフィルタ37の領域は、例えば、ベースとなる画像を取得する場合は、例えば約1100〜1360nm程度の帯域から得られる画像を取得することができ、例えば中心波長を約1300nm±40nm程度の画像を取得する。 Here, for example, a filter manufactured by Spectrogon can be used as the third filter 37 for acquiring an image in a predetermined near-infrared band using a plurality of bandpass filters. In addition, for example, when acquiring a base image, the region of the third filter 37 can acquire an image obtained from a band of about 1100 to 1360 nm, for example, and the center wavelength is about 1300 nm ± 40 nm. Get a degree image.
また、水の吸収特性の強い画像を取得する場合は、例えば、図1(d)における領域Aに対する画像を取得する際には、例えば約1300〜1640nm程度の帯域から得られる画像を取得することができ、好ましくは中心波長を約1460nm±45nm程度の画像を取得する。また同様に、より感度のよい水の吸収特性の強い画像を取得する場合は、例えば、図1(d)における領域Bに対する画像を取得する際には、例えば約1860〜2200nm程度の帯域から得られる画像を取得することができ、好ましくは中心波長を約1920nm±55nm程度、約1950nm±56nm程度の画像を取得する。 Further, when acquiring an image with strong water absorption characteristics, for example, when acquiring an image for the region A in FIG. 1D, an image obtained from a band of about 1300 to 1640 nm is acquired. Preferably, an image having a center wavelength of about 1460 nm ± 45 nm is acquired. Similarly, when acquiring an image with higher sensitivity and water absorption characteristics, for example, when acquiring an image for the region B in FIG. 1D, the image is obtained from a band of about 1860 to 2200 nm, for example. An image with a center wavelength of about 1920 nm ± 55 nm or so and about 1950 nm ± 56 nm is preferably obtained.
また、図1(b)における領域Cに示すような油の吸収特性の強い画像を取得する場合は、例えば1700〜1860nm程度の帯域から得られる画像を取得することができ、好ましくは中心波長を1775nm±50nm、或いは、1755nm±20nm程度の画像を取得する。更に、図1(b)における領域Dに示すような油の吸収特性の強い画像を取得する場合は、例えば約2230〜2400nm程度の帯域から得られる画像を取得することができ、好ましくは、中心波長を2345nm±50nm程度の画像を取得する。なお、領域Dには、複数のピークが存在するため、そのうちの1つの波長を用いた画像を取得してもよく、ピークとなる複数の波長から画像を取得してもよい。また、約2230〜2400nmの帯域では、図1(a)に示すように水の吸収特性の差が大きいため、本実施形態では、撮影対象の条件(乾燥、湿度等)に応じて帯域を適宜設定することができる。 In addition, when acquiring an image having a strong oil absorption characteristic as shown in the region C in FIG. 1B, an image obtained from a band of about 1700 to 1860 nm can be acquired. An image of about 1775 nm ± 50 nm or 1755 nm ± 20 nm is acquired. Furthermore, when acquiring an image having a strong oil absorption characteristic as shown in the region D in FIG. 1B, an image obtained from a band of about 2230 to 2400 nm, for example, can be acquired. An image having a wavelength of about 2345 nm ± 50 nm is acquired. Since there are a plurality of peaks in the region D, an image using one of the wavelengths may be acquired, or an image may be acquired from a plurality of wavelengths that are peaks. Further, in the band of about 2230 to 2400 nm, the difference in water absorption characteristics is large as shown in FIG. 1A. Therefore, in this embodiment, the band is appropriately set according to the conditions (drying, humidity, etc.) of the object to be imaged. Can be set.
なお、これらの近赤外帯域の画像を取得するために用いられるフィルタは、1つのフィルタにおいて実現してもよく、複数のフィルタを組み合わせてもよい。 In addition, the filter used in order to acquire the image of these near-infrared bands may be implement | achieved in one filter, and may combine several filters.
更に、本実施形態では、例えば、図3に示す顎乗せ部材23に色票をカメラ24側に向けて設置してもよい。これにより、カメラ24により撮影される画像に、被写体の顔画像と色票とを含めることができ、色票を用いて複数の画像間の補正を行って精度の向上を図ることができる。なお、色票の具体例については、後述する。 Furthermore, in this embodiment, for example, the color chart may be installed on the chin rest member 23 shown in FIG. As a result, the face image of the subject and the color chart can be included in the image photographed by the camera 24, and the accuracy can be improved by performing correction between the plurality of images using the color chart. A specific example of the color chart will be described later.
上述した構成等を用いた照明装置11を用いてカメラ24から撮影された被写体の顔画像は、図1に示すケーブル13等を介して画像解析装置12に出力される。なお、顔撮影装置11と画像解析装置12との通信は、例えば赤外線等を用いた無線通信でもよく、LANケーブル等を介した有線通信でもよい。更に、インターネット等の通信ネットワークを用いて遠隔地にある画像解析装置12に撮影画像を送信してもよい。 The face image of the subject photographed from the camera 24 using the illumination device 11 having the above-described configuration or the like is output to the image analysis device 12 via the cable 13 shown in FIG. Note that the communication between the face photographing apparatus 11 and the image analysis apparatus 12 may be wireless communication using infrared rays or the like, or may be wired communication via a LAN cable or the like. Furthermore, the captured image may be transmitted to the image analysis device 12 at a remote location using a communication network such as the Internet.
ここで、本実施形態において撮影される画像は、例えば、化粧水や乳液等の皮膚外用剤を被写体に塗布する前、塗布直後、塗布した後、塗布後の所定時間経過後の画像等である。 Here, the image photographed in the present embodiment is, for example, an image after applying a skin external preparation such as skin lotion or emulsion on a subject, immediately after application, after application, and after a predetermined time has elapsed after application. .
また、本実施形態において顔撮影装置11により撮影される画像は、ユーザの指示により撮影された画像でもよく、連続的に撮影されたリアルタイム映像であってもよい。更に、顔撮影装置11により撮影される画像は、顔に含まれる被写体の肌(頬や額等)、瞼、目、目の下、目の周り、鼻、口、口元、耳、眉、顎等に限定されず、例えば首や頭髪等も含み、更には、腕や手、足等も含まれる。したがって、画像解析装置12により解析される内容は、上述した顔撮影装置11にて得られる画像全てに対応することができる。 In the present embodiment, the image photographed by the face photographing apparatus 11 may be an image photographed by a user instruction or a real-time video photographed continuously. Further, the image photographed by the face photographing device 11 is on the skin (cheek, forehead, etc.) of the subject included in the face, eyelids, eyes, under the eyes, around the eyes, nose, mouth, mouth, ears, eyebrows, jaws, etc. It is not limited, For example, a neck, hair, etc. are included, Furthermore, an arm, a hand, a leg, etc. are also included. Therefore, the contents analyzed by the image analysis device 12 can correspond to all the images obtained by the face photographing device 11 described above.
画像解析装置12は、顔撮影装置11により撮影された所定の近赤外領域画像を複数取得し、取得した画像に基づいて被写体の肌の水、油に関する画像の解析・評価を行う。これにより、化粧水や保湿剤等の皮膚外用剤を塗布したときの肌の状態や、塗りむらを画像で可視化して出力することにより、高精度な解析や評価、或いはその結果の表示を行うことができる。なお、画像解析装置12は、汎用的なパーソナルコンピュータ等を用いて本実施形態における解析処理を実現することができる。 The image analysis device 12 acquires a plurality of predetermined near-infrared region images photographed by the face photographing device 11, and performs analysis / evaluation of an image related to water and oil on the skin of the subject based on the obtained images. This makes it possible to visualize and output the state of the skin when applying a skin external preparation such as skin lotion or moisturizer, and the unevenness in the image, thereby performing highly accurate analysis and evaluation, or displaying the result. be able to. Note that the image analysis apparatus 12 can realize the analysis processing in the present embodiment using a general-purpose personal computer or the like.
ここで、本発明における皮膚外用剤としては、例えば水溶液系や可溶化系、乳化系、粉末分散系、水−油の2層系、水−油−粉末の3層系等の全般で本発明を適用することが可能であり、その用途も、化粧水や乳液だけでなく、クリームやパック等の基礎化粧品、口紅やファンデーション等のメーキャップ化粧料、シャンプーやリンス,染毛剤等の頭髪用製品、日焼け止め等の特殊化粧品等、広い分野に及ぶ。 Here, as the skin external preparation in the present invention, for example, an aqueous solution system, a solubilization system, an emulsification system, a powder dispersion system, a water-oil two-layer system, a water-oil-powder three-layer system, etc. It can be applied to not only lotions and emulsions, but also basic cosmetics such as creams and packs, makeup cosmetics such as lipsticks and foundations, hair products such as shampoos, rinses and hair dyes. It covers a wide range of fields such as special cosmetics such as sunscreen.
<偏光フィルタについて>
次に、上述した本実施形態における偏光フィルタの具体例について説明する。通常、画像の撮影では、光源に起因する観察対象物表面での解析に不要な反射光(ぎらつき等)が生じる場合がある。また、不要な反射光は取得画像の輝度値に影響をし、画像解析による定量評価を行うときに誤差が生じてしまう可能性があり問題となる。
<About polarizing filter>
Next, a specific example of the polarizing filter in the present embodiment described above will be described. In general, when an image is captured, reflected light (such as glare) unnecessary for analysis on the surface of the observation target due to the light source may occur. Further, unnecessary reflected light affects the luminance value of the acquired image, which may cause an error when performing quantitative evaluation by image analysis.
そこで、本実施形態では、カメラ24のレンズ前部、後部、或いは両方に偏光フィルタを設置する。また、本実施形態は、レンズ付近ではなく、光源の前部への偏光フィルタを設置してもよい。更に、本実施形態では、レンズ及び光源の両方に偏光フィルタを設置する。なお、偏光フィルタは、1又は複数設置することができる。 Therefore, in the present embodiment, a polarizing filter is installed at the front part, rear part, or both of the lens of the camera 24. In the present embodiment, a polarizing filter may be provided not at the vicinity of the lens but at the front of the light source. Furthermore, in this embodiment, a polarizing filter is installed in both the lens and the light source. One or more polarizing filters can be installed.
これにより、本実施形態では、観察対象物表面で生じる解析に不要な反射光を除去することができる。また、本実施形態では、これらフィルタの設置によりノイズを減らし、精度の高い解析が可能となる。 Thereby, in this embodiment, the reflected light unnecessary for the analysis which arises on the observation target object surface can be removed. Moreover, in this embodiment, noise can be reduced by installing these filters, and highly accurate analysis can be performed.
<色票について>
次に、上述した本実施形態における色票の具体例について説明する。通常、画像解析による定量評価を用いて画像間の比較を行う場合、撮影条件により若干の差異が出ることが解析上の問題となる。そこで、本実施形態では、白から黒の反射率が特定できる任意の色票を用いて取得画像の輝度値を補正することにより、画像取得の時期の違いにかかわらず画像間の比較が可能となり、精度良く解析することができる。
<About color chart>
Next, a specific example of the color chart in the above-described embodiment will be described. Usually, when comparing between images using quantitative evaluation by image analysis, it is an analysis problem that a slight difference is caused depending on photographing conditions. Therefore, in this embodiment, by correcting the luminance value of the acquired image using an arbitrary color chart that can specify the reflectance of white to black, it becomes possible to compare images regardless of the timing of image acquisition. Can be analyzed with high accuracy.
なお、色票は、一例として反射率の異なる複数の色票がボード上に並列に配置し、被写体を撮影するときに用いられる光源の波長に応じて色票を選択することができる。このように色票を用いることで、撮影される画像間の輝度を補正することができる。 For example, a plurality of color charts having different reflectivities are arranged in parallel on the board, and the color chart can be selected according to the wavelength of the light source used when photographing the subject. By using the color chart in this way, it is possible to correct the luminance between captured images.
<画像解析装置12:機能構成例>
次に、本実施形態における画像解析装置12の機能構成例について図を用いて説明する。図4は、本実施形態における画像解析装置の機能構成の一例を示す図である。図4に示す画像解析装置12は、入力手段41と、出力手段42と、蓄積手段43と、撮影画像取得手段44と、画像解析手段45と、評価手段46と、画像生成手段47と、制御手段48とを有するよう構成されている。
<Image Analysis Device 12: Functional Configuration Example>
Next, a functional configuration example of the image analysis device 12 in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a functional configuration of the image analysis apparatus according to the present embodiment. 4 includes an input unit 41, an output unit 42, a storage unit 43, a captured image acquisition unit 44, an image analysis unit 45, an evaluation unit 46, an image generation unit 47, and a control. And means 48.
入力手段41は、使用者等からの画像取得指示や画像解析指示、評価指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段41は、例えばキーボードや、マウス等のポインティングデバイス等からなる。また、入力手段11は、デジタルカメラ等の撮像手段等により撮影された被写体の撮像部分を含む画像を入力する機能も有する。 The input unit 41 receives input from the user or the like such as start / end of various instructions such as an image acquisition instruction, an image analysis instruction, and an evaluation instruction. Note that the input unit 41 includes, for example, a keyboard and a pointing device such as a mouse. The input unit 11 also has a function of inputting an image including an imaging part of a subject photographed by an imaging unit such as a digital camera.
また、出力手段42は、入力手段41により入力された内容や、入力内容に基づいて実行された内容等の表示・出力を行う。なお、出力手段42は、ディスプレイやスピーカ等からなる。更に、出力手段42としてプリンタ等の機能を有していてもよく、その場合には、画像解析結果等を紙等の印刷媒体に印刷して、使用者や被写体等に提供することもできる。 The output unit 42 displays / outputs the content input by the input unit 41 and the content executed based on the input content. Note that the output means 42 includes a display, a speaker, and the like. Further, the output unit 42 may have a function of a printer or the like. In that case, the image analysis result or the like can be printed on a printing medium such as paper and provided to a user or a subject.
なお、入力手段41と出力手段42とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。 The input means 41 and the output means 42 may be integrated input / output means such as a touch panel, for example. In this case, the input means 41 and the output means 42 may be predetermined using a user's finger or a pen-type input device. Input can be made by touching the position.
また、蓄積手段43は、撮影画像取得手段44により得られる撮影画像、画像解析手段45により画像解析結果、画像生成手段47により生成された評価結果等による各画像情報等の各種データを蓄積する。また、蓄積手段43は、必要に応じて蓄積されている各種データを読み出すことができる。 Further, the storage unit 43 stores various data such as each image information based on the captured image obtained by the captured image acquisition unit 44, the image analysis result by the image analysis unit 45, the evaluation result generated by the image generation unit 47, and the like. In addition, the storage unit 43 can read out various data stored as necessary.
また、撮影画像取得手段44は、顔撮影装置11においてカメラ24により撮影された被写体の顔画像を取得する。なお、撮影画像取得手段44は、顔撮影装置11により被写体の顔を撮影する際に、撮影する画像の内容に応じて、例えば使用する光源の種類や位置、数等を設定することができる。更に、撮影画像取得手段44は、顔撮影装置11のカメラ24に対し、上述した第1〜第3のフィルタ31〜33を組み合わせて使用することで、所定のバンドパスフィルタによりフィルタリングされた所定の近赤外領域の画像を取得するために、その撮影条件を示す指示情報を生成し、顔撮影装置11に出力する。なお、撮影画像取得手段44により取得された画像は、蓄積手段43に蓄積される。 The captured image acquisition unit 44 acquires a face image of the subject captured by the camera 24 in the face photographing apparatus 11. The photographed image acquisition unit 44 can set, for example, the type, position, number, and the like of the light source to be used according to the contents of the photographed image when the face photographing apparatus 11 photographs the face of the subject. Furthermore, the photographed image acquisition means 44 uses the first to third filters 31 to 33 described above in combination with the camera 24 of the face photographing device 11, so that a predetermined bandpass filter is used. In order to acquire an image in the near infrared region, instruction information indicating the photographing condition is generated and output to the face photographing apparatus 11. The image acquired by the captured image acquisition unit 44 is stored in the storage unit 43.
画像解析手段45は、撮影画像取得手段44により得られた画像に対して輝度補正や平均輝度値の算出、化粧水や乳液等の皮膚外用剤の塗布前後の輝度変化の解析、輝度変化値の算出、ユーザから選択された領域に対する輝度差に対応した擬似カラーの設定等の解析を行う。なお、画像解析手段45は、塗布前、塗布直後、塗布後の画像を用いて、それらの画像から皮膚の解析を行い、その結果を評価することができる。また、画像解析手段45は、画像解析を行う部分を撮影した顔の肌全体に対して行ってもよく、また入力手段41等を用いてユーザ等により指定された領域に対してのみ画像解析を行ってもよい。なお、指定される領域は、1つでもよく、複数でもよい。 The image analysis unit 45 performs luminance correction and calculation of an average luminance value on the image obtained by the captured image acquisition unit 44, analysis of luminance change before and after application of a skin external preparation such as skin lotion and emulsion, and luminance change value. Analysis of calculation, setting of pseudo color corresponding to the luminance difference for the region selected by the user, and the like is performed. The image analysis means 45 can analyze the skin from these images using the images before application, immediately after application, and after application, and evaluate the results. Further, the image analysis means 45 may be performed on the entire skin of the face where the image analysis portion is photographed, and image analysis is performed only on an area designated by the user or the like using the input means 41 or the like. You may go. The designated area may be one or plural.
更に、本実施形態において、画像解析手段45で解析される画像は、顔撮影装置11から取り込みながらその都度リアルタイムで解析してもよく、また予め蓄積手段43に蓄積された画像を用いて解析してもよい。 Furthermore, in the present embodiment, the image analyzed by the image analysis unit 45 may be analyzed in real time each time being captured from the face photographing device 11, or analyzed using an image stored in the storage unit 43 in advance. May be.
また、画像解析手段45で解析される画像は、例えば、頬や額等の肌画像であり、また、腕や手、足等の画像でも肌画像解析を行うことができる。更に画像解析手段45は、頭髪についても解析を行うことができる。なお、画像解析手段45における処理の具体例については、後述する。 Further, the image analyzed by the image analysis means 45 is, for example, a skin image such as a cheek or forehead, and skin image analysis can also be performed on images such as arms, hands, and feet. Furthermore, the image analysis means 45 can also analyze hair. A specific example of processing in the image analysis unit 45 will be described later.
評価手段46は、画像解析手段45により得られる画像解析結果に基づいて画像を撮影したユーザ(被写体)に対する肌や皮膚等の評価を行う。 The evaluation unit 46 evaluates the skin, skin, and the like of the user (subject) who has taken the image based on the image analysis result obtained by the image analysis unit 45.
なお、評価手段46は、画像解析手段45により得られる画像解析結果に基づいて、例えば、水分量の多い画像部分を肌とみなして化粧料(皮膚外用剤)の効果を評価する。具体的には、評価手段46は、近赤外画像を用いた水分分布状態解析から肌の露出部位を特定することが可能であることから、汚垢や化粧料が付着した肌における洗浄料の効果評価が可能となり、また、ファンデーション(FD)等の肌に塗布するメーキャップ化粧料の付着状態の変化を評価することが可能となる。 Note that the evaluation unit 46 evaluates the effect of the cosmetic (external preparation for skin) based on the image analysis result obtained by the image analysis unit 45, for example, considering an image portion having a large amount of moisture as skin. Specifically, the evaluation means 46 can identify the exposed part of the skin from the moisture distribution state analysis using the near-infrared image. It is possible to evaluate the effect, and it is possible to evaluate the change in the adhesion state of the makeup cosmetic applied to the skin such as foundation (FD).
また、本実施形態によれば、上述したように例えば近赤外領域で約2230〜2400nm程度の帯域において、中心波長を2345nm±50nm程度の画像を取得することができるため、油の吸収特性の強い画像を取得することができる。そのため、評価手段46は、その得られた画像の解析結果を画像解析手段45により取得することで、任意の部位の肌における水分画像の分布状態を用いた水分による肌質の評価が可能となり、また、任意の部位の肌における油分画像の分布状態を用いた油分による肌質の評価が可能となる。 Further, according to the present embodiment, as described above, for example, an image having a center wavelength of about 2345 nm ± 50 nm can be acquired in a band of about 2230 to 2400 nm in the near-infrared region. A strong image can be acquired. Therefore, the evaluation means 46 can obtain the analysis result of the obtained image by the image analysis means 45, thereby enabling evaluation of the skin quality by moisture using the distribution state of the moisture image in the skin of an arbitrary part, In addition, it is possible to evaluate the skin quality by oil using the distribution state of the oil image on the skin of an arbitrary site.
また、本実施形態によれば、評価手段46は、洗浄料の使用前後における肌の洗浄部位の水分画像の解析により洗浄料による保湿効果の評価が可能となる。 Moreover, according to this embodiment, the evaluation means 46 can evaluate the moisturizing effect by the cleaning material by analyzing the moisture image of the skin cleaning site before and after using the cleaning material.
なお、評価手段46は、上述した評価手法のうちの何れか1つ又は複数を行うことができる。また、評価手段46は、複数の評価をする場合には、その評価する順序を予め設定しておいてもよく、撮影対象に応じて選択することもできる。 The evaluation means 46 can perform any one or more of the above-described evaluation methods. Further, when a plurality of evaluations are performed, the evaluation unit 46 may set the evaluation order in advance, and may select the order according to the photographing target.
画像生成手段47は、画像解析手段45により解析された結果や評価手段46により評価された結果に基づいてユーザに提示するための画像を生成する。具体的には、画像生成手段47は、画像解析手段45により解析された輝度差に対応した擬似カラーを合成し、合成した画像を画面に表示する。 The image generation unit 47 generates an image to be presented to the user based on the result analyzed by the image analysis unit 45 or the result evaluated by the evaluation unit 46. Specifically, the image generation unit 47 combines pseudo colors corresponding to the luminance differences analyzed by the image analysis unit 45, and displays the combined image on the screen.
なお、画像生成手段47は、合成画像を画面に表示する際、ユーザに見やすく表示するために、例えば、所定領域に対する輝度領域の拡大や差分画像の算出、輝度反転等の処理を行った後、表示させることもできる。 Note that the image generation unit 47 performs processing such as enlargement of a luminance region for a predetermined region, calculation of a difference image, luminance reversal, etc., in order to display the composite image on the screen so that it can be easily seen by the user. It can also be displayed.
また、画像生成手段47は、画像のうち、ユーザにより設定された領域に対する擬似カラー生成等の処理を行う。なお、画像生成手段47における具体的な処理については後述する。 Further, the image generation unit 47 performs processing such as pseudo color generation for an area set by the user in the image. Note that specific processing in the image generation unit 47 will be described later.
また、制御手段48は、画像解析装置12の各構成部全体の制御を行う。具体的には、制御手段48は、例えばユーザ等による入力手段41からの指示等に基づいて、画像解析処理や画像生成処理等の各制御を行う。 The control unit 48 controls the entire components of the image analysis device 12. Specifically, the control unit 48 performs various controls such as image analysis processing and image generation processing based on, for example, an instruction from the input unit 41 by a user or the like.
<画像解析装置12:ハードウェア構成>
ここで、上述した画像解析装置12においては、各機能をコンピュータに実行させることができる実行プログラム(画像解析プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における皮膚外用剤の塗布前後、及び塗布後所定時間経過後において撮影した所定の近赤外領域における画像を用いて解析することができる。
<Image Analysis Device 12: Hardware Configuration>
Here, in the image analysis apparatus 12 described above, an execution program (image analysis program) that can cause a computer to execute each function is generated, and the execution program is installed in, for example, a general-purpose personal computer or server. Analysis can be performed using images in a predetermined near-infrared region taken before and after application of the external preparation for skin in the present invention and after a predetermined time has elapsed after application.
ここで、本実施形態における画像解析処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。 Here, a hardware configuration example of a computer capable of realizing the image analysis processing according to the present embodiment will be described with reference to the drawings.
図5は、本実施形態における画像解析処理が実現可能なハードウェア構成の一例を示す図である。図5におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。 FIG. 5 is a diagram illustrating an example of a hardware configuration capable of realizing the image analysis processing according to the present embodiment. 5 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 for performing various controls, and a network connection device. 57 are connected to each other by a system bus B.
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置51は、ネットワーク接続装置57等に接続された外部装置から通信ネットワークを介して得られる既に測定された評価対象部位における皮膚外用剤の塗布後又は近赤外線曝露後に撮影された被写体の顔画像等の各種データを入力することもできる。 The input device 51 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. In addition, the input device 51 is configured to capture an object photographed after application of an external preparation for skin or after exposure to near infrared rays in an already measured evaluation target site obtained from an external device connected to the network connection device 57 or the like via a communication network. Various data such as a face image can also be input.
出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。また、出力装置52は、上述の処理結果等を紙等の印刷媒体に印刷して、ユーザ等に提示することができる。 The output device 52 has a display for displaying various windows and data necessary for operating the computer main body for performing processing according to the present invention, and displays the program execution progress, results, and the like by the control program of the CPU 56. can do. Further, the output device 52 can print the above processing result or the like on a print medium such as paper and present it to the user or the like.
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM、DVD等の可搬型の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。 Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 58 such as a USB (Universal Serial Bus) memory, a CD-ROM, or a DVD. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.
補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。 The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.
メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。 The memory device 55 stores an execution program or the like read from the auxiliary storage device 54 by the CPU 56. The memory device 55 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。 The CPU 56 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 55. Thus, each processing can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 54, and the execution result and the like can also be stored.
ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。 The network connection device 57 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.
また、ネットワーク接続装置57は、通信ネットワークに接続された外部装置により既に測定された評価対象部位における皮膚外用剤の塗布後又は紫外線曝露後に撮影された被写体の肌画像等の各種データを取得することもできる。 Further, the network connection device 57 acquires various data such as a skin image of a subject photographed after application of an external skin preparation or after exposure to ultraviolet rays at an evaluation target site that has already been measured by an external device connected to a communication network. You can also.
上述したようなハードウェア構成により、本発明における画像解析処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における画像解析処理を容易に実現することができる。 With the hardware configuration as described above, the image analysis processing in the present invention can be executed. Further, by installing the program, the image analysis processing according to the present invention can be easily realized by a general-purpose personal computer or the like.
<画像解析処理手順>
次に、上述した画像解析装置12や画像解析プログラムを用いた本実施形態における画像解析処理手順について説明する。図6は、本実施形態における画像解析処理手順の一例を示すフローチャートである。
<Image analysis processing procedure>
Next, an image analysis processing procedure in the present embodiment using the image analysis device 12 and the image analysis program described above will be described. FIG. 6 is a flowchart illustrating an example of an image analysis processing procedure in the present embodiment.
図6に示す画像解析処理は、まず、ベースである皮膚外用剤塗布前の被写体の顔画像を取得し(S01)、更に皮膚外用剤塗布後の被写体の顔画像を取得する(S02)。なお、S01及びS02の処理において取得される画像は、上述した顔撮影装置11等において、ハロゲンランプ等の光源を用い、上述したフィルタ等によりフィルタリングされた所定の近赤外領域における被写体の画像を取得する。 In the image analysis processing shown in FIG. 6, first, a face image of a subject before application of a skin external preparation, which is a base, is acquired (S01), and further, a face image of the subject after application of a skin external preparation is acquired (S02). The images acquired in the processes of S01 and S02 are images of subjects in a predetermined near-infrared region filtered by the above-described filter or the like using a light source such as a halogen lamp in the above-described face photographing device 11 or the like. get.
また、S01の処理においては、予めベース画像を取得しておき、蓄積手段等に蓄積しておいてもよい。 In the process of S01, a base image may be acquired in advance and stored in a storage unit or the like.
また、皮膚外用剤を塗布した後は、その効果が見られる程度に所定時間経過させるのが好ましい。経過させる時間は、皮膚外用剤や塗布量、塗布した部位等により異なる。したがって、S02の処理において取得される画像は、例えば、皮膚外用剤の塗布直後の画像でもよく、更には、塗布してから所定時間経過後(例えば、10分後や30分後等)の画像を継続的に取得してもよい。また、これらの画像は、所定時間毎の画像を経時的に複数取得してもよい。また、S02の処理にて取得した画像は、後段にてS01の画像と比較して解析や評価等を行う。 In addition, after applying the external preparation for skin, it is preferable that a predetermined time elapses to such an extent that the effect is seen. The elapsed time varies depending on the external preparation for skin, the amount applied, the site applied, and the like. Therefore, the image acquired in the process of S02 may be, for example, an image immediately after application of the external preparation for skin, and further, an image after a predetermined time has elapsed since application (for example, after 10 minutes or 30 minutes). May be acquired continuously. Further, a plurality of these images may be acquired over time at predetermined time intervals. Further, the image acquired in the process of S02 is analyzed and evaluated in comparison with the image of S01 in the subsequent stage.
次に、S01及びS02の処理で得られた画像の輝度補正を行う(S03)、また、輝度補正された画像を用いて、2つの画像の差分画像を生成する(S04)。なお、S03及びS04の処理は、予め設定された取得した画像全体に対して行ってもよく、ユーザ等により予め設定された画像中の領域(1又は複数)に対して行ってもよい。 Next, luminance correction is performed on the images obtained in S01 and S02 (S03), and a difference image between the two images is generated using the luminance corrected images (S04). Note that the processing of S03 and S04 may be performed on the entire acquired image set in advance, or may be performed on an area (one or more) in the image set in advance by the user or the like.
次に、S04の処理において、取得した差分画像に対して、領域中における所定画素毎に、その輝度の差分値の大きさにより予め設定された擬似カラーを割り当て(S05)、更にその割り当てた擬似カラーを差分画像に合成して評価画面等を生成し(S06)、生成した画像を画面に表示する(S07)。なお、S06の処理では、上述した画像解析手段45から得られる解析結果や評価手段46から得られる評価結果等を用いて評価画面等の生成を行う。 Next, in the process of S04, a pseudo color preset according to the magnitude of the luminance difference value is assigned to the obtained difference image for each predetermined pixel in the region (S05), and the assigned pseudo image is further assigned. The color is combined with the difference image to generate an evaluation screen or the like (S06), and the generated image is displayed on the screen (S07). In the process of S06, an evaluation screen or the like is generated using the analysis result obtained from the image analysis unit 45 described above, the evaluation result obtained from the evaluation unit 46, or the like.
ここで、他の画像による解析を行うか否かを判断し(S08)、他の画像による解析を行う場合(S08において、YES)、S03に戻り、S02の処理で取得した他の画像を用いて後述の処理を行い画像の解析、評価を行う。 Here, it is determined whether or not to perform analysis using another image (S08). When analysis using another image is performed (YES in S08), the process returns to S03 and uses the other image acquired in the process of S02. Then, the processing described later is performed to analyze and evaluate the image.
ここで、画像を解析する際、上述したように予め設定された擬似カラーを指標として用いて評価を行ってもよい。なお、指標の導出は、予め設定された指標を用いてもよく、評価対象部位や皮膚外用剤の成分、既に導出して評価された指標の内容等より任意に設定されてもよい。これにより、皮膚外用剤を使用者に塗布した後の塗りむら等の肌状態を簡便且つ短時間に評価することができる。 Here, when the image is analyzed, the evaluation may be performed using a preset pseudo color as an index as described above. It should be noted that the index may be derived in advance by using an index that is set in advance, or may be arbitrarily set based on the evaluation target site, the component of the external preparation for skin, the content of the index that has already been derived and evaluated, and the like. Thereby, skin conditions, such as the nonuniformity after apply | coating a skin external preparation to a user, can be evaluated simply and for a short time.
<画像解析の実施例>
次に、本実施形態における画像解析の実施例について、具体的に説明する。なお、本実施例では、「(1)左頬にしっとり化粧水をコットンで塗布し、塗布前、塗布直後において解析した例」と、「(2)左頬にしっとり乳液をコットンで塗布し、塗布前、塗布直後、及び塗布10分後において解析した例」と、「(3)左毛髪に寝ぐせ直し用ヘアトリートメントを噴霧し、塗布前、塗布直後において解析した例」について説明する。
<(1)化粧水の塗布前後>
図7は、化粧水塗布前後の肌画像の一例を示す図である。図7に示す例では、塗布前と塗布直後における「ベース」、「水1」、「水2」のそれぞれの画像が示されている。ここで、「ベース」は、中心波長を1300nm±40nm程度で取得した画像を示し、「水1」は、中心波長を1500nm±45nm程度で取得した画像を示し、「水2」は、中心波長を1920nm±55nm程度で取得した画像を示している。また、図7に示す塗布直後の領域61−1〜61−3は、皮膚外用剤(図7の例では化粧水)を塗布した部分を示している。
<Example of image analysis>
Next, an example of image analysis in the present embodiment will be specifically described. In this example, “(1) Moist lotion applied to the left cheek with cotton and analyzed before and immediately after application” and “(2) Moist latex applied to the left cheek with cotton, An example of “analysis before application, immediately after application, and 10 minutes after application” and “(3) an example in which a hair treatment for laying on the left hair is sprayed and analyzed before and immediately after application” will be described.
<(1) Before and after applying lotion>
FIG. 7 is a diagram showing an example of a skin image before and after applying lotion. In the example shown in FIG. 7, images of “base”, “water 1”, and “water 2” before and immediately after application are shown. Here, “base” indicates an image acquired with a center wavelength of about 1300 nm ± 40 nm, “water 1” indicates an image acquired with a center wavelength of about 1500 nm ± 45 nm, and “water 2” indicates a center wavelength. Is an image acquired at about 1920 nm ± 55 nm. Moreover, the area | regions 61-1 to 61-3 immediately after application | coating shown in FIG. 7 have shown the part which apply | coated the skin external preparation (skin lotion in the example of FIG. 7).
また、図7に示されている画像は、全て本実施形態における輝度補正が行われている。輝度補正とは、例えば画像中のある所定の画素単位(例えば、20×20ピクセル)における平均値を算出し、算出した画像に対して黒を輝度30とし、グレーを輝度120として2点で画像全体を補正する。これにより、画像上のノイズを低減して画像を平滑化させることができる。 In addition, all the images shown in FIG. 7 are subjected to luminance correction in the present embodiment. Luminance correction is, for example, calculating an average value in a predetermined pixel unit (for example, 20 × 20 pixels) in an image, and setting the image to black with a luminance of 30 and gray with a luminance of 120 at two points. Correct the whole. Thereby, the noise on an image can be reduced and an image can be smoothed.
図7によれば、水があると黒く表示され、特に本実施形態における「水2」の近赤外領域に対しては、塗布した領域61−3において、その部分が黒くなっているのがわかる。 According to FIG. 7, when there is water, it is displayed in black, and particularly in the near-infrared region of “water 2” in the present embodiment, that portion is black in the applied region 61-3. Recognize.
<解析例>
次に、皮膚外用剤(化粧水、乳液)を塗布した場合の本実施形態における具体的な解析例について、図を用いて説明する。
<Example of analysis>
Next, a specific analysis example in the present embodiment when a skin external preparation (skin lotion, emulsion) is applied will be described with reference to the drawings.
<化粧水塗布:実施例1>
図8は、「水1」における化粧水塗布前後の輝度変化を示す図である。図8に示す例では、塗布前、塗布直後におけるベース画像との差を画像化した例と、その差について選択範囲内において擬似カラー表示した例を示している。また、図8の例では、皮膚表面での反射をある程度補正するために、輝度補正した後、「水1」画像からベース画像を引いた差画像を算出した。この画像では、水を塗布した部分は、白く表示される。
<Coating lotion: Example 1>
FIG. 8 is a diagram showing a luminance change before and after application of the skin lotion in “water 1”. In the example shown in FIG. 8, an example in which the difference from the base image before and immediately after application is imaged and an example in which the difference is displayed in pseudo color within the selection range are shown. Further, in the example of FIG. 8, in order to correct the reflection on the skin surface to some extent, after the luminance correction, a difference image obtained by subtracting the base image from the “water 1” image was calculated. In this image, the portion where water is applied is displayed in white.
図8の例では、塗布領域62に対して化粧水を塗布すると共に、ユーザによりマウス等の入力手段41を用いてドラック等させて所定の選択範囲63を選択させ、その選択範囲の中で画像解析手段45により擬似カラーが設定され、画像生成手段47によりその結果が表示されている。 In the example of FIG. 8, lotion is applied to the application region 62 and the user selects the predetermined selection range 63 by dragging or the like using the input means 41 such as a mouse, and an image is displayed within the selection range. The pseudo color is set by the analyzing unit 45 and the result is displayed by the image generating unit 47.
また、本実施形態において、擬似カラーは輝度差に応じて予め設定した色又は模様の表記を行う。つまり、変化した輝度の大きさによって擬似カラー表示し、顔画像に合成して重ねている。したがって、どの程度の差がある領域がどこにあるかを正確に把握することができる。 In the present embodiment, the pseudo color represents a preset color or pattern according to the luminance difference. That is, pseudo color display is performed according to the magnitude of the changed luminance, and the face image is synthesized and superimposed. Therefore, it is possible to accurately grasp where the difference is.
図8の例では、塗布前の選択範囲63−1における擬似カラー表示と、塗布直後の選択範囲63−2における擬似カラー表示とを比較すると、塗布直後の選択範囲63−2の方が、輝度変化量が多いことが示されている。なお、画像解析手段45における画像解析は、予め設定された画素単位(例えば、1×1、2×2等の正方形ピクセル等)で輝度変化値に対応した所定の色による擬似カラーを割り当ててもよい。 In the example of FIG. 8, when the pseudo color display in the selection range 63-1 before coating is compared with the pseudo color display in the selection range 63-2 immediately after coating, the selection range 63-2 just after coating has a higher luminance. It shows that the amount of change is large. The image analysis in the image analysis unit 45 may be performed by assigning a pseudo color of a predetermined color corresponding to the luminance change value in a preset pixel unit (for example, square pixels such as 1 × 1, 2 × 2, etc.). Good.
更に、図8の例では、画像解析手段45により輝度変化値が取得されている。図8の例では、ユーザにより入力手段41等を用いて設定された1又は複数の輝度変化値測定領域(図8の例では、輝度変化値測定領域64−1,64−2)が設定され、設定された領域に対して、例えば「平均輝度±標準偏差」からなる輝度変化値が表示される。 Further, in the example of FIG. 8, the luminance change value is acquired by the image analysis unit 45. In the example of FIG. 8, one or a plurality of luminance change value measurement areas (in the example of FIG. 8, luminance change value measurement areas 64-1 and 64-2) set by the user using the input unit 41 or the like are set. For the set area, for example, a luminance change value composed of “average luminance ± standard deviation” is displayed.
図8の例では、輝度変化値測定領域64−1の輝度変化値は、93.1±6.1であり、輝度変化値測定領域64−2の輝度変化値は、71.0±5.7であることがわかる。 In the example of FIG. 8, the luminance change value of the luminance change value measurement region 64-1 is 93.1 ± 6.1, and the luminance change value of the luminance change value measurement region 64-2 is 71.0 ± 5. It turns out that it is 7.
<化粧水塗布:実施例2>
図9は、「水2」における化粧水塗布前後の輝度変化を示す図である。図9に示す例では、図8と同様に、塗布前、塗布直後におけるベース画像との差を画像化した例と、その差について選択範囲内において擬似カラー表示した例を示している。また、図9の例では、皮膚表面での反射をある程度補正するために、輝度補正した後、「水2」画像からベース画像を引いた差画像を算出した。この画像では、水を塗布した部分は、白く表示される。
<Lotion application: Example 2>
FIG. 9 is a diagram showing a luminance change before and after application of the skin lotion in “water 2”. In the example shown in FIG. 9, as in FIG. 8, an example in which the difference from the base image before and immediately after application is imaged and an example in which the difference is displayed in pseudo color within the selection range are shown. Further, in the example of FIG. 9, in order to correct the reflection on the skin surface to some extent, after performing luminance correction, a difference image obtained by subtracting the base image from the “water 2” image was calculated. In this image, the portion where water is applied is displayed in white.
図9の例では、塗布領域62に対して化粧水を塗布すると共に、ユーザによりマウス等の入力手段41を用いてドラック等させて所定の選択範囲63を選択させ、その選択範囲の中で画像解析手段45により擬似カラーが設定され、画像生成手段47によりその結果が表示されている。 In the example of FIG. 9, lotion is applied to the application region 62 and the user selects the predetermined selection range 63 by dragging or the like using the input means 41 such as a mouse, and an image is displayed in the selection range. The pseudo color is set by the analyzing unit 45 and the result is displayed by the image generating unit 47.
図9の例では、塗布前の選択範囲63−1における擬似カラー表示と、塗布直後の選択範囲63−2における擬似カラー表示とを比較すると、塗布直後の選択範囲63−2の方が、輝度変化量が特に多いことが示されている。 In the example of FIG. 9, when the pseudo color display in the selection range 63-1 before coating is compared with the pseudo color display in the selection range 63-2 immediately after coating, the selection range 63-2 just after coating has a higher luminance. It is shown that the amount of change is particularly large.
更に、図9の例では、画像解析手段45により輝度変化値(図9の例では、輝度変化値測定領域64−1,64−2)が設定され、設定された領域に対して、例えば「平均輝度±標準偏差」からなる輝度変化値が表示される。図9の例では、輝度変化値測定領域64−1の輝度変化値は、195.4±7.9であり、輝度変化値測定領域64−2の輝度変化値は、153.6±6.0であることがわかる。つまり、「水1」のときより「水2」の方がベース画像との輝度差が大きいことがわかる。 Further, in the example of FIG. 9, the luminance change values (in the example of FIG. 9, the luminance change value measurement areas 64-1 and 64-2) are set by the image analysis unit 45, and for example, “ A luminance change value consisting of “average luminance ± standard deviation” is displayed. In the example of FIG. 9, the luminance change value of the luminance change value measurement region 64-1 is 195.4 ± 7.9, and the luminance change value of the luminance change value measurement region 64-2 is 153.6 ± 6. It turns out that it is zero. That is, it can be seen that “water 2” has a larger luminance difference from the base image than “water 1”.
なお、上述では、化粧水塗布前後での、選択領域の水の輝度変化を、幾つかの処理をした後に算出した。また、変化した輝度の大きさによって擬似カラー表示し、顔画像に重ねて表示している。化粧水塗布部分では、「水1」、「水2」の輝度値は大きく変化した。「水1」と「水2」では、変化パターンが若干異なった。これは、波長による水の検出感度、或いは、水の波長により検出している皮膚内の深さが異なることも一因であると考えられる。(参考論文:M Egawa,H Arimoto,T Hirao,M Takahashi, and Y Ozaki,Regional Difference of Water Content in Human Skin Studied by Diffuse−reflectance Near−infrared Spectroscopy−Consideration of Measurement Depth−,Appl Spectrosc,60(1),24−28(2006).
<(2)乳液の塗布前後とその後>
次に、乳液の塗布前後の肌画像について図用いて説明する。図10は、乳液の塗布前後の肌画像の一例を示す図である。なお、図10に示す例では、塗布前と塗布直後、及び塗布後10分経過後における「ベース」、「水1」、「油」、「水2」のそれぞれの画像が示されている。
In the above description, the change in the brightness of the water in the selected region before and after the application of the skin lotion was calculated after some processing. Further, pseudo color display is performed according to the magnitude of the changed luminance, and the image is superimposed on the face image. In the lotion application portion, the luminance values of “water 1” and “water 2” changed greatly. “Water 1” and “Water 2” had slightly different change patterns. This is considered to be due to the fact that the detection sensitivity of water by the wavelength or the depth in the skin detected by the wavelength of water varies. (Reference paper: M Egawa, H Arimoto, T Hirao, M Takahashi, and Y Ozaki, Regional Difference of Water Content in Human Skin Studied by Diffuse-reflectance Near-infrared Spectroscopy-Consideration of Measurement Depth-, Appl Spectrosc, 60 (1 ), 24-28 (2006).
<(2) Before and after application of emulsion>
Next, skin images before and after application of the emulsion will be described with reference to the drawings. FIG. 10 is a diagram illustrating an example of a skin image before and after application of the emulsion. In the example shown in FIG. 10, images of “base”, “water 1”, “oil”, and “water 2” before and after application and after 10 minutes have elapsed are shown.
ここで、「ベース」は、中心波長を1300nm±40nm程度で取得した画像を示し、「水1」は、中心波長を1500nm±45nm程度で取得した画像を示し、「油」は、1775nm±50nm程度で取得した画像をし、「水2」は、中心波長を1920nm±55nm程度で取得した画像を示している。また、図10に示す塗布直後の領域61−1〜61−4は、皮膚外用剤(図10の例では乳液)を塗布した部分を示している。また、図10では、取得した全ての図面に対して上述した輝度補正が行われている。 Here, “base” indicates an image acquired at a center wavelength of about 1300 nm ± 40 nm, “water 1” indicates an image acquired at a center wavelength of about 1500 nm ± 45 nm, and “oil” indicates 1775 nm ± 50 nm. The image acquired with the degree is “water 2”, and the image obtained with the center wavelength of about 1920 nm ± 55 nm is shown. Moreover, the area | regions 61-1 to 61-4 immediately after application | coating shown in FIG. 10 have shown the part which apply | coated the skin external preparation (in the example of FIG. 10, emulsion). Further, in FIG. 10, the above-described luminance correction is performed on all the acquired drawings.
図10に示すように、取得される画像の領域62−1〜62−4は、それぞれ「ベース」、「水1」、「油」、「水2」における塗布領域を示しているが、塗布領域62−1〜62−4に示すように水や油があると黒くなる。なお、図10の例では、乳液であるため、水と油が共に変化している。塗布直後に比べて、10分後では、黒さ度合いは低下しているのがわかる。 As shown in FIG. 10, areas 62-1 to 62-4 of the acquired image indicate application areas in “base”, “water 1”, “oil”, and “water 2”, respectively. As shown in the regions 62-1 to 62-4, when there is water or oil, it becomes black. In the example of FIG. 10, since it is a milky lotion, both water and oil are changing. It can be seen that the degree of blackness is reduced after 10 minutes compared to immediately after application.
なお、油の画像の取得については、上述した中心波長に限定されず、例えば、約2230〜2400nm程度の帯域(好ましくは中心波長を2345nm±50nm程度の帯域)を用いても同様の画像を取得することができる。これは、以下の説明においても同様である。 The acquisition of the image of the oil is not limited to the above-described center wavelength. For example, a similar image is acquired even when using a band of about 2230 to 2400 nm (preferably a band having a center wavelength of about 2345 nm ± 50 nm). can do. The same applies to the following description.
<乳液:実施例1>
次に、乳液における実施例について説明する。図11は、「水1」における乳液塗布前後の輝度変化を示す図である。図11に示す例では、塗布前、塗布直後、10分後におけるベース画像との差を画像化した例と、その差について選択範囲内において擬似カラー表示した例を示している。また、図11の例では、皮膚表面での反射をある程度補正するために、輝度補正した後、「水1」画像からベース画像を引いた差画像を算出した。この画像では、水を塗布した部分は、白く表示される。
<Emulsion: Example 1>
Next, examples of the emulsion will be described. FIG. 11 is a diagram showing a luminance change before and after the emulsion application in “water 1”. The example shown in FIG. 11 shows an example in which the difference from the base image before application, immediately after application, and after 10 minutes is imaged, and an example in which the difference is displayed in pseudo color within the selection range. Further, in the example of FIG. 11, in order to correct the reflection on the skin surface to some extent, after the luminance correction, a difference image obtained by subtracting the base image from the “water 1” image was calculated. In this image, the portion where water is applied is displayed in white.
図11の例では、塗布領域62に対して化粧水を塗布すると共に、ユーザによりマウス等の入力手段41を用いてドラック等させて所定の選択範囲63を選択させ、その選択範囲の中で画像解析手段45により擬似カラーが設定され、画像生成手段47によりその結果が表示されている。 In the example of FIG. 11, lotion is applied to the application region 62 and the user selects the predetermined selection range 63 by dragging or the like using the input means 41 such as a mouse, and an image is displayed in the selection range. The pseudo color is set by the analyzing unit 45 and the result is displayed by the image generating unit 47.
また、本実施形態において、擬似カラーは輝度差に応じて予め設定した色又は模様の表記を行う。つまり、変化した輝度の大きさによって擬似カラー表示し、顔画像に合成して重ねている。したがって、どの程度の差がある領域がどこにあるかを正確に把握することができる。 In the present embodiment, the pseudo color represents a preset color or pattern according to the luminance difference. That is, pseudo color display is performed according to the magnitude of the changed luminance, and the face image is synthesized and superimposed. Therefore, it is possible to accurately grasp where the difference is.
図11の例では、塗布前の選択範囲63−1における擬似カラー表示と、塗布直後の選択範囲63−2における擬似カラー表示とを比較すると、塗布直後の選択範囲63−2の方が、輝度変化量が多いことが示されている。更に、塗布直後の選択範囲63−2における擬似カラー表示と、塗布10分後の選択範囲63−3における擬似カラー表示とを比較すると、塗布10分後の選択範囲63−3の方が、輝度変化量が減っていることが示されている。 In the example of FIG. 11, when the pseudo color display in the selection range 63-1 before coating is compared with the pseudo color display in the selection range 63-2 immediately after coating, the selection range 63-2 just after coating has a higher luminance. It shows that the amount of change is large. Further, when comparing the pseudo color display in the selection range 63-2 immediately after application with the pseudo color display in the selection range 63-3 after 10 minutes of application, the selection range 63-3 after 10 minutes of application has a higher luminance. It is shown that the amount of change is decreasing.
つまり、図11によれば、皮膚表面での反射をある程度補正するために、輝度補正した後、水や油画像からベース画像を引いた差画像を算出しており、この画像では、水や油を塗布した部分は、白く表示される。また、乳液のため、「水1」は10分後でも保たれている。つまり、肌に残っていることがわかる。 That is, according to FIG. 11, in order to correct the reflection on the skin surface to some extent, after correcting the luminance, a difference image obtained by subtracting the base image from the water or oil image is calculated. The part to which is applied is displayed in white. Moreover, because of the emulsion, “water 1” is kept even after 10 minutes. In other words, it can be seen that it remains on the skin.
また、化粧水塗布前後での、選択領域の「水1」の輝度変化を、上述の化粧水の例と同じように幾つかの処理をした後に算出すると、塗布直後における輝度変化値測定領域64−1の輝度変化値は、119.0±10.5であり、輝度変化値測定領域64−2の輝度変化値は、72.7±4.9である。また、塗布10分後における輝度変化値測定領域64−3の輝度変化値は、103.6±8.0であり、輝度変化値測定領域64−4の輝度変化値は、75.2±4.5であることがわかる。 Further, when the luminance change of “water 1” in the selected region before and after application of the lotion is calculated after performing several processes in the same manner as in the above-described example of the lotion, the luminance change value measurement region 64 immediately after application is calculated. The luminance change value of −1 is 119.0 ± 10.5, and the luminance change value of the luminance change value measurement region 64-2 is 72.7 ± 4.9. Further, the luminance change value of the luminance change value measurement region 64-3 after 10 minutes of application is 103.6 ± 8.0, and the luminance change value of the luminance change value measurement region 64-4 is 75.2 ± 4. .5.
<乳液:実施例2>
次に、乳液における実施例について説明する。図12は、「油」における乳液塗布前後の輝度変化を示す図である。図12に示す例では、塗布前、塗布直後、10分後におけるベース画像との差を画像化した例と、その差について選択範囲内において擬似カラー表示した例を示している。また、図12の例では、皮膚表面での反射をある程度補正するために、輝度補正した後、「油」画像からベース画像を引いた差画像を算出した。この画像では、油を塗布した部分は、白く表示される。
<Emulsion: Example 2>
Next, examples of the emulsion will be described. FIG. 12 is a diagram showing a luminance change before and after applying the emulsion in “oil”. The example shown in FIG. 12 shows an example in which the difference from the base image before application, immediately after application, and after 10 minutes is imaged, and an example in which the difference is displayed in pseudo color within the selection range. Further, in the example of FIG. 12, in order to correct the reflection on the skin surface to some extent, after performing luminance correction, a difference image obtained by subtracting the base image from the “oil” image is calculated. In this image, the oil-applied portion is displayed in white.
図12の例では、塗布領域62に対して化粧水を塗布すると共に、ユーザによりマウス等の入力手段41を用いてドラック等させて所定の選択範囲63を選択させ、その選択範囲の中で画像解析手段45により擬似カラーが設定され、画像生成手段47によりその結果が表示されている。 In the example of FIG. 12, lotion is applied to the application region 62 and the user selects the predetermined selection range 63 by dragging or the like using the input means 41 such as a mouse, and an image is displayed in the selection range. The pseudo color is set by the analyzing unit 45 and the result is displayed by the image generating unit 47.
また、本実施形態において、擬似カラーは輝度差に応じて予め設定した色又は模様の表記を行う。つまり、変化した輝度の大きさによって擬似カラー表示し、顔画像に合成して重ねている。したがって、どの程度の差がある領域がどこにあるかを正確に把握することができる。 In the present embodiment, the pseudo color represents a preset color or pattern according to the luminance difference. That is, pseudo color display is performed according to the magnitude of the changed luminance, and the face image is synthesized and superimposed. Therefore, it is possible to accurately grasp where the difference is.
図12の例では、塗布前の選択範囲63−1における擬似カラー表示と、塗布直後の選択範囲63−2における擬似カラー表示とを比較すると、塗布直後の選択範囲63−2の方が、輝度変化量が多いことが示されている。更に、塗布直後の選択範囲63−2における擬似カラー表示と、塗布10分後の選択範囲63−3における擬似カラー表示とを比較すると、塗布10分後の選択範囲63−3の方が、輝度変化量が減っていることが示されている。 In the example of FIG. 12, when the pseudo color display in the selection range 63-1 before coating is compared with the pseudo color display in the selection range 63-2 immediately after coating, the selection range 63-2 just after coating has a higher luminance. It shows that the amount of change is large. Further, when comparing the pseudo color display in the selection range 63-2 immediately after application with the pseudo color display in the selection range 63-3 after 10 minutes of application, the selection range 63-3 after 10 minutes of application has a higher luminance. It is shown that the amount of change is decreasing.
つまり、図12によれば、皮膚表面での反射をある程度補正するために、輝度補正した後、水や油画像からベース画像を引いた差画像を算出しており、この画像では、水や油を塗布した部分は、白く表示される。また、乳液のため、「油」は10分後でも保たれている。つまり、肌に残っていることがわかる。 That is, according to FIG. 12, in order to correct the reflection on the skin surface to some extent, after correcting the luminance, a difference image obtained by subtracting the base image from the water or oil image is calculated. The part to which is applied is displayed in white. Also, because of the emulsion, the “oil” is kept even after 10 minutes. In other words, it can be seen that it remains on the skin.
また、化粧水塗布前後での、選択領域の「油」の輝度変化を、上述の化粧水の例と同じように幾つかの処理をした後に算出すると、塗布直後における輝度変化値測定領域64−1の輝度変化値は、146.8±10.4であり、輝度変化値測定領域64−2の輝度変化値は、109.9±5.8である。また、塗布10分後における輝度変化値測定領域64−3の輝度変化値は、132.5±5.8であり、輝度変化値測定領域64−4の輝度変化値は、103.2±5.0であることがわかる。 In addition, when the luminance change of the “oil” in the selected region before and after the application of the lotion is calculated after performing several processes in the same manner as in the above-described example of the lotion, the luminance change value measurement region 64- The luminance change value of 1 is 146.8 ± 10.4, and the luminance change value of the luminance change value measurement region 64-2 is 109.9 ± 5.8. In addition, the luminance change value of the luminance change value measurement region 64-3 10 minutes after application is 132.5 ± 5.8, and the luminance change value of the luminance change value measurement region 64-4 is 103.2 ± 5. It turns out that it is 0.0.
<乳液:実施例3>
次に、乳液における実施例について説明する。図13は、「水2」における乳液塗布前後の輝度変化を示す図である。図13に示す例では、塗布前、塗布直後、10分後におけるベース画像との差を画像化した例と、その差について選択範囲内において擬似カラー表示した例を示している。また、図13の例では、皮膚表面での反射をある程度補正するために、輝度補正した後、「水2」画像からベース画像を引いた差画像を算出した。この画像では、水を塗布した部分は、白く表示される。
<Emulsion: Example 3>
Next, examples of the emulsion will be described. FIG. 13 is a diagram showing a luminance change before and after the emulsion application in “water 2”. The example shown in FIG. 13 shows an example in which the difference from the base image before application, immediately after application, and after 10 minutes is imaged, and an example in which the difference is displayed in pseudo color within the selection range. Further, in the example of FIG. 13, in order to correct the reflection on the skin surface to some extent, after the luminance correction, a difference image obtained by subtracting the base image from the “water 2” image was calculated. In this image, the portion where water is applied is displayed in white.
図13の例では、塗布領域62に対して化粧水を塗布すると共に、ユーザによりマウス等の入力手段41を用いてドラック等させて所定の選択範囲63を選択させ、その選択範囲の中で画像解析手段45により擬似カラーが設定され、画像生成手段47によりその結果が表示されている。 In the example of FIG. 13, lotion is applied to the application region 62 and the user selects the predetermined selection range 63 by dragging or the like using the input means 41 such as a mouse, and an image is displayed in the selection range. The pseudo color is set by the analyzing unit 45 and the result is displayed by the image generating unit 47.
また、本実施形態において、擬似カラーは輝度差に応じて予め設定した色又は模様の表記を行う。つまり、変化した輝度の大きさによって擬似カラー表示し、顔画像に合成して重ねている。したがって、どの程度の差がある領域がどこにあるかを正確に把握することができる。 In the present embodiment, the pseudo color represents a preset color or pattern according to the luminance difference. That is, pseudo color display is performed according to the magnitude of the changed luminance, and the face image is synthesized and superimposed. Therefore, it is possible to accurately grasp where the difference is.
図13の例では、塗布前の選択範囲63−1における擬似カラー表示と、塗布直後の選択範囲63−2における擬似カラー表示とを比較すると、塗布直後の選択範囲63−2の方が、輝度変化量が多いことが示されている。更に、塗布直後の選択範囲63−2における擬似カラー表示と、塗布10分後の選択範囲63−3における擬似カラー表示とを比較すると、塗布10分後の選択範囲63−3の方が、輝度変化量が減っていることが示されている。 In the example of FIG. 13, when the pseudo color display in the selection range 63-1 before application is compared with the pseudo color display in the selection range 63-2 immediately after application, the selection range 63-2 immediately after application has a brightness higher than that of the selection range 63-2. It shows that the amount of change is large. Further, when comparing the pseudo color display in the selection range 63-2 immediately after application with the pseudo color display in the selection range 63-3 after 10 minutes of application, the selection range 63-3 after 10 minutes of application has a higher luminance. It is shown that the amount of change is decreasing.
つまり、図13によれば、皮膚表面での反射をある程度補正するために、輝度補正した後、水や油画像からベース画像を引いた差画像を算出しており、この画像では、水や油を塗布した部分は、白く表示される。また、乳液のため、「水2」は10分後でも保たれている。つまり、肌に残っていることがわかる。 That is, according to FIG. 13, in order to correct the reflection on the skin surface to some extent, after correcting the luminance, a difference image obtained by subtracting the base image from the water or oil image is calculated. The part to which is applied is displayed in white. Moreover, because of the emulsion, “water 2” is maintained even after 10 minutes. In other words, it can be seen that it remains on the skin.
また、化粧水塗布前後での、選択領域の「水2」の輝度変化を、上述の化粧水の例と同じように幾つかの処理をした後に算出すると、塗布直後における輝度変化値測定領域64−1の輝度変化値は、194.3±14.8であり、輝度変化値測定領域64−2の輝度変化値は、139.0±4.9である。また、塗布10分後における輝度変化値測定領域64−3の輝度変化値は、184.5±10.6であり、輝度変化値測定領域64−4の輝度変化値は、139.2±5.0であることがわかる。 Further, when the luminance change of “water 2” in the selected region before and after the application of the lotion is calculated after performing some processes in the same manner as in the above-described example of the lotion, the luminance change value measurement region 64 immediately after application is calculated. The luminance change value of −1 is 194.3 ± 14.8, and the luminance change value of the luminance change value measurement region 64-2 is 139.0 ± 4.9. In addition, the luminance change value of the luminance change value measurement region 64-3 10 minutes after application is 184.5 ± 10.6, and the luminance change value of the luminance change value measurement region 64-4 is 139.2 ± 5. It turns out that it is 0.0.
塗布直後では、「油」、「水1」、「水2」が共に塗布した部分が変化している。また、その変化は、「水2」>「水1」であったが、この要因は、前述のように撮影感度、及び、撮影深さの可能性がある。また、塗布10分後では、「水1」、「水2」、「油」が共に直後よりも減少しているが、まだ充分存在していることがわかる。 Immediately after application, portions where “oil”, “water 1”, and “water 2” are applied are changed. Further, the change was “water 2”> “water 1”, but this factor may be imaging sensitivity and imaging depth, as described above. In addition, after 10 minutes of application, “water 1”, “water 2”, and “oil” are all decreased from immediately after, but it is understood that they still exist sufficiently.
また、塗布部位以外を見ると、「油」では変化がほぼないのに対して、「水2」では塗布前に比べて、10分後の方が、輝度値が変化すると水が増加している。これは、塗布は、洗顔10分後に行ったが、その後、元々もっている肌の機能で、洗顔によって消失した水分量が回復してきた過程を検出している可能性がある。 In addition, when looking at areas other than the application site, “oil” has almost no change, whereas “water 2” has 10 minutes more water than before application when the brightness value changes. Yes. The application was performed 10 minutes after the face washes, but there was a possibility that the process of recovering the amount of water lost by the face was recovered by the function of the skin originally possessed.
上述したように、複数の近赤外領域でおの画像を組み合わせると、乳液のように水と油の両方の変化を追いたいサンプルに対して、同時解析が可能になる。 As described above, when images are combined in a plurality of near infrared regions, simultaneous analysis can be performed on a sample that wants to follow changes in both water and oil, such as an emulsion.
<(3)ヘアトリートメントの塗布前後>
次に、ヘアトリートメントの塗布前後の肌画像について図用いて説明する。図14は、ヘアトリートメントの塗布前後の頭髪画像の一例を示す図である。なお、図14の例では、塗布前と塗布直後における「ベース」、「水1」、「水2」のそれぞれの画像が示されている。
<(3) Before and after application of hair treatment>
Next, skin images before and after application of hair treatment will be described with reference to the drawings. FIG. 14 is a diagram illustrating an example of a hair image before and after application of a hair treatment. In the example of FIG. 14, images of “base”, “water 1”, and “water 2” before and immediately after application are shown.
ここで、「ベース」は、中心波長を1300nm±40nm程度で取得した画像を示し、「水1」は、中心波長を1500nm±45nm程度で取得した画像を示し、「水2」は、中心波長を1920nm±55nm程度で取得した画像を示している。また、図14に示す塗布直後の領域61−1〜61−3は、皮膚外用剤(図14の例ではヘアートリートメント)を塗布した部分を示している。また、図14では、取得した全ての図面に対して上述した輝度補正が行われている。 Here, “base” indicates an image acquired with a center wavelength of about 1300 nm ± 40 nm, “water 1” indicates an image acquired with a center wavelength of about 1500 nm ± 45 nm, and “water 2” indicates a center wavelength. Is an image acquired at about 1920 nm ± 55 nm. Moreover, the area | regions 61-1 to 61-3 immediately after application | coating shown in FIG. 14 have shown the part which apply | coated the skin external preparation (the hair treatment in the example of FIG. 14). Further, in FIG. 14, the above-described luminance correction is performed on all the acquired drawings.
図14に示すように、取得される画像の領域62−1〜62−3は、それぞれ「ベース」、「水1」、「水2」における塗布領域を示しているが、塗布領域62−1〜62−3に示すように水があると黒くなる。 As illustrated in FIG. 14, areas 62-1 to 62-3 of the acquired image indicate application areas in “base”, “water 1”, and “water 2”, respectively. It turns black when there is water as shown in ~ 62-3.
つまり、図14では、上述した顔撮影装置11に、後頭部をむけて撮影した。図14の例では、水があると黒くなる。ここで、毛髪は、皮膚と違って、もともとの水分量は非常に少ないため、白く写る。ベース画像の塗布直後で黒い部分がある理由は、水系のトリートメントを噴霧すると、しっとりして、噴霧した部分が束になったため、髪の毛が束になって浮いたようになっている。 That is, in FIG. 14, the face photographing device 11 described above was photographed with the back of the head. In the example of FIG. 14, it becomes black when there is water. Here, unlike the skin, hair originally appears white because of its very low water content. The reason why there is a black part immediately after the application of the base image is that when the water-based treatment is sprayed, the sprayed part becomes a bundle, and the hair is bundled and floats.
図14に示す「水1」、「水2」画像では、噴霧した部分が、水の吸収で黒く写っている。「水1」と「水2」では、写り方が異なるが、これは、波長による水の検出感度、或いは、撮影深さの違いがあると考えられる。 In the “water 1” and “water 2” images shown in FIG. 14, the sprayed portion appears black due to water absorption. Although “Water 1” and “Water 2” are captured differently, it is thought that there is a difference in water detection sensitivity or imaging depth depending on the wavelength.
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態では、上述した実施形態で示した内容について、ユーザに提示する画面をよりユーザにわかり易く示したものである。
<Second Embodiment>
Next, a second embodiment will be described. In the second embodiment, the contents presented in the above-described embodiments are shown in a more easily understandable manner for the user to display a screen presented to the user.
ここで、図15は、他の実施形態における化粧水塗布前後の輝度変化の一例を示す図である。また、図16は、図15に対応する選択範囲擬似カラー表示の一例を示す図である。 Here, FIG. 15 is a figure which shows an example of the brightness | luminance change before and after the lotion application in other embodiment. FIG. 16 is a diagram showing an example of the selection range pseudo color display corresponding to FIG.
なお、図15及び図16は、塗布直後における塗布前からの変化(「水1」−「ベース」)、(「油」−「ベース」)、(「水2」−「ベース」)を示している。なお、化粧水は、皮膚外用剤の塗布領域71にそれぞれ示している。また、「水1」、「水2」の場合と、「油」の場合とで輝度変化の差分画像の色を変えて示している。図15では、何れも塗布領域71では、色が濃く表示され、差分値が大きかったことを示している。 FIGS. 15 and 16 show changes (“Water 1”-“Base”), (“Oil”-“Base”), (“Water 2”-“Base”) immediately after application, before application. ing. In addition, the lotion is shown in the application area 71 of the external preparation for skin. Also, the color of the difference image of the luminance change is shown differently for “water 1” and “water 2” and for “oil”. FIG. 15 shows that in the application area 71, the color is displayed darkly and the difference value is large.
図16では、上述した擬似カラーを割り当てる選択範囲72と、各条件における輝度変化値測定領域73−1〜73−3が示されている。塗布直後における塗布前からの変化において、「水1」−「ベース」の場合、輝度変化値測定領域73−1の輝度変化値は、185.6±22.7であり、輝度変化値測定領域73−2の輝度変化値は、205.7±17.9であり、輝度変化値測定領域73−3の輝度変化値は、238.7±16.0であることがわかる。また、「油」−「ベース」の場合、輝度変化値測定領域73−1の輝度変化値は、213.7±22.4であり、輝度変化値測定領域73−2の輝度変化値は、234.8±16.5であり、輝度変化値測定領域73−3の輝度変化値は、254.0±5.2であることがわかる。更に、「水2」−「ベース」の場合、輝度変化値測定領域73−1の輝度変化値は、138.4±21.2であり、輝度変化値測定領域73−2の輝度変化値は、193.0±21.5であり、輝度変化値測定領域73−3の輝度変化値は、254.9±1.6であることがわかる。 FIG. 16 shows the selection range 72 to which the above-described pseudo color is assigned and the luminance change value measurement areas 73-1 to 73-3 under each condition. In the case of “water 1” − “base” in the change from before application immediately after application, the luminance change value of the luminance change value measurement region 73-1 is 185.6 ± 22.7, and the luminance change value measurement region It can be seen that the luminance change value of 73-2 is 205.7 ± 17.9, and the luminance change value of the luminance change value measurement region 73-3 is 238.7 ± 16.0. In the case of “oil”-“base”, the luminance change value of the luminance change value measurement region 73-1 is 213.7 ± 22.4, and the luminance change value of the luminance change value measurement region 73-2 is It is 234.8 ± 16.5, and it can be seen that the luminance change value of the luminance change value measurement region 73-3 is 254.0 ± 5.2. Further, in the case of “water 2” − “base”, the luminance change value of the luminance change value measurement region 73-1 is 138.4 ± 21.2, and the luminance change value of the luminance change value measurement region 73-2 is 193.0 ± 21.5, and it can be seen that the luminance change value of the luminance change value measurement region 73-3 is 254.9 ± 1.6.
図16では、塗布前からの変化においては、「油」の方は変化が少なく、「水1」、「水2」の方は変化が大きいことがわかる。更に、「水1」よりも「水2」の方が、変化が大きいことがわかる。 In FIG. 16, it can be seen that “oil” has less change in change from before application, and “water 1” and “water 2” have larger change. Further, it can be seen that “water 2” has a larger change than “water 1”.
ここで、図17は、他の実施形態における乳液塗布前後の輝度変化の一例を示す図である。また、図18は、図17に対応する選択範囲擬似カラー表示の一例を示す図である。 Here, FIG. 17 is a diagram illustrating an example of a luminance change before and after applying the latex in another embodiment. FIG. 18 is a diagram showing an example of the selection range pseudo color display corresponding to FIG.
なお、図17及び図18は、塗布直後及び塗布10分後における塗布前からの変化(「水1」−「ベース」)、(「油」−「ベース」)、(「水2」−「ベース」)を示している。なお、化粧水は、皮膚外用剤の塗布領域71にそれぞれ示している。また、「水1」、「水2」の場合と、「油」の場合とで輝度変化の差分画像の色を変えて示している。図17では、何れも塗布領域71では、色が濃く表示され、差分値が大きかったことを示している。更に、塗布10分後でも塗布領域には、同様の輝度変化が見られる。 FIGS. 17 and 18 show changes immediately after application and 10 minutes after application ("water 1"-"base"), ("oil"-"base"), ("water 2"-" Base "). In addition, the lotion is shown in the application area 71 of the external preparation for skin. Also, the color of the difference image of the luminance change is shown differently for “water 1” and “water 2” and for “oil”. FIG. 17 shows that the color is dark in the application area 71 and the difference value is large. Further, the same luminance change is observed in the application region even after 10 minutes of application.
図18では、上述した擬似カラー選択範囲72と、各条件における輝度変化値測定領域73−4,73−5が示されている。塗布直後における塗布前からの変化において、「水1」−「ベース」の場合、輝度変化値測定領域73−4の輝度変化値は、134.0±19.4であり、輝度変化値測定領域73−5の輝度変化値は、247.4±9.0であることがわかる。また、塗布10分後における塗布前からの変化においては、輝度変化値測定領域73−4の輝度変化値は、128.4±30.3であり、輝度変化値測定領域73−5の輝度変化値は、233.1±12.1であることがわかる。 FIG. 18 shows the above-described pseudo color selection range 72 and luminance change value measurement regions 73-4 and 73-5 under each condition. In the case of “water 1”-“base” in the change from before application immediately after application, the luminance change value of the luminance change value measurement region 73-4 is 134.0 ± 19.4, and the luminance change value measurement region It can be seen that the luminance change value of 73-5 is 247.4 ± 9.0. Further, in the change from before the application 10 minutes after the application, the luminance change value of the luminance change value measurement region 73-4 is 128.4 ± 30.3, and the luminance change of the luminance change value measurement region 73-5. It can be seen that the value is 233.1 ± 12.1.
また、塗布直後における塗布前からの変化において、「油」−「ベース」の場合、輝度変化値測定領域73−4の輝度変化値は、153.1±24.9であり、輝度変化値測定領域73−5の輝度変化値は、229.4±15.9であることがわかる。また、塗布10分後における塗布前からの変化においては、輝度変化値測定領域73−4の輝度変化値は、143.6±27.3であり、輝度変化値測定領域73−5の輝度変化値は、226.5±15.9であることがわかる。 Also, in the change from before application immediately after application, in the case of “oil”-“base”, the luminance change value of the luminance change value measurement region 73-4 is 153.1 ± 24.9, and the luminance change value measurement. It can be seen that the luminance change value of the region 73-5 is 229.4 ± 15.9. Further, in the change from before the application 10 minutes after the application, the luminance change value of the luminance change value measurement region 73-4 is 143.6 ± 27.3, and the luminance change of the luminance change value measurement region 73-5. It can be seen that the value is 226.5 ± 15.9.
更に、塗布直後における塗布前からの変化において、「水2」−「ベース」の場合、輝度変化値測定領域73−4の輝度変化値は、69.5±31.2であり、輝度変化値測定領域73−5の輝度変化値は、222.8±15.3であることがわかる。また、塗布10分後における塗布前からの変化においては、輝度変化値測定領域73−4の輝度変化値は、79.8±27.1であり、輝度変化値測定領域73−5の輝度変化値は、179.2±17.0であることがわかる。 Further, in the case of “water 2” − “base” in the change from before application immediately after application, the luminance change value of the luminance change value measurement region 73-4 is 69.5 ± 31.2, and the luminance change value It can be seen that the luminance change value of the measurement region 73-5 is 222.8 ± 15.3. Further, in the change from before the application 10 minutes after the application, the luminance change value of the luminance change value measurement region 73-4 is 79.8 ± 27.1, and the luminance change of the luminance change value measurement region 73-5. It can be seen that the value is 179.2 ± 17.0.
上述したように、ユーザが指定した輝度変化値測定領域に対する輝度変化値を提示することで、任意の場所に対する変化値を容易に提示することができ、輝度差を数値により明確にすることで容易に把握することができる。 As described above, by presenting the brightness change value for the brightness change value measurement area specified by the user, the change value for an arbitrary place can be easily presented, and the brightness difference can be easily clarified by a numerical value. Can grasp.
なお、上述した画像は、リアルタイムに被写体やユーザに見せることもできるため、皮膚外用剤を塗布しながら化粧カウンセリングを行うといったこともできる。 In addition, since the above-mentioned image can be shown to a subject or a user in real time, makeup counseling can be performed while applying a skin external preparation.
更に、取得した画像を被写体毎に管理して蓄積しておき、ある纏まったデータを用いて統計処理的を行い、経時的な評価を行うこともできる。また、4波長使って肌や毛髪等を解析することができる。 Furthermore, the acquired images can be managed and accumulated for each subject, statistical processing can be performed using a certain collected data, and evaluation over time can be performed. Moreover, skin, hair, etc. can be analyzed using 4 wavelengths.
<肌の評価手法>
次に、上述した評価手段46における肌(皮膚)等の評価手法について、以下に具体的な実施例を説明する。
<Skin Evaluation Method>
Next, specific examples of the evaluation method for the skin (skin) and the like in the evaluation means 46 described above will be described below.
<実施例1:洗浄効果評価法>
本実施形態における評価手段46は、上述した画像解析手段45により解析した結果に基づいて、例えば近赤外画像を用いた水分分布状態解析から肌の露出を評価することによる洗浄料の洗浄効果を評価することができる。
<Example 1: Evaluation method of cleaning effect>
The evaluation means 46 in the present embodiment is based on the result analyzed by the image analysis means 45 described above, for example, the cleaning effect of the cleaning material by evaluating the skin exposure from the moisture distribution state analysis using a near-infrared image. Can be evaluated.
ここで、上述した内容を実施例1として具体的に説明する。実施例1では、一例として近赤外イメージング法を用いて、ファンデーション(FD)を塗布した肌におけるクレンジング製品の効果比較を行う例を示す。 Here, the contents described above will be specifically described as a first embodiment. Example 1 shows an example in which the effect of cleansing products on the skin to which foundation (FD) is applied is compared using a near infrared imaging method as an example.
洗浄効果を評価する方法としては、例えばユーザの左右の頬部に同一のファンデーションを塗布し、2つのクレンジング製品をコットンに約2ml程度含ませ、約10秒間押し付けた後、ティッシュにて余分なクレンジング製品を取り除く。 As a method for evaluating the cleaning effect, for example, the same foundation is applied to the left and right cheeks of the user, about 2 ml of two cleansing products are included in cotton, and after pressing for about 10 seconds, extra cleansing is performed with a tissue. Remove the product.
ここで、図19は、実施例1の評価方法に対する2つの製品の塗布内容を説明するための図である。図19では、ユーザの左右の頬部に対してサンプル(Sample)A、サンプル(Sample)Bの2つのファンデーション(FD)製品に対して、塗布前と、塗布、クレンジング処理、クレンジング処理直後、クレンジング処理15分後の撮影をするときの各種条件を示している。なお、図19に示す例では、近赤外領域として、例えば1950nm、1775nm、1500nm、1460nm、及び1300nmの各帯域による撮影を行うことができる。 Here, FIG. 19 is a diagram for explaining the application contents of two products for the evaluation method of Example 1. FIG. In FIG. 19, the two foundation (FD) products of Sample (Sample A) and Sample (Sample) B are applied to the left and right cheeks of the user before application, application, cleansing process, immediately after cleansing process, and cleansing. Various conditions for shooting after 15 minutes of processing are shown. In the example shown in FIG. 19, for example, imaging can be performed in each band of 1950 nm, 1775 nm, 1500 nm, 1460 nm, and 1300 nm as the near infrared region.
次に、実施例1では、近赤外カメラ(図2に示すカメラ24)を用い、FD塗布前、FD塗布後、処理直後、及び処理15分後の画像を取得する。なお、処理15分後については、余分な水分が残っていいない状態での確認を行うために実施した。 Next, in Example 1, using a near-infrared camera (camera 24 shown in FIG. 2), images before FD coating, after FD coating, immediately after processing, and after 15 minutes of processing are acquired. In addition, about 15 minutes after a process, it implemented in order to confirm in the state in which the excess water | moisture content does not remain.
ここで、図20は、実施例1の条件により撮影された画像の一例を示す図である。また、図21は、実施例1の条件での評価結果を示す図である。なお、図20(a),(b)は、何れも一例として近赤外領域が約1950nmでのFD塗布前、FD塗布後、クレンジング処理直後、クレンジング15分後の顔画像を示している。また、これらの画像は、被写体の顎部付近に配置されている反射率の異なる3つの色票のうち、撮影した近赤外領域に対応した色票を用いて画像処理が施されている。また、図20(b)では、図20(a)の画像に対して、更に予め設定された画像処理によりコントラストを強調した画像を示している。 Here, FIG. 20 is a diagram illustrating an example of an image photographed under the conditions of the first embodiment. FIG. 21 is a diagram showing the evaluation results under the conditions of Example 1. 20A and 20B show face images after FD application, after FD application, immediately after cleansing process, and after 15 minutes of cleansing, as an example, in which the near-infrared region is about 1950 nm. In addition, these images are subjected to image processing using a color chart corresponding to the photographed near-infrared region among the three color charts having different reflectances arranged near the jaw of the subject. Further, FIG. 20B shows an image in which the contrast is enhanced with respect to the image of FIG. 20A by further preset image processing.
図20(a),(b)に示すように、上述した本実施形態における近赤外領域での撮影することで、肌の状態の違いを容易に把握することができる。また、図20(b)に示すようにコントラスト調整することで、更に肌の違いを明確にすることができる。 As shown in FIGS. 20A and 20B, by photographing in the near-infrared region in the above-described embodiment, the difference in skin condition can be easily grasped. Further, the difference in skin can be further clarified by adjusting the contrast as shown in FIG.
また、図21の近赤外カメラによる洗浄効果を画像化した図では、図21(a)に示すファンデーション塗布後については、サンプルA、サンプルB共にファンデーションが塗布されている部位が暗く表示されており、また、図21(b)に示すクレンジング15分後については、サンプルAでは、暗い部分が残っているが、サンプルBではほとんどなくなっている。そのため、サンプルBの方が、洗浄効果が高いと評価することができる。 In the image of the cleaning effect obtained by the near-infrared camera in FIG. 21, after applying the foundation shown in FIG. 21 (a), the portion where the foundation is applied for both sample A and sample B is darkly displayed. In addition, after 15 minutes of cleansing shown in FIG. 21 (b), the dark portion remains in sample A, but almost disappears in sample B. Therefore, it can be evaluated that the sample B has a higher cleaning effect.
<実施例2:FD付着状態評価法>
本実施形態における評価手段46は、上述した画像解析手段45により解析した結果に基づいて、例えば近赤外画像を用いた水分分布状態解析から肌の露出を評価することによるファンデーション等の化粧料の付着状態を評価することができる。
<Example 2: FD adhesion state evaluation method>
The evaluation means 46 in this embodiment is based on the result analyzed by the image analysis means 45 described above, for example, for cosmetics such as a foundation by evaluating skin exposure from a moisture distribution state analysis using a near-infrared image. The adhesion state can be evaluated.
ここで、上述した内容を実施例2として具体的に説明する。実施例2では、一例として近赤外イメージング法を用いたFD塗布後の経時変化を観察した例を示す。 Here, the contents described above will be specifically described as a second embodiment. In Example 2, an example in which a change with time after FD coating using the near-infrared imaging method is observed is shown as an example.
なお、FD付着状態を評価する方法としては、まず左右頬部に化粧持ちの異なるFDを塗布する。次に、近赤外カメラを用いて、FD塗布前、FD塗布直後、60分後の画像を取得する。 In addition, as a method for evaluating the FD adhesion state, first, FDs having different makeup are applied to the left and right cheeks. Next, using a near infrared camera, images before FD coating, immediately after FD coating, and after 60 minutes are acquired.
ここで、図22〜図25は、実施例2の条件において得られる画像例(その1〜その4)を示す図である。まず、図22では、リキッドファンデーション(FD)を塗布したとき(図22(a))、及びパウダリーファンデーション(FD)を塗布したとき(図22(b))の素肌の比較と、FD塗布直後の比較評価を行ったものである。なお、図22の画像は、近赤外領域を約1500nmとして撮影した画像を示している。 Here, FIGS. 22 to 25 are diagrams showing image examples (No. 1 to No. 4) obtained under the conditions of the second embodiment. First, in FIG. 22, when the liquid foundation (FD) is applied (FIG. 22 (a)) and when the powdery foundation (FD) is applied (FIG. 22 (b)), the comparison of the bare skin and immediately after the FD application A comparative evaluation was performed. In addition, the image of FIG. 22 has shown the image image | photographed as a near infrared region about 1500 nm.
図22(a)に示すリキッドFDの場合には、FDが塗布されているため、全体が白っぽくなる。また、図22(b)に示すパウダリーFDの場合には、FDが塗布されているため全体に白っぽくなり、塗りむらがグレーに表示される。したがって、図22に示す画像を用いることで、FD付着状態を評価することができる。 In the case of the liquid FD shown in FIG. 22A, since the FD is applied, the whole becomes whitish. Further, in the case of the powdery FD shown in FIG. 22B, since the FD is applied, the whole becomes whitish and the coating unevenness is displayed in gray. Therefore, the FD adhesion state can be evaluated by using the image shown in FIG.
また、図23に示すように、素顔(洗顔5分後)、塗布直後、塗布後6時間後にそれぞれ撮影された画像から、FD塗布における経時(時系列)変化をみると、塗布直後に白い部分がややグレーになってくるのがわかる。つまり、図23に示すような画像解析を行うことで、FDが落ち着いている様子を判別することができ、FD毎の肌への付着性の評価を行うことができる。 Further, as shown in FIG. 23, when the changes over time (time series) in the FD application are seen from the images taken for the face (after 5 minutes of face washing), immediately after application, and 6 hours after application, a white portion immediately after application You can see that it becomes a little gray. That is, by performing the image analysis as shown in FIG. 23, it is possible to determine how the FD is calm, and it is possible to evaluate the adhesion to the skin for each FD.
また、図24に示すように、塗布直後と6時間後の肌画像の頬部を比較すると、通常の写真(カラー画像)に比べて、上述した近赤外領域で撮影した画像(近赤外領域画像)の方が、違いがはっきりを表示される。そのため、図24に示すような近赤外領域画像を用いることで適切な評価ができることがわかる。 Also, as shown in FIG. 24, when comparing the cheeks of the skin image immediately after application and after 6 hours, an image (near infrared) taken in the above-mentioned near infrared region as compared with a normal photograph (color image). The area image) shows the difference more clearly. Therefore, it can be seen that appropriate evaluation can be performed by using a near infrared region image as shown in FIG.
更に、本実施形態では、上述した画像生成手段47等において、近赤外カメラによるメーキャップ化粧料塗布状態を画像化した場合に、図25(a)に示すように右顔と左顔とでメークの有り無し画像を生成することができ、また図25(b)に示すように近赤外カメラ画像を生成するもでき、更に図25(c)に示すように化粧料の塗布状態の変化部分を擬似カラー化したカラー画像も生成することもできる。上述した図25(a)〜(c)に示す生成された画面のそれぞれを適宜表示することで、FD付着状態を高精度に評価することができる。 Furthermore, in this embodiment, when the makeup generating application state by the near-infrared camera is imaged in the above-described image generation means 47 or the like, the makeup of the right face and the left face is made as shown in FIG. A non-existing image can be generated, a near-infrared camera image can also be generated as shown in FIG. 25 (b), and a change portion of the cosmetic application state as shown in FIG. 25 (c). It is also possible to generate a color image obtained by pseudo-coloring. By properly displaying each of the generated screens shown in FIGS. 25A to 25C described above, the FD adhesion state can be evaluated with high accuracy.
上述したように、本実施形態における評価手段46により洗浄料による保湿効果や化粧料の付着状態に対して画像解析による高精度な評価を行うことができる。なお、評価手段46は、保湿効果又は化粧料の付着状態の何れかの評価のみを行ってもよく、また両方の評価を行ってもよい。これらの評価内容は、例えばユーザ等により予め設定することもでき、更に撮影対象に応じて設定することもできる。 As described above, the evaluation means 46 in the present embodiment can perform highly accurate evaluation by image analysis on the moisturizing effect of the cleaning material and the adhesion state of the cosmetic material. In addition, the evaluation means 46 may perform only either evaluation of a moisturizing effect or the adhesion state of cosmetics, and may perform both evaluations. These evaluation contents can be set in advance by a user or the like, for example, and can also be set in accordance with an object to be photographed.
上述したように、本発明によれば、近赤外領域の画像を用いて皮膚の解析を高精度に行うことができる。更に、その解析結果から、皮膚等に対する高精度な評価を行うことができる。 As described above, according to the present invention, skin analysis can be performed with high accuracy using an image in the near infrared region. Furthermore, it is possible to evaluate the skin and the like with high accuracy from the analysis result.
また、本発明によれば、基剤中の水の存在状態の検討や、処方による水の状態の違いのイメージング、皮膚拡大画像(皮丘皮溝での水の塗布状態)、毛髪拡大画像、爪の水分のイメージング等の解析も可能である。 In addition, according to the present invention, examination of the presence state of water in the base, imaging of the difference in water state due to prescription, enlarged skin image (applied state of water in the cuticle skin groove), enlarged hair image, Analysis such as imaging of nail moisture is also possible.
また、本発明によれば、化粧を塗る位置毎或いは使用者毎に、塗り方についてカウンセラーによるカウンセリングを実施することができ、その他、広く美容法の評価にも活用することができる。 Further, according to the present invention, it is possible to perform counseling by a counselor on how to apply makeup for each position or user for applying makeup, and it can also be widely used for evaluation of beauty methods.
具体的には、本発明によれば、例えば近赤外画像を用いた水分分布状態解析から肌の露出を評価することによる洗浄料の洗浄効果評価や、近赤外画像を用いた水分分布状態解析から肌の露出を評価することによるファンデーション(FD)付着状態評価法等のメーキャップ化粧料塗布状態評価等に適用することができる。 Specifically, according to the present invention, for example, a cleaning effect evaluation of a cleaning material by evaluating skin exposure from a moisture distribution state analysis using a near-infrared image, and a moisture distribution state using a near-infrared image It can be applied to makeup cosmetics application state evaluation such as a foundation (FD) adhesion state evaluation method by evaluating skin exposure from analysis.
更に、本発明によれば、近赤外画像を用いた特定成分の分布解析による新たな肌質分類法として、水分及び油分分布を用いたによる肌質評価法や、近赤外画像を用いた分布状態解析による肌質の評価プログラム、洗浄料の保湿効果評価法、近赤外画像を用いた水分分布状態解析による洗浄料の保湿効果評価法等の幅広い分野で適用することができる。 Furthermore, according to the present invention, as a new skin quality classification method by analyzing the distribution of specific components using a near-infrared image, a skin quality evaluation method using moisture and oil content distribution and a near-infrared image are used. It can be applied in a wide range of fields such as a skin quality evaluation program based on distribution state analysis, a moisturizing effect evaluation method for cleaning materials, and a moisturizing effect evaluation method for cleaning materials based on moisture distribution state analysis using near-infrared images.
更に、本発明によれば、化粧を塗る位置毎或いは使用者毎に、塗り方についてカウンセラーによるカウンセリングを実施することができ、その他、広く美容法の評価にも活用することができる。 Furthermore, according to the present invention, it is possible to perform counseling by a counselor on how to apply makeup for each position where makeup is applied or for each user, and can also be widely used for evaluation of beauty methods.
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.
10 撮影システム
11 顔撮影装置
12 画像解析装置
13 ケーブル
21 ドーム(筐体)
22 光源
23 顎乗せ部材
24 撮像装置
31 第1のフィルタ
32 第2のフィルタ
33 第3のフィルタ
41 入力手段
42 出力手段
43 蓄積手段
44 撮影画像取得手段
45 画像解析手段
46 評価手段
47 画像生成手段
48 制御手段
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
61 領域
62,71 塗布領域
63,72 選択範囲
64,73 輝度変化値測定領域
DESCRIPTION OF SYMBOLS 10 Shooting system 11 Face imaging device 12 Image analysis device 13 Cable 21 Dome (housing)
DESCRIPTION OF SYMBOLS 22 Light source 23 Jaw mounting member 24 Imaging device 31 1st filter 32 2nd filter 33 3rd filter 41 Input means 42 Output means 43 Accumulation means 44 Captured image acquisition means 45 Image analysis means 46 Evaluation means 47 Image generation means 48 Control means 51 Input device 52 Output device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 CPU
57 Network connection device 58 Recording medium 61 Area 62, 71 Application area 63, 72 Selection range 64, 73 Brightness change value measurement area
Claims (11)
前記被写体に皮膚外用剤を塗布する前後における前記顔画像を取得する画像取得ステップと、
前記画像取得ステップにより取得した画像に輝度補正を行う輝度補正ステップと、
前記輝度補正ステップにより得られた前記皮膚外用剤を塗布する前後の画像の差分量を前記複数の異なる近赤外領域毎に取得する差分量取得ステップと、
前記差分量取得ステップにより得られる差分量に基づいて前記被写体の皮膚を解析する解析ステップと、
前記解析ステップにより得られた解析結果を表示する画面を生成する画面生成ステップとを有することを特徴とする画像解析方法。 In an image analysis method for analyzing the skin of a subject using face images of the subject photographed in a plurality of different near infrared regions,
An image acquisition step of acquiring the face image before and after applying a skin external preparation to the subject;
A luminance correction step for performing luminance correction on the image acquired by the image acquisition step;
A difference amount acquisition step of acquiring, for each of the plurality of different near infrared regions, a difference amount between images before and after applying the external preparation for skin obtained by the luminance correction step;
An analysis step of analyzing the skin of the subject based on the difference amount obtained by the difference amount acquisition step;
An image analysis method comprising: a screen generation step for generating a screen for displaying the analysis result obtained in the analysis step.
前記差分量取得ステップにより得られた差分量の大きさに基づいて予め設定された色又は模様により所定の画素毎に強調表示した画面を生成することを特徴とする請求項1又は2に記載の画像解析方法。 The screen generation step includes
The screen according to claim 1 or 2, wherein a screen highlighted for each predetermined pixel with a color or pattern set in advance based on the magnitude of the difference amount obtained in the difference amount acquisition step is generated. Image analysis method.
前記画面生成ステップにより得られた解析結果の画面から、ユーザにより設定される前記画面中の所定領域に対する輝度変化値を算出することを特徴とする請求項1乃至3の何れか1項に記載の画像解析方法。 The analysis step includes
4. The luminance change value for a predetermined region in the screen set by a user is calculated from the analysis result screen obtained in the screen generation step. 5. Image analysis method.
前記被写体に皮膚外用剤を塗布する前後における前記顔画像を取得する画像取得手段と、
前記画像取得手段により取得した画像に輝度補正を行う輝度補正手段と、
前記輝度補正手段により得られた前記皮膚外用剤を塗布する前後の画像の差分量を前記複数の異なる近赤外領域毎に取得する差分量取得手段と、
前記差分量取得手段により得られる差分量に基づいて前記被写体の皮膚を解析する解析手段と、
前記解析手段により得られた解析結果を表示する画面を生成する画面生成手段とを有することを特徴とする画像解析装置。 In an image analysis apparatus for analyzing the skin of a subject using face images of the subject photographed in a plurality of different near infrared regions,
Image acquisition means for acquiring the face image before and after applying a skin external preparation to the subject;
Luminance correction means for performing luminance correction on the image acquired by the image acquisition means;
A difference amount acquisition means for acquiring a difference amount between images before and after applying the external preparation for skin obtained by the brightness correction means for each of the plurality of different near infrared regions;
Analysis means for analyzing the skin of the subject based on the difference amount obtained by the difference amount acquisition means;
An image analysis apparatus comprising: a screen generation unit that generates a screen for displaying the analysis result obtained by the analysis unit.
前記差分量取得手段により得られた差分量の大きさに基づいて予め設定された色又は模様により所定の画素毎に強調表示した画面を生成することを特徴とする請求項6又は7に記載の画像解析装置。 The screen generation means includes
The screen according to claim 6 or 7, wherein a screen highlighted for each predetermined pixel is generated with a preset color or pattern based on a difference amount obtained by the difference amount acquisition unit. Image analysis device.
前記画面生成手段により得られた解析結果の画面から、ユーザにより設定される前記画面中の所定領域に対する輝度変化値を算出することを特徴とする請求項6乃至8の何れか1項に記載の画像解析装置。 The analysis means includes
9. The luminance change value for a predetermined region in the screen set by a user is calculated from the analysis result screen obtained by the screen generation means. Image analysis device.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010199389A JP4832590B2 (en) | 2010-03-09 | 2010-09-06 | Image analysis method, evaluation method, image analysis apparatus, and image analysis program |
EP14156145.6A EP2759256B1 (en) | 2010-03-09 | 2011-03-01 | Image analysis device, image analysis method, and evaluation method |
KR1020137027638A KR101385544B1 (en) | 2010-03-09 | 2011-03-01 | Image analysis device, image analysis method, evaluation method and computer-readable recording medium in which image analysis program is recorded |
KR1020127023404A KR101385543B1 (en) | 2010-03-09 | 2011-03-01 | Lighting device |
CN201180012667.8A CN102791187B (en) | 2010-03-09 | 2011-03-01 | Lighting device, image analysis device, image analysis method, and evaluation method |
US13/582,086 US9075003B2 (en) | 2010-03-09 | 2011-03-01 | Lighting device, image analysis device, image analysis method, and evaluation method |
PCT/JP2011/054613 WO2011111567A1 (en) | 2010-03-09 | 2011-03-01 | Lighting device, image analysis device, image analysis method, and evaluation method |
EP11753227.5A EP2545846B1 (en) | 2010-03-09 | 2011-03-01 | Lighting device, image analysis device, image analysis method, and evaluation method |
CN201410140144.7A CN103926214B (en) | 2010-03-09 | 2011-03-01 | Image analysis apparatus, method for analyzing image and evaluation methodology |
HK13100930.8A HK1173635A1 (en) | 2010-03-09 | 2013-01-22 | Lighting device, image analysis device, image analysis method, and evaluation method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010052190 | 2010-03-09 | ||
JP2010052190 | 2010-03-09 | ||
JP2010199389A JP4832590B2 (en) | 2010-03-09 | 2010-09-06 | Image analysis method, evaluation method, image analysis apparatus, and image analysis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011206513A true JP2011206513A (en) | 2011-10-20 |
JP4832590B2 JP4832590B2 (en) | 2011-12-07 |
Family
ID=44938269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010199389A Active JP4832590B2 (en) | 2010-03-09 | 2010-09-06 | Image analysis method, evaluation method, image analysis apparatus, and image analysis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4832590B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014092465A (en) * | 2012-11-05 | 2014-05-19 | Research Institute Of Biomolecule Metrology Co Ltd | Spectroscopic measurement system and spectroscopic measurement method |
KR20140069885A (en) * | 2012-11-30 | 2014-06-10 | (주)아모레퍼시픽 | Method and apparatus for creating image of skin for evaluation of comsmetic material |
JP2018054448A (en) * | 2016-09-28 | 2018-04-05 | 花王株式会社 | Spectrum measurement method |
JP2020127638A (en) * | 2019-02-08 | 2020-08-27 | タカノ株式会社 | Imaging device |
JP2021032855A (en) * | 2019-08-29 | 2021-03-01 | 花王株式会社 | Evaluation method of cosmetics, and evaluation device of cosmetics |
WO2021075215A1 (en) * | 2019-10-17 | 2021-04-22 | パナソニックIpマネジメント株式会社 | Method and system for assisting in application of topical agent |
CN113225469A (en) * | 2017-04-04 | 2021-08-06 | 卡西欧计算机株式会社 | Medical imaging device |
JP7549527B2 (en) | 2020-12-25 | 2024-09-11 | 花王株式会社 | Agent characterization method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176173A (en) * | 1997-09-12 | 1999-03-23 | Kenji Hashimoto | Skin diagnosing apparatus |
WO2005099575A1 (en) * | 2004-04-15 | 2005-10-27 | Moritex Corporation | Face imaging device |
JP2007010584A (en) * | 2005-07-01 | 2007-01-18 | Shiseido Co Ltd | Method and device for evaluating amount of urea in object, method and device for evaluating amounts of urea and moisture in object, program, and computer-readable recording medium |
WO2007026884A1 (en) * | 2005-09-02 | 2007-03-08 | Pola Chemical Industries Inc. | Method of evaluating skin conditions and method of estimating skin thickness |
JP2009006089A (en) * | 2007-06-29 | 2009-01-15 | Noritsu Koki Co Ltd | Face imaging apparatus |
JP2010025622A (en) * | 2008-07-16 | 2010-02-04 | Pola Chem Ind Inc | Discrimination method of skin moisture amount distribution, and discrimination device and program therefor |
JP2010097126A (en) * | 2008-10-20 | 2010-04-30 | Shiseido Co Ltd | Face illuminating device and color measuring device using the same |
-
2010
- 2010-09-06 JP JP2010199389A patent/JP4832590B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176173A (en) * | 1997-09-12 | 1999-03-23 | Kenji Hashimoto | Skin diagnosing apparatus |
WO2005099575A1 (en) * | 2004-04-15 | 2005-10-27 | Moritex Corporation | Face imaging device |
JP2007010584A (en) * | 2005-07-01 | 2007-01-18 | Shiseido Co Ltd | Method and device for evaluating amount of urea in object, method and device for evaluating amounts of urea and moisture in object, program, and computer-readable recording medium |
WO2007026884A1 (en) * | 2005-09-02 | 2007-03-08 | Pola Chemical Industries Inc. | Method of evaluating skin conditions and method of estimating skin thickness |
JP2009006089A (en) * | 2007-06-29 | 2009-01-15 | Noritsu Koki Co Ltd | Face imaging apparatus |
JP2010025622A (en) * | 2008-07-16 | 2010-02-04 | Pola Chem Ind Inc | Discrimination method of skin moisture amount distribution, and discrimination device and program therefor |
JP2010097126A (en) * | 2008-10-20 | 2010-04-30 | Shiseido Co Ltd | Face illuminating device and color measuring device using the same |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014092465A (en) * | 2012-11-05 | 2014-05-19 | Research Institute Of Biomolecule Metrology Co Ltd | Spectroscopic measurement system and spectroscopic measurement method |
KR20140069885A (en) * | 2012-11-30 | 2014-06-10 | (주)아모레퍼시픽 | Method and apparatus for creating image of skin for evaluation of comsmetic material |
KR102002998B1 (en) * | 2012-11-30 | 2019-07-24 | (주)아모레퍼시픽 | Method and apparatus for creating image of skin for evaluation of comsmetic material |
JP2018054448A (en) * | 2016-09-28 | 2018-04-05 | 花王株式会社 | Spectrum measurement method |
CN113225469A (en) * | 2017-04-04 | 2021-08-06 | 卡西欧计算机株式会社 | Medical imaging device |
JP2020127638A (en) * | 2019-02-08 | 2020-08-27 | タカノ株式会社 | Imaging device |
JP7336094B2 (en) | 2019-02-08 | 2023-08-31 | タカノ株式会社 | Imaging device |
JP2021032855A (en) * | 2019-08-29 | 2021-03-01 | 花王株式会社 | Evaluation method of cosmetics, and evaluation device of cosmetics |
JP7299801B2 (en) | 2019-08-29 | 2023-06-28 | 花王株式会社 | Cosmetic evaluation method and cosmetic evaluation apparatus |
WO2021075215A1 (en) * | 2019-10-17 | 2021-04-22 | パナソニックIpマネジメント株式会社 | Method and system for assisting in application of topical agent |
JP7549527B2 (en) | 2020-12-25 | 2024-09-11 | 花王株式会社 | Agent characterization method |
Also Published As
Publication number | Publication date |
---|---|
JP4832590B2 (en) | 2011-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011111567A1 (en) | Lighting device, image analysis device, image analysis method, and evaluation method | |
JP4832590B2 (en) | Image analysis method, evaluation method, image analysis apparatus, and image analysis program | |
JP6434016B2 (en) | System and method for optical detection of skin diseases | |
US9986913B2 (en) | Method and system for analyzing physical conditions using digital images | |
EP1433418A1 (en) | Skin diagnostic imaging method and apparatus | |
US20190239752A1 (en) | Hyperspectral imaging system and method of using the same | |
JP4599520B2 (en) | Multispectral image processing method | |
JP2006525054A (en) | Measurement of macular pigment distribution | |
US10945656B2 (en) | Device and method for imaging collagen structure in vivo | |
JP2018023756A (en) | Evaluation method of skin condition | |
JP4882019B2 (en) | Lighting device | |
JP2013212247A (en) | Skin measurement system | |
JP2019084391A (en) | Tear film thickness measurement apparatus and method | |
JP2016540622A (en) | Medical imaging | |
WO2020090348A1 (en) | Coefficient determination device, pigment concentration calculation device, coefficient determination method, and information processing program | |
DE102019113283A1 (en) | Device for imaging skin lesions | |
JP5074987B2 (en) | Face photographing device and colorimetric device | |
JP2020193928A (en) | Two-dimensional spectroscopic measurement system and data processing method | |
Bartczak | Spectrally tunable light sources for implementing computationally designed illuminations | |
JP2019025292A (en) | Evaluation method of skin condition | |
Remizov et al. | 3D Printed Modular Vein Viewing System Based on Differential Light Absorption in the Near Infrared Range | |
Vega et al. | Development of a Hyperspectral Colposcope for Early Detection and Assessment of Cervical Dysplasia | |
Vega García et al. | Development of a Hyperspectral Colposcope for Early Detection and Assessment of Cervical Dysplasia | |
JP2024521948A (en) | Systems and methods for irradiating tissue - Patents.com | |
JP3170125U (en) | Facial illumination device and color measurement device using the facial illumination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4832590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140930 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |