JP2017012384A - Wrinkle state analysis device and wrinkle state analysis method - Google Patents

Wrinkle state analysis device and wrinkle state analysis method Download PDF

Info

Publication number
JP2017012384A
JP2017012384A JP2015131636A JP2015131636A JP2017012384A JP 2017012384 A JP2017012384 A JP 2017012384A JP 2015131636 A JP2015131636 A JP 2015131636A JP 2015131636 A JP2015131636 A JP 2015131636A JP 2017012384 A JP2017012384 A JP 2017012384A
Authority
JP
Japan
Prior art keywords
image
linear
skin
analysis target
visual score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015131636A
Other languages
Japanese (ja)
Other versions
JP6527765B2 (en
Inventor
健一郎 吉田
Kenichiro Yoshida
健一郎 吉田
由樹 諸隈
Yoshiki Morokuma
由樹 諸隈
博英 鍋島
Hirohide Nabeshima
博英 鍋島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2015131636A priority Critical patent/JP6527765B2/en
Publication of JP2017012384A publication Critical patent/JP2017012384A/en
Application granted granted Critical
Publication of JP6527765B2 publication Critical patent/JP6527765B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for scoring a wrinkle state so that a view point of visual evaluation of wrinkles by an expert evaluator, is reflected based on a skin image.SOLUTION: A wrinkle state analysis method comprises: a step for acquiring a skin brightness image of an analysis object portion; a step for extracting one or more linear texture images in one or more prescribed angles corresponding to the analysis object portion; a step for extracting linear component intensities of one or more prescribed angles from the extracted one or more linear texture images; and a step for calculating an estimated visual evaluation score of a skin on the analysis object portion using a relational expression between the linear component intensities of one or more prescribed angles and a visual inspection score of wrinkles on a face image, obtained by regression analysis in which plural sample face images are objects, and the extracted linear component intensities.SELECTED DRAWING: Figure 2

Description

本発明は、肌画像の分析技術に関する。   The present invention relates to a skin image analysis technique.

顔や首元等に生じるシワは、人の印象の見た目年齢を大きく左右する因子である。しかしながら、シワ状態の評価は目視により行われることが一般的であり、定量化する手法が検討されている。下記特許文献1は、肌のシワ状態を評価する方法を提案する。この提案手法は、肌画像から、シワ毎の位置及び大きさを含むシワ情報を抽出し、この抽出されたシワ情報と過去に得られたシワ情報とを比較することにより、シワ状態を評価する。   Wrinkles that occur on the face, neck, etc. are factors that greatly influence the apparent age of human impression. However, the evaluation of the wrinkle state is generally performed visually, and a method for quantification is being studied. The following Patent Document 1 proposes a method for evaluating the wrinkle state of the skin. This proposed method extracts wrinkle information including the position and size of each wrinkle from the skin image, and evaluates the wrinkle state by comparing the extracted wrinkle information with wrinkle information obtained in the past. .

下記特許文献2は、肌画像に基づいて肌のシワ状態を定量化するシワ状態分析方法を提案する。この提案手法は、分析対象部位の肌輝度画像から、複数の所定角度の各々についての線状テクスチャ画像をそれぞれ抽出し、抽出された各線状テクスチャ画像から、各所定角度の線形(線状)成分強度をそれぞれ抽出する。そして、抽出された複数の所定角度の線形(線状)成分強度を用いて、分析対象部位の肌のシワ状態情報が生成される。   The following Patent Document 2 proposes a wrinkle state analysis method for quantifying the skin wrinkle state based on a skin image. This proposed method extracts a linear texture image for each of a plurality of predetermined angles from a skin luminance image of a region to be analyzed, and linear (linear) components of each predetermined angle from each extracted linear texture image Extract each intensity. Then, using the extracted linear (linear) component intensities at a predetermined angle, wrinkle state information of the skin of the analysis target site is generated.

特開2010−119431号公報JP 2010-119431 A 特開2015−62569号公報Japanese Patent Laying-Open No. 2015-62569

上述の特許文献1の提案手法は、撮影画像の或る領域から特定されるシワ部分をレプリカにより三次元形状を得るなどして、シワ情報を抽出している。従って、上述の特許文献1は、撮影画像から直接一本一本のシワ領域を特定する具体的手法を開示していない。   In the proposed method of Patent Document 1 described above, wrinkle information is extracted by, for example, obtaining a three-dimensional shape of a wrinkle portion specified from a certain area of a captured image by a replica. Therefore, the above-mentioned Patent Document 1 does not disclose a specific method for specifying each wrinkle region directly from a captured image.

この点、上述の特許文献2は、分析対象部位の肌輝度画像に対する画像処理により複数の所定角度の各々についての線状テクスチャ画像を抽出することで、分析対象部位の肌に現れる様々な線形成分(線状成分)の特徴量を取得することができることを提示している。更に、特許文献2は、取得された線状成分の方向性の強さが、その線状成分として表される溝群が与えるシワ感の強さを示すという技術的思想を提示している。   In this regard, the above-mentioned Patent Document 2 extracts various linear components appearing on the skin of the analysis target part by extracting linear texture images for each of a plurality of predetermined angles by image processing on the skin luminance image of the analysis target part. It presents that the feature amount of (linear component) can be acquired. Further, Patent Document 2 presents a technical idea that the strength of the acquired linear component indicates the strength of the wrinkle feeling given by the groove group represented as the linear component.

本発明は、上述の特許文献2で提示される手法に対して、新たな着想から得られた更なる工夫を加える。即ち、本発明は、肌画像に基づいて、専門評価者によるシワの目視評価の視点が反映されるように、シワ状態をスコア化する技術を提供する。   This invention adds the further idea obtained from the new idea with respect to the method shown by the above-mentioned patent document 2. FIG. That is, the present invention provides a technique for scoring a wrinkle state based on a skin image so that a viewpoint of visual evaluation of wrinkles by a professional evaluator is reflected.

本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第一の側面は、シワ状態分析方法に関する。第一の側面に係るシワ状態分析方法は、分析対象部位の肌輝度画像を取得する画像取得工程と、画像取得工程で取得された肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出工程と、線検出工程で抽出された一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出工程と、複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出工程で抽出された線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出工程と、を含む。   The first aspect relates to a wrinkle state analysis method. The wrinkle state analysis method according to the first aspect includes an image acquisition step of acquiring a skin luminance image of an analysis target portion, and one or more predetermined corresponding to the analysis target portion from the skin luminance image acquired in the image acquisition step A line detection process for extracting one or more linear texture images for an angle, and an intensity extraction for extracting the linear component intensity of the one or more predetermined angles from the one or more linear texture images extracted in the line detection process And a relational expression between the linear component intensity of the one or more predetermined angles and the visual score of wrinkles on the face image obtained by regression analysis on a plurality of sample face images, and the intensity extraction step And a calculation step of calculating an estimated visual score of skin wrinkles of the analysis target site using the extracted linear component intensity.

第二の側面は、シワ状態分析装置に関する。第二の側面に係るシワ状態分析装置は、分析対象部位の肌輝度画像を取得する画像取得手段と、画像取得手段で取得された肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出手段と、線検出手段で抽出された一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出手段と、複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出手段で抽出された線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出手段と、を備える。   The second aspect relates to a wrinkle state analyzer. The wrinkle state analysis apparatus according to the second aspect includes an image acquisition unit that acquires a skin luminance image of an analysis target part, and one or more predetermined corresponding to the analysis target part from the skin luminance image acquired by the image acquisition unit Line detection means for extracting one or more linear texture images for the angle, and intensity extraction for extracting the linear component intensity of the one or more predetermined angles from the one or more linear texture images extracted by the line detection means And a relational expression between the linear component intensity of the one or more predetermined angles and the visual score of wrinkles on the face image obtained by regression analysis on a plurality of sample face images, and the intensity extracting means Calculating means for calculating an estimated visual score of wrinkles of the skin of the analysis target part using the extracted linear component intensity.

なお、本発明の別側面は、上記第一の側面に係るシワ状態分析方法を少なくとも一つのコンピュータに実行させるプログラムであり、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体である。この記録媒体は、非一時的な有形の媒体を含む。   Another aspect of the present invention is a program that causes at least one computer to execute the wrinkle state analysis method according to the first aspect, and is a computer-readable recording medium that records such a program. This recording medium includes a non-transitory tangible medium.

上記各側面によれば、肌画像に基づいて、専門評価者によるシワの目視評価の視点が反映されるように、シワ状態をスコア化することができる。   According to each said aspect, a wrinkle state can be scored so that the viewpoint of the visual evaluation of a wrinkle by a professional evaluator may be reflected based on a skin image.

第一実施形態におけるシワ状態分析装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the wrinkle state analyzer in 1st embodiment. 第一実施形態におけるシワ状態分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle state analyzer in 1st embodiment. 第一実施形態におけるシワ状態分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle state analyzer in 1st embodiment. 第二実施形態におけるシワ状態分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle state analyzer in 2nd embodiment. 推定目視スコアの第一出力例を示す図である。It is a figure which shows the 1st output example of an estimated visual score. 推定目視スコアの第二出力例を示す図である。It is a figure which shows the 2nd output example of an estimated visual score. 第二実施形態におけるシワ状態分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle state analyzer in 2nd embodiment. 第三実施形態におけるシワ状態分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle state analyzer in 3rd embodiment. 分析対象部位の位置の例を示す図である。It is a figure which shows the example of the position of an analysis object site | part. 第三実施形態におけるシワ状態分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle state analyzer in 3rd embodiment. 線状成分強度の角度及び二値化閾値の組み合わせと、目視スコアとの相関を示すグラフである。It is a graph which shows the correlation with the angle of a linear component intensity | strength, the binarization threshold value, and a visual score. 角度「135度」に更に一つの角度を加えた回帰分析における、その加えられた角度と自由度調整済み決定係数との関係を示すグラフである。It is a graph which shows the relationship between the added angle and the determination coefficient of freedom degree adjustment in the regression analysis which added one angle to angle "135 degree | times". 角度「135度」及び「85度」に更に一つの角度を加えた回帰分析における、その加えられた角度と自由度調整済み決定係数との関係を示すグラフである。It is a graph which shows the relationship between the added angle and the freedom degree adjusted determination coefficient in the regression analysis which added one angle to angle "135 degree" and "85 degree". 単回帰式(1)で算出された推定目視スコアSと官能評価で得られた目視スコアとの関係を表すグラフである。It is a graph showing the relationship between the estimated visual score S calculated by the single regression equation (1) and the visual score obtained by sensory evaluation. 重回帰式(2)で算出された推定目視スコアSと官能評価で得られた目視スコアとの関係を表すグラフである。It is a graph showing the relationship between the estimated visual score S calculated by multiple regression equation (2) and the visual score obtained by sensory evaluation. サンプル提供者#1及び#2の分析対象部位の肌輝度画像を示す図である。It is a figure which shows the skin luminance image of the analysis object site | part of sample provider # 1 and # 2. サンプル提供者#1及び#2の肌輝度画像から得られる線状成分強度及び推定目視スコアを比較する表である。It is a table | surface which compares the linear component intensity | strength obtained from sample provider's # 1 and # 2 skin luminance image, and an estimated visual score. サンプル提供者#1及び#2についての135度及び85度の線状テクスチャ画像を並べて出力する例を示す図である。It is a figure which shows the example which arranges and outputs the 135 degree | times and 85 degree linear texture image about sample provider # 1 and # 2. サンプル提供者#1及び#2についての135度及び85度の線状テクスチャ画像の重畳画像の出力例を示す図である。It is a figure which shows the example of an output of the superimposition image of the 135 degree | times and 85 degree linear texture image about sample provider # 1 and # 2.

以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, each embodiment given below is an illustration, respectively, and this invention is not limited to the structure of each following embodiment.

[第一実施形態]
〔ハードウェア構成〕
図1は、第一実施形態におけるシワ状態分析装置(以降、単に分析装置とも表記する)10のハードウェア構成例を概念的に示す図である。第一実施形態における分析装置10は、いわゆるコンピュータであり、CPU(Central Processing Unit)1、メモリ2、入出力インタフェース(I/F)3、通信ユニット4等を有する。
[First embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually illustrating a hardware configuration example of a wrinkle state analyzer (hereinafter simply referred to as an analyzer) 10 in the first embodiment. The analysis device 10 in the first embodiment is a so-called computer, and includes a CPU (Central Processing Unit) 1, a memory 2, an input / output interface (I / F) 3, a communication unit 4, and the like.

CPU1には、一般的なCPUに加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれる。
メモリ2は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
In addition to a general CPU, the CPU 1 includes an application specific integrated circuit (ASIC), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), and the like.
The memory 2 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (such as a hard disk).

入出力I/F3は、出力装置5、入力装置6等のユーザインタフェース装置と接続可能である。出力装置5は、表示装置、投影装置(プロジェクタ)、印刷装置(プリンタ)、スピーカ等である。表示装置は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU1等により処理された描画データに対応する画面を表示する装置である。入力装置6は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置、マイクロフォン(マイク)、撮像装置(カメラ、ビデオ)等である。表示装置及び入力装置6は一体化され、タッチパネルとして実現されてもよい。
通信ユニット4は、他のコンピュータとの通信や、他の機器との信号のやりとり等を行う。通信ユニット4には、撮像装置(図示せず)や可搬型記録媒体等も接続され得る。
The input / output I / F 3 can be connected to user interface devices such as the output device 5 and the input device 6. The output device 5 is a display device, a projection device (projector), a printing device (printer), a speaker, or the like. The display device is a device that displays a screen corresponding to drawing data processed by the CPU 1 or the like, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. The input device 6 is a device that accepts an input of a user operation such as a keyboard and a mouse, a microphone (microphone), an imaging device (camera, video), and the like. The display device and the input device 6 may be integrated and realized as a touch panel.
The communication unit 4 performs communication with other computers, exchange of signals with other devices, and the like. An imaging device (not shown), a portable recording medium, and the like can be connected to the communication unit 4.

分析装置10は、図1に図示しないハードウェア要素を含んでもよいし、各ハードウェア要素の数はそれぞれ制限されない。例えば、分析装置10は複数のCPU1を有していてもよいし、複数の出力装置5に接続されていてもよい。分析装置10のハードウェア構成は、図1に示される内容に限定されない。   The analysis apparatus 10 may include hardware elements not shown in FIG. 1, and the number of hardware elements is not limited. For example, the analyzer 10 may have a plurality of CPUs 1 or may be connected to a plurality of output devices 5. The hardware configuration of the analyzer 10 is not limited to the content shown in FIG.

〔動作例/シワ状態分析方法〕
図2は、第一実施形態におけるシワ状態分析装置10の動作例を示すフローチャートである。以下、図2を用いて、第一実施形態におけるシワ状態分析方法を説明する。第一実施形態におけるシワ状態分析方法は、分析装置10のような少なくとも一つのコンピュータにより実行される。例えば、当該シワ状態分析方法は、メモリ2に格納されるプログラムがCPU1により実行されることで、実現される。
[Operation example / Wrinkle state analysis method]
FIG. 2 is a flowchart showing an operation example of the wrinkle state analyzer 10 in the first embodiment. Hereinafter, the wrinkle state analysis method according to the first embodiment will be described with reference to FIG. The wrinkle state analysis method in the first embodiment is executed by at least one computer such as the analysis apparatus 10. For example, the wrinkle state analysis method is realized by the CPU 1 executing a program stored in the memory 2.

分析装置10により実行されるシワ状態分析方法は、図2に示されるように、画像取得工程(S21)、線検出工程(S22)、強度抽出工程(S23)、及び算出工程(S24)を含む。以下、これら各工程について詳述する。   As shown in FIG. 2, the wrinkle state analysis method executed by the analyzer 10 includes an image acquisition step (S21), a line detection step (S22), an intensity extraction step (S23), and a calculation step (S24). . Hereinafter, these steps will be described in detail.

画像取得工程(S21)では、分析装置10は、分析対象部位の肌輝度画像を取得する。人の肌の一部でシワが生じ得る部位であれば、分析対象部位は制限されない。「シワ」は、加齢や乾燥、真皮機能の低下等、発生原因によって複数のタイプに分類される場合がある。例えば、「小ジワ」と呼ばれるシワは、表皮の乾燥状態によって生じるシワであり、スキンケアによる乾燥状態の改善で修復可能であることが知られている。また、真皮機能の低下によって生じるシワは、「小ジワ」よりも溝が深く、表皮の乾燥状態の改善だけでは修復が困難であることが知られている。このようなタイプの中でどのタイプのシワの状態を分析するかによって、分析対象部位が決められてもよい。例えば、小ジワの状態を分析する場合には、分析対象部位には、例えば、頬、目周り、口周り、首筋のような、小ジワが生じ易い所定範囲が選ばれる。また、加齢によって生じるシワの状態を分析する場合には、例えば、目尻や額や首筋の所定範囲が分析対象部位に選ばれる。   In the image acquisition step (S21), the analysis device 10 acquires a skin luminance image of the analysis target part. The analysis target site is not limited as long as it is a site where wrinkles can occur in a part of human skin. “Wrinkles” may be classified into a plurality of types depending on the cause of occurrence, such as aging, drying, and deterioration of dermal function. For example, wrinkles called “small wrinkles” are wrinkles generated by the dry state of the epidermis, and are known to be repairable by improving the dry state by skin care. Further, it is known that wrinkles caused by a decrease in dermal function have deeper grooves than “small wrinkles” and are difficult to repair only by improving the dry state of the epidermis. The analysis target part may be determined depending on which type of wrinkle state is analyzed among these types. For example, when analyzing the state of fine wrinkles, a predetermined range where fine wrinkles are likely to occur, such as cheeks, around the eyes, around the mouth, and neck, is selected as the analysis target part. Moreover, when analyzing the state of wrinkles caused by aging, for example, a predetermined range of the corner of the eye, the forehead, and the neck is selected as the analysis target part.

肌輝度画像は、肌の分析対象部位が写る画像であり、画素毎に明暗情報を持つ画像である。肌輝度画像は、一般的なカメラで撮像されたカラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。また、肌輝度画像は、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得されてもよいし、各画素の明暗情報を羅列したデータとして取得されてもよい。また、画素値が輝度と線形な関係にあることが好ましいので、ここで用いる肌輝度画像ではγ補正が行われていないことが好ましい。カメラで撮像された画像にγ補正がかかっている場合は、逆γ補正で画素値を輝度と線形な関係に変換しておくことが好ましい。本実施形態は、肌輝度画像のデータ形式を制限しない。分析装置10は、当該肌輝度画像を、可搬型記録媒体、他の装置等から通信ユニット4を経由して取得することもできる。   The skin luminance image is an image in which a skin analysis target part is captured, and is an image having light / dark information for each pixel. The skin luminance image may be a gray scale image obtained by converting a color image captured by a general camera into a gray scale. The skin luminance image may be acquired as an image file in JPEG (Joint Photographic Experts Group) format, BMP (Bitmap image) format, TIFF (Tagged Image File Format) format, GIF (Graphic Interchange Format) format, or the like. Alternatively, it may be acquired as data in which brightness information of each pixel is listed. In addition, since it is preferable that the pixel value has a linear relationship with the luminance, it is preferable that γ correction is not performed on the skin luminance image used here. When γ correction is applied to the image captured by the camera, it is preferable to convert the pixel value into a linear relationship with the luminance by inverse γ correction. This embodiment does not limit the data format of the skin luminance image. The analysis device 10 can also acquire the skin luminance image from the portable recording medium, another device, or the like via the communication unit 4.

線検出工程(S22)では、分析装置10は、画像取得工程(S21)で取得された肌輝度画像から、分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する。一つの所定角度についての線状テクスチャ画像は、肌輝度画像内においてその所定角度の方向に延びる線状成分のみを表す画像である。ここで、線状テクスチャ画像により表わされる線状成分は、厳密に言えば、所定角度方向に存在する成分のみでなく、所定角度から許容角度の範囲内に存在する成分を含んでもよい。許容角度の範囲は、線状テクスチャ画像の抽出手法に依存する。   In the line detection step (S22), the analysis apparatus 10 extracts one or more linear texture images for one or more predetermined angles corresponding to the analysis target site from the skin luminance image acquired in the image acquisition step (S21). To do. A linear texture image for one predetermined angle is an image representing only a linear component extending in the direction of the predetermined angle in the skin luminance image. Here, strictly speaking, the linear component represented by the linear texture image may include not only a component existing in the predetermined angle direction but also a component existing within a range of the allowable angle from the predetermined angle. The range of the allowable angle depends on the linear texture image extraction method.

線状テクスチャ画像で表わされる線状成分は、肌輝度画像に写る線状の模様であり、ほとんど、当該分析対象部位の肌表面に形成された線状の溝(くぼみ)に対応する。よって、線検出工程(S22)によれば、シワと視認される溝、及び、シワとは視認され難い溝(浅い皮溝など)を含む、分析対象部位の肌に現れる様々な線状成分を線状テクスチャ画像として抽出することができる。   The linear component represented by the linear texture image is a linear pattern that appears in the skin luminance image, and almost corresponds to a linear groove (dent) formed on the skin surface of the analysis target site. Therefore, according to the line detection step (S22), various linear components appearing on the skin of the analysis target site, including grooves that are visually recognized as wrinkles and grooves that are difficult to be visually recognized (such as shallow skin grooves). It can be extracted as a linear texture image.

本発明者らは、実施例の項において詳述するように、複数のサンプル顔画像を対象にして、専門評価者によるシワの状態の目視評価の結果と角度毎の線状成分強度との関係を回帰分析した。この専門評価者によるシワの状態の目視評価の結果は、目視スコアとして数値で表された。即ち、目視スコアは、シワの状態を数値化した値である。例えば、目視スコアは、視認されるシワの多さのレベルを示す値(全くない=1、ややある=2、ある=3、とてもある=4)に決定される。目視スコアで表されるシワの状態は、このような例のみに限定されず、目視評価の基準によって変わり得る。具体的には、上述した複数のタイプの中の一つのタイプのシワに対象を絞って、そのシワの状態が目視スコアで表されてもよい。例えば、真皮状態の悪化を原因とする「シワ」(ここでは、「真皮ジワ」と表記する)の状態が目視スコアで表されてもよい。この場合、専門評価者は、出来る限り、「真皮ジワ」と、「小ジワ」等の他のタイプのシワとを区別して、「真皮ジワ」の状態(数、長さ、深さ等)のレベルを目視スコアとして決定する。   As will be described in detail in the section of the examples, the present inventors have made a relationship between the result of visual evaluation of the wrinkle state by a professional evaluator and the linear component intensity at each angle for a plurality of sample face images. Was subjected to regression analysis. The result of the visual evaluation of the wrinkle state by this professional evaluator was expressed numerically as a visual score. That is, the visual score is a value obtained by digitizing the wrinkle state. For example, the visual score is determined to be a value indicating the level of the number of wrinkles to be visually recognized (not at all = 1, some at some = 2, some = 3, very at = 4). The state of the wrinkle represented by the visual score is not limited to such an example, and may vary depending on the standard of visual evaluation. Specifically, the wrinkle state may be represented by a visual score by focusing on one type of wrinkles of the plurality of types described above. For example, the state of “wrinkles” (herein referred to as “dermal wrinkles”) caused by deterioration of the dermis state may be represented by a visual score. In this case, the expert evaluator distinguishes “skin wrinkles” from other types of wrinkles such as “small wrinkles” as much as possible, and determines the state (number, length, depth, etc.) of “skin wrinkles”. The level is determined as a visual score.

本発明者らは、複数のサンプル顔画像を対象に、このような目視スコアと角度毎の線状成分強度との関係を回帰分析することにより、或る分析対象部位に関して、目視スコアと相関の高い線状成分の角度を見出した。更に、本発明者らは、目視スコアと相関の高い角度の線状成分強度を限定的に用いれば、分析対象部位のシワの目視スコアを十分に説明できることを見出した。これにより、本実施形態では、分析対象部位のシワの目視スコアを十分に説明可能な限定的な数の所定角度が、その分析対象部位に対応して予め決められ、メモリ2に保持される。例えば、分析装置10は、一つ又は二つの所定角度についての一つ又は二つの線状テクスチャ画像を抽出する。これにより、多数の所定角度について線状テクスチャ画像を抽出する手法に比べて、シワ状態のスコア化の精度を維持しながら、処理時間を短縮することができる。   The present inventors perform regression analysis on the relationship between the visual score and the linear component intensity for each angle with respect to a plurality of sample face images, thereby correlating the visual score and the correlation with respect to a certain analysis target portion. A high linear component angle was found. Furthermore, the present inventors have found that if the linear component intensity at an angle highly correlated with the visual score is used in a limited manner, the visual score of the wrinkle at the site to be analyzed can be sufficiently explained. Thus, in this embodiment, a limited number of predetermined angles that can sufficiently explain the wrinkle visual score of the analysis target part is determined in advance corresponding to the analysis target part and held in the memory 2. For example, the analysis apparatus 10 extracts one or two linear texture images for one or two predetermined angles. Thereby, compared with the method of extracting a linear texture image about many predetermined angles, processing time can be shortened, maintaining the precision of scoring of a wrinkle state.

しかしながら、線検出工程(S22)で抽出対象とされる所定角度の数は、三つ以上に決められても良い。例えば、0度から360度までの間を等角度間隔(例えば、10度)で分けて得られる角度や、目視スコアと相関の高い順に多数の角度が所定角度として用いられてもよい。分析装置10は、上記一以上の所定角度を、入力装置6を用いてユーザにより入力させて、その入力データとして上記一以上の所定角度を取得することもできる。   However, the number of predetermined angles to be extracted in the line detection step (S22) may be determined to be three or more. For example, an angle obtained by dividing an angle between 0 degrees and 360 degrees at equiangular intervals (for example, 10 degrees), or a plurality of angles may be used as predetermined angles in descending order of correlation with the visual score. The analysis device 10 can also cause the user to input the one or more predetermined angles by using the input device 6 and obtain the one or more predetermined angles as input data.

線状テクスチャ画像の抽出手法には、周知の様々な手法を用いることができる。例えば、Prewittオペレータ、Sobelオペレータ等のようなエッジ検出オペレータ、VanderBrugオペレータ、Patonオペレータ、Kasvandオペレータ等のような線検出オペレータ、Wavelet、Steerable、Gaborフィルタ等をその抽出手法として利用することができる。本実施形態は、線状テクスチャ画像の具体的抽出手法を制限しない。この抽出手法として、Gaborフィルタを用いる実施例が後述される。   Various well-known methods can be used as a method for extracting a linear texture image. For example, edge detection operators such as Prewitt operator and Sobel operator, line detection operators such as VanderBrug operator, Paton operator and Kasband operator, Wavelet, Steerable, and Gabor filters can be used as extraction methods. The present embodiment does not limit the specific extraction method of the linear texture image. As this extraction method, an embodiment using a Gabor filter will be described later.

強度抽出工程(S23)では、分析装置10は、線検出工程(S22)で抽出された一以上の線状テクスチャ画像から、一以上の所定角度の線状成分強度を抽出する。一つの所定角度の線状成分強度は、その所定角度の方向に延びる線状成分の特徴量(線状成分量)を示す。線状成分強度の抽出手法には、周知の様々なテクスチャ解析手法を用いることができる。本実施形態は、各所定角度の方向に延びる線状成分の特徴量を得ることができれば、線状成分強度の抽出手法を制限しない。   In the intensity extraction step (S23), the analysis apparatus 10 extracts one or more linear component intensities at a predetermined angle from the one or more linear texture images extracted in the line detection step (S22). The linear component intensity at one predetermined angle indicates the characteristic amount (linear component amount) of the linear component extending in the direction of the predetermined angle. Various well-known texture analysis methods can be used for the extraction method of the linear component intensity. The present embodiment does not limit the extraction method of the linear component strength as long as the feature amount of the linear component extending in the direction of each predetermined angle can be obtained.

例えば、分析装置10は、線状テクスチャ画像の濃度ヒストグラムから分散値又は標準偏差値を算出し、この分散値又は標準偏差値を線状成分強度とすることができる。大きい分散値を示す線状テクスチャ画像は、明暗のコントラストが高い画像であり、明暗のコントラストが高い画像には、強い凸状成分(明るい成分)と強い凹状成分(暗い成分)とが混在すると考えられる。この混在状態は、画像の線状成分量が大きい状態といえる。一方で、線状テクスチャ画像における上記混在状態は、肌表面にはっきりとした凹凸形状が多数存在している状態と考えることができる。よって、線状テクスチャ画像の濃度ヒストグラムから得られる分散値は、肌表面に形成された、その所定角度方向に延びる線状の溝の特徴量、即ち、線状成分強度を示すと言える。   For example, the analysis apparatus 10 can calculate a variance value or standard deviation value from the density histogram of the linear texture image, and can use this variance value or standard deviation value as the linear component intensity. A linear texture image showing a large dispersion value is an image with high contrast between light and dark, and an image with high contrast between light and darkness is thought to contain a mixture of strong convex components (bright components) and strong concave components (dark components). It is done. This mixed state can be said to be a state in which the amount of linear components of the image is large. On the other hand, the mixed state in the linear texture image can be considered as a state in which a large number of concavo-convex shapes exist on the skin surface. Therefore, it can be said that the dispersion value obtained from the density histogram of the linear texture image indicates the feature amount of the linear groove formed on the skin surface and extending in the predetermined angle direction, that is, the linear component intensity.

このような濃度ヒストグラム法(GLHM)以外にも、濃度レベル差分法(GLDM)や空間濃度レベル依存法(SGLDM)等が当該抽出手法として利用されてもよい。また、分析装置10は、線状テクスチャ画像を所定の二値化閾値を用いて二値化処理し、得られた二値化画像内の一方の値の面積を線状成分強度として算出するようにしてもよい。この場合には、線検出工程(S22)において、分析装置10は、二値化処理まで実行してもよく、二値化処理後の二値化画像を線状テクスチャ画像と呼ぶこともできる。一方の値の面積は、例えば、白又は黒の画素の数に対応する。また、分析装置10は、一方の値の面積と他方の値の面積との比、又は、全体面積に対する一方の値の面積の割合を線状成分強度として算出するようにしてもよい。上記所定の二値化閾値は、肌輝度画像に写る分析対象部位の撮影倍率や分析対象部位の撮影環境(明るさ等)等により予め設定され、メモリ2に保持される。本実施形態では、上記所定の二値化閾値は、上述の目視スコアと相関の高い線状成分強度が抽出できる値に設定されることが望ましい。望ましい二値化閾値の具体的な決定方法については、実施例の項において詳述する。   In addition to the density histogram method (GLHM), a density level difference method (GLDM), a spatial density level dependent method (SGLDM), or the like may be used as the extraction method. Further, the analysis apparatus 10 binarizes the linear texture image using a predetermined binarization threshold, and calculates the area of one value in the obtained binarized image as the linear component intensity. It may be. In this case, in the line detection step (S22), the analysis apparatus 10 may execute up to the binarization process, and the binarized image after the binarization process may be referred to as a linear texture image. The area of one value corresponds to the number of white or black pixels, for example. The analysis apparatus 10 may calculate the ratio of the area of one value to the area of the other value, or the ratio of the area of one value to the entire area as the linear component intensity. The predetermined binarization threshold value is set in advance according to the imaging magnification of the analysis target region shown in the skin luminance image, the imaging environment (brightness, etc.) of the analysis target region, etc., and is stored in the memory 2. In the present embodiment, it is desirable that the predetermined binarization threshold is set to a value from which a linear component intensity having a high correlation with the visual score described above can be extracted. A specific method for determining a desirable binarization threshold will be described in detail in the section of the embodiment.

算出工程(S24)では、分析装置10は、複数のサンプル顔画像を対象とする回帰分析により得られた、当該一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び強度抽出工程(S23)で抽出された線状成分強度を用いて、分析対象部位の肌のシワの推定目視スコアを算出する。その関係式を形成する線状成分強度に対応する所定角度は、線検出工程(S22)で対象とされる、分析対象部位に対応する一以上の所定角度と同一である。本実施形態では、上述の回帰分析により、上述の目視スコアと最も相関の高い第一の所定角度の線状成分強度を説明変数とし目視スコアを目的変数とする単回帰式、又はその第一の所定角度を含む二つの所定角度の線状成分強度を説明変数とし目視スコアを目的変数とする重回帰式が予め生成及び保持され、上述の関係式として利用される。その関係式の具体例については実施例として後述する。   In the calculation step (S24), the analysis apparatus 10 calculates the linear component intensity of the one or more predetermined angles and the visual score of wrinkles on the face image obtained by regression analysis on a plurality of sample face images. Using the relational expression and the linear component intensity extracted in the intensity extraction step (S23), an estimated visual score of wrinkles on the skin of the analysis target site is calculated. The predetermined angle corresponding to the intensity of the linear component forming the relational expression is the same as one or more predetermined angles corresponding to the analysis target part, which are targeted in the line detection step (S22). In the present embodiment, the regression analysis described above provides a single regression equation in which the linear component intensity at the first predetermined angle having the highest correlation with the visual score described above is an explanatory variable and the visual score is an objective variable, or the first regression equation thereof. A multiple regression equation having the linear component intensities at two predetermined angles including the predetermined angle as explanatory variables and the visual score as an objective variable is generated and held in advance, and is used as the above-described relational expression. Specific examples of the relational expressions will be described later as examples.

分析装置10は、このように予め生成及び保持される関係式に、強度抽出工程(S23)で抽出された線状成分強度を代入することにより、推定目視スコアを算出する。算出される推定目視スコアは、(S21)で取得された肌輝度画像に写る分析対象部位のシワの状態が専門評価者により目視で評価された場合に評価結果として得られると推定されるシワ状態のスコアを意味する。これにより、分析装置10は、被験者の分析対象部位のシワの状態に関し、専門評価者に実際に目視評価させることなく、実際の目視評価の結果を近似するスコアを算出することができる。   The analysis apparatus 10 calculates the estimated visual score by substituting the linear component intensity extracted in the intensity extraction step (S23) into the relational expression generated and held in advance in this way. The calculated estimated visual score is a wrinkle state that is estimated to be obtained as an evaluation result when the state of wrinkles of the analysis target portion that is reflected in the skin luminance image acquired in (S21) is visually evaluated by a professional evaluator. Means the score. Thereby, the analyzer 10 can calculate the score which approximates the result of an actual visual evaluation, without making a professional evaluator actually perform visual evaluation regarding the wrinkle state of the analysis target part of the subject.

分析装置10は、算出された推定目視スコアをメモリ2に格納する。例えば、分析装置10は、被験者の識別情報を取得し、この識別情報と関連付けて、算出された推定目視スコアを格納する。また、分析装置10は、その推定目視スコアを通信ユニット4を経由して可搬型記録媒体に格納してもよいし、他のコンピュータに提供することもできる。   The analysis device 10 stores the calculated estimated visual score in the memory 2. For example, the analysis apparatus 10 acquires the identification information of the subject, and stores the calculated estimated visual score in association with the identification information. Further, the analysis device 10 may store the estimated visual score in a portable recording medium via the communication unit 4 or may provide it to another computer.

〔処理構成〕
図3は、第一実施形態におけるシワ状態分析装置10の処理構成例を概念的に示す図である。第一実施形態における分析装置10は、画像取得部11、線検出部12、強度抽出部13、算出部14等を有する。これら各処理モジュールは、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F3を介してインストールされ、メモリ2に格納されてもよい。
[Processing configuration]
FIG. 3 is a diagram conceptually illustrating a processing configuration example of the wrinkle state analysis apparatus 10 in the first embodiment. The analysis apparatus 10 in the first embodiment includes an image acquisition unit 11, a line detection unit 12, an intensity extraction unit 13, a calculation unit 14, and the like. Each of these processing modules is realized, for example, by executing a program stored in the memory 2 by the CPU 1. The program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 3 and stored in the memory 2. Good.

分析装置10は、図3に示される各処理モジュールを動作させることで、上述のシワ状態分析方法を実行することができる。即ち、分析装置10は、図2に示されるように動作する。この場合、画像取得部11は、上述の画像取得工程(S21)を実行し、線検出部12は、上述の線検出工程(S22)を実行し、強度抽出部13は、上述の強度抽出工程(S23)を実行し、算出部14は、上述の算出工程(S24)を実行する。   The analysis apparatus 10 can execute the above-described wrinkle state analysis method by operating each processing module shown in FIG. That is, the analyzer 10 operates as shown in FIG. In this case, the image acquisition unit 11 executes the above-described image acquisition step (S21), the line detection unit 12 executes the above-described line detection step (S22), and the intensity extraction unit 13 performs the above-described intensity extraction step. (S23) is executed, and the calculation unit 14 executes the above-described calculation step (S24).

分析装置10は、分析対象部位の肌輝度画像を、分析装置10自身で予め保持していてもよいし、分析装置10自身で生成してもよいし、他のコンピュータや可搬型記録媒体等から入出力I/F3を介して取得してもよい。   The analysis device 10 may hold the skin luminance image of the site to be analyzed in advance by the analysis device 10 itself, may be generated by the analysis device 10 itself, or from another computer, a portable recording medium, or the like. You may acquire via input-output I / F3.

〔第一実施形態における作用及び効果〕
上述したように、第一実施形態では、分析対象部位の肌輝度画像から、その分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像が抽出され、一以上の線状テクスチャ画像から、一以上の所定角度の線状成分強度が抽出される。一方で、複数のサンプル顔画像を対象とする回帰分析により、一以上の所定角度の線状成分強度と専門評価者によるシワの目視評価の結果を示す目視スコアとの関係式が予め定義されている。そして、上記算出された一以上の所定角度についての線状成分強度がその関係式に適用されることで、分析対象部位の肌のシワの推定目視スコアが算出される。
[Operation and Effect in First Embodiment]
As described above, in the first embodiment, one or more linear texture images for one or more predetermined angles corresponding to the analysis target region are extracted from the skin luminance image of the analysis target region, and one or more linear shapes are extracted. One or more linear component intensities at a predetermined angle are extracted from the texture image. On the other hand, by regression analysis for a plurality of sample face images, a relational expression between a linear component intensity at one or more predetermined angles and a visual score indicating a result of visual evaluation of wrinkles by a professional evaluator is defined in advance. Yes. And the estimated visual score of the wrinkle of the skin of an analysis object site | part is calculated by applying the linear component intensity | strength about the calculated one or more said predetermined angle to the relational expression.

これにより、第一実施形態によれば、分析対象部位の肌のシワ状態に関し、専門評価者に実際に目視評価させることなく、その分析対象部位の肌輝度画像に基づいて、実際の目視評価の結果と近似するスコアを得ることができる。結果、専門評価者の手間や負担を軽減することができると共に、シワ状態の分析にかかるコストの低下にもつながる。また、本実施形態によれば、シワ状態の見た目の印象を安定的かつ定量的に評価することができる。   Thereby, according to the first embodiment, the actual visual evaluation of the skin wrinkle state of the analysis target part is performed based on the skin luminance image of the analysis target part without causing the professional evaluator to actually perform the visual evaluation. A score approximating the result can be obtained. As a result, it is possible to reduce the labor and burden of the professional evaluator and to reduce the cost for analyzing the wrinkle state. Further, according to the present embodiment, it is possible to stably and quantitatively evaluate the appearance impression of the wrinkled state.

更に、第一実施形態によれば、目視スコアと相関の高い、線状成分強度の角度を用いることで、少ない数の角度の線状成分強度から、専門評価者による実際の目視評価の結果に近似する推定目視スコアを算出することができる。これにより、第一実施形態によれば、多数の所定角度に関して線状テクスチャ画像及び線状成分強度を算出する手法に比べて、精度を維持しながら、推定目視スコアの算出速度を向上させることができる。   Furthermore, according to the first embodiment, by using the angle of the linear component strength having a high correlation with the visual score, the linear component strength of a small number of angles is used as a result of the actual visual evaluation by the professional evaluator. An approximate estimated visual score can be calculated. Thus, according to the first embodiment, it is possible to improve the calculation speed of the estimated visual score while maintaining the accuracy as compared with the method of calculating the linear texture image and the linear component intensity with respect to a large number of predetermined angles. it can.

また、第一実施形態によれば、算出される推定目視スコアが表すシワの状態を、「小ジワ」、「真皮ジワ」等の或るタイプのシワの状態に限定することができる。この場合には、専門評価者による目視評価は、対象タイプのシワの状態を中心に行われ、その評価結果として得られる目視スコアが回帰分析に用いられる。これにより、所望のタイプのシワの状態を中心的に表す推定目視スコアを算出することができる。   Further, according to the first embodiment, the wrinkle state represented by the calculated estimated visual score can be limited to a certain type of wrinkle state such as “small wrinkles” and “dermal wrinkles”. In this case, the visual evaluation by the expert evaluator is performed mainly on the state of the target type of wrinkles, and the visual score obtained as the evaluation result is used for the regression analysis. This makes it possible to calculate an estimated visual score that centrally represents a desired type of wrinkle state.

[第二実施形態]
第二実施形態は、第一実施形態におけるシワ状態分析の結果を効果的に出力する。以下、第二実施形態における分析装置10及びシワ状態分析方法について、第一実施形態と異なる内容を中心に説明する。以下、第一実施形態と同じ内容の説明は、適宜省略される。第二実施形態における分析装置10のハードウェア構成は、図1に示される第一実施形態と同じである。
[Second Embodiment]
The second embodiment effectively outputs the result of the wrinkle state analysis in the first embodiment. Hereinafter, the analysis apparatus 10 and the wrinkle state analysis method according to the second embodiment will be described focusing on the content different from the first embodiment. Hereinafter, the description of the same content as the first embodiment is omitted as appropriate. The hardware configuration of the analyzer 10 in the second embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ状態分析方法)〕
以下、第二実施形態におけるシワ状態分析方法を図4を用いて説明する。図4は、第二実施形態における分析装置10の動作例を示すフローチャートである。図4では、図2と同じ工程については同じ符号が付されている。
[Operation example (wrinkle state analysis method)]
Hereinafter, the wrinkle state analysis method according to the second embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an operation example of the analyzer 10 in the second embodiment. In FIG. 4, the same steps as those in FIG. 2 are denoted by the same reference numerals.

分析装置10により実行される第二実施形態におけるシワ状態分析方法は、図2に示される第一実施形態の方法に加えて、年齢情報を取得する工程(S41)及び出力工程(S42)を更に含む。以下、第一実施形態と異なる内容の工程を中心に、各工程について詳述する。   In addition to the method of the first embodiment shown in FIG. 2, the wrinkle state analysis method in the second embodiment executed by the analyzer 10 further includes a step (S41) of acquiring age information and an output step (S42). Including. Hereinafter, each process will be described in detail with a focus on processes having different contents from the first embodiment.

工程(S41)において、分析装置10は、工程(S21)で取得される肌輝度画像に写る被験者の年齢情報を取得する。取得される年齢情報は、具体的な年齢を示してもよいし、30歳代、40歳代といった年代を示してもよいし、30歳以上35歳未満、35歳以上40歳未満といった年齢範囲を示してもよい。分析装置10による年齢情報の取得方法は制限されない。例えば、分析装置10は、被験者又は他のユーザにその年齢情報を入力させる画面を出力装置5の表示装置に表示し、その画面に対する入力装置6を用いた入力操作により、その年齢情報を取得することができる。また、分析装置10は、マイクから得られる音声を認識することで、年齢情報を取得してもよい。また、分析装置10は、被験者の顔を撮像して得られる顔画像から年齢を推定し、その推定された年齢を年齢情報として取得することもできる。工程(S41)は、工程(S42)の実行前であれば、どの順番で実行されてもよい。   In the step (S41), the analysis apparatus 10 acquires the age information of the subject shown in the skin luminance image acquired in the step (S21). The acquired age information may indicate a specific age, an age such as 30's or 40's, or an age range such as 30 or more and less than 35, 35 or more and less than 40 May be indicated. The method for acquiring age information by the analyzer 10 is not limited. For example, the analysis device 10 displays a screen for allowing the subject or other user to input the age information on the display device of the output device 5, and acquires the age information by an input operation using the input device 6 on the screen. be able to. Moreover, the analyzer 10 may acquire age information by recognizing a voice obtained from a microphone. Moreover, the analyzer 10 can also estimate the age from a face image obtained by imaging the subject's face, and can acquire the estimated age as age information. As long as a process (S41) is before execution of a process (S42), it may be performed in any order.

工程(S42)において、分析装置10は、工程(S24)で算出された推定目視スコアを出力する。本実施形態では、分析装置10は、工程(S41)で取得された年齢情報に対応する代表目視スコアを特定し、特定された代表目視スコアと工程(S24)で算出された推定目視スコアとを並べて出力する。この場合、分析装置10は、年齢毎、年代毎、又は或る年齢範囲毎の代表目視スコアを予め保持する。分析装置10は、保持される複数の代表目視スコアの中から、取得された年齢情報により示される年齢、年代、又は年齢範囲に対応する代表目視スコアを特定することができる。代表目視スコアは、その年齢、年代、又は年齢範囲の人の肌の標準的(代表的)なシワ状態を示す。例えば、代表目視スコアは、年齢、年代、又は年齢範囲の人の肌に関し得られた目視スコア又は推定目視スコアの平均値に設定される。   In the step (S42), the analysis apparatus 10 outputs the estimated visual score calculated in the step (S24). In the present embodiment, the analysis apparatus 10 specifies the representative visual score corresponding to the age information acquired in step (S41), and uses the specified representative visual score and the estimated visual score calculated in step (S24). Output side by side. In this case, the analysis apparatus 10 holds a representative visual score for each age, each age, or each age range in advance. The analysis device 10 can specify a representative visual score corresponding to the age, age, or age range indicated by the acquired age information from the plurality of representative visual scores held. The representative visual score indicates a standard (typical) wrinkle state of the skin of a person of that age, age, or age range. For example, the representative visual score is set to an average value of visual scores or estimated visual scores obtained with respect to the skin of a person in age, age, or age range.

また、分析装置10は、工程(S41)で取得された年齢情報に対応する代表線状テクスチャ画像を特定し、この代表線状テクスチャ画像と工程(S22)で抽出された線状テクスチャ画像とを、分析対象部位に対応する所定角度毎に並べて出力することもできる。この場合、分析装置10は、年齢毎、年代毎、又は或る年齢範囲毎に、一以上の所定角度の各々についての代表線状テクスチャ画像を予め保持する。分析装置10は、保持される複数の代表線状テクスチャ画像の中から、取得された年齢情報により示される年齢、年代、又は年齢範囲に対応する代表線状テクスチャ画像を特定することができる。代表線状テクスチャ画像は、例えば、該当する年齢範囲の人の分析対象部位の肌輝度画像から工程(S22)と同様の手法により予め抽出されたもののうち、前記代表目視スコアと近しい目視スコア又は推定目視スコアとなった人の線状テクスチャ画像を使うことができる。   Moreover, the analysis apparatus 10 specifies the representative linear texture image corresponding to the age information acquired in the step (S41), and uses the representative linear texture image and the linear texture image extracted in the step (S22). These can be output side by side at a predetermined angle corresponding to the analysis target part. In this case, the analysis device 10 holds in advance a representative linear texture image for each of one or more predetermined angles for each age, each age, or for each age range. The analysis apparatus 10 can specify a representative linear texture image corresponding to the age, age, or age range indicated by the acquired age information from among the plurality of representative linear texture images held. The representative linear texture image is, for example, a visual score or estimation that is close to the representative visual score among those previously extracted from the skin luminance image of the analysis target region of the person in the corresponding age range by the same method as in the step (S22). A linear texture image of a person who has a visual score can be used.

図5は、推定目視スコアの第一出力例を示す図である。図5の例では、分析装置10は、被験者の分析対象部位を含む画像RN、被験者の分析対象部位の肌輝度画像から抽出された所定角度PAの線状テクスチャ画像YT、及び被験者と同年代における所定角度PAの代表線状テクスチャ画像ATを並べて表示装置に表示する。更に、分析装置10は、算出された推定目視スコア「あなたのシワ指数:4」と、被験者と同年代の平均目視スコア「同年代の平均シワ指数:3」とを並べて表示装置に表示している。この出力を見た被験者は、自身の肌のシワ状態を具体的な数値(推定目視スコア)で把握することができると共に、被験者と同年代の平均と容易に比較することもできる。また、その被験者は、自身の線状テクスチャ画像を見ることで、所定角度PA方向に延びる線状テクスチャの分布や量等を認識することができると共に、同年代の線状テクスチャとの比較もすることができる。図5の例に示されるように、分析装置10は、更に、推定目視スコアと代表目視スコアとの比較結果をテキスト(文章「あなたの肌は同年代の平均と比べて、シワが多めです」等)で表示することもできる。   FIG. 5 is a diagram illustrating a first output example of the estimated visual score. In the example of FIG. 5, the analysis apparatus 10 includes an image RN including the analysis target region of the subject, a linear texture image YT of a predetermined angle PA extracted from the skin luminance image of the analysis target region of the test subject, and a predetermined age in the same age as the test subject. The representative linear texture images AT of the angle PA are arranged and displayed on the display device. Furthermore, the analysis apparatus 10 displays the calculated estimated visual score “Your Wrinkle Index: 4” and the average visual score of the same age as the subject “Average Wrinkle Index: 3” on the display device. The subject who sees this output can grasp the wrinkle state of his / her skin with a specific numerical value (estimated visual score) and can easily compare it with the average of the same age as the subject. In addition, the subject can recognize the distribution and amount of the linear texture extending in the direction of the predetermined angle PA by looking at the linear texture image of the subject, and also compare with the linear texture of the same age. Can do. As shown in the example of FIG. 5, the analysis apparatus 10 further displays the comparison result between the estimated visual score and the representative visual score as text (text “Your skin is more wrinkled than the average of the same age”, etc.) ).

図5の例では、所定角度PAのみについて、線状テクスチャ画像が並べて出力されたが、分析装置10は、複数の所定角度の各々について、被験者の線状テクスチャ画像と同年代の線状テクスチャ画像とをそれぞれ並べて表示することもできる。このようにすれば、角度方向毎の線状テクスチャの状態が確認できる。   In the example of FIG. 5, the linear texture images are output side by side only for the predetermined angle PA. However, the analysis apparatus 10 generates a linear texture image of the same age as the linear texture image of the subject for each of the plurality of predetermined angles. Can be displayed side by side. In this way, the state of the linear texture for each angular direction can be confirmed.

図6は、推定目視スコアの第二出力例を示す図である。図6に示されるように、分析装置10は、工程(S22)で抽出された複数の線状テクスチャ画像を重畳することで得られる画像を表示装置に表示することもできる。図6の例では、所定角度PA1の線状テクスチャ画像と所定角度PA2の線状テクスチャ画像とが重畳された画像STが表示されている。表示される画像STは、シワ状態の目視スコアと相関の高い角度PA1及びPA2方向にそれぞれ延びる線状テクスチャの重ねあわせを表し、それ以外の角度方向に延びる線状テクスチャを排除しているため、シワ状態の見た目の特徴を強調する画像といえる。よって、表示される重畳画像を見た被験者は、自身のシワ状態の見た目を容易に把握することができる。また、分析装置10は、複数の線状テクスチャ画像が重畳されているだけでなく、線状テクスチャ画像毎に異なる色で線状成分が表される画像を出力することもできる。このようにすれば、角度方向毎の線状テクスチャの状態がより一層把握し易くなる。   FIG. 6 is a diagram illustrating a second output example of the estimated visual score. As shown in FIG. 6, the analysis apparatus 10 can also display an image obtained by superimposing a plurality of linear texture images extracted in the step (S22) on the display device. In the example of FIG. 6, an image ST in which a linear texture image with a predetermined angle PA1 and a linear texture image with a predetermined angle PA2 are superimposed is displayed. The displayed image ST represents a superposition of linear textures extending in the directions of the angles PA1 and PA2, which are highly correlated with the visual score of the wrinkled state, and excludes linear textures extending in the other angular directions. It can be said that it is an image that emphasizes the appearance characteristics of the wrinkled state. Therefore, the subject who has viewed the displayed superimposed image can easily grasp the appearance of his / her wrinkle state. In addition, the analysis apparatus 10 can output not only a plurality of linear texture images but also an image in which linear components are represented in different colors for each linear texture image. This makes it easier to grasp the state of the linear texture for each angular direction.

工程(S42)で出力される線状テクスチャ画像及び代表線状テクスチャ画像は、線検出工程(S22)で肌輝度画像から任意の抽出手法で抽出された画像であってもよいし、その画像を二値化処理等により更に加工して得られる画像であってもよい。複数の角度の線状テクスチャ画像の重畳画像を出力する場合には、抽出後の画像どうしが重畳されてもよいし、抽出後の画像と更に加工後の画像とが重畳されてもよい。後者について言い換えれば、重畳する線状テクスチャ画像の抽出手法が異なっていてもよい。例えば、Gaborフィルタの適用により得られた或る角度の線状テクスチャ画像に対して、Gaborフィルタの適用後に二値化処理を実行することで得られた他の角度の線状テクスチャ画像が重畳されて、出力されてもよい。   The linear texture image and representative linear texture image output in the step (S42) may be images extracted from the skin luminance image by an arbitrary extraction method in the line detection step (S22), An image obtained by further processing by binarization processing or the like may be used. When outputting a superimposed image of linear texture images of a plurality of angles, the extracted images may be superimposed, or the extracted image and a processed image may be superimposed. In other words, the method for extracting the superimposed linear texture image may be different. For example, a linear texture image of a certain angle obtained by applying the Gabor filter is superimposed on a linear texture image of another angle obtained by executing binarization processing after applying the Gabor filter. May be output.

分析装置10による上述の出力は、表示装置への表示であってもよいし、印刷装置への印刷であってもよい。また、分析装置10は、被験者の推定目視スコアや代表目視スコアを読みあげる音声をスピーカから出力することもできる。分析装置10による出力の方法は制限されない。   The above-described output by the analysis device 10 may be a display on a display device or a print on a printing device. Moreover, the analysis apparatus 10 can also output the sound which reads a test subject's estimated visual score and a representative visual score from a speaker. The output method by the analyzer 10 is not limited.

〔処理構成〕
図7は、第二実施形態におけるシワ状態分析装置10の処理構成例を概念的に示す図である。第二実施形態における分析装置10は、第一実施形態の処理構成に加えて、情報取得部16及び出力処理部17を更に有する。これら各処理モジュールについても、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 7 is a diagram conceptually illustrating a processing configuration example of the wrinkle state analysis apparatus 10 in the second embodiment. The analysis apparatus 10 in the second embodiment further includes an information acquisition unit 16 and an output processing unit 17 in addition to the processing configuration of the first embodiment. Each of these processing modules is also realized, for example, by executing a program stored in the memory 2 by the CPU 1.

分析装置10は、図7に示される各処理モジュールを動作させることで、上述のシワ状態分析方法を実行することができる。即ち、分析装置10は、図4に示されるように動作する。この場合、情報取得部16は、年齢情報を取得する工程(S41)を実行し、出力処理部17は、上述の出力工程(S42)を実行する。   The analysis apparatus 10 can execute the above-described wrinkle state analysis method by operating each processing module shown in FIG. That is, the analyzer 10 operates as shown in FIG. In this case, the information acquisition part 16 performs the process (S41) which acquires age information, and the output process part 17 performs the above-mentioned output process (S42).

〔第二実施形態における作用及び効果〕
第二実施形態では、被験者の年齢情報に対応する代表目視スコアと、被験者に関し算出された推定目視スコアとが並べて出力される。これにより、被験者に、自身の肌のシワ状態を具体的な数値(推定目視スコア)で把握させることができると共に、被験者のシワ状態の、同年代の標準的なシワ状態との相対的な位置付けを容易に把握させることができる。
[Operation and Effect in Second Embodiment]
In the second embodiment, the representative visual score corresponding to the age information of the subject and the estimated visual score calculated for the subject are output side by side. As a result, the subject can grasp the wrinkle state of his / her skin with specific numerical values (estimated visual score), and the relative position of the subject's wrinkle state with the standard wrinkle state of the same age It can be easily grasped.

また、第二実施形態では、被験者の年齢情報に対応する代表線状テクスチャ画像と、被験者の肌輝度画像から抽出された線状テクスチャ画像とが、分析対象部位に対応する所定角度毎に並べて出力される。これにより、被験者に、所定角度方向毎の自身の肌のシワ状態(線状成分状態)を画像で認識させることができると共に、同年代の標準的なシワ状態との比較もさせることができる。   In the second embodiment, the representative linear texture image corresponding to the subject's age information and the linear texture image extracted from the subject's skin luminance image are output side by side for each predetermined angle corresponding to the analysis target region. Is done. Accordingly, the subject can recognize the wrinkle state (linear component state) of his / her skin for each predetermined angle direction in the image, and can also compare it with a standard wrinkle state of the same age.

また、第二実施形態では、複数の所定角度の線状テクスチャを表す複数の線状テクスチャ画像が重畳された画像が出力される。各線状テクスチャ画像は、シワ状態の目視スコアと高い相関を示す角度の線状成分をそれぞれ表すため、この重畳画像は、シワ状態の見た目に強い影響を与える線状成分を強調する。従って、その重畳画像の出力により、被験者に、自身のシワ状態の見た目の印象を容易に把握させることができる。また、その重畳画像において、線状テクスチャ画像毎に異なる色で線状成分を表すことで、角度方向毎の線状テクスチャの状態をより一層把握し易くすることができる。   In the second embodiment, an image in which a plurality of linear texture images representing a plurality of linear textures having a predetermined angle are superimposed is output. Since each linear texture image represents a linear component having an angle showing a high correlation with the visual score of the wrinkle state, this superimposed image emphasizes the linear component that has a strong influence on the appearance of the wrinkle state. Therefore, by the output of the superimposed image, the subject can easily grasp the appearance impression of his / her wrinkle state. In addition, in the superimposed image, by expressing the linear component with a different color for each linear texture image, it is possible to make it easier to grasp the state of the linear texture for each angular direction.

このように、第二実施形態によれば、被験者のシワ状態を効果的に出力することができるため、シワ状態のカウンセリングや、シワ状態を改善するためのスキンケア製品や化粧料のカウンセリングに、第二実施形態を利用することができる。   As described above, according to the second embodiment, since the wrinkle state of the subject can be effectively output, the counseling of the wrinkle state and the counseling of the skin care product and the cosmetics for improving the wrinkle state are the first. Two embodiments can be utilized.

[第三実施形態]
以下、第三実施形態における分析装置10及びシワ状態分析方法について、上述の各実施形態と異なる内容を中心に説明する。第三実施形態では、シワ状態の分析精度を上げ得る肌輝度画像の具体的取得手法が新たに追加される。以下、第一及び第二実施形態と同じ内容の説明は、適宜省略される。第三実施形態における分析装置10のハードウェア構成は、図1に示される第一実施形態と同じである。
[Third embodiment]
Hereinafter, the analysis device 10 and the wrinkle state analysis method according to the third embodiment will be described focusing on the contents different from the above-described embodiments. In the third embodiment, a specific method for acquiring a skin luminance image that can increase the analysis accuracy of the wrinkle state is newly added. Hereinafter, the description of the same content as the first and second embodiments is omitted as appropriate. The hardware configuration of the analyzer 10 in the third embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ状態分析方法)〕
以下、第三実施形態におけるシワ状態分析方法を図8を用いて説明する。図8は、第三実施形態における分析装置10の動作例を示すフローチャートである。図8では、図2と同じ工程については同じ符号が付されている。
分析装置10により実行される第三実施形態におけるシワ状態分析方法は、第一実施形態又は第二実施形態の工程に加えて、画像処理工程(S81)及び規格化工程(S82)を更に含む。但し、図8は、第一実施形態の工程に、第三実施形態独自の工程(S81)及び(S82)を付加したシワ状態分析方法を示す。以下、第一実施形態と異なる内容の工程を中心に、各工程について詳述する。
[Operation example (wrinkle state analysis method)]
Hereinafter, the wrinkle state analysis method according to the third embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an operation example of the analyzer 10 in the third embodiment. In FIG. 8, the same steps as those in FIG.
The wrinkle state analysis method according to the third embodiment executed by the analysis apparatus 10 further includes an image processing step (S81) and a standardization step (S82) in addition to the steps of the first embodiment or the second embodiment. However, FIG. 8 shows a wrinkle state analysis method in which steps (S81) and (S82) unique to the third embodiment are added to the steps of the first embodiment. Hereinafter, each process will be described in detail with a focus on processes having different contents from the first embodiment.

画像処理工程(S81)では、分析装置10は、被験者の肌にS偏光を投射しS偏光及びP偏光を撮像して得られる各偏光画像から表面反射光画像を取得する。具体的には、分析装置10は、S偏光を投射しS偏光を撮像して得られる偏光画像(S−S偏光画像)と、S偏光を投射しP偏光を撮像して得られる偏光画像(S−P偏光画像)との差分を取る。S−S偏光画像は、被験者の肌の表面反射光成分が強く、内部反射光成分が少ない画像であり、S−P偏光画像は、被験者の肌の内部反射光成分が強い画像である。よって、S−S偏光画像とS−P偏光画像との差分を得ることにより、表面反射光成分以外の成分(内部反射光)を除いた、表面反射光画像を取得することができる。ここで、S偏光の向きは任意に設定できる。一方、P偏光の向きはS偏光の向きと直交させる必要がある。例えば、S偏光を上下方向に設定し、P偏光を左右方向に設定することができる。ここで用いる各偏光画像も、第一実施形態における肌輝度画像と同様に、画素値が輝度と線形な関係にあることが好ましいので、γ補正が行われていないことが好ましい。分析装置10は、各偏光画像を、撮像装置、可搬型記録媒体、他の装置等から入出力I/F3を経由して取得することができる。   In the image processing step (S81), the analyzer 10 acquires a surface reflected light image from each polarization image obtained by projecting S-polarized light on the subject's skin and imaging S-polarized light and P-polarized light. Specifically, the analyzer 10 projects a polarization image (SS polarization image) obtained by projecting S polarization and imaging S polarization, and a polarization image (S-S polarization image) obtained by projecting S polarization and imaging P polarization ( The difference from the SP polarization image is taken. The SS polarization image is an image having a strong surface reflection light component on the subject's skin and a small amount of the internal reflection light component, and the SP polarization image is an image having a strong internal reflection light component on the subject's skin. Therefore, by obtaining the difference between the SS polarization image and the SP polarization image, it is possible to obtain a surface reflection light image excluding components (internal reflection light) other than the surface reflection light component. Here, the direction of S-polarized light can be set arbitrarily. On the other hand, the direction of P-polarized light needs to be orthogonal to the direction of S-polarized light. For example, S-polarized light can be set in the vertical direction, and P-polarized light can be set in the horizontal direction. Similarly to the skin luminance image in the first embodiment, it is preferable that each polarization image used here has a linear relationship between the pixel value and the luminance. Therefore, it is preferable that γ correction is not performed. The analysis apparatus 10 can acquire each polarization image from the imaging device, the portable recording medium, another device, or the like via the input / output I / F 3.

更に、分析装置10は、P偏光を投射しS偏光を撮像して得られるP−S偏光画像と、P偏光を投射しP偏光を撮像して得られるP−P偏光画像とを更に用いて、表面反射光画像を取得するようにしてもよい。これにより、全偏光成分を正しく考慮した表面反射光画像を取得することができる。但し、P−S偏光画像及びP−P偏光画像を用いる場合には、撮影時間が長くなり、画像間における被写体のずれが生じ易いこと、より多くの撮影設備が必要となることといった問題点がある。よって、このような問題点とノイズの抑制という効果との対比によれば、上述のようなS−S偏光画像とS−P偏光画像との組み合わせのみを用いる手法が望ましい。   Furthermore, the analyzer 10 further uses a PS polarized image obtained by projecting P polarized light and imaging S polarized light, and a PP polarized image obtained by projecting P polarized light and imaging P polarized light. A surface reflected light image may be acquired. Thereby, a surface reflected light image in which all polarization components are correctly considered can be acquired. However, when using a P-S polarized image and a P-P polarized image, there is a problem that the photographing time becomes long, the subject is easily shifted between images, and more photographing equipment is required. is there. Therefore, according to the comparison between such a problem and the effect of noise suppression, a method using only the combination of the SS polarization image and the SP polarization image as described above is desirable.

規格化工程(S82)では、分析装置10は、(S81)で得られた表面反射光画像から分析対象部位の規格化された肌画像を抽出する。具体的には、分析装置10は、当該表面反射光画像から分析対象部位を検出し、その検出された分析対象部位の画像領域に基づいて、分析対象部位の規格化された画像(肌画像)を抽出する。(S81)で取得される各偏光画像における解像度、サイズ、分析対象部位の向きが不揃いの場合には、規格化処理として、画像の解像度やサイズの調整、画像内に写る分析対象部位の向きの調整等が行われてもよい。   In the normalization step (S82), the analysis apparatus 10 extracts the normalized skin image of the analysis target part from the surface reflected light image obtained in (S81). Specifically, the analysis apparatus 10 detects an analysis target part from the surface reflected light image, and a standardized image (skin image) of the analysis target part based on the detected image region of the analysis target part. To extract. When the resolution, size, and direction of the analysis target part in each polarization image acquired in (S81) are not uniform, as the normalization process, adjustment of the resolution and size of the image, and the direction of the analysis target part in the image are performed. Adjustment etc. may be performed.

図9は、分析対象部位の位置の例を示す図である。図9の例では、白線で囲まれた領域、即ち、眼窩下部の正方形の領域が、分析対象部位として検出される。
分析対象部位の検出手法は制限されない。例えば、分析装置10は、表面反射光画像において目及び鼻の領域を自動検出し、その目及び鼻の領域の相対的位置関係から分析対象部位を自動検出することができる。他の例として、ユーザが、入力装置6を操作することにより、表面反射光画像内の分析対象部位の領域を指定し、その領域に対応する画像を分析装置10に生成させるようにしてもよい。また、表面反射光画像内の予め固定的に決められた領域が分析対象部位とされてもよい。
FIG. 9 is a diagram illustrating an example of the position of the analysis target part. In the example of FIG. 9, a region surrounded by a white line, that is, a square region below the orbit is detected as an analysis target site.
The method for detecting the analysis target part is not limited. For example, the analysis apparatus 10 can automatically detect the eye and nose region in the surface reflected light image, and can automatically detect the analysis target site from the relative positional relationship between the eye and nose region. As another example, by operating the input device 6, the user may designate a region of the analysis target part in the surface reflected light image and cause the analysis device 10 to generate an image corresponding to the region. . In addition, a region fixed in advance in the surface reflected light image may be set as the analysis target site.

画像取得工程(S21)では、分析装置10は、(S82)で得られた肌画像から色情報を削除することにより、当該肌輝度画像を取得する。色情報を削除する方法は、RGB値の平均値又は重みづけ平均値、或いは単にRGB値のいずれか1つを各画素の代表値として用いる方法などが取り得る。この肌輝度画像に基づいて、第一実施形態の方法と同様に、(S22)以降が実行される。   In the image acquisition step (S21), the analysis apparatus 10 acquires the skin luminance image by deleting the color information from the skin image obtained in (S82). As a method for deleting color information, an average value of RGB values or a weighted average value, or a method of simply using any one of RGB values as a representative value of each pixel can be used. Based on this skin luminance image, (S22) and subsequent steps are executed in the same manner as in the method of the first embodiment.

〔処理構成〕
図10は、第三実施形態における分析装置10の処理構成例を概念的に示す図である。第三実施形態における分析装置10は、第一実施形態又は第二実施形態の処理構成に加えて、画像処理部18及び規格化部19を更に有する。但し、図10は、第一実施形態の処理構成に、第三実施形態独自の画像処理部18及び規格化部19を加えた処理構成を示す。画像処理部18及び規格化部19についても、他の処理モジュールと同様に、CPU1によりメモリ2に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 10 is a diagram conceptually illustrating a processing configuration example of the analysis apparatus 10 in the third embodiment. The analysis apparatus 10 in the third embodiment further includes an image processing unit 18 and a normalization unit 19 in addition to the processing configuration of the first embodiment or the second embodiment. However, FIG. 10 shows a processing configuration in which the image processing unit 18 and the normalization unit 19 unique to the third embodiment are added to the processing configuration of the first embodiment. The image processing unit 18 and the standardization unit 19 are also realized by executing a program stored in the memory 2 by the CPU 1, as with other processing modules.

分析装置10は、図10に示される各処理モジュールを動作させることで、上述のシワ状態分析方法を実行することができる。即ち、分析装置10は、図8に示されるように動作する。この場合、画像処理部18は、上述の画像処理工程(S81)を実行し、規格化部19は、上述の規格化工程(S82)を実行する。他の各処理モジュールは、第一実施形態と同様である。   The analysis apparatus 10 can execute the above-described wrinkle state analysis method by operating each processing module shown in FIG. That is, the analyzer 10 operates as shown in FIG. In this case, the image processing unit 18 executes the above-described image processing step (S81), and the normalization unit 19 executes the above-described normalization step (S82). Other processing modules are the same as in the first embodiment.

分析装置10は、各偏光画像を、他のコンピュータや可搬型記録媒体等から入出力I/F3を介して取得することができる。また、分析装置10は、入出力I/F3に接続される、図1に図示されていない撮像装置を更に有してもよい。この場合、分析装置10は、その撮像装置から当該各偏光画像を取得することもできる。   The analyzer 10 can acquire each polarization image from another computer, a portable recording medium, or the like via the input / output I / F 3. Moreover, the analyzer 10 may further include an imaging device not shown in FIG. 1 connected to the input / output I / F 3. In this case, the analyzer 10 can also acquire each polarization image from the imaging device.

上述の第三実施形態では、規格化工程(S82)及び規格化部19が設けられたが、偏光画像が規格化された状態で生成され、かつ、偏光画像において分析対象部位のみが写されている場合には、規格化工程(S82)及び規格化部19は省くことができる。   In the third embodiment described above, the normalization step (S82) and the normalization unit 19 are provided. However, the polarization image is generated in a standardized state, and only the analysis target portion is copied in the polarization image. If it is, the normalization step (S82) and the normalization unit 19 can be omitted.

〔第三実施形態における作用及び効果〕
第三実施形態では、偏光画像から表面反射光画像が取得され、この表面反射光画像から、分析対象部位の規格化された肌画像が取得される。そして、この肌画像から色情報が削除されることで、分析対象部位の肌輝度画像が取得され、この取得された肌輝度画像に基づいて、第一実施形態と同様に、推定目視スコアが算出される。
[Operations and effects in the third embodiment]
In the third embodiment, a surface reflected light image is acquired from the polarization image, and a normalized skin image of the analysis target part is acquired from the surface reflected light image. Then, by deleting the color information from the skin image, a skin luminance image of the analysis target part is acquired, and an estimated visual score is calculated based on the acquired skin luminance image, as in the first embodiment. Is done.

表面反射光画像は、クマ、シミ、ソバカス等のような色ムラ成分を除外した肌表面の形状に由来する成分(凹凸成分)を表す。従って、第三実施形態によれば、肌輝度画像から抽出される線状テクスチャ画像に、分析対象部位の肌表面の形状以外に由来する線状成分(ノイズ成分)が含まれるのを一層防ぐことができる。これにより、肌表面の形状(主に溝)以外のノイズ成分を除外した状態で、各所定角度の線状成分強度を抽出することができるため、シワ状態を一層高精度に分析することができる。   The surface reflected light image represents a component (unevenness component) derived from the shape of the skin surface excluding color unevenness components such as bears, spots, and freckles. Therefore, according to the third embodiment, the linear texture image extracted from the skin luminance image is further prevented from including a linear component (noise component) derived from other than the shape of the skin surface of the analysis target site. Can do. Thereby, since the linear component intensity | strength of each predetermined angle can be extracted in the state which excluded noise components other than the shape (mainly groove | channel) of the skin surface, a wrinkle state can be analyzed with higher precision. .

以下に実施例を挙げ、上述の各実施形態を更に具体的に説明する。上述の各実施形態は、以下の実施例から何ら限定を受けない。   Examples will be given below, and the above-described embodiments will be described more specifically. Each above-mentioned embodiment does not receive any limitation from the following examples.

本発明者らは、複数のサンプル顔画像に対する官能評価を実施し、各サンプル顔画像に写る各被験者の肌について、シワ状態の目視スコアをそれぞれ取得した。官能評価では、3名の専門評価者が、210名のサンプル提供者の全顔が写る210枚のサンプル顔画像(写真)をそれぞれ見て、各サンプル提供者の肌のシワの状態を評価した。本実施例では、サンプル顔画像により表される全顔の中の、分析対象部位としての頬(眼窩下部)の部分が着目され、表皮の乾燥状態に依存する「小ジワ」を中心に、そのシワの状態が評価された。また、この官能評価では、各専門評価者の評価基準を統一するために、「小ジワ」の状態の4つの段階を代表する4人の全顔画像が比較対象として提供された。シワが非常に少ない全顔画像の目視スコアが1点、シワが非常に多い全顔画像の目視スコアが4点、その間の2つの全顔画像の目視スコアが2点及び3点に設定された。各専門評価者は、その4枚の全顔画像と各サンプル顔画像とを比較しながら、各サンプル顔画像に対して、1点、1.5点、2点、2.5点、3点、3.5点、4点の中のいずれか一つをそれぞれ割り振った。これにより、各サンプル顔画像について3名分の点数がそれぞれ付され、3名分の点数の平均が各サンプル顔画像の目視スコアとしてそれぞれ決定された。   The present inventors performed sensory evaluation on a plurality of sample face images, and obtained visual scores of wrinkled states for each subject's skin appearing in each sample face image. In sensory evaluation, three expert evaluators looked at 210 sample face images (photos) showing the entire faces of 210 sample providers, and evaluated the wrinkle state of each sample provider's skin. . In this example, the cheek (lower orbit) portion of the entire face represented by the sample face image is focused on, focusing on “small wrinkles” that depend on the dry state of the epidermis. The condition of wrinkles was evaluated. Further, in this sensory evaluation, in order to unify the evaluation criteria of each professional evaluator, four full-face images representing the four stages of “small wrinkles” were provided as comparison targets. The visual score of all face images with very few wrinkles was set to 1 point, the visual score of all face images with very many wrinkles was set to 4 points, and the visual scores of the two full face images in between were set to 2 points and 3 points. . Each expert evaluator compares each sample face image with 1 point, 1.5 points, 2 points, 2.5 points, 3 points while comparing the four face images with each sample face image. , 3.5 points, or 4 points, respectively. Thereby, the score for three persons was attached | subjected about each sample face image, respectively, and the average of the score for three persons was each determined as the visual score of each sample face image.

本発明者らは、上述の210名のサンプル提供者の分析対象部位を含む210枚の肌輝度画像を対象に回帰分析を行うことで、一つの所定角度の線状成分強度、又は二以上の所定角度の線状成分強度の線形結合により、目視スコアを高い精度で推定できないかを検討した。この検討では、官能評価で着目された部位(左側の眼窩下部、図9参照)が分析対象部位とされ、この分析対象部位の肌輝度画像(サイズ=550x550ピクセル、対象部位上での解像度=18ピクセル/mm)がそれぞれ抽出され(図8の(S81)、(S82)、及び(S21))、抽出された複数の肌輝度画像から所定角度の線状テクスチャ画像がそれぞれ抽出された(図8の(S22))。更に、抽出された線状テクスチャ画像が所定の二値化閾値で二値化処理され、得られた二値化画像内の白色の画素数が線状成分強度として算出された(図8の(S23))。   The present inventors perform regression analysis on the 210 skin luminance images including the analysis target regions of the 210 sample providers described above, so that the linear component intensity of one predetermined angle, or two or more We examined whether the visual score could be estimated with high accuracy by linear combination of linear component intensities at a predetermined angle. In this examination, the part focused on the sensory evaluation (left lower eye socket, see FIG. 9) is the analysis target part, and the skin luminance image of this analysis target part (size = 550 × 550 pixels, resolution on the target part = 18) Pixel / mm) is extracted ((S81), (S82), and (S21) in FIG. 8), and a linear texture image at a predetermined angle is extracted from the extracted plurality of skin luminance images (FIG. 8). (S22). Further, the extracted linear texture image is binarized with a predetermined binarization threshold, and the number of white pixels in the obtained binarized image is calculated as the linear component intensity ((( S23)).

線状テクスチャ画像の抽出には、所定角度θに対応するGaborフィルタが利用された。一般的に、Gaborフィルタは、以下の式で表わされる。Gaborフィルタの形状を決める他のパラメータλ、φ、σ及びγには、当該サンプル顔画像の撮影環境に応じて適切な値が設定された(λ=10、φ=0、σ=4、γ=1)。なお、Gaborフィルタの詳細については、特許文献2にも記載されているとおりで既知である。

Figure 2017012384
A Gabor filter corresponding to the predetermined angle θ was used for extracting the linear texture image. In general, the Gabor filter is represented by the following equation. Appropriate values were set for the other parameters λ, φ, σ, and γ that determine the shape of the Gabor filter according to the imaging environment of the sample face image (λ = 10, φ = 0, σ = 4, γ = 1). The details of the Gabor filter are known as described in Patent Document 2.
Figure 2017012384

そして、本発明者らは、線状成分強度を得るための二値化閾値と対象とする角度θとの組み合わせを変えながら、その角度θの線状成分強度と目視スコアとの相関係数を逐次算出し、目視スコアと相関の高い線状成分強度を得ることができる角度及び閾値の組み合わせを探した。本実施例では、5度の角度幅で設定された0度から175度までの36個の所定角度に対応するGaborフィルタが順次利用された。なお、この角度表記は、鉛直逆方向が0度であり、鉛直方向が180度であり、顔に向かって右回りに増加するように表した場合の表記である。   And while changing the combination of the binarization threshold value for obtaining the linear component strength and the target angle θ, the present inventors changed the correlation coefficient between the linear component strength of the angle θ and the visual score. A combination of an angle and a threshold value that can be calculated sequentially to obtain a linear component intensity highly correlated with the visual score was searched. In the present embodiment, Gabor filters corresponding to 36 predetermined angles from 0 degrees to 175 degrees set with an angle width of 5 degrees were sequentially used. In addition, this angle notation is a notation when the vertical reverse direction is 0 degree, the vertical direction is 180 degrees, and it is shown to increase clockwise toward the face.

図11は、線状成分強度の角度及び二値化閾値の組み合わせと、目視スコアとの相関を示すグラフである。図11では、横軸が角度を示し、縦軸が相関係数を示し、線種で二値化閾値が区別される。図11の結果から、相関係数の絶対値が最大となる、二値化閾値「95」と角度「135度」との組み合わせが検出され、この組み合わせによれば、目視スコアと高い相関(相関係数の絶対値が約0.7)を示す線状成分強度を得ることができる。本実施例では、このように相関係数の絶対値が最大となる二値化閾値及び角度の組み合わせが検出されたが、相関係数の絶対値が最大値の周辺を示す組み合わせが用いられてもよい。例えば、二値化閾値は、63以上127以下の範囲で設定されてもよいし、角度は、130度以上140度以下の範囲で設定されてもよい。また、本実施例における二値化閾値の最適値は95であったが、照明の明るさ、シャッタースピード、絞りなどの撮影条件が変わると、線状テクスチャ画像の明るさも変わり、その結果、二値化閾値の最適値も変わるので、二値化閾値は撮影条件に応じて変化する。なお、図11において相関係数が負を示しているのは、線状成分強度を白色の画素数即ち溝以外の部分の大きさで表しているからである。また、上述したとおり、5度刻みの角度が利用されているため、図11では、刻み幅分のデータが線形補間されている。   FIG. 11 is a graph showing the correlation between the angle of the linear component intensity and the binarization threshold value and the visual score. In FIG. 11, the horizontal axis indicates the angle, the vertical axis indicates the correlation coefficient, and the binarization threshold is distinguished by the line type. From the result of FIG. 11, a combination of the binarization threshold “95” and the angle “135 degrees” in which the absolute value of the correlation coefficient is maximized is detected. It is possible to obtain a linear component intensity indicating that the absolute value of the relation number is about 0.7). In this embodiment, the combination of the binarization threshold value and the angle at which the absolute value of the correlation coefficient is maximized is detected as described above, but the combination in which the absolute value of the correlation coefficient indicates the periphery of the maximum value is used. Also good. For example, the binarization threshold value may be set in a range of 63 to 127, and the angle may be set in a range of 130 degrees to 140 degrees. Further, although the optimum value of the binarization threshold in this embodiment is 95, the brightness of the linear texture image changes when the shooting conditions such as the brightness of the illumination, the shutter speed, and the aperture change. Since the optimum value of the binarization threshold also changes, the binarization threshold changes according to the shooting conditions. The reason why the correlation coefficient is negative in FIG. 11 is that the linear component intensity is represented by the number of white pixels, that is, the size of the portion other than the groove. Further, as described above, since an angle of 5 degrees is used, in FIG. 11, the data for the step width is linearly interpolated.

これにより、本実施例の環境では、一つの角度「135度」の線状成分強度により、目視スコアを高い精度で推定できることが検証された。更に、本発明者らは、他の角度の線状成分強度を更に加えることで、より高い精度で目視スコアを推定できないか検討した。   Thus, it was verified that the visual score can be estimated with high accuracy by the linear component intensity of one angle “135 degrees” in the environment of the present embodiment. Furthermore, the present inventors examined whether the visual score could be estimated with higher accuracy by further adding linear component intensities at other angles.

図12は、角度「135度」に更に一つの角度を加えた回帰分析における、その加えられた角度と自由度調整済み決定係数との関係を示すグラフである。図12によれば、角度「85度」で自由度調整済み決定係数が最大となる。また、角度「135度」の線状成分強度のみを用いる場合と比べて、角度「85度」の線状成分強度を加えることで、自由度調整済み決定係数が増大した(0.4502から0.4607へ)。これにより、角度「135度」の線状成分強度に角度「85度」の線状成分強度を加えることで、目視スコアの推定精度が向上することが確認された。   FIG. 12 is a graph showing the relationship between the added angle and the degree-of-freedom-adjusted determination coefficient in the regression analysis in which another angle is added to the angle “135 degrees”. According to FIG. 12, the degree-of-freedom-adjusted determination coefficient is maximized at an angle “85 degrees”. Also, the degree of freedom adjusted determination coefficient is increased (0.4502 to 0) by adding the linear component intensity of angle “85 degrees” as compared with the case where only the linear component intensity of angle “135 degrees” is used. To 4607). Thereby, it was confirmed that the estimation accuracy of the visual score is improved by adding the linear component strength of the angle “85 degrees” to the linear component strength of the angle “135 degrees”.

図13は、角度「135度」及び「85度」に更に一つの角度を加えた回帰分析における、その加えられた角度と自由度調整済み決定係数との関係を示すグラフである。図13によれば、いずれの自由度調整済み決定係数も、角度「135度」及び「85度」の線状成分強度を用いる場合(0.4607)よりも低くなっている。これにより、角度「135度」及び「85度」の線状成分強度を用いれば、それ以上の角度の線状成分強度を用いなくても、十分な精度で目視スコアを推定できることが確認された。   FIG. 13 is a graph showing the relationship between the added angle and the degree-of-freedom-adjusted determination coefficient in the regression analysis in which another angle is added to the angles “135 degrees” and “85 degrees”. According to FIG. 13, any degree-of-freedom adjusted determination coefficient is lower than when the linear component intensities of angles “135 degrees” and “85 degrees” are used (0.4607). As a result, it was confirmed that if the linear component intensities of angles “135 degrees” and “85 degrees” were used, the visual score could be estimated with sufficient accuracy without using the linear component intensities of more angles. .

以上より、角度「135度」の線状成分強度を説明変数とし目視スコアを目的変数とする単回帰式(1)、及び角度「135度」及び「85度」の二つの線状成分強度を説明変数とし目視スコアを目的変数とする重回帰式(2)が取得された。
S=−0.00002543・X135+8.652 (1)
S=−0.00003068・X135+0.000009301・X85+7.484 (2)
From the above, the single regression equation (1) having the linear component intensity at the angle “135 degrees” as the explanatory variable and the visual score as the objective variable, and the two linear component intensities at the angles “135 degrees” and “85 degrees” are obtained. The multiple regression equation (2) using the visual score as the explanatory variable as the explanatory variable was obtained.
S = −0.00002543 · X 135 +8.652 (1)
S = −0.00003068 · X 135 + 0.000009301 · X 85 +7.484 (2)

図14は、単回帰式(1)で算出された推定目視スコアSと官能評価で得られた目視スコアとの関係を表すグラフである。図15は、重回帰式(2)で算出された推定目視スコアSと官能評価で得られた目視スコアとの関係を表すグラフである。図14及び図15では、横軸が推定目視スコアSを示し、縦軸が目視スコアを示す。図14及び図15によれば、回帰式から得られる推定目視スコアと官能評価で得られる目視スコアとの間に相関があることが確認された。また、図14及び図15で示される決定係数(R)により、単回帰式(1)よりも重回帰式(2)からのほうが精度の高い目視スコアが推定されることが確認された。 FIG. 14 is a graph showing the relationship between the estimated visual score S calculated by the single regression equation (1) and the visual score obtained by sensory evaluation. FIG. 15 is a graph showing the relationship between the estimated visual score S calculated by the multiple regression equation (2) and the visual score obtained by sensory evaluation. 14 and 15, the horizontal axis indicates the estimated visual score S, and the vertical axis indicates the visual score. 14 and 15, it was confirmed that there is a correlation between the estimated visual score obtained from the regression equation and the visual score obtained by sensory evaluation. Further, the coefficient of determination indicated by FIGS. 14 and 15 (R 2), that a high visual score better is the accuracy of the regression equation than the single regression equation (1) (2) is estimated was confirmed.

上述の実施例1では、二値化画像の中の白色の画素数が線状成分強度として利用された。以下に、全体の画素数に対する黒色の画素数の割合が線状成分強度として利用される例を実施例2として説明する。但し、本発明の線状成分強度は、黒色の画素数とされてもよいし、白色の画素数の、全体の画素数に対する割合とされてもよい。   In Example 1 described above, the number of white pixels in the binarized image is used as the linear component intensity. Hereinafter, an example in which the ratio of the number of black pixels to the total number of pixels is used as the linear component intensity will be described as a second embodiment. However, the linear component intensity of the present invention may be the number of black pixels, or the ratio of the number of white pixels to the total number of pixels.

線状成分強度の算出手法以外、実施例1と同様の手法及び環境を用いることで、実施例2では、以下の回帰式(3)及び(4)が取得された。そして、各回帰式(3)及び(4)によれば、実施例1と略同様の精度で目視スコアが推定できることが確認された。
S=7.693・X135+0.959 (3)
S=9.281・X135−2.814・X85+1.017 (4)
The following regression equations (3) and (4) were obtained in Example 2 by using the same method and environment as in Example 1 except for the method of calculating the linear component intensity. And according to each regression formula (3) and (4), it was confirmed that a visual score can be estimated with the substantially the same precision as Example 1. FIG.
S = 7.693 · X 135 +0.959 (3)
S = 9.281 · X 135 -2.814 · X 85 +1.017 (4)

実施例2では、更に、官能評価で同じ目視スコアとなった2名のサンプル提供者#1及び#2の分析対象部位を対象にして、上述の各実施形態におけるシワ状態分析方法の正当性が検証された。この検証では、回帰式(3)及び(4)が用いられた。
図16は、サンプル提供者#1及び#2の分析対象部位の肌輝度画像を示す図である。サンプル提供者#2の分析対象部位には、サンプル提供者#1に比べて、肌表面に凹凸形状が多く見られるが、専門評価者による官能評価によれば、「小ジワ」の状態は、両方とも同じ目視スコアとなった。
In Example 2, the validity of the wrinkle state analysis method in each of the above-described embodiments is further targeted for the analysis target parts of two sample providers # 1 and # 2 that have the same visual score in the sensory evaluation. Verified. In this verification, regression equations (3) and (4) were used.
FIG. 16 is a diagram illustrating skin luminance images of the analysis target parts of the sample providers # 1 and # 2. Compared to sample provider # 1, the surface to be analyzed of sample provider # 2 has more irregular shapes on the skin surface, but according to sensory evaluation by a professional evaluator, the state of “small wrinkles” Both had the same visual score.

図17は、サンプル提供者#1及び#2の肌輝度画像から得られる線状成分強度及び推定目視スコアを比較する表である。図17に示されるように、同じ目視スコア(2.5)の2つの画像から算出された推定目視スコアの実際の目視スコア(2.5)との差は、135度のみを用いた時(−0.18)と比べて、135度と85度との2つの角度を用いた時(−0.04)に小さくなり、上述の各実施形態におけるシワ状態分析方法によれば、官能評価の目視スコアと同様の推定目視スコアを得ることができることが検証された。   FIG. 17 is a table comparing the linear component intensity and the estimated visual score obtained from the skin luminance images of the sample providers # 1 and # 2. As shown in FIG. 17, the difference between the estimated visual score calculated from two images having the same visual score (2.5) and the actual visual score (2.5) is only when 135 degrees is used ( -0.18), it becomes smaller when using two angles of 135 degrees and 85 degrees (-0.04), and according to the wrinkle state analysis method in each of the embodiments described above, the sensory evaluation It was verified that an estimated visual score similar to the visual score can be obtained.

図18は、サンプル提供者#1及び#2についての135度及び85度の線状テクスチャ画像を並べて出力する例を示す図である。図18では、二値化画像が線状テクスチャ画像として出力されている。図18の出力により、サンプル提供者#2は、サンプル提供者#1に比べて、どちらの角度についても線状成分強度がより大きいことが視認される。一方で、目視スコア及び推定目視スコアについてはどちらも同じ又は近似する。つまり、目視スコアに相関の高い135度の線状成分を他方の85度の線状成分が打ち消すことで、視認されるシワ状態に近い情報が抜き出されていることが推定される。これは、重回帰式(2)及び(4)において、85度の係数の正負が135度の係数と反転していることと繋がる。   FIG. 18 is a diagram illustrating an example in which linear texture images of 135 degrees and 85 degrees for sample providers # 1 and # 2 are output side by side. In FIG. 18, the binarized image is output as a linear texture image. From the output of FIG. 18, it is visually recognized that the sample provider # 2 has a greater linear component intensity at both angles than the sample provider # 1. On the other hand, both the visual score and the estimated visual score are the same or approximate. That is, it is estimated that information close to the visually recognized wrinkle state is extracted by canceling the linear component of 135 degrees having a high correlation with the visual score by the other linear component of 85 degrees. This is connected to the fact that the sign of the 85 degree coefficient is inverted from the 135 degree coefficient in the multiple regression equations (2) and (4).

図19は、サンプル提供者#1及び#2についての135度及び85度の線状テクスチャ画像の重畳画像の出力例を示す図である。上方の2つの画像は、Gaborフィルタ適用により肌輝度画像から抽出された、135度の線状テクスチャ画像である。下方の2つの画像は、Gaborフィルタ適用により肌輝度画像から抽出された、135度の線状テクスチャ画像に対して、Gaborフィルタ及び二値化処理により得られた、85度の線状テクスチャ画像(二値化画像)を重畳した画像である。   FIG. 19 is a diagram illustrating an output example of a superimposed image of 135 degree and 85 degree linear texture images for sample providers # 1 and # 2. The upper two images are 135 degree linear texture images extracted from the skin luminance image by applying the Gabor filter. The lower two images are obtained by applying a Gabor filter and binarization processing to a 135 degree linear texture image extracted from a skin luminance image by applying the Gabor filter. This is an image on which a (binarized image) is superimposed.

上述の各実施例では、分析対象部位としての頬(眼窩下部)の部分が利用され、目視スコアには、表皮の乾燥状態に依存する「小ジワ」の状態が主に反映された。よって、上述の各実施例で得られる推定目視スコアは、「小ジワ」の状態の見た目の印象を示す指標値であると言える。上述したように、「シワ」は、加齢や乾燥、真皮機能の低下等、発生原因によって複数のタイプに分類される場合があるため、専門評価者の官能評価において、他のタイプのシワを中心に評価することで、「小ジワ」以外のタイプのシワの状態の見た目の印象を示す推定目視スコアを算出することも可能である。例えば、真皮機能の低下を原因とする「真皮シワ」の状態が主に反映された目視スコアが官能評価で得られれば、「真皮シワ」の状態の見た目の印象を示す推定目視スコアの算出も可能である。   In each of the above-described examples, the cheek (lower orbit) portion as an analysis target portion was used, and the visual score mainly reflected a “small wrinkle” state depending on the dry state of the epidermis. Therefore, it can be said that the estimated visual score obtained in each of the above-described embodiments is an index value indicating the visual impression of the state of “small wrinkles”. As described above, “wrinkles” may be classified into a plurality of types depending on the cause of occurrence, such as aging, dryness, and decrease in dermal function. Therefore, in the sensory evaluation of professional evaluators, other types of wrinkles By evaluating to the center, it is also possible to calculate an estimated visual score indicating the visual impression of the type of wrinkles other than “small wrinkles”. For example, if a visual score that mainly reflects the state of `` dermis wrinkles '' caused by a decrease in dermal function is obtained by sensory evaluation, an estimated visual score indicating the visual impression of the `` dermis wrinkle '' state can also be calculated. Is possible.

これにより、シワのタイプ毎に異なる回帰式を予めそれぞれ用意し、分析対象となるシワのタイプに応じて、回帰式を切り替えることで、各タイプのシワ状態を表す推定目視スコアを算出するという形態を採ることも可能である。例えば、表皮の乾燥を修復するスキンケア商品のカウンセリング時には、「小ジワ」の見た目の印象を示す推定目視スコアを算出し、真皮の状態を改善させるスキンケア商品のカウンセリング時には、「真皮シワ」の推定目視スコアを算出するという形態が考えられる。   Thereby, a different regression equation is prepared for each wrinkle type in advance, and an estimated visual score representing each type of wrinkle state is calculated by switching the regression equation according to the type of wrinkle to be analyzed. It is also possible to adopt. For example, when counseling a skincare product that restores dryness of the epidermis, an estimated visual score indicating the appearance of “small wrinkles” is calculated. A form of calculating the score is conceivable.

上述の各実施例では、左側の頬(眼窩下部)が分析対象部位とされた。これは、表皮の乾燥状態に依存する「小ジワ」が主な分析対象であり、眼窩下部が乾燥し易く人毎に差が出易い部位だからである。よって、右側の頬(眼窩下部)が分析対象部位とされてもよい。この場合、例えば、135度の代わりに225度が利用され、85度の代わりに275度が利用される。この角度表記も、上述と同様に、鉛直逆方向が0度であり、鉛直方向が180度であり、顔に向かって右回りに増加するように表した表記である。また、225度及び275度は、顔が左右対称と考えた場合の角度であるため、実際には、各角度はそれぞれもう少しずれてもよい。なお、Gaborフィルタの式(数1)を見て分かるように、角度θは180度ずれてもフィルタの形は同じになるので、例えば角度として225度の代わりに45度を用いても同じ効果が得られる。   In each of the above-described examples, the left cheek (lower orbit) is the analysis target site. This is because “small wrinkles” that depend on the dry state of the epidermis are the main analysis objects, and the lower part of the orbit is easy to dry, and it is easy to make a difference for each person. Therefore, the right cheek (lower eye socket) may be the analysis target site. In this case, for example, 225 degrees is used instead of 135 degrees, and 275 degrees is used instead of 85 degrees. Similarly to the above, this angle notation is a notation in which the vertical reverse direction is 0 degrees, the vertical direction is 180 degrees, and increases clockwise toward the face. Further, since 225 degrees and 275 degrees are angles when the face is considered to be bilaterally symmetric, each angle may actually be slightly shifted. As can be seen from the Gabor filter equation (Equation 1), the shape of the filter is the same even if the angle θ is shifted by 180 degrees. For example, the same effect can be obtained by using 45 degrees instead of 225 degrees. Is obtained.

また、左側及び右側の各頬についてそれぞれ推定目視スコアが算出されてもよい。この場合、分析装置10は、線検出工程(S22)において、複数の分析対象部位について予め決められている複数の利用角度情報の中から、その分析対象部位に対応する一以上の所定角度を特定する。即ち、分析装置10は、左側の頬が分析対象部位とされる場合、135度、又は135度及び85度を特定し、右側の頬が分析対象部位とされる場合、225度、又は225度及び275度を特定する。また、目の周り、頬、口周り、首筋、目尻、額のような異なる複数の分析対象部位の中から、一つの分析対象部位が選択されてもよい。この場合も、部位毎にシワ状態の見た目の印象に影響を与える方向(角度)が異なるため、各分析対象部位について利用角度情報が予めそれぞれ決められればよい。例えば、額が分析対象部位とされる場合については、水平方向の角度を含む一以上の所定角度が特定され、首筋が分析対象部位とされる場合には、鉛直方向の角度を含む一以上の所定角度が特定される。そして、分析装置10は、算出工程(S24)において、複数の分析対象部位について予め決められている複数の回帰式の中から、分析対象部位に対応する回帰式を特定し、その特定された回帰式を用いて推定目視スコアを算出する。   Moreover, an estimated visual score may be calculated for each of the left and right cheeks. In this case, in the line detection step (S22), the analysis apparatus 10 specifies one or more predetermined angles corresponding to the analysis target part from a plurality of use angle information determined in advance for the plurality of analysis target parts. To do. That is, the analysis device 10 specifies 135 degrees, or 135 degrees and 85 degrees when the left cheek is the analysis target part, and 225 degrees or 225 degrees when the right cheek is the analysis target part. And 275 degrees. Further, one analysis target part may be selected from a plurality of different analysis target parts such as around the eyes, cheeks, around the mouth, neck, corners of the eyes, and forehead. Also in this case, since the direction (angle) that affects the impression of the appearance of the wrinkled state is different for each part, the use angle information may be determined in advance for each analysis target part. For example, when the forehead is the analysis target part, one or more predetermined angles including the horizontal angle are specified, and when the neck is the analysis target part, one or more including the vertical angle is specified. A predetermined angle is specified. Then, in the calculation step (S24), the analysis apparatus 10 identifies a regression equation corresponding to the analysis target part from a plurality of regression equations determined in advance for the plurality of analysis target parts, and the identified regression An estimated visual score is calculated using the formula.

なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、各工程には、人によって実施される内容が含まれていてもよい。例えば、(S21)で取得される肌輝度画像は、分析装置10に対する人の操作で選択されたファイルから分析装置10により読み取られてもよい。また、(S82)において、取得された肌輝度画像から分析対象部位を切り取る場合には、その分析対象部位の位置は、分析装置10に対する人の操作で指定されてもよい。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。   In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the order of the description. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents. Each process may include contents executed by a person. For example, the skin luminance image acquired in (S21) may be read by the analysis device 10 from a file selected by a human operation on the analysis device 10. In (S82), when the analysis target part is cut out from the acquired skin luminance image, the position of the analysis target part may be designated by a human operation on the analysis apparatus 10. Moreover, each above-mentioned embodiment can be combined in the range in which the content does not conflict.

上述の内容の一部又は全部は、次のようにも特定され得る。但し、上述の内容が以下の記載に制限されるものではない。   Part or all of the above contents can also be specified as follows. However, the above-mentioned content is not limited to the following description.

<1> 分析対象部位の肌輝度画像を取得する画像取得工程と、
前記画像取得工程で取得された前記肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出工程と、
前記線検出工程で抽出された前記一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出工程と、
複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出工程で抽出された前記線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出工程と、
を含むシワ状態分析方法。
<1> An image acquisition step of acquiring a skin luminance image of the analysis target part;
A line detection step of extracting one or more linear texture images for one or more predetermined angles corresponding to the analysis target site from the skin luminance image acquired in the image acquisition step;
An intensity extraction step of extracting the linear component intensity of the one or more predetermined angles from the one or more linear texture images extracted in the line detection step;
Obtained by regression analysis on a plurality of sample face images, the relational expression between the linear component intensity at one or more predetermined angles and the visual score of wrinkles on the face image, and extracted in the intensity extraction step Using the linear component intensity, a calculation step of calculating an estimated visual score of skin wrinkles of the analysis target part;
Wrinkle state analysis method including

<2> 前記関係式は、前記目視スコアと最も相関の高い第一の所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする単回帰式、又はその第一の所定角度を含む二つの所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする重回帰式である、
<1>に記載のシワ状態分析方法。
<3> 前記算出工程で前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得工程と、
前記情報取得工程で取得された前記年齢情報に対応する代表目視スコアと前記算出工程で算出された前記推定目視スコアとを並べて出力する出力工程と、
を更に含む<1>又は<2>に記載のシワ状態分析方法。
<4> 前記算出工程で前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得工程と、
前記情報取得工程で取得された前記年齢情報に対応する代表線状テクスチャ画像と前記線検出工程で抽出された線状テクスチャ画像とを、前記分析対象部位に対応する所定角度毎に並べて出力する出力工程と、
を更に含む<1>から<3>のいずれか1つに記載のシワ状態分析方法。
<5> 前記線検出工程で抽出された複数の線状テクスチャ画像が重畳され、画像毎に異なる色で線状成分が表される画像を出力する出力工程、
を更に含む<1>から<4>のいずれか1つに記載のシワ状態分析方法。
<6> 前記強度抽出工程は、前記線検出工程で抽出された前記一以上の線状テクスチャ画像を所定の二値化閾値を用いて二値化処理し、二値化処理により得られる二値化画像の一方の値の面積を用いて、前記一以上の所定角度の前記線状成分強度を抽出する、
<1>から<5>のいずれか1つに記載のシワ状態分析方法。
<7> 前記線検出工程は、前記肌輝度画像に対して、前記分析対象部位に対応する前記一以上の所定角度に対応するGaborフィルタを適用することにより、前記一以上の線状テクスチャ画像を抽出する、
<1>から<6>のいずれか1つに記載のシワ状態分析方法。
<8> 被験者の肌にS偏光を投射しS偏光及びP偏光を撮像して得られる各偏光画像から表面反射光画像を取得する画像処理工程と、
前記表面反射光画像から前記分析対象部位の規格化された肌画像を抽出する規格化工程と、
を更に含み、
前記画像取得工程は、前記肌画像から色情報を削除することにより、前記肌輝度画像を取得する、
<1>から<7>のいずれか1つに記載のシワ状態分析方法。
<9> 前記分析対象部位は、小ジワが生じ易い、頬、目周り、口周り、及び首筋のいずれか一つである、
<1>から<8>のいずれか1つに記載のシワ状態分析方法。
<10> 前記線検出工程は、複数の分析対象部位について予め決められている複数の利用角度情報の中から、前記分析対象部位に対応する前記一以上の所定角度を特定することを含み、
前記算出工程は、前記複数の分析対象部位について予め決められている、一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの複数の関係式の中から、前記分析対象部位に対応する前記関係式を特定することを含む、
<1>から<9>のいずれか1つに記載のシワ状態分析方法。
<11> 前記分析対象部位は、左頬又は右頬であり、
前記一以上の所定角度をそれぞれ、鉛直逆方向が0度であり、鉛直方向が180度であり、顔に向かって右回りに増加するように表す場合には、
前記分析対象部位が左頬の場合、前記分析対象部位に対応する前記一以上の所定角度は、135度、又は135度及び85度であり、
前記分析対象部位が右頬の場合、前記分析対象部位に対応する前記一以上の所定角度は、225度、又は225度及び275度である、
<1>から<10>のいずれか1つに記載のシワ状態分析方法。
<12> 分析対象部位の肌輝度画像を取得する画像取得手段と、
前記画像取得手段で取得された前記肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出手段と、
前記線検出手段で抽出された前記一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出手段と、
複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出手段で抽出された前記線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出手段と、
を備えるシワ状態分析装置。
<13> 前記関係式は、前記目視スコアと最も相関の高い第一の所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする単回帰式、又はその第一の所定角度を含む二つの所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする重回帰式である、
<12>に記載のシワ状態分析装置。
<14> 前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得手段と、
前記情報取得手段で取得された前記年齢情報に対応する代表目視スコアと前記算出手段で算出された前記推定目視スコアとを並べて出力する出力処理手段と、
を更に備える<12>又は<13>に記載のシワ状態分析装置。
<15> 前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得手段と、
前記情報取得手段で取得された前記年齢情報に対応する代表線状テクスチャ画像と前記線検出手段で抽出された線状テクスチャ画像とを、前記分析対象部位に対応する所定角度毎に並べて出力する出力処理手段と、
を更に備える<12>から<14>のいずれか1つに記載のシワ状態分析装置。
<16> 前記線検出手段で抽出された複数の線状テクスチャ画像が重畳され、画像毎に異なる色で線状成分が表される画像を出力する出力処理手段、
を更に備える<12>から<15>のいずれか1つに記載のシワ状態分析装置。
<17> 被験者の肌にS偏光を投射しS偏光及びP偏光を撮像して得られる各偏光画像から表面反射光画像を取得する画像処理手段と、
前記表面反射光画像から前記分析対象部位の規格化された肌画像を抽出する規格化手段と、
を更に備え、
前記画像取得手段は、前記肌画像から色情報を削除することにより、前記肌輝度画像を取得する、
<12>から<16>のいずれか1つに記載のシワ状態分析装置。
<18> 前記線検出手段は、複数の分析対象部位について予め決められている複数の利用角度情報の中から、前記分析対象部位に対応する前記一以上の所定角度を特定し、
前記算出手段は、前記複数の分析対象部位について予め決められている、一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの複数の関係式の中から、前記分析対象部位に対応する前記関係式を特定する、
<12>から<17>のいずれか1つに記載のシワ状態分析装置。
<19> <1>から<11>のいずれか1つに記載のシワ状態分析方法を少なくとも一つのコンピュータに実行させるプログラム。
<2> The relational expression is a single regression equation having the linear component intensity of the first predetermined angle having the highest correlation with the visual score as an explanatory variable and the visual score as an objective variable, or the first predetermined angle. It is a multiple regression equation with the linear component intensities at two predetermined angles including the explanatory variable and the visual score as the objective variable.
The wrinkle state analysis method according to <1>.
<3> An information acquisition step of acquiring age information of the skin subject from which the estimated visual score is calculated in the calculation step;
An output step of outputting a representative visual score corresponding to the age information acquired in the information acquisition step and the estimated visual score calculated in the calculation step;
The wrinkle state analysis method according to <1> or <2>, further comprising:
<4> An information acquisition step of acquiring age information of the skin subject from which the estimated visual score is calculated in the calculation step;
An output that outputs the representative linear texture image corresponding to the age information acquired in the information acquisition step and the linear texture image extracted in the line detection step side by side for each predetermined angle corresponding to the analysis target region Process,
The wrinkle state analysis method according to any one of <1> to <3>, further including:
<5> An output step of outputting an image in which a plurality of linear texture images extracted in the line detection step are superimposed and linear components are represented in different colors for each image,
The wrinkle state analysis method according to any one of <1> to <4>, further including:
<6> The intensity extraction step binarizes the one or more linear texture images extracted in the line detection step using a predetermined binarization threshold, and a binary value obtained by binarization processing Extracting the linear component intensity of the one or more predetermined angles using the area of one value of the digitized image;
The wrinkle state analysis method according to any one of <1> to <5>.
<7> The line detection step applies the one or more linear texture images to the skin luminance image by applying a Gabor filter corresponding to the one or more predetermined angles corresponding to the analysis target region. Extract,
The wrinkle state analysis method according to any one of <1> to <6>.
<8> An image processing step of acquiring a surface reflected light image from each polarized image obtained by projecting S-polarized light on the subject's skin and imaging S-polarized light and P-polarized light;
A normalization step of extracting a normalized skin image of the analysis target site from the surface reflected light image;
Further including
The image acquisition step acquires the skin luminance image by deleting color information from the skin image.
The wrinkle state analysis method according to any one of <1> to <7>.
<9> The analysis target site is any one of cheeks, eye circumferences, mouth circumferences, and neck muscles, in which fine wrinkles are likely to occur.
The wrinkle state analysis method according to any one of <1> to <8>.
<10> The line detection step includes specifying the one or more predetermined angles corresponding to the analysis target part from a plurality of use angle information predetermined for a plurality of analysis target parts,
In the calculation step, the analysis target is selected from a plurality of relational expressions between a linear component intensity at one or more predetermined angles and a visual score of wrinkles on a face image, which are predetermined for the plurality of analysis target parts. Identifying the relational expression corresponding to the site,
The wrinkle state analysis method according to any one of <1> to <9>.
<11> The analysis target site is a left cheek or a right cheek,
When expressing the one or more predetermined angles so that the vertical reverse direction is 0 degree, the vertical direction is 180 degrees, and increases clockwise toward the face,
When the analysis target part is a left cheek, the one or more predetermined angles corresponding to the analysis target part are 135 degrees, or 135 degrees and 85 degrees,
When the analysis target part is a right cheek, the one or more predetermined angles corresponding to the analysis target part are 225 degrees, or 225 degrees and 275 degrees.
The wrinkle state analysis method according to any one of <1> to <10>.
<12> Image acquisition means for acquiring a skin luminance image of the site to be analyzed;
Line detection means for extracting one or more linear texture images for one or more predetermined angles corresponding to the analysis target site from the skin luminance image acquired by the image acquisition means;
Intensity extracting means for extracting the linear component intensity at the one or more predetermined angles from the one or more linear texture images extracted by the line detecting means;
Obtained by regression analysis for a plurality of sample face images, the relational expression between the linear component intensity at one or more predetermined angles and the visual score of wrinkles on the face image, and extracted by the intensity extracting means A calculation means for calculating an estimated visual score of skin wrinkles of the analysis target site using the linear component intensity;
A wrinkle state analyzer.
<13> The relational expression is a single regression equation having the linear component intensity of the first predetermined angle having the highest correlation with the visual score as an explanatory variable and the visual score as an objective variable, or the first predetermined angle. It is a multiple regression equation with the linear component intensities at two predetermined angles including the explanatory variable and the visual score as the objective variable.
The wrinkle state analyzer according to <12>.
<14> Information acquisition means for acquiring age information of the skin subject from which the estimated visual score is calculated;
Output processing means for outputting a representative visual score corresponding to the age information acquired by the information acquisition means and the estimated visual score calculated by the calculation means;
The wrinkle state analyzer according to <12> or <13>, further comprising:
<15> Information acquisition means for acquiring age information of the skin subject from which the estimated visual score is calculated;
An output that outputs the representative linear texture image corresponding to the age information acquired by the information acquisition unit and the linear texture image extracted by the line detection unit side by side for each predetermined angle corresponding to the analysis target region Processing means;
The wrinkle state analyzer according to any one of <12> to <14>, further comprising:
<16> Output processing means for outputting a plurality of linear texture images extracted by the line detection means, and outputting an image in which linear components are represented in different colors for each image;
The wrinkle state analyzer according to any one of <12> to <15>, further comprising:
<17> Image processing means for acquiring a surface reflected light image from each polarized image obtained by projecting S-polarized light onto the subject's skin and imaging S-polarized light and P-polarized light;
Normalization means for extracting a normalized skin image of the analysis target site from the surface reflected light image;
Further comprising
The image acquisition means acquires the skin luminance image by deleting color information from the skin image.
The wrinkle state analyzer according to any one of <12> to <16>.
<18> The line detection unit specifies the one or more predetermined angles corresponding to the analysis target part from a plurality of use angle information predetermined for a plurality of analysis target parts,
The calculation means determines the analysis target from a plurality of relational expressions between a linear component intensity at one or more predetermined angles and a visual score of wrinkles on a face image, which are predetermined for the plurality of analysis target parts. Identifying the relational expression corresponding to the site;
The wrinkle state analyzer according to any one of <12> to <17>.
<19> A program that causes at least one computer to execute the wrinkle state analysis method according to any one of <1> to <11>.

1 CPU
2 メモリ
5 出力装置
6 入力装置
10 シワ状態分析装置(分析装置)
11 画像取得部
12 線検出部
13 強度抽出部
14 算出部
16 情報取得部
17 出力処理部
18 画像処理部
19 規格化部
1 CPU
2 Memory 5 Output device 6 Input device 10 Wrinkle state analyzer (analyzer)
DESCRIPTION OF SYMBOLS 11 Image acquisition part 12 Line | wire detection part 13 Intensity extraction part 14 Calculation part 16 Information acquisition part 17 Output processing part 18 Image processing part 19 Normalization part

Claims (13)

分析対象部位の肌輝度画像を取得する画像取得工程と、
前記画像取得工程で取得された前記肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出工程と、
前記線検出工程で抽出された前記一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出工程と、
複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出工程で抽出された前記線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出工程と、
を含むシワ状態分析方法。
An image acquisition step of acquiring a skin luminance image of the analysis target part;
A line detection step of extracting one or more linear texture images for one or more predetermined angles corresponding to the analysis target site from the skin luminance image acquired in the image acquisition step;
An intensity extraction step of extracting the linear component intensity of the one or more predetermined angles from the one or more linear texture images extracted in the line detection step;
Obtained by regression analysis on a plurality of sample face images, the relational expression between the linear component intensity at one or more predetermined angles and the visual score of wrinkles on the face image, and extracted in the intensity extraction step Using the linear component intensity, a calculation step of calculating an estimated visual score of skin wrinkles of the analysis target part;
Wrinkle state analysis method including
前記関係式は、前記目視スコアと最も相関の高い第一の所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする単回帰式、又はその第一の所定角度を含む二つの所定角度の線状成分強度を説明変数とし前記目視スコアを目的変数とする重回帰式である、
請求項1に記載のシワ状態分析方法。
The relational expression is a single regression equation having the linear component intensity of the first predetermined angle having the highest correlation with the visual score as an explanatory variable and the visual score as an objective variable, or two including the first predetermined angle. It is a multiple regression equation with the linear component intensity at a predetermined angle as an explanatory variable and the visual score as an objective variable.
The wrinkle state analysis method according to claim 1.
前記算出工程で前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得工程と、
前記情報取得工程で取得された前記年齢情報に対応する代表目視スコアと前記算出工程で算出された前記推定目視スコアとを並べて出力する出力工程と、
を更に含む請求項1又は2に記載のシワ状態分析方法。
An information acquisition step of acquiring age information of the skin subject for which the estimated visual score was calculated in the calculation step;
An output step of outputting a representative visual score corresponding to the age information acquired in the information acquisition step and the estimated visual score calculated in the calculation step;
The wrinkle state analysis method according to claim 1 or 2, further comprising:
前記算出工程で前記推定目視スコアが算出された前記肌の被験者の年齢情報を取得する情報取得工程と、
前記情報取得工程で取得された前記年齢情報に対応する代表線状テクスチャ画像と前記線検出工程で抽出された線状テクスチャ画像とを、前記分析対象部位に対応する所定角度毎に並べて出力する出力工程と、
を更に含む請求項1から3のいずれか1項に記載のシワ状態分析方法。
An information acquisition step of acquiring age information of the skin subject for which the estimated visual score was calculated in the calculation step;
An output that outputs the representative linear texture image corresponding to the age information acquired in the information acquisition step and the linear texture image extracted in the line detection step side by side for each predetermined angle corresponding to the analysis target region Process,
The wrinkle state analysis method according to claim 1, further comprising:
前記線検出工程で抽出された複数の線状テクスチャ画像が重畳され、画像毎に異なる色で線状成分が表される画像を出力する出力工程、
を更に含む請求項1から4のいずれか1項に記載のシワ状態分析方法。
An output step of outputting an image in which a plurality of linear texture images extracted in the line detection step are superimposed and linear components are represented in different colors for each image;
The wrinkle state analysis method according to any one of claims 1 to 4, further comprising:
前記強度抽出工程は、前記線検出工程で抽出された前記一以上の線状テクスチャ画像を所定の二値化閾値を用いて二値化処理し、二値化処理により得られる二値化画像の一方の値の面積を用いて、前記一以上の所定角度の前記線状成分強度を抽出する、
請求項1から5のいずれか1項に記載のシワ状態分析方法。
In the intensity extraction step, the one or more linear texture images extracted in the line detection step are binarized using a predetermined binarization threshold, and a binarized image obtained by the binarization processing is processed. Extracting the linear component intensity of the one or more predetermined angles using the area of one value,
The wrinkle state analysis method according to any one of claims 1 to 5.
前記線検出工程は、前記肌輝度画像に対して、前記分析対象部位に対応する前記一以上の所定角度に対応するGaborフィルタを適用することにより、前記一以上の線状テクスチャ画像を抽出する、
請求項1から6のいずれか1項に記載のシワ状態分析方法。
The line detection step extracts the one or more linear texture images by applying a Gabor filter corresponding to the one or more predetermined angles corresponding to the analysis target site to the skin luminance image.
The wrinkle state analysis method according to any one of claims 1 to 6.
被験者の肌にS偏光を投射しS偏光及びP偏光を撮像して得られる各偏光画像から表面反射光画像を取得する画像処理工程と、
前記表面反射光画像から前記分析対象部位の規格化された肌画像を抽出する規格化工程と、
を更に含み、
前記画像取得工程は、前記肌画像から色情報を削除することにより、前記肌輝度画像を取得する、
請求項1から7のいずれか1項に記載のシワ状態分析方法。
An image processing step of acquiring a surface reflected light image from each polarization image obtained by projecting S-polarized light on the subject's skin and imaging S-polarized light and P-polarized light;
A normalization step of extracting a normalized skin image of the analysis target site from the surface reflected light image;
Further including
The image acquisition step acquires the skin luminance image by deleting color information from the skin image.
The wrinkle state analysis method according to any one of claims 1 to 7.
前記分析対象部位は、小ジワが生じ易い、頬、目周り、口周り、及び首筋のいずれか一つである、
請求項1から8のいずれか1項に記載のシワ状態分析方法。
The site to be analyzed is any one of cheeks, around the eyes, around the mouth, and the neck, where wrinkles are likely to occur.
The wrinkle state analysis method according to any one of claims 1 to 8.
前記線検出工程は、複数の分析対象部位について予め決められている複数の利用角度情報の中から、前記分析対象部位に対応する前記一以上の所定角度を特定することを含み、
前記算出工程は、前記複数の分析対象部位について予め決められている、一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの複数の関係式の中から、前記分析対象部位に対応する前記関係式を特定することを含む、
請求項1から9のいずれか1項に記載のシワ状態分析方法。
The line detection step includes specifying the one or more predetermined angles corresponding to the analysis target part from a plurality of use angle information predetermined for a plurality of analysis target parts,
In the calculation step, the analysis target is selected from a plurality of relational expressions between a linear component intensity at one or more predetermined angles and a visual score of wrinkles on a face image, which are predetermined for the plurality of analysis target parts. Identifying the relational expression corresponding to the site,
The wrinkle state analysis method according to any one of claims 1 to 9.
前記分析対象部位は、左頬又は右頬であり、
前記一以上の所定角度をそれぞれ、鉛直逆方向が0度であり、鉛直方向が180度であり、顔に向かって右回りに増加するように表す場合には、
前記分析対象部位が左頬の場合、前記分析対象部位に対応する前記一以上の所定角度は、135度、又は135度及び85度であり、
前記分析対象部位が右頬の場合、前記分析対象部位に対応する前記一以上の所定角度は、225度、又は225度及び275度である、
請求項1から10のいずれか1項に記載のシワ状態分析方法。
The analysis target site is a left cheek or a right cheek,
When expressing the one or more predetermined angles so that the vertical reverse direction is 0 degree, the vertical direction is 180 degrees, and increases clockwise toward the face,
When the analysis target part is a left cheek, the one or more predetermined angles corresponding to the analysis target part are 135 degrees, or 135 degrees and 85 degrees,
When the analysis target part is a right cheek, the one or more predetermined angles corresponding to the analysis target part are 225 degrees, or 225 degrees and 275 degrees,
The wrinkle state analysis method according to any one of claims 1 to 10.
分析対象部位の肌輝度画像を取得する画像取得手段と、
前記画像取得手段で取得された前記肌輝度画像から、前記分析対象部位に対応する一以上の所定角度についての一以上の線状テクスチャ画像を抽出する線検出手段と、
前記線検出手段で抽出された前記一以上の線状テクスチャ画像から、前記一以上の所定角度の線状成分強度を抽出する強度抽出手段と、
複数のサンプル顔画像を対象とする回帰分析により得られた、前記一以上の所定角度の線状成分強度と顔画像上のシワの目視スコアとの関係式、及び前記強度抽出手段で抽出された前記線状成分強度を用いて、前記分析対象部位の肌のシワの推定目視スコアを算出する算出手段と、
を備えるシワ状態分析装置。
Image acquisition means for acquiring a skin luminance image of the analysis target part;
Line detection means for extracting one or more linear texture images for one or more predetermined angles corresponding to the analysis target site from the skin luminance image acquired by the image acquisition means;
Intensity extracting means for extracting the linear component intensity at the one or more predetermined angles from the one or more linear texture images extracted by the line detecting means;
Obtained by regression analysis for a plurality of sample face images, the relational expression between the linear component intensity at one or more predetermined angles and the visual score of wrinkles on the face image, and extracted by the intensity extracting means A calculation means for calculating an estimated visual score of skin wrinkles of the analysis target site using the linear component intensity;
A wrinkle state analyzer.
請求項1から11のいずれか1項に記載のシワ状態分析方法を少なくとも一つのコンピュータに実行させるプログラム。   The program which makes at least one computer perform the wrinkle state analysis method of any one of Claim 1 to 11.
JP2015131636A 2015-06-30 2015-06-30 Wrinkle state analyzer and method Active JP6527765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015131636A JP6527765B2 (en) 2015-06-30 2015-06-30 Wrinkle state analyzer and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131636A JP6527765B2 (en) 2015-06-30 2015-06-30 Wrinkle state analyzer and method

Publications (2)

Publication Number Publication Date
JP2017012384A true JP2017012384A (en) 2017-01-19
JP6527765B2 JP6527765B2 (en) 2019-06-05

Family

ID=57827360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131636A Active JP6527765B2 (en) 2015-06-30 2015-06-30 Wrinkle state analyzer and method

Country Status (1)

Country Link
JP (1) JP6527765B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107981842A (en) * 2017-11-20 2018-05-04 珠海伊斯佳科技股份有限公司 A kind of laminating adhesive external member and its application method and application for being used to transcribe dermatoglyph
CN113796826A (en) * 2020-06-11 2021-12-17 懿奈(上海)生物科技有限公司 Method for detecting skin age of human face of Chinese
WO2024021000A1 (en) * 2022-07-29 2024-02-01 L'oreal System and method for evaluating dynamic wrinkles on keratin material of a user to be tested

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252891A (en) * 2006-02-23 2007-10-04 Masahiro Nakagawa Estimation method of evaluation value by visual recognition of beauty of skin
JP2007252892A (en) * 2006-02-23 2007-10-04 Masahiro Nakagawa Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
WO2009142069A1 (en) * 2008-05-23 2009-11-26 ポーラ化成工業株式会社 Method for automatically judging skin texture and/or crease
JP2013069122A (en) * 2011-09-22 2013-04-18 Fujifilm Corp Method, device, and program for detecting wrinkle, and method, device, and program for evaluating wrinkle
WO2014208067A1 (en) * 2013-06-28 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Skin function evaluation device and skin evaluation method
JP2015062569A (en) * 2013-09-25 2015-04-09 花王株式会社 Wrinkle state-analyzing method, and wrinkle state-analysing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252891A (en) * 2006-02-23 2007-10-04 Masahiro Nakagawa Estimation method of evaluation value by visual recognition of beauty of skin
JP2007252892A (en) * 2006-02-23 2007-10-04 Masahiro Nakagawa Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
WO2009142069A1 (en) * 2008-05-23 2009-11-26 ポーラ化成工業株式会社 Method for automatically judging skin texture and/or crease
JP2013069122A (en) * 2011-09-22 2013-04-18 Fujifilm Corp Method, device, and program for detecting wrinkle, and method, device, and program for evaluating wrinkle
WO2014208067A1 (en) * 2013-06-28 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Skin function evaluation device and skin evaluation method
JP2015062569A (en) * 2013-09-25 2015-04-09 花王株式会社 Wrinkle state-analyzing method, and wrinkle state-analysing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107981842A (en) * 2017-11-20 2018-05-04 珠海伊斯佳科技股份有限公司 A kind of laminating adhesive external member and its application method and application for being used to transcribe dermatoglyph
CN107981842B (en) * 2017-11-20 2019-02-05 珠海伊斯佳科技股份有限公司 A kind of laminating adhesive external member and its application method and application for transcribing dermatoglyph
CN113796826A (en) * 2020-06-11 2021-12-17 懿奈(上海)生物科技有限公司 Method for detecting skin age of human face of Chinese
WO2024021000A1 (en) * 2022-07-29 2024-02-01 L'oreal System and method for evaluating dynamic wrinkles on keratin material of a user to be tested

Also Published As

Publication number Publication date
JP6527765B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP5657494B2 (en) Wrinkle detection method, wrinkle detection apparatus and wrinkle detection program, and wrinkle evaluation method, wrinkle evaluation apparatus and wrinkle evaluation program
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
US20160135730A1 (en) Skin function evaluation device and skin evaluation method
JP6473401B2 (en) Skin gloss evaluation apparatus, gloss evaluation method, and gloss evaluation program
JP6756524B2 (en) How to analyze the effects of cosmetic procedures
JP5753055B2 (en) Skin image analysis apparatus and skin image analysis method
JP6185807B2 (en) Wrinkle state analysis method and wrinkle state analyzer
CN113167722A (en) Information processing apparatus, information processing method, and program
JP6527765B2 (en) Wrinkle state analyzer and method
Thamaraimanalan et al. Multi biometric authentication using SVM and ANN classifiers
JP2014087464A (en) Skin evaluation method and skin evaluation device
JP2021192065A (en) Skin distortion measuring method
JP6850194B2 (en) Skin condition evaluation method and skin condition evaluation device
Hu et al. Jpeg ringing artifact visibility evaluation
US20180116582A1 (en) Elasticity evaluation apparatus, elasticity evaluation method, and elasticity evaluation program
JP2018171516A (en) Image processing method, diagnosis device, and program
JP2007252892A (en) Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
JP2018196426A (en) Pore detection method and pore detection device
JP2009258770A (en) Image processing method, image processor, image processing program, and imaging device
JP6730051B2 (en) Skin condition evaluation method
TWI749696B (en) Skin detection method
Merkle et al. State of the art of quality assessment of facial images
JP6359389B2 (en) Evaluation method for aesthetic impression of lips and support device for supporting the evaluation
JP5686376B2 (en) Image processing apparatus, method, and program
JP5093540B2 (en) Eye position detection method and detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190513

R151 Written notification of patent or utility model registration

Ref document number: 6527765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250