JP6118214B2 - Wrinkle analysis method and wrinkle analyzer - Google Patents

Wrinkle analysis method and wrinkle analyzer Download PDF

Info

Publication number
JP6118214B2
JP6118214B2 JP2013174179A JP2013174179A JP6118214B2 JP 6118214 B2 JP6118214 B2 JP 6118214B2 JP 2013174179 A JP2013174179 A JP 2013174179A JP 2013174179 A JP2013174179 A JP 2013174179A JP 6118214 B2 JP6118214 B2 JP 6118214B2
Authority
JP
Japan
Prior art keywords
image
wrinkle
correlation
binary pattern
skin luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013174179A
Other languages
Japanese (ja)
Other versions
JP2015042200A (en
Inventor
中川 典昭
典昭 中川
昌二 富永
昌二 富永
隆彦 堀内
隆彦 堀内
拓巳 秋山
拓巳 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2013174179A priority Critical patent/JP6118214B2/en
Publication of JP2015042200A publication Critical patent/JP2015042200A/en
Application granted granted Critical
Publication of JP6118214B2 publication Critical patent/JP6118214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、肌画像の分析技術に関する。   The present invention relates to a skin image analysis technique.

下記特許文献1は、皮膚表面の皮溝と皮丘とによって構成されるキメ等の皮膚性状を鑑別する方法を提案する。下記特許文献1は、この鑑別方法の1つとして、皮膚の状態を示すカラー画像から、単一色画素又は単一色画素に演算処理を行った処理画素からなる画像を生成し、この画像にフーリエ変換を適用することで得られるフーリエ変換画像の、輝度ヒストグラム及び/又は輝度形状特性から得られる指標値を皮膚性状の指標とする方法を提案する。   The following Patent Document 1 proposes a method for distinguishing skin properties such as texture composed of skin grooves and cuticles on the skin surface. Patent Document 1 below, as one of the discrimination methods, generates a single color pixel or an image composed of processed pixels obtained by performing arithmetic processing on a single color pixel from a color image indicating a skin state, and Fourier transforms the image. A method is proposed in which an index value obtained from a luminance histogram and / or luminance shape characteristics of a Fourier transform image obtained by applying is used as an index of skin properties.

特開2006−61170号公報JP 2006-61170 A

上述の提案手法では、皮丘間隔の相対的バラツキ特性を反映し易いという思想に基づいて、輝度ヒストグラムから得られる指標値(標準偏差等)が用いられる。つまり、上述の提案手法は、皮丘間隔の相対的バラツキ特性を定量化することで、キメの状態を鑑別する手法であり、シワの状態を分析することまで考慮していない。   In the proposed method described above, an index value (standard deviation or the like) obtained from the luminance histogram is used based on the idea that the relative variation characteristic of the hill interval is easily reflected. In other words, the above-described proposed method is a method for discriminating the texture state by quantifying the relative variation characteristics of the skin interval, and does not consider the analysis of the wrinkle state.

本発明は、このような課題に鑑みてなされたものであり、肌画像に基づいて肌のシワの状態を高精度に定量化する技術を提供する。   This invention is made | formed in view of such a subject, and provides the technique of quantifying the wrinkle state of skin with high precision based on a skin image.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様に係るシワ分析方法は、分析対象部位の肌輝度画像を取得し、局所シワテクスチャを表す二値パターン画像を取得し、二値パターン画像を肌輝度画像上でスライドさせながら、二値パターン画像と肌輝度画像との相関値を逐次算出することにより、相関画像を生成し、相関画像を二値化することで二値化画像を生成し、二値化画像を細線化することで細線化画像を生成し、細線化画像から線分長情報を抽出する、ことを含む。   The wrinkle analysis method according to the first aspect acquires a skin luminance image of a site to be analyzed, acquires a binary pattern image representing a local wrinkle texture, and slides the binary pattern image on the skin luminance image while A correlation image is generated by sequentially calculating a correlation value between a value pattern image and a skin luminance image, a binarized image is generated by binarizing the correlation image, and the binarized image is thinned Generating a thin line image and extracting line segment length information from the thin line image.

第2の態様に係るシワ分析装置は、分析対象部位の肌輝度画像を取得する画像取得部と、局所シワテクスチャを表す二値パターン画像を取得するパターン取得部と、二値パターン画像を肌輝度画像上をスライドさせながら、二値パターン画像と肌輝度画像との相関値を逐次算出することにより、相関画像を生成する相関処理部と、相関画像を二値化することで二値化画像を生成する二値化部と、二値化画像を細線化することで細線化画像を生成する細線化部と、細線化画像から線分長情報を抽出する情報抽出部と、情報抽出部により抽出された線分長情報の出力処理を行う出力処理部と、を有する。   The wrinkle analysis device according to the second aspect includes an image acquisition unit that acquires a skin luminance image of a region to be analyzed, a pattern acquisition unit that acquires a binary pattern image representing a local wrinkle texture, and a skin luminance value of the binary pattern image. A correlation processing unit that generates a correlation image by sequentially calculating a correlation value between the binary pattern image and the skin luminance image while sliding on the image, and binarizing the correlation image by binarizing the correlation image Extracted by a binarization unit to be generated, a thinning unit that generates a thinned image by thinning the binarized image, an information extraction unit that extracts line segment length information from the thinned image, and an information extraction unit An output processing unit that performs an output process of the line segment length information.

なお、本発明の別態様としては、上記第1態様に係る方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   As another aspect of the present invention, there may be a program that causes at least one computer to execute the method according to the first aspect, or a computer-readable storage medium that records such a program. Also good. This recording medium includes a non-transitory tangible medium.

上記各態様によれば、肌画像に基づいて肌のシワの状態を高精度に定量化する技術を提供することができる。   According to each said aspect, the technique which quantifies the wrinkle state of skin with high precision based on a skin image can be provided.

第1実施形態におけるシワ分析装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the wrinkle analyzer in 1st Embodiment. 第1実施形態におけるシワ分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle analyzer in 1st Embodiment. 二値パターン画像の例を示す図である。It is a figure which shows the example of a binary pattern image. 相関画像の生成過程を示す図である。It is a figure which shows the production | generation process of a correlation image. 相関画像が二値化及び細線化される過程を示す図である。It is a figure which shows the process in which a correlation image is binarized and thinned. 線分長情報の抽出を概念的に示す図である。It is a figure which shows notion of extraction of line segment length information notionally. 第1実施形態におけるシワ分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle analyzer in 1st Embodiment. 第2実施形態におけるシワ分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle analyzer in 2nd Embodiment. 肌輝度画像から角度毎のパワースペクトルの分布情報を算出する例を概念的に示す図である。It is a figure which shows notionally the example which calculates the distribution information of the power spectrum for every angle from a skin luminance image. 肌輝度画像の角度補正の過程を示す図である。It is a figure which shows the process of angle correction | amendment of a skin luminance image. 第2実施形態におけるシワ分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle analyzer in 2nd Embodiment. 第3実施形態におけるシワ分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle analyzer in 3rd Embodiment. 微小領域除去の過程を示す図である。It is a figure which shows the process of a micro area | region removal. 第3実施形態におけるシワ分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle analyzer in 3rd Embodiment. 第4実施形態におけるシワ分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle analyzer in 4th Embodiment. 第4実施形態におけるシワ分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle analyzer in 4th Embodiment. 第5実施形態におけるシワ分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the wrinkle analyzer in 5th Embodiment. 第5実施形態におけるシワ分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the wrinkle analyzer in 5th Embodiment. 二値パターン画像の変形例を示す図である。It is a figure which shows the modification of a binary pattern image. 二値パターン画像の画像サイズと相関画像との関係を示す図である。It is a figure which shows the relationship between the image size of a binary pattern image, and a correlation image. 平均線分画素数とシワ状態との相関関係を示すグラフである。It is a graph which shows the correlation with an average line segment pixel number and a wrinkle state. 方向性エントロピーとシワ状態との相関関係を示すグラフである。It is a graph which shows correlation with directionality entropy and a wrinkle state.

以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, each embodiment given below is an illustration, respectively, and this invention is not limited to the structure of each following embodiment.

[第1実施形態]
〔ハードウェア構成〕
図1は、第1実施形態におけるシワ分析装置10のハードウェア構成例を概念的に示す図である。第1実施形態におけるシワ分析装置10は、いわゆるコンピュータであり、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。
[First Embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually illustrating a hardware configuration example of a wrinkle analyzer 10 according to the first embodiment. The wrinkle analyzer 10 according to the first embodiment is a so-called computer, and includes a CPU (Central Processing Unit) 2, a memory 3, an input / output interface (I / F) 4, and the like. The memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.

入出力I/F4は、入力部7、出力部9、他のコンピュータや他の装置と通信を行う通信装置等と接続される。入力部7は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。出力部9は、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置である。なお、シワ分析装置10のハードウェア構成は制限されない。   The input / output I / F 4 is connected to the input unit 7, the output unit 9, a communication device that communicates with other computers and other devices, and the like. The input unit 7 is a device that receives input of a user operation such as a keyboard and a mouse. The output unit 9 is a device that provides information to a user, such as a display device or a printer. Note that the hardware configuration of the wrinkle analyzer 10 is not limited.

〔動作例(シワ分析方法)〕
図2は、第1実施形態におけるシワ分析装置10の動作例を示すフローチャートである。以下、図2を用いて、第1実施形態におけるシワ分析方法を説明する。
シワ分析装置10により実行されるシワ分析方法は、図2に示されるように、肌輝度画像を取得する工程(S21)、二値パターン画像を取得する工程(S22)、相関画像を生成する工程(S23)、二値化工程(S24)、細線化工程(S25)、情報抽出工程(S26)を含む。以下、これら各工程について詳述する。
[Operation example (wrinkle analysis method)]
FIG. 2 is a flowchart showing an operation example of the wrinkle analyzer 10 in the first embodiment. Hereinafter, the wrinkle analysis method according to the first embodiment will be described with reference to FIG.
As shown in FIG. 2, the wrinkle analysis method executed by the wrinkle analyzer 10 includes a step of acquiring a skin luminance image (S21), a step of acquiring a binary pattern image (S22), and a step of generating a correlation image. (S23), a binarization step (S24), a thinning step (S25), and an information extraction step (S26). Hereinafter, these steps will be described in detail.

工程(S21)では、シワ分析装置10は、分析対象部位の肌輝度画像を取得する。分析対象部位には、例えば、見た目年齢を左右するシワが生じ易い目の下や目尻の所定範囲が選ばれる。但し、分析対象部位は制限されない。肌輝度画像は、肌の分析対象部位が写る画像であり、画素毎に明暗情報を持つ画像である。肌輝度画像は、一般的なカメラで撮像されたカラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。また、肌輝度画像は、JPEG(Joint Photographic Experts Group)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得されてもよいし、各画素の明暗情報を羅列したデータとして取得されてもよい。本実施形態は、肌輝度画像のデータ形式を制限しない。シワ分析装置10は、当該肌輝度画像を、可搬型記録媒体、他の装置等から入出力I/F4を経由して取得することができる。   In the step (S21), the wrinkle analyzer 10 acquires a skin luminance image of the analysis target part. As the analysis target region, for example, a predetermined range under the eye or the corner of the eye where wrinkles that affect the appearance age are likely to occur. However, the analysis target part is not limited. The skin luminance image is an image in which a skin analysis target part is captured, and is an image having light / dark information for each pixel. The skin luminance image may be a gray scale image obtained by converting a color image captured by a general camera into a gray scale. Further, the skin luminance image may be acquired as an image file in a JPEG (Joint Photographic Experts Group) format, a GIF (Graphic Interchange Format) format, or may be acquired as data in which brightness / darkness information of each pixel is listed. . This embodiment does not limit the data format of the skin luminance image. The wrinkle analyzer 10 can acquire the skin luminance image from a portable recording medium, another device, or the like via the input / output I / F 4.

工程(S22)では、シワ分析装置10は、局所シワテクスチャを表す二値パターン画像を取得する。シワ分析装置10は、二値パターン画像を自ら生成してもよいし、予め保持するメモリ3から取得することもできるし、可搬型記録媒体、他の装置等から入出力I/F4を経由して取得することもできる。二値パターン画像は、各画素の画素値が黒又は白に対応する値に設定される画像であり、局所シワテクスチャとしてシワに相当する線状の模様を持つ画像である。   In the step (S22), the wrinkle analyzer 10 acquires a binary pattern image representing a local wrinkle texture. The wrinkle analyzer 10 may generate a binary pattern image by itself, obtain it from the memory 3 stored in advance, or pass through the input / output I / F 4 from a portable recording medium, another device, or the like. Can also be obtained. The binary pattern image is an image in which the pixel value of each pixel is set to a value corresponding to black or white, and is an image having a linear pattern corresponding to wrinkles as a local wrinkle texture.

図3は、二値パターン画像の例を示す図である。図3の例では、二値パターン画像は、縦5画素、横5画素の画像サイズを持ち、左上から右下へ延びる線状の模様を持つ。線状の模様は、図3の例に制限されない。例えば、図3の例では、線状模様が左上から右下へ延びるが、線状模様は上下方向(縦方向)であってもよいし、左右方向(横方向)であってもよい。また、二値パターン画像のサイズは、図3の例よりも小さくてもよいし、大きくてもよい。また、二値パターン画像は、複数の線状模様を持つようにしてもよい。但し、二値パターン画像が表す線状模様が、肌輝度画像から抽出されるシワテクスチャに相当するため、当該線状模様が、局所シワテクスチャ、即ち、シワ一本分に相当するように、肌輝度画像に写る分析対象部位の大きさや肌輝度画像の画像サイズ等に応じて、二値パターン画像のサイズが決定されることが望ましい。   FIG. 3 is a diagram illustrating an example of a binary pattern image. In the example of FIG. 3, the binary pattern image has an image size of 5 pixels vertically and 5 pixels horizontally, and has a linear pattern extending from the upper left to the lower right. The linear pattern is not limited to the example of FIG. For example, in the example of FIG. 3, the linear pattern extends from the upper left to the lower right, but the linear pattern may be in the vertical direction (vertical direction) or in the horizontal direction (horizontal direction). Further, the size of the binary pattern image may be smaller or larger than the example of FIG. Further, the binary pattern image may have a plurality of linear patterns. However, since the linear pattern represented by the binary pattern image corresponds to the wrinkle texture extracted from the skin luminance image, the linear pattern corresponds to the local wrinkle texture, i.e., one wrinkle. It is desirable that the size of the binary pattern image is determined in accordance with the size of the analysis target portion shown in the luminance image, the image size of the skin luminance image, and the like.

また、二値パターン画像は、後述する相関画像にシワテクスチャ(シワ成分)を顕在化させるために用いられるため、二値パターン画像が持つ線状の模様の方向と、肌輝度画像に写るシワの方向とが一致しているのが望ましい。そこで、二値パターン画像が予め準備されている場合には、シワの方向性が二値パターン画像が持つ線状の模様の方向と合うように分析対象部位が撮像されることにより、肌輝度画像が生成されることが望ましい。   In addition, since the binary pattern image is used to reveal a wrinkle texture (wrinkle component) in the correlation image described later, the direction of the linear pattern that the binary pattern image has and the wrinkle reflected in the skin luminance image It is desirable that the direction matches. Therefore, when a binary pattern image is prepared in advance, the skin luminance image is obtained by imaging the analysis target part so that the direction of wrinkles matches the direction of the linear pattern of the binary pattern image. Is preferably generated.

本実施形態における二値パターン画像では、図3に示されるように、黒で線状模様が示される。これは、肌輝度画像に写るシワテクスチャが、肌表面のくぼみに由来するため、一般的には、暗い輝度値で表わされるからである。よって、肌輝度画像においてシワテクスチャが明るい輝度値で表わされる場合、白で線状模様が示される二値パターン画像が利用され得る。以降の説明では、シワテクスチャが暗い輝度値で表われる肌輝度画像を対象として説明する。   In the binary pattern image in the present embodiment, as shown in FIG. 3, a linear pattern is shown in black. This is because the wrinkle texture that appears in the skin brightness image is derived from a dent on the skin surface, and is therefore generally represented by a dark brightness value. Therefore, when the wrinkle texture is represented by a bright luminance value in the skin luminance image, a binary pattern image in which a linear pattern is shown in white can be used. In the following description, a skin luminance image in which the wrinkle texture is expressed by a dark luminance value will be described.

工程(S23)では、シワ分析装置10は、(S22)で取得された二値パターン画像を、(S21)で取得された肌輝度画像上でスライドさせながら、二値パターン画像と肌輝度画像との相関値を逐次算出することにより、相関画像を生成する。シワ分析装置10は、相関画像の生成において、算出された相関値を0以上255以下の画素値に線形的に割り当てる。結果、生成された相関画像の各画素は、算出された相関値に対応する画素値をそれぞれ持つ。これにより、二値パターン画像と相関が高い肌輝度画像内の領域から得られる画素値は相対的に明るい値となり、その相関が低い当該領域から得られる画素値は相対的に暗い値となる。このとき、0以下の相関値を示す部分は、シワ以外の肌テクスチャを表すため、その部分の画素値が0に設定される。二値パターン画像は局所シワテクスチャを表すため、相関画像では、シワ成分が明るい輝度で表わされ、シワ成分以外が暗い輝度で表わされる。但し、相関値と画素値との関係を上述の関係とは逆にし、シワ成分が暗い輝度で表わされ、シワ成分以外が明るい輝度で表わされる相関画像が生成されてもよい。   In the step (S23), the wrinkle analyzer 10 slides the binary pattern image acquired in (S22) on the skin luminance image acquired in (S21), Correlation images are generated by sequentially calculating the correlation values. In generating a correlation image, the wrinkle analyzer 10 linearly assigns the calculated correlation value to pixel values of 0 or more and 255 or less. As a result, each pixel of the generated correlation image has a pixel value corresponding to the calculated correlation value. Thereby, the pixel value obtained from the region in the skin luminance image having a high correlation with the binary pattern image is a relatively bright value, and the pixel value obtained from the region having a low correlation is a relatively dark value. At this time, since the portion showing the correlation value of 0 or less represents a skin texture other than wrinkles, the pixel value of that portion is set to 0. Since the binary pattern image represents a local wrinkle texture, in the correlation image, the wrinkle component is expressed with bright luminance, and other than the wrinkle component is expressed with dark luminance. However, a correlation image may be generated in which the relationship between the correlation value and the pixel value is reversed from the above-described relationship, and the wrinkle component is expressed with dark luminance and the components other than the wrinkle component are expressed with bright luminance.

図4は、相関画像の生成過程を示す図である。図4に示されるように、シワ分析装置10は、二値パターン画像を肌輝度画像上で1画素ずつスライドさせ、二値パターン画像と、肌輝度画像の二値パターン画像と重なる領域との相関値を逐次算出し、算出された相関値を画素値に逐次変換する。シワ分析装置10は、この相関値に対応する画素値を各画素にそれぞれ設定していくことにより、相関画像を生成する。シワ分析装置10は、例えば、次の(式1)を用いて、相関値を算出する。但し、本実施形態は、相関値の算出式を以下の式に制限しない。   FIG. 4 is a diagram showing a correlation image generation process. As shown in FIG. 4, the wrinkle analyzer 10 slides the binary pattern image pixel by pixel on the skin luminance image, and correlates the binary pattern image with the region overlapping the binary pattern image of the skin luminance image. The values are sequentially calculated, and the calculated correlation values are sequentially converted into pixel values. The wrinkle analyzer 10 generates a correlation image by setting a pixel value corresponding to this correlation value for each pixel. The wrinkle analyzer 10 calculates the correlation value using, for example, the following (Expression 1). However, the present embodiment does not limit the correlation value calculation formula to the following formula.

Rは相関値を示す。Xは、肌輝度画像の二値パターン画像と重なる領域内の位置iの画素の値を示す。上線付きXは、肌輝度画像の二値パターン画像と重なる領域内の平均画素値を示す。Yは、二値パターン画像内の位置iの画素の値を示す。上線付きYは、二値パターン画像内の平均画素値を示す。Sは二値パターン画像の画像サイズ(画素数)を示す。 R represents a correlation value. X i indicates the value of the pixel at position i in the region overlapping the binary pattern image of the skin luminance image. X with an overline indicates an average pixel value in an area overlapping with the binary pattern image of the skin luminance image. Y i indicates the value of the pixel at position i in the binary pattern image. Y with an overline indicates an average pixel value in the binary pattern image. S indicates the image size (number of pixels) of the binary pattern image.

工程(S24)では、シワ分析装置10は、(S23)で生成された相関画像を二値化し、二値化画像を生成する。シワ分析装置10は、二値化閾値を、例えば、判別分析法を用いて決定する。二値化閾値は、モード法等、他の方法により決定されてもよいし、予め決められメモリ3に保持されてもよい。   In step (S24), the wrinkle analyzer 10 binarizes the correlation image generated in (S23) to generate a binarized image. The wrinkle analyzer 10 determines the binarization threshold using, for example, a discriminant analysis method. The binarization threshold may be determined by other methods such as a mode method, or may be determined in advance and held in the memory 3.

工程(S25)では、シワ分析装置10は、(S24)で得られた二値化画像を細線化し、細線化画像を生成する。具体的には、シワ分析装置10は、二値化画像に表われる線状模様の線幅が1画素となるように、線状模様を示す画素値(白又は黒)を持つ画素の値を反転(背景化)していく。細線化アルゴリズムには、Hilditch、Deutsch、Zhang Suen、田村、鶴岡等の手法が利用されればよい。   In step (S25), the wrinkle analyzer 10 thins the binarized image obtained in (S24) to generate a thinned image. Specifically, the wrinkle analyzer 10 determines pixel values having pixel values (white or black) indicating the linear pattern so that the line width of the linear pattern appearing in the binarized image is one pixel. Invert (background). As the thinning algorithm, methods such as Hilditch, Deutsch, Zhang Suen, Tamura, and Tsuruoka may be used.

図5は、相関画像が二値化及び細線化される過程を示す図である。上述の工程(S24)及び(S25)が実行されることにより、相関画像が二値化画像に変換され、二値化画像が細線化画像に変換される。   FIG. 5 is a diagram illustrating a process in which a correlation image is binarized and thinned. By executing the steps (S24) and (S25) described above, the correlation image is converted into a binarized image, and the binarized image is converted into a thinned image.

工程(S26)では、シワ分析装置10は、(S25)で得られた細線化画像から線分長情報を抽出する。線分長情報は、細線化画像に表われる線分の長さの特徴を示す情報である。ここで、細線化画像に表われる線分は、線分を示す画素値を持つ線成分画素の集合であって、8方向の少なくとも1つで隣接する線成分画素同士を集めた画素集合である。この線分の長さは、線分を形成する線成分画素の数(以降、線分画素数と表記する)で表すこともできるし、その線分の末端に位置する2つの線成分画素間の距離(以降、線分距離と表記する)で表すこともできる。   In step (S26), the wrinkle analyzer 10 extracts line segment length information from the thinned image obtained in (S25). The line segment length information is information indicating the characteristics of the length of the line segment appearing in the thinned image. Here, the line segment appearing in the thinned image is a set of line component pixels having pixel values indicating the line segment, and is a pixel set obtained by collecting adjacent line component pixels in at least one of the eight directions. . The length of this line segment can be expressed by the number of line component pixels forming the line segment (hereinafter referred to as the number of line segment pixels), or between two line component pixels located at the end of the line segment. (Hereinafter referred to as a line segment distance).

よって、シワ分析装置10は、細線化画像から、上記線分長情報として、平均線分画素数、平均線分距離、代表線分数などを抽出することができる。平均線分画素数は、細線化画像に表われる全線分における上記線分画素数の平均であり、平均線分距離は、細線化画像に表われる全線分における上記線分距離の平均である。また、代表線分数は、例えば、所定閾値より大きい上記線分画素数又は上記線分距離を持つ線分の数である。本実施形態では、上記線分長情報が、細線化画像に表われる線分の長さの特徴を示す情報であればよく、その線分長情報の具体的内容を制限しない。   Therefore, the wrinkle analyzer 10 can extract the average line segment pixel number, the average line segment distance, the representative line segment number, and the like as the line segment length information from the thinned image. The average number of line segment pixels is the average of the number of line segment pixels in all line segments appearing in the thinned image, and the average line segment distance is the average of the line segment distance in all line segments appearing in the thinned image. The representative line segment number is, for example, the number of line segment pixels or the line segment having the line segment distance larger than a predetermined threshold. In the present embodiment, the line segment length information may be information indicating the characteristics of the length of the line segment appearing in the thinned image, and the specific content of the line segment length information is not limited.

図6は、線分長情報の抽出を概念的に示す図である。図6には、或る1つの線分の長さが算出されている様子が例示されている。シワ分析装置10は、図6に示されるような細線化画像から、上述のような線分(線成分画素の集合)を検出し、検出された各線分の長さをそれぞれ計算し、計算された各線分の長さに基づいて、当該線分長情報を算出する。   FIG. 6 is a diagram conceptually illustrating the extraction of line segment length information. FIG. 6 illustrates a state in which the length of a certain line segment is calculated. The wrinkle analyzer 10 detects the line segments (a set of line component pixels) as described above from the thinned image as shown in FIG. 6 and calculates the length of each detected line segment. Based on the length of each line segment, the line segment length information is calculated.

〔処理構成〕
図7は、第1実施形態におけるシワ分析装置10の処理構成例を概念的に示す図である。第1実施形態におけるシワ分析装置10は、画像取得部11、パターン取得部12、相関処理部13、二値化部14、細線化部15、情報抽出部16、出力処理部17等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。
[Processing configuration]
FIG. 7 is a diagram conceptually illustrating a processing configuration example of the wrinkle analyzer 10 according to the first embodiment. The wrinkle analyzer 10 according to the first embodiment includes an image acquisition unit 11, a pattern acquisition unit 12, a correlation processing unit 13, a binarization unit 14, a thinning unit 15, an information extraction unit 16, an output processing unit 17, and the like. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 4 and stored in the memory 3. Good.

シワ分析装置10は、図7に示される各処理部を用いて、上述のシワ分析方法を実行することができる。即ち、シワ分析装置10は、図2に示されるように動作することができる。この場合、画像取得部11は工程(S21)を実行し、パターン取得部12は工程(S22)を実行し、相関処理部13は工程(S23)を実行し、二値化部14は工程(S24)を実行し、細線化部15は工程(S25)を実行し、情報抽出部16は工程(S26)を実行する。   The wrinkle analyzer 10 can execute the above-described wrinkle analysis method using each processing unit shown in FIG. That is, the wrinkle analyzer 10 can operate as shown in FIG. In this case, the image acquisition unit 11 executes the process (S21), the pattern acquisition unit 12 executes the process (S22), the correlation processing unit 13 executes the process (S23), and the binarization unit 14 performs the process (S22). Step S24) is executed, the thinning unit 15 executes the step (S25), and the information extraction unit 16 executes the step (S26).

出力処理部17は、情報抽出部16により抽出された線分長情報の出力処理を行う。例えば、出力処理部17は、線分長情報を出力部9に出力させる。この出力は、画面表示、印刷、音声出力等である。また、出力処理部17は、線分長情報のデータを入出力I/F4を介して、可搬型記録媒体に格納(出力)してもよいし、他の装置に送信(出力)してもよい。このように、本実施形態は、線分長情報の出力形態を制限しない。   The output processing unit 17 performs output processing of the line segment length information extracted by the information extraction unit 16. For example, the output processing unit 17 causes the output unit 9 to output line segment length information. This output includes screen display, printing, audio output, and the like. Further, the output processing unit 17 may store (output) the data of the line segment length information in the portable recording medium via the input / output I / F 4 or transmit (output) the data to other devices. Good. Thus, this embodiment does not restrict the output form of line segment length information.

シワ分析装置10は、分析対象部位の肌輝度画像を、シワ分析装置10自身で予め保持していてもよいし、シワ分析装置10自身で生成してもよいし、他のコンピュータや可搬型記録媒体等から入出力I/F4を介して取得してもよい。   The wrinkle analyzer 10 may hold the skin luminance image of the analysis target part in advance in the wrinkle analyzer 10 itself, may be generated by the wrinkle analyzer 10 itself, or may be another computer or portable recording. You may acquire from media etc. via input / output I / F4.

〔第1実施形態における作用及び効果〕
上述のように、第1実施形態では、分析対象部位が写る肌輝度画像と、局所シワテクスチャを表す二値パターン画像との相関値に対応する画素値を持つ相関画像が生成され、この相関画像が二値化及び細線化される。そして、その細線化画像から線分長情報が抽出される。抽出される線分長情報は、細線化画像に表われる線分の長さの特徴を示す情報である線分長情報が抽出される。
[Operation and Effect in First Embodiment]
As described above, in the first embodiment, a correlation image having a pixel value corresponding to a correlation value between a skin luminance image in which a region to be analyzed is captured and a binary pattern image representing a local wrinkle texture is generated. Is binarized and thinned. Then, line segment length information is extracted from the thinned image. As the extracted line segment length information, line segment length information, which is information indicating the characteristics of the length of the line segment appearing in the thinned image, is extracted.

二値パターン画像は局所シワテクスチャを表すため、上記相関画像により、分析対象部位に含まれるシワテクスチャが顕在化され、その相関画像に対する二値化及び細線化により、その顕在化されたシワテクスチャが細線化画像内において線分として表される。よって、細線化画像から抽出される線分長情報は、分析対象部位に含まれるシワの長さの特徴を示す情報となる。   Since the binary pattern image represents a local wrinkle texture, the wrinkle texture included in the analysis target portion is revealed by the correlation image, and the manifested wrinkle texture is obtained by binarization and thinning of the correlation image. It is represented as a line segment in the thinned image. Therefore, the line segment length information extracted from the thinned image is information indicating the characteristics of the length of wrinkles included in the analysis target part.

本発明者らは、シワの長さがシワ状態の1つの指標となると考え、上述のような画像解析で得られる線分長情報によりシワ状態を定量化できることを見出した。そして、本発明者らは、実施例として後述するように、当該線分長情報とシワ状態を定量化したシワ指標値との間に相関関係が存在することを検証した。ここで、シワ状態とは、シワが多い又は少ないと視認させる肌のテクスチャの状態を意味し、シワ感と表現することもできる。   The present inventors considered that the wrinkle length is one index of the wrinkle state, and found that the wrinkle state can be quantified by the line segment length information obtained by the image analysis as described above. Then, the inventors verified that there is a correlation between the line segment length information and the wrinkle index value obtained by quantifying the wrinkle state, as will be described later as an example. Here, the wrinkle state means the state of the texture of the skin that is visually recognized when there are many or few wrinkles, and can also be expressed as a wrinkle feeling.

従って、第1実施形態によれば、複雑な物理モデルや特殊な設備を用いることなく、簡易な画像処理により、シワ状態が定量化されたシワ指標値の1つ(線分長情報)を抽出することができる。   Therefore, according to the first embodiment, one wrinkle index value (line segment length information) whose wrinkle state is quantified is extracted by simple image processing without using a complicated physical model or special equipment. can do.

[第2実施形態]
以下、第2実施形態におけるシワ分析装置10及びシワ分析方法について、第1実施形態と異なる内容を中心に説明する。第2実施形態では、肌輝度画像を角度補正する処理が新たに追加される。以下、第1実施形態と同じ内容の説明は、適宜省略される。第2実施形態におけるシワ分析装置10のハードウェア構成は、図1に示される第1実施形態と同じである。
[Second Embodiment]
Hereinafter, the wrinkle analysis device 10 and the wrinkle analysis method according to the second embodiment will be described focusing on the content different from the first embodiment. In the second embodiment, a process for correcting the angle of the skin luminance image is newly added. Hereinafter, the description of the same content as the first embodiment will be omitted as appropriate. The hardware configuration of the wrinkle analyzer 10 in the second embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ分析方法)〕
以下、第2実施形態におけるシワ分析方法を図8を用いて説明する。図8は、第2実施形態におけるシワ分析装置10の動作例を示すフローチャートである。図8では、図2と同じ工程については同じ符号が付されている。
シワ分析装置10により実行される第2実施形態におけるシワ分析方法は、図2に示される第1実施形態の方法に加えて、工程(S51)及び(S52)を更に含む。
[Operation example (wrinkle analysis method)]
Hereinafter, the wrinkle analysis method according to the second embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an operation example of the wrinkle analyzer 10 according to the second embodiment. In FIG. 8, the same steps as those in FIG.
The wrinkle analysis method in the second embodiment executed by the wrinkle analyzer 10 further includes steps (S51) and (S52) in addition to the method of the first embodiment shown in FIG.

工程(S51)では、シワ分析装置10は、肌輝度画像に写るシワの方向性に関する角度情報を取得する(S51)。肌輝度画像に写るシワの方向性に関する角度情報は、入力画面等に基づいて入力部7をユーザが操作することにより入力されてもよい。例えば、シワ分析装置10は、ユーザに、角度の数値を入力させる入力画面を出力することができる。また、シワ分析装置10は、元の肌輝度画像を出力部9に表示させ、ユーザによる、その肌輝度画像を回転させる操作を検出し、その検出された操作から当該角度情報を取得することもできる。但し、肌輝度画像に写るシワの方向性に関する角度情報の取得手法は制限されない。   In the step (S51), the wrinkle analyzer 10 acquires angle information related to the directionality of wrinkles shown in the skin luminance image (S51). Angle information related to the direction of wrinkles in the skin luminance image may be input by the user operating the input unit 7 based on an input screen or the like. For example, the wrinkle analyzer 10 can output an input screen that allows the user to input an angle value. In addition, the wrinkle analyzer 10 displays the original skin luminance image on the output unit 9, detects an operation of rotating the skin luminance image by the user, and acquires the angle information from the detected operation. it can. However, the method for obtaining angle information regarding the directionality of wrinkles in the skin luminance image is not limited.

シワ分析装置10は、肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出し、この分布情報から、上記角度情報を取得することもできる。肌輝度画像に適用されるフーリエ変換としては、例えば、高速フーリエ変換(Fast Fourier Transform(FFT))や離散フーリエ変換(Discrete Fourier Transform(DFT))等が周知である。シワ分析装置10は、肌輝度画像の縦方向及び横方向にそれぞれフーリエ変換(2次元フーリエ変換)を適用することで、パワースペクトルを算出し、このパワースペクトルから角度毎のパワースペクトルの分布情報を抽出する。抽出される分布情報は、0度より大きくかつ180度未満の範囲に設定されればよい。肌輝度画像に写るシワの方向性が検出できればよく、180度より大きく360度未満の角度範囲から得られる情報は、0度より大きくかつ180度未満の角度範囲の情報と同等と考えることができるからである。   The wrinkle analyzer 10 can also calculate power spectrum distribution information for each angle by applying Fourier transform to the skin luminance image, and obtain the angle information from the distribution information. As the Fourier transform applied to the skin luminance image, for example, Fast Fourier Transform (FFT) and Discrete Fourier Transform (DFT) are well known. The wrinkle analyzer 10 calculates a power spectrum by applying a Fourier transform (two-dimensional Fourier transform) to the vertical direction and the horizontal direction of the skin luminance image, and calculates power spectrum distribution information for each angle from the power spectrum. Extract. The extracted distribution information may be set in a range greater than 0 degrees and less than 180 degrees. It is only necessary to detect the direction of wrinkles in the skin luminance image, and information obtained from an angle range greater than 180 degrees and less than 360 degrees can be considered equivalent to information in an angle range greater than 0 degrees and less than 180 degrees. Because.

例えば、シワ分析装置10は、当該分布情報の中の0度方向及び90度方向の情報を除いた分布情報から、ピークを示す角度を上記角度情報として取得すればよい。0度方向(180度方向を含む)及び90度方向(270度方向を含む)の成分は、画像の縦横成分に対応し、画像を周期信号として計算するフーリエ変換の特性上、シワの状態に関わらず高い値を示すため、それらの角度方向の成分は対象外とされても問題ない。   For example, the wrinkle analyzer 10 may acquire an angle indicating a peak as the angle information from the distribution information excluding information in the 0 degree direction and the 90 degree direction in the distribution information. The components of the 0 degree direction (including the 180 degree direction) and the 90 degree direction (including the 270 degree direction) correspond to the vertical and horizontal components of the image, and are wrinkled due to the characteristics of Fourier transform that calculates the image as a periodic signal. Regardless, since it shows a high value, there is no problem even if those angular components are excluded.

図9は、肌輝度画像から角度毎のパワースペクトルの分布情報を算出する例を概念的に示す図である。図9では、分布情報として角度ヒストグラムが示されている。また、図9の例では、分布情報の角度間隔が1度に設定され、90度を除く1度から179度までの角度毎のパワースペクトルの分布情報が算出されている。図9の例に示される分布情報(角度ヒストグラム)によれば、125度近辺でパワースペクトルのピークが発生しているため、例えば、125度が肌輝度画像に写るシワの方向性を示す角度情報として取得される。   FIG. 9 is a diagram conceptually illustrating an example of calculating power spectrum distribution information for each angle from the skin luminance image. In FIG. 9, an angle histogram is shown as distribution information. In the example of FIG. 9, the angular interval of the distribution information is set to 1 degree, and the distribution information of the power spectrum for each angle from 1 degree to 179 degrees excluding 90 degrees is calculated. According to the distribution information (angle histogram) shown in the example of FIG. 9, since the peak of the power spectrum occurs around 125 degrees, for example, angle information indicating the directionality of wrinkles reflected in the skin luminance image is 125 degrees. Get as.

工程(S52)では、シワ分析装置10は、(S51)で取得された角度情報に基づいて、(S21)で取得された肌輝度画像を角度補正する。言い換えれば、シワ分析装置10は、肌輝度画像に写るシワの方向性に基づいて、肌輝度画像を角度補正する。具体的には、シワ分析装置10は、(S51)で取得された角度情報が示すシワの方向性が、二値パターン画像により表わされる局所シワテクスチャ(線状の模様)の方向性と合うように、肌輝度画像を角度補正する。   In step (S52), the wrinkle analyzer 10 corrects the angle of the skin luminance image acquired in (S21) based on the angle information acquired in (S51). In other words, the wrinkle analysis device 10 corrects the angle of the skin luminance image based on the directionality of the wrinkles that appear in the skin luminance image. Specifically, the wrinkle analyzer 10 is configured so that the wrinkle direction indicated by the angle information acquired in (S51) matches the direction of the local wrinkle texture (linear pattern) represented by the binary pattern image. In addition, the angle of the skin luminance image is corrected.

図10は、肌輝度画像の角度補正の過程を示す図である。図10に示されるように、シワ分析装置10は、肌輝度画像に写るシワの方向が所定角度方向を向くように、肌輝度画像を回転させる。図9の例では、所定角度方向が左上と右下とを結ぶ斜め45度方向に設定されており、シワの方向性が左上と右下とを結ぶ斜め約30度方向を示していた元の肌輝度画像が、約15度右廻りに回転されている。また、図9の例では、回転後の画像から、無回転の正方形の領域が切り出され、その領域が正規化画像として以後の処理で用いられる。   FIG. 10 is a diagram illustrating a process of angle correction of a skin luminance image. As shown in FIG. 10, the wrinkle analyzer 10 rotates the skin luminance image so that the direction of wrinkles in the skin luminance image faces a predetermined angle direction. In the example of FIG. 9, the predetermined angle direction is set to a diagonal 45 degree direction connecting the upper left and the lower right, and the wrinkle directionality indicates the direction of about 30 degrees oblique connecting the upper left and the lower right. The skin luminance image is rotated about 15 degrees clockwise. In the example of FIG. 9, a non-rotated square area is cut out from the rotated image, and the area is used as a normalized image in subsequent processing.

工程(S23)において、シワ分析装置10は、(S52)で角度補正された肌輝度画像から、第1実施形態と同様に、相関画像を生成する。   In step (S23), the wrinkle analyzer 10 generates a correlation image from the skin luminance image whose angle has been corrected in (S52), as in the first embodiment.

〔処理構成〕
図11は、第2実施形態におけるシワ分析装置10の処理構成例を概念的に示す図である。第2実施形態におけるシワ分析装置10は、第1実施形態の構成に加えて、角度情報取得部21及び角度補正部22を更に有する。角度情報取得部21及び角度補正部22についても、他の処理部と同様に、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 11 is a diagram conceptually illustrating a processing configuration example of the wrinkle analyzer 10 in the second embodiment. The wrinkle analyzer 10 according to the second embodiment further includes an angle information acquisition unit 21 and an angle correction unit 22 in addition to the configuration of the first embodiment. The angle information acquisition unit 21 and the angle correction unit 22 are also realized by executing a program stored in the memory 3 by the CPU 2, similarly to the other processing units.

シワ分析装置10は、図11に示される各処理部を用いて、上述のシワ分析方法を実行することができる。即ち、シワ分析装置10は、図8に示されるように動作することができる。この場合、角度情報取得部21は工程(S51)を実行し、角度補正部22は工程(S52)を実行する。また、角度情報取得部21は、工程(S51)として、肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出することもできる。相関処理部13は、角度補正部22により角度補正された肌輝度画像と、パターン取得部12により取得された二値パターン画像とを用いて、相関画像を生成する。他の各処理部は、第1実施形態と同様である。   The wrinkle analyzer 10 can execute the above-described wrinkle analysis method using each processing unit shown in FIG. That is, the wrinkle analyzer 10 can operate as shown in FIG. In this case, the angle information acquisition unit 21 executes the step (S51), and the angle correction unit 22 executes the step (S52). Moreover, the angle information acquisition part 21 can also calculate the distribution information of the power spectrum for every angle by applying a Fourier transformation with respect to a skin luminance image as a process (S51). The correlation processing unit 13 generates a correlation image using the skin luminance image whose angle is corrected by the angle correction unit 22 and the binary pattern image acquired by the pattern acquisition unit 12. Other processing units are the same as those in the first embodiment.

〔第2実施形態における作用及び効果〕
上述のように、第2実施形態では、肌輝度画像に写るシワの方向性に基づいて、肌輝度画像が角度補正され、角度補正された肌輝度画像から相関画像が生成される。このように、第2実施形態によれば、肌輝度画像に写るシワの方向性と、予め準備されている二値パターン画像の局所シワテクスチャの方向性とが合わない場合でも、各方向性が合うように、肌輝度画像が角度補正されるため、肌輝度画像の撮像方法の制限をなくすことができる。即ち、シワの方向性を全く考慮せず、分析対象部位を撮像することで、肌輝度画像が生成されたとしても、第2実施形態によれば、シワ状態の1指標値となる線分長情報を高精度に抽出することができる。
[Operations and effects in the second embodiment]
As described above, in the second embodiment, the skin luminance image is subjected to angle correction based on the directionality of the wrinkles appearing in the skin luminance image, and a correlation image is generated from the angle corrected skin luminance image. Thus, according to the second embodiment, even if the directionality of the wrinkle reflected in the skin luminance image does not match the directionality of the local wrinkle texture of the binary pattern image prepared in advance, each directionality is Since the skin luminance image is angle-corrected so as to match, it is possible to eliminate the limitation of the imaging method of the skin luminance image. That is, even if a skin luminance image is generated by imaging an analysis target part without considering wrinkle directionality, according to the second embodiment, the line segment length that becomes one index value of the wrinkle state Information can be extracted with high accuracy.

更に、肌輝度画像に写るシワの方向性を示す角度情報は、肌輝度画像を画像分析することにより、取得することもできる。具体的には、肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報が算出され、この分布情報から当該角度情報を取得することができる。このように画像分析を用いることで、肌輝度画像の角度補正に用いる角度情報を高精度に取得することができ、ひいては、線分長情報を高精度に抽出することができる。   Furthermore, the angle information indicating the directionality of wrinkles in the skin luminance image can also be obtained by performing image analysis on the skin luminance image. Specifically, power spectrum distribution information for each angle is calculated by applying Fourier transform to the skin luminance image, and the angle information can be acquired from this distribution information. By using image analysis in this manner, angle information used for angle correction of a skin luminance image can be acquired with high accuracy, and line segment length information can be extracted with high accuracy.

[第3実施形態]
以下、第3実施形態におけるシワ分析装置10及びシワ分析方法について、上述の各実施形態と異なる内容を中心に説明する。第3実施形態では、肌輝度画像の平滑化処理及び差分画像の算出処理並びに微小領域画素の除去処理が新たに追加される。以下には、上述の第2実施形態に、肌輝度画像の平滑化処理及び差分画像の算出処理並びに微小領域画素の除去処理が付加される形態を、第3実施形態として説明する。但し、これら新たな処理は、第1実施形態に追加されてもよい。以下、第1実施形態及び第2実施形態と同じ内容の説明は、適宜省略される。第3実施形態におけるシワ分析装置10のハードウェア構成は、図1に示される第1実施形態と同じである。
[Third Embodiment]
Hereinafter, the wrinkle analysis apparatus 10 and the wrinkle analysis method according to the third embodiment will be described focusing on the content different from the above-described embodiments. In the third embodiment, a skin luminance image smoothing process, a difference image calculation process, and a minute area pixel removal process are newly added. In the following, a mode in which a skin luminance image smoothing process, a difference image calculation process, and a minute area pixel removal process are added to the above-described second embodiment will be described as a third embodiment. However, these new processes may be added to the first embodiment. Hereinafter, descriptions of the same contents as those in the first embodiment and the second embodiment are omitted as appropriate. The hardware configuration of the wrinkle analyzer 10 in the third embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ分析方法)〕
以下、第3実施形態におけるシワ分析方法を図12を用いて説明する。図12は、第3実施形態におけるシワ分析装置10の動作例を示すフローチャートである。
[Operation example (wrinkle analysis method)]
Hereinafter, the wrinkle analysis method according to the third embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an operation example of the wrinkle analyzer 10 according to the third embodiment.

シワ分析装置10により実行される第3実施形態におけるシワ分析方法は、第2実施形態に加えて、工程(S61)、工程(S62)及び工程(S63)を更に含む。但し、図12は、第2実施形態の方法に、第3実施形態における新たな工程(S61)、(S62)及び(S63)を追加した例を示すが、新たな工程(S61)、(S62)及び(S63)は、図2に示される第1実施形態の方法に追加されることもできる。図12では、図2及び図8と同じ工程については同じ符号が付されている。   The wrinkle analysis method in the third embodiment executed by the wrinkle analyzer 10 further includes a step (S61), a step (S62), and a step (S63) in addition to the second embodiment. However, FIG. 12 shows an example in which new steps (S61), (S62), and (S63) in the third embodiment are added to the method of the second embodiment, but the new steps (S61), (S62) are shown. ) And (S63) can also be added to the method of the first embodiment shown in FIG. In FIG. 12, the same steps as those in FIGS. 2 and 8 are denoted by the same reference numerals.

工程(S61)において、シワ分析装置10は、(S21)で取得された肌輝度画像に対して平滑化フィルタを適用する。平滑化フィルタとは、隣接する画素の輝度値の分布を滑らかにするフィルタであり、移動平均フィルタ、加重平均フィルタ、ガウシアンフィルタ等が存在する。本実施形態では、例えば、ガウシアンフィルタが利用される。   In step (S61), the wrinkle analyzer 10 applies a smoothing filter to the skin luminance image acquired in (S21). The smoothing filter is a filter that smoothes the distribution of luminance values of adjacent pixels, and there are a moving average filter, a weighted average filter, a Gaussian filter, and the like. In the present embodiment, for example, a Gaussian filter is used.

工程(S62)において、シワ分析装置10は、(S61)で平滑化された肌輝度画像と、(S21)で取得された肌輝度画像との差分画像を算出する。これにより、工程(S52)では、シワ分析装置10は、(S62)で算出された差分画像に対して角度補正を行う。但し、(S61)及び(S62)は、工程(S52)の後に実施されてもよい。この場合、シワ分析装置10は、角度補正された肌輝度画像に対して平滑化フィルタを適用する。   In step (S62), the wrinkle analyzer 10 calculates a difference image between the skin luminance image smoothed in (S61) and the skin luminance image acquired in (S21). Thereby, in the process (S52), the wrinkle analyzer 10 performs angle correction on the difference image calculated in (S62). However, (S61) and (S62) may be performed after the step (S52). In this case, the wrinkle analyzer 10 applies a smoothing filter to the skin luminance image whose angle has been corrected.

工程(S63)において、シワ分析装置10は、(S24)で生成された二値化画像において、シワテクスチャを表す画素値を持つ画素の中の微小領域画素の画素値を反転させる。ここで、微小領域画素とは、シワテクスチャを表す画素値を持つ1つ以上の画素により形成される領域であって、線分を形成し得ない小さな領域(微小領域)に含まれる画素を意味する。このような微小領域は、シワ以外のテクスチャ又はノイズである可能性が高いため、シワ分析装置10は、そのような微小領域に含まれる画素の画素値を反転させることで、その微小領域を除去する。   In step (S63), the wrinkle analyzer 10 inverts the pixel value of the minute region pixel in the pixel having the pixel value representing the wrinkle texture in the binarized image generated in (S24). Here, the minute area pixel means a pixel included in a small area (small area) where a line segment cannot be formed, which is an area formed by one or more pixels having a pixel value representing a wrinkle texture. To do. Since such a small area is likely to be texture or noise other than wrinkles, the wrinkle analyzer 10 inverts the pixel values of the pixels included in such a small area to remove the small area. To do.

例えば、シワ分析装置10は、シワテクスチャを表す画素値を持つシワ成分画素の中から、次のようにして、微小領域画素を検出することができる。シワ分析装置10は、8方向のいずれでも他のシワ成分画素と隣接しないシワ成分画素を微小領域画素として検出する。また、シワ分析装置10は、8方向の少なくとも1つで隣接するシワ成分画素の集合に含まれる画素数が所定数(例えば、3)以下となる集合を微小領域として検出し、その集合に含まれるシワ成分画素を微小領域画素として検出する。   For example, the wrinkle analyzer 10 can detect a minute region pixel from the wrinkle component pixels having pixel values representing a wrinkle texture as follows. The wrinkle analyzer 10 detects wrinkle component pixels that are not adjacent to other wrinkle component pixels in any of the eight directions as minute area pixels. In addition, the wrinkle analyzer 10 detects a set in which the number of pixels included in a set of wrinkle component pixels adjacent in at least one of eight directions is a predetermined number (for example, 3) or less as a minute region, and is included in the set The wrinkle component pixels to be detected are detected as minute region pixels.

工程(S25)では、シワ分析装置10は、(S63)で微小領域画素の画素値が反転された二値化画像を細線化する。
図13は、微小領域除去の過程を示す図である。図13に示されるように、二値化画像には、線分を形成し得ない微小領域(白色の領域)が存在する。微小領域が除去された二値化画像では、微小領域画素の画素値が反転されることで、微小領域が黒色化されている。この微小領域が除去された二値化画像が細線化され、細線化画像が生成される。
In step (S25), the wrinkle analyzer 10 thins the binarized image obtained by inverting the pixel values of the minute region pixels in (S63).
FIG. 13 is a diagram illustrating a process of removing a minute region. As illustrated in FIG. 13, the binarized image includes a minute region (white region) where a line segment cannot be formed. In the binarized image from which the minute area is removed, the minute area is blackened by inverting the pixel value of the minute area pixel. The binarized image from which the minute area has been removed is thinned to generate a thinned image.

〔処理構成〕
図14は、第3実施形態におけるシワ分析装置10の処理構成例を概念的に示す図である。第3実施形態におけるシワ分析装置10は、第2実施形態の構成に加えて、平滑化処理部24、差分算出部25及び微小領域除去部26を更に有する。平滑化処理部24、差分算出部25及び微小領域除去部26についても、他の処理部と同様に、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 14 is a diagram conceptually illustrating a processing configuration example of the wrinkle analyzer 10 according to the third embodiment. The wrinkle analysis device 10 according to the third embodiment further includes a smoothing processing unit 24, a difference calculation unit 25, and a minute region removal unit 26 in addition to the configuration of the second embodiment. As with the other processing units, the smoothing processing unit 24, the difference calculation unit 25, and the minute region removal unit 26 are also realized by executing a program stored in the memory 3 by the CPU 2.

シワ分析装置10は、図14に示される各処理部を用いて、上述のシワ分析方法を実行することができる。即ち、シワ分析装置10は、図12に示されるように動作することができる。この場合、平滑化処理部24は工程(S61)を実行し、差分算出部25は工程(S62)を実行し、微小領域除去部26は工程(S63)を実行する。角度補正部22は、差分算出部25により算出された差分画像を角度補正する。細線化部15は、微小領域除去部26により微小領域画素が反転された二値化画像を細線化する。他の各処理部は、第2実施形態と同様である。   The wrinkle analyzer 10 can execute the above-described wrinkle analysis method using each processing unit shown in FIG. That is, the wrinkle analyzer 10 can operate as shown in FIG. In this case, the smoothing processing unit 24 executes the step (S61), the difference calculating unit 25 executes the step (S62), and the minute region removing unit 26 executes the step (S63). The angle correction unit 22 corrects the angle of the difference image calculated by the difference calculation unit 25. The thinning unit 15 thins the binarized image in which the minute region pixels are inverted by the minute region removing unit 26. Other processing units are the same as those in the second embodiment.

〔第3実施形態における作用及び効果〕
第3実施形態では、肌輝度画像に対して平滑化フィルタが適用され、平滑化された肌輝度画像と元の肌輝度画像との差分画像が算出される。平滑化フィルタを適用することにより、肌輝度画像から、肌表面の凹凸形状以外に由来する肌テクスチャ(ノイズテクスチャ)を抽出することができる。抽出されるノイズテクスチャには、例えば、シミ、ソバカス、ホクロ等の色ムラ成分、及び、光源ムラ成分等が存在する。そして、上記差分画像の算出により、元の肌輝度画像からこのようなノイズテクスチャを除去することができ、結果として、肌表面の凹凸形状に由来する肌テクスチャを差分画像として高純度に抽出することができる。第3実施形態では、この差分画像から相関画像が生成される。
[Operations and effects in the third embodiment]
In the third embodiment, a smoothing filter is applied to the skin luminance image, and a difference image between the smoothed skin luminance image and the original skin luminance image is calculated. By applying the smoothing filter, it is possible to extract a skin texture (noise texture) derived from other than the uneven shape of the skin surface from the skin luminance image. The extracted noise texture includes, for example, color unevenness components such as spots, freckles, and moles, and light source unevenness components. Then, by calculating the difference image, such a noise texture can be removed from the original skin luminance image, and as a result, the skin texture derived from the uneven shape of the skin surface is extracted with high purity as the difference image. Can do. In the third embodiment, a correlation image is generated from this difference image.

従って、第3実施形態によれば、シワ成分とは関係性の薄い肌テクスチャが除去された画像から、線分長情報が抽出されるため、シワの分析精度を向上させることができる。   Therefore, according to the third embodiment, since the line segment length information is extracted from the image from which the skin texture that is not related to the wrinkle component is removed, the wrinkle analysis accuracy can be improved.

更に、第3実施形態では、二値化画像で微小領域画素の画素値が反転されることで、二値化画像から、シワ以外のテクスチャ又はノイズを表している可能性の高い微小領域が除去される。従って、第3実施形態によれば、シワ成分とは関係性の薄い肌テクスチャが除去された画像から、線分長情報が抽出されるため、シワの分析精度を向上させることができる。   Furthermore, in the third embodiment, the pixel values of the minute region pixels are inverted in the binarized image, so that the minute region that is likely to represent texture or noise other than wrinkles is removed from the binarized image. Is done. Therefore, according to the third embodiment, since the line segment length information is extracted from the image from which the skin texture that is not related to the wrinkle component is removed, the wrinkle analysis accuracy can be improved.

[第4実施形態]
以下、第4実施形態におけるシワ分析装置10及びシワ分析方法について、上述の各実施形態と異なる内容を中心に説明する。第4実施形態では、線分長情報に対応するシワ指標値が算出される点において、上述の各実施形態と異なる。以下、上述の各実施形態と同じ内容の説明は、適宜省略される。第4実施形態におけるシワ分析装置10のハードウェア構成は、図1に示される第1実施形態と同じである。
[Fourth Embodiment]
Hereinafter, the wrinkle analysis apparatus 10 and the wrinkle analysis method according to the fourth embodiment will be described focusing on the contents different from the above-described embodiments. The fourth embodiment is different from the above-described embodiments in that a wrinkle index value corresponding to line segment length information is calculated. Hereinafter, the description of the same contents as the above-described embodiments will be omitted as appropriate. The hardware configuration of the wrinkle analyzer 10 in the fourth embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ分析方法)〕
以下、第3実施形態におけるシワ分析方法を図15を用いて説明する。
図15は、第4実施形態におけるシワ分析装置10の動作例を示すフローチャートである。
[Operation example (wrinkle analysis method)]
Hereinafter, the wrinkle analysis method according to the third embodiment will be described with reference to FIG.
FIG. 15 is a flowchart illustrating an operation example of the wrinkle analyzer 10 according to the fourth embodiment.

シワ分析装置10により実行される第4実施形態におけるシワ分析方法は、上述の各実施形態に加えて、工程(S71)を更に含む。但し、図15は、第3実施形態の方法に、第4実施形態における新たな工程(S71)を追加した例を示すが、工程(S71)は、図2に示される第1実施形態の方法及び図8に示される第2実施形態の方法に追加されることもできる。図15では、図12と同じ工程については同じ符号が付されている。以下、上述の各実施形態と異なる内容の工程を中心に、各工程について詳述する。   The wrinkle analysis method according to the fourth embodiment executed by the wrinkle analyzer 10 further includes a step (S71) in addition to the above-described embodiments. However, FIG. 15 shows an example in which a new step (S71) in the fourth embodiment is added to the method of the third embodiment, but the step (S71) is the method of the first embodiment shown in FIG. And it can be added to the method of the second embodiment shown in FIG. In FIG. 15, the same steps as those in FIG. Hereinafter, each process will be described in detail with a focus on processes having different contents from the above-described embodiments.

工程(S71)において、シワ分析装置10は、線分長情報とシワ状態が定量化されたシワ指標値との相関関係に基づいて、(S26)で抽出された線分長情報に対応するシワ指標値を算出する。例えば、(S26)で線分長情報として平均線分画素数が算出される場合には、シワ分析装置10は、平均線分画素数とシワ状態が定量化されたシワ指標値との相関関係に基づいて、(S26)で抽出された平均線分画素数に対応するシワ指標値を算出する。シワ指標値は、例えば、シワが多いと視認されるシワ状態ほど大きくなり、シワが少ないと視認されるシワ状態ほど小さくなるような値に設定され、被評価者にとって把握し易い値に設定されることが望ましい。線分長情報とシワ指標値との相関関係は、関数形式、表形式等の所定の形式でデータ化され、メモリ3に格納される。この相関関係の詳細については、実施例の項において詳述する。   In the step (S71), the wrinkle analyzer 10 generates wrinkles corresponding to the line length information extracted in (S26) based on the correlation between the line length information and the wrinkle index value in which the wrinkle state is quantified. An index value is calculated. For example, when the average line segment pixel count is calculated as the line segment length information in (S26), the wrinkle analyzer 10 correlates the average line segment pixel count and the wrinkle index value in which the wrinkle state is quantified. Based on the above, the wrinkle index value corresponding to the average number of line segment pixels extracted in (S26) is calculated. For example, the wrinkle index value is set to a value that becomes larger as the wrinkle state is visually recognized when there are many wrinkles, and becomes smaller as the wrinkle state that is visually recognized when there are few wrinkles. It is desirable. The correlation between the line segment length information and the wrinkle index value is converted into data in a predetermined format such as a function format or a table format and stored in the memory 3. Details of this correlation will be described in detail in the Examples section.

〔処理構成〕
図16は、第4実施形態におけるシワ分析装置10の処理構成例を概念的に示す図である。第4実施形態におけるシワ分析装置10は、上述の各実施形態の構成に加えて、指標値算出部28を更に有する。指標値算出部28についても、他の処理部と同様に、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。但し、図16は、第3実施形態の処理構成に、指標値算出部28が新たに追加された処理構成の例を示す。
[Processing configuration]
FIG. 16 is a diagram conceptually illustrating a processing configuration example of the wrinkle analyzer 10 according to the fourth embodiment. The wrinkle analyzer 10 according to the fourth embodiment further includes an index value calculation unit 28 in addition to the configurations of the above-described embodiments. The index value calculation unit 28 is also realized by executing a program stored in the memory 3 by the CPU 2 in the same manner as other processing units. However, FIG. 16 illustrates an example of a processing configuration in which an index value calculation unit 28 is newly added to the processing configuration of the third embodiment.

シワ分析装置10は、図16に示される各処理部を用いて、上述のシワ分析方法を実行することができる。シワ分析装置10は、図15に示されるように動作することができる。この場合、指標値算出部28は上述の工程(S71)を実行する。また、出力処理部17は、線分長情報、及び、指標値算出部28により算出されたシワ指標値の少なくとも一方の出力処理を行う。他の各処理部は、上述の各実施形態と同様である。   The wrinkle analyzer 10 can execute the above-described wrinkle analysis method using each processing unit shown in FIG. The wrinkle analyzer 10 can operate as shown in FIG. In this case, the index value calculation unit 28 executes the above-described step (S71). The output processing unit 17 performs output processing of at least one of the line segment length information and the wrinkle index value calculated by the index value calculation unit 28. Other processing units are the same as those in the above-described embodiments.

〔第4実施形態における作用及び効果〕
第4実施形態では、線分長情報から変換されるシワ指標値が算出される。従って、第4実施形態によれば、線分長情報よりも、被評価者にとって把握し易いシワ状態の定量値を算出し、出力することができる。
[Operations and effects in the fourth embodiment]
In the fourth embodiment, a wrinkle index value converted from line segment length information is calculated. Therefore, according to the fourth embodiment, it is possible to calculate and output a quantitative value of the wrinkle state that is easier for the person to be evaluated to grasp than the line segment length information.

[第5実施形態]
以下、第5実施形態におけるシワ分析装置10及びシワ分析方法について、上述の各実施形態と異なる内容を中心に説明する。第5実施形態では、シワ状態を示す他の指標として、方向性エントロピーが算出され、方向性エントロピー及び線分長情報から総合的にシワ状態が判定される点において、上述の各実施形態と異なる。以下、上述の各実施形態と同じ内容の説明は、適宜省略される。第5実施形態におけるシワ分析装置10のハードウェア構成は、図1に示される第1実施形態と同じである。
[Fifth Embodiment]
Hereinafter, the wrinkle analysis device 10 and the wrinkle analysis method according to the fifth embodiment will be described focusing on the content different from the above-described embodiments. The fifth embodiment is different from the above-described embodiments in that the directional entropy is calculated as another index indicating the wrinkle state, and the wrinkle state is comprehensively determined from the directional entropy and the line segment length information. . Hereinafter, the description of the same contents as the above-described embodiments will be omitted as appropriate. The hardware configuration of the wrinkle analyzer 10 in the fifth embodiment is the same as that of the first embodiment shown in FIG.

〔動作例(シワ分析方法)〕
以下、第5実施形態におけるシワ分析方法を図17を用いて説明する。
図17は、第5実施形態におけるシワ分析装置10の動作例を示すフローチャートである。
[Operation example (wrinkle analysis method)]
Hereinafter, the wrinkle analysis method according to the fifth embodiment will be described with reference to FIG.
FIG. 17 is a flowchart illustrating an operation example of the wrinkle analyzer 10 according to the fifth embodiment.

シワ分析装置10により実行される第5実施形態におけるシワ分析方法は、第4実施形態に加えて、工程(S81)及び(S82)を更に含む。但し、図17は、第4実施形態の方法に、第5実施形態における新たな工程(S81)及び(S82)を追加した例を示すが、当該新たな工程は、第1実施形態から第3実施形態の各方法に追加されることもできる。図17では、図15と同じ工程については同じ符号が付されている。   The wrinkle analysis method according to the fifth embodiment executed by the wrinkle analyzer 10 further includes steps (S81) and (S82) in addition to the fourth embodiment. However, FIG. 17 shows an example in which new steps (S81) and (S82) in the fifth embodiment are added to the method of the fourth embodiment. However, the new steps are the same as those in the first embodiment to the third embodiment. It can also be added to each method of the embodiment. In FIG. 17, the same steps as those in FIG. 15 are denoted by the same reference numerals.

工程(S81)では、シワ分析装置10は、(S62)で算出された差分画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する。この分布情報の算出については上述のとおりである。但し、分布情報の角度間隔は制限されない。当該角度間隔は、小さい程、分析精度が向上するため、5度未満の小さい間隔に設定されることが望ましい。   In step (S81), the wrinkle analyzer 10 calculates power spectrum distribution information for each angle by applying Fourier transform to the difference image calculated in (S62). The calculation of this distribution information is as described above. However, the angular interval of the distribution information is not limited. The smaller the angular interval, the better the analysis accuracy. Therefore, it is desirable to set the angular interval to a small interval of less than 5 degrees.

また、工程(S81)では、シワ分析装置10は、0度方向及び90度方向の成分が除去された状態で、上記分布情報を算出することが望ましい。これは、上述したとおり、0度方向(180度方向を含む)及び90度方向(270度方向を含む)の成分が、フーリエ変換の特性上、シワの状態に関わらず高い値を示すからである。このように縦横成分を除外することで、当該分布情報からシワ成分以外のノイズ成分を除去することができ、シワ分析の精度を向上させることができる。シワ分析装置10は、0度以上180度未満の範囲の分布情報を算出した後、その分布情報から0度及び90度の成分を除去するようにしてもよい。また、分布情報の角度範囲は、0度より大きくかつ180度未満の範囲に設定されればよい。肌輝度画像に写るシワテクスチャの方向性が検出できればよく、180度より大きく360度未満の角度範囲から得られる成分は、0度より大きくかつ180度未満の角度範囲の成分と同等と考えることができるからである。   In the step (S81), it is desirable that the wrinkle analyzer 10 calculates the distribution information in a state where components in the 0 degree direction and the 90 degree direction are removed. This is because, as described above, the components in the 0 degree direction (including the 180 degree direction) and the 90 degree direction (including the 270 degree direction) show high values regardless of the wrinkle state due to the characteristics of the Fourier transform. is there. By excluding the vertical and horizontal components in this way, noise components other than the wrinkle component can be removed from the distribution information, and the accuracy of the wrinkle analysis can be improved. The wrinkle analyzer 10 may calculate distribution information in a range of 0 degrees or more and less than 180 degrees, and then remove components of 0 degrees and 90 degrees from the distribution information. In addition, the angular range of the distribution information may be set to a range greater than 0 degree and less than 180 degrees. It is only necessary to detect the directionality of the wrinkle texture reflected in the skin luminance image, and a component obtained from an angle range greater than 180 degrees and less than 360 degrees may be considered equivalent to a component in an angle range greater than 0 degrees and less than 180 degrees. Because it can.

工程(S82)では、シワ分析装置10は、(S81)で算出された分布情報から、角度毎のパワースペクトルの分布の偏りの大きさを示す方向性エントロピーを算出する。例えば、(S81)で算出される、角度毎のパワースペクトルの分布が確率密度分布と仮定され、方向性エントロピーが、確率変数(角度)が持つ情報エントロピーHとして下記式により算出される。下記式において、pは、角度iのヒストグラム値であり、nは、データの個数であり、180に設定される。上記式で算出される方向性エントロピーは、ヒストグラムが特定の角度に偏っている場合に、小さい値を取り、ヒストグラムが全体的に分散している場合に、大きい値を取る。但し、方向性エントロピーの算出方法は、角度毎のパワースペクトルの分布の偏りの大きさを算出することができる手法であれば、以下の式に限定されない。
In step (S82), the wrinkle analyzer 10 calculates directional entropy indicating the degree of bias of the distribution of the power spectrum for each angle from the distribution information calculated in (S81). For example, the power spectrum distribution for each angle calculated in (S81) is assumed to be a probability density distribution, and the directional entropy is calculated as the information entropy H of the random variable (angle) by the following equation. In the following formula, p i is a histogram value of an angle i, n is the number of data, and is set to 180. The directional entropy calculated by the above formula takes a small value when the histogram is biased to a specific angle, and takes a large value when the histogram is totally dispersed. However, the calculation method of the directional entropy is not limited to the following formula as long as it is a method that can calculate the magnitude of the bias of the distribution of the power spectrum for each angle.

工程(S71)では、シワ分析装置10は、(S26)で抽出された線分長情報と、(S82)で算出された方向性エントロピーとに基づいて、シワ状態が定量化されたシワ指標値を算出する(S83)。このとき、シワ分析装置10は、線分長情報と方向性エントロピーとの各々に重み付けし、その重み付けされた各値の統計値(和や積や平均など)に基づいて、シワ指標値を算出することができる。   In step (S71), the wrinkle analyzer 10 uses the line segment length information extracted in (S26) and the directional entropy calculated in (S82) to quantify the wrinkle index value. Is calculated (S83). At this time, the wrinkle analyzer 10 weights each of the line segment length information and the directional entropy, and calculates a wrinkle index value based on a statistical value (sum, product, average, etc.) of each weighted value. can do.

〔処理構成〕
図18は、第5実施形態におけるシワ分析装置10の処理構成例を概念的に示す図である。第5実施形態におけるシワ分析装置10は、上述の各実施形態の構成に加えて、分布算出部31及びエントロピー算出部32を更に有する。分布算出部31及びエントロピー算出部32についても、他の処理部と同様に、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。但し、図18は、第4実施形態の処理構成に、分布算出部31及びエントロピー算出部32が新たに追加された処理構成の例を示す。
[Processing configuration]
FIG. 18 is a diagram conceptually illustrating a processing configuration example of the wrinkle analyzer 10 according to the fifth embodiment. The wrinkle analyzer 10 according to the fifth embodiment further includes a distribution calculation unit 31 and an entropy calculation unit 32 in addition to the configurations of the above-described embodiments. Similarly to the other processing units, the distribution calculation unit 31 and the entropy calculation unit 32 are realized by executing a program stored in the memory 3 by the CPU 2. However, FIG. 18 illustrates an example of a processing configuration in which a distribution calculation unit 31 and an entropy calculation unit 32 are newly added to the processing configuration of the fourth embodiment.

シワ分析装置10は、図18に示される各処理部を用いて、上述のシワ分析方法を実行することができる。シワ分析装置10は、図17に示されるように動作することができる。この場合、分布算出部31は上述の工程(S81)を実行し、エントロピー算出部32は上述の工程(S82)を実行する。また、指標値算出部28は、情報抽出部16により抽出された線分長情報と、エントロピー算出部32により算出された方向性エントロピーとに基づいて、シワ状態が定量化されたシワ指標値を算出する。他の各処理部は、上述の各実施形態と同様である。   The wrinkle analyzer 10 can execute the above-described wrinkle analysis method using each processing unit shown in FIG. The wrinkle analyzer 10 can operate as shown in FIG. In this case, the distribution calculation unit 31 executes the above-described step (S81), and the entropy calculation unit 32 executes the above-described step (S82). Further, the index value calculation unit 28 calculates a wrinkle index value in which the wrinkle state is quantified based on the line segment length information extracted by the information extraction unit 16 and the directional entropy calculated by the entropy calculation unit 32. calculate. Other processing units are the same as those in the above-described embodiments.

〔第5実施形態における作用及び効果〕
上述のように、第5実施形態では、分析対象部位が写る肌輝度画像に対してフーリエ変換が適用されることで、角度毎のパワースペクトルの分布情報が算出され、この分布情報の方向性エントロピーが算出される。角度毎のパワースペクトルの分布は、肌輝度画像に写る肌(分析対象部位)のテクスチャの方向性を示す。強い方向性を持つテクスチャが存在する場合、そのテクスチャの方向と直交する特定方向に偏って高周波成分が表われる。一方、肌のテクスチャが方向性を持たない場合、或る特定方向に高周波成分が偏ることはなく、高周波成分は分散する。よって、角度毎のパワースペクトルの分布の偏りの大きさを示す方向性エントロピーは、肌輝度画像に写る肌のテクスチャの方向性の強さを示すと言える。
[Operations and effects in the fifth embodiment]
As described above, in the fifth embodiment, the Fourier transform is applied to the skin luminance image in which the site to be analyzed is captured, thereby calculating the power spectrum distribution information for each angle, and the directional entropy of this distribution information. Is calculated. The distribution of the power spectrum for each angle indicates the direction of the texture of the skin (analysis target part) that appears in the skin luminance image. When a texture having a strong directionality exists, a high frequency component appears in a specific direction orthogonal to the texture direction. On the other hand, when the skin texture has no directionality, the high frequency components are not biased in a specific direction, and the high frequency components are dispersed. Therefore, it can be said that the directional entropy indicating the degree of bias of the distribution of the power spectrum for each angle indicates the strength of the directionality of the skin texture reflected in the skin luminance image.

本発明者らは、シワが方向性を持つ肌テクスチャであると考え、上述のような画像解析で得られる方向性エントロピーによってもシワ状態を定量化できることを更に見出した。即ち、本発明者らは、シワ状態を表す指標として、シワの長さの特徴量である線分長情報と、シワの方向性の特徴量である方向性エントロピーとが別々に存在し得ることを見出した。   The present inventors considered that wrinkles are directional skin textures, and further found that wrinkle states can be quantified also by directional entropy obtained by image analysis as described above. That is, the present inventors can separately present line segment length information, which is a feature amount of wrinkle length, and directional entropy, which is a feature amount of wrinkle direction, as an index representing the wrinkle state. I found.

第5実施形態では、線分長情報と方向性エントロピーとから、シワ状態が定量化されたシワ指標値が算出される。従って、第5実施形態によれば、シワの長さとシワの方向性という2つの特徴量に基づいて、総合的なシワ指標値が算出されるため、シワ状態を高精度に反映する指標値を算出することができる。   In the fifth embodiment, a wrinkle index value in which the wrinkle state is quantified is calculated from the line segment length information and the directional entropy. Therefore, according to the fifth embodiment, since the total wrinkle index value is calculated based on the two feature amounts of the wrinkle length and the wrinkle directionality, the index value reflecting the wrinkle state with high accuracy is obtained. Can be calculated.

[変形例]
上述の各実施形態において、シワ分析装置10は、固定的に所定の二値パターン画像を取得するようにしてもよいし、複数の二値パターン画像から、肌輝度画像に適する二値パターン画像を選択するようにしてもよい。具体的には、シワ分析装置10は、複数の所定角度の各々について、所定角度方向に延びる局所シワテクスチャをそれぞれ表す複数の二値パターン画像から、肌輝度画像に写るシワの方向性に対応する二値パターン画像を選択するようにしてもよい。
[Modification]
In each of the embodiments described above, the wrinkle analyzer 10 may acquire a predetermined binary pattern image in a fixed manner, or obtain a binary pattern image suitable for a skin luminance image from a plurality of binary pattern images. You may make it select. Specifically, the wrinkle analyzer 10 corresponds to the directionality of wrinkles that appear in the skin luminance image from a plurality of binary pattern images that respectively represent local wrinkle textures extending in a predetermined angle direction for each of a plurality of predetermined angles. A binary pattern image may be selected.

図19は、二値パターン画像の変形例を示す図である。上述の場合、図3に示される左上から右下への斜め方向に対応する二値パターン画像に加えて、図19に示されるように、上下方向、左右方向、逆斜め方向などに対応する複数の二値パターン画像が提供される。シワ分析装置10は、このような複数の二値パターン画像を自ら生成してもよいし、予め保持するメモリ3から取得することもできるし、可搬型記録媒体、他の装置等から入出力I/F4を経由して取得することもできる。   FIG. 19 is a diagram illustrating a modification of the binary pattern image. In the above case, in addition to the binary pattern image corresponding to the diagonal direction from the upper left to the lower right shown in FIG. 3, as shown in FIG. 19, a plurality of corresponding to the vertical direction, the horizontal direction, the reverse diagonal direction, etc. Binary pattern images are provided. The wrinkle analyzer 10 may generate such a plurality of binary pattern images by itself, obtain it from the memory 3 held in advance, or input / output I from a portable recording medium, another device, or the like. It can also be acquired via / F4.

更に、シワ分析装置10は、第2実施形態のように肌輝度画像から得られる角度毎のパワースペクトルの分布情報を用いて、肌輝度画像に写るシワの方向性(角度)を推定し、上述の複数の二値パターン画像の中から、この角度に対応する二値パターン画像を選択することもできる。この場合、シワ分析装置10は、当該分布情報の中の0度方向及び90度方向の情報を除いた分布情報から、ピークを示す角度を上記角度情報として取得すればよい。   Furthermore, the wrinkle analyzer 10 estimates the directionality (angle) of the wrinkle in the skin luminance image using the distribution information of the power spectrum for each angle obtained from the skin luminance image as in the second embodiment, and A binary pattern image corresponding to this angle can be selected from the plurality of binary pattern images. In this case, the wrinkle analyzer 10 may acquire an angle indicating a peak as the angle information from the distribution information excluding information in the 0 degree direction and the 90 degree direction in the distribution information.

[補足]
上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。図示される工程の順番は、内容的に支障のない範囲で変更することができる。
[Supplement]
In the plurality of flowcharts used in the above description, a plurality of steps (processes) are described in order, but the execution order of the steps executed in each embodiment is not limited to the description order. The order of the steps shown in the figure can be changed within a range that does not hinder the contents.

また、上述の各実施形態の印象判定方法には、人によって実施される工程が含まれてもよいし、工程間の移行が人の判断や操作により実施されてもよい。例えば、シワ分析装置10は、線分長情報として細線化画像をそのまま出力し、出力された細線化画像から、人が、細線化画像に表われる線分の長さの特徴(線分長情報)を視認するようにしてもよい。また、複数の二値パターン画像から肌輝度画像に対応する1つの二値パターン画像の選択は、人により実施されてもよい。この場合、実施者は、肌輝度画像に写るシワの方向性を視認し、その方向性に応じて適切な二値パターン画像を選択することができる。更に、微小領域画素の除去についても人によって実施されてもよい。この場合、実施者は、二値化画像を見て、その二値化画像の中から微小領域を見つけ、この微小領域を形成する画素を指定する。シワ分析装置10は、この実施者に二値化画像を提示し、実施者により指定された微小領域画素の画素値を反転するようにすればよい。   The impression determination method of each embodiment described above may include a process performed by a person, and transition between processes may be performed by a person's judgment or operation. For example, the wrinkle analyzer 10 outputs a thin line image as it is as line segment length information, and from the output thin line image, a human character of the length of the line segment appearing in the thin line image (line segment length information) ) May be visually recognized. Moreover, selection of one binary pattern image corresponding to a skin luminance image from a plurality of binary pattern images may be performed by a person. In this case, the practitioner can visually recognize the directionality of the wrinkles in the skin luminance image and can select an appropriate binary pattern image according to the directionality. Furthermore, the removal of the minute area pixels may be performed by a person. In this case, the practitioner looks at the binarized image, finds a minute area from the binarized image, and designates pixels that form the minute area. The wrinkle analyzer 10 may present the binarized image to the practitioner and invert the pixel value of the micro area pixel specified by the practitioner.

上述のシワ分析方法は、肌輝度画像に対する画像処理により得られる客観的データ(線分長情報)と、その肌輝度画像から人が受けるシワ状態の統計的データとの間の相関性を用いることで、シワの状態を画像処理のみで容易に分析することができるという一定の効果を反復継続して実現する方法である。従って、例え、人によって実施される工程が含まれていたとしても、上述のシワ分析方法は、全体として、自然法則を利用した技術的思想と言える。   The wrinkle analysis method described above uses the correlation between objective data (line segment length information) obtained by image processing on a skin luminance image and wrinkle state statistical data received by a person from the skin luminance image. Thus, it is a method of repeatedly and continuously realizing a certain effect that the wrinkle state can be easily analyzed only by image processing. Therefore, even if a process carried out by a person is included, the wrinkle analysis method described above can be said to be a technical idea utilizing the laws of nature as a whole.

また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。   Moreover, each above-mentioned embodiment and each modification can be combined in the range with which the content does not conflict.

以下に実施例を挙げ、上述の各実施形態及び各変形例を更に具体的に説明する。本発明は以下の各実施例から何ら限定を受けない。   Examples will be given below, and the above-described embodiments and modifications will be described more specifically. The present invention is not limited in any way by the following examples.

図20は、二値パターン画像の画像サイズと相関画像との関係を示す図である。符号P1、P2及びP3は相関画像を示し、符号PT1、PT2及びPT3は二値パターン画像を示す。二値パターン画像PT1は3×3の画像サイズを持ち、二値パターン画像PT2は5×5の画像サイズを持ち、二値パターン画像PT3は7×7の画像サイズを持つ。相関画像P1、P2及びP3は、上記(式1)を用いて生成される、64×64の画像サイズを持つ肌輝度画像と、下部に示される二値パターン画像PT1、PT2及びPT3との相関画像である。   FIG. 20 is a diagram illustrating the relationship between the image size of the binary pattern image and the correlation image. Reference signs P1, P2, and P3 indicate correlation images, and reference signs PT1, PT2, and PT3 indicate binary pattern images. The binary pattern image PT1 has an image size of 3 × 3, the binary pattern image PT2 has an image size of 5 × 5, and the binary pattern image PT3 has an image size of 7 × 7. Correlation images P1, P2, and P3 are correlations between a skin luminance image having an image size of 64 × 64, generated using the above (Equation 1), and binary pattern images PT1, PT2, and PT3 shown below. It is an image.

図20の例によれば、いずれの二値パターン画像を用いた場合でも、多くのシワテクスチャが抽出されている。強いて言えば、相関画像P1にはシワテクスチャ以外の成分も多く抽出されてしまっており、相関画像P3では抽出できていないシワテクスチャが見受けられる。よって、図20の例によれば、5×5の画像サイズを持つ二値パターン画像PT2が分析に利用されることが望ましい。このように、二値パターン画像の画像サイズは、取得される肌輝度画像に応じて、ノイズ成分が少なくかつ多くのシワテクスチャが抽出されるように、適切なサイズに設定されることが望ましい。   According to the example of FIG. 20, many wrinkle textures are extracted regardless of which binary pattern image is used. In other words, many components other than the wrinkle texture have been extracted from the correlation image P1, and a wrinkle texture that cannot be extracted from the correlation image P3 can be seen. Therefore, according to the example of FIG. 20, it is desirable that the binary pattern image PT2 having an image size of 5 × 5 is used for the analysis. As described above, it is desirable that the image size of the binary pattern image is set to an appropriate size so as to extract many wrinkle textures with less noise components according to the acquired skin luminance image.

更に、20名の肌輝度画像を用いた官能評価により、線分長情報としての平均線分画素数とシワ状態との間に相関関係、及び、方向性エントロピーとシワ状態との間に相関関係が存在することが検証された。この検証では、目の下の所定領域が分析対象部位に選ばれ、20名の肌輝度画像を3名の評価者に見せ、各評価者に、視認されるシワ量が少ない画像から多い画像へ昇順に順位付けさせ、平均順位を各肌輝度画像のシワ状態ポイントとした。一方で、上述の第5実施形態の方法で、各肌輝度画像の平均線分画素数(線分長情報)及び方向性エントロピーがそれぞれ算出された。   Furthermore, by sensory evaluation using skin luminance images of 20 persons, there is a correlation between the average number of line segment pixels as the line segment length information and the wrinkle state, and a correlation between the directional entropy and the wrinkle state. Has been verified to exist. In this verification, a predetermined region under the eyes is selected as a region to be analyzed, 20 skin luminance images are shown to 3 evaluators, and each evaluator is presented in ascending order from an image with a small amount of wrinkles visually recognized to an image with a large amount of wrinkles. Ranking was made, and the average ranking was set as the wrinkle state point of each skin luminance image. On the other hand, the average line segment pixel number (line segment length information) and directional entropy of each skin luminance image were calculated by the method of the fifth embodiment described above.

図21は、平均線分画素数とシワ状態との相関関係を示すグラフである。図22は、方向性エントロピーとシワ状態との相関関係を示すグラフである。上記官能評価の結果として、横軸がシワ状態ポイントを示し、縦軸が平均線分画素数を示す2次元グラフ上、及び、横軸がシワ状態ポイントを示し、縦軸が方向性エントロピーを示す2次元グラフ上に、20名の肌輝度画像に対応する点(ひし形ドット)がプロットされた。結果、図21及び図22に示されるように、平均線分画素数とシワ状態との間に正の相関(相関係数r=0.574)があり、かつ、方向性エントロピーとシワ状態との間に負の相関(相関係数r=−0.565)があることが証明された。そして、上述のように算出される線分長情報及び方向性エントロピーの双方が、シワ状態を表すシワ指標値となり得ることが検証された。   FIG. 21 is a graph showing the correlation between the average number of line segment pixels and the wrinkle state. FIG. 22 is a graph showing the correlation between directional entropy and wrinkle state. As a result of the sensory evaluation, the horizontal axis represents the wrinkle state point, the vertical axis represents the average line segment pixel number, the horizontal axis represents the wrinkle state point, and the vertical axis represents the directional entropy. On the two-dimensional graph, points (diamond dots) corresponding to 20 skin luminance images were plotted. As a result, as shown in FIGS. 21 and 22, there is a positive correlation (correlation coefficient r = 0.574) between the average number of line segment pixels and the wrinkle state, and the directional entropy and the wrinkle state It was proved that there was a negative correlation (correlation coefficient r = −0.565). It was verified that both the line segment length information and the directional entropy calculated as described above can be wrinkle index values representing the wrinkle state.

上述の第4実施形態は、図21に示される相関関係、又は、図21に示される方法で得られる相関関係を用いて、線分長情報に対応するシワ指標値を算出するようにすればよい。図21の例の場合には、シワ状態ポイントがシワ指標値として算出されればよい。なお、本実施例では、平均線分画素数が線分長情報として利用される例のみが示されたが、平均線分距離や代表線分数等が線分長情報として利用されても、それらは、シワ状態と相関を持つ。   In the fourth embodiment described above, the wrinkle index value corresponding to the line segment length information is calculated using the correlation shown in FIG. 21 or the correlation obtained by the method shown in FIG. Good. In the example of FIG. 21, the wrinkle state point may be calculated as the wrinkle index value. In the present embodiment, only the example in which the average line segment pixel number is used as the line segment length information is shown, but even if the average line segment distance, the representative line segment number, etc. are used as the line segment length information, Correlates with the wrinkle state.

また、上述の官能評価で用いられた肌輝度画像は、被験者の肌の分析対象部位の法線方向から40度の方向から照明を照らした状態で撮像された。上述の各実施形態、各変形例及び実施例では、肌表面の形状に由来する肌テクスチャ(シワ状態)が分析対象であるため、分析対象の肌テクスチャが画像に表われ易いように、照明角度が調整されることが望ましい。例えば、肌の分析対象部位の法線方向から、30度から50度の範囲に照明角度が設定されることが望ましい。   Moreover, the skin luminance image used in the above-mentioned sensory evaluation was imaged in a state in which illumination was illuminated from a direction of 40 degrees from the normal direction of the analysis target site of the subject's skin. In each of the above-described embodiments, modifications, and examples, since the skin texture (wrinkle state) derived from the shape of the skin surface is an analysis target, the illumination angle is set so that the analysis target skin texture is easy to appear in the image. Is preferably adjusted. For example, it is desirable that the illumination angle is set in a range of 30 degrees to 50 degrees from the normal direction of the skin analysis target region.

上記の各実施形態、変形例及び実施例の一部又は全部は、次のようにも特定され得る。但し、上述の各実施形態、変形例及び実施例が以下の記載に制限されるものではない。   A part or all of the above-described embodiments, modifications, and examples may be specified as follows. However, each above-mentioned embodiment, a modification, and an Example are not restrict | limited to the following description.

<1> 分析対象部位の肌輝度画像を取得し、
局所シワテクスチャを表す二値パターン画像を取得し、
前記二値パターン画像を前記肌輝度画像上でスライドさせながら、前記二値パターン画像と前記肌輝度画像との相関値を逐次算出することにより、相関画像を生成し、
前記相関画像を二値化することで二値化画像を生成し、
前記二値化画像を細線化することで細線化画像を生成し、
前記細線化画像から線分長情報を抽出する、
ことを含むシワ分析方法。
<1> Obtain a skin luminance image of the site to be analyzed,
Obtain a binary pattern image representing the local wrinkle texture,
While calculating the correlation value between the binary pattern image and the skin luminance image while sliding the binary pattern image on the skin luminance image, a correlation image is generated,
A binarized image is generated by binarizing the correlation image,
A thinned image is generated by thinning the binarized image,
Extracting line segment length information from the thinned image;
Wrinkle analysis method.

<2> 前記肌輝度画像に写るシワの方向性に基づいて、前記肌輝度画像を角度補正する、
ことを更に含み、
前記相関画像の生成は、前記角度補正された肌輝度画像から、前記相関画像を生成する、<1>に記載のシワ分析方法。
<3> 前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する、
ことを更に含み、
前記角度補正は、前記分布情報から得られるシワの方向性が、前記二値パターン画像により表わされる前記局所シワテクスチャの方向性に合うように、前記肌輝度画像を角度補正する、<2>に記載のシワ分析方法。
<4> 前記二値パターン画像の取得は、複数の所定角度の各々について、該所定角度方向に延びる局所シワテクスチャをそれぞれ表す複数の二値パターン画像から、前記肌輝度画像に写るシワの方向性に対応する二値パターン画像を選択する、<1>に記載のシワ分析方法。
<5> 前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する、
ことを更に含み、
前記二値パターン画像の取得は、前記複数の二値パターン画像から、前記分布情報に対応する二値パターン画像を選択する、<4>に記載のシワ分析方法。
<6> 前記二値化画像において、シワテクスチャを表す画素値を持つ画素の中の微小領域画素の画素値を反転させる、
ことを更に含み、
前記細線化画像の生成は、前記微小領域画素の画素値が反転された二値化画像を細線化する、<1>から<5>のいずれか1つに記載のシワ分析方法。
<7> 前記肌輝度画像に対して平滑化フィルタを適用し、
前記平滑化フィルタ適用後の肌輝度画像と前記肌輝度画像との差分画像を算出する、
ことを更に含み、
前記相関画像の生成は、前記差分画像から、前記相関画像を生成する、<1>から<6>のいずれか1つに記載のシワ分析方法。
<8> 前記線分長情報として抽出される平均線分画素数とシワ状態が定量化されたシワ指標値との相関関係に基づいて、前記抽出された平均線分画素数に対応するシワ指標値を算出する、ことを更に含む<1>から<7>のいずれか1つに記載のシワ分析方法。
<9> 前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出し、
前記分布情報から、角度毎のパワースペクトルの分布の偏りの大きさを示す方向性エントロピーを算出し、
前記線分長情報と前記方向性エントロピーとから、シワ指標値を算出する、ことを更に含む<1>から<8>のいずれか1つに記載のシワ分析方法。
<10> 分析対象部位の肌輝度画像を取得する画像取得部と、
局所シワテクスチャを表す二値パターン画像を取得するパターン取得部と、
前記二値パターン画像を前記肌輝度画像上をスライドさせながら、前記二値パターン画像と前記肌輝度画像との相関値を逐次算出することにより、相関画像を生成する相関処理部と、
前記相関画像を二値化することで二値化画像を生成する二値化部と、
前記二値化画像を細線化することで細線化画像を生成する細線化部と、
前記細線化画像から線分長情報を抽出する情報抽出部と、
前記情報抽出部により抽出された前記線分長情報の出力処理を行う出力処理部と、
を備えるシワ分析装置。
<11> 前記肌輝度画像に写るシワの方向性に基づいて、前記肌輝度画像を角度補正する角度補正部、
を更に含み、
前記相関処理部は、前記角度補正部により角度補正された肌輝度画像から、前記相関画像を生成する、<10>に記載のシワ分析装置。
<12> 前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する角度情報取得部、
を更に備え、
前記角度補正部は、前記分布情報から得られるシワの方向性が、前記二値パターン画像により表わされる前記局所シワテクスチャの方向性に合うように、前記肌輝度画像を角度補正する、<11>に記載のシワ分析装置。
<13> 前記パターン取得部は、複数の所定角度の各々について、該所定角度方向に延びる局所シワテクスチャをそれぞれ表す複数の二値パターン画像から、前記肌輝度画像に写るシワの方向性に対応する二値パターン画像を選択する、<10>に記載のシワ分析装置。
<14> 前記パターン取得部は、前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出し、前記複数の二値パターン画像から、該分布情報に対応する二値パターン画像を選択する、<13>に記載のシワ分析装置。
<15> 前記二値化画像において、シワテクスチャを表す画素値を持つ画素の中の微小領域画素の画素値を反転させる微小領域除去部、
を更に備え、
前記細線化部は、前記微小領域画素の画素値が反転された二値化画像を細線化する、<10>から<14>のいずれか1つに記載のシワ分析装置。
<16> 前記肌輝度画像に対して平滑化フィルタを適用する平滑化処理部と、
前記平滑化フィルタ適用後の肌輝度画像と前記肌輝度画像との差分画像を算出する差分算出部と、
を更に備え、
前記相関処理部は、前記差分画像から、前記相関画像を生成する、<10>から<15>のいずれか1つに記載のシワ分析装置。
<17> 前記線分長情報として抽出される平均線分画素数とシワ状態が定量化されたシワ指標値との相関関係に基づいて、前記抽出された平均線分画素数に対応するシワ指標値を算出する指標値算出部、
を更に備える<10>から<16>のいずれか1つに記載のシワ分析装置。
<18> 前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する分布算出部と、
前記分布情報から、角度毎のパワースペクトルの分布の偏りの大きさを示す方向性エントロピーを算出するエントロピー算出部と、
前記線分長情報と前記方向性エントロピーとから、シワ指標値を算出する指標値算出部と、
を更に備える<10>から<17>のいずれか1つに記載のシワ分析装置。
<19> <1>から<9>のいずれか1つに記載のシワ分析方法を少なくとも1つのコンピュータに実行させるプログラム。
<2> Based on the direction of wrinkles in the skin luminance image, the skin luminance image is angle-corrected.
Further including
The wrinkle analysis method according to <1>, wherein the correlation image is generated from the angle-corrected skin luminance image.
<3> By applying Fourier transform to the skin luminance image, power spectrum distribution information for each angle is calculated.
Further including
In the angle correction, the skin luminance image is angle-corrected so that the directionality of wrinkles obtained from the distribution information matches the directionality of the local wrinkle texture represented by the binary pattern image. <2> The wrinkle analysis method described.
<4> The acquisition of the binary pattern image is the directionality of wrinkles reflected in the skin luminance image from a plurality of binary pattern images each representing a local wrinkle texture extending in the predetermined angle direction for each of a plurality of predetermined angles. The wrinkle analysis method according to <1>, wherein a binary pattern image corresponding to is selected.
<5> By applying Fourier transform to the skin luminance image, power spectrum distribution information for each angle is calculated.
Further including
The wrinkle analysis method according to <4>, wherein the acquisition of the binary pattern image selects a binary pattern image corresponding to the distribution information from the plurality of binary pattern images.
<6> In the binarized image, the pixel value of the minute region pixel in the pixel having the pixel value representing the wrinkle texture is inverted.
Further including
The wrinkle analysis method according to any one of <1> to <5>, wherein the generation of the thinned image includes thinning a binarized image in which pixel values of the minute region pixels are inverted.
<7> Apply a smoothing filter to the skin luminance image,
Calculating a difference image between the skin luminance image after application of the smoothing filter and the skin luminance image;
Further including
The wrinkle analysis method according to any one of <1> to <6>, wherein the correlation image is generated from the difference image.
<8> The wrinkle index corresponding to the extracted average line segment pixel number based on the correlation between the average line segment pixel number extracted as the line segment length information and the wrinkle index value in which the wrinkle state is quantified. The wrinkle analysis method according to any one of <1> to <7>, further including calculating a value.
<9> By applying Fourier transform to the skin luminance image, the distribution information of the power spectrum for each angle is calculated,
From the distribution information, to calculate a directional entropy indicating the degree of bias of the distribution of the power spectrum for each angle,
The wrinkle analysis method according to any one of <1> to <8>, further including calculating a wrinkle index value from the line segment length information and the directional entropy.
<10> an image acquisition unit that acquires a skin luminance image of the analysis target part;
A pattern acquisition unit that acquires a binary pattern image representing a local wrinkle texture;
A correlation processing unit that generates a correlation image by sequentially calculating a correlation value between the binary pattern image and the skin luminance image while sliding the binary pattern image on the skin luminance image;
A binarization unit that generates a binarized image by binarizing the correlation image;
A thinning unit that generates a thinned image by thinning the binarized image;
An information extraction unit for extracting line segment length information from the thinned image;
An output processing unit that performs an output process of the line segment length information extracted by the information extraction unit;
Wrinkle analyzer.
<11> An angle correction unit that corrects an angle of the skin luminance image based on the directionality of wrinkles reflected in the skin luminance image;
Further including
The wrinkle analyzer according to <10>, wherein the correlation processing unit generates the correlation image from a skin luminance image that has been angle-corrected by the angle correction unit.
<12> An angle information acquisition unit that calculates power spectrum distribution information for each angle by applying Fourier transform to the skin luminance image,
Further comprising
The angle correction unit corrects the angle of the skin luminance image so that the directionality of wrinkles obtained from the distribution information matches the directionality of the local wrinkle texture represented by the binary pattern image, <11> Wrinkle analyzer described in 1.
<13> The pattern acquisition unit corresponds to the directionality of wrinkles reflected in the skin luminance image from a plurality of binary pattern images each representing a local wrinkle texture extending in the predetermined angle direction for each of a plurality of predetermined angles. The wrinkle analyzer according to <10>, which selects a binary pattern image.
<14> The pattern acquisition unit calculates power spectrum distribution information for each angle by applying Fourier transform to the skin luminance image, and corresponds to the distribution information from the plurality of binary pattern images. The wrinkle analyzer according to <13>, wherein a binary pattern image to be selected is selected.
<15> In the binarized image, a micro area removing unit that inverts a pixel value of a micro area pixel in a pixel having a pixel value representing a wrinkle texture,
Further comprising
The wrinkle analyzer according to any one of <10> to <14>, wherein the thinning unit thins a binarized image in which pixel values of the minute region pixels are inverted.
<16> a smoothing processing unit that applies a smoothing filter to the skin luminance image;
A difference calculating unit for calculating a difference image between the skin luminance image after application of the smoothing filter and the skin luminance image;
Further comprising
The wrinkle analyzer according to any one of <10> to <15>, wherein the correlation processing unit generates the correlation image from the difference image.
<17> A wrinkle index corresponding to the extracted average line segment pixel number based on a correlation between the average line segment pixel number extracted as the line segment length information and a wrinkle index value in which the wrinkle state is quantified. An index value calculation unit for calculating a value,
The wrinkle analyzer according to any one of <10> to <16>, further comprising:
<18> A distribution calculating unit that calculates power spectrum distribution information for each angle by applying Fourier transform to the skin luminance image;
From the distribution information, an entropy calculating unit that calculates directional entropy indicating the magnitude of the bias of the distribution of the power spectrum for each angle;
An index value calculation unit that calculates a wrinkle index value from the line segment length information and the directional entropy;
The wrinkle analyzer according to any one of <10> to <17>, further comprising:
<19> A program that causes at least one computer to execute the wrinkle analysis method according to any one of <1> to <9>.

2 CPU
3 メモリ
4 入出力I/F
7 入力部
9 出力部
10 シワ分析装置
11 画像取得部
12 パターン取得部
13 相関処理部
14 二値化部
15 細線化部
16 情報抽出部
17 出力処理部
21 角度情報取得部
22 角度補正部
24 平滑化処理部
25 差分算出部
26 微小領域除去部
28 指標値算出部
31 分布算出部
32 エントロピー算出部
2 CPU
3 Memory 4 Input / output I / F
DESCRIPTION OF SYMBOLS 7 Input part 9 Output part 10 Wrinkle analyzer 11 Image acquisition part 12 Pattern acquisition part 13 Correlation processing part 14 Binarization part 15 Thinning part 16 Information extraction part 17 Output processing part 21 Angle information acquisition part 22 Angle correction part 24 Smoothing Processing section 25 difference calculation section 26 minute area removal section 28 index value calculation section 31 distribution calculation section 32 entropy calculation section

Claims (11)

分析対象部位の肌輝度画像を取得し、
局所シワテクスチャを表す二値パターン画像を取得し、
前記二値パターン画像を前記肌輝度画像上でスライドさせながら、前記二値パターン画像と前記肌輝度画像との相関値を逐次算出することにより、相関画像を生成し、
前記相関画像を二値化することで二値化画像を生成し、
前記二値化画像を細線化することで細線化画像を生成し、
前記細線化画像から線分長情報を抽出する、
ことを含むシワ分析方法。
Acquire skin luminance image of the analysis target part,
Obtain a binary pattern image representing the local wrinkle texture,
While calculating the correlation value between the binary pattern image and the skin luminance image while sliding the binary pattern image on the skin luminance image, a correlation image is generated,
A binarized image is generated by binarizing the correlation image,
A thinned image is generated by thinning the binarized image,
Extracting line segment length information from the thinned image;
Wrinkle analysis method.
前記肌輝度画像に写るシワの方向性に基づいて、前記肌輝度画像を角度補正する、
ことを更に含み、
前記相関画像の生成は、前記角度補正された肌輝度画像から、前記相関画像を生成する、
請求項1に記載のシワ分析方法。
Based on the directionality of wrinkles in the skin luminance image, the skin luminance image is angle-corrected.
Further including
The correlation image is generated by generating the correlation image from the angle-corrected skin luminance image.
The wrinkle analysis method according to claim 1.
前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する、
ことを更に含み、
前記角度補正は、前記分布情報から得られるシワの方向性が、前記二値パターン画像により表わされる前記局所シワテクスチャの方向性に合うように、前記肌輝度画像を角度補正する、
請求項2に記載のシワ分析方法。
By applying Fourier transform to the skin luminance image, the distribution information of the power spectrum for each angle is calculated.
Further including
The angle correction is performed to correct the angle of the skin luminance image so that the directionality of wrinkles obtained from the distribution information matches the directionality of the local wrinkle texture represented by the binary pattern image.
The wrinkle analysis method according to claim 2.
前記二値パターン画像の取得は、複数の所定角度の各々について、該所定角度方向に延びる局所シワテクスチャをそれぞれ表す複数の二値パターン画像から、前記肌輝度画像に写るシワの方向性に対応する二値パターン画像を選択する、
請求項1に記載のシワ分析方法。
The acquisition of the binary pattern image corresponds to the directionality of wrinkles appearing in the skin luminance image from a plurality of binary pattern images respectively representing local wrinkle textures extending in the predetermined angle direction for each of a plurality of predetermined angles. Select a binary pattern image,
The wrinkle analysis method according to claim 1.
前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出する、
ことを更に含み、
前記二値パターン画像の取得は、前記複数の二値パターン画像から、前記分布情報に対応する二値パターン画像を選択する、
請求項4に記載のシワ分析方法。
By applying Fourier transform to the skin luminance image, the distribution information of the power spectrum for each angle is calculated.
Further including
The acquisition of the binary pattern image selects a binary pattern image corresponding to the distribution information from the plurality of binary pattern images.
The wrinkle analysis method according to claim 4.
前記二値化画像において、シワテクスチャを表す画素値を持つ画素の中の微小領域画素の画素値を反転させる、
ことを更に含み、
前記細線化画像の生成は、前記微小領域画素の画素値が反転された二値化画像を細線化する、
請求項1から5のいずれか1項に記載のシワ分析方法。
In the binarized image, the pixel value of the minute region pixel in the pixel having the pixel value representing the wrinkle texture is inverted.
Further including
The thinned image is generated by thinning a binarized image in which pixel values of the minute region pixels are inverted.
The wrinkle analysis method according to any one of claims 1 to 5.
前記肌輝度画像に対して平滑化フィルタを適用し、
前記平滑化フィルタ適用後の肌輝度画像と前記肌輝度画像との差分画像を算出する、
ことを更に含み、
前記相関画像の生成は、前記差分画像から、前記相関画像を生成する、
請求項1から6のいずれか1項に記載のシワ分析方法。
Applying a smoothing filter to the skin luminance image;
Calculating a difference image between the skin luminance image after application of the smoothing filter and the skin luminance image;
Further including
The correlation image is generated by generating the correlation image from the difference image.
The wrinkle analysis method according to any one of claims 1 to 6.
前記線分長情報として抽出される平均線分画素数とシワ状態が定量化されたシワ指標値との相関関係に基づいて、前記抽出された平均線分画素数に対応するシワ指標値を算出する、
ことを更に含む請求項1から7のいずれか1項に記載のシワ分析方法。
The wrinkle index value corresponding to the extracted average line segment pixel number is calculated based on the correlation between the average line segment pixel number extracted as the line segment length information and the wrinkle index value in which the wrinkle state is quantified. To
The wrinkle analysis method according to any one of claims 1 to 7, further comprising:
前記肌輝度画像に対してフーリエ変換を適用することにより、角度毎のパワースペクトルの分布情報を算出し、
前記分布情報から、角度毎のパワースペクトルの分布の偏りの大きさを示す方向性エントロピーを算出し、
前記線分長情報と前記方向性エントロピーとから、シワ指標値を算出する、
ことを更に含む請求項1から8のいずれか1項に記載のシワ分析方法。
By applying Fourier transform to the skin luminance image, the power spectrum distribution information for each angle is calculated,
From the distribution information, to calculate a directional entropy indicating the degree of bias of the distribution of the power spectrum for each angle,
A wrinkle index value is calculated from the line segment length information and the directional entropy.
The wrinkle analysis method according to any one of claims 1 to 8, further comprising:
分析対象部位の肌輝度画像を取得する画像取得部と、
局所シワテクスチャを表す二値パターン画像を取得するパターン取得部と、
前記二値パターン画像を前記肌輝度画像上をスライドさせながら、前記二値パターン画像と前記肌輝度画像との相関値を逐次算出することにより、相関画像を生成する相関処理部と、
前記相関画像を二値化することで二値化画像を生成する二値化部と、
前記二値化画像を細線化することで細線化画像を生成する細線化部と、
前記細線化画像から線分長情報を抽出する情報抽出部と、
前記情報抽出部により抽出された前記線分長情報の出力処理を行う出力処理部と、
を備えるシワ分析装置。
An image acquisition unit for acquiring a skin luminance image of the analysis target part;
A pattern acquisition unit that acquires a binary pattern image representing a local wrinkle texture;
A correlation processing unit that generates a correlation image by sequentially calculating a correlation value between the binary pattern image and the skin luminance image while sliding the binary pattern image on the skin luminance image;
A binarization unit that generates a binarized image by binarizing the correlation image;
A thinning unit that generates a thinned image by thinning the binarized image;
An information extraction unit for extracting line segment length information from the thinned image;
An output processing unit that performs an output process of the line segment length information extracted by the information extraction unit;
Wrinkle analyzer.
請求項1から9のいずれか1項に記載のシワ分析方法を少なくとも1つのコンピュータに実行させるプログラム。   A program for causing at least one computer to execute the wrinkle analysis method according to any one of claims 1 to 9.
JP2013174179A 2013-08-26 2013-08-26 Wrinkle analysis method and wrinkle analyzer Active JP6118214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013174179A JP6118214B2 (en) 2013-08-26 2013-08-26 Wrinkle analysis method and wrinkle analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013174179A JP6118214B2 (en) 2013-08-26 2013-08-26 Wrinkle analysis method and wrinkle analyzer

Publications (2)

Publication Number Publication Date
JP2015042200A JP2015042200A (en) 2015-03-05
JP6118214B2 true JP6118214B2 (en) 2017-04-19

Family

ID=52696062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013174179A Active JP6118214B2 (en) 2013-08-26 2013-08-26 Wrinkle analysis method and wrinkle analyzer

Country Status (1)

Country Link
JP (1) JP6118214B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818353B2 (en) * 2017-07-18 2021-01-20 国立大学法人大阪大学 Force measurement method and force measurement device
CN107981842B (en) * 2017-11-20 2019-02-05 珠海伊斯佳科技股份有限公司 A kind of laminating adhesive external member and its application method and application for transcribing dermatoglyph

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0282947A (en) * 1988-09-20 1990-03-23 Kanebo Ltd Method for detecting and analyzing skin surface conformation
JPH11118777A (en) * 1997-10-13 1999-04-30 Hitachi Constr Mach Co Ltd Sector scanning ultrasonic inspecting apparatus
JP2006061170A (en) * 2004-07-30 2006-03-09 Pola Chem Ind Inc Discrimination method for skin
JP2006107028A (en) * 2004-10-04 2006-04-20 Glory Ltd Individual authentication device and individual authentication method
US8055033B2 (en) * 2005-02-15 2011-11-08 Olympus Corporation Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
JP2007252892A (en) * 2006-02-23 2007-10-04 Masahiro Nakagawa Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
JP4909686B2 (en) * 2006-09-08 2012-04-04 学校法人東京理科大学 Epidermal tissue quantification apparatus and program
JP2009082338A (en) * 2007-09-28 2009-04-23 Masahiro Nakagawa Skin discrimination method using entropy
JP2010082245A (en) * 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd Hair information measuring method

Also Published As

Publication number Publication date
JP2015042200A (en) 2015-03-05

Similar Documents

Publication Publication Date Title
TWI687832B (en) Biometric system and computer-implemented method for biometrics
JP4877374B2 (en) Image processing apparatus and program
Raghavendra et al. Novel image fusion scheme based on dependency measure for robust multispectral palmprint recognition
KR101656566B1 (en) Device to extract biometric feature vector, method to extract biometric feature vector and program to extract biometric feature vector
EP3698272B1 (en) Differentiating between live and spoof fingers in fingerprint analysis by machine learning
JP4232800B2 (en) Line noise elimination device, line noise elimination method, line noise elimination program
WO2016029346A1 (en) Fingerprint extraction method and apparatus
US20160379038A1 (en) Valid finger area and quality estimation for fingerprint imaging
US8995730B2 (en) Image processing apparatus for analyzing and enhancing fingerprint images
US20080050030A1 (en) Image density conversion method, image enhancement processor, and program thereof
Das et al. A new wrist vein biometric system
JP2012083938A (en) Learning device, learning method, identification device, identification method, and program
US11315358B1 (en) Method and system for detection of altered fingerprints
CN112801031A (en) Vein image recognition method and device, electronic equipment and readable storage medium
JP6185807B2 (en) Wrinkle state analysis method and wrinkle state analyzer
Li et al. Sublingual vein extraction algorithm based on hyperspectral tongue imaging technology
US8655084B2 (en) Hand-based gender classification
JP6118214B2 (en) Wrinkle analysis method and wrinkle analyzer
JP5201184B2 (en) Image processing apparatus and program
Florindo et al. Fractal descriptors based on the probability dimension: A texture analysis and classification approach
JP2017012384A (en) Wrinkle state analysis device and wrinkle state analysis method
Tripathi et al. Automated image splicing detection using texture based feature criterion and fuzzy support vector machine based classifier
JP5337252B2 (en) Feature extraction device
WO2019171413A1 (en) Image comparison device
Rajeev et al. Method for modeling post-mortem biometric 3D fingerprints

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170324

R151 Written notification of patent or utility model registration

Ref document number: 6118214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250