JP2016009203A - Wrinkle detection apparatus and wrinkle detection method - Google Patents

Wrinkle detection apparatus and wrinkle detection method Download PDF

Info

Publication number
JP2016009203A
JP2016009203A JP2014127572A JP2014127572A JP2016009203A JP 2016009203 A JP2016009203 A JP 2016009203A JP 2014127572 A JP2014127572 A JP 2014127572A JP 2014127572 A JP2014127572 A JP 2014127572A JP 2016009203 A JP2016009203 A JP 2016009203A
Authority
JP
Japan
Prior art keywords
image
edge
pixel
unsharp
wrinkle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014127572A
Other languages
Japanese (ja)
Inventor
智史 山梨
Tomohito Yamanashi
智史 山梨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014127572A priority Critical patent/JP2016009203A/en
Publication of JP2016009203A publication Critical patent/JP2016009203A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a wrinkle detection apparatus capable of precisely detecting wrinkles even when a skin is glossy.SOLUTION: A wrinkle detection apparatus 100 is an apparatus for detecting an area of wrinkles on a skin included in an image. The wrinkle detection apparatus 100 includes: an image acquisition section 120 that acquires an image; an edge emphasis processing section 220 that generates an unsharp image by smoothing an acquired image, and performs an edge emphasis processing based on the generated unsharp image to generate an edge emphasized image as an image in which edges of the image are emphasized; and a wrinkle detection processing section 230 that performs a wrinkle detection processing on the generated edge emphasized image. The edge emphasis processing is a processing to generate an edge emphasized image by reducing influences in an area where the brightness is higher in an image.

Description

本発明は、画像に含まれる肌の皺領域を検出する皺検出装置および皺検出方法に関する。   The present invention relates to a wrinkle detection device and a wrinkle detection method for detecting a wrinkle region of a skin included in an image.

顔を撮影した画像から肌の皺領域を検出することが、従来行われている。ここで、皺領域とは、画像に映し出された、皺の部分の線状の画像領域である。   Conventionally, a wrinkle region of a skin is detected from an image obtained by photographing a face. Here, the wrinkle region is a linear image region of a wrinkle portion projected in an image.

しかしながら、照明の影響等によって、皺領域が検出されなかったり、皺ではない部分が皺領域として検出されてしまうことがある。そこで、画像からの皺領域の検出(以下「皺検出」という)の精度を向上させる技術が、例えば特許文献1に記載されている。   However, due to the influence of illumination or the like, the wrinkle region may not be detected, or a portion that is not a wrinkle may be detected as a wrinkle region. Therefore, for example, Patent Document 1 discloses a technique for improving the accuracy of detection of a wrinkle region from an image (hereinafter referred to as “wrinkle detection”).

特許文献1に記載の技術(以下「従来技術」という)は、いわゆるアンシャープマスキング技術を応用したものである。アンシャープマスキング技術では、画像と、当該画像を平滑化した画像であるアンシャープ画像との差分を示す差分画像を生成し、生成された差分画像を、基の画像と合成する。かかる処理により得られる画像は、基の画像のエッジが強調されたエッジ強調画像となる。従来技術は、2種類の範囲についての画素値の平均値を比較することにより、画像の各部の画素値の平坦性を判別し、判別された平坦性に応じて、上記合成を行う際の差分画像の影響の度合いを変化させる。   The technique described in Patent Document 1 (hereinafter referred to as “conventional technique”) applies a so-called unsharp masking technique. In the unsharp masking technique, a difference image indicating a difference between an image and an unsharp image that is an image obtained by smoothing the image is generated, and the generated difference image is combined with a base image. An image obtained by such processing is an edge-enhanced image in which the edge of the base image is enhanced. The prior art determines the flatness of the pixel values of each part of the image by comparing the average values of the pixel values for the two types of ranges, and the difference when performing the above synthesis according to the determined flatness Change the degree of image influence.

エッジ強調画像に対してエッジ検出フィルタを適用し、画像の各部分の勾配値を閾値と比較することにより、エッジが強い領域を検出することができる。ここで、勾配値とは、画像における画素値の変化の度合いを示す値である。したがって、肌を撮影した画像に従来技術を適用することにより、皺のない平坦な肌領域において、シミ等の皺以外の要素が皺領域として誤って検出されてしまう可能性を低減して、皺検出を行うことができる。   By applying an edge detection filter to the edge-enhanced image and comparing the gradient value of each part of the image with a threshold value, a region with a strong edge can be detected. Here, the gradient value is a value indicating the degree of change of the pixel value in the image. Therefore, by applying the conventional technique to an image obtained by photographing the skin, it is possible to reduce the possibility that elements other than wrinkles such as spots are erroneously detected as wrinkles in a flat skin area without wrinkles. Detection can be performed.

特開平11−66300号公報JP-A-11-66300 特開2011−8643号公報Japanese Patent Application Laid-Open No. 2011-8643 特開2011−115460号公報JP 2011-115460 A 特開平6−76062号公報JP-A-6-76062

しかしながら、従来技術では、光が肌に当たることにより肌の表面に光沢が生じている場合、皺以外の要素が皺領域として検出されてしまうこと(以下「誤検出」という)が発生し得る。光沢に起因して肌に生じるコントラストの強さが、皺に起因して生じるコントラストの強さに近いレベルになることがあるためである。   However, in the related art, when gloss is generated on the surface of the skin due to light hitting the skin, elements other than wrinkles may be detected as wrinkle regions (hereinafter referred to as “false detection”). This is because the contrast strength generated in the skin due to gloss may be at a level close to the contrast strength generated due to wrinkles.

そこで、勾配値の閾値を高く(厳しく)設定することが考えられる。ところが、閾値が高いほど、実際に存在する皺が検出されないこと(以下「検出漏れ」という)の可能性が高くなる。   Therefore, it is conceivable to set the threshold value of the gradient value high (strict). However, the higher the threshold, the higher the possibility that an actually existing soot will not be detected (hereinafter referred to as “detection omission”).

したがって、肌に光沢が生じている場合であっても、誤検出および検出漏れの両方を低減して、高精度な皺検出を実現できることが望まれる。   Therefore, even when the skin is glossy, it is desired that both false detection and detection omission can be reduced and high-precision wrinkle detection can be realized.

本発明の目的は、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができる皺検出装置および皺検出方法を提供することである。   An object of the present invention is to provide a wrinkle detection device and a wrinkle detection method that can perform wrinkle detection with high accuracy even when the skin is glossy.

本開示の皺検出装置は、画像に含まれる肌の皺領域を検出する皺検出装置であって、前記画像を取得する画像取得部と、取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うエッジ強調処理部と、生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出する皺検出処理部と、を有し、前記エッジ強調処理は、前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である。   The wrinkle detection device of the present disclosure is a wrinkle detection device that detects a wrinkle region of skin included in an image, and generates an unsharp image by smoothing the acquired image and an image acquisition unit that acquires the image An edge enhancement processing unit that performs an edge enhancement process for generating an edge enhanced image that is an image in which an edge of the image is enhanced based on the generated unsharp image, and the generated edge enhanced image An edge detection processing unit that detects the eyelid region by performing edge detection processing, and the edge enhancement processing suppresses the influence of a portion with high luminance in the image, and It is a process to generate.

本開示の皺検出方法は、画像に含まれる肌の皺領域を検出する皺検出方法であって、前記画像を取得するステップと、取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うステップと、生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出するステップと、を有し、前記エッジ強調処理は、前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である。   The wrinkle detection method of the present disclosure is a wrinkle detection method for detecting a wrinkle region of skin included in an image, the step of acquiring the image, and smoothing the acquired image to generate an unsharp image, Based on the generated unsharp image, generating an edge enhanced image that is an image in which an edge of the image is enhanced, and performing edge enhancement processing on the generated edge enhanced image And performing the step of detecting the wrinkle region, and the edge enhancement process is a process of generating the edge enhanced image while suppressing an influence of a portion having a high luminance in the image.

本開示によれば、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができる。   According to the present disclosure, high-precision wrinkle detection can be performed even when the skin is glossy.

本発明の実施の形態1に係る皺検出装置の構成の一例を示すブロック図The block diagram which shows an example of a structure of the wrinkle detection apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る皺検出装置の構成の一例を示すブロック図The block diagram which shows an example of a structure of the wrinkle detection apparatus which concerns on Embodiment 2 of this invention. 本実施の形態2における肌状態検出部の構成の一例を示すブロック図The block diagram which shows an example of a structure of the skin state detection part in this Embodiment 2. FIG. 本実施の形態2に係る皺検出装置の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the wrinkle detection apparatus which concerns on this Embodiment 2. 従来のアンシャープマスキングによる皺検出の様子を示す図Figure showing the state of wrinkle detection by conventional unsharp masking 本実施の形態2に係る皺検出装置による皺検出の様子を示す図The figure which shows the mode of the wrinkle detection by the wrinkle detection apparatus which concerns on this Embodiment 2.

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
本発明の実施の形態1は、本発明の基本的態様の一例である。
(Embodiment 1)
Embodiment 1 of the present invention is an example of a basic aspect of the present invention.

<皺検出装置の構成>
まず、本実施の形態に係る皺検出装置の構成について説明する。
<Configuration of soot detection device>
First, the configuration of the wrinkle detection device according to the present embodiment will be described.

図1は、本実施の形態に係る皺検出装置の構成の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of the configuration of the wrinkle detection device according to the present embodiment.

図1において、皺検出装置100は、画像に含まれる肌の皺領域を検出する装置であり、画像取得部120、エッジ強調処理部220、および皺検出処理部230を有する。   In FIG. 1, wrinkle detection device 100 is a device that detects a wrinkle region of a skin included in an image, and includes image acquisition unit 120, edge enhancement processing unit 220, and wrinkle detection processing unit 230.

画像取得部120は、画像を取得する。   The image acquisition unit 120 acquires an image.

エッジ強調処理部220は、取得された画像を平滑化してアンシャープ画像を生成し、生成されたアンシャープ画像に基づいて、画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行う。但し、エッジ強調処理は、画像における輝度が高い部分の影響を抑制して、エッジ強調画像を生成する処理である。   The edge enhancement processing unit 220 smoothes the acquired image to generate an unsharp image, and based on the generated unsharp image, generates an edge enhanced image that is an image in which the edge of the image is enhanced. Process. However, the edge enhancement process is a process for generating an edge enhanced image while suppressing the influence of a portion with high luminance in the image.

皺検出処理部230は、生成されたエッジ強調画像に対してエッジ検出処理を行うことにより、皺領域を検出する。   The wrinkle detection processing unit 230 detects a wrinkle region by performing edge detection processing on the generated edge-enhanced image.

皺検出装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、皺検出装置100の上記各部の機能は、CPUが制御プログラムを実行することにより実現される。   The wrinkle detection device 100 includes, for example, a CPU (Central Processing Unit), a storage medium such as a ROM (Read Only Memory) storing a control program, and a working memory such as a RAM (Random Access Memory), although not shown. In this case, the function of each part of the eyelid detection device 100 is realized by the CPU executing the control program.

このような皺検出装置100は、輝度が高い部分の影響を抑制することにより、肌の表面に生じる光沢(以下、単に「光沢」という)に起因して生じるコントラストを低減したエッジ強調画像を生成することができる。これにより、皺検出装置100は、エッジ強調画像における、光沢に起因して生じるコントラストを、皺に起因して生じるコントラストに対して相対的に強めることができる。したがって、皺検出装置100は、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができる。   Such wrinkle detection apparatus 100 generates an edge-enhanced image in which contrast caused by gloss generated on the surface of the skin (hereinafter simply referred to as “gloss”) is reduced by suppressing the influence of a portion with high luminance. can do. Thereby, the wrinkle detection apparatus 100 can strengthen the contrast generated due to the gloss in the edge-enhanced image relative to the contrast generated due to the wrinkle. Therefore, wrinkle detection apparatus 100 can perform wrinkle detection with high accuracy even when the skin is glossy.

(実施の形態2)
本発明の実施の形態2は、本発明を、顔の肌の皺領域を検出してユーザに提示する装置に適用した場合の、具体的態様の一例である。
(Embodiment 2)
The second embodiment of the present invention is an example of a specific mode when the present invention is applied to an apparatus that detects a wrinkle region of a facial skin and presents it to a user.

図2は、本実施の形態に係る皺検出装置100の構成の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the configuration of wrinkle detection apparatus 100 according to the present embodiment.

図2において、皺検出装置100は、撮影部110、画像取得部120、顔部品取得部130、肌状態検出部140、画像生成部150、および表示部160を有する。   2, the wrinkle detection device 100 includes a photographing unit 110, an image acquisition unit 120, a facial part acquisition unit 130, a skin condition detection unit 140, an image generation unit 150, and a display unit 160.

撮影部110は、例えば、レンズおよびカラー撮像素子を含むスチルカメラであり、ユーザの顔の画像を撮影する。そして、撮影部110は、撮影された画像を、画像取得部120へ出力する。撮影部110の動作は、例えば、画像取得部120により制御される。   The photographing unit 110 is, for example, a still camera including a lens and a color image sensor, and photographs an image of the user's face. Then, the imaging unit 110 outputs the captured image to the image acquisition unit 120. The operation of the imaging unit 110 is controlled by the image acquisition unit 120, for example.

画像取得部120は、入力された画像を、輝度調整等の必要な画質処理を行って、顔部品取得部130および画像生成部150のそれぞれへ出力する。かかる画質処理としては、後述のエッジ強調処理およびエッジ検出処理の内容に適した処理が採用される。なお、以下の説明において、画像取得部120から出力される画像は、「撮影画像」という。   The image acquisition unit 120 performs necessary image quality processing such as brightness adjustment on the input image and outputs the input image to each of the facial part acquisition unit 130 and the image generation unit 150. As such image quality processing, processing suitable for the contents of edge enhancement processing and edge detection processing described later is employed. In the following description, an image output from the image acquisition unit 120 is referred to as a “captured image”.

なお、撮影画像は、画像取得部120あるいは他の装置部において、左右方向に反転されてもよい。   Note that the captured image may be reversed in the left-right direction in the image acquisition unit 120 or another device unit.

顔部品取得部130は、撮影画像から、撮影画像における顔部品の位置を検出する。ここで、顔部品とは、目、鼻、頬等、顔を構成する各部であり、例えば、目頭等、顔の特徴点の位置によって定義することができる。顔部品取得部130は、例えば、パターンマッチング等の公知の画像特徴点検出手法を用いて、撮影画像から顔の特徴点を抽出することにより、顔部品の位置の検出を行う。そして、顔部品取得部130は、撮影画像と、検出された各顔部品の位置を示す顔部品位置情報とを、肌状態検出部140へ出力する。   The facial part acquisition unit 130 detects the position of the facial part in the captured image from the captured image. Here, the face parts are each part constituting the face such as eyes, nose and cheeks, and can be defined by the positions of the facial feature points such as the eyes. The facial part acquisition unit 130 detects the position of the facial part by extracting the facial feature points from the captured image using a known image feature point detection method such as pattern matching. Then, the facial part acquisition unit 130 outputs the captured image and facial part position information indicating the position of each detected facial part to the skin state detection unit 140.

肌状態検出部140は、撮影画像における皺領域を検出する。そして、肌状態検出部140は、検出した皺領域を示す皺領域情報を、画像生成部150へ出力する。   The skin condition detection unit 140 detects a wrinkle region in the captured image. Then, skin condition detection unit 140 outputs wrinkle region information indicating the detected wrinkle region to image generation unit 150.

図3は、肌状態検出部140の構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of the configuration of the skin condition detection unit 140.

図3において、肌状態検出部140は、検出領域決定部210、エッジ強調処理部220、皺検出処理部230、およびシミ検出部240を有する。   In FIG. 3, the skin condition detection unit 140 includes a detection region determination unit 210, an edge enhancement processing unit 220, a wrinkle detection processing unit 230, and a spot detection unit 240.

検出領域決定部210は、顔部品取得部130から入力された顔部品位置情報に基づいて、皺検出の対象となる検出領域を決定する。例えば、検出領域決定部210は、両目および鼻の位置等から、左目の下瞼から左頬までの領域と、右目の下瞼から右頬までの領域とを、検出領域として決定する。かかる領域は、一般的に、皺ができやすい領域である。そして、検出領域決定部210は、撮影画像と、決定された検出領域を示す検出領域情報とを、エッジ強調処理部220およびシミ検出部240へ出力する。   The detection area determination unit 210 determines a detection area that is a target for wrinkle detection based on the facial part position information input from the facial part acquisition unit 130. For example, the detection area determination unit 210 determines the area from the lower eyelid to the left cheek and the area from the lower eyelid to the right cheek as detection areas based on the positions of both eyes and the nose. Such a region is generally a region where wrinkles are likely to occur. Then, the detection region determination unit 210 outputs the captured image and detection region information indicating the determined detection region to the edge enhancement processing unit 220 and the spot detection unit 240.

なお、検出領域決定部210は、睫毛、髪の毛、眼鏡の縁等が占める領域を、画像領域から除外することが望ましい。例えば、睫毛領域の除去は、特許文献2あるいは特許文献3に記載の技術等、公知の画像処理技術を用いることにより、行うことができる。   Note that the detection area determination unit 210 preferably excludes the area occupied by the eyelashes, the hair, the edge of the glasses, and the like from the image area. For example, the eyelash region can be removed by using a known image processing technique such as the technique described in Patent Document 2 or Patent Document 3.

エッジ強調処理部220は、撮影画像を平滑化して、アンシャープ画像を生成する。エッジ強調処理部220は、生成されたアンシャープ画像に基づいて、撮影画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行う。但し、エッジ強調処理は、撮影画像における輝度が高い部分の影響を抑制して、エッジ強調画像を生成する処理である。エッジ強調処理部220は、グレースケール算出部221、平滑化処理部222、最小値算出部223、および差分算出部224を有する。   The edge enhancement processing unit 220 smoothes the captured image and generates an unsharp image. The edge enhancement processing unit 220 performs edge enhancement processing that generates an edge enhanced image that is an image in which the edge of the captured image is enhanced based on the generated unsharp image. However, the edge enhancement process is a process of generating an edge enhanced image while suppressing the influence of a portion with high luminance in the captured image. The edge enhancement processing unit 220 includes a gray scale calculation unit 221, a smoothing processing unit 222, a minimum value calculation unit 223, and a difference calculation unit 224.

グレースケール算出部221は、入力された撮影画像(例えば、図6の撮影画像301)に対して、公知のグレースケール変換処理を行うことにより、色情報を含まないグレースケール画像(例えば、図6のグレースケール画像302)を生成する。グレースケール画像は、つまり、撮影画像の各画素の輝度のみを画素値として含む画像である。そして、グレースケール算出部221は、撮影画像と、検出領域情報と、生成されたグレースケール画像とを、平滑化処理部222へ出力する。   The gray scale calculation unit 221 performs a known gray scale conversion process on the input photographed image (for example, the photographed image 301 in FIG. 6), so that a gray scale image that does not include color information (for example, FIG. 6). Of the gray scale image 302). That is, the grayscale image is an image including only the luminance of each pixel of the captured image as a pixel value. Then, the gray scale calculation unit 221 outputs the captured image, the detection area information, and the generated gray scale image to the smoothing processing unit 222.

平滑化処理部222は、入力されたグレースケール画像に対して、移動平均フィルタやガウシアンフィルタ等を用いた公知の平滑化処理を行うことにより、エッジが不鮮明なアンシャープ画像(例えば、図6のアンシャープ画像303)を生成する。そして、平滑化処理部222は、グレースケール画像と、検出領域情報と、生成されたアンシャープ画像とを、最小値算出部223へ出力する。   The smoothing processing unit 222 performs a known smoothing process using a moving average filter, a Gaussian filter, or the like on the input grayscale image, so that an unsharp image (for example, FIG. An unsharp image 303) is generated. Then, the smoothing processing unit 222 outputs the grayscale image, the detection area information, and the generated unsharp image to the minimum value calculation unit 223.

なお、平滑化処理部222は、特許文献4に開示されているように、ガウシアンフィルタの平滑化の強度(平滑化強度)を異ならせて2つのアンシャープ画像を生成してもよい。そして、平滑化処理部222は、生成した2つの平滑化画像を、上記のグレースケール画像とアンシャープ画像の代わりに最小値算出部223に出力するようにしてもよい。アンシャープ画像は、グレースケール画像の細かなノイズ成分が平滑化されたものである。したがって、この場合、後述するエッジ強調処理の結果が良好になる。   Note that, as disclosed in Patent Document 4, the smoothing processing unit 222 may generate two unsharp images by changing the smoothing strength (smoothing strength) of the Gaussian filter. Then, the smoothing processing unit 222 may output the two generated smoothed images to the minimum value calculating unit 223 instead of the grayscale image and the unsharp image. An unsharp image is obtained by smoothing fine noise components of a grayscale image. Therefore, in this case, the result of edge enhancement processing described later is improved.

最小値算出部223は、入力されたグレースケール画像および入力されたアンシャープ画像を、これらの画像における輝度が高い部分の影響を抑制した状態で合成して、高輝度抑制画像(例えば、図6の高輝度抑制画像310a)を生成する。   The minimum value calculation unit 223 synthesizes the input grayscale image and the input unsharp image in a state in which the influence of the high-luminance portion in these images is suppressed, thereby generating a high-intensity suppression image (for example, FIG. To generate a high luminance suppression image 310a).

より具体的には、最小値算出部223は、グレースケール画像の各画素の輝度と、アンシャープ画像における対応する画素の輝度と、のうち、輝度が最小値となる画素の画素値を、高輝度抑制画像の対応する画素の画素値(輝度値)とする。なお、最小値算出部223は、少なくとも、入力された検出領域情報が示す検出領域の各画素に対応して、高輝度抑制画像の画素値を決定する。そして、最小値算出部223は、グレースケール画像と、アンシャープ画像と、検出領域情報と、生成された高輝度抑制画像とを、差分算出部224へ出力する。   More specifically, the minimum value calculation unit 223 increases the pixel value of the pixel having the minimum luminance among the luminance of each pixel of the grayscale image and the luminance of the corresponding pixel in the unsharp image. The pixel value (luminance value) of the corresponding pixel in the luminance-suppressed image is used. Note that the minimum value calculation unit 223 determines a pixel value of the high-intensity suppression image corresponding to at least each pixel of the detection area indicated by the input detection area information. Then, the minimum value calculation unit 223 outputs the grayscale image, the unsharp image, the detection area information, and the generated high brightness suppression image to the difference calculation unit 224.

なお、上述の2つのアンシャープ画像が入力される場合、最小値算出部223は、これらの2つのアンシャープ画像において対応する画素間で最小の輝度となる画素の画素値を、高輝度抑制画像の対応する画素の画素値とする。   When the above-described two unsharp images are input, the minimum value calculation unit 223 uses the pixel value of the pixel having the minimum luminance between the corresponding pixels in these two unsharp images as the high-luminance suppression image. Is the pixel value of the corresponding pixel.

差分算出部224は、入力された高輝度抑制画像と入力されたアンシャープ画像との間の差分を示す差分画像(例えば、図6の差分画像311a)を生成する。すなわち、差分算出部224は、高輝度抑制画像の各画素の輝度値から、アンシャープ画像における対応する画素の輝度値を差し引いた値を、差分画像における対応する画素の輝度値とする。更に、差分算出部224は、入力されたグレースケール画像と、生成された差分画像とを合成して、エッジ強調画像(例えば、図6のエッジ強調画像312a)を生成する。そして、差分算出部224は、検出領域情報と、生成されたエッジ強調画像とを、皺検出処理部230へ出力する。   The difference calculation unit 224 generates a difference image (for example, the difference image 311a in FIG. 6) indicating the difference between the input high-intensity suppression image and the input unsharp image. That is, the difference calculation unit 224 sets a value obtained by subtracting the luminance value of the corresponding pixel in the unsharp image from the luminance value of each pixel of the high luminance suppression image as the luminance value of the corresponding pixel in the difference image. Further, the difference calculation unit 224 combines the input grayscale image and the generated difference image to generate an edge enhanced image (for example, the edge enhanced image 312a in FIG. 6). Then, the difference calculation unit 224 outputs the detection area information and the generated edge enhanced image to the wrinkle detection processing unit 230.

なお、上述の2つのアンシャープ画像から高輝度抑制画像が生成される場合、差分算出部224は、高輝度抑制画像と平滑化の強度の高いアンシャープ画像との間の差分を示す差分画像を生成する。そして、差分算出部224は、入力されたグレースケール画像と、この差分画像とを合成して、エッジ強調画像を生成する。   In addition, when a high-intensity suppression image is produced | generated from the above-mentioned two unsharp image, the difference calculation part 224 shows the difference image which shows the difference between a high-intensity suppression image and an unsharp image with high smoothing intensity | strength. Generate. Then, the difference calculation unit 224 combines the input grayscale image and the difference image to generate an edge enhanced image.

また、最小値算出部223および差分算出部224は、必ずしも、高輝度抑制画像および差分画像を生成しなくてもよい。すなわち、最小値算出部223および差分算出部224は、上記した輝度が最小値となる画素の画素値と、アンシャープ画像の画素の画素値と、の間の差分を算出し、算出された差分とグレースケール画像の画素の画素値とを合成した値を算出すればよい。そして、最小値算出部223および差分算出部224は、算出された値を、基の撮影画像の画素の位置と対応付けて、皺検出処理部230へ出力すればよい。   Further, the minimum value calculation unit 223 and the difference calculation unit 224 do not necessarily have to generate the high-intensity suppression image and the difference image. That is, the minimum value calculation unit 223 and the difference calculation unit 224 calculate the difference between the pixel value of the pixel having the minimum luminance described above and the pixel value of the pixel of the unsharp image, and the calculated difference And a value obtained by combining the pixel values of the pixels of the grayscale image. Then, the minimum value calculation unit 223 and the difference calculation unit 224 may output the calculated values to the wrinkle detection processing unit 230 in association with the pixel positions of the base captured image.

皺検出処理部230は、例えば、ガボールフィルタ、ラプラシアンフィルタ、Prewittフィルタ、Sobelフィルタ等を用いた公知のエッジ検出処理により、エッジ強調画像の各部分の勾配値を算出する。そして、皺検出処理部230は、算出した勾配値を、所定の閾値と比較することにより、グレースケール画像から(つまり、撮影画像から)皺領域を検出する。ここで、勾配値とは、画像における画素値の変化の度合いを示す値であり、より強いエッジ部分においてより高くなる値である。   The wrinkle detection processing unit 230 calculates the gradient value of each part of the edge-enhanced image by a known edge detection process using, for example, a Gabor filter, a Laplacian filter, a Prewitt filter, a Sobel filter, or the like. Then, the wrinkle detection processing unit 230 detects the wrinkle region from the grayscale image (that is, from the captured image) by comparing the calculated gradient value with a predetermined threshold value. Here, the gradient value is a value indicating the degree of change of the pixel value in the image, and is a value that is higher at a stronger edge portion.

すなわち、皺検出処理部230は、公知のエッジ検出処理を行う。画素値の変化の度合いが高いほど勾配値が高くなる場合、勾配値が閾値以上となる領域が、皺領域として検出される。なお、皺検出処理部230は、少なくとも、入力された検出領域情報が示す検出領域について、皺領域の検出を行う。   That is, the wrinkle detection processing unit 230 performs a known edge detection process. When the gradient value increases as the degree of change in the pixel value increases, a region where the gradient value is equal to or greater than the threshold value is detected as a heel region. Note that the wrinkle detection processing unit 230 detects a wrinkle region at least for the detection region indicated by the input detection region information.

なお、所定の閾値は、固定値でもよいし、検出される皺領域の量やユーザ指定の値に応じて変化する値であってもよい。そして、皺検出処理部230は、検出した皺領域を示す皺領域情報を、画像生成部150(図2参照)へ出力する。   Note that the predetermined threshold value may be a fixed value or a value that changes according to the amount of wrinkle area detected or a value specified by the user. Then, wrinkle detection processing section 230 outputs wrinkle area information indicating the detected wrinkle area to image generation section 150 (see FIG. 2).

シミ検出部240は、入力された撮影画像から、撮影画像に含まれる肌のシミ領域を検出する。例えば、シミ検出部240は、撮影画像のうち、少なくとも、入力された領域位置情報が示す各領域に対して、RGBの各チャネルの信号を用いて、値が閾値以下である画素を抽出する処理を行うことにより、かかるシミ領域検出を行う。そして、シミ検出部240は、検出されたシミ領域を示すシミ領域情報を、画像生成部150へ出力する。   The spot detection unit 240 detects a skin spot area included in the shot image from the input shot image. For example, the spot detection unit 240 extracts a pixel having a value equal to or less than a threshold value using at least RGB signals for each region indicated by the input region position information from the captured image. Thus, the spot area detection is performed. Then, the spot detection unit 240 outputs the spot area information indicating the detected spot area to the image generation unit 150.

図2の画像生成部150は、入力された皺領域情報に基づいて、撮影画像における皺領域を示す皺画像を生成し、生成された皺画像を撮影画像に重畳した皺強調画像(例えば、図6の皺強調画像313a)を生成する。皺画像は、例えば、皺領域を所定の色で塗り潰した、皺の線の位置を示す画像である。そして、画像生成部150は、生成された皺強調画像を、表示部160へ出力する。   The image generation unit 150 in FIG. 2 generates a wrinkle image indicating a wrinkle region in the captured image based on the input wrinkle region information, and a wrinkle-enhanced image obtained by superimposing the generated wrinkle image on the captured image (for example, FIG. 6 皺 emphasized image 313a) is generated. The wrinkle image is, for example, an image showing the position of a wrinkle line in which the wrinkle region is filled with a predetermined color. Then, the image generation unit 150 outputs the generated wrinkle enhanced image to the display unit 160.

なお、画像生成部150は、皺領域情報が示す複数の皺領域の一部のみを、皺画像の生成の対象としてもよい。例えば、画像生成部150は、連続する領域の面積が大きいものから順に、皺領域情報が示す全皺領域の面積の10%の範囲内に入る皺領域のみを、皺画像の生成の対象としてもよい。また、皺強調画像は、画像生成部150あるいは後段の表示部160において、左右方向に反転されてもよい。また、画像生成部150は、シミ領域情報に基づいて、撮影画像におけるシミ領域を示すシミ画像を生成し、生成された皺画像を皺強調画像に含めてもよい。   Note that the image generation unit 150 may use only a part of the plurality of eyelid areas indicated by the eyelid area information as targets for generating the eyelid images. For example, the image generation unit 150 may generate only the eyelid regions that fall within the range of 10% of the area of all the eyelid regions indicated by the eyelid region information in descending order of the area of the continuous regions. Good. Further, the wrinkle-enhanced image may be reversed in the left-right direction in the image generation unit 150 or the display unit 160 at the subsequent stage. Further, the image generation unit 150 may generate a spot image indicating a spot area in the captured image based on the spot area information, and include the generated haze image in the haze-enhanced image.

表示部160は、例えばタッチパネル付き液晶ディスプレイを含み、入力された皺強調画像を表示する。   The display unit 160 includes, for example, a liquid crystal display with a touch panel, and displays the input wrinkle emphasized image.

また、皺検出装置100は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、およびRAM等の作業用メモリを有する。この場合、皺検出装置100の上記各部の機能は、CPUが制御プログラムを実行することにより実現される。   Although not shown, the wrinkle detection device 100 includes, for example, a CPU, a storage medium such as a ROM storing a control program, and a working memory such as a RAM. In this case, the function of each part of the eyelid detection device 100 is realized by the CPU executing the control program.

このような構成を有する皺検出装置100は、輝度が高い部分の影響を抑制してエッジ強調画像を生成し、かかるエッジ強調画像を用いて皺検出を行うことができる。   The wrinkle detection apparatus 100 having such a configuration can generate an edge-enhanced image while suppressing the influence of a portion with high luminance, and can perform wrinkle detection using the edge-enhanced image.

<皺検出装置の動作>
次に、皺検出装置100の動作について説明する。
<Operation of soot detection device>
Next, the operation of wrinkle detection device 100 will be described.

図4は、皺検出装置100の動作の一例を示すフローチャートである。   FIG. 4 is a flowchart illustrating an example of the operation of the eyelid detection apparatus 100.

ステップS1100において、画像取得部120は、撮影部110を用いて、ユーザの顔の撮影画像を取得する。   In step S <b> 1100, the image acquisition unit 120 uses the imaging unit 110 to acquire a captured image of the user's face.

ステップS1200において、顔部品取得部130は、撮影画像から、各顔部品の位置を検出する。   In step S1200, the facial part acquisition unit 130 detects the position of each facial part from the captured image.

ステップS1300において、検出領域決定部210は、顔部品の位置に基づいて、検出領域を決定する。検出領域は、上述の通り、例えば、左目の下瞼から左頬までの領域と、右目の下瞼から右頬までの領域である。   In step S1300, the detection area determination unit 210 determines a detection area based on the position of the face part. As described above, the detection areas are, for example, the area from the lower eyelid to the left cheek and the area from the lower eyelid to the right cheek of the right eye.

ステップS1400において、グレースケール算出部221は、撮影画像からグレースケール画像を生成する。   In step S1400, the grayscale calculation unit 221 generates a grayscale image from the captured image.

ステップS1500において、平滑化処理部222は、グレースケール画像からアンシャープ画像(平滑化画像)を生成する。   In step S1500, the smoothing processing unit 222 generates an unsharp image (smoothed image) from the grayscale image.

なお、平滑化処理部222は、上述の2つのアンシャープ画像を生成してもよい。   Note that the smoothing processing unit 222 may generate the two unsharp images described above.

ステップS1600において、最小値算出部223は、グレースケール画像の画素の輝度と、アンシャープ画像の対応する画素の輝度とから、最小値を選択して、高輝度抑制画像を生成する。   In step S1600, the minimum value calculation unit 223 selects a minimum value from the luminance of the pixel of the grayscale image and the luminance of the corresponding pixel of the unsharp image, and generates a high luminance suppression image.

なお、ステップ1500において2つのアンシャープ画像が生成された場合、最小値算出部223は、2つのアンシャープ画像の対応する画素の輝度のうち、最小の値を選択して高輝度抑制画像の対応する画素の輝度値とする。   When two unsharp images are generated in step 1500, the minimum value calculation unit 223 selects a minimum value from the luminances of the corresponding pixels of the two unsharp images and handles the high-intensity suppressed image. It is set as the luminance value of the pixel.

ステップS1700において、差分算出部224は、高輝度抑制画像とグレースケール画像との差分画像を生成し、更に差分画像とグレースケール画像とを合成して、エッジ強調画像を生成する。   In step S1700, the difference calculation unit 224 generates a difference image between the high luminance suppression image and the grayscale image, and further synthesizes the difference image and the grayscale image to generate an edge enhanced image.

なお、ステップ1500において2つのアンシャープ画像が生成された場合、差分算出部224は高輝度抑制画像と、2つのアンシャープ画像のうち平滑化の強度の高い方のアンシャープ画像との間で差分画像を生成し、この差分画像とグレースケール画像とを合成して、エッジ強調画像を生成する。   When two unsharp images are generated in step 1500, the difference calculation unit 224 calculates a difference between the high-intensity suppressed image and the unsharp image having the higher smoothing strength of the two unsharp images. An image is generated, and the difference image and the grayscale image are combined to generate an edge enhanced image.

ステップS1800において、皺検出処理部230は、エッジ強調画像に対するエッジ検出処理、および、各部分の勾配値の閾値との比較により、基の撮影画像における皺領域を判定する。また、シミ検出部240は、シミ領域を検出する。   In step S1800, the wrinkle detection processing unit 230 determines a wrinkle region in the base captured image by performing edge detection processing on the edge-enhanced image and comparing the gradient value of each part with a threshold value. Further, the spot detection unit 240 detects a spot area.

そして、ステップS1900において、画像生成部150は、皺強調画像を生成し、表示部160を用いて、皺強調画像を表示する。   In step S <b> 1900, the image generation unit 150 generates a wrinkle-weighted image and displays the wrinkle-weighted image using the display unit 160.

以上のような動作により、皺検出装置100は、グレースケール画像における輝度が高い部分の影響を抑制して、エッジ強調画像を生成し、かかるエッジ強調画像を用いて皺領域を検出し、検出結果をユーザに提示することができる。   By the operation as described above, the eyelid detection apparatus 100 suppresses the influence of the high-luminance portion in the grayscale image, generates an edge enhanced image, detects the eyelid region using the edge enhanced image, and detects the detection result. Can be presented to the user.

<従来のアンシャープマスキングとの比較>
ここで、本実施の形態に係る皺検出装置100による皺検出と、従来のアンシャープマスキングによる皺検出との差異を、実験結果を参照して説明する。
<Comparison with conventional unsharp masking>
Here, a difference between wrinkle detection by wrinkle detection apparatus 100 according to the present embodiment and wrinkle detection by conventional unsharp masking will be described with reference to experimental results.

図5は、実験における、従来のアンシャープマスキングによる皺検出の様子を示す図である。また、図6は、実験における、皺検出装置100による皺検出の様子を示す図である。   FIG. 5 is a diagram showing a state of wrinkle detection by conventional unsharp masking in an experiment. Moreover, FIG. 6 is a figure which shows the mode of the wrinkle detection by the wrinkle detection apparatus 100 in experiment.

また、図5および図6に示すように、従来のアンシャープマスキングおよび皺検出装置100のいずれにおいても、撮影画像301から、グレースケール画像302およびアンシャープ画像303が生成される。   Further, as shown in FIGS. 5 and 6, in any of the conventional unsharp masking and wrinkle detection apparatuses 100, a grayscale image 302 and an unsharp image 303 are generated from the captured image 301.

従来のアンシャープマスキングでは、グレースケール画像302とアンシャープ画像303との間の輝度の差分を表す差分画像311が、生成される。差分画像311の各部の画素値Dは、グレースケール画像302の輝度値を記号B、アンシャープ画像303の輝度値を記号Cで表すと、例えば、以下の式(1)で表される。
D = B−C ・・・(1)
In the conventional unsharp masking, a difference image 311 representing a luminance difference between the grayscale image 302 and the unsharp image 303 is generated. The pixel value D of each part of the difference image 311 is expressed by, for example, the following formula (1) when the luminance value of the grayscale image 302 is represented by the symbol B and the luminance value of the unsharp image 303 is represented by the symbol C.
D = B−C (1)

そして、従来のアンシャープマスキングでは、グレースケール画像302と差分画像311とが合成されて、エッジ強調画像312が生成される。エッジ強調画像312の各部の輝度値Eは、例えば、以下の式(2)で表される。ここで、kは、合成の際の重み付けに相当する係数である。
E = B+kD ・・・(2)
In the conventional unsharp masking, the grayscale image 302 and the difference image 311 are combined to generate an edge enhanced image 312. The luminance value E of each part of the edge enhanced image 312 is expressed by, for example, the following formula (2). Here, k is a coefficient corresponding to weighting at the time of synthesis.
E = B + kD (2)

従来のアンシャープマスキングにおける差分画像311は、グレースケール画像302の輝度の影響をそのまま受ける。例えば、差分画像311のうち、グレースケール画像302で肌の光沢に起因するコントラストが生じていた領域に対応する領域321は、高い値(図中、白色で示す)となる。   The difference image 311 in the conventional unsharp masking is directly affected by the luminance of the grayscale image 302. For example, in the difference image 311, a region 321 corresponding to a region in the grayscale image 302 where contrast due to skin gloss has occurred has a high value (shown in white in the drawing).

その結果、エッジ強調画像312には、肌の光沢に起因する強いエッジが残ることになり、これらに起因する誤検出を防ぐためには、勾配値の閾値を高く設定する必要がある。しかしながら、この場合、検出漏れが生じ易くなり、皺強調画像313において表示される皺領域322の量は少なくなる。   As a result, strong edges due to skin gloss remain in the edge-enhanced image 312, and in order to prevent erroneous detection due to these, it is necessary to set a high gradient value threshold. However, in this case, detection omission is likely to occur, and the amount of the eyelid region 322 displayed in the eyelid enhancement image 313 is reduced.

一方、本実施の形態に係る皺検出装置100では、グレースケール画像302の輝度と、アンシャープ画像303の輝度と間の最小値を、高輝度抑制画像310aの画素値として算出する。高輝度抑制画像310aの各部の画素値Xaは、例えば、以下の式(3)で表される。
Xa = min{B,C} ・・・(3)
On the other hand, wrinkle detection apparatus 100 according to the present embodiment calculates the minimum value between the luminance of grayscale image 302 and the luminance of unsharp image 303 as the pixel value of high-luminance suppression image 310a. The pixel value Xa of each part of the high luminance suppression image 310a is expressed by, for example, the following formula (3).
Xa = min {B, C} (3)

高輝度の部分と低輝度の部分とが細かく入り混じった領域(以下「コントラスト領域」という)における高輝度の部分は、平滑化により、より低い輝度に変換される。したがって、このような高輝度の部分については、アンシャープ画像303の画素値が用いられる。一方、コントラスト領域における低輝度の部分は、平滑化により、より高い輝度に変換される。したがって、このような低輝度の部分については、グレースケール画像302の画素値が用いられる。   A high-luminance portion in a region where the high-luminance portion and the low-luminance portion are finely mixed (hereinafter referred to as “contrast region”) is converted into lower luminance by smoothing. Therefore, the pixel value of the unsharp image 303 is used for such a high brightness portion. On the other hand, the low luminance portion in the contrast region is converted to higher luminance by smoothing. Therefore, the pixel value of the gray scale image 302 is used for such a low-luminance portion.

そして、皺検出装置100では、高輝度抑制画像310aとアンシャープ画像303との間の輝度の差分を表す差分画像311aが、生成される。差分画像311aの各部の画素値Daは、例えば、以下の式(4)で表される。
Da = Xa−C ・・・(4)
Then, in wrinkle detection apparatus 100, a difference image 311a that represents a difference in luminance between high-luminance suppression image 310a and unsharp image 303 is generated. The pixel value Da of each part of the difference image 311a is expressed by, for example, the following formula (4).
Da = Xa-C (4)

上述の通り、高輝度抑制画像310aでは、高輝度の部分にアンシャープ画像303の画素値が用いられ、低輝度の部分にグレースケール画像302の画素値が用いられる。したがって、差分画像311aの各画素の画素値は、高輝度の部分においてゼロとなり、低輝度の部分においてグレースケール画像302とアンシャープ画像303との差分となる。つまり、本実施の形態の差分画像311aの各画素の画素値は、低輝度の部分については、従来の差分画像311と同様となり、高輝度の部分については、エッジが全くない場合と同様となる。   As described above, in the high luminance suppression image 310a, the pixel value of the unsharp image 303 is used for the high luminance portion, and the pixel value of the gray scale image 302 is used for the low luminance portion. Therefore, the pixel value of each pixel of the difference image 311a is zero in the high luminance portion, and is the difference between the grayscale image 302 and the unsharp image 303 in the low luminance portion. That is, the pixel value of each pixel of the difference image 311a of the present embodiment is the same as that of the conventional difference image 311 in the low luminance part, and the same as that in the case of no edge at all in the high luminance part. .

したがって、例えば、差分画像311aのうち、グレースケール画像302で肌の光沢に起因するコントラストが生じていた領域に対応する領域321aの画素値は、従来の差分画像311(図5参照)に比べて、より低い値(図中、白色で示す)となる。   Therefore, for example, in the difference image 311a, the pixel value of the region 321a corresponding to the region in which the contrast due to the gloss of the skin has occurred in the grayscale image 302 is larger than that of the conventional difference image 311 (see FIG. 5). , A lower value (shown in white in the figure).

そして、皺検出装置100では、グレースケール画像302と差分画像311aとが合成されて、エッジ強調画像312aが生成される。エッジ強調画像312aの各部の輝度値Eaは、例えば、以下の式(5)で表される。
Ea = B+kDa ・・・(5)
In the wrinkle detection device 100, the grayscale image 302 and the difference image 311a are combined to generate an edge enhanced image 312a. The luminance value Ea of each part of the edge enhanced image 312a is expressed by, for example, the following formula (5).
Ea = B + kDa (5)

なお、図6に示すエッジ強調画像312aでは、図5に示す従来のエッジ強調画像312に比べて、グレースケール画像302における皺に相当する低輝度の部分が、より強調されている。これは、差分画像311aに対して、値が大きい方から上位10%程度の画素に対して、値の強調を行ったためである。この処理は、例えば、差分算出部224において行われる。   Note that, in the edge enhanced image 312a shown in FIG. 6, the low-luminance portion corresponding to the wrinkles in the grayscale image 302 is more emphasized than in the conventional edge enhanced image 312 shown in FIG. This is because the value of the difference image 311a is emphasized with respect to about 10% of pixels from the largest value. This process is performed in the difference calculation unit 224, for example.

図5に示す従来のエッジ強調画像312では、差分画像311において、グレースケール画像302で肌の光沢に起因するコントラストが生じていた領域に対応する画素値が大きいため、光沢部分のコントラストが強調されてしまっている。これに対し、上記処理が行われたエッジ強調画像312aでは、差分画像311aのうち、グレースケール画像302で皺に相当する低輝度の画素が主に強調され、皺領域のコントラストが強調されることになる。   In the conventional edge-enhanced image 312 shown in FIG. 5, the difference image 311 has a large pixel value corresponding to a region where the contrast due to the gloss of the skin has occurred in the grayscale image 302, so the contrast of the glossy part is enhanced. It has been. On the other hand, in the edge-enhanced image 312a that has been subjected to the above processing, the low-luminance pixels corresponding to the eyelids in the grayscale image 302 are mainly emphasized in the difference image 311a, and the contrast of the eyelid region is enhanced. become.

その結果、エッジ強調画像312には、肌の光沢に起因する強いエッジがほとんど含まれなくなり、勾配値の閾値を高く設定する必要がなくなる。したがって、皺強調画像313aにおいて表示される皺領域322aの量は、従来のアンシャープマスキングによる皺強調画像313において表示される皺領域322(図5参照)に比べて多くなる。   As a result, the edge-enhanced image 312 hardly contains strong edges due to skin gloss, and it is not necessary to set a high gradient value threshold. Accordingly, the amount of the haze area 322a displayed in the haze-enhanced image 313a is larger than that of the haze area 322 (see FIG. 5) displayed in the haze-enhanced image 313 by the conventional unsharp masking.

このように、本実施の形態に係る皺検出装置100が、従来のアンシャープマスキングに比べて、光沢に起因する誤検出を防ぎつつ、検出漏れを低減するものであることが、かかる実験によっても確認することができた。   As described above, it is also confirmed that the wrinkle detection apparatus 100 according to the present embodiment reduces detection omissions while preventing erroneous detection due to gloss compared with conventional unsharp masking. I was able to confirm.

<本実施の形態の効果>
以上説明したように、本実施の形態に係る皺検出装置100は、輝度が高い部分の影響を抑制することにより、光沢に起因して生じるコントラストを低減したエッジ強調画像を生成することができる。
<Effects of the present embodiment>
As described above, wrinkle detection apparatus 100 according to the present embodiment can generate an edge-enhanced image with reduced contrast caused by gloss by suppressing the influence of a portion with high luminance.

これにより、皺検出装置100は、エッジ強調画像における、光沢に起因して生じるコントラストを、皺に起因して生じるコントラストに対して相対的に強めることができる。したがって、皺検出装置100は、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができる。すなわち、人が肉眼で肌の皺の有無を認識するときと同様の基準で、皺を検出することが可能となる。   Thereby, the wrinkle detection apparatus 100 can strengthen the contrast generated due to the gloss in the edge-enhanced image relative to the contrast generated due to the wrinkle. Therefore, wrinkle detection apparatus 100 can perform wrinkle detection with high accuracy even when the skin is glossy. That is, it becomes possible to detect wrinkles on the same basis as when a person recognizes the presence or absence of skin wrinkles with the naked eye.

また、本実施の形態に係る皺検出装置100は、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができるので、例えば、フラッシュを焚いて撮影した画像からであっても、高精度な皺検出を行うことができる。   In addition, wrinkle detection apparatus 100 according to the present embodiment can perform high-precision wrinkle detection even when the skin is glossy. Even if it exists, highly accurate wrinkle detection can be performed.

<高輝度部分の影響を抑制する他の手法>
なお、画像における輝度が高い部分の影響を抑制して、エッジ強調画像を生成する手法は、上述の例に限定されない。
<Other methods to suppress the influence of high-intensity parts>
Note that the method of generating the edge-enhanced image while suppressing the influence of the high-luminance portion in the image is not limited to the above example.

例えば、平滑化処理部222は、グレースケール画像のうち、肌の光沢がより強い画像領域に対して、より低い強度で平滑化(正規化)を行って、アンシャープ画像を生成してもよい。   For example, the smoothing processing unit 222 may generate an unsharp image by performing smoothing (normalization) at a lower intensity on an image region having a higher skin gloss in the grayscale image. .

この場合、差分算出部224は、このアンシャープ画像を用いて、従来のアンシャープマスキングと同様の処理をしてもよい。すなわち、差分算出部224は、グレースケール画像の画素の画素値とアンシャープ画像の対応する画素の画素値との間の差分と、グレースケール画像の画素の画素値とを合成した値を、エッジ強調画像の対応する画素の画素値とする。   In this case, the difference calculation unit 224 may perform the same process as the conventional unsharp masking using the unsharp image. That is, the difference calculation unit 224 combines the difference between the pixel value of the pixel of the grayscale image and the pixel value of the corresponding pixel of the unsharp image and the pixel value of the pixel of the grayscale image as an edge. The pixel value of the corresponding pixel of the enhanced image is used.

より低い強度で平滑化を行った部分では、例えば、グレースケール画像とアンシャープ画像との輝度の差分がより小さくなる。したがって、上述の処理により、輝度の高い領域では、エッジを弱めることができ、誤って皺として検出される危険を低くすることができる。したがって、このような構成によっても、光沢の影響を抑制して高精度な皺検出を行うことができる。なお、この場合、皺検出装置100は、最小値算出部223を備える必要がない。   For example, the difference in luminance between the grayscale image and the unsharp image becomes smaller at the portion smoothed at a lower intensity. Therefore, by the above-described processing, the edge can be weakened in the high luminance region, and the risk of being erroneously detected as a wrinkle can be reduced. Therefore, even with such a configuration, it is possible to detect wrinkles with high accuracy while suppressing the influence of gloss. In this case, wrinkle detection device 100 does not need to include minimum value calculation unit 223.

なお、上述の2つのアンシャープ画像が生成される場合、平滑化処理部222は、平滑化の強度の低いアンシャープ画像のうち、肌の光沢がより強い画像領域に対して、より低い強度で平滑化(正規化)を行って当該アンシャープ画像を生成してもよい。そして、差分算出部224は、これら2つのアンシャープ画像の対応する画素の画素値との差分と、グレースケール画像の画素の画素値とを合成した値を、エッジ強調画像の対応する画素の画素値としてもよい。   When the two unsharp images described above are generated, the smoothing processing unit 222 reduces the intensity of an unsharp image having a low smoothing strength to an image region having a higher skin gloss. The unsharp image may be generated by performing smoothing (normalization). Then, the difference calculation unit 224 combines the difference between the pixel values of the corresponding pixels of the two unsharp images and the pixel value of the pixels of the grayscale image, and the pixel of the corresponding pixel of the edge enhanced image. It may be a value.

また、上述のように平滑化の強度を適応的に変化させる場合、皺検出装置100は、肌における光沢の強さの分布(以下「光沢分布」という)に関する情報を取得する、光沢情報取得部を備える必要がある。但し、光沢分布に関する情報の内容、かかる情報の取得の仕方、およびかかる情報からの光沢分布の取得の仕方としては、様々なものが挙げられる。   Further, when the smoothing intensity is adaptively changed as described above, the wrinkle detection apparatus 100 acquires information on the gloss intensity distribution (hereinafter referred to as “gloss distribution”) on the skin. It is necessary to have. However, there are various types of information regarding the gloss distribution, how to obtain such information, and how to obtain the gloss distribution from such information.

光沢分布を示す情報としては、例えば、顔部品の位置、肌の3次元形状、肌に対する光源の位置、ユーザにより指定された領域、画像と肌の直交偏光画像との差分、肌の油分量の分布、および前記肌の水分量の分布が挙げられる。   The information indicating the gloss distribution includes, for example, the position of the face part, the three-dimensional shape of the skin, the position of the light source with respect to the skin, the region specified by the user, the difference between the image and the orthogonal polarization image of the skin, and the oil amount of the skin Distribution and distribution of the moisture content of the skin.

例えば、顔の肌を照らす光源は、通常、顔の上方に位置する。このため、頬や額等の凸となっている顔部分は、他の顔部分に比べて、光沢が強くなり易い。   For example, the light source that illuminates the skin of the face is usually located above the face. For this reason, the convex face portions such as the cheeks and the forehead tend to be more glossy than the other face portions.

そこで、エッジ強調処理部220は、例えば、顔部品の位置に基づいて、このような凸となっている顔領域を、肌の光沢がより強い画像領域として決定する。この場合、エッジ強調処理部220は、顔の複数の特徴点と、凸となっている顔領域との位置関係を定義した領域テーブルを、予め格納し、かかる領域テーブルを参照して、肌の光沢がより強い画像領域を推定する。   Therefore, the edge enhancement processing unit 220 determines such a convex face area as an image area with stronger skin gloss, for example, based on the position of the face part. In this case, the edge enhancement processing unit 220 stores in advance an area table that defines the positional relationship between a plurality of feature points of the face and the convex face area, and refers to the area table to Estimate an image area with higher gloss.

また、皺検出装置100が、撮影画像から肌の3次元形状を取得する3次元形状取得部を有している場合、エッジ強調処理部220は、取得された3次元形状に基づいて光沢分布を推定してもよい。あるいは、エッジ強調処理部220は、一般的な顔の3次元形状モデルを予め格納し、かかるモデルに基づいて光沢分布を推定してもよい。例えば、エッジ強調処理部220は、鼻先や頬等の凸形状の部分については、光沢の強さのレベルが他の部分よりも高いと推定する。   In addition, when the wrinkle detection device 100 includes a three-dimensional shape acquisition unit that acquires a three-dimensional shape of skin from a captured image, the edge enhancement processing unit 220 generates a gloss distribution based on the acquired three-dimensional shape. It may be estimated. Alternatively, the edge enhancement processing unit 220 may store a general three-dimensional model of a face in advance and estimate the gloss distribution based on the model. For example, the edge emphasis processing unit 220 estimates that the level of glossiness is higher than that of other portions for convex portions such as nose tips and cheeks.

また、皺検出装置100が、肌に対する光源の位置を示す光源情報を取得する光源情報取得部を有している場合、検出領域決定部210は、取得された光源情報に基づいて光沢分布を推定してもよい。例えば、検出領域決定部210は、光源が顔の上側にある場合、額や頬の上部等の、肌面が上に向いている部分については、光沢の強さのレベルが他の部分よりも高いと推定する。   In addition, when the wrinkle detection device 100 includes a light source information acquisition unit that acquires light source information indicating the position of the light source with respect to the skin, the detection region determination unit 210 estimates the gloss distribution based on the acquired light source information. May be. For example, when the light source is on the upper side of the face, the detection area determination unit 210 has a gloss intensity level higher than that of the other parts such as the forehead and the upper part of the cheek where the skin surface faces upward. Estimated high.

また、肌を通常の光で照らした状態で撮影したときの通常画像と、肌を偏光で照らした状態で、直交偏光フィルタを用いて撮影したときの画像(直交偏光画像)との差分は、光沢が強い部分ほど大きくなる。   In addition, the difference between the normal image when the skin is illuminated with normal light and the image when the skin is illuminated with polarized light and using an orthogonal polarization filter (orthogonal polarization image) is The higher the gloss, the larger the area.

そこで、光沢情報取得部は、例えば、通常画像と直交偏光画像との両方を取得する照明装置および撮影装置を備え、取得した通常画像と直交偏光画像との差分を算出してもよい。この場合、エッジ強調処理部220は、算出された差分がより大きい部分を、肌の光沢がより強い画像領域として決定する。   Therefore, the gloss information acquisition unit may include, for example, an illumination device and a photographing device that acquire both the normal image and the orthogonal polarization image, and may calculate the difference between the acquired normal image and the orthogonal polarization image. In this case, the edge enhancement processing unit 220 determines a portion where the calculated difference is larger as an image region having a stronger skin gloss.

また、例えば、肌の油分量や水分量がより高い部分では、肌の光沢が強くなり易い。また、通常、額や鼻は、肌の油分量や水分量が他の部分に比べて高い。   In addition, for example, in a portion where the amount of oil and moisture of the skin is higher, the gloss of the skin tends to be strong. Also, usually the forehead and nose have higher skin oil and moisture content than other parts.

そこで、エッジ強調処理部220は、例えば、顔部品の位置に基づいて、このような肌の油分量や水分量が高い顔領域を、肌の光沢がより強い画像領域として決定する。この場合、エッジ強調処理部220は、顔の複数の特徴点と、肌の油分量や水分量が高い顔領域との位置関係を定義した領域テーブルを、予め格納し、かかる領域テーブルを参照して、肌の光沢がより強い画像領域を推定する。   Therefore, the edge enhancement processing unit 220 determines, for example, such a face region having a high skin oil amount or moisture amount as an image region having a higher skin gloss, based on the position of the face part. In this case, the edge enhancement processing unit 220 stores in advance an area table that defines the positional relationship between a plurality of facial feature points and a facial area with a high amount of skin oil or moisture, and refers to the area table. Thus, an image area having a stronger skin gloss is estimated.

また、検出領域決定部210は、撮影画像をタッチパネル付きディスプレイに表示し、ユーザから、肌の光沢がより強い部分を指定する操作を受け付けてもよい。   Further, the detection area determination unit 210 may display a captured image on a display with a touch panel, and accept an operation for designating a portion having a higher skin gloss from the user.

また、上記皺検出装置において、エッジ強調処理部220は、撮影画像、アンシャープ画像、グレースケール画像、および差分画像、のうち少なくとも1つに対して、輝度値が所定の閾値を超える画素の輝度値を閾値の値に修正する処理を行ってもよい。   Further, in the wrinkle detection device, the edge enhancement processing unit 220 has a luminance value of a pixel whose luminance value exceeds a predetermined threshold for at least one of a captured image, an unsharp image, a grayscale image, and a difference image. You may perform the process which corrects a value to the value of a threshold value.

この場合、差分算出部224は、従来のアンシャープマスキングと同様の処理をする。すなわち、差分算出部224は、グレースケール画像の画素の画素値とアンシャープ画像の対応する画素の画素値との間の差分と、グレースケール画像の画素の画素値とを合成した値を、エッジ強調画像の対応する画素の画素値とする。あるいは、上述の2つのアンシャープ画像が生成される場合、差分算出部224は、これら2つのアンシャープ画像の対応する画素の画素値の差分と、グレースケール画像の画素の画素値とを合成した値を、エッジ強調画像の対応する画素の画素値とする。   In this case, the difference calculation unit 224 performs the same processing as conventional unsharp masking. That is, the difference calculation unit 224 combines the difference between the pixel value of the pixel of the grayscale image and the pixel value of the corresponding pixel of the unsharp image and the pixel value of the pixel of the grayscale image as an edge. The pixel value of the corresponding pixel of the enhanced image is used. Alternatively, when the two unsharp images described above are generated, the difference calculation unit 224 combines the pixel value difference between the corresponding pixels of the two unsharp images and the pixel value of the pixel of the grayscale image. The value is the pixel value of the corresponding pixel of the edge enhanced image.

撮影画像、アンシャープ画像、グレースケール画像、あるいは差分画像の輝度値を修正する上記処理は、言い換えると、輝度が高い領域について、エッジ強調画像に影響する値に対するクリッピングを行う処理である。したがって、このような構成によっても、光沢の影響を抑制して高精度な皺検出を行うことができる。なお、この場合、皺検出装置100は、最小値算出部223を備える必要がない。   In other words, the above-described processing for correcting the brightness value of the captured image, the unsharp image, the grayscale image, or the difference image is processing for clipping a value that affects the edge-enhanced image in a high brightness region. Therefore, even with such a configuration, it is possible to detect wrinkles with high accuracy while suppressing the influence of gloss. In this case, wrinkle detection device 100 does not need to include minimum value calculation unit 223.

<本実施の形態の他の変形例>
また、皺検出装置100は、光沢が強い領域を検出するために、上述のエッジ強調処理において、画像における輝度が低い部分の影響を抑制して、エッジ強調画像を生成してもよい。
<Other modifications of the present embodiment>
In addition, the eyelid detection device 100 may generate an edge-enhanced image by suppressing the influence of a low-luminance portion in the image in the above-described edge enhancement process in order to detect a region with a high gloss.

この場合、エッジ強調処理部220は、グレースケール画像の画素およびアンシャープ画像の対応する画素のうち輝度が最大値となる画素の画素値と、アンシャープ画像の画素の画素値と、の間の差分を算出する。そして、エッジ強調処理部220は、算出された差分とグレースケール画像の画素の画素値とを合成した値を、エッジ強調画像の対応する画素の画素値とする。   In this case, the edge enhancement processing unit 220 is between the pixel value of the pixel having the maximum luminance among the pixels of the grayscale image and the corresponding pixel of the unsharp image and the pixel value of the pixel of the unsharp image. Calculate the difference. Then, the edge enhancement processing unit 220 sets a value obtained by combining the calculated difference and the pixel value of the pixel of the grayscale image as the pixel value of the corresponding pixel of the edge enhanced image.

この場合、エッジ強調画像の各部の画素値Yaは、例えば、以下の式(6)で表される。
Ya = max{B,C} ・・・(6)
In this case, the pixel value Ya of each part of the edge enhanced image is expressed by, for example, the following formula (6).
Ya = max {B, C} (6)

また、以上説明した実施の形態では、検出対象を肌の皺としたが、検出対象は、壁の傷、金属材料の表面のクラック、布の皺等、線状の溝の形状を有する他の状態であってもよい。   Further, in the embodiment described above, the detection target is a skin wrinkle, but the detection target may be other scratches such as wall scratches, metal material surface cracks, cloth wrinkles, and the like having a linear groove shape. It may be in a state.

<本開示のまとめ>
本開示の皺検出装置は、画像に含まれる肌の皺領域を検出する皺検出装置であって、前記画像を取得する画像取得部と、取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うエッジ強調処理部と、生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出する皺検出処理部と、を有し、前記エッジ強調処理は、前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である。
<Summary of this disclosure>
The wrinkle detection device of the present disclosure is a wrinkle detection device that detects a wrinkle region of skin included in an image, and generates an unsharp image by smoothing the acquired image and an image acquisition unit that acquires the image An edge enhancement processing unit that performs an edge enhancement process for generating an edge enhanced image that is an image in which an edge of the image is enhanced based on the generated unsharp image, and the generated edge enhanced image An edge detection processing unit that detects the eyelid region by performing edge detection processing, and the edge enhancement processing suppresses the influence of a portion with high luminance in the image, and It is a process to generate.

なお、上記皺検出装置において、前記エッジ強調処理は、前記画像の画素および前記アンシャープ画像の対応する画素のうち輝度が最小値となる画素の画素値と、前記アンシャープ画像の前記画素の画素値と、の間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含んでもよい。   In the wrinkle detection device, the edge enhancement processing includes the pixel value of the pixel having the minimum luminance among the pixels of the image and the corresponding pixel of the unsharp image, and the pixel of the pixel of the unsharp image. And a process of calculating a difference between the value and a value obtained by combining the calculated difference and the pixel value of the pixel of the image as a pixel value of a corresponding pixel of the edge enhanced image. .

また、上記皺検出装置において、前記エッジ強調処理は、前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像の対応する画素のうち輝度が最小値となる画素の画素値と、前記2つのアンシャープ画像のうち前記平滑化強度が高い方の前記アンシャープ画像の対応する画素の画素値と、の間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含んでもよい。   In the wrinkle detection apparatus, the edge enhancement processing generates two unsharp images obtained by smoothing the image with different smoothing intensities, and the luminance is minimized among the corresponding pixels of the two unsharp images. A difference between a pixel value of a pixel to be a value and a pixel value of a corresponding pixel of the unsharp image having the higher smoothing intensity among the two unsharp images, and the calculated You may include the process which makes the value which synthesize | combined the difference and the pixel value of the said pixel of the said image the pixel value of the corresponding pixel of the said edge emphasis image.

また、上記皺検出装置において、前記エッジ強調処理は、前記画像のうち、前記肌の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、前記画像の画素の画素値と前記アンシャープ画像の対応する画素の画素値との間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含んでもよい。   Further, in the wrinkle detection device, the edge enhancement process performs smoothing at a lower intensity on an image region having a higher skin gloss in the image, and the pixel value of the pixel of the image and the image The difference between the pixel value of the corresponding pixel of the unsharp image is calculated, and the value obtained by combining the calculated difference and the pixel value of the pixel of the image is the pixel of the corresponding pixel of the edge enhanced image. It may include processing to be a value.

また、上記皺検出装置において、前記エッジ強調処理は、前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像のうち平滑化強度の低いアンシャープ画像の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、前記2つのアンシャープ画像の対応する画素の画素値との間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含んでもよい。   In the wrinkle detection apparatus, the edge enhancement processing generates two unsharp images obtained by smoothing the image with different smoothing intensities, and the unsharp having a low smoothing intensities of the two unsharp images. Smoothing is performed at a lower intensity for an image area having a higher gloss of the image, and a difference between the pixel values of corresponding pixels of the two unsharp images is calculated. You may include the process which makes the value which synthesize | combined the pixel value of the said pixel of an image the pixel value of the corresponding pixel of the said edge emphasis image.

また、上記皺検出装置は、前記肌における光沢の強さの分布に関する情報を取得する光沢情報取得部、を有し、前記エッジ強調処理部は、取得された前記情報に基づいて、前記肌の光沢がより強い画像領域を決定し、前記画像のうち、前記肌の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、前記情報は、顔部品の位置、前記肌の3次元形状、前記肌に対する光源の位置、ユーザにより指定された領域、前記画像と前記肌の直交偏光画像との差分、前記肌の油分量の分布、および前記肌の水分量の分布、のうち少なくとも1つを示す情報であってもよい。   In addition, the wrinkle detection device includes a gloss information acquisition unit that acquires information on a distribution of gloss intensity in the skin, and the edge enhancement processing unit is configured to acquire the information on the skin based on the acquired information. An image area having a higher glossiness is determined, and the image area having a higher skin glossiness is smoothed at a lower intensity in the image, and the information includes the position of the face part, the skin 3 At least one of a three-dimensional shape, a position of a light source with respect to the skin, a region specified by a user, a difference between the image and the orthogonal polarization image of the skin, a distribution of the oil content of the skin, and a distribution of the moisture content of the skin It may be information indicating one.

また、上記皺検出装置において、前記エッジ強調処理は、前記画像と前記アンシャープ画像との間の差分を示す差分画像を生成し、前記画像と生成された前記差分画像とを合成して前記エッジ強調画像を生成する処理を含み、前記画像、前記アンシャープ画像、および前記差分画像のうち少なくとも1つに対して、輝度値が所定の閾値を超える画素の輝度値を前記閾値の値に修正してもよい。   In the wrinkle detection apparatus, the edge enhancement processing generates a difference image indicating a difference between the image and the unsharp image, and combines the image and the generated difference image to generate the edge. Including a process of generating an emphasized image, and correcting a luminance value of a pixel whose luminance value exceeds a predetermined threshold value to the threshold value for at least one of the image, the unsharp image, and the difference image May be.

また、上記皺検出装置において、前記エッジ強調処理は、前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像の間の差分を示す差分画像を生成し、前記画像と生成された前記差分画像とを合成して前記エッジ強調画像を生成する処理を含み、前記画像、前記2つのアンシャープ画像、および前記差分画像のうち少なくとも1つに対して、輝度値が所定の閾値を超える画素の輝度値を前記閾値の値に修正してもよい。   In the wrinkle detection device, the edge enhancement processing generates two unsharp images obtained by smoothing the image with different smoothing intensities, and generates a difference image indicating a difference between the two unsharp images. Generating the edge-enhanced image by combining the image and the generated difference image, and for at least one of the image, the two unsharp images, and the difference image The luminance value of a pixel whose luminance value exceeds a predetermined threshold value may be corrected to the threshold value.

また、上記皺検出装置は、前記画像における前記皺領域を示す皺画像を生成し、生成された前記皺画像を前記画像に重畳した皺強調画像を生成する画像生成部と、前記皺強調画像を表示する表示部と、を有してもよい。   In addition, the wrinkle detection device generates a wrinkle image indicating the wrinkle region in the image, and generates an haze-enhanced image in which the generated haze image is superimposed on the image; And a display unit for displaying.

本開示の皺検出方法は、画像に含まれる肌の皺領域を検出する皺検出方法であって、前記画像を取得するステップと、取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うステップと、生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出するステップと、を有し、前記エッジ強調処理は、前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である。   The wrinkle detection method of the present disclosure is a wrinkle detection method for detecting a wrinkle region of skin included in an image, the step of acquiring the image, and smoothing the acquired image to generate an unsharp image, Based on the generated unsharp image, generating an edge enhanced image that is an image in which an edge of the image is enhanced, and performing edge enhancement processing on the generated edge enhanced image And performing the step of detecting the wrinkle region, and the edge enhancement process is a process of generating the edge enhanced image while suppressing an influence of a portion having a high luminance in the image.

本発明は、肌に光沢が生じている場合であっても、高精度な皺検出を行うことができる皺検出装置および皺検出方法として有用である。   INDUSTRIAL APPLICABILITY The present invention is useful as a wrinkle detection device and a wrinkle detection method that can perform wrinkle detection with high accuracy even when the skin is glossy.

100 皺検出装置
110 撮影部
120 画像取得部
130 顔部品取得部
140 肌状態検出部
150 画像生成部
160 表示部
210 検出領域決定部
220 エッジ強調処理部
221 グレースケール算出部
222 平滑化処理部
223 最小値算出部
224 差分算出部
230 皺検出処理部
240 シミ検出部
DESCRIPTION OF SYMBOLS 100 Eyelid detection apparatus 110 Image pick-up part 120 Image acquisition part 130 Face component acquisition part 140 Skin state detection part 150 Image generation part 160 Display part 210 Detection area | region determination part 220 Edge emphasis processing part 221 Gray scale calculation part 222 Smoothing process part 223 Minimum Value calculation unit 224 Difference calculation unit 230 Wrinkle detection processing unit 240 Spot detection unit

Claims (10)

画像に含まれる肌の皺領域を検出する皺検出装置であって、
前記画像を取得する画像取得部と、
取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うエッジ強調処理部と、
生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出する皺検出処理部と、を有し、
前記エッジ強調処理は、
前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である、
皺検出装置。
A wrinkle detection device for detecting a wrinkle region of a skin included in an image,
An image acquisition unit for acquiring the image;
Edges subjected to edge enhancement processing, wherein the acquired image is smoothed to generate an unsharp image, and based on the generated unsharp image, an edge-enhanced image that is an image in which the edge of the image is enhanced is generated An emphasis processing unit;
A wrinkle detection processing unit that detects the wrinkle region by performing an edge detection process on the generated edge-enhanced image, and
The edge enhancement process includes:
It is a process of generating the edge-enhanced image by suppressing the influence of a high-luminance part in the image.
皺 Detection device.
前記エッジ強調処理は、
前記画像の画素および前記アンシャープ画像の対応する画素のうち輝度が最小値となる画素の画素値と、前記アンシャープ画像の前記画素の画素値と、の間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含む、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
The difference between the pixel value of the pixel having the minimum luminance among the pixels of the image and the corresponding pixel of the unsharp image and the pixel value of the pixel of the unsharp image is calculated and calculated. Including a process of setting a value obtained by combining the difference and a pixel value of the pixel of the image to a pixel value of a corresponding pixel of the edge-enhanced image,
The wrinkle detection device according to claim 1.
前記エッジ強調処理は、
前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像の対応する画素のうち輝度が最小値となる画素の画素値と、前記2つのアンシャープ画像のうち前記平滑化強度が高い方の前記アンシャープ画像の対応する画素の画素値と、の間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含む、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
Two unsharp images obtained by smoothing the image with different smoothing intensities are generated, a pixel value of a pixel having a minimum luminance among corresponding pixels of the two unsharp images, and the two unsharp images The difference between the pixel value of the corresponding pixel of the unsharp image having the higher smoothing intensity in the image is calculated, and the calculated difference and the pixel value of the pixel of the image are combined. Including a process of setting a value to a pixel value of a corresponding pixel of the edge enhanced image
The wrinkle detection device according to claim 1.
前記エッジ強調処理は、
前記画像のうち、前記肌の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、前記画像の画素の画素値と前記アンシャープ画像の対応する画素の画素値との間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含む、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
Among the images, smoothing is performed at a lower intensity for an image region having a stronger skin gloss, and a pixel value between a pixel value of the pixel of the image and a pixel value of a corresponding pixel of the unsharp image A process of calculating a difference, and combining the calculated difference and the pixel value of the pixel of the image as a pixel value of a corresponding pixel of the edge-enhanced image,
The wrinkle detection device according to claim 1.
前記エッジ強調処理は、
前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像のうち平滑化強度の低いアンシャープ画像の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、前記2つのアンシャープ画像の対応する画素の画素値との間の差分を算出し、算出された前記差分と前記画像の前記画素の画素値とを合成した値を、前記エッジ強調画像の対応する画素の画素値とする処理を含む、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
Two unsharp images obtained by smoothing the image with different smoothing intensities are generated, and an unsharp image having a low smoothing intensity among the two unsharp images has a lower gloss with respect to a stronger image area. Smoothing with intensity, calculating a difference between corresponding pixel values of the two unsharp images, and combining the calculated difference and the pixel value of the pixel of the image, Including a process of setting a pixel value of a corresponding pixel of the edge enhanced image,
The wrinkle detection device according to claim 1.
前記肌における光沢の強さの分布に関する情報を取得する光沢情報取得部、を有し、
前記エッジ強調処理部は、
取得された前記情報に基づいて、前記肌の光沢がより強い画像領域を決定し、前記画像のうち、前記肌の光沢がより強い画像領域に対して、より低い強度で平滑化を行い、
前記情報は、顔部品の位置、前記肌の3次元形状、前記肌に対する光源の位置、ユーザにより指定された領域、前記画像と前記肌の直交偏光画像との差分、前記肌の油分量の分布、および前記肌の水分量の分布、のうち少なくとも1つを示す情報である、
請求項1に記載の皺検出装置。
A gloss information acquisition unit that acquires information on the distribution of gloss intensity in the skin;
The edge enhancement processing unit
Based on the acquired information, determine an image area having a stronger skin gloss, smoothing the image area having a stronger skin gloss out of the image at a lower intensity,
The information includes the position of the face part, the three-dimensional shape of the skin, the position of the light source with respect to the skin, the region specified by the user, the difference between the image and the orthogonal polarization image of the skin, and the distribution of the oil content of the skin And information indicating at least one of the moisture distribution of the skin,
The wrinkle detection device according to claim 1.
前記エッジ強調処理は、
前記画像と前記アンシャープ画像との間の差分を示す差分画像を生成し、前記画像と生成された前記差分画像とを合成して前記エッジ強調画像を生成する処理を含み、前記画像、前記アンシャープ画像、および前記差分画像のうち少なくとも1つに対して、輝度値が所定の閾値を超える画素の輝度値を前記閾値の値に修正する、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
Including a process of generating a difference image indicating a difference between the image and the unsharp image, and generating the edge-enhanced image by combining the image and the generated difference image. For at least one of the sharp image and the difference image, the luminance value of a pixel whose luminance value exceeds a predetermined threshold value is corrected to the threshold value.
The wrinkle detection device according to claim 1.
前記エッジ強調処理は、
前記画像を異なる平滑化強度で平滑化した2つの前記アンシャープ画像を生成し、前記2つのアンシャープ画像の間の差分を示す差分画像を生成し、前記画像と生成された前記差分画像とを合成して前記エッジ強調画像を生成する処理を含み、前記画像、前記2つのアンシャープ画像、および前記差分画像のうち少なくとも1つに対して、輝度値が所定の閾値を超える画素の輝度値を前記閾値の値に修正する、
請求項1に記載の皺検出装置。
The edge enhancement process includes:
Two unsharp images obtained by smoothing the image with different smoothing intensities are generated, a difference image indicating a difference between the two unsharp images is generated, and the image and the generated difference image are Including a process of combining and generating the edge-enhanced image, and for at least one of the image, the two unsharp images, and the difference image, a luminance value of a pixel whose luminance value exceeds a predetermined threshold value. Correct to the threshold value,
The wrinkle detection device according to claim 1.
前記画像における前記皺領域を示す皺画像を生成し、生成された前記皺画像を前記画像に重畳した皺強調画像を生成する画像生成部と、
前記皺強調画像を表示する表示部と、を有する、
請求項1に記載の皺検出装置。
An image generation unit that generates a haze image indicating the haze region in the image and generates a haze-enhanced image in which the generated haze image is superimposed on the image;
A display unit that displays the wrinkle-enhanced image,
The wrinkle detection device according to claim 1.
画像に含まれる肌の皺領域を検出する皺検出方法であって、
前記画像を取得するステップと、
取得された前記画像を平滑化してアンシャープ画像を生成し、生成された前記アンシャープ画像に基づいて、前記画像のエッジを強調した画像であるエッジ強調画像を生成する、エッジ強調処理を行うステップと、
生成された前記エッジ強調画像に対してエッジ検出処理を行うことにより、前記皺領域を検出するステップと、を有し、
前記エッジ強調処理は、
前記画像における輝度が高い部分の影響を抑制して、前記エッジ強調画像を生成する処理である、
皺検出方法。
A wrinkle detection method for detecting a wrinkle region of a skin included in an image,
Obtaining the image;
Smoothing the acquired image to generate an unsharp image, and generating an edge-enhanced image that is an image in which an edge of the image is enhanced based on the generated unsharp image. When,
Detecting the wrinkle region by performing an edge detection process on the generated edge-enhanced image, and
The edge enhancement process includes:
It is a process of generating the edge-enhanced image by suppressing the influence of a high-luminance part in the image.
皺 Detection method.
JP2014127572A 2014-06-20 2014-06-20 Wrinkle detection apparatus and wrinkle detection method Pending JP2016009203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014127572A JP2016009203A (en) 2014-06-20 2014-06-20 Wrinkle detection apparatus and wrinkle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127572A JP2016009203A (en) 2014-06-20 2014-06-20 Wrinkle detection apparatus and wrinkle detection method

Publications (1)

Publication Number Publication Date
JP2016009203A true JP2016009203A (en) 2016-01-18

Family

ID=55226750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127572A Pending JP2016009203A (en) 2014-06-20 2014-06-20 Wrinkle detection apparatus and wrinkle detection method

Country Status (1)

Country Link
JP (1) JP2016009203A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018250A (en) * 2018-08-02 2020-02-06 公立大学法人首都大学東京 Muscle tension measurement substrate, muscle tension measurement device and apparatus using muscle tension measurement substrate, muscle tension measurement method, muscle tension screening method, and method for use as evaluation index
WO2020230445A1 (en) * 2019-05-13 2020-11-19 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and computer program
JP2022528128A (en) * 2019-04-12 2022-06-08 アークソフト コーポレイション リミテッド Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic device and storage medium
CN115880289A (en) * 2023-02-21 2023-03-31 深圳普菲特信息科技股份有限公司 Steel coil burr identification method, system and medium based on big data processing
CN116124791A (en) * 2023-01-18 2023-05-16 江阴市千里马电工材料有限公司 Coaxial cable lays fold detection device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018250A (en) * 2018-08-02 2020-02-06 公立大学法人首都大学東京 Muscle tension measurement substrate, muscle tension measurement device and apparatus using muscle tension measurement substrate, muscle tension measurement method, muscle tension screening method, and method for use as evaluation index
JP7140328B2 (en) 2018-08-02 2022-09-21 東京都公立大学法人 Muscle tension measurement substrate, muscle tension measurement device and device using the muscle tension measurement substrate, muscle tension measurement method, screening method, and method used as an evaluation index
JP2022528128A (en) * 2019-04-12 2022-06-08 アークソフト コーポレイション リミテッド Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic device and storage medium
JP7413400B2 (en) 2019-04-12 2024-01-15 アークソフト コーポレイション リミテッド Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic equipment and storage medium
WO2020230445A1 (en) * 2019-05-13 2020-11-19 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and computer program
CN116124791A (en) * 2023-01-18 2023-05-16 江阴市千里马电工材料有限公司 Coaxial cable lays fold detection device
CN115880289A (en) * 2023-02-21 2023-03-31 深圳普菲特信息科技股份有限公司 Steel coil burr identification method, system and medium based on big data processing
CN115880289B (en) * 2023-02-21 2023-05-26 深圳普菲特信息科技股份有限公司 Steel coil burr identification method, system and medium based on big data processing

Similar Documents

Publication Publication Date Title
JP6550642B2 (en) Wrinkle detection device and wrinkle detection method
CN108229278B (en) Face image processing method and device and electronic equipment
EP3477939B1 (en) Image processing method and device and computer-readable storage medium storing a program for performing beauty processing on face portrait images
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6489427B2 (en) Image processing apparatus and image processing method
US8520089B2 (en) Eye beautification
US20170352135A1 (en) Eye beautification under inaccurate localization
KR101446975B1 (en) Automatic face and skin beautification using face detection
JP6044909B2 (en) Image processing apparatus and image processing method
US9782119B2 (en) Wrinkle detection apparatus and wrinkle detection method
JP2016009203A (en) Wrinkle detection apparatus and wrinkle detection method
JP6651074B2 (en) Method for detecting eye movement, program thereof, storage medium for the program, and apparatus for detecting eye movement
US20070273686A1 (en) Image processing device, image processing method, program, storage medium and integrated circuit
US20200020152A1 (en) Image processing apparatus, image processing method and storage medium
CN107454315B (en) The human face region treating method and apparatus of backlight scene
JP2016189135A (en) Recognition device, recognition method, and recognition program
KR101715489B1 (en) Image generating device and image generating method
JPWO2006057314A1 (en) Image processing apparatus and image processing method
JP2021058361A (en) Biological information acquisition device and program
JP2017012384A (en) Wrinkle state analysis device and wrinkle state analysis method
WO2018016002A1 (en) Image processing device, endoscope system, program, and image processing method
Kao et al. Gaze tracking for smart consumer electronics
WO2018193677A1 (en) Image processing device, image capturing device, image printing device, control method of image processing device, and image processing program
Hsieh et al. Pixel-based multi-focus image fusion by color appearance model
CN116563375A (en) Pupil tracking method based on camera