JP2008293327A - Face image display system - Google Patents

Face image display system Download PDF

Info

Publication number
JP2008293327A
JP2008293327A JP2007139065A JP2007139065A JP2008293327A JP 2008293327 A JP2008293327 A JP 2008293327A JP 2007139065 A JP2007139065 A JP 2007139065A JP 2007139065 A JP2007139065 A JP 2007139065A JP 2008293327 A JP2008293327 A JP 2008293327A
Authority
JP
Japan
Prior art keywords
face
face image
image data
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007139065A
Other languages
Japanese (ja)
Inventor
Koji Kita
耕次 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2007139065A priority Critical patent/JP2008293327A/en
Publication of JP2008293327A publication Critical patent/JP2008293327A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face image display system for emphasizing pores and spots, and for displaying them on a monitor screen by a simple processing procedure. <P>SOLUTION: This face image display system makes a monitor 12 display face image data photographed by a imaging camera 4, and provided with a face region setting means 36a for setting a face area on the basis of photographed face image data; an averaging processing means 36b for performing averaging processing to the set face area; a difference arithmetic means 36c for calculating difference data between the face image data before averaging and the face image data to which the averaging processing has been performed; an emphasis processing means 36d for performing contrast emphasis to the difference data; and a display data generation means 25e for generating display data for making the monitor display the face image data to which the contrast emphasis has been performed. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像手段により撮影された顔画像データをモニターに表示させるための顔画像表示システムに関するものである。   The present invention relates to a face image display system for displaying face image data photographed by an imaging means on a monitor.

かかる顔画像表示システムは、美容皮膚科、美容外科、形成外科などにおいて使用されており、顔撮影装置により、定期的に人の顔を撮影することで肌の状態の経時的な変化を観察し、化粧品や肌治療の効果を確認する目的で使用されている。具体的には、得られた顔画像をモニター画面に映し出しながらシミ・シワ・毛穴・色ムラなどの評価を行なうものである。   Such a face image display system is used in cosmetic dermatology, cosmetic surgery, plastic surgery, etc., and a face photographing device regularly photographs a person's face to observe changes in the skin condition over time. It is used for the purpose of confirming the effects of cosmetics and skin treatment. Specifically, evaluation of spots, wrinkles, pores, color unevenness and the like is performed while the obtained face image is displayed on a monitor screen.

上記の評価項目のうち、特に毛穴やシワは、顔に当たる照明光の具合により見えにくくなる場合があり、特にシワは光と影の状態が大きな影響を与える。被験者が目の前にいる場合は、撮像カメラと被験者の位置関係を変えるなどして対応することも可能であるが、過去に撮影された顔画像を見ながら診断、あるいは治療の経過の判断を行う場合には、上記のような対応をすることができない。   Among the above evaluation items, especially pores and wrinkles may be difficult to see due to the condition of illumination light hitting the face, and particularly wrinkles are greatly affected by the state of light and shadow. When the subject is in front of the eyes, it is possible to respond by changing the positional relationship between the imaging camera and the subject, but make a diagnosis or judge the progress of treatment while looking at the face images taken in the past. In the case where it is performed, the above-mentioned measures cannot be taken.

そこで、毛穴やシワを見やすくするために、顔画像データを画像処理して毛穴・シワを強調してモニター画面に表示させる方法が考えられる。シワ成分を抑制あるいは強調する技術としては、例えば、下記特許文献1に開示されるεフィルターを用いた画像処理が知られている。また、ラプラシアンフィルターなどのようなエッジ検出や先鋭化処理により、毛穴・シワの強調を行う方法も考えられる。   Therefore, in order to make pores and wrinkles easy to see, a method of performing image processing on face image data and emphasizing the pores and wrinkles and displaying them on a monitor screen can be considered. As a technique for suppressing or enhancing the wrinkle component, for example, image processing using an ε filter disclosed in Patent Document 1 below is known. A method of enhancing pores / wrinkles by edge detection or sharpening processing such as a Laplacian filter is also conceivable.

特開2001−118064号公報Japanese Patent Laid-Open No. 2001-118084

しかしながら、上記の方法は構成が複雑であったり、強調をしなくてよい箇所が強調されるなどの問題があり、更に改善が望まれていた。   However, the above-described method has problems such as a complicated structure and a point where emphasis is not required, and further improvement has been desired.

本発明は上記実情に鑑みてなされたものであり、その課題は、簡素な処理手順により、毛穴・シワを強調してモニター画面に表示させることが可能な顔画像表示システムを提供することである。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a face image display system capable of highlighting pores and wrinkles and displaying them on a monitor screen by a simple processing procedure. .

上記課題を解決するため本発明に係る顔画像表示システムは、
撮像手段により撮影された顔画像データをモニターに表示させるための顔画像表示システムであって、
撮影された顔画像データに基づいて顔領域を設定する顔領域設定手段と、
設定された顔領域について平均化処理を行う平均化処理手段と、
平均化前の顔画像データと平均化処理が施された顔画像データの差分データを演算する差分演算手段と、
この差分データに対してコントラスト強調を行なう強調処理手段と、
コントラスト強調された顔画像データをモニターに表示させるための表示データを生成する表示データ生成手段と、を備えていることを特徴とするものである。
In order to solve the above-described problems, a face image display system according to the present invention includes:
A face image display system for displaying face image data captured by an imaging means on a monitor,
Face area setting means for setting the face area based on the captured face image data;
An averaging processing means for performing an averaging process on the set face area;
A difference calculating means for calculating difference data between the face image data before averaging and the face image data subjected to the averaging process;
Enhancement processing means for performing contrast enhancement on the difference data;
And display data generating means for generating display data for displaying the contrast-enhanced face image data on a monitor.

かかる構成による顔画像表示システムの作用・効果を説明する。まず、撮影された顔画像データにおいて顔領域を設定する。これは、毛穴・シワなどが存在する領域を設定し、以下行われる画像処理を効率よく行なうためである。また、必要のない領域を強調しないようにすることができる。次に、設定された顔領域について平均化処理を行う。この平均化処理では、毛穴・シワなどの特徴部分が消去される。次に、平均化前の顔画像データと平均化処理がされた顔画像データの差分データを演算する。これにより、毛穴・シワなどを特徴として抽出することができる。この差分データに対して、更にコントラスト強調を行なう。これにより、毛穴・シワが強調された顔画像データを求めることができ、表示データを生成してモニター画面に表示させることができる。従って、簡素な処理手順により、毛穴・シワを強調してモニター画面に表示させることが可能になる。   The operation and effect of the face image display system configured as described above will be described. First, a face area is set in the photographed face image data. This is to set an area where pores, wrinkles and the like exist, and to efficiently perform image processing to be performed below. Also, it is possible to avoid emphasizing unnecessary areas. Next, an averaging process is performed on the set face area. In this averaging process, features such as pores and wrinkles are erased. Next, difference data between the face image data before averaging and the face image data subjected to the averaging process is calculated. Thereby, pores and wrinkles can be extracted as features. Contrast enhancement is further performed on the difference data. Thereby, face image data in which pores and wrinkles are emphasized can be obtained, and display data can be generated and displayed on the monitor screen. Therefore, pores and wrinkles can be emphasized and displayed on the monitor screen by a simple processing procedure.

本発明に係る前記平均化処理手段は、顔領域を構成する各画素について、注目画素を含む所定領域についてのヒストグラムを作成して、最大頻度を有する画素値を取得するものであることが好ましい。   The averaging processing means according to the present invention is preferably configured to create a histogram for a predetermined region including a pixel of interest for each pixel constituting the face region, and obtain a pixel value having the maximum frequency.

平均化処理としては種々の処理方法が考えられるが、本発明においては、注目画素を含む照射領域についてのヒストグラムを作成して、最大頻度を有する画素値を取得するものであるから、簡素な処理手順を用いながらも確実に平均化された顔画像データを得ることができる。   Various processing methods can be considered as the averaging process. In the present invention, a histogram is created for the irradiation region including the target pixel, and the pixel value having the maximum frequency is acquired. It is possible to reliably obtain averaged face image data while using the procedure.

本発明に係る顔画像表示システムの好適な実施形態を図面を用いて説明する。図1は、顔画像表示システムにおいて用いられる顔撮影装置の内部構成を示す横断面図を示し、図2は、図1に示す顔撮影装置の縦断面図である。図3は、撮影カメラの回転移動機構の詳細を示す図である。   A preferred embodiment of a face image display system according to the present invention will be described with reference to the drawings. FIG. 1 is a cross-sectional view showing an internal configuration of a face photographing apparatus used in the face image display system, and FIG. 2 is a longitudinal sectional view of the face photographing apparatus shown in FIG. FIG. 3 is a diagram showing details of the rotational movement mechanism of the photographing camera.

この顔撮影装置Hは、美容皮膚科、美容外科、形成外科などにおいて使用されている。定期的あるいは適度な期間を開けて人の顔を撮影することで肌の状態の経時的な変化を観察し、化粧品や肌治療の効果を確認する目的で使用される。この装置は、得られた顔画像から毛穴・シミ・シワ・色ムラなどの評価を行なう機能を有し、さらには、紫外線を使用したポルフィリン・かくれジミなどの評価を行なうこともできる。なお、本発明は、特に毛穴・シミの検出に関するものであるので、以下の説明においても毛穴・シミの検出に限定して行なうものとする。   The face photographing apparatus H is used in cosmetic dermatology, cosmetic surgery, plastic surgery and the like. It is used for the purpose of observing changes in skin condition over time by photographing human faces at regular or moderate intervals and confirming the effects of cosmetics and skin treatments. This device has a function of evaluating pores, spots, wrinkles, color unevenness, and the like from the obtained face image, and can also evaluate porphyrins, hide spots, etc. using ultraviolet rays. Note that the present invention particularly relates to detection of pores / stains, and therefore the following description is limited to detection of pores / stains.

<顔撮影装置の構成>
図1において、顔撮影装置Hは、略立方体形状の筐体1を備えており、顔の撮影を行う時は筐体1内の所定箇所に顔を保持させた状態で行い、室内光などが筐体1内部に侵入しにくいような構造が採用されている。筐体1の正面には開口部1aが形成されており、ここから顔を挿入させる。人の顔を所定位置に保持するための顔保持手段として、あご載せ台2と額押さえ3が設けられている。あご載せ台2と額押さえ3は、人の顔の大きさや形状などに対応できるように手動で位置調整ができるように構成されている。開口部1aからの外光進入を防止するためにカーテン1bが設けられる。なお、上記顔保持手段が必ずしも必要ではない。
<Configuration of face photographing device>
In FIG. 1, the face photographing apparatus H includes a substantially cube-shaped housing 1, and when photographing a face, the face is held in a predetermined position in the housing 1, and indoor light is emitted. A structure that does not easily enter the housing 1 is employed. An opening 1a is formed on the front surface of the housing 1, from which a face is inserted. As face holding means for holding a person's face in a predetermined position, a chin rest 2 and a forehead press 3 are provided. The chin rest 2 and the forehead retainer 3 are configured to be manually position-adjustable so as to correspond to the size and shape of a person's face. A curtain 1b is provided to prevent outside light from entering from the opening 1a. The face holding means is not always necessary.

顔を撮影するための撮影手段として撮影カメラ4が設けられており、カメラ支持体5に保持されている。図1に示すように、撮影カメラ4による顔の撮影位置は、正面位置P0と左右の側面位置P1,P2の3箇所が設定されている。正面位置P0は、ちょうど撮影カメラ4が顔と向かい合う位置であり、側面位置P1,P2は正面位置P0に対して45゜に設定された位置である。ただし、この45゜という角度については、この数値に限定されるものではなく、他の角度に設定してもよく、また、側面位置P1,P2も2箇所だけでなく、更に多くの側面位置が設定されていてもよい。例えば、30゜,45゜,60゜,75゜に設定されていてもよい。P3は、後述する移動機構によって撮影カメラ4が回転移動する軌跡を示している。   A photographing camera 4 is provided as photographing means for photographing a face, and is held by a camera support 5. As shown in FIG. 1, three shooting positions of the face by the shooting camera 4 are set, that is, a front position P0 and left and right side positions P1, P2. The front position P0 is a position where the photographing camera 4 faces the face, and the side positions P1 and P2 are positions set to 45 ° with respect to the front position P0. However, the angle of 45 ° is not limited to this value, and may be set to other angles. Also, the side surface positions P1 and P2 are not limited to two locations, and more side surface positions are provided. It may be set. For example, it may be set to 30 °, 45 °, 60 °, and 75 °. P3 indicates a trajectory in which the photographing camera 4 is rotated by a moving mechanism described later.

撮影カメラ4は、デジタルカメラが使用されるが、どのようなタイプのものを使用してもよい。必要に応じてビデオ機能を有するものを使用してもよく、静止画像を撮影可能なビデオカメラを使用してもよい。   As the photographing camera 4, a digital camera is used, but any type of camera may be used. If necessary, one having a video function may be used, or a video camera capable of taking a still image may be used.

このように、複数個所での顔画像を撮影するために、撮影カメラ4は顔位置を中心として回転移動できるように構成されている。撮影カメラ4の回転中心Bは、あご載せ台2の位置に設定されている。   Thus, in order to photograph face images at a plurality of locations, the photographing camera 4 is configured to be able to rotate around the face position. The rotation center B of the photographic camera 4 is set at the position of the chin mount 2.

顔を照明するための光源8が筐体1内の複数個所に配置されている。光源8は、顔の位置を中心として円周方向に沿って顔に面するように配置されていると共に、図2に示すように、上方及び下方にも複数個所に配置される。光源8には、可視光を照射する光源と紫外線を照射するブラックライトがあり、目的に応じて使い分けもしくは両方が使用される。可視光を照射する光源8は、ハロゲンランプ、蛍光灯、LED、フラッシュ光源など適宜のものを使用することができる。光源8として、フラッシュ光源を使用してもよい。   Light sources 8 for illuminating the face are arranged at a plurality of locations in the housing 1. The light source 8 is arranged so as to face the face along the circumferential direction with the position of the face as a center, and is also arranged at a plurality of locations above and below as shown in FIG. The light source 8 includes a light source that irradiates visible light and a black light that irradiates ultraviolet rays. Either one or both are used depending on the purpose. As the light source 8 for irradiating visible light, an appropriate one such as a halogen lamp, a fluorescent lamp, an LED, or a flash light source can be used. A flash light source may be used as the light source 8.

光源8から照射される光を均一に拡散するための拡散板9が光源8と顔の間に配置される。拡散板9は、図1に示す横断面形状は円弧形状(半円形状)である。図2に示すように、拡散板9は、顔の正面だけでなく天井部と底面部にも配置されており、従って、この拡散板9により顔が包囲されるような形態となる。なお、拡散板9は、半円形でなくてもよく、多角形、楕円形状を呈していてもよい。撮影カメラ4は、拡散板9の背後側に移動することになるため、正面位置P0と側面位置P1,P2において撮影を可能にするため矩形の開口部9aが形成される。   A diffusion plate 9 for uniformly diffusing light emitted from the light source 8 is disposed between the light source 8 and the face. The cross-sectional shape of the diffusion plate 9 shown in FIG. As shown in FIG. 2, the diffusion plate 9 is arranged not only on the front surface of the face but also on the ceiling portion and the bottom surface portion, and thus the face is surrounded by the diffusion plate 9. The diffusion plate 9 does not have to be semicircular, and may have a polygonal shape or an elliptical shape. Since the photographing camera 4 moves to the back side of the diffusion plate 9, a rectangular opening 9a is formed to enable photographing at the front position P0 and the side positions P1 and P2.

制御装置20は、顔撮影装置Hの動作を制御する機能と、撮影カメラ4により撮影された顔画像に関する画像処理を行う機能を有する。モニター21には、撮影された顔画像が表示される。キーボード22は、顔撮影装置Hに対する種々の動作指令入力や画像処理を行なうための種々の動作指令やデータ入力などを行なう。制御装置20、モニター21、キーボード22は、汎用のコンピュータ(パソコン)により構成してもよい。   The control device 20 has a function of controlling the operation of the face photographing device H and a function of performing image processing relating to a face image photographed by the photographing camera 4. The captured face image is displayed on the monitor 21. The keyboard 22 inputs various operation commands to the face photographing device H and various operation commands and data for performing image processing. The control device 20, the monitor 21, and the keyboard 22 may be configured by a general-purpose computer (personal computer).

<カメラ回転移動機構>
次に、撮影カメラ4の回転移動機構の詳細を図3により説明する。回転中心Bには駆動モータ10と駆動軸11が設けられており、この駆動軸11にアーム12が連結される。アーム12の先端部12aに2本の連結軸13が垂直方向に植設され、この連結軸13の上部先端にカメラ支持体5が結合される。カメラ支持体5は、側面視で略コの字形状を有しており、コの字形状の内側に撮影カメラ4が配置される。
<Camera rotational movement mechanism>
Next, details of the rotational movement mechanism of the photographing camera 4 will be described with reference to FIG. A drive motor 10 and a drive shaft 11 are provided at the rotation center B, and an arm 12 is connected to the drive shaft 11. Two connecting shafts 13 are implanted in the front end portion 12 a of the arm 12 in the vertical direction, and the camera support 5 is coupled to the upper end of the connecting shaft 13. The camera support 5 has a substantially U-shape when viewed from the side, and the photographing camera 4 is disposed inside the U-shape.

アーム12の先端側の裏面には、ローラ支持体14がアーム先端部12aに対して垂直方向を軸として回転自在に取り付けられており、ローラ15が回転自在に保持されている。このローラ15は、筐体1の底面に接地するように構成され、これにより、撮影カメラ4をスムーズに回転移動させることができる。なお、撮影カメラ4の回転移動機構については、本実施形態に限定されるものではなく、種々の変形例が考えられる。   A roller support 14 is attached to the back surface of the arm 12 at the tip end side so as to be rotatable about the vertical direction with respect to the arm tip end portion 12a, and the roller 15 is held rotatably. The roller 15 is configured to be in contact with the bottom surface of the housing 1, whereby the photographing camera 4 can be smoothly rotated. The rotational movement mechanism of the photographing camera 4 is not limited to the present embodiment, and various modifications can be considered.

<制御関係>
次に、顔撮影装置H及び顔画像表示システムの主要な制御機能について図4の制御ブロック図により説明する。コントローラ30は、顔撮影装置Hを統括的に制御する機能を提供するものであり、CPU、メモリ、その他の必要なプログラム等により構成される。照明制御部31は、光源8の点灯・消灯制御を行なう。光源8は、顔画像の撮影を行う時に点灯される。可視光と紫外線を使い分ける場合に、そのいずれを点灯させるのか、あるいは両方を点灯させるのかについての制御も行われる。
<Control related>
Next, main control functions of the face photographing apparatus H and the face image display system will be described with reference to the control block diagram of FIG. The controller 30 provides a function for comprehensively controlling the face photographing apparatus H, and includes a CPU, a memory, and other necessary programs. The illumination control unit 31 controls the turning on / off of the light source 8. The light source 8 is turned on when taking a face image. When using visible light and ultraviolet light separately, control is performed as to which of them is lit or both of them are lit.

カメラ位置制御部32は、撮影カメラ4を正面位置P0,側面位置P1,P2の各位置に停止させるための移動制御を行うものであり、駆動モータ10に対する動作指令を行なう。撮影カメラ4を所定の位置に停止させるために、カメラ位置センサー33が設けられている。カメラ位置センサー33としては、上記3つの撮影位置を検出するためのセンサーが設けられており、例えば、アーム12の位置を光センサーやマイクロスイッチなどにより検出するように構成できる。   The camera position control unit 32 performs movement control for stopping the photographing camera 4 at each of the front position P0 and the side positions P1 and P2, and issues an operation command to the drive motor 10. In order to stop the photographing camera 4 at a predetermined position, a camera position sensor 33 is provided. As the camera position sensor 33, sensors for detecting the above three photographing positions are provided. For example, the position of the arm 12 can be detected by an optical sensor, a micro switch, or the like.

また、上記3つの撮影位置だけではなく、それらの中間的な位置も検出することができるようにしている。例えば、駆動モータ10に連動して回転するエンコーダからの信号や、駆動モータ10(パルスモータ)へ供給する駆動パルスのカウント値などに基づいて、細かいステップで撮影カメラ4の位置を検出することができる。従って、撮影カメラ4が移動可能な全範囲について位置検出を行なうことができる。   Further, not only the above three shooting positions but also an intermediate position between them can be detected. For example, the position of the photographing camera 4 can be detected in fine steps based on a signal from an encoder that rotates in conjunction with the drive motor 10, a count value of a drive pulse supplied to the drive motor 10 (pulse motor), or the like. it can. Therefore, position detection can be performed for the entire range in which the photographing camera 4 is movable.

カメラ制御部34は、撮影カメラ4の動作を制御するものであり、具体的にはシャッターを切ることで顔画像の撮影を行う。顔画像の撮影は、正面位置P0,側面位置P1,P2の3箇所において夫々行なわれる。撮影カメラ4の位置を微調整する必要がある場合は、微調整が完了した後に撮影が行われる。   The camera control unit 34 controls the operation of the photographing camera 4, and specifically takes a face image by releasing the shutter. The face image is taken at three locations, the front position P0 and the side positions P1 and P2. When it is necessary to finely adjust the position of the photographing camera 4, photographing is performed after the fine adjustment is completed.

顔画像データ保存部35は、撮影カメラ4により撮影された顔画像データが保存される。顔画像データは、デジタルのカラー画像データであり、JPEG等の適宜のファイル形式で保存される。顔画像データは、正面画像・左右側面画像ごとに保存され、人物を特定する人物ID(識別情報)・撮影年月日と共に保存される。   The face image data storage unit 35 stores face image data photographed by the photographing camera 4. The face image data is digital color image data, and is stored in an appropriate file format such as JPEG. The face image data is stored for each front image and left and right side images, and is stored together with a person ID (identification information) for identifying a person and a shooting date.

<顔画像解析システムの構成>
画像処理部36は、取得された顔画像データに対する画像処理を行い、毛穴・シミの検出を行なう機能を有するものであり、ソフトウェアもしくはソフトウェアとハードウェアの組み合わせにより構成することができる。画像処理部36は、本発明に係る顔画像表示システムの中核をなす部分である。
<Configuration of facial image analysis system>
The image processing unit 36 has a function of performing image processing on the acquired face image data and detecting pores and spots, and can be configured by software or a combination of software and hardware. The image processing unit 36 is a core part of the face image display system according to the present invention.

顔領域設定手段36aは、撮影カメラ4により撮影された顔画像データの中に含まれる顔領域の設定を行う機能を有する。顔領域とは、顔の中でも特に人の肌の領域を指すものであり、肌の評価には関係のない、鼻の穴、眉毛、目、口などは除かれる。顔領域の設定は、オペレータがモニター21の画面を見ながらマウス等で設定する場合と、自動的に設定する場合とがある。本発明は、いずれの方法を採用してもよく、機能的には両方備えていることが好ましい。   The face area setting unit 36 a has a function of setting a face area included in the face image data photographed by the photographing camera 4. The face area refers to a human skin area in the face, and excludes nostrils, eyebrows, eyes, mouth, etc., which are not related to skin evaluation. The face area may be set by the operator using a mouse or the like while viewing the screen of the monitor 21 or automatically. In the present invention, any method may be adopted, and it is preferable that both methods are provided functionally.

平均化処理手段36bは、顔領域が設定された後に、顔領域を構成する各画素について、注目画素を含む所定領域についてのヒストグラムを作成する機能、このヒストグラムに基づいて最大頻度を有する画素値を取得する機能を有する。すなわち、その所定領域内に最も多く存在する画素に注目画素が置き換えられるので、全体的に平均化された画像に変換することができる。   The averaging processing means 36b has a function of creating a histogram for a predetermined area including the target pixel for each pixel constituting the face area after the face area is set, and a pixel value having the maximum frequency based on the histogram. Has a function to acquire. That is, since the pixel of interest is replaced with the pixel that exists most in the predetermined region, it can be converted into an averaged image as a whole.

差分演算手段36cは、平均化処理手段36bにより取得された画素値と注目画素の画素値との差分データを演算する機能、を有している。この差分データに基づいて、毛穴・シワ等の強調処理を行った表示画像データを作成することができる。また、この差分データに基づいて、毛穴であるかシミであるかなどの判定を行なうこともできる。   The difference calculation unit 36c has a function of calculating difference data between the pixel value acquired by the averaging processing unit 36b and the pixel value of the target pixel. Based on this difference data, it is possible to create display image data that has been subjected to enhancement processing such as pores and wrinkles. Moreover, based on this difference data, it can also be determined whether it is a pore or a spot.

強調処理手段36dは、差分データに基づいて、コントラストが強調された画像データを作成することができる。コントラスト強調は、画像の明度差をより大きくする処理であり、公知の強調処理を用いることができる。   The enhancement processing unit 36d can create image data with enhanced contrast based on the difference data. Contrast enhancement is a process for increasing the brightness difference of an image, and a known enhancement process can be used.

判定手段36eは、差分演算手段36cにより得られた差分データに基づいて、毛穴・シミ・シワ等の判定を行なうものである。判定を行なうまでの処理手順の一例を説明する。まず、差分データを3つの閾値により4値化する。この機能に基づいて、差分データを[0,1,2,3]の4種類にレベル分けを行なう。次に、この4値化された結果に基づき、差分データを毛穴・シ・シワ等が含まれる第1領域[1,2,3]と、毛穴・シミが含まれない第2領域[0]とに分類する。第2領域は、通常の肌の領域を表すものであり、第1領域は、毛穴等により構成されるものと推定される領域である。第1領域は、実際には多数のクラスター(面積の小さな小領域)の集合体として構成される。   The determination unit 36e determines pores, spots, wrinkles, and the like based on the difference data obtained by the difference calculation unit 36c. An example of a processing procedure until determination is performed will be described. First, the difference data is binarized using three threshold values. Based on this function, the difference data is classified into four types [0, 1, 2, 3]. Next, based on the quaternarized result, the difference data is divided into a first area [1, 2, 3] including pores, wrinkles, wrinkles and the like, and a second area [0] including no pores / stains. And classify. The second region represents a normal skin region, and the first region is a region estimated to be composed of pores or the like. The first region is actually configured as an aggregate of a large number of clusters (small regions having a small area).

判定手段36eは、各クラスターに対する解析を行なって毛穴であるかシミであるかの判定処理を行う。例えば、クラスターの形状・面積などを解析し、毛穴・シミ・シワであるか否かの判定が可能になる。また、4値化された画素[1,2,3]の存在割合などを解析することで、例えば、目立つ毛穴であるか黒ずんだ毛穴であるかなどの詳細な解析を行なうことができる。   The determination unit 36e performs an analysis process for each cluster and performs a determination process as to whether it is a pore or a stain. For example, it is possible to analyze the shape / area of the cluster and determine whether it is a pore / stain / wrinkle. Further, by analyzing the existence ratio of the quaternarized pixels [1, 2, 3], for example, it is possible to perform a detailed analysis such as whether the pores are conspicuous or dark pores.

表示データ生成手段36fは、画像処理の結果得られた画像をモニター21に表示するためのデータを生成する。また、画像処理の結果得られた画像についても、適宜顔画像データ保存部35に保存させることができる。   The display data generation unit 36f generates data for displaying an image obtained as a result of image processing on the monitor 21. Further, the image obtained as a result of the image processing can be appropriately stored in the face image data storage unit 35.

<画像処理手順>
次に、顔画像を撮影してから毛穴・シワ等の強調画像をモニター12に表示させる場合の手順を説明する。図5は、処理手順の概要を示すフローチャートである。
<Image processing procedure>
Next, a procedure for displaying an emphasized image such as pores and wrinkles on the monitor 12 after photographing a face image will be described. FIG. 5 is a flowchart showing an outline of the processing procedure.

まず、顔画像の撮影を行う(S1)。撮影される顔画像は、正面画像、左右の側面画像の3種類であるが、説明の便宜上、正面画像についてのみの説明を行なう。撮影カメラ4により撮影された顔画像データは、顔画像データ保存部35に保存される(S2)。また、撮影された顔画像は、モニター21に映し出すことができる(図6参照)。撮影カメラ4で撮影を行う場合には、できるだけ画面いっぱいに顔が入るように撮影される。   First, a face image is taken (S1). There are three types of face images to be photographed: a front image and left and right side images. For convenience of explanation, only the front image will be described. The face image data photographed by the photographing camera 4 is stored in the face image data storage unit 35 (S2). The photographed face image can be displayed on the monitor 21 (see FIG. 6). When photographing with the photographing camera 4, the photographing is performed so that the face is as large as possible.

次に顔領域の設定を行う。顔画像データには、顔ではない領域や、顔領域内部であっても毛穴・シワ等の評価対象には関係のない領域が含まれている。そこで、画像処理を効率よく行なうために、顔領域の設定を行うようにしている(S3)。   Next, the face area is set. The face image data includes a region that is not a face and a region that is not related to an evaluation target such as pores and wrinkles even within the face region. Therefore, in order to perform image processing efficiently, the face area is set (S3).

そこで、まず、画面の中央領域Aの矩形に含まれる画素群の平均画素値を取得する(S30)。この中央領域Aは、予め設定されている領域であり、画像サイズに対して縦1/4、横1/4程度の大きさに設定されている。顔画像は画面いっぱいになるように撮影されることから、この範囲には顔の中央部分が含まれているものと推定される。なお、中央領域Aを表す矩形をモニター画面にも表示させてオペレータが確認できるように構成してもよい。また、必要に応じて中央領域Aの位置や大きさを変更できるように構成してもよい。なお、上記の平均画素値は、例えば、カラー画像データを構成するRGBの平均値により取得することができる。   Therefore, first, the average pixel value of the pixel group included in the rectangle in the central area A of the screen is acquired (S30). This central area A is a preset area, and is set to a size of about 1/4 vertical and 1/4 horizontal with respect to the image size. Since the face image is taken so as to fill the screen, it is estimated that the center part of the face is included in this range. Note that a rectangle representing the central area A may be displayed on the monitor screen so that the operator can check it. Moreover, you may comprise so that the position and magnitude | size of the center area | region A can be changed as needed. Note that the average pixel value can be obtained by, for example, an average value of RGB constituting the color image data.

上記のように得られた平均画素値は、肌の色を表しているものと推定される。次に、この平均画素値に対して所定の範囲内にある画素値を有する画素を検索する(S31)。例えば、平均画素値に対して±5%の範囲内にある画素を抽出する。検索する範囲は、上記の中央領域A内のほかに、中央領域Aの外側の領域である。検出された画素群を顔領域として設定し(S32)、この顔領域内について、毛穴・シワ等を強調するための画像処理を行なう。設定された顔領域を図8に模式的に示す。顔の輪郭以外の領域や、顔の内部であっても、口・鼻の穴・目・眉毛などは毛穴・シミの検出には関係しない領域であり、顔領域から除外される。   The average pixel value obtained as described above is estimated to represent the skin color. Next, a pixel having a pixel value within a predetermined range with respect to the average pixel value is searched (S31). For example, pixels within a range of ± 5% with respect to the average pixel value are extracted. The range to be searched is an area outside the central area A in addition to the central area A described above. The detected pixel group is set as a face area (S32), and image processing for enhancing pores, wrinkles and the like is performed in the face area. The set face area is schematically shown in FIG. Even in areas other than the outline of the face or inside the face, mouth, nostrils, eyes, eyebrows and the like are areas that are not related to detection of pores and spots, and are excluded from the face area.

顔領域が設定されると、顔領域内の各画素について、次のようなスキャニングを行なう。すなわち、注目画素を中心として所定領域の範囲のヒストグラムを作成する(S4)。これを図9に概念的に示す。注目画素Bを中心として、矩形(正方形あるいは長方形)の所定領域Cが設定される。この所定領域Cの大きさは、例えば、1000万画素クラスの撮像カメラであれば、51画素×51画素の大きさに設定されるが、この所定領域Cの設定については、CCD等の撮像素子の画素数などに応じて、適宜行なうことができるものである。   When the face area is set, the following scanning is performed for each pixel in the face area. That is, a histogram of a predetermined area range is created with the target pixel as the center (S4). This is conceptually illustrated in FIG. A rectangular (square or rectangular) predetermined area C is set around the target pixel B. For example, in the case of an imaging camera of 10 million pixel class, the size of the predetermined area C is set to a size of 51 pixels × 51 pixels. Depending on the number of pixels, etc., this can be performed as appropriate.

従って、ヒストグラムは上記の例では51×51=2601画素について作成されるものであり、例えば、図9(b)に示される。このヒストグラムから、最大頻度を有する画素値を取得する(S5)。この画素値はDで示されている。次に、この最大頻度を有する画素値Dから注目画素Bの画素値を引いた差分データを演算する(S6)。最大頻度を有する画素値Dは通常は毛穴・シワ・シミ等ではない肌の色を表すものであり、注目画素Bが同じく毛穴・シワ・シミ等ではない肌の部分に相当すれば、差分データは0になる。   Accordingly, the histogram is created for 51 × 51 = 2601 pixels in the above example, and is shown in FIG. 9B, for example. From this histogram, the pixel value having the maximum frequency is acquired (S5). This pixel value is indicated by D. Next, difference data obtained by subtracting the pixel value of the target pixel B from the pixel value D having the maximum frequency is calculated (S6). The pixel value D having the highest frequency usually represents a skin color that is not pores, wrinkles, spots, etc. If the pixel of interest B corresponds to a skin portion that is also not pores, wrinkles, spots, etc., the difference data Becomes 0.

また、毛穴等などがあると、輝度が暗くなる方向になるので、差分データを演算すると、正の値となる。差分データの大きさに応じて、シミであるのか毛穴であるのか、又、どの程度のレベルの毛穴であるのかを判定できるようになる。また、差分データがマイナスになった場合は0にする。これは、照明光源の関係で顔領域全体が均一な照度で照明されているわけではないので、そのバラツキを考慮するためである。   In addition, if there are pores or the like, the luminance becomes darker, so when the difference data is calculated, it becomes a positive value. Depending on the size of the difference data, it is possible to determine whether it is a stain or a pore, and the level of the pore. If the difference data becomes negative, it is set to 0. This is because the entire face area is not illuminated with a uniform illuminance due to the illumination light source, and this variation is taken into consideration.

なお、上記において最大頻度を用いることで、平均化された画像データを簡単に生成することができる。なお、差分データを用いて毛穴・シミ等の評価を行う場合、最大頻度ではなく、平均値により取得してもよい。ただし、仮に平均値を取った場合、特に濃い大きなシミが存在すると、平均値では値が低下してしまい、精度のよい毛穴等の検出が行なえなくなる可能性がある。   Note that, by using the maximum frequency in the above, it is possible to easily generate averaged image data. In addition, when evaluating pores, a stain, etc. using difference data, you may acquire by an average value instead of the maximum frequency. However, if the average value is taken, especially if there is a large dark spot, the average value will decrease, and it may be impossible to detect pores or the like with high accuracy.

差分データを演算すると、顔領域内の全ての画素についてスキャニングが終了したかどうかを判定し(S7)、終了していなければ、ステップS4に戻り、次の注目画素について同様の演算を繰り返す。   When the difference data is calculated, it is determined whether or not scanning has been completed for all the pixels in the face area (S7). If not, the process returns to step S4 and the same calculation is repeated for the next pixel of interest.

顔領域の全体にわたってスキャニングが終了すると、差分データを3つの閾値により4値化する(S8)。具体的には、差分データを[0,1,2,3]の4種類にレベル分けを行なうものであり、毛穴・シミが含まれる第1領域[1,2,3]と、毛穴・シミが含まれない第2領域[0]とに分類する(S9)。これは、いわゆるラベリングと呼ばれている処理である。このように2つの領域に分類すると、顔領域は、普通の肌の領域である第2領域[0]と、多数のクラスター(小領域)の集合体である第1領域[1,2,3]とに分けられる。   When scanning is completed over the entire face area, the difference data is binarized using three threshold values (S8). Specifically, the difference data is classified into four types [0, 1, 2, 3], and the first region [1, 2, 3] including the pores and spots, and the pores and spots. Is classified into the second area [0] that does not include (S9). This is a so-called labeling process. When classified into two areas in this way, the face area is the second area [0], which is a normal skin area, and the first area [1, 2, 3], which is an aggregate of many clusters (small areas). ].

次に、この4値化された顔画像データに対してコントラスト強調処理を行う(S10)。この例では、4値化することで[0,1,2,3]の4つの値により各画素値が表されているが、これを例えば、[0,2,4,6]あるいは[0,3,6,9]のように変換すれば、より大きな明度差が生じるため、強調した画像データを得ることができる。   Next, contrast enhancement processing is performed on the four-valued face image data (S10). In this example, each pixel value is represented by four values [0, 1, 2, 3] by quaternization. For example, [0, 2, 4, 6] or [0 , 3, 6, 9], a greater brightness difference is produced, so that enhanced image data can be obtained.

強調処理が終わると、その画像をモニター画面に表示するための表示処理が行われる(S11)。この表示例を図10に示す。また、強調処理された顔画像データは、必要に応じて顔画像データ保存部35に保存される(S12)。   When the enhancement process is completed, a display process for displaying the image on the monitor screen is performed (S11). An example of this display is shown in FIG. The face image data subjected to the enhancement process is stored in the face image data storage unit 35 as necessary (S12).

ステップS8において4値化された画像データは、毛穴・シミ等の判定処理にも利用される(S9)。この判定処理について簡単に説明する。例えば、シミの検出は、クラスターの形状に基づいて判定することができる。通常、シミの大きさは毛穴よりも大きくなっており、所定の形状を有しているものと判定可能であるからである。具体的には、クラスターを囲む矩形を設定し、この矩形の2辺x,yの長さに基づいて、シミであるか否かの判定が行なわれる。例えば、矩形の一辺(xもしくはy)が15画素以上であれば、そのクラスターはシミであると判定する。   The image data that has been binarized in step S8 is also used for determination processing such as pores and spots (S9). This determination process will be briefly described. For example, spot detection can be determined based on the shape of the cluster. This is because the size of the stain is usually larger than the pore and it can be determined that the spot has a predetermined shape. Specifically, a rectangle surrounding the cluster is set, and whether or not it is a stain is determined based on the lengths of the two sides x and y of the rectangle. For example, if one side (x or y) of the rectangle is 15 pixels or more, the cluster is determined to be a stain.

次に、毛穴の検出例について説明する。上記のように矩形を設定し、縦横比が1:0.65以上であれば毛穴であると判定する。毛穴の形状は、円形に近いものと推定できるので、上記のような比率以上に正方形に近いものは、毛穴であると判定することができる。   Next, a detection example of pores will be described. If the rectangle is set as described above and the aspect ratio is 1: 0.65 or more, it is determined that the pore is a pore. Since the shape of the pore can be estimated to be close to a circle, it is possible to determine that a pore that is closer to a square than the above ratio is a pore.

そして、更に、毛穴については、[1][2][3]の存在割合に基づいて、目立つ毛穴と黒ずんだ毛穴の2段階のレベルに分類して検出することができる。   Further, pores can be detected by classifying them into two levels of conspicuous pores and dark pores based on the existence ratio of [1] [2] [3].

判定処理が終わると、毛穴等の検出結果をモニター画面に表示するための表示処理が行われる(S12)。   When the determination process ends, a display process for displaying the detection result of pores or the like on the monitor screen is performed (S12).

<別実施形態>
平均化処理としては、本実施形態の方法の他、例えば、移動平均フィルターを用いた処理を行ってもよい。
<Another embodiment>
As the averaging process, for example, a process using a moving average filter may be performed in addition to the method of the present embodiment.

本実施形態では4値化された画像データに対して強調処理を行っているが、4値化前の差分データに対して直接強調処理を施してもよい。   In this embodiment, the emphasis process is performed on the quaternarized image data, but the emphasis process may be directly performed on the difference data before the quaternarization.

本実施形態では、顔領域の設定を平均画素値に基づいて自動的に検索する方法を採用しているが、顔の一部のみの判定を行う場合などには、オペレータがモニター画面の上でマウス等により顔領域を設定するように構成してもよい。顔の一部のみの評価を行えばよい場合には、このように設定することで、画像処理を行う範囲を制限し、画像処理に要する時間を短縮化することができる。また、顔領域を自動的に検索して設定する方法と、オペレータが設定する方法のいずれかを任意に選択できるようにすることが好ましい。   In the present embodiment, a method of automatically searching for the setting of the face area based on the average pixel value is adopted. However, when only a part of the face is determined, the operator can display on the monitor screen. The face area may be set with a mouse or the like. When only a part of the face needs to be evaluated, setting in this way can limit the range for image processing and shorten the time required for image processing. It is preferable that any one of a method for automatically searching and setting a face area and a method for setting by an operator can be arbitrarily selected.

本実施形態において、ヒストグラムは、カラー画像データを構成するRGBのうち、青の画像データを用いて行なうことが好ましい。従って、差分データについても、青の画像データについて演算する。これは、シミが生じた場合、青の成分が大きく低下するためである。なお、毛穴の場合は、RGBがほぼ同じ程度で低下するので、どの成分を用いても精度的には問題がない。   In the present embodiment, the histogram is preferably performed using blue image data out of RGB constituting the color image data. Therefore, the difference data is also calculated for the blue image data. This is because when a stain occurs, the blue component is greatly reduced. In the case of pores, since RGB decreases to approximately the same level, there is no problem in accuracy regardless of which component is used.

本実施形態では、差分データに対して4値化を行なっているが、本発明はこれに限定されるものではない。2値化でもよいし、5値化以上でもよい。これについては、検出目的に応じて適切な閾値を設定すればよい。   In this embodiment, quaternarization is performed on the difference data, but the present invention is not limited to this. It may be binarized or may be binarized or higher. For this, an appropriate threshold value may be set according to the detection purpose.

顔撮影装置の内部構成を示す横断面図Cross-sectional view showing the internal configuration of the face photographing device 顔撮影装置の内部構成を示す縦断面図Longitudinal sectional view showing the internal structure of the face photographing device 撮影カメラの回転移動機構の詳細構成を示す斜視図The perspective view which shows the detailed structure of the rotational movement mechanism of an imaging camera 顔撮影装置及び顔画像解析システムの制御機能を示すブロック図Block diagram showing control functions of face photographing apparatus and face image analysis system 毛穴・シミ検出の手順を示すフローチャートFlow chart showing the procedure for detecting pores and spots 撮影された顔画像をモニター画面に表示した例を示す図The figure which shows the example which displayed the photographed face image on the monitor screen 中央領域を示す図Diagram showing the central area 設定された顔領域の例を示す図The figure which shows the example of the set face area 差分データを求めるときの処理を説明するための図The figure for explaining the processing when obtaining the difference data 強調された画像の表示例を示す図Figure showing a display example of an emphasized image

符号の説明Explanation of symbols

4 撮影カメラ
21 モニター
30 コントローラ
35 顔画像データ保存部
36 画像処理部(顔画像表示システム)
36a 顔領域設定手段
36b 平均化処理手段
36c 差分演算手段
36d 強調処理手段
36e 判定手段
36f 表示データ生成手段
H 顔撮影装置
4 photographing camera 21 monitor 30 controller 35 face image data storage unit 36 image processing unit (face image display system)
36a Face area setting means 36b Averaging processing means 36c Difference calculation means 36d Enhancement processing means 36e Determination means 36f Display data generation means H Face photographing apparatus

Claims (2)

撮像手段により撮影された顔画像データをモニターに表示させるための顔画像表示システムであって、
撮影された顔画像データに基づいて顔領域を設定する顔領域設定手段と、
設定された顔領域について平均化処理を行う平均化処理手段と、
平均化前の顔画像データと平均化処理が施された顔画像データの差分データを演算する差分演算手段と、
この差分データに対してコントラスト強調を行なう強調処理手段と、
コントラスト強調された顔画像データをモニターに表示させるための表示データを生成する表示データ生成手段と、を備えていることを特徴とする顔画像表示システム。
A face image display system for displaying face image data captured by an imaging means on a monitor,
Face area setting means for setting the face area based on the captured face image data;
An averaging processing means for performing an averaging process on the set face area;
A difference calculating means for calculating difference data between the face image data before averaging and the face image data subjected to the averaging process;
Enhancement processing means for performing contrast enhancement on the difference data;
A face image display system comprising: display data generating means for generating display data for displaying contrast-enhanced face image data on a monitor.
前記平均化処理手段は、顔領域を構成する各画素について、注目画素を含む所定領域についてのヒストグラムを作成して、最大頻度を有する画素値を取得するものであることを特徴とする請求項1に記載の顔画像表示システム。   2. The averaging processing unit is configured to create a histogram for a predetermined area including a target pixel for each pixel constituting a face area, and obtain a pixel value having a maximum frequency. The face image display system described in 1.
JP2007139065A 2007-05-25 2007-05-25 Face image display system Withdrawn JP2008293327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007139065A JP2008293327A (en) 2007-05-25 2007-05-25 Face image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007139065A JP2008293327A (en) 2007-05-25 2007-05-25 Face image display system

Publications (1)

Publication Number Publication Date
JP2008293327A true JP2008293327A (en) 2008-12-04

Family

ID=40167978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007139065A Withdrawn JP2008293327A (en) 2007-05-25 2007-05-25 Face image display system

Country Status (1)

Country Link
JP (1) JP2008293327A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187849A (en) * 2014-03-13 2015-10-29 パナソニックIpマネジメント株式会社 Image processor and image processing method
JP2015232746A (en) * 2014-06-09 2015-12-24 パナソニックIpマネジメント株式会社 Wrinkle detection device and wrinkle detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187849A (en) * 2014-03-13 2015-10-29 パナソニックIpマネジメント株式会社 Image processor and image processing method
JP2015232746A (en) * 2014-06-09 2015-12-24 パナソニックIpマネジメント株式会社 Wrinkle detection device and wrinkle detection method
CN105310690A (en) * 2014-06-09 2016-02-10 松下知识产权经营株式会社 Wrinkle detection apparatus and wrinkle detection method

Similar Documents

Publication Publication Date Title
JP2008293325A (en) Face image analysis system
US10311575B2 (en) Imaging method for determining stray fibers
JP5080060B2 (en) Skin condition analysis method, skin condition analysis apparatus, skin condition analysis program, and recording medium on which the program is recorded
US20090118600A1 (en) Method and apparatus for skin documentation and analysis
JP2004321793A (en) Method and system for computational analysis of skin image
JP4783331B2 (en) Face recognition device
JP6273640B2 (en) Captured image display device
JP2016524363A (en) Hair consultation tool apparatus and method
EP3219251A1 (en) Organ image capture device and program
JP2009000494A (en) Porphyrin detection method, porphyrin display method, and porphyrin detector
CN107454315B (en) The human face region treating method and apparatus of backlight scene
JP7401013B2 (en) Information processing device, control device, information processing method and program
KR101674099B1 (en) Apparatus for generating image for face authentication and method thereof
JP5362405B2 (en) Pupil measuring device, pupil measuring method and pupil measuring program
JP2009006089A (en) Face imaging apparatus
JP2016189135A (en) Recognition device, recognition method, and recognition program
JP2009005845A (en) Skin diagnostic apparatus and wrinkle measuring method
WO2006057314A1 (en) Image processing device, and image processing method
JP2004041753A (en) Skin diagnostic apparatus using digital zooming
JP2008293327A (en) Face image display system
JP6970836B2 (en) Systems and methods for 3D scanning
JP2008161322A (en) Face photographing device
JP2006081846A (en) Method and apparatus for estimating facial wrinkle
JP2008161508A (en) Face photographing device
JP2004105748A (en) Digital zooming skin diagnosing device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803