JP2009006089A - Face imaging apparatus - Google Patents

Face imaging apparatus Download PDF

Info

Publication number
JP2009006089A
JP2009006089A JP2007172792A JP2007172792A JP2009006089A JP 2009006089 A JP2009006089 A JP 2009006089A JP 2007172792 A JP2007172792 A JP 2007172792A JP 2007172792 A JP2007172792 A JP 2007172792A JP 2009006089 A JP2009006089 A JP 2009006089A
Authority
JP
Japan
Prior art keywords
face
area
photographing
face image
pores
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007172792A
Other languages
Japanese (ja)
Inventor
Hideya Miyazaki
英也 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2007172792A priority Critical patent/JP2009006089A/en
Publication of JP2009006089A publication Critical patent/JP2009006089A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face imaging apparatus which evaluates the skin with high precision on the basis of imaged face image data irrespective of difference in surface temperatures of the face. <P>SOLUTION: The face imaging apparatus includes an imaging camera 4 for imaging a face image, a thermography device 6 for measuring temperature distribution data of the face surface, calculation means for carrying out calculation for skin diagnosis using face image data imaged by the imaging camera 4, and correction processing means 36f for correcting calculation contents of the calculation on the basis of the measurement result of the thermography device 6. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像手段により撮影された顔画像データを用いて肌の状態を評価するための顔撮影装置に関するものである。   The present invention relates to a face photographing apparatus for evaluating a skin condition using face image data photographed by an imaging means.

かかる顔画像装置は、美容皮膚科、美容外科、形成外科などにおいて使用されており、顔撮影装置により、定期的に人の顔を撮影することで肌の状態の経時的な変化を観察し、化粧品や肌治療の効果を確認する目的で使用されている(例えば、下記特許文献1)。具体的には、得られた顔画像からシミ・シワ・毛穴・色ムラなどの評価を行なうものであり、さらには、紫外線を使用したポルフィリン・かくれジミなどの評価も行なわれている。このような肌状態の評価を行なうために、以前に撮影した顔画像と今回撮影した顔画像とを画像処理技術(ソフトウェア)を用いて比較することが行なわれている。従って、以前の顔画像と現在の顔画像が同じ条件で撮影されている必要がある。   Such a face image device is used in cosmetic dermatology, cosmetic surgery, plastic surgery, etc., and a face photographing device observes a change in skin condition over time by photographing a person's face regularly, It is used for the purpose of confirming the effects of cosmetics and skin treatment (for example, Patent Document 1 below). Specifically, evaluation of spots, wrinkles, pores, color unevenness, and the like is performed from the obtained face image, and further, porphyrins, hide-and-spots using ultraviolet rays are also evaluated. In order to evaluate such a skin condition, a face image shot before and a face image shot this time are compared using an image processing technique (software). Therefore, it is necessary that the previous face image and the current face image are taken under the same conditions.

特許3219550号公報Japanese Patent No. 3219550

しかしながら、以前に撮影したときの顔の表面温度(温度分布)が現在の顔の表面温度と異なっていると、正確な肌状態の評価を行なうことができない場合がある。例えば、気温が寒いときには毛穴は閉じて、暖かいときには毛穴は開く傾向にある。これは、汗をかいているときなどにも同じような傾向がある。従って、顔画像データから毛穴の大きさを計測して肌状態の評価を行おうとする場合、前回と今回とで顔の表面温度が異なっていると、正確な診断が行なえない可能性がある。   However, if the face surface temperature (temperature distribution) when previously photographed is different from the current face surface temperature, accurate skin condition evaluation may not be possible. For example, pores tend to close when the temperature is cold and open when the temperature is warm. This also has the same tendency when sweating. Therefore, when measuring the pore size from the face image data and evaluating the skin condition, if the surface temperature of the face is different between the previous time and the current time, there is a possibility that an accurate diagnosis cannot be performed.

本発明は上記実情に鑑みてなされたものであり、その課題は、顔の表面温度の違いにも関わらず、撮影された顔画像データに基づいて精度のよい肌の評価を行うことが可能な顔撮影装置を提供することである。   The present invention has been made in view of the above circumstances, and the problem is that it is possible to accurately evaluate the skin based on the photographed face image data, regardless of the difference in the surface temperature of the face. It is to provide a face photographing device.

上記課題を解決するため本発明に係る顔撮影装置は、
顔画像を撮影するための撮像手段と、
顔表面の温度分布データを計測するための温度計測手段と、
撮像手段により撮影された顔画像データを用いて肌診断のための演算処理を行う演算手段と、
温度計測手段による計測結果に基づいて、前記演算処理を行う際の演算内容を補正する補正処理手段と、を備えたことを特徴とするものである。
In order to solve the above-described problem, a face photographing apparatus according to the present invention includes:
Imaging means for photographing a face image;
Temperature measuring means for measuring temperature distribution data on the face surface;
Arithmetic means for performing arithmetic processing for skin diagnosis using face image data photographed by the imaging means;
And correction processing means for correcting the calculation contents when performing the calculation processing based on the measurement result by the temperature measurement means.

かかる構成による顔撮影装置の作用・効果を説明する。顔画像を撮影するための撮像手段と、顔表面の温度分布データを計測するための温度計測手段が設けられている。撮像手段により撮影された顔画像データを用いて、例えば、画像処理などの手法を用いることで、肌診断のための演算処理が行なわれる。この演算処理を行うに際して、温度計測手段による計測結果に基づいて、演算内容の補正が行なわれるので、顔の表面温度の違いを補正して、精度のよい肌の診断を行なうことが可能になる。その結果、顔の表面温度の違いにも関わらず、撮影された顔画像データに基づいて精度のよい肌の評価を行うことが可能な顔撮影装置を提供することができる。   The operation and effect of the face photographing apparatus having such a configuration will be described. An imaging means for photographing a face image and a temperature measuring means for measuring temperature distribution data on the face surface are provided. An arithmetic process for skin diagnosis is performed by using, for example, a technique such as image processing using the face image data captured by the imaging unit. When this calculation process is performed, the calculation contents are corrected based on the measurement result of the temperature measurement means, so that it is possible to correct the difference in the surface temperature of the face and perform accurate skin diagnosis. . As a result, it is possible to provide a face photographing apparatus capable of performing accurate skin evaluation based on photographed face image data regardless of the difference in the surface temperature of the face.

本発明に係る前記演算処理は、毛穴の大きさを閾値に基づいて判定するための処理を含んでおり、前記補正データ生成手段は、閾値を設定変更するものであることが好ましい。   The arithmetic processing according to the present invention preferably includes a process for determining the size of pores based on a threshold value, and the correction data generating means preferably changes the threshold value.

毛穴を大きさを判定する場合には、閾値を設定し、所定の大きさよりも大きな毛穴か否かの判定を行なうことができるが、表面温度が変わると、毛穴そのものの大きさが温度に応じて変化する。従って、表面温度の値に基づいて、適切な閾値が設定されるように補正することで、精度のよい肌の診断を行なうことができる。   When determining the size of pores, a threshold value can be set to determine whether the pore is larger than a predetermined size, but if the surface temperature changes, the size of the pore itself depends on the temperature. Change. Therefore, accurate skin diagnosis can be performed by correcting so that an appropriate threshold is set based on the value of the surface temperature.

本発明に係る顔撮影装置の好適な実施形態を図面を用いて説明する。図1は、顔撮影装置の内部構成を示す横断面図を示し、図2は、図1に示す顔撮影装置の縦断面図である。   A preferred embodiment of a face photographing apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a cross-sectional view showing the internal configuration of the face photographing apparatus, and FIG. 2 is a longitudinal sectional view of the face photographing apparatus shown in FIG.

この顔撮影装置Hは、美容皮膚科、美容外科、形成外科などにおいて使用されている。定期的あるいは適度な期間を空けて人の顔を撮影することで肌の状態の経時的な変化を観察し、化粧品や肌治療の効果を確認する目的で使用される。この装置は、得られた顔画像からシミ・シワ・毛穴・色ムラなどの評価を行なう機能を有し、さらには、紫外線を使用したポルフィリン・かくれジミなどの評価を行なうこともできる。   The face photographing apparatus H is used in cosmetic dermatology, cosmetic surgery, plastic surgery and the like. It is used for the purpose of observing changes in skin condition over time by photographing a person's face at regular or moderate intervals and confirming the effects of cosmetics and skin treatment. This apparatus has a function of evaluating spots, wrinkles, pores, color unevenness, and the like from the obtained face image, and can also evaluate porphyrins, hide spots, etc. using ultraviolet rays.

図1において、顔撮影装置Hは、略立方体形状の筐体1を備えており、顔の撮影を行う時は筐体1内の所定箇所に顔を保持させた状態で行い、室内光などが筐体1内部に侵入しにくいような構造が採用されている。筐体1の正面には開口部1aが形成されており、ここから顔を挿入させる。開口部1aからの外光進入を防止するためにカーテン1bが設けられる。人の顔を所定位置に保持するための顔保持手段として、あご載せ台2と額押さえ3が設けられている。あご載せ台2と額押さえ3は、人の顔の大きさや形状などに対応できるように手動で位置調整ができるように構成されている。   In FIG. 1, the face photographing apparatus H includes a substantially cube-shaped housing 1, and when photographing a face, the face is held in a predetermined position in the housing 1, and indoor light is emitted. A structure that does not easily enter the housing 1 is employed. An opening 1a is formed on the front surface of the housing 1, from which a face is inserted. A curtain 1b is provided to prevent outside light from entering from the opening 1a. As face holding means for holding a person's face in a predetermined position, a chin rest 2 and a forehead press 3 are provided. The chin rest 2 and the forehead retainer 3 are configured to be manually position-adjustable so as to correspond to the size and shape of a person's face.

具体的には、図2に示すように、額押さえ3の押え部3aは、軸3b周りに回転可能であり、顔の姿勢の変更に対応できるようにしている。あご載せ台2は、連結部2aを介して軸2b周りに回転可能であり、顔の姿勢の変更に対応できるようにしている。軸3bは、押え部3aの位置よりも少し後側に設けており、同様に、軸2bも、あご載せ台2のあごが載る位置よりも少し後側に設けている。また、軸3bと軸2bは同軸上に設けられている。これにより、顔の姿勢を横向きに変更したとしても、画面の中央に顔が位置するようにしている。   Specifically, as shown in FIG. 2, the presser portion 3a of the forehead presser 3 is rotatable around the shaft 3b so as to be able to cope with a change in the posture of the face. The chin mount 2 can be rotated around the shaft 2b via the connecting portion 2a so as to be able to cope with a change in the posture of the face. The shaft 3b is provided slightly behind the position of the presser portion 3a. Similarly, the shaft 2b is also provided slightly behind the position where the jaw of the jaw mounting base 2 is placed. The shaft 3b and the shaft 2b are provided coaxially. Thereby, even if the posture of the face is changed to landscape, the face is positioned at the center of the screen.

顔を撮影するための撮影手段として撮影カメラ4が設けられており、カメラ支持体5を介して筐体1に保持されている。顔が正面位置を向いたとき(第1の姿勢)には、ちょうど顔が撮影カメラ4と向かい合うように、撮影カメラ4の位置は固定されている。ただし、撮影カメラ4の位置を微調整可能に構成してもよい。   A photographing camera 4 is provided as a photographing means for photographing the face, and is held on the housing 1 via a camera support 5. When the face faces the front position (first posture), the position of the photographing camera 4 is fixed so that the face just faces the photographing camera 4. However, the position of the photographing camera 4 may be finely adjustable.

また、カメラ支持体5には、温度計測手段として機能する赤外線サーモグラフィ6も搭載されており、顔の表面温度の計測を行うことができる。撮像カメラ4により顔画像を撮影するときには、同時にサーモグラフィ6により顔表面の温度分布データも合わせて取得するようにする。   The camera support 5 is also equipped with an infrared thermography 6 that functions as a temperature measuring means, and can measure the surface temperature of the face. When a face image is taken by the imaging camera 4, the temperature distribution data of the face surface is also acquired at the same time by the thermography 6.

顔の側面画像を撮影するときには、顔保持手段を調整して、顔を横向き姿勢(第2の姿勢)にするようにしている。図1に示すように、撮影カメラ4による顔の撮影位置は、正面位置P0と左右の側面位置P1,P2の3箇所が設定されている。顔の視線が正面位置P0を向いているとき(第1の姿勢)に、正面画像の撮影が行われ、顔の視線が側面位置P1,P2を向いているとき(第2の姿勢)に、側面画像の撮影が行われる。   When taking a side image of the face, the face holding means is adjusted so that the face is in a sideways posture (second posture). As shown in FIG. 1, three shooting positions of the face by the shooting camera 4 are set, that is, a front position P0 and left and right side positions P1, P2. When the face line of sight faces the front position P0 (first posture), a front image is taken, and when the face line of sight faces the side positions P1 and P2 (second posture), A side image is taken.

側面位置P1,P2は正面位置P0に対してθ゜に設定された位置である。このθは、30゜〜75゜の間に設定され、一般的には40゜〜45゜に設定される。また、側面位置P1,P2は2箇所だけでなく、更に多くの側面位置が設定されていてもよい。例えば、30゜,45゜,60゜,75゜の夫々の位置で側面画像を撮影するように構成してもよい。   The side positions P1 and P2 are positions set at θ ° with respect to the front position P0. This θ is set between 30 ° and 75 °, and is generally set between 40 ° and 45 °. Further, the side surface positions P1 and P2 are not limited to two locations, and more side surface positions may be set. For example, the side images may be taken at 30 °, 45 °, 60 °, and 75 ° positions.

撮影カメラ4は、デジタルカメラが使用されるが、どのようなタイプのものを使用してもよい。必要に応じてビデオ機能を有するものを使用してもよく、静止画像を撮影可能なビデオカメラを使用してもよい。   As the photographing camera 4, a digital camera is used, but any type of camera may be used. If necessary, one having a video function may be used, or a video camera capable of taking a still image may be used.

顔を照明するための光源8が筐体1内の複数個所に配置されている。光源8は、顔の位置を中心として円周方向に沿って顔に面するように配置されていると共に、図2に示すように、上方及び下方にも複数個所に配置される。光源8には、可視光を照射する光源と紫外線を照射するブラックライトがあり、目的に応じて使い分けもしくは両方が使用される。可視光を照射する光源8は、ハロゲンランプ、蛍光灯、LED、フラッシュ光源など適宜のものを使用することができる。光源8として、フラッシュ光源を使用してもよい。   Light sources 8 for illuminating the face are arranged at a plurality of locations in the housing 1. The light source 8 is arranged so as to face the face along the circumferential direction with the position of the face as a center, and is also arranged at a plurality of locations above and below as shown in FIG. The light source 8 includes a light source that irradiates visible light and a black light that irradiates ultraviolet rays. Either one or both are used depending on the purpose. As the light source 8 for irradiating visible light, an appropriate one such as a halogen lamp, a fluorescent lamp, an LED, or a flash light source can be used. A flash light source may be used as the light source 8.

光源8から照射される光を均一に拡散するための拡散板9が光源8と顔の間に配置される。拡散板9は、図1に示す横断面形状は円弧形状(半円形状)である。図2に示すように、拡散板9は、顔の正面だけでなく天井部と底面部にも配置されており、従って、この拡散板9により顔が包囲されるような形態となる。なお、拡散板9は、半円形でなくてもよく、多角形、楕円形状を呈していてもよい。撮影カメラ4が設置される正面位置P0において撮影を可能にするため矩形の開口部9aが形成される。   A diffusion plate 9 for uniformly diffusing light emitted from the light source 8 is disposed between the light source 8 and the face. The cross-sectional shape of the diffusion plate 9 shown in FIG. As shown in FIG. 2, the diffusion plate 9 is arranged not only on the front surface of the face but also on the ceiling portion and the bottom surface portion, and thus the face is surrounded by the diffusion plate 9. The diffusion plate 9 does not have to be semicircular, and may have a polygonal shape or an elliptical shape. A rectangular opening 9a is formed to enable photographing at the front position P0 where the photographing camera 4 is installed.

制御装置20は、顔撮影装置Hの動作を制御する機能と、撮影カメラ4により撮影された顔画像に関する画像処理を行う機能を有する。モニター21には、撮影された顔画像が表示される。キーボード22は、顔撮影装置Hに対する種々の動作指令入力や画像処理を行なうための種々の動作指令やデータ入力などを行なう。制御装置20、モニター21、キーボード22は、汎用のコンピュータ(パソコン)により構成してもよい。   The control device 20 has a function of controlling the operation of the face photographing device H and a function of performing image processing relating to a face image photographed by the photographing camera 4. The captured face image is displayed on the monitor 21. The keyboard 22 inputs various operation commands to the face photographing device H and various operation commands and data for performing image processing. The control device 20, the monitor 21, and the keyboard 22 may be configured by a general-purpose computer (personal computer).

<制御関係>
次に、顔撮影装置Hの主要な制御機能について図3の制御ブロック図により説明する。コントローラ30は、顔撮影装置Hを統括的に制御する機能を提供するものであり、CPU、メモリ、その他の必要なプログラム等により構成される。照明制御部31は、光源8の点灯・消灯制御を行なう。光源8は、顔画像の撮影を行う時に点灯される。可視光と紫外線を使い分ける場合に、そのいずれを点灯させるのか、あるいは両方を点灯させるのかについての制御も行われる。
<Control related>
Next, main control functions of the face photographing apparatus H will be described with reference to the control block diagram of FIG. The controller 30 provides a function for comprehensively controlling the face photographing apparatus H, and includes a CPU, a memory, and other necessary programs. The illumination control unit 31 controls the turning on / off of the light source 8. The light source 8 is turned on when taking a face image. When using visible light and ultraviolet light separately, control is performed as to which of them is lit or both of them are lit.

カメラ制御部34は、撮影カメラ4の動作を制御するものであり、具体的にはシャッターを切ることで顔画像の撮影を行う。顔画像の撮影は、顔の向きが正面位置P0,側面位置P1,P2の夫々の場合において行なわれる。   The camera control unit 34 controls the operation of the photographing camera 4, and specifically takes a face image by releasing the shutter. The face image is taken when the face orientation is the front position P0 and the side positions P1 and P2.

サーモグラフィ制御部33は、サーモグラフィ6の動作を制御するものであり、撮像カメラ4による顔画像の撮影を行う場合には、合わせてサーモグラフィ6による顔の表面温度の計測も行われる。表面温度の計測についても、顔の向きが正面位置P0,側面位置P1,P2の夫々の場合において行なわれる。   The thermography control unit 33 controls the operation of the thermography 6. When a face image is taken by the imaging camera 4, the face surface temperature is also measured by the thermography 6. The measurement of the surface temperature is also performed when the face orientation is the front position P0 and the side positions P1 and P2.

データ保存部35は、撮影カメラ4により撮影された顔画像データ及びサーモグラフィ6により計測された顔表面の温度分布データが保存される。顔画像データは、デジタルのカラー画像データであり、JPEG等の適宜のファイル形式で保存される。顔画像データは、正面画像・左右側面画像ごとに保存され、人物を特定する人物ID(識別情報)・撮影年月日・表面温度データと共に保存される。   The data storage unit 35 stores the face image data photographed by the photographing camera 4 and the temperature distribution data of the face surface measured by the thermography 6. The face image data is digital color image data, and is stored in an appropriate file format such as JPEG. The face image data is stored for each of the front image and the left and right side images, and is stored together with a person ID (identification information) that identifies a person, shooting date, and surface temperature data.

<顔画像解析システムの構成>
画像処理部36は、取得された顔画像データに対する画像処理を行い、毛穴・シミなどの検出を行なう機能を有するものであり、ソフトウェアもしくはソフトウェアとハードウェアの組み合わせにより構成することができる。
<Configuration of facial image analysis system>
The image processing unit 36 has a function of performing image processing on the acquired face image data and detecting pores and spots, and can be configured by software or a combination of software and hardware.

顔領域設定手段36aは、撮像カメラ4により撮影された顔画像データの中に含まれる顔領域の設定を行う機能を有する。顔領域とは、顔の中でも特に人の肌の領域を指すものであり、肌の評価には関係のない、鼻の穴、眉毛、目、口などは除かれる。顔領域の設定は、オペレータがモニター21の画面を見ながらマウス等で設定する場合と、自動的に設定する場合とがある。本発明は、いずれの方法を採用してもよく、機能的には両方備えていることが好ましい。   The face area setting unit 36 a has a function of setting a face area included in the face image data photographed by the imaging camera 4. The face area refers to a human skin area in the face, and excludes nostrils, eyebrows, eyes, mouth, etc., which are not related to skin evaluation. The face area may be set by the operator using a mouse or the like while viewing the screen of the monitor 21 or automatically. In the present invention, any method may be adopted, and it is preferable that both methods are provided functionally.

差分演算手段36bは、顔領域が設定された後に、顔領域を構成する各画素について、注目画素を含む所定領域について作成されたヒストグラムに基づいて、最大頻度を有する画素値を取得し、この取得された画素値と注目画素の画素値との差分データを演算する機能、を有している。この機能に基づいて、通常の肌の色と肌と毛穴・シミとの色の差を演算し、後述するように、毛穴であるかシミであるかの判定を行なうものである。   After the face area is set, the difference calculating unit 36b acquires the pixel value having the maximum frequency for each pixel constituting the face area based on the histogram created for the predetermined area including the target pixel. A function of calculating difference data between the obtained pixel value and the pixel value of the target pixel. Based on this function, the difference between the normal skin color and the color of the skin and pores / stains is calculated to determine whether the skin is a pore or a stain as will be described later.

4値化手段36cは、差分演算手段36bにより演算された差分データを3つの閾値により4値化する機能を有する。この機能に基づいて、差分データを[0,1,2,3]の4種類にレベル分けを行なう。   The quaternarizing means 36c has a function of quaternizing the difference data calculated by the difference calculating means 36b with three threshold values. Based on this function, the difference data is classified into four types [0, 1, 2, 3].

領域分類手段36dは、4値化された結果に基づき、差分データを毛穴・シミが含まれる第1領域[1,2,3]と、毛穴・シミが含まれない第2領域[0]とに分類する。第2領域は、通常の肌の領域を表すものであり、第1領域は、毛穴もしくはシミにより構成されるものと推定される領域である。第1領域は、実際には多数のクラスター(面積の小さな小領域)の集合体として構成される。   Based on the result of the quaternarization, the area classification unit 36d obtains difference data as a first area [1, 2, 3] including pores and spots, and a second area [0] including no pores and spots. Classify into: The second region represents a normal skin region, and the first region is a region estimated to be composed of pores or spots. The first region is actually configured as an aggregate of a large number of clusters (small regions having a small area).

判定手段36eは、領域分類手段36dにより得られた各クラスターに対する解析を行なって毛穴であるかシミであるかの判定処理を行う。例えば、クラスターの形状・面積などを解析し、毛穴・シミ・シワであるか否かの判定が可能になる。また、4値化された画素[1,2,3]の存在割合などを解析することで、例えば、目立つ毛穴であるか黒ずんだ毛穴であるかなどの詳細な解析を行なうことができる。各機能の詳細については、具体的な顔画像を用いながら説明する。   The determination unit 36e performs an analysis on each cluster obtained by the region classification unit 36d and performs a determination process as to whether it is a pore or a spot. For example, it is possible to analyze the shape / area of the cluster and determine whether it is a pore / stain / wrinkle. Further, by analyzing the existence ratio of the quaternarized pixels [1, 2, 3], for example, it is possible to perform a detailed analysis such as whether the pores are conspicuous or dark pores. Details of each function will be described using specific face images.

これら4値化手段36c、領域分類手段36d、判定手段36eは、肌診断のための演算処理を行なう演算手段に相当するものである。   These quaternization means 36c, area classification means 36d, and determination means 36e correspond to arithmetic means for performing arithmetic processing for skin diagnosis.

補正処理手段36fは、判4値化手段36c、領域分類手段36d、判定手段36eなどが演算を行なう際の演算内容を補正する機能を有する。具体的には、サーモグラフィ6による計測結果に基づいて、演算内容の補正を行う。これは、顔の表面温度が異なっていると、毛穴の大きさが変化するため、できるだけ正確な肌診断が行なえるように補正を行うものである。例えば、気温が寒いときには毛穴は閉じて、暖かいときには毛穴は開く傾向にある。これは、汗をかいているときなどにも同じような傾向がある。   The correction processing unit 36f has a function of correcting calculation contents when the quadrature conversion unit 36c, the region classification unit 36d, the determination unit 36e, and the like perform calculations. Specifically, the calculation content is corrected based on the measurement result by the thermography 6. This is because correction is performed so that skin diagnosis can be performed as accurately as possible because the pore size changes when the surface temperature of the face differs. For example, pores tend to close when the temperature is cold and open when the temperature is warm. This also has the same tendency when sweating.

毛穴・シミの判定を行なうために、4値化手段36cは3つの閾値に基づいてレベル分けを行なっているが、この閾値の設定を変更することができる。例えば、前回の撮影時に比べて肌の表面温度が高くなっているような場合には、閾値を全体的に高くする方向に補正するようにする。顔の表面温度は、場所により異なっている可能性があるので、温度分布データから平均値を求めて、この平均値が前回よりも高いか低いかに基づいて補正を行うようにする。   In order to determine pores / stains, the quaternizing means 36c performs level division based on three threshold values, but the setting of the threshold values can be changed. For example, when the skin surface temperature is higher than that at the previous photographing, the threshold value is corrected to be increased as a whole. Since the face surface temperature may vary depending on the location, an average value is obtained from the temperature distribution data, and correction is performed based on whether the average value is higher or lower than the previous time.

表示データ生成手段36gは、画像処理の結果得られた画像をモニター21に表示するためのデータを生成する。また、画像処理の結果得られた画像についても、適宜顔画像データ保存部35に保存させることができる。   The display data generation unit 36g generates data for displaying an image obtained as a result of image processing on the monitor 21. Further, the image obtained as a result of the image processing can be appropriately stored in the face image data storage unit 35.

評価領域設定手段34は、肌診断を行なう顔の領域を設定するものであり、例えば、モニター21に表示される顔画像の中の特定のエリアをマウス等により指定することで設定することができる。もちろん、顔領域の全体を診断するようにしてもよい。この評価領域設定手段34による設定内容に基づいて、画像処理部36による画像処理が行なわれる
また、表面温度の計測結果による補正を行う場合でも、設定された領域内における表面温度データに基づいて、補正が行われる。
The evaluation area setting unit 34 sets a face area for skin diagnosis, and can be set by, for example, specifying a specific area in the face image displayed on the monitor 21 with a mouse or the like. . Of course, the entire face area may be diagnosed. Based on the setting content by the evaluation area setting means 34, image processing is performed by the image processing unit 36. Even when correction is performed based on the measurement result of the surface temperature, based on the surface temperature data in the set area, Correction is performed.

<画像処理手順>
次に、顔画像を撮影してから毛穴・シミの検出を行なってモニター12に表示させるまでの手順を説明する。図4は、処理手順の概要を示すフローチャートである。
<Image processing procedure>
Next, a procedure from when a face image is taken to when pores / stains are detected and displayed on the monitor 12 will be described. FIG. 4 is a flowchart showing an outline of the processing procedure.

まず、顔画像の撮影及びサーモグラフィ6による顔の表面温度(温度分布)の計測を行う(S1)。撮影される顔画像は、正面画像、左右の側面画像の3種類であるが、説明の便宜上、正面画像についてのみの説明を行なう。撮像カメラ4により撮影された顔画像データは、顔画像データ保存部35に保存される。また顔の温度分布データも同じように保存される(S2)。また、撮影された顔画像は、モニター21に映し出すことができる(図5参照)。撮像カメラ4で撮影を行う場合には、できるだけ画面いっぱいに顔が入るように撮影される。   First, a face image is taken and the surface temperature (temperature distribution) of the face is measured by the thermography 6 (S1). There are three types of face images to be photographed: a front image and left and right side images. For convenience of explanation, only the front image will be described. The face image data photographed by the imaging camera 4 is stored in the face image data storage unit 35. Similarly, the temperature distribution data of the face is stored (S2). Further, the photographed face image can be displayed on the monitor 21 (see FIG. 5). When shooting is performed with the imaging camera 4, the shooting is performed so that the face is as full as possible.

次に顔領域の設定を行う。顔画像データには、顔ではない領域や、顔領域内部であっても毛穴・シミの評価対象には関係のない領域が含まれている。そこで、画像処理を効率よく行なうために、顔領域の設定を行うようにしている(S3)。   Next, the face area is set. The face image data includes a region that is not a face and a region that is not related to the evaluation target of pores and spots even within the face region. Therefore, in order to perform image processing efficiently, the face area is set (S3).

そこで、まず、画面の中央領域Aの矩形に含まれる画素群の平均画素値を取得する(S30)。この中央領域Aは、予め設定されている領域であり、画像サイズに対して縦1/4、横1/4程度の大きさに設定されている(図6参照)。顔画像は画面いっぱいになるように撮影されることから、この範囲には顔の中央部分が含まれているものと推定される。なお、中央領域Aを表す矩形をモニター画面にも表示させてオペレータが確認できるように構成してもよい。また、必要に応じて中央領域Aの位置や大きさを変更できるように構成してもよい。なお、上記の平均画素値は、例えば、カラー画像データを構成するRGBの平均値により取得することができる。   Therefore, first, the average pixel value of the pixel group included in the rectangle in the central area A of the screen is acquired (S30). The central area A is a preset area, and is set to a size of about 1/4 vertical and 1/4 horizontal with respect to the image size (see FIG. 6). Since the face image is taken so as to fill the screen, it is estimated that the center part of the face is included in this range. Note that a rectangle representing the central area A may be displayed on the monitor screen so that the operator can check it. Moreover, you may comprise so that the position and magnitude | size of the center area | region A can be changed as needed. Note that the average pixel value can be obtained by, for example, an average value of RGB constituting the color image data.

上記のように得られた平均画素値は、肌の色を表しているものと推定される。次に、この平均画素値に対して所定の範囲内にある画素値を有する画素を検索する(S31)。例えば、平均画素値に対して±5%の範囲内にある画素を抽出する。検索する範囲は、上記の中央領域A内のほかに、中央領域Aの外側の領域である。検出された画素群を顔領域として設定し(S32)、この顔領域内について、毛穴・シミを検出するための画像処理を行なう。設定された顔領域を図6に模式的に示す。顔の輪郭以外の領域(背景など)や、顔の内部であっても、口・鼻の穴・目・眉毛などは毛穴・シミの検出には関係しない領域であり、顔領域から除外される。   The average pixel value obtained as described above is estimated to represent the skin color. Next, a pixel having a pixel value within a predetermined range with respect to the average pixel value is searched (S31). For example, pixels within a range of ± 5% with respect to the average pixel value are extracted. The range to be searched is an area outside the central area A in addition to the central area A described above. The detected pixel group is set as a face area (S32), and image processing for detecting pores and spots is performed in the face area. The set face area is schematically shown in FIG. Areas other than the outline of the face (background, etc.) and even inside the face, mouth, nostrils, eyes, eyebrows, etc. are areas that are not related to detection of pores and spots, and are excluded from the face area .

顔領域が設定されると、顔領域内の各画素について、次のようなスキャニングを行なう。すなわち、注目画素を中心として所定領域の範囲のヒストグラムを作成する(S4)。ヒストグラムは、カラー画像データを構成するRGBの各データのうち、青の画像データを用いて行なう。これは、シミが生じた場合、青の成分が大きく低下するためである。毛穴の場合は、RGBがほぼ同じ程度で低下するので、どの成分を用いても精度的には問題がない。   When the face area is set, the following scanning is performed for each pixel in the face area. That is, a histogram of a predetermined area range is created with the target pixel as the center (S4). The histogram is performed using blue image data among RGB data constituting the color image data. This is because when a stain occurs, the blue component is greatly reduced. In the case of pores, since RGB decreases to approximately the same level, there is no problem in accuracy regardless of which component is used.

作成されたヒストグラムを図8に概念的に示す。注目画素Bを中心として、矩形(正方形あるいは長方形)の所定領域Cが設定される。この所定領域Cの大きさは、例えば、1000万画素クラスの撮像カメラであれば、51画素×51画素の大きさに設定されるが、この所定領域Cの設定については、CCD等の撮像素子の画素数などに応じて、適宜行なうことができるものである。   The created histogram is conceptually shown in FIG. A rectangular (square or rectangular) predetermined area C is set around the target pixel B. For example, in the case of an imaging camera of 10 million pixel class, the size of the predetermined area C is set to a size of 51 pixels × 51 pixels. Depending on the number of pixels, etc., this can be performed as appropriate.

従って、ヒストグラムは上記の例では51×51=2601画素について作成されるものであり、例えば、図8(b)に示される。このヒストグラムから、最大頻度を有する画素値(青の画像データ)を取得する(S5)。この画素値はDで示されている。次に、この最大頻度を有する画素値Dから注目画素Bの画素値を引いた差分データ(青の画像データについての差分データ)を演算する(S6)。最大頻度を有する画素値Dは通常は毛穴・シミではない肌の色を表すものであり、注目画素Bが同じく毛穴・シミではない肌の部分に相当すれば、差分データは0になる。   Accordingly, the histogram is created for 51 × 51 = 2601 pixels in the above example, and is shown in FIG. 8B, for example. A pixel value (blue image data) having the maximum frequency is acquired from this histogram (S5). This pixel value is indicated by D. Next, difference data (difference data for blue image data) obtained by subtracting the pixel value of the target pixel B from the pixel value D having the maximum frequency is calculated (S6). The pixel value D having the highest frequency usually represents the skin color that is not a pore / stain, and if the pixel of interest B corresponds to a skin part that is also not a pore / stain, the difference data is zero.

また、毛穴・シミなどがあると、輝度が暗くなる方向になるので、差分データを演算すると、正の値となる。差分データの大きさに応じて、シミであるのか毛穴であるのか、又、どの程度のレベルの毛穴であるのかを判定できるようになる。また、差分データがマイナスになった場合は0にする。これは、照明光源の関係で顔領域全体が均一な照度で照明されているわけではないので、そのバラツキを考慮するためである。   In addition, if there are pores, spots, etc., the luminance becomes darker, so when the difference data is calculated, it becomes a positive value. Depending on the size of the difference data, it is possible to determine whether it is a stain or a pore, and the level of the pore. If the difference data becomes negative, it is set to 0. This is because the entire face area is not illuminated with a uniform illuminance due to the illumination light source, and this variation is taken into consideration.

なお、上記において最大頻度ではなく、平均値により取得してもよい。ただし、最大頻度を用いるのは、仮に平均値を取った場合、特に濃い大きなシミが存在した場合、平均値では値が低下してしまい、精度のよい毛穴・シミの検出が行なえなくなる可能性がある。   In the above description, the average value may be used instead of the maximum frequency. However, the maximum frequency is used if the average value is taken, especially if there is a large dark spot, the average value may decrease, and accurate pore / spot detection may not be possible. is there.

差分データを演算すると、顔領域内の全ての画素についてスキャニングが終了したかどうかを判定し(S7)、終了していなければ、ステップS4に戻り、次の注目画素について同様の演算を繰り返す。   When the difference data is calculated, it is determined whether or not scanning has been completed for all the pixels in the face area (S7). If not, the process returns to step S4 and the same calculation is repeated for the next pixel of interest.

顔領域の全体にわたってスキャニングが終了すると、差分データを3つの閾値により4値化する(S10)。ただし、閾値は固定された数値ではなく、サーモグラフィ6により計測された顔の温度分布データに応じて補正を行うようにしている。すなわち、前回撮影時の表面温度と今回撮影時の表面温度とを比較し(S8)、前回の撮影時と顔の表面温度に変化がなければ、前回と同じ閾値が使用される。前回と表面温度が異なっておれば、閾値の設定を変更する(S9)。具体的には、温度が高い方向に計測されれば、3つの閾値を全体的に上げる方向にシフトさせ、低い方向に計測されれば、全体的に下げる方向にシフトさせる。なお、前回の表面温度データについては、データ保存部35に保存されているので、その人物についてのデータを検索することで抽出することができる。   When scanning is completed over the entire face area, the difference data is binarized using three threshold values (S10). However, the threshold value is not a fixed numerical value, but is corrected according to the temperature distribution data of the face measured by the thermography 6. That is, the surface temperature at the previous photographing is compared with the surface temperature at the current photographing (S8), and if there is no change in the surface temperature at the previous photographing and the face temperature, the same threshold as the previous photographing is used. If the surface temperature is different from the previous time, the threshold setting is changed (S9). Specifically, if the temperature is measured in the higher direction, the three threshold values are shifted in the direction of increasing overall, and if measured in the lower direction, it is shifted in the direction of decreasing overall. Since the previous surface temperature data is stored in the data storage unit 35, it can be extracted by searching for data on the person.

4値化の具体的内容を説明すると、差分データを[0,1,2,3]の4種類にレベル分けを行なうものであり、毛穴・シミが含まれる第1領域[1,2,3]と、毛穴・シミが含まれない第2領域[0]とに分類する(S9)。これは、いわゆるラベリングと呼ばれている処理である。このように2つの領域に分類すると、顔領域は、普通の肌の領域である第2領域[0]と、多数のクラスター(小領域)の集合体である第1領域[1,2,3]とに分けられる。   The specific contents of the quaternarization will be described. The difference data is classified into four types [0, 1, 2, 3], and the first area [1, 2, 3 including pores and spots is included. ] And a second region [0] that does not include pores and spots (S9). This is a so-called labeling process. When classified into two areas in this way, the face area is the second area [0], which is a normal skin area, and the first area [1, 2, 3], which is an aggregate of many clusters (small areas). ].

なお、演算の都合上、[1]と分類された画素は[1]のみを有する画素であるが、[2]と分類された画素は[1][2]の2つの値を有する画素とし、[3]と分類された画素は[1][3]の2つの値を有する画素として扱う。   Note that, for convenience of calculation, a pixel classified as [1] is a pixel having only [1], but a pixel classified as [2] is a pixel having two values [1] and [2]. , [3] are treated as pixels having two values [1] and [3].

図9は、上記のように分類されたクラスターEの状況を示す図であり、顔画像の一部を拡大表示したものである。クラスターEは、上記の[1,2,3]で表される画素群が一塊となった小領域を表すものである。各クラスターE内に含まれる画素は[1]または[2]または[3]のいずれかに分類されている。これらの[1,2,3]の個数やクラスターの形状に基づいて、毛穴・シミの判定が行なわれる(S11)。   FIG. 9 is a diagram showing the situation of the cluster E classified as described above, and is an enlarged display of a part of the face image. The cluster E represents a small region in which the pixel group represented by the above [1, 2, 3] is gathered. Pixels included in each cluster E are classified as either [1], [2], or [3]. Based on the number of [1,2,3] and the shape of the cluster, pore / stain is determined (S11).

まず、シミの検出は、クラスターEの形状に基づいて判定することができる。通常、シミの大きさは毛穴よりも大きくなっており、所定の形状を有しているものと判定可能であるからである。具体的には。図9に示すように、クラスターEを囲む矩形Fを設定する。この矩形Fの4辺にクラスターEの外形が接するように矩形Fを設定する。そして、この矩形Fの2辺x,yの長さに基づいて、シミであるか否かの判定が行なわれる。すなわち、矩形Fの一辺(xもしくはy)が15画素以上であれば、そのクラスターEはシミであると判定する。なお、判定基準である15画素という設定については、適宜変更可能である。この矩形Fの設定は、全クラスターEについて行なわれる。   First, the detection of a spot can be determined based on the shape of the cluster E. This is because the size of the stain is usually larger than the pore and it can be determined that the spot has a predetermined shape. In particular. As shown in FIG. 9, a rectangle F surrounding the cluster E is set. The rectangle F is set so that the outer shape of the cluster E is in contact with the four sides of the rectangle F. Then, based on the lengths of the two sides x and y of the rectangle F, it is determined whether or not it is a stain. That is, if one side (x or y) of the rectangle F is 15 pixels or more, it is determined that the cluster E is a spot. In addition, about the setting of 15 pixels which is a criterion, it can change suitably. This rectangle F is set for all clusters E.

次に、毛穴の検出について説明する。まず、上記のように矩形Fを設定し、縦横比が1:0.65以上であれば毛穴であると判定する。毛穴の形状は、円形に近いものと推定できるので、上記のような比率以上に正方形に近いものは、毛穴であると判定することができる。   Next, detection of pores will be described. First, the rectangle F is set as described above, and if the aspect ratio is 1: 0.65 or more, it is determined as a pore. Since the shape of the pore can be estimated to be close to a circle, it is possible to determine that a pore that is closer to a square than the above ratio is a pore.

そして、更に、毛穴については、目立つ毛穴と黒ずんだ毛穴の2段階のレベルに細かく分類をする。目立つ毛穴(大きな毛穴)であるか否かの判定は、[2]が割り当てられた画素の画素数を[1]が割り当てられた画素の画素数で割った値が0.3以上であれば目立つ毛穴であると判定する。0.3未満であれば、薄い毛穴であると判定する。ここで、[1]が割り当てられた画素の画素数は、前述のルールに従い、[1]のみが割り当てられた画素の画素数と[2]が割り当てられた画素の画素数を加算した数値になる。   Further, the pores are finely classified into two levels: conspicuous pores and dark pores. Whether or not the pore is a conspicuous pore (large pore) is determined by dividing the number of pixels assigned with [2] by the number of pixels assigned with [1] is 0.3 or more. It is determined that the pore is conspicuous. If it is less than 0.3, it is determined to be a thin pore. Here, the number of pixels to which [1] is assigned is a value obtained by adding the number of pixels to which only [1] is assigned and the number of pixels to which [2] is assigned according to the rules described above. Become.

黒ずんだ毛穴であるか否かの判定は、[3]が割り当てられた画素の画素数を[1]が割り当てられた画素の画素数で割った値が0.5以上であれば黒ずんだ毛穴であると判定する。0.5未満であれば、薄い毛穴であると判定する。ここで、[1]が割り当てられた画素の画素数は、前述のルールに従い、[1]のみが割り当てられた画素の画素数と[3]が割り当てられた画素の画素数を加算した数値になる。   It is determined whether or not the pore is a dark pore if the value obtained by dividing the number of pixels assigned to [3] by the number of pixels assigned to [1] is 0.5 or more. It is determined that If it is less than 0.5, it is determined to be a thin pore. Here, the number of pixels to which [1] is assigned is a value obtained by adding the number of pixels to which only [1] is assigned and the number of pixels to which [3] is assigned according to the rules described above. Become.

上記において、0.3や0.5という閾値については、適宜変更することができる。また、この閾値についても、顔表面の温度の違いに応じて設定変更することが好ましい。   In the above, the threshold values of 0.3 and 0.5 can be changed as appropriate. Also, it is preferable to change the setting of this threshold according to the difference in the temperature of the face surface.

なお、縦横比が1:0.65以上の正方形に近いクラスターについて、[2][3]の画素がなく[1]のみの画素で構成される場合、薄い毛穴(小さな毛穴)であるとして判定してもよい。この場合は、毛穴を3段階のレベルで判定し分類することになる。あるいは、ノイズであると判定してもよい。   Note that a cluster close to a square with an aspect ratio of 1: 0.65 or more is judged as a thin pore (small pore) if it is composed of only [1] pixels without [2] [3] pixels. May be. In this case, pores are determined and classified at three levels. Or you may determine with noise.

図10は、差分データの分布と、閾値との関係を示す概念図である。ここで、閾値としてT1,T2,T3の3つが示されており、その結果、[0,1,2,3]に4値化されている。また、分類(ラベリング)の結果が図示されており、薄い毛穴、目立つ毛穴、黒ずんだ毛穴、シミに分類されている。   FIG. 10 is a conceptual diagram showing the relationship between the distribution of difference data and the threshold value. Here, three threshold values T1, T2, and T3 are shown, and as a result, they are quaternized to [0, 1, 2, 3]. Moreover, the result of classification (labeling) is shown in the figure, and is classified into thin pores, conspicuous pores, dark pores, and spots.

判定処理が終わると、毛穴・シミの検出結果をモニター画面に表示するための表示処理が行われる(S12)。   When the determination process is completed, a display process for displaying the pore / spot detection results on the monitor screen is performed (S12).

<別実施形態>
本実施形態では、差分データに対して4値化を行なっているが、本発明はこれに限定されるものではない。毛穴かシミかの識別をするためには最低2値化を行なえばよい。また、検出すべき毛穴のレベルに応じて、3値化もしくは5値化以上を採用してもよい。例えば、図10において[1]で示されている領域を更に2段階に分けるための閾値を設定し、薄い毛穴かノイズであるかの識別を行なってもよい。また、シミを更に分類分けできるような閾値を設定してもよい。
<Another embodiment>
In this embodiment, quaternarization is performed on the difference data, but the present invention is not limited to this. In order to discriminate between pores and spots, binarization is performed at a minimum. Further, ternarization or quinary or more may be employed depending on the level of pores to be detected. For example, a threshold value for further dividing the region indicated by [1] in FIG. 10 into two stages may be set to identify whether it is a thin pore or noise. Further, a threshold value that can further classify the stain may be set.

本実施形態では、顔領域の設定を平均画素値に基づいて自動的に検索する方法を採用しているが、顔の一部のみの判定を行う場合などには、オペレータがモニター画面の上でマウス等により顔領域を設定するように構成してもよい。このような設定は、領域設定手段34の機能に基づいて行うことができる。顔の一部のみの評価を行えばよい場合には、このように設定することで、画像処理を行う範囲を制限し、画像処理に要する時間を短縮化することができる。また、顔領域を自動的に検索して設定する方法と、オペレータが設定する方法のいずれかを任意に選択できるようにすることが好ましい。また、顔領域の一部についてのみ肌状態の判定を行う場合には、その領域についての表面温度データに基づいて、閾値の設定変更などを行なうことができる。   In the present embodiment, a method of automatically searching for the setting of the face area based on the average pixel value is adopted. However, when only a part of the face is determined, the operator can display on the monitor screen. The face area may be set with a mouse or the like. Such setting can be performed based on the function of the area setting means 34. When only a part of the face needs to be evaluated, setting in this way can limit the range for image processing and shorten the time required for image processing. It is preferable that any one of a method for automatically searching and setting a face area and a method for setting by an operator can be arbitrarily selected. Further, when the skin condition is determined only for a part of the face area, the threshold setting can be changed based on the surface temperature data for the area.

サーモグラフィ6により得られた温度分布データに基づいて、血行の良否の判定を行なう機能を追加してもよい。   Based on the temperature distribution data obtained by the thermography 6, a function for determining whether or not the blood circulation is good may be added.

顔撮影装置の内部構成を示す横断面図Cross-sectional view showing the internal configuration of the face photographing device 顔撮影装置の内部構成を示す縦断面図Longitudinal sectional view showing the internal structure of the face photographing device 顔撮影装置及び顔画像解析システムの制御機能を示すブロック図Block diagram showing control functions of face photographing apparatus and face image analysis system 毛穴・シミ検出の手順を示すフローチャートFlow chart showing the procedure for detecting pores and spots 撮影された顔画像をモニター画面に表示した例を示す図The figure which shows the example which displayed the photographed face image on the monitor screen 中央領域を示す図Diagram showing the central area 設定された顔領域の例を示す図The figure which shows the example of the set face area 差分データを求めるときの処理を説明するための図The figure for explaining the processing when obtaining the difference data クラスターの具体例を示す図Diagram showing a specific example of a cluster 差分データの分布と、閾値との関係を示す概念図Conceptual diagram showing the relationship between the distribution of difference data and the threshold

符号の説明Explanation of symbols

4 撮影カメラ
5 カメラ支持体
6 サーモグラフィ
21 モニター
30 コントローラ
33 サーモグラフィ制御部
34 表顔領域設定手段
35 データ保存部
36 画像処理部
36a 顔領域設定手段
36b 差分演算手段
36c 4値化手段
36d 領域分類手段
36e 判定手段
36f 補正処理手段
36g 表示データ生成手段
A 中央領域
E クラスター
F 矩形
H 顔撮影装置
4 photographing camera 5 camera support 6 thermography 21 monitor 30 controller 33 thermography control unit 34 front face area setting means 35 data storage part 36 image processing part 36a face area setting means 36b difference calculation means 36c quaternization means 36d area classification means 36e Determination means 36f Correction processing means 36g Display data generation means A Central area E Cluster F Rectangle H Face photographing device

Claims (2)

顔画像を撮影するための撮像手段と、
顔表面の温度分布データを計測するための温度計測手段と、
撮像手段により撮影された顔画像データを用いて肌診断のための演算処理を行う演算手段と、
温度計測手段による計測結果に基づいて、前記演算処理を行う際の演算内容を補正する補正処理手段と、を備えたことを特徴とする顔撮影装置。
Imaging means for photographing a face image;
Temperature measuring means for measuring temperature distribution data on the face surface;
Arithmetic means for performing arithmetic processing for skin diagnosis using face image data photographed by the imaging means;
A face photographing apparatus comprising: correction processing means for correcting calculation contents when performing the calculation processing based on a measurement result by the temperature measurement means.
前記演算処理は、毛穴の大きさを閾値に基づいて判定するための処理を含んでおり、前記補正処理手段は、閾値を設定変更するものであることを特徴とする請求項1に記載の顔撮影装置。   The face according to claim 1, wherein the calculation process includes a process for determining a pore size based on a threshold value, and the correction processing unit changes a threshold value. Shooting device.
JP2007172792A 2007-06-29 2007-06-29 Face imaging apparatus Withdrawn JP2009006089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007172792A JP2009006089A (en) 2007-06-29 2007-06-29 Face imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007172792A JP2009006089A (en) 2007-06-29 2007-06-29 Face imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009006089A true JP2009006089A (en) 2009-01-15

Family

ID=40321798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007172792A Withdrawn JP2009006089A (en) 2007-06-29 2007-06-29 Face imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009006089A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130805A (en) * 2009-12-22 2011-07-07 Moritex Corp Skin characteristic measuring apparatus, skin characteristic measuring method, and program
WO2011111567A1 (en) * 2010-03-09 2011-09-15 株式会社資生堂 Lighting device, image analysis device, image analysis method, and evaluation method
JP2011206513A (en) * 2010-03-09 2011-10-20 Shiseido Co Ltd Image analysis method, evaluation method, image analyzer and image analysis program
US8634900B2 (en) 2009-11-11 2014-01-21 Koninklijke Philips N.V. Mask comfort diagnostic method
WO2015159732A1 (en) * 2014-04-16 2015-10-22 ソニー株式会社 Information-processing device, information-processing system, and program
KR102180923B1 (en) * 2020-01-06 2020-11-20 주식회사 룰루랩 Smart device using shelter of bus station and the shelter comprising thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8634900B2 (en) 2009-11-11 2014-01-21 Koninklijke Philips N.V. Mask comfort diagnostic method
JP2011130805A (en) * 2009-12-22 2011-07-07 Moritex Corp Skin characteristic measuring apparatus, skin characteristic measuring method, and program
WO2011111567A1 (en) * 2010-03-09 2011-09-15 株式会社資生堂 Lighting device, image analysis device, image analysis method, and evaluation method
JP2011206513A (en) * 2010-03-09 2011-10-20 Shiseido Co Ltd Image analysis method, evaluation method, image analyzer and image analysis program
EP2545846A1 (en) * 2010-03-09 2013-01-16 Shiseido Company, Ltd. Lighting device, image analysis device, image analysis method, and evaluation method
EP2545846A4 (en) * 2010-03-09 2013-08-21 Shiseido Co Ltd Lighting device, image analysis device, image analysis method, and evaluation method
KR101385544B1 (en) * 2010-03-09 2014-04-15 가부시키가이샤 시세이도 Image analysis device, image analysis method, evaluation method and computer-readable recording medium in which image analysis program is recorded
US9075003B2 (en) 2010-03-09 2015-07-07 Shiseido Company, Ltd. Lighting device, image analysis device, image analysis method, and evaluation method
WO2015159732A1 (en) * 2014-04-16 2015-10-22 ソニー株式会社 Information-processing device, information-processing system, and program
JPWO2015159732A1 (en) * 2014-04-16 2017-04-13 ソニー株式会社 Information processing apparatus, information processing system, and program
US10076275B2 (en) 2014-04-16 2018-09-18 Sony Corporation Information processing device, information processing system, and program
KR102180923B1 (en) * 2020-01-06 2020-11-20 주식회사 룰루랩 Smart device using shelter of bus station and the shelter comprising thereof

Similar Documents

Publication Publication Date Title
JP2008293325A (en) Face image analysis system
US11382558B2 (en) Skin feature imaging system
JP4485837B2 (en) Method and system for computer analysis of skin images
US8155413B2 (en) Method and system for analyzing skin conditions using digital images
BR112020015435A2 (en) WOUND IMAGE AND ANALYSIS
US9992409B2 (en) Digital mirror apparatus
CN105488782B (en) Gloss determination device and gloss determination method
TW201011284A (en) Device for inspecting resin material and recording medium
US10742962B2 (en) Method and system for capturing images for wound assessment with moisture detection
JP2009006089A (en) Face imaging apparatus
JP4783331B2 (en) Face recognition device
KR20210084102A (en) Electronic apparatus, scalp care system and method for controlling the electronic apparatus and the server
TW201222432A (en) System, device, method, and computer program product for facial defect analysis using angular facial image
JP2008167853A (en) Test sheet, object diagnostic apparatus and method, and program
US7500751B2 (en) Ocular fundus portion analyzer and ocular fundus portion analyzing method
CN109978810A (en) Detection method, system, equipment and the storage medium of mole
JP7556042B2 (en) Dynamic adjustment of flash intensity based on retinal pigmentation
JP5014593B2 (en) Ophthalmic measuring device
CN110060252B (en) Method and device for processing target prompt in picture and endoscope system
JP2006081846A (en) Method and apparatus for estimating facial wrinkle
WO2007035829A2 (en) Systems and methods for analyzing skin conditions of people using digital images
JP2017023474A (en) Skin pore analysis apparatus, skin pore analysis method and program for use in device
US20160210746A1 (en) Organ imaging device
JP2008293327A (en) Face image display system
JP2015012984A (en) Blood vessel visualization device, blood vessel visualization method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907