JP2009188528A - Face photographing apparatus - Google Patents

Face photographing apparatus Download PDF

Info

Publication number
JP2009188528A
JP2009188528A JP2008024102A JP2008024102A JP2009188528A JP 2009188528 A JP2009188528 A JP 2009188528A JP 2008024102 A JP2008024102 A JP 2008024102A JP 2008024102 A JP2008024102 A JP 2008024102A JP 2009188528 A JP2009188528 A JP 2009188528A
Authority
JP
Japan
Prior art keywords
face
data
waveform data
face image
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008024102A
Other languages
Japanese (ja)
Inventor
Shunsaku Riko
俊策 利弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2008024102A priority Critical patent/JP2009188528A/en
Publication of JP2009188528A publication Critical patent/JP2009188528A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face photographing apparatus capable of more satisfactorily positioning a face. <P>SOLUTION: Waveform data along two or more detection lines L1-L3 in a photographed (extracted) face image are detected as detected waveform data and are compared with reference waveform data along the detection lines L1-L3. Then, positioning information corresponding to the deviation direction and deviation amount of the respective detected waveform data to the reference waveform data is output and the face is positioned on the basis of the positioning information. Thus, the time when the position of the face is shifted in a right and left direction and the time when the angle of the face is shifted are distinguished, the face is more satisfactorily positioned. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置に関するものである。   The present invention relates to a face photographing apparatus that photographs a face image by aligning the face with a reference face image.

美容皮膚科、美容外科及び形成外科などでは、顔撮影装置により人(被撮影者)の顔を定期的に撮影し、肌の状態の経時的な変化を観察することにより、化粧品や肌治療の効果を確認する作業が行なわれる場合がある(例えば、特許文献1参照)。具体的には、得られた顔画像からシミ、シワ、毛穴及び色ムラなどの評価が行なわれ、さらには、紫外線を使用したポルフィリン及びかくれジミなどの評価も行なわれている。   In cosmetic dermatology, cosmetic surgery, plastic surgery, etc., the face of a person (photographed person) is regularly photographed with a face photographing device, and the change in the state of the skin over time is observed. An operation for confirming the effect may be performed (see, for example, Patent Document 1). Specifically, evaluation of spots, wrinkles, pores, color unevenness and the like is performed from the obtained face image, and further, porphyrins and hide spots using ultraviolet rays are also evaluated.

このような肌状態の評価を行うために、以前に撮影した顔画像を今回撮影した顔画像と比較する場合がある。このような場合には、以前の顔画像と今回の顔画像とができるだけ同じ条件で撮影されていることが好ましく、その条件の一例として顔の位置及び角度が挙げられる。すなわち、今回撮影した顔画像における顔の位置及び角度が、以前に撮影した顔画像と異なる場合には、シミ、シワ、毛穴及び色ムラなどの位置や大きさを正確に評価することができないおそれがある。   In order to evaluate such a skin condition, a face image shot before may be compared with a face image shot this time. In such a case, the previous face image and the current face image are preferably photographed under the same conditions as much as possible, and examples of the conditions include the face position and angle. That is, if the face position and angle in the face image taken this time are different from the face image taken previously, the position and size of spots, wrinkles, pores, color unevenness, etc. may not be accurately evaluated. There is.

ここで、顔画像をできるだけ同じ条件で撮影する方法としては、頭頂部を検出して基準位置にあるか否かを判定する方法(例えば、特許文献2参照)や、目、耳、鼻などの顔の特徴部分を検出して基準位置にあるか否かを判定する方法(例えば、特許文献3参照)などが提案されている。   Here, as a method of capturing a face image under the same conditions as possible, a method of determining whether or not the head is at the reference position by detecting the top of the head (for example, see Patent Document 2), eyes, ears, nose, etc. There has been proposed a method of detecting a feature portion of a face and determining whether or not it is at a reference position (for example, see Patent Document 3).

特開2004−302424号公報JP 2004-302424 A 特開2003−189161号公報JP 2003-189161 A 特開2005−117316号公報JP 2005-117316 A

しかしながら、特許文献2に開示されている技術のように、頭頂部を検出する場合には、たとえ頭頂部が基準位置にある場合であっても、顔の角度が一致しない場合がある。また、特許文献3に開示されている技術のように、目、耳、鼻などの顔の特徴部分を検出する場合には、その特徴部分の位置を正確に検出することが比較的難しい。そのため、従来の技術では、顔の位置合わせを良好に行うことができないおそれがあった。   However, when detecting the top of the head as in the technique disclosed in Patent Document 2, even if the top is at the reference position, the face angles may not match. Further, when detecting facial feature parts such as eyes, ears, and noses as in the technique disclosed in Patent Document 3, it is relatively difficult to accurately detect the positions of the feature parts. For this reason, the conventional technique may not be able to satisfactorily align the face.

本発明は、上記実情に鑑みてなされたものであり、より良好に顔の位置合わせを行うことができる顔撮影装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a face photographing apparatus that can perform better face alignment.

第1の本発明に係る顔撮影装置は、基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置であって、上記基準顔画像における予め定められた2以上の検出ラインに沿った波形データを基準波形データとして記憶する基準波形データ記憶手段と、撮影した顔画像における上記2以上の検出ラインに沿った波形データを検出波形データとして検出する波形データ検出手段と、上記基準波形データ及び上記検出波形データを比較する波形データ比較手段とを備えたことを特徴とする。   A face photographing apparatus according to a first aspect of the present invention is a face photographing apparatus for photographing a face image by aligning a face with respect to a reference face image, wherein two or more predetermined detection lines in the reference face image are detected. Reference waveform data storage means for storing waveform data as reference waveform data, waveform data detection means for detecting waveform data along the two or more detection lines in the photographed face image as detection waveform data, and the reference waveform Waveform data comparison means for comparing the data and the detected waveform data is provided.

このような構成によれば、撮影した顔画像における2以上の検出ライン上に沿った波形データを検出波形データとして検出し、それらの検出ラインに沿った基準波形データと比較することによって、顔の位置合わせを行うことができる。   According to such a configuration, the waveform data along two or more detection lines in the captured face image is detected as detection waveform data, and compared with the reference waveform data along those detection lines, Alignment can be performed.

ここで、1つの検出ライン上における検出波形データについてのみ基準波形データと比較するような構成の場合には、顔の位置が左右方向にずれているときと、顔の角度がずれているときとで、基準波形データに対する検出波形データのずれ量が同一となる場合がある。これに対して、本発明のように2以上の検出ラインにおける検出波形データについて基準波形データと比較するような構成によれば、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。   Here, in the configuration in which only the detected waveform data on one detection line is compared with the reference waveform data, when the face position is shifted in the left-right direction and when the face angle is shifted. Thus, the deviation amount of the detected waveform data with respect to the reference waveform data may be the same. On the other hand, according to the configuration in which the detection waveform data in two or more detection lines is compared with the reference waveform data as in the present invention, the face angle is shifted when the face position is shifted in the left-right direction. Since it can be distinguished from when it is shifted, it is possible to perform face alignment better.

第2の本発明に係る顔撮影装置は、上記波形データ比較手段による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段を備えたことを特徴とする。   According to a second aspect of the present invention, there is provided a face photographing apparatus comprising alignment information output means for outputting face alignment information based on a comparison result by the waveform data comparison means.

このような構成によれば、基準波形データ及び検出波形データの比較結果に基づいて顔の位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行うことができる。したがって、顔の位置をどのようにずらせばよいかが分かりやすいので、より良好に顔の位置合わせを行うことができる。   According to such a configuration, face alignment information can be output based on the comparison result between the reference waveform data and the detected waveform data, and the face can be aligned based on the alignment information. Therefore, it is easy to understand how to shift the position of the face, so that the face can be aligned better.

第3の本発明に係る顔撮影装置は、上記波形データが、上記検出ラインに沿った顔画像の明度データからなることを特徴とする。   A face photographing apparatus according to a third aspect of the present invention is characterized in that the waveform data is brightness data of a face image along the detection line.

このような構成によれば、撮影した顔画像における検出ラインに沿った明度データを検出波形データとして検出し、それらの検出ラインに沿った明度データからなる基準波形データと比較することによって、顔の位置合わせを行うことができる。顔画像の特徴は、その明度データに基づいて良好に判断することができるため、当該明度データを比較することにより顔の位置合わせを良好に行うことができる。   According to such a configuration, the brightness data along the detection line in the captured face image is detected as detection waveform data, and compared with the reference waveform data composed of the brightness data along the detection line, thereby comparing the face data. Alignment can be performed. Since the feature of the face image can be determined well based on the brightness data, the face can be positioned well by comparing the brightness data.

第4の本発明に係る顔撮影装置は、上記検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化する明度平均化処理手段を備え、上記波形データ検出手段が、上記明度平均化処理手段により平均化された明度データを上記検出波形データとして検出することを特徴とする。   A face photographing apparatus according to a fourth aspect of the present invention comprises lightness averaging processing means for averaging lightness data of face images taken on a plurality of lines parallel to the detection line, and the waveform data detecting means comprises the lightness average Brightness data averaged by the image processing means is detected as the detected waveform data.

このような構成によれば、検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化することにより、明度データのノイズを除去することができる。このようにしてノイズが除去された後の明度データからなる検出波形データを基準波形データと比較することによって、顔の位置合わせをより良好に行うことができる。   According to such a configuration, it is possible to remove noise in the brightness data by averaging the brightness data of the captured face images in a plurality of lines parallel to the detection line. By comparing the detected waveform data composed of the brightness data after the noise is removed in this way with the reference waveform data, it is possible to perform better face alignment.

第5の本発明に係る顔撮影装置は、上記検出ライン上における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段を備え、上記波形データ検出手段が、上記明度正規化処理手段により正規化された明度データを上記検出波形データとして検出することを特徴とする。   A face photographing apparatus according to a fifth aspect of the present invention comprises lightness normalization processing means for normalizing lightness data on the detection line by converting the lightness data on the basis of the maximum value, and detecting the waveform data The means detects the brightness data normalized by the brightness normalization processing means as the detected waveform data.

このような構成によれば、撮影した顔画像と基準顔画像とで全体的な明度差がある場合であっても、明度データの最大値を基準として正規化された検出ライン上の明度データからなる検出波形データを基準波形データと比較することによって、顔の位置合わせをさらに良好に行うことができる。   According to such a configuration, even if there is an overall brightness difference between the photographed face image and the reference face image, the brightness data on the detection line normalized based on the maximum value of the brightness data is used. The detected waveform data is compared with the reference waveform data, thereby making it possible to perform better face alignment.

第6の本発明に係る顔撮影装置は、上記波形データが、顔画像を構成しているRGB各色データのうち、上記検出ラインに沿ったRデータのみからなることを特徴とする。   The face photographing apparatus according to a sixth aspect of the present invention is characterized in that the waveform data is composed only of R data along the detection line among the RGB color data constituting the face image.

このような構成によれば、顔画像を構成しているRGB各色データのうち、検出ラインに沿ったRデータのみからなる検出波形データを基準波形データと比較することによって、顔の位置合わせを行うことができる。顔の輪郭部分などではRGB各色データのうちRデータの変化量が比較的大きいため、当該Rデータを比較することにより顔の位置合わせを良好に行うことができる。   According to such a configuration, face alignment is performed by comparing detection waveform data consisting only of R data along the detection line with reference waveform data among the RGB color data constituting the face image. be able to. Since the amount of change in R data among the RGB color data is relatively large in the face contour portion and the like, the face alignment can be performed satisfactorily by comparing the R data.

本発明によれば、撮影した顔画像における2以上の検出ライン上に沿った波形データを検出波形データとして検出し、それらの検出ラインに沿った基準波形データと比較することによって、より良好に顔の位置合わせを行うことができる。   According to the present invention, the waveform data along two or more detection lines in the captured face image is detected as detection waveform data, and compared with the reference waveform data along those detection lines, thereby improving the face. Can be aligned.

<第1実施形態>
図1は、本発明の第1実施形態に係る顔撮影装置Hの構成を示した図であり、筺体1内の構成を横断面図で示している。また、図2は、筺体1の縦断面図である。以下では、図1における上側を前方、下側を後方、左側を左方、右側を右方として説明することとする。
<First Embodiment>
FIG. 1 is a diagram showing a configuration of a face photographing apparatus H according to the first embodiment of the present invention, and shows a configuration inside the housing 1 in a cross-sectional view. FIG. 2 is a longitudinal sectional view of the housing 1. In the following, the upper side in FIG. 1 will be described as the front, the lower side as the rear, the left side as the left side, and the right side as the right side.

この顔撮影装置Hは、美容皮膚科、美容外科及び形成外科などで使用され、当該顔撮影装置Hにより人(被撮影者)の顔を定期的あるいは適度な期間を空けて撮影し、肌の状態の経時的な変化を観察することにより、化粧品や肌治療の効果を確認する作業を行なうことができる。この顔撮影装置Hは、得られた顔画像からシミ、シワ、毛穴及び色ムラなどの評価を行なう機能を有し、さらには、紫外線を使用したポルフィリン及びかくれジミなどの評価を行なう機能も有している。ただし、この顔撮影装置Hは、美容皮膚科、美容外科及び形成外科などで被撮影者に対して使用できるだけでなく、他のあらゆる場所において人の顔を撮影する装置として使用可能である。   The face photographing apparatus H is used in cosmetic dermatology, cosmetic surgery, plastic surgery, and the like, and the face photographing apparatus H photographs a person's (photographed person's) face periodically or at an appropriate period of time. By observing changes in the state over time, it is possible to perform an operation to confirm the effects of cosmetics and skin treatment. This face photographing apparatus H has a function of evaluating spots, wrinkles, pores, color unevenness, and the like from the obtained face image, and further has a function of evaluating porphyrins using an ultraviolet ray, and hide-and-seek Jimi. is doing. However, the face photographing apparatus H can be used not only for a photographed person in cosmetic dermatology, cosmetic surgery, plastic surgery and the like, but also as an apparatus for photographing a human face in any other place.

顔撮影装置Hは、略立方体形状の筺体1を備えており、この筺体1内の所定位置に顔を保持させた状態で顔画像の撮影が行なわれる。筺体1の背面には、開口部1aが形成されており、この開口部1aから被撮影者の顔が挿入される。また、筺体1の背面には、開口部1aからの外光進入を防止するためのカーテン1bが設けられている。すなわち、開口部1aから被撮影者が顔を挿入した状態で、頭の後側をカーテン1bで覆うことにより、室内光などが筺体1内に進入しにくくなるような構造が採用されている。   The face photographing apparatus H includes a substantially cubic shaped housing 1 and a face image is photographed with a face held at a predetermined position in the housing 1. An opening 1a is formed on the back surface of the housing 1, and the face of the subject is inserted through the opening 1a. Further, a curtain 1b is provided on the rear surface of the housing 1 to prevent the outside light from entering from the opening 1a. That is, a structure is employed in which indoor light or the like is less likely to enter the housing 1 by covering the back side of the head with the curtain 1b with the face inserted by the subject through the opening 1a.

被撮影者の顔は、顔保持手段としてのあご載せ台2及び額押さえ3により、上記所定位置に保持される。図2に示すように、被撮影者の額に当接する額押さえ3の押さえ部3aは、軸3b周りに回転可能に構成され、左右方向への顔の角度の変更に追従して回転できるようになっている。また、被撮影者のあごに当接するあご載せ台2は、連結部2aを介して軸2b周りに回転可能に構成され、左右方向への顔の角度の変更に追従して回転できるようになっている。したがって、あご載せ台2及び額押さえ3により顔を保持した状態で、顔の角度を左右方向に回転させることができるとともに、その場合でも、追従して回転するあご載せ台2及び額押さえ3により顔を安定して保持することができる。   The face of the subject is held at the predetermined position by the chin rest 2 and the forehead press 3 as face holding means. As shown in FIG. 2, the holding portion 3a of the forehead press 3 that contacts the forehead of the subject is configured to be rotatable around the shaft 3b so that it can rotate following the change in the angle of the face in the left-right direction. It has become. Further, the chin rest 2 that comes into contact with the chin of the person to be photographed is configured to be rotatable around the shaft 2b via the connecting portion 2a, and can be rotated following the change of the face angle in the left-right direction. ing. Therefore, the angle of the face can be rotated in the left-right direction while the face is held by the chin mount 2 and the forehead retainer 3, and even in that case, the chin mount 2 and the forehead retainer 3 that rotate following the face can be rotated. The face can be held stably.

筺体1内の前方には、顔を撮影するための撮影手段である撮影カメラ4が設けられており、カメラ支持台5を介して筺体1に固定されている。撮影カメラ4は、その光軸が後方に向かって延びるように固定されており、あご載せ台2及び額押さえ3により後方に保持された被撮影者の顔を撮影することができる。より具体的には、顔が撮影カメラ4の光軸に平行な正面方向P0を向いているときには、正面から見た顔画像(正面顔画像)が撮影される。また、顔が撮影カメラ4の光軸に対して左方向へ傾斜した左傾斜方向P1を向いているときには、右斜め前方から見た顔画像(右顔画像)が撮影され、顔が撮影カメラ4の光軸に対して右方向へ傾斜した右傾斜方向P2を向いているときには、左斜め前方から見た顔画像(左顔画像)が撮影される。   A photographing camera 4 that is a photographing means for photographing a face is provided in front of the housing 1 and is fixed to the housing 1 via a camera support 5. The photographing camera 4 is fixed so that its optical axis extends rearward, and can photograph the face of the subject held rearward by the chin rest 2 and the forehead retainer 3. More specifically, when the face is facing the front direction P0 parallel to the optical axis of the photographing camera 4, a face image viewed from the front (front face image) is photographed. Further, when the face is facing the left tilt direction P1 tilted to the left with respect to the optical axis of the photographing camera 4, a face image (right face image) viewed from the right front is photographed, and the face is photographed by the photographing camera 4. When facing in the right tilt direction P2 tilted to the right with respect to the optical axis, a face image (left face image) viewed from diagonally left front is photographed.

左傾斜方向P1は、正面方向P0に対して左方向に角度θだけ傾斜しており、右傾斜方向P2は、正面方向P0に対して右方向に角度θだけ傾斜している。すなわち、左傾斜方向P1及び右傾斜方向P2は、正面方向P0に対して水平面内で逆方向に傾斜しており、正面方向P0に対する傾斜角度θは同一である。この傾斜角度θは、30°〜75°の間に設定され、一般的には40°〜45°に設定される。   The left inclined direction P1 is inclined to the left by an angle θ with respect to the front direction P0, and the right inclined direction P2 is inclined to the right by an angle θ with respect to the front direction P0. That is, the left inclined direction P1 and the right inclined direction P2 are inclined in the opposite direction in the horizontal plane with respect to the front direction P0, and the inclination angle θ with respect to the front direction P0 is the same. This inclination angle θ is set between 30 ° and 75 °, and is generally set between 40 ° and 45 °.

ここで、軸3bは押さえ部3aの位置よりも少し後側に設けられており、同様に、軸2bもあご載せ台2のあごが載る位置よりも少し後側に設けられている。また、軸3b及び軸2bは同軸上に設けられており、これらの軸線に対して撮影カメラ4の光軸が直交している。したがって、あご載せ台2及び額押さえ3により顔が保持された状態のまま、軸3b及び軸2bを中心に顔を回転させることにより顔の角度を左右方向へ変更した場合であっても、撮影される顔画像の中心が撮影カメラ4の光軸から大きくずれるのを防止できる。   Here, the shaft 3b is provided slightly behind the position of the pressing portion 3a. Similarly, the shaft 2b is also provided slightly behind the position where the jaw of the jaw mounting base 2 is placed. Further, the shaft 3b and the shaft 2b are provided on the same axis, and the optical axis of the photographing camera 4 is orthogonal to these axes. Therefore, even if the face angle is changed in the left-right direction by rotating the face around the shaft 3b and the shaft 2b while the face is held by the chin rest 2 and the forehead press 3, the photographing is performed. It is possible to prevent the center of the face image to be shifted greatly from the optical axis of the photographing camera 4.

筺体1内には、顔を照明するための光源8が複数個所に配置されている。各光源8は、図1に示すように顔の位置を中心として円周方向に並べて設けられるとともに、図2に示すように上方及び下方にも設けられており、それぞれ顔に対向するように配置されている。光源8には、可視光を照射する光源と紫外線を照射するブラックライトとがあり、目的に応じて一方又は両方が使用される。可視光を照射する光源8としては、ハロゲンランプ、蛍光灯、LED(Light-Emitting Diode)、フラッシュ光源などの適宜のものを使用することができる。   In the housing 1, light sources 8 for illuminating the face are arranged at a plurality of locations. As shown in FIG. 1, each light source 8 is arranged in the circumferential direction centering on the position of the face, and is also provided above and below as shown in FIG. 2, and is arranged so as to face the face. Has been. The light source 8 includes a light source that irradiates visible light and a black light that irradiates ultraviolet rays, and one or both are used depending on the purpose. As the light source 8 for irradiating visible light, an appropriate one such as a halogen lamp, a fluorescent lamp, an LED (Light-Emitting Diode), or a flash light source can be used.

光源8と顔の位置との間には、光源8から照射される光を均一に拡散するための拡散板9が配置されている。この拡散板9は、図1に示すように、横断面形状が円弧形状(半円形状)である。図2に示すように、拡散板9は、顔に対して水平方向だけでなく、上方及び下方にも配置されており、これにより、顔が拡散板9で包囲されるようになっている。拡散板9における撮影カメラ4の光軸上には、矩形の開口部9aが形成されており、当該開口部9aを介して撮影カメラ4により顔を撮影することができるようになっている。なお、拡散板9は、半円形状のものに限らず、多角形状、楕円形状などの各種形状に形成することができる。   Between the light source 8 and the face position, a diffusion plate 9 for uniformly diffusing light emitted from the light source 8 is disposed. As shown in FIG. 1, the diffusion plate 9 has a circular cross-sectional shape (semicircular shape). As shown in FIG. 2, the diffusing plate 9 is arranged not only in the horizontal direction with respect to the face but also in the upper and lower portions, so that the face is surrounded by the diffusing plate 9. A rectangular opening 9a is formed on the diffusing plate 9 on the optical axis of the photographing camera 4, and a face can be photographed by the photographing camera 4 through the opening 9a. The diffusion plate 9 is not limited to a semicircular shape, and can be formed in various shapes such as a polygonal shape and an elliptical shape.

撮影カメラ4及び光源8は、制御装置20に接続されており、当該制御装置20の制御によって動作するようになっている。制御装置20は、顔撮影装置Hの動作を制御する機能の他、撮影カメラ4により撮影された顔画像に関する画像処理を行う機能を有する。制御装置20には、モニター21及びキーボード22を備えた汎用のコンピュータが接続されている。当該顔撮影装置Hの操作者は、キーボード22を操作することによりシャッター操作等の入力操作を行うことができるとともに、撮影カメラ4により撮影された顔画像や画像処理された顔画像等をモニター21で確認することができる。   The photographing camera 4 and the light source 8 are connected to the control device 20 and operate under the control of the control device 20. The control device 20 has a function of performing image processing on a face image photographed by the photographing camera 4 in addition to a function of controlling the operation of the face photographing device H. A general-purpose computer having a monitor 21 and a keyboard 22 is connected to the control device 20. The operator of the face photographing apparatus H can perform an input operation such as a shutter operation by operating the keyboard 22, and monitors a face image taken by the photographing camera 4, a face image subjected to image processing, and the like on the monitor 21. Can be confirmed.

図3は、この顔撮影装置Hの電気的構成の一例を示したブロック図である。この図3に示すように、顔撮影装置Hは、上述の撮影カメラ4、光源8、モニター21及びキーボード22の他に、コントローラ30、照明制御部31、カメラ制御部32、音声制御部33、スピーカ34、データ保存部35及び画像処理部36などを備えている。   FIG. 3 is a block diagram showing an example of the electrical configuration of the face photographing apparatus H. As shown in FIG. 3, in addition to the above-described photographing camera 4, light source 8, monitor 21, and keyboard 22, the face photographing device H includes a controller 30, an illumination control unit 31, a camera control unit 32, an audio control unit 33, A speaker 34, a data storage unit 35, an image processing unit 36, and the like are provided.

ここで、コントローラ30、照明制御部31、カメラ制御部32、音声制御部33及び画像処理部36は、制御装置20に備えられている。データ保存部35は、制御装置20に備えられていてもよいし、当該制御装置20に接続されたコンピュータのメモリにより構成されていてもよい。スピーカ34は、音声を出力するための音声出力手段であり、制御装置20又は当該制御装置20に接続されたコンピュータに備えられていてもよいし、筺体1内に設けられていてもよい。音声制御部33は、スピーカ34から出力される音声を制御するための音声制御手段である。   Here, the controller 30, the illumination control unit 31, the camera control unit 32, the sound control unit 33, and the image processing unit 36 are provided in the control device 20. The data storage unit 35 may be provided in the control device 20 or may be configured by a memory of a computer connected to the control device 20. The speaker 34 is an audio output means for outputting audio, and may be provided in the control device 20 or a computer connected to the control device 20 or may be provided in the housing 1. The voice control unit 33 is voice control means for controlling the voice output from the speaker 34.

コントローラ30は、顔撮影装置Hを統括的に制御するものであり、CPU及びメモリなどにより構成される。照明制御部31は、コントローラ30からの制御信号に基づいて光源8の点灯及び消灯を制御するものであり、顔画像の撮影を行う際に光源8を点灯させる。カメラ制御部32は、コントローラ30からの制御信号に基づいて撮影カメラ4の動作を制御するものであり、撮影カメラ4で顔画像を連続して撮影することにより、複数の静止画像データからなる動画像データを生成することができるとともに、キーボード22によるシャッター操作に基づいて、動画像データより解像度が高い静止画像データを生成することができる。撮影カメラ4により生成される動画像データ及び静止画像データは、データ保存部35に記憶される。画像処理部36は、データ保存部35に記憶された動画像データ及び静止画像データに対する画像処理を行う画像処理手段であり、画像処理後のデータが必要に応じてモニター21に表示される。   The controller 30 controls the face photographing apparatus H in an integrated manner, and includes a CPU and a memory. The illumination control unit 31 controls turning on and off of the light source 8 based on a control signal from the controller 30 and turns on the light source 8 when photographing a face image. The camera control unit 32 controls the operation of the photographing camera 4 based on a control signal from the controller 30, and a moving image composed of a plurality of still image data by continuously photographing face images with the photographing camera 4. Image data can be generated, and still image data having a higher resolution than the moving image data can be generated based on a shutter operation by the keyboard 22. The moving image data and still image data generated by the photographing camera 4 are stored in the data storage unit 35. The image processing unit 36 is an image processing unit that performs image processing on moving image data and still image data stored in the data storage unit 35, and the image-processed data is displayed on the monitor 21 as necessary.

本実施形態では、被撮影者の顔を正面方向P0から撮影することにより正面顔画像を撮影した後、左傾斜方向P1に顔を向けて右顔画像を撮影し、さらに右傾斜方向P2に顔を向けて左顔画像を撮影することにより、正面顔画像データ、右顔画像データ及び左顔画像データからなる3つの静止画像データが生成される。すなわち、顔画像を正面方向P0から撮影することにより、正面顔画像データを生成するとともに、正面方向P0に対して左右両方向にそれぞれ同一角度θだけ傾斜した方向から顔画像を撮影することにより、右顔画像データ及び左顔画像データを生成することができる。   In the present embodiment, the front face image is taken by photographing the face of the person to be photographed from the front direction P0, then the right face image is taken with the face facing the left tilt direction P1, and the face is further faced in the right tilt direction P2. By shooting the left face image with the face facing, three still image data composed of front face image data, right face image data, and left face image data are generated. That is, by capturing a face image from the front direction P0, front face image data is generated, and by capturing the face image from directions inclined at the same angle θ in both the left and right directions with respect to the front direction P0, Face image data and left face image data can be generated.

正面顔画像、右顔画像及び左顔画像の撮影時には、撮影カメラ4により動画像データが生成され、その動画像データが動画像データ表示手段としてのモニター21にリアルタイムで表示されるようになっている。ここで、リアルタイムとは、データ転送等による若干の時間的誤差を含む概念であり、撮影された動画像データが撮影時とほぼ同時に表示されることを意味している。本実施形態では、正面顔画像、右顔画像及び左顔画像の撮影時に、予め撮影されている基準顔画像に対する顔の位置合わせを行うことにより、顔画像をできるだけ同じ条件で撮影することができるようになっている。   When the front face image, the right face image, and the left face image are photographed, moving image data is generated by the photographing camera 4, and the moving image data is displayed on the monitor 21 as a moving image data display means in real time. Yes. Here, the real time is a concept including a slight time error due to data transfer or the like, and means that captured moving image data is displayed almost simultaneously with the time of shooting. In the present embodiment, when a front face image, a right face image, and a left face image are shot, the face image can be shot under the same conditions as much as possible by aligning the face with a reference face image that has been shot in advance. It is like that.

図4は、顔の位置合わせを行う際の態様について説明するための図である。図4では、正面顔画像を撮影する際に顔の位置合わせを行う場合の態様が示されているが、右顔画像及び左顔画像を撮影する際にも同様の態様で顔の位置合わせを行うことができる。   FIG. 4 is a diagram for explaining an aspect when performing face alignment. FIG. 4 shows an aspect in which the face alignment is performed when the front face image is captured, but the face alignment is performed in a similar manner when the right face image and the left face image are captured. It can be carried out.

正面顔画像、右顔画像及び左顔画像の撮影時には、撮影カメラ4で撮影されている動画像データから所定のタイミングで静止画像データが抽出され、その抽出された静止画像データにおける予め定められた2以上の検出ラインに沿った波形データ(断面波形データ)が検出波形データとして検出される。そして、それらの検出波形データと、基準顔画像における上記各検出ラインに沿った波形データからなる基準波形データとを比較することにより、顔の位置合わせを行うことができるようになっている。このようにして顔の位置合わせを行った後、キーボード22を用いてシャッター操作を行うことにより、基準顔画像とできるだけ同じ条件で撮影された正面顔画像データ、右顔画像データ及び左顔画像データを得ることができる。   At the time of photographing the front face image, the right face image, and the left face image, still image data is extracted from the moving image data photographed by the photographing camera 4 at a predetermined timing, and predetermined in the extracted still image data. Waveform data (cross-sectional waveform data) along two or more detection lines is detected as detected waveform data. Then, by comparing the detected waveform data with reference waveform data composed of waveform data along the detection lines in the reference face image, the face can be aligned. After performing the face alignment in this way, the front face image data, the right face image data, and the left face image data photographed under the same conditions as the reference face image by performing a shutter operation using the keyboard 22. Can be obtained.

この例では、上記2以上の検出ラインとして、顔の中央部付近を左右方向に延びる中央検出ラインL1と、中央検出ラインL1に対して上方に平行に延びる上部検出ラインL2と、中央検出ラインL1に対して下方に平行に延びる下部検出ラインL3とが設定されている。ここで、中央検出ラインL1は鼻の近傍、上部検出ラインL2は目の近傍、下部検出ラインL3は口の近傍といったように、各検出ラインL1〜L3が顔の特徴部分を横断するように設定されていてもよいし、顔の特徴部分を横断しないように設定されていてもよい。   In this example, as the two or more detection lines, a center detection line L1 extending in the left-right direction near the center of the face, an upper detection line L2 extending in parallel upward with respect to the center detection line L1, and a center detection line L1 A lower detection line L3 extending in parallel downward is set. Here, the detection lines L1 to L3 are set so as to cross the feature portion of the face such that the center detection line L1 is near the nose, the upper detection line L2 is near the eyes, and the lower detection line L3 is near the mouth. It may be set so as not to cross the facial feature.

なお、動画像データから抽出される静止画像データは、正面顔画像データ、右顔画像データ及び左顔画像データよりも解像度が低い。以下では、正面顔画像データ、右顔画像データ及び左顔画像データをそれぞれ生成する処理だけでなく、動画像データから静止画像データを抽出する処理も「撮影」に含まれるものとして説明する。   Note that still image data extracted from moving image data has a lower resolution than front face image data, right face image data, and left face image data. In the following description, it is assumed that not only processing for generating front face image data, right face image data, and left face image data, but also processing for extracting still image data from moving image data is included in “shooting”.

本実施形態では、各検出ラインL1〜L3における明度データに対して、明度平均化処理、移動平均処理及び明度正規化処理などの明度データ処理が行われ、これらの処理後の明度データが検出波形データとして検出される。   In this embodiment, lightness data processing such as lightness averaging processing, moving average processing, and lightness normalization processing is performed on the lightness data in each of the detection lines L1 to L3, and the lightness data after these processing is detected waveforms. Detected as data.

明度平均化処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3を中心とする上下の所定幅W内において、各検出ラインL1〜L3に平行な複数ラインの明度データを平均化する処理である。   In the lightness averaging process, lightness data of a plurality of lines parallel to the detection lines L1 to L3 is averaged within the predetermined upper and lower widths W around the detection lines L1 to L3. It is processing.

移動平均処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3上における左方向又は右方向の一方向に注目ポイントを順次に移動させて、各注目ポイントにおける左右の所定幅内での明度データの平均値を算出し、その平均値を当該注目ポイントの明度データとする処理である。   In the moving average process, for each of the detection lines L1 to L3, the point of interest is sequentially moved in one direction leftward or rightward on the detection line L1 to L3, and within the predetermined width on the left and right of each point of interest. In this process, the average value of the brightness data is calculated and the average value is used as the brightness data of the target point.

明度正規化処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3における明度データを、その最大値を基準とする明度データに変換することにより、最大値を「1」とする値に正規化する処理である。   In the brightness normalization process, for each detection line L1 to L3, the brightness data in the detection lines L1 to L3 is converted into brightness data with the maximum value as a reference, thereby setting the maximum value to “1”. It is a process to normalize.

図5は、明度データ処理後の明度データの一例を示した波形図である。この図5に示すように、明度データ処理後の明度データは、明度平均化処理及び移動平均処理によってノイズが除去されるとともに、明度正規化処理によって最大値を「1」とする波形に変換される。   FIG. 5 is a waveform diagram showing an example of brightness data after the brightness data processing. As shown in FIG. 5, the brightness data after the brightness data processing is converted into a waveform whose maximum value is “1” by the brightness normalization processing while noise is removed by the brightness averaging processing and moving average processing. The

この図5からも分かるように、明度データは検出ラインL1〜L3に平行な顔の幅方向に沿って大きく変化しており、特に変化の大きい領域に顔画像の特徴が反映されている。例えば、図5において特に明度データの変化量が大きい左右両端部の領域は、顔画像の特徴の1つである輪郭部分が反映されている。このように、顔画像の特徴は、その明度データに基づいて良好に判断することができるため、当該明度データを比較することにより顔の位置合わせを良好に行うことができる。   As can be seen from FIG. 5, the brightness data greatly changes along the width direction of the face parallel to the detection lines L1 to L3, and the features of the face image are reflected particularly in the region where the change is large. For example, in FIG. 5, the edge portions that are one of the features of the face image are reflected in the left and right end regions where the change amount of the brightness data is particularly large. As described above, since the feature of the face image can be determined well based on the brightness data, the face alignment can be performed well by comparing the brightness data.

本実施形態では、明度平均化処理及び移動平均処理により、明度データのノイズを除去することができるので、ノイズが除去された後の明度データからなる検出波形データを基準波形データと比較することによって、顔の位置合わせをより良好に行うことができる。また、撮影した顔画像と基準顔画像とで全体的な明度差がある場合であっても、明度正規化処理により、明度データの最大値を基準として正規化された検出ラインL1〜L3上の明度データからなる検出波形データを基準波形データと比較することによって、顔の位置合わせをさらに良好に行うことができる。   In the present embodiment, the noise of the brightness data can be removed by the brightness averaging process and the moving average process. Therefore, by comparing the detected waveform data composed of the brightness data after the noise is removed with the reference waveform data. , It is possible to better align the face. Further, even when there is an overall brightness difference between the photographed face image and the reference face image, the brightness normalization process performs detection on the detection lines L1 to L3 normalized based on the maximum value of the brightness data. By comparing the detected waveform data composed of the brightness data with the reference waveform data, it is possible to perform better face alignment.

図6は、基準波形データ及び検出波形データを比較する際の態様を示した波形図である。図6では、基準波形データを破線で示すとともに、検出波形データを実線で示している。   FIG. 6 is a waveform diagram showing an aspect when comparing the reference waveform data and the detected waveform data. In FIG. 6, the reference waveform data is indicated by a broken line and the detected waveform data is indicated by a solid line.

この例では、検出ラインL1〜L3に沿った顔の幅方向における一部分の波形データのみが比較されるようになっている。より具体的には、顔の左右の輪郭部分にそれぞれ対応する範囲R1,R2と、顔の中央部に対応する範囲R3とにおいて、基準波形データ及び検出波形データが比較されるようになっている。各範囲R1〜R3は、その一部が互いに重複していてもよいし、重複していなくてもよい。   In this example, only a part of waveform data in the width direction of the face along the detection lines L1 to L3 is compared. More specifically, the reference waveform data and the detected waveform data are compared in the ranges R1, R2 corresponding to the left and right contour portions of the face and the range R3 corresponding to the center portion of the face. . A part of each of the ranges R1 to R3 may or may not overlap.

ただし、上記のような3つの範囲R1〜R3において基準波形データ及び検出波形データが比較されるような構成に限らず、左右の輪郭部分に対応する2つの範囲R1,R2のみや、中央部に対応する1つの範囲R3のみが比較されるような構成であってもよいし、4つ以上の範囲で基準波形データ及び検出波形データが比較されるような構成であってもよい。また、顔の幅方向における一部分の波形データではなく、全範囲にわたって基準波形データ及び検出波形データが比較されるような構成であってもよい。   However, it is not limited to the configuration in which the reference waveform data and the detected waveform data are compared in the three ranges R1 to R3 as described above, but only the two ranges R1 and R2 corresponding to the left and right contour portions, or the central portion. A configuration in which only one corresponding range R3 is compared may be used, or a configuration in which the reference waveform data and the detected waveform data are compared in four or more ranges may be used. Further, the configuration may be such that the reference waveform data and the detected waveform data are compared over the entire range, rather than a part of the waveform data in the face width direction.

基準波形データと検出波形データを比較する際には、相互相関係数を用いた公知の方法により一致度を算出することができる。この場合、算出される値が「0」に近づくほど一致度が高く、「0」から遠ざかるほど一致度が低いと判定することができる。また、算出される値が正又は負のいずれであるかによって、基準波形データに対して検出波形データが右又は左のいずれにずれているかを判定することができる。したがって、算出された値が「0」を中心とする所定範囲内に存在する場合に、基準波形データと検出波形データとが一致していると判断することができる。   When comparing the reference waveform data and the detected waveform data, the degree of coincidence can be calculated by a known method using a cross-correlation coefficient. In this case, it can be determined that the degree of coincidence increases as the calculated value approaches “0” and the degree of coincidence decreases as the calculated value moves away from “0”. Further, it can be determined whether the detected waveform data is shifted to the right or left with respect to the reference waveform data depending on whether the calculated value is positive or negative. Therefore, when the calculated value is within a predetermined range centered on “0”, it can be determined that the reference waveform data matches the detected waveform data.

図7は、画像処理部36の一構成例を示した機能ブロック図である。図7に示すように、画像処理部36は、顔画像抽出部361、明度平均化処理部362、移動平均処理部363、明度正規化処理部364、波形データ比較部366及び位置合わせ情報出力部367などにより構成され、これらの各機能ブロックは、コントローラ30に備えられたCPUが実行するコンピュータプログラムにより実現される。明度平均化処理部362、移動平均処理部363及び明度正規化処理部364は、波形データ検出部368を構成している。当該波形データ検出部368は、撮影した顔画像における検出ラインL1〜L3に沿った波形データを検出波形データとして検出する波形データ検出手段である。   FIG. 7 is a functional block diagram illustrating a configuration example of the image processing unit 36. As shown in FIG. 7, the image processing unit 36 includes a face image extraction unit 361, a lightness averaging processing unit 362, a moving average processing unit 363, a lightness normalization processing unit 364, a waveform data comparison unit 366, and a registration information output unit. These functional blocks are realized by a computer program executed by a CPU provided in the controller 30. The lightness averaging processing unit 362, the moving average processing unit 363, and the lightness normalization processing unit 364 constitute a waveform data detection unit 368. The waveform data detection unit 368 is waveform data detection means for detecting waveform data along the detection lines L1 to L3 in the photographed face image as detection waveform data.

データ保存部35には、図7に示すように、検出ラインL1〜L3に関するデータを記憶する検出ラインデータ記憶部35Aと、基準顔画像に関するデータを記憶する基準顔画像データ記憶部35Bとが割り当てられている。検出ラインデータ記憶部35Aには、中央検出ラインL1、上部検出ラインL2及び下部検出ラインL2の位置情報が記憶されている。検出ラインL1〜L3の位置情報は、固定値であってもよいし、任意の値に変更可能であってもよい。   As shown in FIG. 7, the data storage unit 35 is assigned with a detection line data storage unit 35A that stores data relating to the detection lines L1 to L3 and a reference face image data storage unit 35B that stores data relating to the reference face image. It has been. The detection line data storage unit 35A stores position information of the center detection line L1, the upper detection line L2, and the lower detection line L2. The position information of the detection lines L1 to L3 may be a fixed value or may be changed to an arbitrary value.

一方、基準顔画像データ記憶部35Bには、予め撮影されている複数の基準顔画像の静止画像データが記憶されている。基準顔画像データ記憶部35Bは、各基準顔画像に対応付けて、その基準顔画像における検出ラインL1〜L3に沿った波形データを基準波形データとして記憶する基準波形データ記憶手段を構成している。   On the other hand, the reference face image data storage unit 35B stores still image data of a plurality of reference face images taken in advance. The reference face image data storage unit 35B constitutes reference waveform data storage means that stores waveform data along the detection lines L1 to L3 in the reference face image as reference waveform data in association with each reference face image. .

顔画像抽出部361は、撮影カメラ4により生成される動画像データから静止画像データを抽出する。波形データ検出部368は、検出ラインデータ記憶部35Aに記憶されている各検出ラインL1〜L3の位置情報に基づいて、抽出された静止画像データの各検出ラインL1〜L3における明度データに対して、明度平均化処理部362、移動平均処理部363及び明度正規化処理部364による処理を行い、これらの処理が施された波形データを検出波形データとして検出する。なお、上述の基準波形データも、この検出波形データと同様の態様で処理が施された波形データとして検出することができる。   The face image extraction unit 361 extracts still image data from moving image data generated by the photographing camera 4. The waveform data detection unit 368 performs lightness data on the detection lines L1 to L3 of the extracted still image data based on the position information of the detection lines L1 to L3 stored in the detection line data storage unit 35A. The lightness averaging processing unit 362, the moving average processing unit 363, and the lightness normalization processing unit 364 perform processing, and the waveform data subjected to these processings is detected as detected waveform data. The reference waveform data described above can also be detected as waveform data that has been processed in the same manner as the detected waveform data.

明度平均化処理部362は、各検出ラインL1〜L3の明度データについて明度平均化処理を行うことにより、各検出ラインL1〜L3に平行な複数ラインにおける明度データを平均化する明度平均化処理手段である。移動平均処理部363は、各検出ラインL1〜L3の明度データについて移動平均処理を行う移動平均処理手段である。明度正規化処理部364は、各検出ラインL1〜L3の明度データについて明度正規化処理を行うことによって、各検出ラインL1〜L3における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段である。   The lightness averaging processing unit 362 performs lightness averaging processing on the lightness data of the detection lines L1 to L3, thereby averaging lightness data in a plurality of lines parallel to the detection lines L1 to L3. It is. The moving average processing unit 363 is a moving average processing unit that performs a moving average process on the brightness data of the detection lines L1 to L3. The lightness normalization processing unit 364 converts the lightness data in each detection line L1 to L3 into lightness data based on the maximum value by performing lightness normalization processing on the lightness data of each detection line L1 to L3. It is a lightness normalization processing means for normalizing by this.

波形データ比較部366は、波形データ検出部368により検出された検出波形データと、基準顔画像データ記憶部35Bに記憶されている基準波形データとを比較する波形データ比較手段である。より具体的には、上述の通り、検出ラインL1〜L3に沿った顔の幅方向における一部分の範囲R1〜R3について、それぞれ相互相関係数などを用いて基準波形データ及び検出波形データが比較されることにより、それらの波形データの一致度が算出される。   The waveform data comparison unit 366 is a waveform data comparison unit that compares the detected waveform data detected by the waveform data detection unit 368 with the reference waveform data stored in the reference face image data storage unit 35B. More specifically, as described above, the reference waveform data and the detected waveform data are compared using a cross-correlation coefficient or the like for a partial range R1 to R3 in the face width direction along the detection lines L1 to L3. Thus, the degree of coincidence of these waveform data is calculated.

位置合わせ情報出力部367は、波形データ比較部366による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段である。上記位置合わせ情報は、各検出波形データを対応する基準波形データに近似させるための情報であって、各検出波形データの基準波形データに対するずれ方向及びずれ量に応じた情報として出力される。位置合わせ情報出力部367から出力された位置合わせ情報は、スピーカ34から音声として出力されることにより、当該顔撮影装置Hの操作者又は被撮影者に報知されるようになっている。   The alignment information output unit 367 is alignment information output means for outputting face alignment information based on the comparison result by the waveform data comparison unit 366. The alignment information is information for approximating each detected waveform data to the corresponding reference waveform data, and is output as information according to the shift direction and shift amount of each detected waveform data with respect to the reference waveform data. The alignment information output from the alignment information output unit 367 is output to the operator of the face photographing apparatus H or the person to be imaged by being output as sound from the speaker 34.

図8は、顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の位置が水平方向にずれている場合を示している。また、図9は、顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の角度がずれている場合を示している。   FIG. 8 is a diagram for explaining a method for determining face alignment information, and shows a case where the face position is shifted in the horizontal direction with respect to the face image based on the reference face image data. FIG. 9 is a diagram for explaining a method for determining face alignment information, and shows a case where the face angle is deviated from the face image based on the reference face image data.

なお、図8及び図9では、基準顔画像データに基づく顔画像を破線で示すとともに、撮影カメラ4により生成される動画像データから抽出された静止画像データに基づく顔画像を実線で示している。また、各検出ラインL1〜L3について、顔の左右の輪郭部分にそれぞれ対応する範囲R1,R2おける検出波形データの基準波形データに対するずれ方向を矢印の向きで示すとともに、そのずれ量を矢印の長さで示している。顔の位置合わせ情報は、上記のような2つの範囲R1,R2における基準波形データ及び検出波形データを比較することにより決定することもできるが、上述の範囲R3のような他の範囲において基準波形データ及び検出波形データを比較するような構成であってもよい。例えば、正面顔画像ではなく、右顔画像や左顔画像のように顔を斜め方向から撮影する場合には、上記範囲R3においても基準波形データ及び検出波形データを比較することによって、より精度のよい位置合わせ情報を決定することができる。   8 and 9, the face image based on the reference face image data is indicated by a broken line, and the face image based on still image data extracted from the moving image data generated by the photographing camera 4 is indicated by a solid line. . For each of the detection lines L1 to L3, the direction of deviation of the detected waveform data from the reference waveform data in the ranges R1 and R2 corresponding to the left and right contour portions of the face is indicated by the direction of the arrow, and the amount of deviation is indicated by the length of the arrow. It is shown by The face alignment information can also be determined by comparing the reference waveform data and the detected waveform data in the two ranges R1 and R2 as described above, but the reference waveform in another range such as the range R3 described above. The configuration may be such that data and detected waveform data are compared. For example, when a face is photographed from an oblique direction such as a right face image or a left face image instead of a front face image, the reference waveform data and the detected waveform data are compared with each other in the range R3 as well. Good alignment information can be determined.

図8(a)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へずれている場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が右方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図8(a)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(左方向)へ同一のずれ量でずれることとなる。   FIG. 8A shows a case where the face image based on the extracted still image data is shifted leftward with respect to the face image based on the reference face image data. That is, in the housing 1 shown in FIG. 1, a face image is shown that is taken in a state where the face is horizontally shifted to the right with respect to the position of the face when the reference face image is taken. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is the same in the same shift direction (left direction) with respect to the reference waveform data, as indicated by arrows in FIG. It will be shifted by the amount of shift.

図8(b)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へずれている場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が左方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図8(b)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(右方向)へ同一のずれ量でずれることとなる。   FIG. 8B shows a case where the face image based on the extracted still image data is shifted to the right with respect to the face image based on the reference face image data. That is, in the housing 1 shown in FIG. 1, a face image is shown that is taken in a state where the face is horizontally shifted to the left with respect to the position of the face when the reference face image is taken. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is the same in the same shift direction (right direction) with respect to the reference waveform data, as indicated by an arrow in FIG. 8B. It will be shifted by the amount of shift.

図8(c)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が中央部を基準に縮小している場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が後方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、図8(c)に矢印で示すように、各検出ラインL1〜L3における各範囲R1,R2の検出波形データのうち、右側の各検出波形データと左側の各検出波形データとが、それぞれ逆方向であって互いに近づく方向へ同一のずれ量でずれることとなる。   FIG. 8C shows a case where the face image based on the extracted still image data is reduced with respect to the center portion with respect to the face image based on the reference face image data. That is, in the housing 1 shown in FIG. 1, a face image is shown that is taken with the face horizontally shifted backward with respect to the position of the face when the reference face image is taken. In this case, as indicated by arrows in FIG. 8C, among the detected waveform data in the ranges R1 and R2 in the detection lines L1 to L3, the detected waveform data on the right side and the detected waveform data on the left side are They are shifted in the opposite direction and in the direction approaching each other with the same shift amount.

図8(d)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が中央部を基準に拡大している場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が前方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、図8(d)に矢印で示すように、各検出ラインL1〜L3における各範囲R1,R2の検出波形データのうち、右側の各検出波形データと左側の各検出波形データとが、それぞれ逆方向であって互いに遠ざかる方向へ同一のずれ量でずれることとなる。   FIG. 8D shows a case where the face image based on the extracted still image data is enlarged with respect to the center portion with respect to the face image based on the reference face image data. That is, in the housing 1 shown in FIG. 1, a face image is shown that is taken in a state where the face is shifted horizontally in the forward direction with respect to the position of the face when the reference face image is taken. In this case, as indicated by arrows in FIG. 8D, among the detected waveform data in the respective ranges R1 and R2 in the respective detection lines L1 to L3, the detected waveform data on the right side and the detected waveform data on the left side are They are shifted in the opposite direction and away from each other by the same shift amount.

図8(a)〜(d)に示すように、基準顔画像データに基づく顔画像に対して顔の位置が水平方向にずれている場合には、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、基準波形データに対して同一のずれ量でずれており、ずれ方向のみが異なっている。したがって、各検出ラインL1〜L3における各範囲R1,R2の検出波形データのずれ量が同一であることに基づいて、顔が水平方向にずれていると判断することができるとともに、そのずれ量と各検出ラインL1〜L3における各範囲R1,R2の検出波形データのずれ方向の組合せに基づいて、顔を移動(水平移動)すべき方向及び移動量を判断することができる。   As shown in FIGS. 8A to 8D, when the face position is shifted in the horizontal direction with respect to the face image based on the reference face image data, each range R1, L1 in each detection line L1 to L3. The detected waveform data of R2 is shifted by the same shift amount with respect to the reference waveform data, and only the shift direction is different. Therefore, based on the fact that the detected waveform data in each of the ranges R1 and R2 in the detection lines L1 to L3 have the same amount of deviation, it can be determined that the face is displaced in the horizontal direction, and the amount of deviation Based on the combination of the shift directions of the detected waveform data in the ranges R1 and R2 in the detection lines L1 to L3, the direction and amount of movement of the face (horizontal movement) can be determined.

次に、図9(a)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へ回転している場合であって、あごの位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、あご載せ台2に当接するあごの位置を中心に顔が左方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図9(a)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(右方向)へずれるとともに、そのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっている。より具体的には、右側の各範囲R1,R2及び左側の各範囲R1,R2のいずれにおいても、より上側の範囲の検出波形データの方がずれ量が大きくなっている。   Next, FIG. 9A shows a case where the face image based on the extracted still image data is rotated rightward with respect to the face image based on the reference face image data, and the position of the chin is the center. A state where it is rotated and shifted is shown. That is, in the case 1 shown in FIG. 1, the face was photographed with the face rotated to the left about the position of the chin contacting the chin rest 2 with respect to the position of the face when the reference face image was photographed. A face image is shown. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is shifted in the same shift direction (rightward) with respect to the reference waveform data, as indicated by arrows in FIG. 9A. At the same time, the amount of deviation differs depending on the ranges R1 and R2 in the detection lines L1 to L3. More specifically, in each of the right ranges R1, R2 and the left ranges R1, R2, the shift amount is larger in the detected waveform data in the upper range.

図9(b)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へ回転している場合であって、額の位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、額押さえ3に当接する額の位置を中心に顔が左方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図9(b)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(左方向)へずれるとともに、そのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっている。より具体的には、右側の各範囲R1,R2及び左側の各範囲R1,R2のいずれにおいても、より下側の範囲の検出波形データの方がずれ量が大きくなっている。   FIG. 9B shows a case where the face image based on the extracted still image data is rotated to the right with respect to the face image based on the reference face image data, and is rotated around the forehead position. The state of being shifted is shown. That is, in the case 1 shown in FIG. 1, a face photographed with the face rotated to the left about the position of the forehead in contact with the forehead retainer 3 with respect to the position of the face at the time of photographing the reference face image An image is shown. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is shifted in the same shift direction (leftward) with respect to the reference waveform data, as indicated by arrows in FIG. At the same time, the amount of deviation differs depending on the ranges R1 and R2 in the detection lines L1 to L3. More specifically, in each of the right ranges R1, R2 and the left ranges R1, R2, the shift amount is larger in the detection waveform data in the lower range.

図9(c)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へ回転している場合であって、あごの位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、あご載せ台2に当接するあごの位置を中心に顔が右方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図9(c)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(左方向)へずれるとともに、そのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっている。より具体的には、右側の各範囲R1,R2及び左側の各範囲R1,R2のいずれにおいても、より上側の範囲の検出波形データの方がずれ量が大きくなっている。   FIG. 9C shows a case where the face image based on the extracted still image data is rotated leftward with respect to the face image based on the reference face image data, and is rotated around the position of the chin. The state of being shifted is shown. That is, in the case 1 shown in FIG. 1, the face was photographed in a state where the face was rotated to the right with respect to the position of the face contacting the chin rest 2 with respect to the face position at the time of photographing the reference face image. A face image is shown. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is shifted in the same shift direction (leftward) with respect to the reference waveform data, as indicated by arrows in FIG. 9C. At the same time, the amount of deviation differs depending on the ranges R1 and R2 in the detection lines L1 to L3. More specifically, in each of the right ranges R1, R2 and the left ranges R1, R2, the shift amount is larger in the detected waveform data in the upper range.

図9(d)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へ回転している場合であって、額の位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、額押さえ3に当接する額の位置を中心に顔が右方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、図9(d)に矢印で示すように、それぞれ基準波形データに対して同一のずれ方向(右方向)へずれるとともに、そのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっている。より具体的には、右側の各範囲R1,R2及び左側の各範囲R1,R2のいずれにおいても、より下側の範囲の検出波形データの方がずれ量が大きくなっている。   FIG. 9D shows a case where the face image based on the extracted still image data is rotated leftward with respect to the face image based on the reference face image data, and is rotated around the position of the forehead. The state of being shifted is shown. That is, in the housing 1 shown in FIG. 1, a face photographed with the face rotated to the right around the position of the forehead that contacts the forehead retainer 3 with respect to the position of the face at the time of photographing the reference face image An image is shown. In this case, the detected waveform data in each of the ranges R1 and R2 in each of the detection lines L1 to L3 is shifted in the same shift direction (rightward) with respect to the reference waveform data as indicated by arrows in FIG. 9D. At the same time, the amount of deviation differs depending on the ranges R1 and R2 in the detection lines L1 to L3. More specifically, in each of the right ranges R1, R2 and the left ranges R1, R2, the shift amount is larger in the detection waveform data in the lower range.

図9(a)〜(d)に示すように、基準顔画像データに基づく顔画像に対して顔の角度がずれている場合には、各検出ラインL1〜L3における各範囲R1,R2の検出波形データが、基準波形データに対して同一のずれ方向にずれており、各ずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっている。したがって、各検出波形データのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっていることに基づいて、顔が回転してずれていると判断することができるとともに、そのずれ量と各検出ラインL1〜L3における各範囲R1,R2の検出波形データのずれ方向の組合せに基づいて、顔を移動(回転移動)すべき方向及び移動量を判断することができる。   As shown in FIGS. 9A to 9D, when the face angle is shifted with respect to the face image based on the reference face image data, the detection of the ranges R1 and R2 in the detection lines L1 to L3 is performed. The waveform data is shifted in the same shift direction with respect to the reference waveform data, and the shift amounts differ depending on the ranges R1 and R2 in the detection lines L1 to L3. Therefore, it is possible to determine that the face is rotated and shifted based on the difference between the detection waveform data in each of the ranges R1 and R2 in the detection lines L1 to L3. The direction and amount of movement of the face can be determined based on the combination of the shift directions of the detected waveform data in the ranges R1 and R2 in the detection lines L1 to L3.

このような図8及び図9を用いて説明した態様で、各検出波形データを対応する基準波形データに近似させるために顔を移動すべき方向及び移動量が判断され、その情報が顔の位置合わせ情報として出力される。したがって、出力された位置合わせ情報に基づいて顔の位置合わせを行って顔画像を撮影することにより、基準顔画像の撮影時とできるだけ同じ条件で顔画像を撮影することができる。   In the manner described with reference to FIGS. 8 and 9, the direction and amount of movement of the face are determined in order to approximate each detected waveform data to the corresponding reference waveform data, and the information is the position of the face. Output as alignment information. Therefore, by performing face alignment based on the output alignment information and capturing a face image, it is possible to capture the face image under the same conditions as possible when capturing the reference face image.

なお、図9では、あご又は額の位置を中心に顔が左方向又は右方向へ回転している場合について説明したが、あごの位置を中心に顔が前方向又は後方向へ回転した場合や、額の位置を中心に顔が前方向又は後方向に回転した場合であっても、同様に、各検出波形データのずれ量が各検出ラインL1〜L3における各範囲R1,R2によって異なっていることに基づいて、顔が回転してずれていると判断することができるとともに、そのずれ量と各検出ラインL1〜L3における各範囲R1,R2の検出波形データのずれ方向の組合せに基づいて、顔を移動(回転移動)すべき方向及び移動量を判断することができる。   In FIG. 9, the case where the face rotates leftward or rightward around the position of the chin or forehead has been described. However, when the face rotates forward or backward around the position of the chin, Similarly, even when the face rotates forward or backward around the position of the forehead, similarly, the amount of deviation of each detected waveform data differs depending on each range R1, R2 in each detection line L1 to L3. Based on that, it can be determined that the face is rotated and shifted, and based on the combination of the shift amount and the shift direction of the detected waveform data of each of the ranges R1 and R2 in each of the detection lines L1 to L3, It is possible to determine the direction and amount of movement to move (rotate) the face.

図10は、この顔撮影装置Hで顔の位置合わせを行って顔画像を撮影する際の処理の流れを示したフローチャートである。この顔撮影装置Hで顔画像を撮影する際には、まず、操作者がキーボード22を操作することにより、予め撮影されて基準顔画像データ記憶部35Bに記憶されている複数の基準顔画像データの中から、所望の基準顔画像データを選択する(ステップS101)。例えば、肌状態の評価を行うために以前に撮影した顔画像とできるだけ同じ条件で撮影を行いたい場合などには、その以前に撮影した顔画像の静止画像データを基準顔画像データとして選択することとなる。   FIG. 10 is a flowchart showing a flow of processing when the face photographing apparatus H performs face alignment and photographs a face image. When photographing a face image with the face photographing apparatus H, first, when the operator operates the keyboard 22, a plurality of reference face image data that has been previously captured and stored in the reference face image data storage unit 35B. The desired reference face image data is selected from (step S101). For example, if you want to shoot under the same conditions as possible for a face image taken before to evaluate the skin condition, select still image data of the face image taken before as the reference face image data. It becomes.

その後、撮影カメラ4により生成されている動画像データから静止画像データが抽出され(ステップS102)、その静止画像データの各検出ラインL1〜L3における明度データに対して、明度平均化処理(ステップS103)、移動平均処理(ステップS104)及び明度正規化処理(ステップS105)が行われる。これらの処理が行われた後の明度データからなる波形データは、各検出ラインL1〜L3に沿った検出波形データとして検出され(ステップS106)、それらの検出波形データが基準波形データと比較される(ステップS107)。   Thereafter, still image data is extracted from the moving image data generated by the photographing camera 4 (step S102), and the lightness averaging process (step S103) is performed on the lightness data in the detection lines L1 to L3 of the still image data. ), Moving average processing (step S104) and brightness normalization processing (step S105) are performed. The waveform data composed of the brightness data after these processes are performed is detected as detected waveform data along the detection lines L1 to L3 (step S106), and the detected waveform data is compared with the reference waveform data. (Step S107).

比較の結果、各検出波形データが対応する基準波形データと全て一致している場合には(ステップS107でYes)、操作者がキーボード22を用いてシャッター操作を行うことによって、撮影カメラ4により顔画像が撮影されて静止画像データが生成される(ステップS108)。このとき、撮影前に、「そのまま動かないで下さい。撮影します。」などといったように、顔の位置を停止させるための音声がスピーカ34から出力されるようになっていることが好ましい。なお、操作者によるシャッター操作に基づいて撮影が行われるような構成に限らず、自動的に撮影が行われるようになっていてもよい。   As a result of the comparison, when all the detected waveform data matches with the corresponding reference waveform data (Yes in step S107), the operator performs a shutter operation using the keyboard 22 and the face is taken by the photographing camera 4. An image is taken and still image data is generated (step S108). At this time, it is preferable that a sound for stopping the position of the face is output from the speaker 34 such as “Please do not move as it is. Note that the present invention is not limited to a configuration in which shooting is performed based on a shutter operation by an operator, and shooting may be performed automatically.

一方、比較の結果、各検出波形データのうち対応する基準波形データと一致していない検出波形データがある場合には(ステップS107でNo)、図8及び図9を用いて説明したような態様で、各検出波形データの基準波形データに対するずれ方向及びずれ量に応じた位置合わせ情報が生成され、その位置合わせ情報に基づく音声がスピーカ34から出力される(ステップS109)。   On the other hand, if there is detected waveform data that does not match the corresponding reference waveform data among the detected waveform data as a result of the comparison (No in step S107), the mode described with reference to FIGS. Thus, alignment information corresponding to the shift direction and shift amount of each detected waveform data with respect to the reference waveform data is generated, and sound based on the alignment information is output from the speaker 34 (step S109).

このとき、スピーカ34から出力される音声は、各検出波形データの基準波形データに対するずれ方向及びずれ量に応じて異なるような構成であることが好ましい。例えば、顔の位置が左側に大きくずれていると判断された場合には、「右に移動して下さい。」という音声を出力し、右斜めに若干回転してずれている場合には、「もう少し左に起こして下さい。」という音声を出力するといったように、移動量の程度を表す情報を含む音声を位置合わせ情報として出力するようになっていてもよい。   At this time, it is preferable that the sound output from the speaker 34 has a configuration that varies depending on the shift direction and shift amount of the detected waveform data with respect to the reference waveform data. For example, when it is determined that the position of the face is greatly shifted to the left side, a voice “Please move to the right.” Is output. For example, a voice that includes information indicating the amount of movement may be output as the alignment information.

位置合わせ情報を出力した場合には、その後に所定時間が経過した後(ステップS110でYes)、再び撮影カメラ4により生成されている動画像データから静止画像データが抽出され(ステップS102)、その静止画像データの各検出ラインL1〜L3における明度データに対して、ステップS103以降の処理が行われる。したがって、被撮影者は、位置合わせ情報の出力後、次の静止画像データが抽出されるまでの間に、その出力された位置情報に基づいて顔の位置合わせを行えばよい。   When the alignment information is output, after a predetermined time has elapsed (Yes in step S110), still image data is extracted again from the moving image data generated by the photographing camera 4 (step S102). The process after step S103 is performed on the brightness data in the detection lines L1 to L3 of the still image data. Therefore, the subject only needs to perform face alignment based on the output position information after the output of the position alignment information and before the next still image data is extracted.

本実施形態では、撮影(抽出)した顔画像における2以上の検出ラインL1〜L3上に沿った波形データを検出波形データとして検出し、それらの検出ラインに沿った基準波形データと比較することによって、顔の位置合わせを行うことができる。   In the present embodiment, by detecting waveform data along two or more detection lines L1 to L3 in a photographed (extracted) face image as detection waveform data and comparing it with reference waveform data along those detection lines. , Face alignment can be performed.

ここで、1つの検出ライン上における検出波形データについてのみ基準波形データと比較するような構成の場合には、顔の位置が左右方向にずれているときと、顔の角度がずれているときとで、基準波形データに対する検出波形データのずれ量が同一となる場合がある。これに対して、本発明のように2以上の検出ラインL1〜L3における検出波形データについて基準波形データと比較するような構成によれば、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。   Here, in the configuration in which only the detected waveform data on one detection line is compared with the reference waveform data, when the face position is shifted in the left-right direction and when the face angle is shifted. Thus, the deviation amount of the detected waveform data with respect to the reference waveform data may be the same. On the other hand, according to the configuration in which the detected waveform data in the two or more detection lines L1 to L3 is compared with the reference waveform data as in the present invention, when the face position is shifted in the left-right direction, Can be distinguished from when the angle is shifted, so that the face can be aligned more satisfactorily.

また、本実施形態では、基準波形データ及び検出波形データの比較結果に基づいて顔の位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行うことができる。したがって、顔の位置をどのようにずらせばよいかが分かりやすいので、より良好に顔の位置合わせを行うことができる。   In the present embodiment, face alignment information can be output based on the comparison result between the reference waveform data and the detected waveform data, and the face can be aligned based on the alignment information. Therefore, it is easy to understand how to shift the position of the face, so that the face can be aligned better.

<第2実施形態>
第1実施形態では、動画像データから抽出された静止画像データにおける各検出ラインL1〜L3に沿った明度データが、検出波形データとして検出されるような構成について説明した。これに対して、第2実施形態では、動画像データから抽出された静止画像データを構成しているR(レッド)データ、G(グリーン)データ及びB(ブルー)データの各色データのうち、各検出ラインL1〜L3に沿ったRデータのみが、検出波形データとして検出されるようになっている点が異なっている。
Second Embodiment
In the first embodiment, a configuration has been described in which lightness data along the detection lines L1 to L3 in still image data extracted from moving image data is detected as detection waveform data. On the other hand, in the second embodiment, among the color data of R (red) data, G (green) data, and B (blue) data constituting still image data extracted from moving image data, Only the R data along the detection lines L1 to L3 is detected as detected waveform data.

図11は、本発明の第2実施形態に係る顔撮影装置Hにおける画像処理部36の一構成例を示した機能ブロック図である。本実施形態では、波形データ検出部368の構成が第1実施形態とは異なる点以外は、第1実施形態と同様の構成を有しているので、同様の構成については図に同一符号を付して説明を省略することとする。   FIG. 11 is a functional block diagram showing a configuration example of the image processing unit 36 in the face photographing apparatus H according to the second embodiment of the present invention. In the present embodiment, the waveform data detection unit 368 has the same configuration as that of the first embodiment except that the configuration of the waveform data detection unit 368 is different from that of the first embodiment. Therefore, the description will be omitted.

本実施形態では、波形データ検出部368が、Rデータ平均化処理部362A、Rデータ移動平均処理部363A及びRデータ正規化処理部364Aなどにより構成され、顔画像抽出部361により抽出された静止画像データにおける各検出ラインL1〜L3に沿ったRデータを検出波形データとして検出する。   In the present embodiment, the waveform data detection unit 368 includes an R data average processing unit 362A, an R data moving average processing unit 363A, an R data normalization processing unit 364A, and the like, and the still image extracted by the face image extraction unit 361. R data along the detection lines L1 to L3 in the image data is detected as detected waveform data.

Rデータ平均化処理部362Aは、各検出ラインL1〜L3のRデータについて、各検出ラインL1〜L3に平行な複数ラインにおけるRデータを平均化するRデータ平均化処理手段である。Rデータ移動平均処理部363Aは、各検出ラインL1〜L3のRデータについて移動平均処理を行うRデータ移動平均処理手段である。Rデータ正規化処理部364Aは、各検出ラインL1〜L3におけるRデータを、その最大値を基準とするRデータに変換することにより正規化するRデータ正規化処理手段である。   The R data averaging processing unit 362A is an R data averaging processing unit that averages R data in a plurality of lines parallel to the detection lines L1 to L3 for the R data of the detection lines L1 to L3. The R data moving average processing unit 363A is an R data moving average processing unit that performs a moving average process on the R data of the detection lines L1 to L3. The R data normalization processing unit 364A is an R data normalization processing unit that normalizes the R data in each of the detection lines L1 to L3 by converting the R data into R data based on the maximum value.

これらのRデータ平均化処理部362A、Rデータ移動平均処理部363A及びRデータ正規化処理部364Aによる処理は、第1実施形態における明度平均化処理部362、移動平均処理部363及び明度正規化処理部364による処理と同様の態様により行うことができる。そして、このような処理が行われた後のRデータが検出波形データとして検出され、対応する基準波形データと比較される。   The R data averaging processing unit 362A, R data moving average processing unit 363A, and R data normalization processing unit 364A perform the lightness averaging processing unit 362, moving average processing unit 363, and lightness normalization in the first embodiment. This can be performed in the same manner as the processing by the processing unit 364. The R data after such processing is detected as detected waveform data and compared with corresponding reference waveform data.

本実施形態では、顔画像を構成しているRGB各色データのうち、検出ラインL1〜L3に沿ったRデータのみからなる検出波形データを基準波形データと比較することによって、顔の位置合わせを行うことができる。顔の輪郭部分などではRGB各色データのうちRデータの変化量が比較的大きいため、当該Rデータを比較することにより顔の位置合わせを良好に行うことができる。   In the present embodiment, face alignment is performed by comparing detection waveform data consisting only of R data along the detection lines L1 to L3 with reference waveform data among the RGB color data constituting the face image. be able to. Since the amount of change in R data among the RGB color data is relatively large in the face contour portion and the like, the face alignment can be performed satisfactorily by comparing the R data.

以上の実施形態では、動画像データから静止画像データを抽出するような構成について説明したが、このような構成に限らず、シャッター操作に基づく顔画像の撮影によって、動画像データよりも解像度の高い静止画像データを生成し、その静止画像データにおける各検出ラインL1〜L3に沿った波形データを検出波形データとして検出するような構成であってもよい。   In the above embodiment, a configuration for extracting still image data from moving image data has been described. However, the present invention is not limited to such a configuration, and a higher resolution than moving image data is obtained by capturing a face image based on a shutter operation. The still image data may be generated, and the waveform data along the detection lines L1 to L3 in the still image data may be detected as the detected waveform data.

検出ラインL1〜L3は、それぞれ左右方向に延びるような構成に限らず、左右方向に対して所定角度だけ傾斜した方向に延びるような構成であってもよい。また、検出ラインは、中央検出ラインL1、上部検出ラインL2及び下部検出ラインL3の3つに限らず、2つであってもよいし、4つ以上であってもよい。   The detection lines L1 to L3 are not limited to the configuration extending in the left-right direction, but may be configured to extend in a direction inclined by a predetermined angle with respect to the left-right direction. Further, the number of detection lines is not limited to three, that is, the center detection line L1, the upper detection line L2, and the lower detection line L3, and may be two or four or more.

顔の位置合わせ情報は、スピーカ34から音声により出力されるような構成に限らず、モニター21に対する表示などの他の手段により出力されるような構成であってもよい。   The face alignment information is not limited to being output from the speaker 34 by sound, but may be configured to be output by other means such as a display on the monitor 21.

以上の実施形態では、正面顔画像、右顔画像及び左顔画像を撮影することができるような顔撮影装置Hについて説明したが、本発明は、このような顔撮影装置Hに限らず、それらのうち少なくとも1つの顔画像を撮影することができるような顔撮影装置に適用することができる。   In the above embodiment, the face photographing apparatus H capable of photographing the front face image, the right face image, and the left face image has been described. However, the present invention is not limited to such a face photographing apparatus H, The present invention can be applied to a face photographing apparatus that can photograph at least one face image.

また、操作者がキーボード22を操作することにより撮影カメラ4のシャッター操作を行うような構成に限らず、被撮影者がシャッター操作を行うような構成であってもよい。この場合、スピーカ34から出力される位置合わせ情報に基づいて、被撮影者自身が顔の位置合わせを行った後、自らシャッター操作を行うことにより、顔画像を撮影することが可能である。   In addition, the configuration is not limited to the configuration in which the operator operates the keyboard 22 to perform the shutter operation of the photographing camera 4, and the configuration in which the photographed person performs the shutter operation may be employed. In this case, based on the alignment information output from the speaker 34, it is possible to shoot the face image by performing the shutter operation by the subject himself / herself after aligning the face.

以上の実施形態では、筺体1とは別個に制御装置20が設けられ、当該制御装置20にモニター21及びキーボード22を備えた汎用のコンピュータが接続された構成について説明したが、このような構成に限らず、各構成要素が一体的に形成されたような構成であってもよい。   In the above embodiment, the configuration in which the control device 20 is provided separately from the housing 1 and the general-purpose computer having the monitor 21 and the keyboard 22 is connected to the control device 20 has been described. The configuration is not limited, and each component may be integrally formed.

本発明の第1実施形態に係る顔撮影装置の構成を示した図であり、筺体内の構成を横断面図で示している。It is the figure which showed the structure of the face imaging device which concerns on 1st Embodiment of this invention, and has shown the structure in the housing | casing with the cross-sectional view. 筺体の縦断面図である。It is a longitudinal cross-sectional view of a housing. この顔撮影装置の電気的構成の一例を示したブロック図である。It is the block diagram which showed an example of the electrical structure of this face imaging device. 顔の位置合わせを行う際の態様について説明するための図である。It is a figure for demonstrating the aspect at the time of aligning a face. 明度データ処理後の明度データの一例を示した波形図である。It is the wave form diagram which showed an example of the brightness data after a brightness data process. 基準波形データ及び検出波形データを比較する際の態様を示した波形図である。It is the wave form diagram which showed the aspect at the time of comparing reference waveform data and detection waveform data. 画像処理部の一構成例を示した機能ブロック図である。It is the functional block diagram which showed one structural example of the image process part. 顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の位置が水平方向にずれている場合を示している。It is a figure for demonstrating the determination method of the positioning information of a face, and has shown the case where the position of the face has shifted | deviated to the horizontal direction with respect to the face image based on reference | standard face image data. 顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の角度がずれている場合を示している。It is a figure for demonstrating the determination method of the positioning information of a face, and has shown the case where the angle of the face has shifted | deviated with respect to the face image based on reference | standard face image data. この顔撮影装置で顔の位置合わせを行って顔画像を撮影する際の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process at the time of aligning a face and image | photographing a face image with this face imaging device. 本発明の第2実施形態に係る顔撮影装置における画像処理部の一構成例を示した機能ブロック図である。It is the functional block diagram which showed the example of 1 structure of the image process part in the face imaging device which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

H 顔撮影装置
L1 中央検出ライン
L2 上部検出ライン
L3 下部検出ライン
4 撮影カメラ
20 制御装置
30 コントローラ
31 照明制御部
32 カメラ制御部
33 音声制御部
34 スピーカ
35 データ保存部
36 画像処理部
361 顔画像抽出部
362 明度平均化処理部
363 移動平均処理部
364 明度正規化処理部
366 波形データ比較部
367 位置合わせ情報出力部
368 波形データ検出部
H face photographing device L1 center detection line L2 upper detection line L3 lower detection line 4 photographing camera 20 control device 30 controller 31 illumination control unit 32 camera control unit 33 voice control unit 34 speaker 35 data storage unit 36 image processing unit 361 face image extraction Unit 362 lightness averaging processing unit 363 moving average processing unit 364 lightness normalization processing unit 366 waveform data comparison unit 367 alignment information output unit 368 waveform data detection unit

Claims (6)

基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置であって、
上記基準顔画像における予め定められた2以上の検出ラインに沿った波形データを基準波形データとして記憶する基準波形データ記憶手段と、
撮影した顔画像における上記2以上の検出ラインに沿った波形データを検出波形データとして検出する波形データ検出手段と、
上記基準波形データ及び上記検出波形データを比較する波形データ比較手段とを備えたことを特徴とする顔撮影装置。
A face photographing device for photographing a face image by aligning a face with a reference face image,
Reference waveform data storage means for storing waveform data along two or more predetermined detection lines in the reference face image as reference waveform data;
Waveform data detecting means for detecting waveform data along the two or more detection lines in the photographed face image as detected waveform data;
A face photographing apparatus comprising: waveform data comparing means for comparing the reference waveform data and the detected waveform data.
上記波形データ比較手段による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段を備えたことを特徴とする請求項1に記載の顔撮影装置。   2. The face photographing apparatus according to claim 1, further comprising alignment information output means for outputting face alignment information based on a comparison result by the waveform data comparison means. 上記波形データが、上記検出ラインに沿った顔画像の明度データからなることを特徴とする請求項1又は2に記載の顔撮影装置。   The face photographing apparatus according to claim 1, wherein the waveform data includes brightness data of a face image along the detection line. 上記検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化する明度平均化処理手段を備え、
上記波形データ検出手段が、上記明度平均化処理手段により平均化された明度データを上記検出波形データとして検出することを特徴とする請求項3に記載の顔撮影装置。
Brightness average processing means for averaging brightness data of face images taken on a plurality of lines parallel to the detection line;
4. The face photographing apparatus according to claim 3, wherein the waveform data detecting means detects the brightness data averaged by the brightness averaging processing means as the detected waveform data.
上記検出ライン上における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段を備え、
上記波形データ検出手段が、上記明度正規化処理手段により正規化された明度データを上記検出波形データとして検出することを特徴とする請求項3又は4に記載の顔撮影装置。
Lightness normalization processing means for normalizing by converting the lightness data on the detection line into lightness data based on the maximum value,
5. The face photographing apparatus according to claim 3, wherein the waveform data detection means detects the brightness data normalized by the brightness normalization processing means as the detected waveform data.
上記波形データが、顔画像を構成しているRGB各色データのうち、上記検出ラインに沿ったRデータのみからなることを特徴とする請求項1又は2に記載の顔撮影装置。   3. The face photographing apparatus according to claim 1, wherein the waveform data is composed only of R data along the detection line among RGB color data constituting a face image.
JP2008024102A 2008-02-04 2008-02-04 Face photographing apparatus Withdrawn JP2009188528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008024102A JP2009188528A (en) 2008-02-04 2008-02-04 Face photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008024102A JP2009188528A (en) 2008-02-04 2008-02-04 Face photographing apparatus

Publications (1)

Publication Number Publication Date
JP2009188528A true JP2009188528A (en) 2009-08-20

Family

ID=41071386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008024102A Withdrawn JP2009188528A (en) 2008-02-04 2008-02-04 Face photographing apparatus

Country Status (1)

Country Link
JP (1) JP2009188528A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071126A (en) * 2010-09-21 2012-04-12 Zong Jing Investment Inc Facial make-up application machine and make-up application method using the same
WO2014125831A1 (en) 2013-02-14 2014-08-21 パナソニック株式会社 Electronic mirror device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071126A (en) * 2010-09-21 2012-04-12 Zong Jing Investment Inc Facial make-up application machine and make-up application method using the same
WO2014125831A1 (en) 2013-02-14 2014-08-21 パナソニック株式会社 Electronic mirror device
EP3091737A2 (en) 2013-02-14 2016-11-09 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus
US9992409B2 (en) 2013-02-14 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus

Similar Documents

Publication Publication Date Title
JP5530440B2 (en) In-camera based method for detecting defects with high accuracy
JP2011530911A5 (en)
JP2000113199A (en) Method for deciding eye position
JP2008293325A (en) Face image analysis system
JP2003016434A (en) Individual authenticating device
JP2009000494A (en) Porphyrin detection method, porphyrin display method, and porphyrin detector
JP2014038269A (en) Stroboscopic device, imaging apparatus and image processing method
JP2009205576A (en) Biometric authentication device, iris authentication device, and fitting tool
JP2009005845A (en) Skin diagnostic apparatus and wrinkle measuring method
JP2009188528A (en) Face photographing apparatus
JP2009081527A (en) Face photographing apparatus
JP2008052510A (en) Iris imaging apparatus, iris authentication apparatus, iris imaging method, iris authentication method
JP2007328213A (en) Imaging apparatus, imaging apparatus control method, and computer program
JP5109779B2 (en) Imaging device
JP2008161322A (en) Face photographing device
WO2022113995A1 (en) Dentition image capturing system and dentition image capturing method
JP2008161508A (en) Face photographing device
JP5206190B2 (en) Driver monitoring device
JP2009009069A (en) Face photographing device
JP2008293327A (en) Face image display system
JP2008243119A (en) Face imaging device
JP7013922B2 (en) Shooting system, shooting method and program
JP3813015B2 (en) Image input device and individual identification device
JP5985916B2 (en) Endoscope device
JP7031298B2 (en) Imaging device, imaging method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405