JP2009175745A - Face image photographing device and face image photographing method - Google Patents

Face image photographing device and face image photographing method Download PDF

Info

Publication number
JP2009175745A
JP2009175745A JP2009068311A JP2009068311A JP2009175745A JP 2009175745 A JP2009175745 A JP 2009175745A JP 2009068311 A JP2009068311 A JP 2009068311A JP 2009068311 A JP2009068311 A JP 2009068311A JP 2009175745 A JP2009175745 A JP 2009175745A
Authority
JP
Japan
Prior art keywords
image
face
photographing
images
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009068311A
Other languages
Japanese (ja)
Inventor
Yoshinori Misumi
佳範 三角
Mikio Suga
幹夫 須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009068311A priority Critical patent/JP2009175745A/en
Publication of JP2009175745A publication Critical patent/JP2009175745A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face image photographing method and apparatus for outputting excellent images again without calling back and photographing persons to be photographed again even if performing inferior image photographing. <P>SOLUTION: The face image photographing method for photographing at least face images of the persons for the purpose of preparing identification photographs stuck on identifications, various licenses or the like includes: a step of being taken in as continuous images of a plurality of frames by photographing at least face images of the persons; a step of storing the continuous images of the plurality of the taken-in frames as backup images; a step of preserving and outputting the images of prescribed frames in the continuous images of the plurality of the stored frames to a preservation device of a filing device or the other preservation medium; a step of selecting the images of the prescribed frames suitable for output of the face images from the continuous images of the plurality of the stored frame; and a step of outputting the selected images. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、たとえば、身分証明書や各種免許証などに貼付する証明用写真を作成することを目的に、被撮影者の少なくとも顔画像を撮影する顔画像撮影装置および顔画像撮影方法に関する。   The present invention relates to a face image photographing apparatus and a face image photographing method for photographing at least a face image of a person to be photographed, for example, for the purpose of creating a proof photograph to be affixed to an identification card or various licenses.

一般に、この種の顔画像撮影装置にあっては、撮影状況の案内は撮影者(撮影操作者)が行い、撮影者が案内できない場合は、被撮影者の判断が必要となっていた。
しかしながら、従来の撮影状況の案内方法の揚合、撮影者(撮影操作者)の負荷が増大するという問題がある。特に、撮影申請者の撮影待ち行列ができている場合、撮影申請者の撮影の流れを効率的に行い、撮影サイクルを早める必要がある。
In general, in this type of face image photographing apparatus, the photographer (shooting operator) provides guidance on the shooting situation, and if the photographer cannot guide, it is necessary to determine the subject.
However, there is a problem that the load of the photographer (photographing operator) is increased due to the conventional guidance of the photographing situation. In particular, when the photographing applicant has a photographing queue, it is necessary to efficiently perform the photographing flow of the photographing applicant and speed up the photographing cycle.

その際、被撮影者が撮影の状況がわからず、撮影が終わったことを知らずにそのままカメラの前に居座り、撮影申請者の撮影の流れを妨げる。また、撮影中に被撮影者が撮影が終わったと誤判断して移動したり、そのため不良撮影となり、撮影のやり直しが発生し、撮影申請者の撮影の流れを妨げる。   At that time, the person to be photographed does not know the photographing situation and stays in front of the camera without knowing that the photographing has been completed, thereby hindering the photographing flow of the photographing applicant. In addition, during shooting, the person to be photographed moves by misjudging that the shooting has been completed, and therefore, the shooting becomes defective, which causes re-shooting and hinders the flow of shooting by the shooting applicant.

この発明は、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる顔画像撮影方法および顔画像撮影装置を提供することを目的とする。   The present invention provides a face image capturing method and a face image capturing apparatus capable of re-outputting a non-defective image without recalling the subject again and capturing the image again even if defective image capturing is performed. Objective.

この発明の顔画像撮影装置は、被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取込む画像取込手段と、この画像取込手段により取込んだ複数フレームの連続画像をバックアップ画像として記憶する画像記憶手段と、この画像記憶手段に記憶された複数フレームの連続画像内の所定フレームの画像から瞳の状態を認識し、その瞳が顔画像の印刷出力に適しているか否かを判定する第1の判定手段と、この第1の判定手段により瞳の状態が顔画像の印刷出力に適していると判定された場合、上記所定フレームの画像を印刷出力する第1の印刷出力手段と、上記第1の判定手段により瞳の状態が顔画像の印刷出力に適していないと判定された場合、上記画像記憶手段に記憶された複数フレームの連続画像内の上記所定フレームの画像の次のフレームの画像を用いて上記判定手段の判定処理を再度行わせるリトライ制御手段と、このリトライ制御手段による上記リトライ処理の回数を計数し、その計数値があらかじめ設定される規定値に達したか否かを判定する第2の判定手段と、この第2の判定手段が上記リトライ処理の回数が規定値に達したことを判定すると、エラー処理を行うエラー処理手段と、上記第1の印刷出力手段により印刷出力された画像が適正でない場合、上記画像記憶手段に記憶された複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択する画像選択手段と、この画像選択手段により選択された画像を印刷出力する第2の印刷出力手段とを有して構成される。   The face image photographing device according to the present invention captures at least a face image of a subject and captures it as a continuous image of a plurality of frames, and backs up a continuous image of the plurality of frames captured by the image capturing means. Image storage means for storing as an image, and whether or not the pupil state is suitable for print output of a face image by recognizing a state of a pupil from a predetermined frame image in a plurality of frames of continuous images stored in the image storage means And a first print output that prints out the image of the predetermined frame when it is determined by the first determination means that the state of the pupil is suitable for the print output of the face image. And the first determination unit determine that the pupil state is not suitable for the print output of the face image, the predetermined frame in the continuous image of a plurality of frames stored in the image storage unit. A retry control means for performing the determination process of the determination means again using the image of the next frame of the image of the image, and the number of times of the retry process by the retry control means is counted, and the count value is set in advance. A second determination unit that determines whether or not the number of retry processings has reached a specified value, and an error processing unit that performs error processing when the second determination unit determines that the number of retry processes has reached a specified value; An image selecting means for selecting an image of a predetermined frame suitable for outputting a face image from a plurality of consecutive frames stored in the image storage means when the image printed out by one print output means is not appropriate; And a second print output means for printing out the image selected by the image selection means.

この発明の顔画像撮影方法は、被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取り込むステップと、この取り込んだ複数フレームの連続画像をバックアップ画像として記憶するステップと、この記憶された複数フレームの連続画像内の所定フレームの画像を、ファイリング機器等の保存装置またはその他保存媒体に保存出力するステップと、この出力した画像が適正でない場合、上記記憶した複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択するステップと、この選択した画像を出力するステップとを有して構成される。   According to the face image photographing method of the present invention, at least a face image of a subject is photographed and captured as a continuous image of a plurality of frames, a step of storing the captured images of the plurality of frames as a backup image, A step of saving and outputting an image of a predetermined frame in the continuous image of the plurality of frames to a storage device such as a filing device or other storage medium, and if the output image is not appropriate, from the stored continuous image of the plurality of frames The method includes a step of selecting an image of a predetermined frame suitable for outputting a face image, and a step of outputting the selected image.

この発明によれば、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる顔画像撮影方法および顔画像撮影装置を提供できる。   According to the present invention, it is possible to provide a face image photographing method and a face image photographing apparatus capable of re-outputting a non-defective image without recalling the photographed person again and photographing again even if defective image photographing is performed. .

この実施の形態に係る顔画像撮影装置の外観構成を概略的に示す図。The figure which shows schematically the external appearance structure of the face image imaging device which concerns on this embodiment. 案内表示部の構成を概略的に示す図。The figure which shows the structure of a guidance display part roughly. 顔画像撮影装置の全体的な構成を示すブロック図。The block diagram which shows the whole structure of a face image imaging device. 顔画像撮影装置と、被撮影者と、撮影を待機する撮影申請者との間での撮影の物理的な流れを説明するための図。The figure for demonstrating the physical flow of imaging | photography between a face image imaging device, a to-be-photographed person, and the imaging | photography applicant who waits for imaging | photography. 第1の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 1st Embodiment. 第1の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 1st Embodiment. 第1の実施の形態における案内表示部の表示例を示す図。The figure which shows the example of a display of the guidance display part in 1st Embodiment. 第1の実施の形態における案内表示部の表示例を示す図。The figure which shows the example of a display of the guidance display part in 1st Embodiment. 第1の実施の形態における案内表示部の表示例を示す図。The figure which shows the example of a display of the guidance display part in 1st Embodiment. 第2の実施の形態における、カメラからの入力画像から顔の輪郭領域を検出し、この顔の輪郭領域から顔の大きさを測定する様子を示す図。The figure which shows a mode that the outline region of a face is detected from the input image from a camera in 2nd Embodiment, and the magnitude | size of a face is measured from this outline region of a face. 第2の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 2nd Embodiment. 第2の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 2nd Embodiment. 第2の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 2nd Embodiment. 第2の実施の形態における顔の輪郭領域の規定範囲について説明するためのフローチャート。The flowchart for demonstrating the prescription | regulation range of the outline region of the face in 2nd Embodiment. 第2の実施の形態における頭頂高さ位置検出処理を説明するためのフローチャート。The flowchart for demonstrating the top height position detection process in 2nd Embodiment. 第2の実施の形態における左右方向の顔の中心位置の検出処理を説明するためのフローチャート。The flowchart for demonstrating the detection process of the center position of the face of the left-right direction in 2nd Embodiment. 第2の実施の形態における入力画像の画像データ例を示す図。The figure which shows the image data example of the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する探索範囲を示す図。The figure which shows the search range with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する探索領域内で被撮影者1が存在しないラインと存在するラインを示す図。The figure which shows the line where the to-be-photographed person 1 does not exist, and the line which exists in the search area | region with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する頭頂の高さと左頭側位置head leftと顔の中心位置centerを示す図。The figure which shows the height of the vertex with respect to the input image in 2nd Embodiment, the left head side position head left, and the center position center of a face. 第2の実施の形態における入力画像に対する顔の輪郭領域を示す図。The figure which shows the outline area | region of the face with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する顔の輪郭領域の規定範囲を説明するための図。The figure for demonstrating the prescription | regulation range of the outline region of the face with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する頭頂高さ位置の検出処理を説明するための図。The figure for demonstrating the detection process of the top height position with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する顔左端縦ライン:head leftの検出処理を説明するための図。The figure for demonstrating the detection process of the face left end vertical line: head left with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する顔右端縦ライン:head rightの検出処理を説明するための図。The figure for demonstrating the detection process of the face right end vertical line: head right with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する顔の中心位置centerの検出処理を説明するための図。The figure for demonstrating the detection process of the center position center of the face with respect to the input image in 2nd Embodiment. 第2の実施の形態における入力画像に対する顔の輪郭基準位置に基づく、両瞳が必ず存在するであろう領域を示す図。The figure which shows the area | region where both pupils will necessarily exist based on the outline reference position of the face with respect to the input image in 2nd Embodiment. 第3の実施の形態におけるカメラからの入力画像と、撮影処理中の各処理時に使用する領域や座標を示した図。The figure which showed the area | region and coordinate used at the time of each process during the imaging | photography process in the input image from the camera in 3rd Embodiment. 第3の実施の形態におけるカメラからの入力画像と、撮影処理中の各処理時に使用する領域や座標を示した図。The figure which showed the area | region and coordinate used at the time of each process during the imaging | photography process in the input image from the camera in 3rd Embodiment. 第3の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 3rd Embodiment. 第3の実施の形態における撮影可能状態の判定処理を説明するためのフローチャート。10 is a flowchart for explaining a process for determining a shootable state according to the third embodiment. 第4の実施の形態におけるカメラからの入力画像、その入力画像中の顔の輪郭位置からの相対位置である瞳(目)の概略位置領域を特定し、この概略位置領域から両瞳の位置領域を抽出する様子を示す図。An input image from the camera according to the fourth embodiment, and an approximate position area of the pupil (eye) that is a relative position from the contour position of the face in the input image are specified, and the position area of both pupils from this approximate position area FIG. 第4の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 4th Embodiment. 第5の実施の形態における、カメラからの入力画像と、その入力画像中の顔の輪郭位置からの相対位置である瞳(目)の概略位置領域を特定し、この概略位置領域から両瞳の位置領域を抽出し、この両瞳の位置領域の中心位置(座標)からの相対位置により画像切出し領域を決定する様子を示す図。In the fifth embodiment, the approximate position area of the pupil (eyes), which is the relative position from the input image from the camera and the contour position of the face in the input image, is specified, and both pupils are determined from this approximate position area. The figure which shows a mode that a position area | region is extracted and an image cut-out area | region is determined by the relative position from the center position (coordinates) of the position area | region of both pupils. 第5の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 5th Embodiment. 第5の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 5th Embodiment. 第5の実施の形態における再出力処理を説明するためのフローチャート。The flowchart for demonstrating the re-output process in 5th Embodiment. 第6の実施の形態における、カメラからの入力画像と、その入力画像中の顔の中心としての眉間の座標を基準に、瞳が存在するであろう領域を抽出し、かつ出力写真サイズの画像領域を抽出する様子を示す図。In the sixth embodiment, based on the input image from the camera and the coordinates between the eyebrows as the center of the face in the input image, the region where the pupil will be present is extracted, and the image of the output photo size The figure which shows a mode that an area | region is extracted. 第6の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 6th Embodiment. 第6の実施の形態における判定処理を説明するためのフローチャート。The flowchart for demonstrating the determination process in 6th Embodiment. 第6の実施の形態における画像出力処理を説明するためのフローチャート。10 is a flowchart for explaining image output processing according to the sixth embodiment. 第7の実施の形態におけるカメラからの入力画像を示す図。The figure which shows the input image from the camera in 7th Embodiment. 第7の実施の形態における処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation in 7th Embodiment.

以下、図面を参照しながらこの発明の実施の形態について詳細に説明する。
図1は、この発明の実施の形態に係る顔画像撮影システムの外観構成を概略的に示すものである。この顔画像撮影システムは、被撮影者1を照明する照明器2、被撮影者1の少なくとも顔画像を撮影する撮影手段としてのCCD形のビデオカメラ3、撮影状態や撮影者(操作者)4の操作情報などを表示する表示器(モニタディスプレイ)5、撮影者4による操作指示により、カメラ3からの入力画像を加工したり、表示器5や内蔵する記憶部などに対して出力を行う制御台(制御部)6、被撮影者1に対し撮影状況を案内表示する案内手段としての案内表示部7等を有する顔画像撮影装置と、被撮影者1が撮影の際に着座する椅子8、撮影の際に被撮影者1の背景となる背景板9および、この背景板9の裏側に設けられ被撮影者1に対し撮影状態やガイダンスなどを音声で案内する案内手段としてのスピーカ10等から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 schematically shows an external configuration of a face image photographing system according to an embodiment of the present invention. This face image photographing system includes an illuminator 2 that illuminates a subject 1, a CCD type video camera 3 as photographing means for photographing at least a face image of the subject 1, a photographing state and a photographer (operator) 4. A display (monitor display) 5 for displaying the operation information of the camera, and a control for processing an input image from the camera 3 according to an operation instruction from the photographer 4 and outputting to the display 5 or a built-in storage unit A face image photographing device having a table (control unit) 6, a guidance display unit 7 as guidance means for guiding and displaying photographing conditions for the photographed person 1, and a chair 8 on which the photographed person 1 is seated when photographing. From a background plate 9 serving as a background of the person to be photographed 1 at the time of photographing, and a speaker 10 or the like as guidance means provided on the back side of the background board 9 and guiding the photographing state and guidance to the photographed person 1 by voice. It is configured.

ビデオカメラ3は、640画素×480ラインを1画面の撮影画像として出力される。上記各画素は、R(レッド)、G(グリーン)、B(ブルー)の各色センサからなり、各画素ごとに、各色ごとのデータ(濃度値)を出力するようになっている。   The video camera 3 outputs 640 pixels × 480 lines as a captured image of one screen. Each pixel includes R (red), G (green), and B (blue) color sensors, and outputs data (density value) for each color for each pixel.

背景板9は青色で構成されていることにより、ビデオカメラ3により撮影された際の背景が青色となり、青色が背景色成分となる。上記ビデオカメラ3の撮像部から被撮影者1の距離は、ほぼ一定となっている。つまり、上記ビデオカメラ3により撮影距離固定で撮影されている。   Since the background plate 9 is composed of blue, the background when captured by the video camera 3 is blue, and blue is the background color component. The distance of the subject 1 from the imaging unit of the video camera 3 is substantially constant. That is, the video camera 3 is shooting at a fixed shooting distance.

案内表示部7は、図2に示すように、被撮影者1に対し撮影待機を促す表示を行う確認中表示部(第2の表示部)11、被撮影者1に対し撮影終了を表示する終了表示部(第3の表示部)12、被撮影者1に対し撮影終了後の進行方向を促す表示を行う出口表示部(第4の表示部)13から構成されている。   As shown in FIG. 2, the guidance display unit 7 displays a confirmation-in-progress display unit (second display unit) 11 that performs a display prompting the subject person 1 to wait for photographing, and displays the end of photographing for the subject person 1. An end display unit (third display unit) 12 and an exit display unit (fourth display unit) 13 that performs a display prompting the photographed person 1 to travel in the direction after the end of shooting are configured.

この場合、確認中表示部11は、本装置前面のカメラ3下方部位で本装置の横幅方向ほぼ中央部に設けられ、終了表示部12は、確認中表示部11の図面に対し右側に設けられ、出口表示部13は、終了表示部12の図面に対し右側に設けられている。   In this case, the in-confirmation display unit 11 is provided at a substantially central portion in the width direction of the apparatus at the lower part of the camera 3 on the front surface of the apparatus, and the end display unit 12 is provided on the right side with respect to the drawing of the in-confirmation display unit 11. The exit display unit 13 is provided on the right side with respect to the drawing of the end display unit 12.

さらに、図2に示すように、被撮影者1に対し撮影状況を案内表示する案内表示手段の1つとして、被撮影者1がカメラ3を見る位置(カメラ3に視点を合わせる位置)を表示するカメラ位置表示部(第1の表示部)14がカメラ3の撮影レンズ3aの周囲に設けられている。カメラ位置表示部14は、たとえば、複数のLED表示素子14aを撮影レンズ3aの周囲に設けて構成されており、必要に応じて点灯、点滅、消灯制御される。   Further, as shown in FIG. 2, as one of the guidance display means for guiding and displaying the photographing state for the photographed person 1, the position where the photographed person 1 looks at the camera 3 (position where the viewpoint is adjusted to the camera 3) is displayed. A camera position display unit (first display unit) 14 is provided around the photographing lens 3 a of the camera 3. The camera position display unit 14 is configured, for example, by providing a plurality of LED display elements 14a around the photographing lens 3a, and is controlled to be turned on, blinked, and turned off as necessary.

図3は、図1、図2に示した顔画像撮影システムの全体的な構成を示すブロック図である。すなわち、顔画像撮影システムの制御部6は、ビデオキャプチャ部21、ビデオアクセラレート部22、CPU部23、外部バス制御部24、大容量記憶装置25、リーダライタ部27、I/O制御部30、ネットワークアダプタ(LANカードなど)33および、サウンドコントロール部34などによって構成されている。   FIG. 3 is a block diagram illustrating an overall configuration of the face image photographing system illustrated in FIGS. 1 and 2. That is, the control unit 6 of the face image capturing system includes a video capture unit 21, a video acceleration unit 22, a CPU unit 23, an external bus control unit 24, a mass storage device 25, a reader / writer unit 27, and an I / O control unit 30. , A network adapter (LAN card or the like) 33, a sound control unit 34, or the like.

ビデオキャプチャ部21は、カメラ3からのアナログ信号(入力画像)をリアルタイムにデジタル信号に変換し、後述するビデオメモリとしてのMO26やメインメモリ23bなどに転送するものである。   The video capture unit 21 converts an analog signal (input image) from the camera 3 into a digital signal in real time, and transfers the digital signal to an MO 26 or a main memory 23b as a video memory described later.

ビデオアクセラレート(video accelerator)部22は、ビデオキャプチャ部21からの画像データをビデオメモリとしてのMO26やメインメモリ23bなどに記憶したり、ビデオキャプチャ部21からの画像データに対する描画処理を行い、表示器5への表示制御を行うものである。
サウンドコントロール部34は、スピーカ10へのガイダンス用の音声を制御するものである。
A video accelerator unit 22 stores the image data from the video capture unit 21 in the MO 26 or the main memory 23b as a video memory, or performs a drawing process on the image data from the video capture unit 21 for display. The display control to the device 5 is performed.
The sound control unit 34 controls voice for guidance to the speaker 10.

CPU部23は、画像データ等への各種の演算処理や各種制御などを行うCPU(セントラル・プロセッシング・ユニット)23a、ビデオキャプチャ部21からの画像データをフレーム単位で複数フレーム分記憶するとともに、演算結果などを一時保存するメインメモリ23b、各種周辺機器とのインターフェイス(図示しない)を備えたものである。   The CPU 23 stores a plurality of frames of image data from a CPU (Central Processing Unit) 23a, which performs various arithmetic processes and various controls on image data and the like, and the video capture unit 21, and performs arithmetic operations. A main memory 23b for temporarily storing results and the like and an interface (not shown) with various peripheral devices are provided.

たとえば、CPU部23には、上記インターフェイスを介して、操作者(撮影者)4が操作する入力装置としてのキーボード28やマウス29が接続されている。キーボード28には、被撮影者1の撮影準備ができたことを確認した場合に押下される撮影ボタン28a、撮影画像がOKとなった場合に押下される撮影確定ボタン28b、再撮影が必要となった場合に押下される撮影取消しボタン28cが設けられている。   For example, a keyboard 28 and a mouse 29 are connected to the CPU unit 23 as input devices operated by the operator (photographer) 4 via the interface. On the keyboard 28, a shooting button 28a that is pressed when it is confirmed that the subject 1 is ready for shooting, a shooting confirmation button 28b that is pressed when the shot image is OK, and re-shooting is required. There is provided a shooting cancel button 28c that is pressed when this happens.

上記撮影ボタン28a、撮影確定ボタン28b、撮影取消しボタン28cに対応するアイコンを表示器5で表示させることにより、マウス29により移動されるカーソルを用いて上記アイコンを選択した際に、上記キーボード28の撮影ボタン28a、撮影確定ボタン28b、撮影取消しボタン28cを押下した場合と同じ機能となる。   When the icons corresponding to the shooting button 28a, the shooting confirmation button 28b, and the shooting cancel button 28c are displayed on the display 5 and the icons are selected using the cursor moved by the mouse 29, the keyboard 28 The function is the same as when the shooting button 28a, shooting confirmation button 28b, and shooting cancel button 28c are pressed.

また、CPU部23には、上記インターフェイスを介して、撮影した顔画像などを例えば印刷出力する出力手段としての画像印刷装置31が接続されている。
外部バス制御部24は、各種周辺機器を接続する外部バス(たとえば、SCSIなど)を制御するものである。
大容量記憶装置25は、各種OSやアプリケーション、制御用データ、画像データなどを保存するものであり、ハードディスク装置(HDD)などにより構成される。
The CPU 23 is connected to an image printing apparatus 31 as an output unit that prints out a captured face image, for example, via the interface.
The external bus control unit 24 controls an external bus (for example, SCSI) that connects various peripheral devices.
The large-capacity storage device 25 stores various OSs, applications, control data, image data, and the like, and includes a hard disk device (HDD).

リーダライタ部(MOドライバ)27は、制御台6の出力データなどを保存する可搬性のある記憶媒体26としてのたとえば光磁気ディスク(MO)などに対してデータの読み書きを行うものである。   The reader / writer unit (MO driver) 27 reads / writes data from / to a magneto-optical disk (MO) or the like as a portable storage medium 26 that stores output data of the control table 6 and the like.

I/O制御部30は、上記確認中表示部11、終了表示部12、出口表示部13、カメラ位置表示部14をそれぞれ制御するものである。   The I / O control unit 30 controls the in-confirmation display unit 11, the end display unit 12, the exit display unit 13, and the camera position display unit 14, respectively.

ネットワークアダプタ(LANカードなど)33は、同一ネットワーク32上の他の各種機器(画像印刷装置や画像ファイリング装置など)との間で相互通信を行うためのものである。   A network adapter (such as a LAN card) 33 is for performing mutual communication with other various devices (such as an image printing apparatus and an image filing apparatus) on the same network 32.

図4は、本顔画像撮影システムと、被撮影者1と、撮影を待機する撮影申請者10との間での撮影の物理的な流れを、上方から見て図示したものである。被撮影者1は、通常、撮影が終了すると、図4に示す実線矢印aの方向に移動(進行)するが、もし破線矢印bの方向に移動すると、次の撮影申請者10との入れ替えに支障がある。   FIG. 4 shows the physical flow of photographing among the face image photographing system, the subject 1 and the photographing applicant 10 waiting for photographing as viewed from above. The person to be photographed 1 usually moves (advances) in the direction of the solid arrow a shown in FIG. 4 when photographing is completed. However, if the person to be photographed 1 moves in the direction of the broken arrow b, the next person to be photographed 10 is replaced. There is a problem.

(第1の実施の形態)
ここで、このような支障を生じさせないための第1の実施の形態として、被撮影者1に対して、視点合せ、待機、終了、進行方向の順に案内を行う実施の形態について説明する。
(First embodiment)
Here, as a first embodiment for preventing such troubles, an embodiment will be described in which the subject 1 is guided in the order of viewpoint alignment, standby, end, and traveling direction.

以下、図5および図6に示すフローチャートを参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

まず、ステップS1では、確認中表示部11、終了表示部12、出口表示部13をそれぞれ消灯するとともに、その他本装置の初期化を行い、ステップS2に進む。ステップS2では、カメラ位置表示部14を例えば赤色で点灯することにより、被撮影者1にカメラ3の撮影レンズ3aを見るべく、すなわち、被撮影者1がカメラ3の撮影レンズ3aに視点を合わせるべく促す。   First, in step S1, the in-confirmation display unit 11, the end display unit 12, and the exit display unit 13 are turned off, and other initialization of the apparatus is performed, and the process proceeds to step S2. In step S <b> 2, the camera position display unit 14 is lit in red, for example, so that the photographed person 1 can see the photographing lens 3 a of the camera 3. Encourage as much as possible.

次に、ステップS3では、撮影者4がステップS1による被撮影者1の撮影準備ができたことを確認し、撮影ボタン28aを押下する。次に、ステップS4で、カメラ位置表示部14を例えば点滅状態にすることにより、被撮影者1にそのままカメラ3を見続けることを促し、ステップS5に進む。   Next, in step S3, the photographer 4 confirms that the subject 1 is ready for photographing in step S1, and presses the photographing button 28a. Next, in step S4, the camera position display unit 14 is set in a blinking state, for example, to prompt the subject 1 to continue to watch the camera 3 as it is, and the process proceeds to step S5.

ステップS5では、カメラ3からの被撮影者1が撮影された画像をビデオキャプチャ部21を介して取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS6に進む。ステップS6では、CPU部23内のメインメモリ23bに格納した入力画像を表示器5に表示し、ステップS7に進む。   In step S5, an image taken by the subject 1 from the camera 3 is captured via the video capture unit 21, temporarily stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S6. In step S6, the input image stored in the main memory 23b in the CPU unit 23 is displayed on the display 5, and the process proceeds to step S7.

ステップS7では、画像の取込みが終了したので、点滅させていたカメラ位置表示部14を消灯し、ステップS8に進む。ステップS8では、確認中表示部11を、図7に示すように黄色で点滅状態にし、ステップS9に進む。ステップS9では、撮影者4はステップS6で表示した画像に対し目つぶりはないか、顔位置がずれていないか、などの良否判断を行い、再撮影の要否判定を行う。その間、被撮影者1は再撮影に備え、待機している必要がある。そのため、ステップS8にて確認中表示部11を黄色で点滅状態にするものである。   In step S7, since the image capture is completed, the blinking camera position display unit 14 is turned off, and the process proceeds to step S8. In step S8, the in-confirmation display unit 11 is blinked yellow as shown in FIG. 7, and the process proceeds to step S9. In step S9, the photographer 4 determines whether or not the image displayed in step S6 is blinking or whether the face position is shifted, and determines whether re-shooting is necessary. Meanwhile, the person to be photographed 1 needs to stand by in preparation for re-photographing. Therefore, the in-confirmation display unit 11 is blinked yellow in step S8.

ステップS9の判定において、再撮影が必要となった場合、ステップS10に進み、撮影者4は撮影取消しボタン28cを押下することにより、ステップS2に戻り、上記同様な動作を繰り返す。   If it is determined in step S9 that re-shooting is necessary, the process proceeds to step S10, and the photographer 4 depresses the shooting cancel button 28c to return to step S2 and repeats the same operation as described above.

ステップS9の判定において、撮影画像がOKとなった場合、ステップS11に進み、撮影者4は撮影確定ボタン28bを押下する。撮影確定ボタン28bが押下されると、ステップS12に進み、確認中表示部11を消灯する。次に、ステップS13にて、終了表示部12を、図8に示すように緑色で点滅するとともに、ステップS14にて、図8に示すように出口表示部13に設けられた矢印を点滅することにより、被撮影者1に対して撮影が終了したので出口方向へ進行することを促す。   If it is determined in step S9 that the photographed image is OK, the process proceeds to step S11, and the photographer 4 presses the photographing confirmation button 28b. When the shooting confirmation button 28b is pressed, the process proceeds to step S12, and the in-confirmation display unit 11 is turned off. Next, in step S13, the end display unit 12 blinks green as shown in FIG. 8, and in step S14, the arrow provided on the exit display unit 13 blinks as shown in FIG. As a result, the subject 1 is prompted to proceed in the exit direction since the photographing is completed.

次に、ステップS15では、ステップS6にてCPU部23内のメインメモリ23bに格納した入力画像を出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。
なお、撮影した顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
Next, in step S15, the input image stored in the main memory 23b in the CPU unit 23 in step S6 is converted for output, and in addition to other personal information of the person to be photographed 1, depending on the purpose, In the connected image printing apparatus 31 or an image printing apparatus (not shown) connected from the network adapter 33 to the network 32, printing is performed on a recording medium (paper, card, etc.), or the network 32 is connected. The image is stored and output to an image filing device (not shown) as an image storage means, and the main memory 23b, the large-capacity storage device 25, or the portable storage medium 26 in the CPU unit 23 is stored as an image. By using it as a means, it is stored (saved output). This completes all the photographing processes for one person to be photographed.
It should be noted that whether the photographed face image is printed out or stored is selected depending on the purpose, and the method of outputting the face image is arbitrary.

以上説明したように、上記第1の実施の形態によれば、カメラ3による撮影時、被撮影者に対しカメラ3を見る位置を表示するカメラ位置表示部14、被撮影者に対し撮影待機を促す表示を行う確認中表示部11、被撮影者に対し撮影終了を表示する終了表示部12、および、被撮影者に対し撮影終了後の進行方向を促す表示を行う出口表示部13をそれぞれ設けて、被撮影者1に対し撮影状況(カメラ3を見る位置、撮影待機、撮影終了、撮影終了後の進行方向)を案内表示することにより、被撮影者1に対し撮影状況を案内することができ、撮影申請者10の撮影待ち行列が滞ることを極力なくすことができる。しかも、このような案内表示により、健常者は勿論のこと、耳が悪く聞こえ難い難聴者に対しても、確実に案内表示することができる。   As described above, according to the first embodiment, the camera position display unit 14 that displays the position at which the camera 3 is viewed with respect to the person to be photographed when the camera 3 is photographing, An in-confirmation display unit 11 for performing a prompting display, an end display unit 12 for displaying the end of shooting for the photographed person, and an exit display unit 13 for performing a display for prompting the traveling direction after the shooting for the photographed person are provided. Thus, the shooting situation can be guided to the person to be photographed 1 by displaying the shooting situation (position where the camera 3 is viewed, shooting standby, shooting end, direction of travel after the end of shooting) for the person to be shot 1. It is possible to minimize the delay of the photographing queue of the photographing applicant 10 as much as possible. In addition, such guidance display can surely provide guidance display not only for healthy people but also for hearing-impaired people who are hard to hear.

なお、本発明は前記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形実施可能である。たとえば、図9に示すように、本装置への撮影申請者10の行列方向および被撮影者1の出口方向に合わせて、終了表示部12および出口表示部13の取付け位置を変更できるようにしてもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. For example, as shown in FIG. 9, the attachment positions of the end display unit 12 and the exit display unit 13 can be changed in accordance with the matrix direction of the photographing applicant 10 to the apparatus and the exit direction of the subject 1. Also good.

図9の例では、撮影を終了した被撮影者1の進行方向を本装置の図面に対し左側とした場合で、終了表示部12はそのまま図面に対し左側へ平行移動して、確認中表示部11の図面に対し左側に取付け、出口表示部13は180度回転させて向きが逆になるようにし、終了表示部12の図面に対し左側に取付けた場合を示している。   In the example of FIG. 9, when the direction of travel of the subject 1 who has finished photographing is set to the left side with respect to the drawing of the present apparatus, the end display unit 12 translates to the left side with respect to the drawing as it is, 11 is attached to the left side with respect to the drawing of FIG. 11, and the exit display unit 13 is rotated 180 degrees so that the direction is reversed, and is attached to the left side with respect to the drawing of the end display unit 12.

また、カメラ位置表示部14により、被撮影者1に対しカメラ3の撮影レンズ3aを見る位置を表示するようにしたが、これに限らず、たとえば、確認中表示部11を用いて「カメラの撮影レンズを見て下さい」と文字で表示するようにしてもよく、あるいは、それらの両方を用いてもよい。   Further, the camera position display unit 14 displays the position where the photographing lens 3a of the camera 3 is viewed with respect to the photographed person 1. However, the present invention is not limited to this. “Please look at the photographic lens” may be displayed in text, or both of them may be used.

(第2の実施の形態)
次に、第2の実施の形態として、被撮影者1の顔の大きさを測定し、この測定した大きさに基づきズーミング処理することにより、一定の大きさの顔画像を取得する実施の形態について説明する。
(Second Embodiment)
Next, as a second embodiment, an embodiment in which a face image of a certain size is obtained by measuring the size of the face of the subject 1 and performing a zooming process based on the measured size. Will be described.

図10は、カメラ3からの入力画像(顔画像)41と、その入力画像41から顔の輪郭領域42を検出し、この顔の輪郭領域42から顔の大きさを測定する様子を示したものである。   FIG. 10 shows an input image (face image) 41 from the camera 3, and a face outline region 42 detected from the input image 41 and the face size measured from the face outline region 42. It is.

以下、図11に示すフローチャートおよび図10を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 11 and FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

まず、ステップS21にて、図示しないカウンタによって計数されるリトライ回数やその他のデータの初期化を行い、ステップS22に進む。ステップS22では、ビデオキャプチャ部21を介してカメラ3からの入力画像(被撮影者1の顔画像)41を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS23に進む。ステップS23では、メインメモリ23b内の入力画像41から、被撮影者1の髪形まで含めた検出方法の詳細を後に説明する、背景板9の色成分と異なる色成分を持った顔の輪郭領域42を検出し、ステップS24に進む。   First, in step S21, the number of retries counted by a counter (not shown) and other data are initialized, and the process proceeds to step S22. In step S22, an input image (face image of the person to be photographed 1) 41 from the camera 3 is captured via the video capture unit 21, temporarily stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S23. In step S23, details of the detection method including the input image 41 in the main memory 23b to the hairstyle of the person to be photographed 1 will be described later, and the face outline region 42 having a color component different from the color component of the background plate 9 will be described later. Is detected, and the process proceeds to step S24.

ステップS24では、ステップS23で求められた顔の輪郭領域42により、後で詳述する顔の大きさ測定処理により顔の大きさの値(面積、画素数)を測定し、ステップS25に進む。ここに、このステップS24の処理が本発明における測定手段に対応している。   In step S24, the face size value (area, number of pixels) is measured by the face size measurement process, which will be described in detail later, from the face contour area 42 obtained in step S23, and the process proceeds to step S25. Here, the processing in step S24 corresponds to the measuring means in the present invention.

ステップS25では、ステップS24で測定された顔の大きさ測定値が規定範囲内に入っているかどうかを判定する。ここでいう規定範囲とは、後で行うズーミング処理の入力対応範囲から逆算した値である。たとえば、ズーミング処理の入力対応範囲がズーム比率0.5〜1.5だった場合、目標の顔の大きさ値/顔の大きさ測定値が0.5以上1.5以下だということが、規定範囲内に入っているということである。ここに、このステップS25の処理が本発明における第1の判定手段に対応している。   In step S25, it is determined whether or not the face size measurement value measured in step S24 is within a specified range. The specified range here is a value calculated backward from the input corresponding range of the zooming process to be performed later. For example, when the input corresponding range of zooming processing is a zoom ratio of 0.5 to 1.5, the target face size value / face size measurement value is 0.5 to 1.5. It is within the specified range. Here, the process of step S25 corresponds to the first determination means in the present invention.

ステップS25の判定で、顔の大きさ測定値が規定範囲内に入っている場合、ステップS26に進む。ステップS26では、目標の顔の大きさ値と顔の大きさ測定値との比を求め、この求めた比をズーム比率として設定する。なお、目標の顔の大きさ値とは、出力写真にした際に最も適正な顔の大きさの値であり、たとえば何百人かの顔画像データを平均したものに基づいて決定したものである。ここに、このステップS26の処理が本発明におけるズーム比率設定手段に対応している。   If it is determined in step S25 that the face size measurement value is within the specified range, the process proceeds to step S26. In step S26, a ratio between the target face size value and the face size measurement value is obtained, and the obtained ratio is set as a zoom ratio. Note that the target face size value is the most appropriate face size value when an output photograph is made, and is determined based on, for example, an average of hundreds of face image data. . Here, the processing in step S26 corresponds to the zoom ratio setting means in the present invention.

次に、ステップS27では、ステップS26で設定されたズーム比率に基づき、カメラ3からの入力画像に対してCPU部23により電子的にズーミング処理を行い、ステップS28に進む。ここに、このステップS27の処理が本発明におけるズーミング処理手段に対応している。この例では、電子的にズーミング処理を行う場合について説明したが、カメラ3のレンズの移動によりズーミング処理を行うものであってもよい。   Next, in step S27, based on the zoom ratio set in step S26, the CPU unit 23 electronically zooms the input image from the camera 3, and the process proceeds to step S28. Here, the processing in step S27 corresponds to the zooming processing means in the present invention. In this example, the case where the zooming process is performed electronically has been described. However, the zooming process may be performed by moving the lens of the camera 3.

ステップS28では、CPU部23内のメインメモリ23bに格納された入力画像を出力用に変換し、被撮影者1のその他の個人情報(氏名、生年月日、ID番号など)とともに、目的に応じ、CPU部23に接続された画像印刷装置30、あるいは、ネットワークアダプタ32からネットワーク31上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク21上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。
なお、撮影した顔画像を身分証明書などの所定の大きさに定められた領域に印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
In step S28, the input image stored in the main memory 23b in the CPU unit 23 is converted for output, and other personal information (name, date of birth, ID number, etc.) of the person to be photographed 1 and according to the purpose. The image printing apparatus 30 connected to the CPU unit 23 or the image printing apparatus (not shown) connected from the network adapter 32 to the network 31 prints out on a recording medium (paper, card, etc.) The image data is stored and output to an image filing device (not shown) as an image storage means connected on the network 21. Furthermore, the main memory 23b in the CPU unit 23, the large-capacity storage device 25, or a portable storage device. By using the medium 26 as image storage means, it is stored (saved and output). This completes all the photographing processes for one person to be photographed.
Note that it is only necessary to select whether the photographed face image is printed out or stored in a predetermined area such as an identification card according to the purpose, and the method of outputting the face image is arbitrary.

ステップS25の判定において、測定された顔の大きさ測定値が規定範囲を外れている場合、リトライ処理を行う。すなわち、まず、ステップS29では、前記リトライ回数をインクリメントし、ステップS30に進む。ステップS30では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS31に進む。ここに、このステップS29、S30の処理が本発明における第2の判定手段に対応している。   If it is determined in step S25 that the measured face size measurement value is out of the specified range, a retry process is performed. That is, first, in step S29, the number of retries is incremented, and the process proceeds to step S30. In step S30, it is checked whether or not the number of retries is within a predetermined value set in advance. If it is within the predetermined value, the process proceeds to step S31. Here, the processes in steps S29 and S30 correspond to the second determination means in the present invention.

ステップS31では、測定された顔の大きさ測定値が規定範囲を超えている(顔が大き過ぎる)場合は、被撮影者1に対し顔を遠ざけることを促すメッセージを表示器5に表示し、またその逆の場合は、顔を近付けることを促すメッセージを表示器5に表示して、ステップS22に戻り、リトライ処理として再度、ステップS22からの処理を行う。   In step S31, if the measured face size measurement value exceeds the specified range (the face is too large), a message prompting the subject 1 to move away from the face is displayed on the display unit 5, In the opposite case, a message prompting the user to approach the face is displayed on the display 5 and the process returns to step S22, and the process from step S22 is performed again as a retry process.

ステップS30の判定において、リトライ回数が規定値を超えた場合、出力写真にした際に不適な画像であると判断して、ステップS32に進み、エラー処理を行って、撮影処理を一旦終了する。ここに、このステップS32の処理が本発明におけるエラー処理手段に対応している。   If it is determined in step S30 that the number of retries exceeds the specified value, it is determined that the image is inappropriate when the output photograph is selected, and the process proceeds to step S32 to perform error processing, and the photographing process is temporarily terminated. Here, the processing in step S32 corresponds to the error processing means in the present invention.

次に、図12に示すフローチャートおよび図10を参照して、図11のステップS24における顔の大きさ測定処理の第1の実施の形態について説明する。   Next, with reference to the flowchart shown in FIG. 12 and FIG. 10, the first embodiment of the face size measurement process in step S24 of FIG. 11 will be described.

まず、ステップS33にて、ステップS23で求められた顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。上記領域43は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。   First, in step S33, a region 43 where both pupils will necessarily exist is calculated as a relative position region from the face contour region 42 obtained in step S23. A part having the same shape, for example, a black and round part is extracted. The area 43 is calculated on the basis of a value obtained by obtaining an area where both pupils always exist with respect to the face outline area in hundreds of face image data, for example.

次に、ステップS34にて、ステップS33で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45の座標を抽出する。   Next, in step S34, each black and round part extracted in step S33 is compared with a previously registered pupil sample, and a part having the highest degree of similarity is extracted. Since there are two pupils, left and right pupil samples are prepared, and the above determination is performed by comparing the left and right pupil samples, and the coordinates of the left pupil region 44 and the right pupil region 45 are extracted.

なお、瞳標本が左右のいずれかの瞳分用意されており、他方については上記瞳標本を反転等の加工して用いることにより、用意する標本を削減できるようにしてもよい。
上記瞳標本とは、たとえば、類似度合いを求めるパターン比較のために、何百人かの瞳部分を撮影した画像を正規化したものである。
It should be noted that pupil samples may be prepared for either of the left and right pupils, and for the other, the prepared samples may be reduced by processing such as reversal, so that the prepared samples can be reduced.
The above-mentioned pupil sample is obtained by normalizing images obtained by photographing several hundred pupil portions, for example, for pattern comparison for obtaining the degree of similarity.

次に、ステップS35にて、ステップS34で抽出された左瞳部位44、右瞳部位45間の中心距離46を求め、この求めた距離46から顔の大きさの値を算出する。
この顔の大きさは、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心距離に対する顔の大きさの値を平均したものに基づいて算出したものである。
Next, in step S35, a center distance 46 between the left pupil part 44 and the right pupil part 45 extracted in step S34 is obtained, and a face size value is calculated from the obtained distance 46.
The face size is calculated based on, for example, an average of face size values with respect to the center distance between the left and right pupil parts in hundreds of face image data.

次に、図13に示すフローチャートおよび図10を参照して、図11のステップS24における顔の大きさ測定処理の第2の実施の形態について説明する。   Next, a second embodiment of the face size measurement process in step S24 of FIG. 11 will be described with reference to the flowchart shown in FIG. 13 and FIG.

まず、ステップS36にて、ステップS23で求められた顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。   First, in step S36, a region 43 where both pupils are sure to exist is calculated as a relative position region from the face contour region 42 obtained in step S23. A part having the same shape, for example, a black and round part is extracted.

次に、ステップS37にて、ステップS36で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45を抽出する。   Next, in step S37, each black and round part extracted in step S36 is compared with a previously registered pupil sample, and a part having the highest degree of similarity is extracted. Since there are two pupils, pupil samples are prepared for the left and right pupils, and the above determination is performed by comparison with both the left and right pupil samples, and the left pupil region 44 and the right pupil region 45 are extracted.

次に、ステップS38にて、ステップS37で抽出された左瞳部位44、右瞳部位45の各中心位置からの相対位置領域として、口が必ず存在するであろう領域47を算出し、この算出した領域47の中から唇と同様の赤色系の画素を持つ部位を抽出する。
この領域47は、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する唇を含む領域を求めて平均化した値に基づいて算出したものである。
Next, in step S38, a region 47 where the mouth will surely exist is calculated as a relative position region from each center position of the left pupil part 44 and the right pupil part 45 extracted in step S37. A region having red pixels similar to the lips is extracted from the region 47.
This region 47 is calculated based on, for example, a value obtained by obtaining a region including the lips with respect to the center position between the left and right pupil parts in hundreds of face image data.

次に、ステップS39にて、ステップS38で抽出されたそれぞれの部位と、あらかじめ登録された口標本とを比較し、類似度合が最も高い部位を口部位48として抽出する。次に、ステップS40にて、ステップS37で抽出された左瞳部位44、右瞳部位45とステップS38で抽出された口部位48との間の面積49を求め、この求めた面積49から顔の大きさの値を算出する。
この顔の大きさは、たとえば何百人かの顔画像データにおける左右両方の瞳部位と口部位との間の面積に対する顔の大きさの値を平均したものに基づいて算出したものである。
Next, in step S39, each part extracted in step S38 is compared with the mouth sample registered in advance, and the part having the highest degree of similarity is extracted as the mouth part 48. Next, in step S40, an area 49 between the left pupil part 44 and right pupil part 45 extracted in step S37 and the mouth part 48 extracted in step S38 is obtained. Calculate the magnitude value.
The face size is calculated based on, for example, an average of face size values with respect to the area between the left and right pupil parts and the mouth part in hundreds of face image data.

次に、上記ステップS23の顔の輪郭領域の検出処理について、図14から図16に示すフローチャートと、図17から図25に示す画像データ例とを用いて説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   Next, the face outline region detection processing in step S23 will be described using the flowcharts shown in FIGS. 14 to 16 and the image data examples shown in FIGS. 17 to 25. FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

まず、ステップS41にて、メインメモリ23b内の入力画像41の測定範囲(探索範囲、探索領域)にて背景板9の色成分を測定し、ステップS42に進む。ステップS42では、ステップS41で測定した結果が、背景板9らしい色成分か否か判定し、ステップS43に進む。この際、非青背景(青背景でないもの)を被撮影者1の顔画像の部分と判定する。   First, in step S41, the color component of the background board 9 is measured in the measurement range (search range, search area) of the input image 41 in the main memory 23b, and the process proceeds to step S42. In step S42, it is determined whether or not the result measured in step S41 is a color component that is likely to be the background board 9, and the process proceeds to step S43. At this time, the non-blue background (non-blue background) is determined as the face image portion of the subject 1.

ステップS43では、後述する頭頂高さ位置検出処理を行い、縦方向頭頂縦方向ライン番号:head topを求め、ステップS44に進む。ステップS44では、頭頂位置が規定範囲内か否かを確認し、ステップS45に進む。   In step S43, a parietal height position detection process, which will be described later, is performed to obtain a vertical top line length direction: head top, and the process proceeds to step S44. In step S44, it is confirmed whether or not the top position is within a specified range, and the process proceeds to step S45.

ステップS45では、後述する左右方向の顔の中心位置の検出処理を行い、左頭側位置head leftと右頭側位置head rightから顔の中心位置横方向ライン番号:centerを求め、ステップS46に進む。ステップS46では、顔中心位置が規定範囲内か否かを確認し、ステップS47に進む。この際、上記左頭側位置head leftと、右頭側位置head rightと、上記頭頂の高さhead topと、複数の被撮影者1の顔の縦の長さの平均ライン数FACE SIZEにより、上述した顔の輪郭領域42が検出される。   In step S45, a left and right face center position detection process, which will be described later, is performed, a face center position lateral line number: center is obtained from the left head position head left and right head position head right, and the process proceeds to step S46. . In step S46, it is confirmed whether the face center position is within the specified range, and the process proceeds to step S47. At this time, the left head side position head left, the right head side position head right, the top height head top, and the average number of lines FACE SIZE of the vertical length of the face of the plurality of subjects 1 The face outline region 42 described above is detected.

ステップS47では、横方向ライン番号:center、縦方向ライン番号:headtopの交差した位置を、顔の輪郭基準位置に設定し、ステップS48に進む。ステップS48では、処理結果を、「顔の輪郭範囲が規定範囲内」に設定し、ステップ24へ進む。
また、もしステップS42、ステップS44、ステップS46にてNGだった場合は、処理結果として顔の輪郭範囲が規定範囲外と設定し、リターンする。
In step S47, the position where the horizontal line number: center and the vertical line number: headtop intersect is set as the face contour reference position, and the process proceeds to step S48. In step S48, the processing result is set to "the face outline range is within the specified range", and the process proceeds to step 24.
If the result is NG in step S42, step S44, or step S46, the face contour range is set to be outside the specified range as a processing result, and the process returns.

上記ステップ41における測定範囲(探索範囲、探索領域)と、上記ステップ43における頭頂位置head topと顔の輪郭領域42の検出方法について、具体的に説明する。
すなわち、図17に示す入力画像41中の被撮影者1の体で占める領域中、トリミングの対象となる顔の位置は被撮影者1が逆立ちでもしない限り、必ず上のほうにあり、さらにその上には青背景の領域がある。
The measurement range (search range, search area) in step 41 and the method for detecting the top position head top and the face outline area 42 in step 43 will be specifically described.
That is, in the area occupied by the body of the person to be photographed 1 in the input image 41 shown in FIG. 17, the position of the face to be trimmed is always on the upper side unless the person to be photographed 1 stands upright. Above is a blue background area.

このことより、入力画像41中の上下部分(y方向)は探索範囲(探索領域)Aから除外する。この際のパラメータを図18を用いて説明する。
上部分を除外するためのパラメータを、OVER HEADとする。
下部分を除外するためのパラメータを、Y RANGEとする。
Thus, the upper and lower parts (y direction) in the input image 41 are excluded from the search range (search area) A. The parameters at this time will be described with reference to FIG.
The parameter for excluding the upper part is OVER HEAD.
The parameter for excluding the lower part is Y RANGE.

また、被撮影者1はカメラ3の正面に着座するため、横方向への位置変動はある程度の範囲で収まることにより、横長画像の両サイド(x方向)は探索範囲Aから除外する。この際のパラメータを図18を用いて説明する。
左側部分を除外するためのパラメータを、X STARTとする。
右側部分を除外するためのパラメータを、X STOPとする。
また、画像中の被撮影者1の領域は、ほぼ連続的である。
In addition, since the subject 1 sits in front of the camera 3, the lateral position variation is within a certain range, so that both sides (x direction) of the horizontally long image are excluded from the search range A. The parameters at this time will be described with reference to FIG.
The parameter for excluding the left part is assumed to be X START.
The parameter for excluding the right part is assumed to be X STOP.
Further, the area of the subject 1 in the image is almost continuous.

このことより、以下のパラメータを設定する。
横(X)方向の画素の探索間隔:x interval
縦(Y)方向の画素の探索間隔:y interval
さらに、探索領域A内で被撮影者1が存在しないラインを0、披撮影者1が存在するラインを1とすると、図19のaに示すように、縦方向(Y方向)0,0,0,0…0,0,1,1,1,…となり、0と1の昇順に並んだデータである。
Based on this, the following parameters are set.
Search interval for pixels in the horizontal (X) direction: x interval
Search interval for pixels in the vertical (Y) direction: y interval
Further, assuming that the line in which the subject 1 does not exist in the search area A is 0 and the line in which the photographer 1 exists is 1, the vertical direction (Y direction) 0, 0, 0, 0... 0, 0, 1, 1, 1,..., Data arranged in ascending order of 0 and 1.

また、横方向(X方向)も前半部分は昇順並びのデータ、後半部分は降順並びのデータとみなすことができる。この場合、探索領域A内で被撮影者1が存在しないラインを0、披撮影者1が存在するラインを1とすると、図19のbに示すように、0,0,0,0…0,0,1,1,1,…1,1,1,0,0,…0,0,0となる。   In the horizontal direction (X direction), the first half can be regarded as data arranged in ascending order, and the second half can be regarded as data arranged in descending order. In this case, assuming that the line where the subject 1 does not exist in the search area A is 0 and the line where the photographer 1 exists is 1, 0, 0, 0, 0... 0 as shown in FIG. , 0, 1, 1, 1,..., 1, 1, 1, 0, 0,.

この結果、図20に示すように、上記Y方向の0から1(0→1)の切り替わりラインが、頭頂の高さ(頭頂位置:縦方向頭頂縦方向ライン番号)head topとして検出され、上記X方向の0から1(0→1)の切り替わりラインが、左頭側位置head leftとして検出され、上記X方向の1から0(1→0)の切り替わりラインが、右頭側位置head rightとして検出される。
また、上記左頭側位置head leftと右頭側位置head rightの中間ラインが、顔の中心位置centerとして検出される。
As a result, as shown in FIG. 20, the switching line from 0 to 1 (0 → 1) in the Y direction is detected as the top height (top position: vertical line number in the vertical direction) head top. A switching line from 0 to 1 (0 → 1) in the X direction is detected as a left head side position head left, and a switching line from 1 to 0 (1 → 0) in the X direction is detected as a right head side position head right. Detected.
An intermediate line between the left head position head left and the right head position head right is detected as the center position center of the face.

上記した切り替わりラインは、端からの順次探索でも求めることができるが、探索対象が昇順(または降順)のデータであることから、探索領域Aを2分探索することにより、より効率的に処理ができる。   The above-described switching line can be obtained by a sequential search from the end, but since the search target is data in ascending order (or descending order), the search area A can be searched more efficiently by performing a binary search. it can.

また、上記左頭側位置head leftと、右頭側位置head rightと、上記頭頂の高さhead topと、複数の被撮影者1の顔の縦の長さの平均ライン数FACE SIZEにより、図21に示すように、上述した顔の輪郭領域42が検出される。   Also, the left head side position head left, the right head side position head right, the top height head top, and the average number of lines FACE SIZE of the vertical length of the face of the plurality of subjects 1 are shown in FIG. As shown in FIG. 21, the face outline region 42 described above is detected.

上記顔の輪郭領域42の規定範囲は、顔の輪郭基準位置としての横方向ライン番号:center、縦方向ライン番号:headtopの各値から決定されるものであり、顔を中心とした写真サイズとしてのトリミングサイズが取得できる範囲であり、以下の式になる。
X FMG SIZE/2<center<(X STILL SIZE-X FMG SIZE /2)
OVER HEAD<head top<(Y STILL SIZE -Y FMG SIZE +OVER HEAD)=Y RANGE
すなわち、図22に示すように、入力画像41に対して、顔の中心位置centerは、フレーミング領域(トリミング領域)X FMG SIZEの横方向のライン数の1/2の値から、入力画像41の横方向のライン数X STILL SIZEからフレーミング領域(トリミング領域)X FMG SIZEの横方向のライン数の1/2を減算した値の範囲を規定範囲としている。
The prescribed range of the face contour region 42 is determined from each value of the horizontal line number: center and the vertical line number: headtop as the face contour reference position. Is a range in which the trimming size can be acquired, and is expressed by the following expression.
X FMG SIZE / 2 <center <(X STILL SIZE-X FMG SIZE / 2)
OVER HEAD <head top <(Y STILL SIZE -Y FMG SIZE + OVER HEAD) = Y RANGE
That is, as shown in FIG. 22, the center position center of the face with respect to the input image 41 is determined from the value of ½ of the number of lines in the horizontal direction of the framing area (trimming area) X FMG SIZE. The range of the value obtained by subtracting ½ of the number of lines in the horizontal direction of the framing area (trimming area) X FMG SIZE from the number of lines X STILL SIZE in the horizontal direction is defined as the specified range.

また、図22に示すように、入力画像41に対して、頭頂位置head topは、入力画像41の縦方向ライン番号OVER HEADから、入力画像41の縦方向のライン数Y STILL SIZEからフレーミング領域(トリミング領域)Y FMG SIZEの横方向のライン数を減算し、入力画像41の縦方向ライン番号OVER HEADを加算した値の範囲を規定範囲としている。
なお、fmg xは、トリミング左上角X座標、fmg yは、トリミング左上角Y座標となっている。
Also, as shown in FIG. 22, the top position head top for the input image 41 is determined from the vertical line number OVER HEAD of the input image 41 to the framing area (Y STILL SIZE in the vertical direction of the input image 41). Trimming area) The range of the value obtained by subtracting the number of horizontal lines of Y FMG SIZE and adding the vertical line number OVER HEAD of the input image 41 is defined as the specified range.
Note that fmg x is the trimming upper left corner X coordinate, and fmg y is the trimming upper left corner Y coordinate.

次に、上記ステップS43における頭頂高さ位置検出処理を、図16に示すフローチャートと、図23に示す画像データを参照しつつ説明する。   Next, the top height position detection process in step S43 will be described with reference to the flowchart shown in FIG. 16 and the image data shown in FIG.

まず、ステップS51では、少なくとも披撮影者1の頭頂部が存在していい規定範囲(OVER HEAD+1ライン〜Y RANGEライン)に、被撮影者1の頭頂部があることを確認する。   First, in step S51, it is confirmed that the top of the subject 1 is in a specified range (OVER HEAD + 1 line to Y RANGE line) where at least the top of the photographer 1 may exist.

入力画像中の縦方向ライン番号:OVER HEADの横ラインを構成する画素のうち、背景板9の色成分と異なる画素(すなわち被撮影者1の顔部分)を数え、その数が規定値以上あるか否かを確認する。   Among the pixels composing the horizontal line of the vertical line number: OVER HEAD in the input image, the pixels different from the color components of the background plate 9 (that is, the face portion of the subject 1) are counted, and the number is equal to or greater than the specified value. Check whether or not.

さらに、同様にYRANGEの横ラインを構成する画素のうち、背景板9の色成分と異なる画素が規定値以上あるか否かを確認し、OVER HEADライン上に背景板9の色成分と異なる画素が規定値未満で、Y RANGEライン上に背景板9の色成分と異なる画素が規定値以上であることを確認する。
この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う異物がついていたりした場合に、その部分を無視させるための数値である。
Further, in the same way, it is confirmed whether or not there are pixels different from the color component of the background plate 9 among the pixels constituting the YRANGE horizontal line, and the pixels different from the color component of the background plate 9 on the OVER HEAD line. Is less than the specified value, and the pixel different from the color component of the background plate 9 on the Y RANGE line is confirmed to be greater than or equal to the specified value.
This prescribed value is a numerical value for ignoring the portion of the subject 1 when the hair of the subject 1 is fluffing sideways or a foreign object different from the color is attached to the background plate 9.

入力画像の縦方向ライン番号:OVER HEADをiに、同じくY RANGEをjに設定し、ステップS52に進む。ステップS52では、OVER HEADをiに、Y RANGEをjに設定し、ステップS53に進む。   The vertical line number of the input image: OVER HEAD is set to i and Y RANGE is set to j, and the process proceeds to step S52. In step S52, OVER HEAD is set to i, Y RANGE is set to j, and the process proceeds to step S53.

ステップS53では、iラインからjラインの間に0ラインより多くラインが存在することを確認した際、ステップS54に進む。ステップS54では、iラインとjラインの中央のライン(i+j)/2をkに設定し、ステップS55に進む。   In step S53, when it is confirmed that there are more lines than 0 lines between the i line and the j line, the process proceeds to step S54. In step S54, the center line (i + j) / 2 of the i line and the j line is set to k, and the process proceeds to step S55.

ステップS55では、kの横ラインを構成している画素のうち、背景板9の色成分と違う画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。   In step S55, pixels that are different from the color components of the background plate 9 among the pixels constituting the horizontal line of k are counted, and it is determined whether the number is equal to or greater than a specified value. This specified value is a numerical value for ignoring the portion of the subject 1 when the hair of the subject 1 is fluffing sideways or when a minute foreign object different from the color is attached to the background plate 9.

上記ステップS55の判定結果がyesの場合、ステップS56にてkをjに設定し、ステップS53に戻り、上記ステップS55の判定結果がnoの場合、ステップS57にてkをiに設定し、ステップS53に戻る。   If the determination result in step S55 is yes, k is set to j in step S56, and the process returns to step S53. If the determination result in step S55 is no, k is set to i in step S57. Return to S53.

このようにして、入力画像のOVER HEADからY RANGEまでの探索領域から、1処理ループごとにこの探索領域を半分にしていき、j−iが1未満(ライン数の差がなくなった時、0ライン)となった際に、つまりステップS53の判定結果がnoの場合、ステップS58に進む。   In this way, from the search area from OVER HEAD to Y RANGE of the input image, this search area is halved for each processing loop, and j−i is less than 1 (when there is no difference in the number of lines, 0 Line), that is, if the determination result in step S53 is no, the process proceeds to step S58.

ステップS58では、頭頂部Yラインのiを頭頂位置head topに設定し、ステップS59に進む。ステップS59では、処理結果として頭頂位置head topが規定範囲内と設定し、ステップ44へ進む。   In step S58, i on the parietal portion Y line is set to the parietal position head top, and the process proceeds to step S59. In step S59, the top position head top is set within the specified range as a processing result, and the process proceeds to step 44.

また、ステップS51の判定結果がyesの場合、つまりY RENGEに顔画像のデータがなく、OVER HEADに顔画像のデータがある場合、顔画像が規定範囲内にないと判断した場合、ステップS60に進む。ステップS60では、処理結果として頭頂位置が規定範囲外と設定し、ステップ44へ進む。   If the determination result in step S51 is yes, that is, if there is no face image data in Y RENGE and there is face image data in OVER HEAD, if it is determined that the face image is not within the specified range, the process goes to step S60. move on. In step S60, the top position is set to be outside the specified range as a processing result, and the process proceeds to step 44.

次に、上記ステップS45における左右方向の顔の中心位置の検出処理を、図16に示すフローチャートと、図24〜図26に示す画像データを参照しつつ説明する。   Next, the detection processing of the center position of the face in the left-right direction in step S45 will be described with reference to the flowchart shown in FIG. 16 and the image data shown in FIGS.

まず、ステップS61では、図24に示す、入力画像41の左端縦ライン番号0をiに設定し、入力画像の中心縦ライン番号(X STILL SIZE/2)をjに設定し、ステップS62に進む。ステップS62では、iラインからjラインの間に0ラインより多くラインが存在するか否かを確認し、yesの場合、ステップS63に進む。   First, in step S61, the leftmost vertical line number 0 of the input image 41 shown in FIG. 24 is set to i, the center vertical line number (X STILL SIZE / 2) of the input image is set to j, and the process proceeds to step S62. . In step S62, it is confirmed whether there are more lines than 0 lines between the i line and the j line. If yes, the process proceeds to step S63.

ステップS63では、iラインとjラインの中央の縦ライン(i+j)/2をkに設定し、ステップS64に進む。ステップS64では、kの縦ラインを構成している画素のうち、ステップS41で測定した背景板9の色成分と違う色の画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。   In step S63, the vertical line (i + j) / 2 at the center of the i line and the j line is set to k, and the process proceeds to step S64. In step S64, out of the pixels constituting the vertical line of k, pixels having a color different from the color component of the background plate 9 measured in step S41 are counted, and it is determined whether the number is equal to or greater than a predetermined value. This specified value is a numerical value for ignoring the portion of the subject 1 when the hair of the subject 1 is fluffing sideways or when a minute foreign object different from the color is attached to the background plate 9.

上記ステップS64の判定結果がyesの場合、ステップS65にてkをjに設定し、ステップS62に戻り、上記ステップS64の判定結果がnoの場合、ステップS66にてkをiに設定し、ステップS62に戻る。   If the determination result in step S64 is yes, k is set to j in step S65, and the process returns to step S62. If the determination result in step S64 is no, k is set to i in step S66. Return to S62.

このようにして、入力画像の左半分の探索領域から、1処理ループごとに探索領域を半分にしていき、j−iが1未満となった際に、つまりステップS62の判定結果がnoの場合、ステップS67に進む。
ステップS67では、ステップS62にてj−iが1未満となったところで、iを顔左端縦ライン:head leftに設定し、ステップS68に進む。
In this way, the search area is halved for each processing loop from the search area in the left half of the input image, and when j-i becomes less than 1, that is, the determination result in step S62 is no The process proceeds to step S67.
In step S67, when j-i becomes less than 1 in step S62, i is set to the left face vertical line: head left, and the process proceeds to step S68.

ステップS68では、図25に示す、入力画像41の中心縦ライン番号((X START+X STOP)/2)をiに設定し、入力画像の右端縦ライン番号(X STOP)をjに設定し、ステップS69に進む。ステップS69では、iラインからjラインの間に0ラインより多くラインが存在するか否かを確認し、noの場合ステップS70に進む。   In step S68, the center vertical line number ((X START + X STOP) / 2) of the input image 41 shown in FIG. 25 is set to i, the right end vertical line number (X STOP) of the input image is set to j, step Proceed to S69. In step S69, it is confirmed whether there are more lines than 0 lines between the i line and the j line, and if no, the process proceeds to step S70.

ステップS70では、iラインとjラインの中央の縦ライン(i+j)/2をkに設定し、ステップS71に進む。ステップS71では、kの縦ラインを構成している画素のうち、ステップS41で測定した背景板9の色成分と違う色の画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。   In step S70, the vertical line (i + j) / 2 at the center of the i line and the j line is set to k, and the process proceeds to step S71. In step S71, pixels having a color different from the color component of the background plate 9 measured in step S41 among the pixels constituting the k vertical line are counted, and it is determined whether the number is equal to or greater than a predetermined value. This specified value is a numerical value for ignoring the portion of the subject 1 when the hair of the subject 1 is fluffing sideways or when a minute foreign object different from the color is attached to the background plate 9.

上記ステップS71の判定結果がyesの場合、ステップS72にてkをiに設定し、ステップS69に戻り、上記ステップS71の判定結果がnoの場合、ステップS73にてkをjに設定し、ステップS69に戻る。   If the determination result in step S71 is yes, k is set to i in step S72, and the process returns to step S69. If the determination result in step S71 is no, k is set to j in step S73. Return to S69.

このようにして、入力画像の右半分の探索領域から、1処理ループごとに探索領域を半分にしていき、j−iが1未満となった際に、つまりステップS69の判定結果がyesの場合、ステップS74に進む。   In this way, the search area is halved for each processing loop from the search area in the right half of the input image, and when j-i becomes less than 1, that is, the determination result in step S69 is yes The process proceeds to step S74.

ステップS74では、ステップS69にてj−iが1未満となったところで、iを顔右端縦ライン:head rightに設定し、ステップS75に進む。ステップS75では、図26に示すように、ステップS67により設定された顔左端縦ラインhead leftとステップS74により設定された顔右端縦ラインhead rightとに基づいて、中央位置を計算し、この計算した値をcenterの値とし、ステップ46へ進む。   In step S74, when j-i becomes less than 1 in step S69, i is set to the face right edge vertical line: head right, and the process proceeds to step S75. In step S75, as shown in FIG. 26, the center position is calculated based on the face left end vertical line head left set in step S67 and the face right end vertical line head right set in step S74. The value is set as the value of center, and the process proceeds to step 46.

上記ステップ23における被撮影者1の髪形まで含めた顔の輪郭領域42は、上記顔の輪郭基準位置(center、head top)、head left:左頭側位置、head right:右頭側位置、FACE SIZE:複数の被撮影者1の顔の縦の長さの平均ライン数により決定される。   The face contour region 42 including the hairstyle of the subject 1 in the step 23 includes the face contour reference position (center, head top), head left: left head side position, head right: right head side position, FACE. SIZE: Determined by the average number of lines of the vertical length of the faces of a plurality of subjects 1.

上記ステップS21における両瞳が必ず存在するであろう領域43としては、図27に示すように、上記顔の輪郭基準位置(center、head top)に基づく、横座標:x eye area posi、縦座標:y eye area posiを左頂点とする横方向のサイズ:X EYE AREA SIZE、縦方向のサイズ:Y EYE AREA SIZEの領域が算出される。横座標:x eye area posi、縦座標:y eye area posiは、以下の式になる。
x eye area posi=center-(X EYE AREA SIZE /2)
y eye area posi=head top+Y EYE POSI SIZE-(Y EYE AREA SIZE /2)
すなわち、上記center(顔の輪郭基準位置の横座標)に対して、あらかじめ決まっている領域43の横幅(必ず両瞳が存在するであろう最小限の領域を示す横ライン数:X EYE AREA SIZE)の半分を差し引いた座標が、領域43の左側端部の横座標(x eye area posi)となる。
As shown in FIG. 27, the region 43 where both pupils are sure to exist in step S21 is abscissa: x eye area posi, ordinate based on the face outline reference position (center, head top). The area of the horizontal size: X EYE AREA SIZE and the vertical size: Y EYE AREA SIZE with y eye area posi as the left vertex is calculated. The abscissa: x eye area posi and the ordinate: y eye area posi are as follows.
x eye area posi = center- (X EYE AREA SIZE / 2)
y eye area posi = head top + Y EYE POSI SIZE- (Y EYE AREA SIZE / 2)
That is, with respect to the center (abscissa of the face outline reference position), the width of the predetermined area 43 (the number of horizontal lines indicating the minimum area where both pupils will always exist: X EYE AREA SIZE) The coordinates obtained by subtracting half of the) are the abscissas (x eye area posi) of the left end portion of the region 43.

上記headtop(顔の輪郭基準位置の縦座標)に対して、頭頂位置からの瞳の位置までの平均縦ライン数(Y EYE POSI SIZE)を加算し、あらかじめ決まっている領域43の縦幅(必ず両瞳が存在するであろう最小限の領域を示す縦ライン数:Y EYE AREA SIZE)の半分を差し引いた座標が、領域43の上側端部の縦座標(y eye area posi)となる。   The average vertical line number (Y EYE POSI SIZE) from the top position to the pupil position is added to the headtop (the vertical coordinate of the face contour reference position), and the vertical width of the predetermined region 43 (always) The coordinate obtained by subtracting half of the number of vertical lines (Y EYE AREA SIZE) indicating the minimum area where both pupils will be present becomes the ordinate (y area areposi) of the upper end of the area 43.

なお、前記実施の形態では、撮影された顔画像から被撮影者の顔の中の両瞳の位置および口の位置をそれぞれ検出し、これら検出した両瞳の位置および口の位置関係から顔の大きさを測定する場合について説明したが、本発明はこれに限定されるものでなく、撮影された顔画像から被撮影者の顔の中の両瞳の位置、口の位置および鼻の位置をそれぞれ検出し、これら検出した両瞳の位置、口の位置および鼻の位置関係から顔の大きさを測定するようにしてもよい。   In the above-described embodiment, the positions of both pupils and mouths in the face of the subject are detected from the captured face image, and the face position is determined from the detected positions of both eyes and mouth. Although the case where the size is measured has been described, the present invention is not limited to this, and the positions of both eyes, the mouth, and the nose in the face of the subject are determined from the captured face image. Each face may be detected, and the size of the face may be measured from the detected positions of both eyes, the mouth, and the nose.

したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影する際、顔の大きさを人間系にて判定し、顔の大きさが大き過ぎる、あるいは、小さ過ぎる画像であった場合は、操作者(撮影者)が大きさの調整(ズーミング)を行っている。
たとえば、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに、判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
Therefore, in the conventional face image photographing device, when photographing the subject, the size of the face is determined by a human system, and the face size is too large or too small. The operator (photographer) adjusts the size (zooming).
For example, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the imaging apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.

これに対して、上述した第2の実施の形態によれば、上記欠点を回避し、被撮影者の少なくとも顔画像を撮影した際、入力した顔画像の顔の大きさを自動的に認識して、出力画像の顔の大きさが常に均一になるように、自動的にズーミング処理を行うことができる。   On the other hand, according to the second embodiment described above, the above-mentioned drawbacks can be avoided, and when at least the face image of the subject is photographed, the face size of the input face image is automatically recognized. Thus, the zooming process can be automatically performed so that the size of the face of the output image is always uniform.

(第3の実施の形態)
次に、第3の実施の形態として、被撮影者1の目及び口の状態を監視することにより、撮影可能状態を認識し、自動撮影を行う実施の形態について説明する。なお、第2の実施の形態における顔の輪郭領域の算出などが同様に行われるようになっている。
図28、図29は、カメラ3からの入力画像(顔画像)と、撮影処理中の各処理時に使用する領域や座標を示したものである。
(Third embodiment)
Next, as a third embodiment, an embodiment will be described in which the state of the subject 1 and the mouth is monitored to recognize the shootable state and perform automatic shooting. It should be noted that the calculation of the face contour area in the second embodiment is performed in the same manner.
28 and 29 show an input image (face image) from the camera 3, and regions and coordinates used during each processing during the photographing processing.

以下、図30に示すフローチャートおよび図28、図29を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 30 and FIGS. 28 and 29. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

まず、ステップS81にて、図示しないカウンタによって計数されるリトライ回数やその他のデータの初期化を行い、ステップS82に進む。ステップS82では、ビデオキャプチャ部21を介してカメラ3からの入力画像41を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS83に進む。   First, in step S81, the number of retries counted by a counter (not shown) and other data are initialized, and the process proceeds to step S82. In step S82, the input image 41 from the camera 3 is captured via the video capture unit 21, temporarily stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S83.

ステップS83、S84では、メインメモリ23b内の入力画像41により、カメラ3の前に被撮影者1が存在するか否かの検出処理を行う。すなわち、たとえば、入力画像31内に背景色と異なる画素を持った領域(すなわち、被撮影者の領域)を探索することにより、被撮影者1が存在し、かつ、被撮影者1の髪形まで含めた顔の輪郭領域42の位置が出力するために適正な範囲に入っているかを判定する。ここに、このステップS83、S84の処理が本発明における被撮影者検出手段に対応している。   In steps S83 and S84, detection processing is performed to determine whether or not the subject 1 is present in front of the camera 3 based on the input image 41 in the main memory 23b. That is, for example, by searching for a region having a pixel different from the background color in the input image 31 (that is, the region of the subject), the subject 1 exists and even the hairstyle of the subject 1 is reached. It is determined whether the position of the included face outline region 42 is within an appropriate range for output. Here, the processes in steps S83 and S84 correspond to the subject detection means in the present invention.

カメラ3の前に被撮影者1が存在しない場合、あるいは、顔の輪郭領域42の位置が不適正の場合、ステップS82に戻り、上記同様な動作を繰り返す。カメラ3の前に被撮影者1が存在し、かつ、顔の輪郭領域42の位置が適正な場合、ステップS85に進む。ステップS85では、カメラ3の前の被撮影者1に対し撮影準備を促すため、表示器5およびスピーカ10により、ガイダンスメッセージを出力し、ステップS86に進む。ここに、このステップS85の処理が本発明における撮影案内手段に対応している。   If the subject 1 is not present in front of the camera 3 or if the position of the face contour region 42 is inappropriate, the process returns to step S82 and the same operation as described above is repeated. If the subject 1 is present in front of the camera 3 and the position of the face outline region 42 is appropriate, the process proceeds to step S85. In step S85, in order to urge the subject 1 in front of the camera 3 to prepare for shooting, a guidance message is output from the display 5 and the speaker 10, and the process proceeds to step S86. Here, the processing in step S85 corresponds to the photographing guide means in the present invention.

ステップS86では、画像41を入力した後、後述する撮影可能状態の判定処理にて被撮影者1が静止した(撮影準備ができた)と判定するための規定時間の間待機し、ステップS87に進む。ステップS87では、再び、先の入力画像41に連続的に続く入力画像41’をカメラ3から取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS88に進む。   In step S86, after inputting the image 41, the process waits for a specified time for determining that the person to be photographed 1 is stationary (prepared for shooting) in the determination process of the shooting enabled state, which will be described later, and proceeds to step S87. move on. In step S87, the input image 41 'continuously following the previous input image 41 is again taken from the camera 3, temporarily stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S88.

ステップS88、S89では、メインメモリ23b内の入力画像41および入力画像41’により撮影可能状態判定処理を行うことにより、被撮影者1の撮影準備ができているか否かを判定する。この撮影可能状態判定処理については後で詳細を説明する。ここに、このステップS88、S89の処理が本発明における認識手段に対応している。   In steps S88 and S89, it is determined whether or not the subject 1 is ready to shoot by performing a shootable state determination process using the input image 41 and the input image 41 'in the main memory 23b. Details of this photographing enabled state determination process will be described later. Here, the processing in steps S88 and S89 corresponds to the recognition means in the present invention.

上記判定の結果、被撮影者1の撮影準備ができている場合、ステップS90に進み、CPU部23内のメインメモリ23bに格納された入力画像41あるいは41’のうち、顔画像の出力に適している画像を選定して出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置26や可搬性のある記憶媒体27を画像保存手段として用いることにより、それに対して記憶(保存
出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。ここに、このステップS90の処理が本発明における選定手段に対応している。
なお、撮影した顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
As a result of the determination, if the subject person 1 is ready to shoot, the process proceeds to step S90, and is suitable for outputting a face image out of the input images 41 or 41 'stored in the main memory 23b in the CPU unit 23. The selected image is converted for output, and together with other personal information of the photographed person 1, the image printing apparatus 31 connected to the CPU unit 23 or the network adapter 33 is connected to the network 32 according to the purpose. In a connected image printing apparatus (not shown), it is printed out on a recording medium (paper, card, etc.) or stored in an image filing apparatus (not shown) as an image storage means connected on the network 32. The image is output, and further, the main memory 23b in the CPU unit 23, the mass storage device 26, or the portable storage medium 27 is stored as an image. By using it as a means, it is stored (saved output). This completes all the photographing processes for one person to be photographed. Here, the process of step S90 corresponds to the selection means in the present invention.
It should be noted that whether the photographed face image is printed out or stored is selected depending on the purpose, and the method of outputting the face image is arbitrary.

前記判定の結果、被撮影者1の撮影準備ができていない場合、ステップS91に進み、リトライ処理を行う。すなわち、まず、ステップS91では、前記リトライ回数をインクリメントし、ステップS92に進む。ステップS92では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS82に戻り、リトライ処理として再度、ステップS82からの処理を行う。ここに、このステップS91、S92の処理が本発明における判定手段に対応している。   If the result of the determination is that the subject 1 is not ready to shoot, the process proceeds to step S91 and retry processing is performed. That is, first, in step S91, the number of retries is incremented, and the process proceeds to step S92. In step S92, it is checked whether or not the number of retries is within a predetermined value set in advance. If it is within the predetermined value, the process returns to step S82, and the processes from step S82 are performed again as the retry process. Here, the processing of steps S91 and S92 corresponds to the determination means in the present invention.

ステップS92の判定において、リトライ回数が規定値を超えた場合、出力写真にした際に不適な画像であると判断して、ステップS93に進み、エラー処理を行って、撮影処理を終了する。ここに、このステップS93の処理が本発明におけるエラー処理手段に対応している。   If the number of retries exceeds the specified value in the determination in step S92, it is determined that the image is inappropriate when the output photograph is selected, and the process proceeds to step S93 to perform error processing and end the photographing process. Here, the processing in step S93 corresponds to the error processing means in the present invention.

次に、図31に示すフローチャートおよび図28、図29を参照して、図30のステップS88、S89における撮影可能状態の判定処理について説明する。   Next, with reference to the flowchart shown in FIG. 31 and FIGS. 28 and 29, the determination process of the photographing enabled state in steps S88 and S89 in FIG. 30 will be described.

まず、ステップS101にて、顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。
領域43は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
First, in step S101, a region 43 where both pupils will necessarily exist is calculated as a relative position region from the face contour region 42, and a part having the same shape as the pupil, for example, Extract black and round parts.
The area 43 is calculated on the basis of a value obtained by obtaining an area where both pupils are always present with respect to the face outline area in hundreds of face image data, for example.

次に、ステップS102にて、ステップS101で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が規定値を超えている部位の中で最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45の座標を抽出する。   Next, in step S102, each of the black and round parts extracted in step S101 is compared with a pupil sample registered in advance, and the degree of similarity of each part exceeds the specified value. Extract high parts. Since there are two pupils, left and right pupil samples are prepared, and the above determination is performed by comparing the left and right pupil samples, and the coordinates of the left pupil region 44 and the right pupil region 45 are extracted.

次に、ステップS103にて、ステップS102で抽出された左瞳部位44、右瞳部位45の各中心位置からの相対位置領域として、口が必ず存在するであろう領域47を算出し、この算出した領域47の中から唇と同様の赤色系の画素を持つ部位を抽出する。
領域47たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する唇を含む領域を求めて平均化した値に基づいて算出したものである。
Next, in step S103, a region 47 where the mouth is sure to exist is calculated as a relative position region from the center positions of the left pupil region 44 and the right pupil region 45 extracted in step S102. A region having red pixels similar to the lips is extracted from the region 47.
The area 47 is calculated based on a value obtained by calculating and averaging an area including the lips with respect to the center position between the left and right pupil parts in, for example, hundreds of face image data.

次に、ステップS104にて、ステップS103で抽出された部位と、あらかじめ登録された口標本とを比較し、類似度合が規定値を超えている部位の中で最も高い部位を口部位の座標48として抽出する。次に、ステップS105にて、図28の入力画像41における左側の瞳座標44の規定周辺領域50と、図29の入力画像41’における同座標の同じ大きさの領域52での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef1を求める。   Next, in step S104, the part extracted in step S103 is compared with the mouth sample registered in advance, and the highest part among the parts having a degree of similarity exceeding a specified value is determined as the coordinate 48 of the mouth part. Extract as Next, in step S105, between the pixels in the prescribed peripheral region 50 of the left pupil coordinate 44 in the input image 41 of FIG. 28 and the region 52 of the same size in the input image 41 ′ of FIG. An absolute value of luminance difference is obtained, and a total value SumDef1 in the entire area is obtained.

次に、ステップS106にて、図28の入力画像41における右側の瞳座標45の規定周辺領域51と、図29の入力画像41’における同座標の同じ大きさの領域53での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef2を求める。   Next, in step S106, between the pixels in the specified peripheral region 51 of the right pupil coordinate 45 in the input image 41 of FIG. 28 and the region 53 of the same size in the input image 41 ′ of FIG. An absolute value of luminance difference is obtained, and a total value SumDef2 in the entire area is obtained.

次に、ステップS107にて、図28の入力画像41における口部位の座標48の規定周辺領域53と、図29の入力画像41’における同座標の同じ大きさの領域54での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef3を求める。   Next, in step S107, between each pixel in the prescribed peripheral region 53 of the coordinate 48 of the mouth part in the input image 41 of FIG. 28 and the region 54 of the same size in the input image 41 ′ of FIG. An absolute value of luminance difference is obtained, and a total value SumDef3 in the entire area is obtained.

次に、ステップS108にて、ステップS105〜107で求めた輝度差絶対値の合計値SumDef1、SumDef2、SumDef3を、それらに対してそれぞれ設定された規定値とそれぞれ比較し、全て規定値以下か否かの判定を行う。
この判定の結果、3つの数値が全て規定値以下であれば、撮影可能状態であると判定し、3つの数値のうち1つでも規定値を超えている場合は、撮影可能状態でないと判定する。
Next, in step S108, the sum values SumDef1, SumDef2, and SumDef3 of the luminance difference absolute values obtained in steps S105 to 107 are respectively compared with specified values set for them, and are all equal to or less than the specified values. Judgment is made.
As a result of this determination, if all of the three numerical values are equal to or less than the predetermined value, it is determined that the photographing is possible, and if one of the three numerical values exceeds the predetermined value, it is determined that the photographing is not possible. .

被撮影者1の撮影準備が完了していれば、顔および顔の中の動く部位である目および口は静止しているため、上記3つの数値はそれぞれ規定値に対し低い値になる。逆に、顔が動いていれば、上記3つの数値はそれぞれ規定値に対し高い値になる。また、瞬きがあった場合は、SumDef2とSumDef3がそれぞれ規定値に対し高い値になる。会話や口が動いている場合には、SumDef3が規定値に対し高い値になる。   If the subject 1 is ready for photographing, the face and the eyes and mouth, which are moving parts in the face, are stationary, so the above three numerical values are lower than the prescribed values. On the contrary, if the face is moving, the above three numerical values are higher than the prescribed values. In addition, when there is a blink, SumDef2 and SumDef3 each have a higher value than the specified value. When the conversation or the mouth is moving, SumDef3 is higher than the specified value.

前述したステップS86での規定時間とは、被撮影者1が撮影準備ができていないために挙動があった場合、上記3つの数値を充分に数値化できるようにするための動き監視時間である。
したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影する際、被撮影者の撮影準備状態(撮影可能状態)は操作者(撮影者)が判定し、撮影を行っていた。
The specified time in step S86 described above is a motion monitoring time for allowing the above three numerical values to be sufficiently quantified when the subject 1 is not ready for photographing and has a behavior. .
Therefore, in the conventional face image photographing device, when photographing the subject, the operator (photographer) determines the photographing preparation state (photographable state) of the subject and the photographing is performed.

ところが、たとえば、撮影サイクルが数秒程度と早い揚合、操作者(撮影者)は、撮影装置の操作を行いながら、被撮影者の様子を観察する必要があるため、操作者(撮影者)の負荷が大きく、さらに、操作を誤まる確立も高くなる。   However, for example, the shooting cycle is as fast as a few seconds, and the operator (photographer) needs to observe the state of the subject while operating the imaging device. The load is large, and the probability of misoperation is high.

特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。   In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.

これに対して、上述した第3の実施形態によれば、上記欠点を回避し、被撮影者を連続的に撮影した複数の画像にて目および口を監視することにより、被撮影者の撮影可能状態を認識することによって、人間系の判定などを伴うことなく、自動的に被撮影者の撮影可能状態を認識し、自動的に撮影を行うことができる。   On the other hand, according to the above-described third embodiment, the above-described drawbacks are avoided, and the eyes and mouth are monitored by a plurality of images obtained by continuously capturing the image of the image-captured person. By recognizing the possible state, it is possible to automatically recognize the photographable state of the person to be photographed without automatically determining the human system, and automatically perform photographing.

なお、前記実施の形態では、取込まれた複数の画像にて被撮影者の顔の中の目および口の状態を監視することにより被撮影者が撮影可能状態であるかを認識する場合について説明したが、本発明はこれに限定されるものでなく、顔の中の目、口および鼻の状態を監視することにより被撮影者が撮影可能状態であるかを認識するようにしてもよい。   In the above embodiment, a case where it is recognized whether the subject is ready to shoot by monitoring the state of the eyes and mouth in the face of the subject with a plurality of captured images. Although described above, the present invention is not limited to this, and it is possible to recognize whether the subject is ready to shoot by monitoring the state of eyes, mouth and nose in the face. .

(第4の実施の形態)
次に、第4の実施の形態として、撮影した画像に基づいて、被撮影者1の瞳の状態を認識し、瞳が正常に開いているかを判定する実施の形態について説明する。この実施の形態は、撮影後の処理に対するものである。なお、第2の実施の形態における顔の輪郭領域の算出などが同様に行われるようになっている。
(Fourth embodiment)
Next, as a fourth embodiment, an embodiment will be described in which the state of the pupil of the person to be photographed 1 is recognized based on a photographed image and it is determined whether the pupil is normally open. This embodiment is for processing after photographing. It should be noted that the calculation of the face contour area in the second embodiment is performed in the same manner.

図32は、カメラ3からの入力画像(顔画像)61と、その入力画像61中の顔の輪郭位置62からの相対位置である瞳(目)の概略位置領域63を特定し、この概略位置領域63から両瞳の位置領域64、65を抽出する様子を示したものである。   FIG. 32 identifies an input image (face image) 61 from the camera 3 and an approximate position area 63 of the pupil (eyes) that is a relative position from the face outline position 62 in the input image 61. The manner in which the position areas 64 and 65 of both eyes are extracted from the area 63 is shown.

以下、図33に示すフローチャートおよび図32を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 33 and FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

まず、ステップS111にて、リトライ回数やその他のデータの初期化を行い、ステップS112に進む。ステップS112では、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)61を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS113に進む。ステップS113では、メインメモリ23b内の入力画像61から、髪形まで含めた顔の輪郭位置62を検出し、ステップS114に進む。   First, in step S111, the number of retries and other data are initialized, and the process proceeds to step S112. In step S112, an input image (face image) 61 from the camera 3 is captured via the video capture unit 21, and temporarily stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S113. In step S113, the face contour position 62 including the hairstyle is detected from the input image 61 in the main memory 23b, and the process proceeds to step S114.

ステップS114では、検出した顔の輪郭位置62が、あらかじめ設定される規定の範囲内か否かをチェックし、規定の範囲内でなかった場合、ステップS115に進んでエラー処理を行い、初期状態に戻る。   In step S114, it is checked whether or not the detected face contour position 62 is within a predetermined range, and if it is not within the predetermined range, the process proceeds to step S115 to perform error processing and return to the initial state. Return.

また、ステップS114で、規定の範囲内であった場合、ステップS116に進む。ステップS116では、顔の輪郭位置62から、その相対位置である瞳(目)の概略位置領域63を算出し、この概略位置領域63から、瞳と同形状の丸い形状をした位置領域(64、65)を抽出し、ステップS117に進む。
概略位置領域63は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
If it is within the specified range in step S114, the process proceeds to step S116. In step S116, the approximate position area 63 of the pupil (eyes), which is the relative position, is calculated from the face contour position 62, and the round position area (64, 64) having the same shape as the pupil is calculated from the approximate position area 63. 65) is extracted, and the flow advances to step S117.
The approximate position area 63 is calculated on the basis of a value obtained by obtaining an area where both pupils always exist with respect to the face outline area in hundreds of face image data, for example.

ステップS117では、抽出した丸い形状をした位置領域の数が、あらかじめ設定される規定数(2個)以上あるか否かをチェックし、規定数に満たない場合は、瞳が正常に開いていないと判定し、ステップS118に進む。ステップS118では、あらかじめ設定される規定時間(約0.1秒程度)待機した後、ステップS119に進む。   In step S117, it is checked whether or not the number of extracted round-shaped position areas is equal to or larger than a predetermined number (2) set in advance. If the number is not the predetermined number, the pupil is not normally opened. And the process proceeds to step S118. In step S118, after waiting for a predetermined time (about 0.1 second) set in advance, the process proceeds to step S119.

ステップS119では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS120に進む。ステップS120では、リトライ回数をインクリメントし、ステップS112に戻る。すなわち、リトライ回数が規定回数内であれば、規定時間(約0.1秒程度)待ち、リトライとして再度、顔画像を入力させるためにステップS112に戻る。
ステップS119のチェックで、規定値以上であればステップS121に進んでエラー処理を行い、初期状態に戻る。
In step S119, it is checked whether or not the number of retries is within a predetermined value set in advance, and if it is within the predetermined value, the process proceeds to step S120. In step S120, the number of retries is incremented, and the process returns to step S112. That is, if the number of retries is within the specified number, the process waits for a specified time (about 0.1 second) and returns to step S112 to input the face image again as a retry.
If it is determined in step S119 that the value is equal to or greater than the specified value, the process proceeds to step S121 to perform error processing and return to the initial state.

ステップS117のチェックで、規定数を満たした場合は、瞳が正常に開いているものと判定し、ステップS122に進む。ステップS122では、抽出したそれぞれの位置領域64、65周辺の形状と、CPU部23内のメインメモリ23bにあらかじめ記憶されている瞳の標本データとを比較し、類似度合いが最も高い抽出部位を左右瞳分抽出し、ステップS123に進む。   If the prescribed number is satisfied in the check in step S117, it is determined that the pupil is normally open, and the process proceeds to step S122. In step S122, the extracted shape around the position areas 64 and 65 is compared with the sample data of the pupil stored in the main memory 23b in the CPU unit 23 in advance, and the extracted part having the highest degree of similarity is determined. The pupil is extracted, and the process proceeds to step S123.

ステップS123では、ステップS122で抽出した最も類似している部位の類似度合いが、あらかじめ設定される閾値以上か否かをチェックし、閾値以下であれば、ステップS119に進み、前述同様のリトライ処理を行う。上記チェックの結果、閾値以上であれば、正常に開いている瞳位置と判定し、ステップS124に進む。
この場合、瞳は2箇所あるため、標本データは左右の瞳分用意されており、上記判定を左右瞳の両標本データとの比較により行い、左右両瞳の状態を認識する。
In step S123, it is checked whether or not the similarity degree of the most similar part extracted in step S122 is equal to or higher than a preset threshold value. If it is equal to or lower than the threshold value, the process proceeds to step S119, and the retry process similar to the above is performed. Do. If the result of the check is greater than or equal to the threshold value, the pupil position is determined to be normally open, and the process proceeds to step S124.
In this case, since there are two pupils, sample data is prepared for the left and right pupils, and the above determination is made by comparing with both sample data of the left and right pupils to recognize the state of both the left and right pupils.

ステップS124では、ステップS112で取込んだ入力画像を出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶媒体25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで全ての処理が終了する。
なお、顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
In step S124, the input image captured in step S112 is converted for output, and together with other personal information of the person 1 to be photographed, the image printing apparatus 31 connected to the CPU unit 23 or a network adapter depending on the purpose. An image printing apparatus (not shown) connected from 33 to the network 32 prints out on a recording medium (paper, card, etc.) or an image filing apparatus (not shown) as image storage means connected to the network 32. The main memory 23b in the CPU unit 23, the large-capacity storage medium 25, or the portable storage medium 26 is used as an image storage means to store (save) it. Output. This completes all processing.
Whether the face image is printed out or saved is selected according to the purpose, and the method of outputting the face image is arbitrary.

ところで、被撮影者1を撮影した際、瞬きまたは目つぶりがあった場合、ステップS116、S117の処理にて判定し、リトライ処理を行いつつ、瞳が開くのを待つ処理を行う。   By the way, when the subject 1 is photographed, if there is blinking or blinking, it is determined in steps S116 and S117, and a process of waiting for the pupil to open is performed while performing a retry process.

また、被撮影者1が、瞳は開いているが、よそ見その他の正面をしっかり向いていないような、正常に開いた瞳ではない場合、ステップS122、S123の処理にて判定し、正常に開いた瞳になるのを待つ。また、ステップS122、S123の処理は、ステップS116、S117の処理にて誤判定したものに対しての補正処理としても動作する。   If the subject 1 is not a normally open pupil whose pupil is open but is not looking away or looking forward, the determination in steps S122 and S123 is made. I wait to become a pupil. Moreover, the process of step S122, S123 operate | moves also as a correction process with respect to what was wrongly determined by the process of step S116, S117.

さらに、ステップS122、S123の処理は、ステップS116、S117の処理では判定できない不正常な開きすぎの瞳(びっくり目)に対しても作用し、リトライ処理を行う。   Furthermore, the processing in steps S122 and S123 also acts on an abnormally open pupil (surprised eye) that cannot be determined by the processing in steps S116 and S117, and performs retry processing.

したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影した際、瞳(目)が開いた状態かどうかを人間系にて判定し、目つぶりなどの出力写真として適さない画像であった場合には、撮り直しなどの処置を行っていた。   Therefore, in the conventional face image photographing device, when the subject is photographed, the human system determines whether or not the pupil (eyes) is open, and the image is not suitable as an output photograph such as blinking eyes. If there were, they were taking measures such as re-taking.

ところが、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行なった場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
However, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the shooting apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of an erroneous determination and printing it out, it is necessary to recall the imaged person who is not already there and take the image again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.

これに対して、上述した第4の実施の形態によれば、上記欠点を回避し、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る顔画像撮影方法および顔画像撮影装置を提供することを目的とする。
上記したように、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る。
On the other hand, according to the above-described fourth embodiment, the above-described drawbacks are avoided, images that are not suitable as output photographs such as blinking are automatically excluded, and a facial image that can always output the best image. An object is to provide a photographing method and a face image photographing device.
As described above, images that are not suitable as output photographs such as blinking are automatically excluded, and the best image can always be output.

(第5の実施の形態)
次に、第5の実施の形態として、複数フレームの連続した何コマかの画像データを記憶し、この記憶した画像から1つの画像を撮影結果として選択する実施の形態について説明する。
(Fifth embodiment)
Next, as a fifth embodiment, a description will be given of an embodiment in which several consecutive frames of image data of a plurality of frames are stored, and one image is selected as a photographing result from the stored images.

図34は、カメラ3からの入力画像(顔画像)71と、その入力画像71中の顔の輪郭位置72からの相対位置である瞳(目)の概略位置領域73を特定し、この概略位置領域73から両瞳の位置領域74、75を抽出し、この両瞳の位置領域74、75の中心位置(座標)76からの相対位置により画像切出し領域77を決定する様子を示したものである。   FIG. 34 specifies an input image (face image) 71 from the camera 3 and an approximate position area 73 of the pupil (eyes) that is a relative position from the face contour position 72 in the input image 71, and this approximate position. Both pupil position areas 74 and 75 are extracted from the area 73, and the image cutout area 77 is determined based on the relative position from the center position (coordinates) 76 of the both pupil position areas 74 and 75. .

以下、図35、図36に示すフローチャートおよび図34を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. 35 and 36 and FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

本装置の撮影処理は、撮影者(操作者)4が被撮影者1の準備ができるのを待機し、キーボード28内の撮影ボタン28aを押下することにより開始する。
撮影処理の開始により、まず、ステップS131にて、リトライ回数、フレーム番号、その他のデータの初期化を行い、ステップS132に進む。ステップS132では、画像取込み処理の開始指令を出力し、ステップS133、S135に進む。ステップS133では、画像取込み処理の開始指令が出力されていることを確認し、ステップS134に進む。
The photographing process of this apparatus is started by waiting for the photographer (operator) 4 to be ready for the photographed person 1 and pressing the photographing button 28 a in the keyboard 28.
First, in step S131, the number of retries, the frame number, and other data are initialized, and the process proceeds to step S132. In step S132, an image capture start command is output, and the process proceeds to steps S133 and S135. In step S133, it is confirmed that a start instruction for image capture processing has been output, and the process proceeds to step S134.

ステップS134では、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)71を、フレーム番号「0」から「n」まで連続して取込み、複数フレームの連続画像(動画像)としてCPU部23内のワークメモリとしてのメインメモリ23bに一時格納する。この取込処理は、画像取込処理開始指令が出力されている間、行われる。すなわち、フレーム番号「0」から「n」までの画像を取込むと、画像取込処理開始指令の出力が停止される。   In step S134, the input image (face image) 71 from the camera 3 is continuously captured from the frame numbers “0” to “n” via the video capture unit 21, and the CPU as a continuous image (moving image) of a plurality of frames. The data is temporarily stored in a main memory 23b as a work memory in the unit 23. This capture process is performed while the image capture process start command is output. That is, when images from frame numbers “0” to “n” are captured, the output of the image capture processing start command is stopped.

一方、ステップS135では、上記ステップS133、S134の処理と並行して、該当フレーム番号(たとえば、フレーム番号「0」、ステップS131にて初期設定される)の画像の取込みが完了するのを待機し、取込みが完了するとステップS136に進む。ステップS136では、CPU部23内のメインメモリ23bに格納されたフレーム番号「0」の入力画像71から、髪形まで含めた顔の輪郭位置72を検出し、ステップS137に進む。   On the other hand, in step S135, in parallel with the processing in steps S133 and S134, the process waits for the completion of capturing of the image of the corresponding frame number (for example, frame number “0”, which is initially set in step S131). When the capture is completed, the process proceeds to step S136. In step S136, the face contour position 72 including the hairstyle is detected from the input image 71 of the frame number “0” stored in the main memory 23b in the CPU unit 23, and the process proceeds to step S137.

ステップS137では、検出した顔の輪郭位置72が、あらかじめ設定される規定の範囲内か否かをチェックし、規定の範囲内でなかった場合、ステップS138に進んでエラー処理を行い、初期状態に戻る。規定の範囲内であった場合、ステップS139に進む。ステップS139では、顔の輪郭位置72から、その相対位置である瞳(目)の概略位置領域73を算出し、この概略位置領域73から、両瞳と同形状の丸い形状をした位置領域74、75を抽出し、ステップS140に進む。
上記領域73は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
In step S137, it is checked whether or not the detected face contour position 72 is within a predetermined range. If the detected face contour position 72 is not within the predetermined range, the process proceeds to step S138 to perform error processing and return to the initial state. Return. If it is within the specified range, the process proceeds to step S139. In step S139, the approximate position area 73 of the pupil (eyes), which is the relative position, is calculated from the face outline position 72, and the position area 74 having a round shape that is the same shape as both pupils is calculated from the approximate position area 73. 75 is extracted, and the process proceeds to step S140.
The area 73 is calculated on the basis of a value obtained by obtaining an area where both pupils are always present with respect to the face outline area in hundreds of face image data, for example.

ステップS140では、抽出した丸い形状をした位置領域74、75の画像(瞳)が印刷出力に適した状態にあるか否かをチェックし、もしその画像が瞬きや目つぶりなどの印刷出力に適さない状態であった場合、ステップS141に進む。   In step S140, it is checked whether or not the extracted images (pupils) of the round-shaped position regions 74 and 75 are in a state suitable for print output. If the image is suitable for print output such as blinking or blinking. If not, the process proceeds to step S141.

ステップS141では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS142に進む。ステップS142では、リトライ回数およびフレーム番号をそれぞれインクリメントし、ステップS135に戻る。すなわち、リトライ回数が規定回数内であれば、ステップS135に戻り、次のフレーム番号「1」の画像にてリトライを行うものである。
ステップS11のチェックで、リトライ回数が規定値以上であればステップS143に進んでエラー処理を行い、初期状態に戻る。
In step S141, it is checked whether or not the number of retries is within a preset specified value. If it is within the specified value, the process proceeds to step S142. In step S142, the number of retries and the frame number are incremented, and the process returns to step S135. That is, if the number of retries is within the specified number, the process returns to step S135 to retry with the next frame number “1” image.
If it is determined in step S11 that the number of retries is equal to or greater than the specified value, the process proceeds to step S143 to perform error processing, and the process returns to the initial state.

ステップS140のチェックで、画像に瞬きや目つぶりなどがなく、印刷出力に適した状態にあった場合、ステップS144に進む。ステップS144では、ステップS139で抽出した両瞳の位置領域74、75から、その位置領域74、75間の中心位置(座標)76を算出し、その中心位置76からの相対位置により画像切出し領域77を決定し、その画像切出し領域77内の画像を入力画像から切出し、ステップS145に進む。
この領域77は、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する画像切出し領域を求めて平均化した値に基づいて算出したものである。
If it is determined in step S140 that there is no blink or blinking in the image and the image is suitable for print output, the process proceeds to step S144. In step S144, a center position (coordinates) 76 between the position areas 74 and 75 is calculated from the position areas 74 and 75 of both eyes extracted in step S139, and an image cutout area 77 is calculated based on the relative position from the center position 76. The image in the image cutout region 77 is cut out from the input image, and the process proceeds to step S145.
This region 77 is calculated based on a value obtained by calculating and averaging image cut-out regions with respect to the center position between the left and right pupil parts in hundreds of face image data, for example.

ステップS145では、ステップS144で切り出した画像を、被撮影者1のその他の個人情報とともに、目的に応じ、LANカード33からネットワーク32上に接続された図示しない印刷部において記録媒体(用紙、カード)に印刷出力したり、同ネットワーク32上に接続された図示しないファイリング機器等の保存装置に出力したり、CPU23a内のメインメモリ23bまたはハードディスクなどの大容量記憶媒体25や可搬性のある記憶媒体26に保存出力し、ステップS146に進む。ステップ146では、フレーム番号「n」の画像の取り込みが終了するのを待機し、取り込みが終了するとステップS147に進む。   In step S145, the image cut out in step S144 is recorded on a recording medium (paper, card) in a printing unit (not shown) connected to the network 32 from the LAN card 33 according to the purpose, together with other personal information of the person to be photographed 1. To a storage device such as a filing device (not shown) connected on the network 32, a large-capacity storage medium 25 such as a main memory 23b or a hard disk in the CPU 23a, or a portable storage medium 26 The process proceeds to step S146. In step 146, the process waits for the completion of the capture of the image of frame number “n”.

ステップS147では、CPU部23内のメインメモリ23bに一時格納されているnフレーム分の連続画像をバックアップ画像として大容量記憶媒体25に保存し、処理を終了する。   In step S147, the n frames of continuous images temporarily stored in the main memory 23b in the CPU unit 23 are stored as backup images in the large-capacity storage medium 25, and the process ends.

ステップS145における印刷出力の結果にて、たとえば、被撮影者1が口を開いていた、横を向いていた、ステップS139、S140の処理にて誤判定したことなどが原因で証明用写真として適さない画像であると撮影者4が判断した場合、バックアップしてあるnフレーム分の連続画像から適合する画像を選択し、再度出力する。以下、それについて図37に示すフローチャートを参照して詳細に説明する。   Based on the result of the print output in step S145, for example, the photographed person 1 was open, turned sideways, or misjudged in the processing of steps S139 and S140, etc. If the photographer 4 determines that there is no image, a suitable image is selected from the continuous images for n frames that are backed up and output again. Hereinafter, this will be described in detail with reference to the flowchart shown in FIG.

まず、ステップS151において、撮影者4は、撮影時に登録した再出力対称の照会番号をキーボード28から入力することにより、ステップS152に進み、その照会番号に対応するバックアップ画像を大容量記憶媒体25内から検索する。この検索により、該当する画像が存在しなければ(S153)、ステップS154に進み、該当番号の画像がない旨のメッセージを表示器5に表示し、処理を終了する。   First, in step S151, the photographer 4 inputs the re-output symmetrical reference number registered at the time of shooting from the keyboard 28, and proceeds to step S152, and the backup image corresponding to the reference number is stored in the mass storage medium 25. Search from. If there is no corresponding image as a result of this search (S153), the process proceeds to step S154, a message indicating that there is no image with the corresponding number is displayed on the display 5, and the process ends.

上記検索により、該当する画像が存在した場合(S153)、ステップS155に進み、該当するバックアップ画像の全てのフレームを読出して表示器5に表示し、ステップS156に進む。ステップS156では、表示器5に表示された全フレームの画像の中から、撮影者4が、証明用写真に適した画像を選択し、そのフレーム番号をキーボード28から入力することにより、ステップS157に進む。   If there is a corresponding image as a result of the search (S153), the process proceeds to step S155, all the frames of the corresponding backup image are read and displayed on the display 5, and the process proceeds to step S156. In step S156, the photographer 4 selects an image suitable for the proof photograph from the images of all the frames displayed on the display 5, and inputs the frame number from the keyboard 28, whereby the process returns to step S157. move on.

ステップS157では、キーボード28から入力されたフレーム番号に対応した画像を大容量記憶媒体25内から検索して読出し、この読出した画像をステップS15と同様な処理にて印刷出力し、再出力処理を終了する。   In step S157, an image corresponding to the frame number input from the keyboard 28 is retrieved from the large-capacity storage medium 25 and read out, and the read image is printed out in the same process as in step S15, and re-output processing is performed. finish.

したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影した際、正常な画像かどうかを人間系にて判定し、目つぶりなどの出力写真として適さない画像であった場合には、撮り直しなどの処置を行っていた。   Therefore, in the conventional face image photographing device, when the subject is photographed, it is determined by the human system whether or not the image is normal, and if the image is not suitable as an output photograph such as blinking , I was taking measures such as re-taking.

ところが、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
However, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the shooting apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.

これに対して、上述した第5の実施の形態によれば、上記欠点を回避し、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる。   On the other hand, according to the above-described fifth embodiment, even if the above-mentioned drawbacks are avoided and defective image shooting is performed, a non-defective image can be reproduced again without recalling the photographed person and shooting again. Can be output.

なお、上述した再出力処理プログラムは、本装置内にある場合を想定して説明したが、本装置とネットワークアダプタ33を介して、同一ネットワーク32上に接続された再出力処理専用の端末装置に設けられていてもよい。   The above-described re-output processing program has been described on the assumption that the re-output processing program is in the present apparatus. However, the re-output process program is connected to the re-output process dedicated terminal device connected to the same network 32 via the apparatus and the network adapter 33. It may be provided.

また、大容量記憶媒体25にバックアップ記憶したnフレーム分の連続画像は、たとえば、別途同一ネットワーク上に配備された証明用写真発行管理システムから、発行完了の情報を得ることにより消去されるようになっている。   The n frames of continuous images stored in backup in the large-capacity storage medium 25 are erased by obtaining information on completion of issuance from a certification photo issuance management system separately provided on the same network, for example. It has become.

(第6の実施の形態)
次に、第6の実施の形態として、撮影された画像データにおける基準位置としての眉間の位置をクリックするのに基づいて、顔画像を抽出する実施の形態について説明する。
(Sixth embodiment)
Next, as a sixth embodiment, an embodiment in which a face image is extracted based on clicking a position between eyebrows as a reference position in photographed image data will be described.

図38は、カメラ3からの入力画像(顔画像)81と、その入力画像81中の顔の中心としての眉間83の座標を基準に、瞳が存在するであろう領域82を抽出し、かつ出力写真サイズの画像領域84を抽出する様子を示したものである。   FIG. 38 extracts an area 82 where a pupil will exist based on the input image (face image) 81 from the camera 3 and the coordinates of the inter-brow 83 as the center of the face in the input image 81; It shows how the image area 84 of the output photo size is extracted.

以下、図39、図40、図41に示すフローチャートおよび図38を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。   The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. 39, 40, and 41 and FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

この実施例では、撮影ボタン28aの変わりに、表示画像中の顔の眉間部分をクリックすると撮影するという処理について説明する。
まず、ステップS161にて、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)81を取込み、ステップS162に進む。ステップS162では、その入力画像81がビデオアクセラレート部22を経由し、表示器5により表示され、ステップS163に進む。ステップS163では、マウス29からクリックがあったかどうかを判定し、クリックがなかったと判定した場合、再びステップS1に戻る。すなわち、クリックがなかった場合は動画に近い状態で表示器5の表示が行われる。
In this embodiment, a description will be given of a process of shooting when a portion between the eyebrows of the face in the display image is clicked instead of the shooting button 28a.
First, in step S161, an input image (face image) 81 from the camera 3 is taken in via the video capture unit 21, and the process proceeds to step S162. In step S162, the input image 81 is displayed on the display 5 via the video acceleration unit 22, and the process proceeds to step S163. In step S163, it is determined whether or not there is a click from the mouse 29. If it is determined that there is no click, the process returns to step S1 again. That is, when there is no click, the display 5 is displayed in a state close to a moving image.

上記ステップS163でクリックがあったと判定した場合、図40で説明する判定処理(S164)および図41で説明する画像出力処理(S165)を行い、ステップS161に戻る。
上記ステップS164は、マウス29によるクリックがあった場合に、目つぶり等のない画像かどうか判定する処理であり、図40を参照しつつ説明する。
When it is determined in step S163 that there is a click, the determination process (S164) described in FIG. 40 and the image output process (S165) described in FIG. 41 are performed, and the process returns to step S161.
Step S164 is processing for determining whether or not the image has no blinking when the mouse 29 is clicked, and will be described with reference to FIG.

まず、ステップS171にて、リトライ回数やその他のデータの初期化を行い、ステップS172に進む。ステップS172では、上記カメラ3から取込んだ入力画像81はCPU部23内のメインメモリ23bにおける(リトライ回数に相当するバッファ番号)に一時格納され、ステップS173に進む。   First, in step S171, the number of retries and other data are initialized, and the process proceeds to step S172. In step S172, the input image 81 captured from the camera 3 is temporarily stored in the buffer number corresponding to the number of retries in the main memory 23b in the CPU unit 23, and the process proceeds to step S173.

ステップS173では、上記N番目の画像バッファにおける画像上のマウス29でクリックされた眉間の座標83を基準に、瞳が存在するであろう領域82を算出し、ステップS174に進む。つまり、眉間の位置の座標83から、その相対位置である瞳(目)の概略位置領域82を算出する。ステップS174では、領域82中から、瞳と同形状の丸い形状をした位置領域(84、85)を抽出し、ステップS175に進む。
上記領域82は、たとえば何百人かの顔画像データにおける眉間の位置の座標に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
In step S173, a region 82 where a pupil will exist is calculated based on the coordinates 83 between the eyebrows clicked with the mouse 29 on the image in the Nth image buffer, and the process proceeds to step S174. That is, the approximate position area 82 of the pupil (eye), which is the relative position, is calculated from the coordinates 83 of the position between the eyebrows. In step S174, the position area (84, 85) having the same shape as the pupil is extracted from the area 82, and the process proceeds to step S175.
The region 82 is calculated on the basis of a value obtained by averaging and calculating a region where both pupils always exist with respect to the coordinates of the position between the eyebrows in, for example, hundreds of face image data.

ステップS175では、抽出した丸い形状をした位置領域の数が、あらかじめ設定される規定数(2個)以上あるか否かをチェックし、規定数に満たない場合は、瞳が正常に開いていない(被撮影者1を撮影した際に瞬きまたは目つぶりであった)と判定し、ステップS176に進む。   In step S175, it is checked whether or not the number of extracted round-shaped position areas is equal to or larger than a predetermined number (2) set in advance. If the number is not the predetermined number, the pupil is not normally opened. It is determined that the subject 1 was blinking or blinking when the subject 1 was photographed, and the process proceeds to step S176.

ステップS176では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS177に進む。ステップS177では、あらかじめ設定される規定時間(約0.1秒程度)待機した後、ステップS178に進む。   In step S176, it is checked whether or not the number of retries is within a predetermined value set in advance, and if it is within the predetermined value, the process proceeds to step S177. In step S177, after waiting for a predetermined time (about 0.1 second) set in advance, the process proceeds to step S178.

ステップS178では、リトライ回数をインクリメントし、ステップS172に戻る。すなわち、リトライ回数が規定回数内であれば、規定時間(約0.1秒程度)待ち、リトライとして再度、顔画像を入力させるためにステップS172に戻る。   In step S178, the number of retries is incremented, and the process returns to step S172. That is, if the number of retries is within the specified number of times, the process waits for a specified time (about 0.1 second) and returns to step S172 to input the face image again as a retry.

これにより、もし被撮影者1を撮影した際、瞬きまたは目つぶりであった場合、ステップS175の処理にて判定し、リトライを行いつつ、目が開くのを待つことを行う。
もし被撮影者が、目は開いているがよそ見その他の正面をしっかり向いていないような、正常に開いた目ではない場合は、ステップS177の処理にて判定し、正常に開いた目になるのを待つ。またステップS177の処理はステップS175の処理にて誤判定したものに対しての補正処理としても動作する。
Thereby, when the subject 1 is photographed, if it is blinking or blinking, it is determined in the process of step S175, and while waiting for the eyes to open while performing the retry.
If the subject is not a normally open eye that has eyes open but is not looking away or looking forward, the determination in step S177 is made and the eyes are normally open. Wait for Further, the process of step S177 also operates as a correction process for those erroneously determined in the process of step S175.

また、ステップS177の処理は、ステップS175の処理では判定できない不正常な開きすぎの目(びっくり目)に対しても作用し、リトライ処理を行う。
ステップS176のチェックで、規定値以上であればステップS177に進んでエラー処理を行い、初期状態に戻る。
Further, the process of step S177 also acts on abnormally open eyes (surprised eyes) that cannot be determined by the process of step S175, and performs a retry process.
If it is determined in step S176 that the value is equal to or greater than the specified value, the process proceeds to step S177 to perform error processing, and the process returns to the initial state.

ステップS175のチェックで、規定数を満たした場合は、瞳が正常に開いているものと判定し、ステップS178に進む。ステップS178では、抽出したそれぞれの位置領域84、85周辺の形状と、CPU部23内のメインメモリ23bの上記N番目の画像バッファにあらかじめ記憶されている瞳の標本データとを比較し、類似度合いが最も高い抽出部位を左右瞳分抽出し、ステップS179に進む。   If the prescribed number is satisfied in the check in step S175, it is determined that the pupil is normally open, and the process proceeds to step S178. In step S178, the extracted shapes around the position areas 84 and 85 are compared with the sample data of the pupil stored in advance in the Nth image buffer of the main memory 23b in the CPU unit 23, and the degree of similarity is compared. The extracted part with the highest left is extracted for the left and right pupils, and the process proceeds to step S179.

ステップS179では、ステップS178で抽出した最も類似している部位の類似度合いが、あらかじめ設定される閾値以上か否かをチェックし、閾値以下であれば、ステップS176に進み、前述同様のリトライ処理を行う。上記チェックの結果、閾値以上であれば、正常に開いている瞳位置と判定し、ステップS165の画像出力処理に進む。
この場合、瞳は2箇所あるため、標本データは左右の瞳分用意されており、上記判定を左右瞳の両標本データとの比較により行い、左右両瞳の状態を認識する。
In step S179, it is checked whether or not the similarity degree of the most similar part extracted in step S178 is equal to or higher than a preset threshold value. If it is equal to or lower than the threshold value, the process proceeds to step S176, and the retry process similar to that described above is performed. Do. As a result of the check, if it is equal to or greater than the threshold value, it is determined that the pupil position is normally open, and the process proceeds to image output processing in step S165.
In this case, since there are two pupils, sample data is prepared for the left and right pupils, and the above determination is made by comparing with both sample data of the left and right pupils to recognize the state of both the left and right pupils.

次に、上記判定処理後の上記ステップ165の画像出力処理を、図41に示すフローチャートを参照しつつ説明する。   Next, the image output processing in step 165 after the determination processing will be described with reference to the flowchart shown in FIG.

まず、ステップS181では、直前の判定処理結果がエラーかどうか判定する。この判定の結果、エラーの場合、バッファ番号を「0」、すなわち、撮影のクリックが行われたタイミングにもっとも近い画像を記録している画像バッファを選択し(ステップ182)、ステップS183に進む。
また、上記ステップS181で、直前の判定処理がエラーでないと判定した場合、現在登録しているバッファ番号の画像バッファを選択し、ステップS183に進む。
First, in step S181, it is determined whether the immediately preceding determination processing result is an error. If the result of this determination is that there is an error, the buffer number is “0”, that is, the image buffer that records the image closest to the timing at which the shooting was clicked is selected (step 182), and processing proceeds to step S183.
If it is determined in step S181 that the immediately preceding determination process is not an error, the image buffer having the currently registered buffer number is selected, and the process proceeds to step S183.

ステップS183では、ステップS181あるいはS182で選択した画像バッファの画像に対し、クリックされた座標を基準に出力サイズの画像領域84を切り出し、ステップS184に進む。   In step S183, an image area 84 having an output size is extracted from the image buffer image selected in step S181 or S182 based on the clicked coordinates, and the process proceeds to step S184.

ステップS184では、切り出した画像に対し、必要であれば圧縮処理をし、大容量記憶媒体25や、可搬性の記憶媒体26に確保したり、ネットワークアダプタ33を経由し、ネットワーク32上の図示しない印刷機やファイリング機器に出力する。
この実施の形態では、ポインティングデバイスとしてマウスを使用しているが、タッチパネルにより画面を直接クリックする方法もある。
In step S184, if necessary, the clipped image is compressed and secured in the large-capacity storage medium 25 or the portable storage medium 26, or via the network adapter 33, not shown on the network 32. Output to a printing press or filing device.
In this embodiment, a mouse is used as a pointing device, but there is also a method of directly clicking the screen with a touch panel.

したがって、従来の顔画像撮影装置にあっては、画像を撮影してから出力されるまでの工程は、撮影ボタン押下、顔が含まれる広範囲の画像取り込み、その画像を保存媒体に確保、確保した画像中の顔周辺をトリミングし、切り出した部分を出力する。
このため、撮影の操作工程が長く複雑で、撮影してから出力するまでに時間がかかっている。
Therefore, in the conventional face image photographing device, the steps from photographing an image to outputting are assured and secured in the storage medium by pressing the photographing button, capturing a wide range of images including the face. Trim around the face in the image and output the clipped part.
For this reason, the shooting operation process is long and complicated, and it takes a long time to output after shooting.

これに対して、上述した第6の実施形態によれば、上記欠点を回避し、、被撮影者の少なくとも顔画像を撮影した際、撮影画像をトリミングするという複雑な操作を必要とすることなく、直接表示画面上の顔の位置を示すことにより、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る。   On the other hand, according to the above-described sixth embodiment, it is possible to avoid the above-described drawbacks and to perform a complicated operation of trimming a captured image when capturing at least a face image of the subject. By directly indicating the position of the face on the display screen, an image that is not suitable as an output photograph such as blinking can be automatically excluded, and the best image can always be output.

(第7の実施の形態)
次に、第7の実施の形態として、撮影された画像データをモニタ表示し、このモニタ表示に基づいて画像の取込みが指示された際に、この指示の直前にモニタ表示されていた画像を採用する実施の形態について説明する。
(Seventh embodiment)
Next, as a seventh embodiment, the captured image data is displayed on the monitor, and when the image capture is instructed based on the monitor display, the image displayed on the monitor immediately before this instruction is adopted. An embodiment to be described will be described.

図42は、カメラ3からの入力画像(顔画像)91を示したものである。
以下、図43に示すフローチャートおよび図33を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
FIG. 42 shows an input image (face image) 91 from the camera 3.
The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 43 and FIG. The processing described below is mainly executed under the control of the CPU 23a in the CPU unit 23.

この実施例では、撮影ボタン28aの押下に基づいて、この押下時の直前のモニタ画像を出力するという処理について説明する。
まず、ステップS191にて、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)91を取込み、その入力画像81がビデオアクセラレート部22を経由し、CPU部23のメインメモリ23aのバッファ部に記録し、ステップS192に進む。ステップS192では、その入力画像81が表示器5により表示され、ステップS193に進む。ステップS193では、キーボード28の撮影ボタン28aの押下を判定し、撮影ボタン28aの押下がなかったと判定した場合、再びS191に戻る。すなわち、撮影ボタン28aの押下がなかった場合は動画に近い状態で表示器5の表示が行われる。また、メインメモリ23aのバッファ部に現在の撮影画像より以前の画像が記録されている。
In this embodiment, a process of outputting a monitor image immediately before the depression based on the depression of the photographing button 28a will be described.
First, in step S191, an input image (face image) 91 from the camera 3 is captured via the video capture unit 21, and the input image 81 passes through the video acceleration unit 22 and is stored in the main memory 23a of the CPU unit 23. Recording in the buffer unit proceeds to step S192. In step S192, the input image 81 is displayed on the display 5, and the process proceeds to step S193. In step S193, it is determined that the shooting button 28a on the keyboard 28 has been pressed. If it is determined that the shooting button 28a has not been pressed, the process returns to S191 again. That is, when the shooting button 28a is not pressed, the display 5 is displayed in a state close to a moving image. In addition, an image before the current photographed image is recorded in the buffer portion of the main memory 23a.

上記ステップS193で撮影ボタン28aの押下があったと判定した場合、上記バッファ部に記憶されている上記撮影ボタン28aの押下が行われる際に表示器5で表示されていた画像が撮影画像として判定する(ステップS194)。この撮影画像と判定した画像を、大容量記憶媒体25や、可搬性の記憶媒体26に確保したり、ネットワークアダプタ33を経由し、ネットワーク32上の図示しない印刷機やファイリング機器に出力する(ステップS195)。   When it is determined in step S193 that the shooting button 28a has been pressed, the image displayed on the display 5 when the shooting button 28a stored in the buffer unit is pressed is determined as a shot image. (Step S194). The image determined to be a captured image is secured in the large-capacity storage medium 25 or the portable storage medium 26, or is output to a printing machine or filing device (not shown) on the network 32 via the network adapter 33 (step). S195).

したがって、従来の顔画像撮影装置にあっては、撮影画像のモニタを見ながら、撮影画像が適性と判断しされた時、撮影ボタンを押し、撮影ボタンを押された信号(タイミング)にて画像を取りこみ、取りこんだ画像を撮影画像としている。   Therefore, in the conventional face image photographing device, when the photographed image is determined to be appropriate while looking at the monitor of the photographed image, the photograph button is pressed, and the image is determined by the signal (timing) when the photograph button is pressed. The captured image is taken as the captured image.

このような従来の方法では、適正な画像と判断したモニタの画像と、撮影画像として取りこんだ画像の間には、撮影ボタンを押すのにかかる時間、画像を取り込むための要した時間等の時間的なずれが生じ、適性と判断した画像とは時間的に遅れた、異なる画像を取り込む結果となっている。このため、判断した適正な画像とは大きく異なった画像となる場合があり、再度撮影をやり直す必要がある。   In such a conventional method, the time taken for pressing the shooting button, the time required for capturing the image, etc. between the monitor image determined to be an appropriate image and the image captured as the shot image As a result, a different image, which is delayed in time from the image determined to be appropriate, is captured. For this reason, there is a case where the image is significantly different from the determined appropriate image, and it is necessary to perform photographing again.

これに対して、上述した第7の実施形態によれば、上記欠点を回避し、被撮影者の少なくとも顔画像を撮影し、この撮影画像のモニタ表示を確認する際に、確認の指示がなされた直前のモニタ画面を出力することにより、常に最良の画像を出力し得る。   On the other hand, according to the seventh embodiment described above, a confirmation instruction is given when the above disadvantage is avoided, at least a face image of the subject is photographed, and the monitor display of the photographed image is confirmed. By outputting the previous monitor screen, the best image can always be output.

1…被撮影者、2…照明器、3…ビデオカメラ、4…撮影者(操作者)、5…表示器(モニタディスプレイ)、6…制御台(制御部)、9…背景板、10…スピーカ、11…確認中表示部(第2の表示部)、12…終了表示部(第3の表示部)、13…出口表示部(第4の表示部)、14…カメラ位置表示部(第1の表示部)、21…ビデオキャプチャ部、22…ビデオアクセラレート部、23…CPU部、23a…CPU、23b…メインメモリ、25…大容量記憶媒体、26…記憶媒体、27…リーダライタ部、28…キーボード、29…マウス、31…画像印刷装置(出力手段)、32…ネットワーク。   DESCRIPTION OF SYMBOLS 1 ... Subject, 2 ... Illuminator, 3 ... Video camera, 4 ... Photographer (operator), 5 ... Display (monitor display), 6 ... Control stand (control part), 9 ... Background board, 10 ... Speaker: 11... Confirming display section (second display section), 12... End display section (third display section), 13... Exit display section (fourth display section), 14. 1), 21... Video capture unit, 22... Video acceleration unit, 23... CPU unit, 23 a... CPU, 23 b... Main memory, 25. , 28 ... keyboard, 29 ... mouse, 31 ... image printing device (output means), 32 ... network.

Claims (2)

被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取込む画像取込手段と、
この画像取込手段により取込んだ複数フレームの連続画像をバックアップ画像として記憶する画像記憶手段と、
この画像記憶手段に記憶された複数フレームの連続画像内の所定フレームの画像から瞳の状態を認識し、その瞳が顔画像の印刷出力に適しているか否かを判定する第1の判定手段と、
この第1の判定手段により瞳の状態が顔画像の印刷出力に適していると判定された場合、上記所定フレームの画像を印刷出力する第1の印刷出力手段と、
上記第1の判定手段により瞳の状態が顔画像の印刷出力に適していないと判定された場合、上記画像記憶手段に記憶された複数フレームの連続画像内の上記所定フレームの画像の次のフレームの画像を用いて上記判定手段の判定処理を再度行わせるリトライ制御手段と、
このリトライ制御手段による上記リトライ処理の回数を計数し、その計数値があらかじめ設定される規定値に達したか否かを判定する第2の判定手段と、
この第2の判定手段が上記リトライ処理の回数が規定値に達したことを判定すると、エラー処理を行うエラー処理手段と、
上記第1の印刷出力手段により印刷出力された画像が適正でない場合、上記画像記憶手段に記憶された複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択する画像選択手段と、
この画像選択手段により選択された画像を印刷出力する第2の印刷出力手段と、
を具備したことを特徴とする顔画像撮影装置。
Image capturing means for capturing at least a face image of the subject and capturing as a plurality of frames of continuous images;
Image storage means for storing a continuous image of a plurality of frames captured by the image capture means as a backup image;
First determination means for recognizing a state of a pupil from images of predetermined frames in a plurality of consecutive frames stored in the image storage means and determining whether or not the pupil is suitable for printing out a face image; ,
A first print output unit that prints out the image of the predetermined frame when the first determination unit determines that the state of the pupil is suitable for the print output of the face image;
When the first determination unit determines that the pupil state is not suitable for the print output of the face image, the next frame of the image of the predetermined frame in the plurality of consecutive images stored in the image storage unit Retry control means for performing the determination process of the determination means again using the image of
A second determination unit that counts the number of times the retry process is performed by the retry control unit and determines whether or not the count value has reached a predetermined value;
When the second determination unit determines that the number of retry processes has reached a specified value, an error processing unit that performs error processing;
Image selection for selecting an image of a predetermined frame suitable for outputting a face image from a plurality of continuous images stored in the image storage means when the image printed out by the first print output means is not appropriate Means,
Second print output means for printing out the image selected by the image selection means;
A face image photographing apparatus comprising:
被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取り込むステップと、
この取り込んだ複数フレームの連続画像をバックアップ画像として記憶するステップと、
この記憶された複数フレームの連続画像内の所定フレームの画像を、ファイリング機器等の保存装置またはその他保存媒体に保存出力するステップと、
この出力した画像が適正でない場合、上記記憶した複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択するステップと、
この選択した画像を出力するステップと、
を有することを特徴とする顔画像撮影方法。
Capturing at least a face image of the subject and capturing it as a continuous image of a plurality of frames;
Storing the captured multiple frames of continuous images as backup images;
A step of storing and outputting an image of a predetermined frame in the stored continuous image of a plurality of frames to a storage device such as a filing device or other storage medium;
If the output image is not appropriate, a step of selecting a predetermined frame image suitable for the output of the face image from the stored continuous image of the plurality of frames;
Outputting the selected image; and
A method for photographing a face image.
JP2009068311A 1999-11-26 2009-03-19 Face image photographing device and face image photographing method Pending JP2009175745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009068311A JP2009175745A (en) 1999-11-26 2009-03-19 Face image photographing device and face image photographing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP33661099 1999-11-26
JP33661199 1999-11-26
JP33660999 1999-11-26
JP2009068311A JP2009175745A (en) 1999-11-26 2009-03-19 Face image photographing device and face image photographing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000194740A Division JP2001215605A (en) 1999-09-14 2000-06-28 Face image photographing device, and face image photographing method

Publications (1)

Publication Number Publication Date
JP2009175745A true JP2009175745A (en) 2009-08-06

Family

ID=41030818

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009068309A Expired - Lifetime JP4762324B2 (en) 1999-11-26 2009-03-19 Face image photographing apparatus and face image photographing method
JP2009068311A Pending JP2009175745A (en) 1999-11-26 2009-03-19 Face image photographing device and face image photographing method
JP2009068310A Pending JP2009175744A (en) 1999-11-26 2009-03-19 Face image photographing apparatus and face image photographing method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009068309A Expired - Lifetime JP4762324B2 (en) 1999-11-26 2009-03-19 Face image photographing apparatus and face image photographing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009068310A Pending JP2009175744A (en) 1999-11-26 2009-03-19 Face image photographing apparatus and face image photographing method

Country Status (1)

Country Link
JP (3) JP4762324B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120293642A1 (en) * 2011-05-18 2012-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
USD760711S1 (en) 2012-05-18 2016-07-05 NexgenID, Inc. Kiosk
USD818464S1 (en) 2014-04-11 2018-05-22 Nextgenid, Inc. Kiosk
US10963549B2 (en) 2011-05-18 2021-03-30 Nextgenid, Inc. Device for collecting personal data from user

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5565041B2 (en) 2010-03-30 2014-08-06 ソニー株式会社 Image processing apparatus and method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS615309A (en) * 1984-06-19 1986-01-11 Mitsubishi Electric Corp Visual controller
JPH07154736A (en) * 1993-11-29 1995-06-16 Kyocera Corp Photographic device of picture for certificate
JPH0983944A (en) * 1995-09-08 1997-03-28 Casio Comput Co Ltd Picture fetching device and printer
JPH10191216A (en) * 1996-12-26 1998-07-21 Fuji Photo Film Co Ltd Photographing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541689B2 (en) * 1990-05-21 1996-10-09 日産自動車株式会社 Eye position detection device and subject state detection device
JPH08160504A (en) * 1994-12-07 1996-06-21 Konica Corp Automatic photographing device
JPH08251475A (en) * 1995-03-11 1996-09-27 Nissan Motor Co Ltd Open eye sensor for image pickup device
JPH10269356A (en) * 1997-03-26 1998-10-09 Oki Electric Ind Co Ltd Method for selecting image and its device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS615309A (en) * 1984-06-19 1986-01-11 Mitsubishi Electric Corp Visual controller
JPH07154736A (en) * 1993-11-29 1995-06-16 Kyocera Corp Photographic device of picture for certificate
JPH0983944A (en) * 1995-09-08 1997-03-28 Casio Comput Co Ltd Picture fetching device and printer
JPH10191216A (en) * 1996-12-26 1998-07-21 Fuji Photo Film Co Ltd Photographing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120293642A1 (en) * 2011-05-18 2012-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US9256719B2 (en) * 2011-05-18 2016-02-09 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US10963669B2 (en) 2011-05-18 2021-03-30 Nextgenid, Inc. Device for collecting personal data from user
US10963549B2 (en) 2011-05-18 2021-03-30 Nextgenid, Inc. Device for collecting personal data from user
USD760711S1 (en) 2012-05-18 2016-07-05 NexgenID, Inc. Kiosk
USD778276S1 (en) 2012-05-18 2017-02-07 Nextgenid, Inc. Kiosk
USD884692S1 (en) 2012-05-18 2020-05-19 Nextgenid, Inc. Kiosk
USD929394S1 (en) 2012-05-18 2021-08-31 Nextgenid, Inc. Kiosk
USD818464S1 (en) 2014-04-11 2018-05-22 Nextgenid, Inc. Kiosk

Also Published As

Publication number Publication date
JP2009175744A (en) 2009-08-06
JP2009181130A (en) 2009-08-13
JP4762324B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
KR100522514B1 (en) Apparatus for Photographing a Face Image and Method Therefor
US8600191B2 (en) Composite imaging method and system
US8866931B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
US8189927B2 (en) Face categorization and annotation of a mobile phone contact list
JP2000113199A (en) Method for deciding eye position
KR20100048600A (en) Image photography apparatus and method for proposing composition based person
JP4762324B2 (en) Face image photographing apparatus and face image photographing method
JP2005049854A (en) Object decision device and imaging device
JP2007049631A (en) Imaging apparatus
JP2002258682A (en) Image forming device
JP5109779B2 (en) Imaging device
JP2001215605A (en) Face image photographing device, and face image photographing method
JP2004297167A (en) Image display apparatus and image display system
JP4091184B2 (en) Camera and image generation method
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
CN110826487A (en) Facial expression data acquisition method
JP2000292852A (en) Face picture photographing device
JP2008167028A (en) Imaging apparatus
JP4709812B2 (en) Image generation method and image processing apparatus
JP4357951B2 (en) Image photographing system and certification medium issuing system
JP2000292853A (en) Method and device for photographing face picture
JP4454841B2 (en) Face image photographing apparatus and face image photographing method
JP2000206591A (en) Method and device for photographing face image
JP2003317036A (en) Apparatus and method for issuing medium for certification
JP2001177740A (en) Portraiture photographing method and portraiture device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823