JP2009175745A - Face image photographing device and face image photographing method - Google Patents
Face image photographing device and face image photographing method Download PDFInfo
- Publication number
- JP2009175745A JP2009175745A JP2009068311A JP2009068311A JP2009175745A JP 2009175745 A JP2009175745 A JP 2009175745A JP 2009068311 A JP2009068311 A JP 2009068311A JP 2009068311 A JP2009068311 A JP 2009068311A JP 2009175745 A JP2009175745 A JP 2009175745A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- photographing
- images
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、たとえば、身分証明書や各種免許証などに貼付する証明用写真を作成することを目的に、被撮影者の少なくとも顔画像を撮影する顔画像撮影装置および顔画像撮影方法に関する。 The present invention relates to a face image photographing apparatus and a face image photographing method for photographing at least a face image of a person to be photographed, for example, for the purpose of creating a proof photograph to be affixed to an identification card or various licenses.
一般に、この種の顔画像撮影装置にあっては、撮影状況の案内は撮影者(撮影操作者)が行い、撮影者が案内できない場合は、被撮影者の判断が必要となっていた。
しかしながら、従来の撮影状況の案内方法の揚合、撮影者(撮影操作者)の負荷が増大するという問題がある。特に、撮影申請者の撮影待ち行列ができている場合、撮影申請者の撮影の流れを効率的に行い、撮影サイクルを早める必要がある。
In general, in this type of face image photographing apparatus, the photographer (shooting operator) provides guidance on the shooting situation, and if the photographer cannot guide, it is necessary to determine the subject.
However, there is a problem that the load of the photographer (photographing operator) is increased due to the conventional guidance of the photographing situation. In particular, when the photographing applicant has a photographing queue, it is necessary to efficiently perform the photographing flow of the photographing applicant and speed up the photographing cycle.
その際、被撮影者が撮影の状況がわからず、撮影が終わったことを知らずにそのままカメラの前に居座り、撮影申請者の撮影の流れを妨げる。また、撮影中に被撮影者が撮影が終わったと誤判断して移動したり、そのため不良撮影となり、撮影のやり直しが発生し、撮影申請者の撮影の流れを妨げる。 At that time, the person to be photographed does not know the photographing situation and stays in front of the camera without knowing that the photographing has been completed, thereby hindering the photographing flow of the photographing applicant. In addition, during shooting, the person to be photographed moves by misjudging that the shooting has been completed, and therefore, the shooting becomes defective, which causes re-shooting and hinders the flow of shooting by the shooting applicant.
この発明は、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる顔画像撮影方法および顔画像撮影装置を提供することを目的とする。 The present invention provides a face image capturing method and a face image capturing apparatus capable of re-outputting a non-defective image without recalling the subject again and capturing the image again even if defective image capturing is performed. Objective.
この発明の顔画像撮影装置は、被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取込む画像取込手段と、この画像取込手段により取込んだ複数フレームの連続画像をバックアップ画像として記憶する画像記憶手段と、この画像記憶手段に記憶された複数フレームの連続画像内の所定フレームの画像から瞳の状態を認識し、その瞳が顔画像の印刷出力に適しているか否かを判定する第1の判定手段と、この第1の判定手段により瞳の状態が顔画像の印刷出力に適していると判定された場合、上記所定フレームの画像を印刷出力する第1の印刷出力手段と、上記第1の判定手段により瞳の状態が顔画像の印刷出力に適していないと判定された場合、上記画像記憶手段に記憶された複数フレームの連続画像内の上記所定フレームの画像の次のフレームの画像を用いて上記判定手段の判定処理を再度行わせるリトライ制御手段と、このリトライ制御手段による上記リトライ処理の回数を計数し、その計数値があらかじめ設定される規定値に達したか否かを判定する第2の判定手段と、この第2の判定手段が上記リトライ処理の回数が規定値に達したことを判定すると、エラー処理を行うエラー処理手段と、上記第1の印刷出力手段により印刷出力された画像が適正でない場合、上記画像記憶手段に記憶された複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択する画像選択手段と、この画像選択手段により選択された画像を印刷出力する第2の印刷出力手段とを有して構成される。 The face image photographing device according to the present invention captures at least a face image of a subject and captures it as a continuous image of a plurality of frames, and backs up a continuous image of the plurality of frames captured by the image capturing means. Image storage means for storing as an image, and whether or not the pupil state is suitable for print output of a face image by recognizing a state of a pupil from a predetermined frame image in a plurality of frames of continuous images stored in the image storage means And a first print output that prints out the image of the predetermined frame when it is determined by the first determination means that the state of the pupil is suitable for the print output of the face image. And the first determination unit determine that the pupil state is not suitable for the print output of the face image, the predetermined frame in the continuous image of a plurality of frames stored in the image storage unit. A retry control means for performing the determination process of the determination means again using the image of the next frame of the image of the image, and the number of times of the retry process by the retry control means is counted, and the count value is set in advance. A second determination unit that determines whether or not the number of retry processings has reached a specified value, and an error processing unit that performs error processing when the second determination unit determines that the number of retry processes has reached a specified value; An image selecting means for selecting an image of a predetermined frame suitable for outputting a face image from a plurality of consecutive frames stored in the image storage means when the image printed out by one print output means is not appropriate; And a second print output means for printing out the image selected by the image selection means.
この発明の顔画像撮影方法は、被撮影者の少なくとも顔画像を撮影し、複数フレームの連続画像として取り込むステップと、この取り込んだ複数フレームの連続画像をバックアップ画像として記憶するステップと、この記憶された複数フレームの連続画像内の所定フレームの画像を、ファイリング機器等の保存装置またはその他保存媒体に保存出力するステップと、この出力した画像が適正でない場合、上記記憶した複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択するステップと、この選択した画像を出力するステップとを有して構成される。 According to the face image photographing method of the present invention, at least a face image of a subject is photographed and captured as a continuous image of a plurality of frames, a step of storing the captured images of the plurality of frames as a backup image, A step of saving and outputting an image of a predetermined frame in the continuous image of the plurality of frames to a storage device such as a filing device or other storage medium, and if the output image is not appropriate, from the stored continuous image of the plurality of frames The method includes a step of selecting an image of a predetermined frame suitable for outputting a face image, and a step of outputting the selected image.
この発明によれば、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる顔画像撮影方法および顔画像撮影装置を提供できる。 According to the present invention, it is possible to provide a face image photographing method and a face image photographing apparatus capable of re-outputting a non-defective image without recalling the photographed person again and photographing again even if defective image photographing is performed. .
以下、図面を参照しながらこの発明の実施の形態について詳細に説明する。
図1は、この発明の実施の形態に係る顔画像撮影システムの外観構成を概略的に示すものである。この顔画像撮影システムは、被撮影者1を照明する照明器2、被撮影者1の少なくとも顔画像を撮影する撮影手段としてのCCD形のビデオカメラ3、撮影状態や撮影者(操作者)4の操作情報などを表示する表示器(モニタディスプレイ)5、撮影者4による操作指示により、カメラ3からの入力画像を加工したり、表示器5や内蔵する記憶部などに対して出力を行う制御台(制御部)6、被撮影者1に対し撮影状況を案内表示する案内手段としての案内表示部7等を有する顔画像撮影装置と、被撮影者1が撮影の際に着座する椅子8、撮影の際に被撮影者1の背景となる背景板9および、この背景板9の裏側に設けられ被撮影者1に対し撮影状態やガイダンスなどを音声で案内する案内手段としてのスピーカ10等から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 schematically shows an external configuration of a face image photographing system according to an embodiment of the present invention. This face image photographing system includes an
ビデオカメラ3は、640画素×480ラインを1画面の撮影画像として出力される。上記各画素は、R(レッド)、G(グリーン)、B(ブルー)の各色センサからなり、各画素ごとに、各色ごとのデータ(濃度値)を出力するようになっている。
The
背景板9は青色で構成されていることにより、ビデオカメラ3により撮影された際の背景が青色となり、青色が背景色成分となる。上記ビデオカメラ3の撮像部から被撮影者1の距離は、ほぼ一定となっている。つまり、上記ビデオカメラ3により撮影距離固定で撮影されている。
Since the
案内表示部7は、図2に示すように、被撮影者1に対し撮影待機を促す表示を行う確認中表示部(第2の表示部)11、被撮影者1に対し撮影終了を表示する終了表示部(第3の表示部)12、被撮影者1に対し撮影終了後の進行方向を促す表示を行う出口表示部(第4の表示部)13から構成されている。
As shown in FIG. 2, the
この場合、確認中表示部11は、本装置前面のカメラ3下方部位で本装置の横幅方向ほぼ中央部に設けられ、終了表示部12は、確認中表示部11の図面に対し右側に設けられ、出口表示部13は、終了表示部12の図面に対し右側に設けられている。
In this case, the in-
さらに、図2に示すように、被撮影者1に対し撮影状況を案内表示する案内表示手段の1つとして、被撮影者1がカメラ3を見る位置(カメラ3に視点を合わせる位置)を表示するカメラ位置表示部(第1の表示部)14がカメラ3の撮影レンズ3aの周囲に設けられている。カメラ位置表示部14は、たとえば、複数のLED表示素子14aを撮影レンズ3aの周囲に設けて構成されており、必要に応じて点灯、点滅、消灯制御される。
Further, as shown in FIG. 2, as one of the guidance display means for guiding and displaying the photographing state for the photographed
図3は、図1、図2に示した顔画像撮影システムの全体的な構成を示すブロック図である。すなわち、顔画像撮影システムの制御部6は、ビデオキャプチャ部21、ビデオアクセラレート部22、CPU部23、外部バス制御部24、大容量記憶装置25、リーダライタ部27、I/O制御部30、ネットワークアダプタ(LANカードなど)33および、サウンドコントロール部34などによって構成されている。
FIG. 3 is a block diagram illustrating an overall configuration of the face image photographing system illustrated in FIGS. 1 and 2. That is, the
ビデオキャプチャ部21は、カメラ3からのアナログ信号(入力画像)をリアルタイムにデジタル信号に変換し、後述するビデオメモリとしてのMO26やメインメモリ23bなどに転送するものである。
The video capture unit 21 converts an analog signal (input image) from the
ビデオアクセラレート(video accelerator)部22は、ビデオキャプチャ部21からの画像データをビデオメモリとしてのMO26やメインメモリ23bなどに記憶したり、ビデオキャプチャ部21からの画像データに対する描画処理を行い、表示器5への表示制御を行うものである。
サウンドコントロール部34は、スピーカ10へのガイダンス用の音声を制御するものである。
A
The
CPU部23は、画像データ等への各種の演算処理や各種制御などを行うCPU(セントラル・プロセッシング・ユニット)23a、ビデオキャプチャ部21からの画像データをフレーム単位で複数フレーム分記憶するとともに、演算結果などを一時保存するメインメモリ23b、各種周辺機器とのインターフェイス(図示しない)を備えたものである。
The
たとえば、CPU部23には、上記インターフェイスを介して、操作者(撮影者)4が操作する入力装置としてのキーボード28やマウス29が接続されている。キーボード28には、被撮影者1の撮影準備ができたことを確認した場合に押下される撮影ボタン28a、撮影画像がOKとなった場合に押下される撮影確定ボタン28b、再撮影が必要となった場合に押下される撮影取消しボタン28cが設けられている。
For example, a
上記撮影ボタン28a、撮影確定ボタン28b、撮影取消しボタン28cに対応するアイコンを表示器5で表示させることにより、マウス29により移動されるカーソルを用いて上記アイコンを選択した際に、上記キーボード28の撮影ボタン28a、撮影確定ボタン28b、撮影取消しボタン28cを押下した場合と同じ機能となる。
When the icons corresponding to the
また、CPU部23には、上記インターフェイスを介して、撮影した顔画像などを例えば印刷出力する出力手段としての画像印刷装置31が接続されている。
外部バス制御部24は、各種周辺機器を接続する外部バス(たとえば、SCSIなど)を制御するものである。
大容量記憶装置25は、各種OSやアプリケーション、制御用データ、画像データなどを保存するものであり、ハードディスク装置(HDD)などにより構成される。
The
The external
The large-
リーダライタ部(MOドライバ)27は、制御台6の出力データなどを保存する可搬性のある記憶媒体26としてのたとえば光磁気ディスク(MO)などに対してデータの読み書きを行うものである。
The reader / writer unit (MO driver) 27 reads / writes data from / to a magneto-optical disk (MO) or the like as a
I/O制御部30は、上記確認中表示部11、終了表示部12、出口表示部13、カメラ位置表示部14をそれぞれ制御するものである。
The I / O control unit 30 controls the in-
ネットワークアダプタ(LANカードなど)33は、同一ネットワーク32上の他の各種機器(画像印刷装置や画像ファイリング装置など)との間で相互通信を行うためのものである。
A network adapter (such as a LAN card) 33 is for performing mutual communication with other various devices (such as an image printing apparatus and an image filing apparatus) on the
図4は、本顔画像撮影システムと、被撮影者1と、撮影を待機する撮影申請者10との間での撮影の物理的な流れを、上方から見て図示したものである。被撮影者1は、通常、撮影が終了すると、図4に示す実線矢印aの方向に移動(進行)するが、もし破線矢印bの方向に移動すると、次の撮影申請者10との入れ替えに支障がある。
FIG. 4 shows the physical flow of photographing among the face image photographing system, the
(第1の実施の形態)
ここで、このような支障を生じさせないための第1の実施の形態として、被撮影者1に対して、視点合せ、待機、終了、進行方向の順に案内を行う実施の形態について説明する。
(First embodiment)
Here, as a first embodiment for preventing such troubles, an embodiment will be described in which the
以下、図5および図6に示すフローチャートを参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. The processing described below is mainly executed under the control of the
まず、ステップS1では、確認中表示部11、終了表示部12、出口表示部13をそれぞれ消灯するとともに、その他本装置の初期化を行い、ステップS2に進む。ステップS2では、カメラ位置表示部14を例えば赤色で点灯することにより、被撮影者1にカメラ3の撮影レンズ3aを見るべく、すなわち、被撮影者1がカメラ3の撮影レンズ3aに視点を合わせるべく促す。
First, in step S1, the in-
次に、ステップS3では、撮影者4がステップS1による被撮影者1の撮影準備ができたことを確認し、撮影ボタン28aを押下する。次に、ステップS4で、カメラ位置表示部14を例えば点滅状態にすることにより、被撮影者1にそのままカメラ3を見続けることを促し、ステップS5に進む。
Next, in step S3, the
ステップS5では、カメラ3からの被撮影者1が撮影された画像をビデオキャプチャ部21を介して取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS6に進む。ステップS6では、CPU部23内のメインメモリ23bに格納した入力画像を表示器5に表示し、ステップS7に進む。
In step S5, an image taken by the subject 1 from the
ステップS7では、画像の取込みが終了したので、点滅させていたカメラ位置表示部14を消灯し、ステップS8に進む。ステップS8では、確認中表示部11を、図7に示すように黄色で点滅状態にし、ステップS9に進む。ステップS9では、撮影者4はステップS6で表示した画像に対し目つぶりはないか、顔位置がずれていないか、などの良否判断を行い、再撮影の要否判定を行う。その間、被撮影者1は再撮影に備え、待機している必要がある。そのため、ステップS8にて確認中表示部11を黄色で点滅状態にするものである。
In step S7, since the image capture is completed, the blinking camera
ステップS9の判定において、再撮影が必要となった場合、ステップS10に進み、撮影者4は撮影取消しボタン28cを押下することにより、ステップS2に戻り、上記同様な動作を繰り返す。
If it is determined in step S9 that re-shooting is necessary, the process proceeds to step S10, and the
ステップS9の判定において、撮影画像がOKとなった場合、ステップS11に進み、撮影者4は撮影確定ボタン28bを押下する。撮影確定ボタン28bが押下されると、ステップS12に進み、確認中表示部11を消灯する。次に、ステップS13にて、終了表示部12を、図8に示すように緑色で点滅するとともに、ステップS14にて、図8に示すように出口表示部13に設けられた矢印を点滅することにより、被撮影者1に対して撮影が終了したので出口方向へ進行することを促す。
If it is determined in step S9 that the photographed image is OK, the process proceeds to step S11, and the
次に、ステップS15では、ステップS6にてCPU部23内のメインメモリ23bに格納した入力画像を出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。
なお、撮影した顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
Next, in step S15, the input image stored in the
It should be noted that whether the photographed face image is printed out or stored is selected depending on the purpose, and the method of outputting the face image is arbitrary.
以上説明したように、上記第1の実施の形態によれば、カメラ3による撮影時、被撮影者に対しカメラ3を見る位置を表示するカメラ位置表示部14、被撮影者に対し撮影待機を促す表示を行う確認中表示部11、被撮影者に対し撮影終了を表示する終了表示部12、および、被撮影者に対し撮影終了後の進行方向を促す表示を行う出口表示部13をそれぞれ設けて、被撮影者1に対し撮影状況(カメラ3を見る位置、撮影待機、撮影終了、撮影終了後の進行方向)を案内表示することにより、被撮影者1に対し撮影状況を案内することができ、撮影申請者10の撮影待ち行列が滞ることを極力なくすことができる。しかも、このような案内表示により、健常者は勿論のこと、耳が悪く聞こえ難い難聴者に対しても、確実に案内表示することができる。
As described above, according to the first embodiment, the camera
なお、本発明は前記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形実施可能である。たとえば、図9に示すように、本装置への撮影申請者10の行列方向および被撮影者1の出口方向に合わせて、終了表示部12および出口表示部13の取付け位置を変更できるようにしてもよい。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. For example, as shown in FIG. 9, the attachment positions of the
図9の例では、撮影を終了した被撮影者1の進行方向を本装置の図面に対し左側とした場合で、終了表示部12はそのまま図面に対し左側へ平行移動して、確認中表示部11の図面に対し左側に取付け、出口表示部13は180度回転させて向きが逆になるようにし、終了表示部12の図面に対し左側に取付けた場合を示している。
In the example of FIG. 9, when the direction of travel of the subject 1 who has finished photographing is set to the left side with respect to the drawing of the present apparatus, the
また、カメラ位置表示部14により、被撮影者1に対しカメラ3の撮影レンズ3aを見る位置を表示するようにしたが、これに限らず、たとえば、確認中表示部11を用いて「カメラの撮影レンズを見て下さい」と文字で表示するようにしてもよく、あるいは、それらの両方を用いてもよい。
Further, the camera
(第2の実施の形態)
次に、第2の実施の形態として、被撮影者1の顔の大きさを測定し、この測定した大きさに基づきズーミング処理することにより、一定の大きさの顔画像を取得する実施の形態について説明する。
(Second Embodiment)
Next, as a second embodiment, an embodiment in which a face image of a certain size is obtained by measuring the size of the face of the subject 1 and performing a zooming process based on the measured size. Will be described.
図10は、カメラ3からの入力画像(顔画像)41と、その入力画像41から顔の輪郭領域42を検出し、この顔の輪郭領域42から顔の大きさを測定する様子を示したものである。
FIG. 10 shows an input image (face image) 41 from the
以下、図11に示すフローチャートおよび図10を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 11 and FIG. The processing described below is mainly executed under the control of the
まず、ステップS21にて、図示しないカウンタによって計数されるリトライ回数やその他のデータの初期化を行い、ステップS22に進む。ステップS22では、ビデオキャプチャ部21を介してカメラ3からの入力画像(被撮影者1の顔画像)41を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS23に進む。ステップS23では、メインメモリ23b内の入力画像41から、被撮影者1の髪形まで含めた検出方法の詳細を後に説明する、背景板9の色成分と異なる色成分を持った顔の輪郭領域42を検出し、ステップS24に進む。
First, in step S21, the number of retries counted by a counter (not shown) and other data are initialized, and the process proceeds to step S22. In step S22, an input image (face image of the person to be photographed 1) 41 from the
ステップS24では、ステップS23で求められた顔の輪郭領域42により、後で詳述する顔の大きさ測定処理により顔の大きさの値(面積、画素数)を測定し、ステップS25に進む。ここに、このステップS24の処理が本発明における測定手段に対応している。
In step S24, the face size value (area, number of pixels) is measured by the face size measurement process, which will be described in detail later, from the
ステップS25では、ステップS24で測定された顔の大きさ測定値が規定範囲内に入っているかどうかを判定する。ここでいう規定範囲とは、後で行うズーミング処理の入力対応範囲から逆算した値である。たとえば、ズーミング処理の入力対応範囲がズーム比率0.5〜1.5だった場合、目標の顔の大きさ値/顔の大きさ測定値が0.5以上1.5以下だということが、規定範囲内に入っているということである。ここに、このステップS25の処理が本発明における第1の判定手段に対応している。 In step S25, it is determined whether or not the face size measurement value measured in step S24 is within a specified range. The specified range here is a value calculated backward from the input corresponding range of the zooming process to be performed later. For example, when the input corresponding range of zooming processing is a zoom ratio of 0.5 to 1.5, the target face size value / face size measurement value is 0.5 to 1.5. It is within the specified range. Here, the process of step S25 corresponds to the first determination means in the present invention.
ステップS25の判定で、顔の大きさ測定値が規定範囲内に入っている場合、ステップS26に進む。ステップS26では、目標の顔の大きさ値と顔の大きさ測定値との比を求め、この求めた比をズーム比率として設定する。なお、目標の顔の大きさ値とは、出力写真にした際に最も適正な顔の大きさの値であり、たとえば何百人かの顔画像データを平均したものに基づいて決定したものである。ここに、このステップS26の処理が本発明におけるズーム比率設定手段に対応している。 If it is determined in step S25 that the face size measurement value is within the specified range, the process proceeds to step S26. In step S26, a ratio between the target face size value and the face size measurement value is obtained, and the obtained ratio is set as a zoom ratio. Note that the target face size value is the most appropriate face size value when an output photograph is made, and is determined based on, for example, an average of hundreds of face image data. . Here, the processing in step S26 corresponds to the zoom ratio setting means in the present invention.
次に、ステップS27では、ステップS26で設定されたズーム比率に基づき、カメラ3からの入力画像に対してCPU部23により電子的にズーミング処理を行い、ステップS28に進む。ここに、このステップS27の処理が本発明におけるズーミング処理手段に対応している。この例では、電子的にズーミング処理を行う場合について説明したが、カメラ3のレンズの移動によりズーミング処理を行うものであってもよい。
Next, in step S27, based on the zoom ratio set in step S26, the
ステップS28では、CPU部23内のメインメモリ23bに格納された入力画像を出力用に変換し、被撮影者1のその他の個人情報(氏名、生年月日、ID番号など)とともに、目的に応じ、CPU部23に接続された画像印刷装置30、あるいは、ネットワークアダプタ32からネットワーク31上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク21上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。
なお、撮影した顔画像を身分証明書などの所定の大きさに定められた領域に印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
In step S28, the input image stored in the
Note that it is only necessary to select whether the photographed face image is printed out or stored in a predetermined area such as an identification card according to the purpose, and the method of outputting the face image is arbitrary.
ステップS25の判定において、測定された顔の大きさ測定値が規定範囲を外れている場合、リトライ処理を行う。すなわち、まず、ステップS29では、前記リトライ回数をインクリメントし、ステップS30に進む。ステップS30では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS31に進む。ここに、このステップS29、S30の処理が本発明における第2の判定手段に対応している。 If it is determined in step S25 that the measured face size measurement value is out of the specified range, a retry process is performed. That is, first, in step S29, the number of retries is incremented, and the process proceeds to step S30. In step S30, it is checked whether or not the number of retries is within a predetermined value set in advance. If it is within the predetermined value, the process proceeds to step S31. Here, the processes in steps S29 and S30 correspond to the second determination means in the present invention.
ステップS31では、測定された顔の大きさ測定値が規定範囲を超えている(顔が大き過ぎる)場合は、被撮影者1に対し顔を遠ざけることを促すメッセージを表示器5に表示し、またその逆の場合は、顔を近付けることを促すメッセージを表示器5に表示して、ステップS22に戻り、リトライ処理として再度、ステップS22からの処理を行う。 In step S31, if the measured face size measurement value exceeds the specified range (the face is too large), a message prompting the subject 1 to move away from the face is displayed on the display unit 5, In the opposite case, a message prompting the user to approach the face is displayed on the display 5 and the process returns to step S22, and the process from step S22 is performed again as a retry process.
ステップS30の判定において、リトライ回数が規定値を超えた場合、出力写真にした際に不適な画像であると判断して、ステップS32に進み、エラー処理を行って、撮影処理を一旦終了する。ここに、このステップS32の処理が本発明におけるエラー処理手段に対応している。 If it is determined in step S30 that the number of retries exceeds the specified value, it is determined that the image is inappropriate when the output photograph is selected, and the process proceeds to step S32 to perform error processing, and the photographing process is temporarily terminated. Here, the processing in step S32 corresponds to the error processing means in the present invention.
次に、図12に示すフローチャートおよび図10を参照して、図11のステップS24における顔の大きさ測定処理の第1の実施の形態について説明する。 Next, with reference to the flowchart shown in FIG. 12 and FIG. 10, the first embodiment of the face size measurement process in step S24 of FIG. 11 will be described.
まず、ステップS33にて、ステップS23で求められた顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。上記領域43は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
First, in step S33, a
次に、ステップS34にて、ステップS33で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45の座標を抽出する。
Next, in step S34, each black and round part extracted in step S33 is compared with a previously registered pupil sample, and a part having the highest degree of similarity is extracted. Since there are two pupils, left and right pupil samples are prepared, and the above determination is performed by comparing the left and right pupil samples, and the coordinates of the
なお、瞳標本が左右のいずれかの瞳分用意されており、他方については上記瞳標本を反転等の加工して用いることにより、用意する標本を削減できるようにしてもよい。
上記瞳標本とは、たとえば、類似度合いを求めるパターン比較のために、何百人かの瞳部分を撮影した画像を正規化したものである。
It should be noted that pupil samples may be prepared for either of the left and right pupils, and for the other, the prepared samples may be reduced by processing such as reversal, so that the prepared samples can be reduced.
The above-mentioned pupil sample is obtained by normalizing images obtained by photographing several hundred pupil portions, for example, for pattern comparison for obtaining the degree of similarity.
次に、ステップS35にて、ステップS34で抽出された左瞳部位44、右瞳部位45間の中心距離46を求め、この求めた距離46から顔の大きさの値を算出する。
この顔の大きさは、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心距離に対する顔の大きさの値を平均したものに基づいて算出したものである。
Next, in step S35, a
The face size is calculated based on, for example, an average of face size values with respect to the center distance between the left and right pupil parts in hundreds of face image data.
次に、図13に示すフローチャートおよび図10を参照して、図11のステップS24における顔の大きさ測定処理の第2の実施の形態について説明する。 Next, a second embodiment of the face size measurement process in step S24 of FIG. 11 will be described with reference to the flowchart shown in FIG. 13 and FIG.
まず、ステップS36にて、ステップS23で求められた顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。
First, in step S36, a
次に、ステップS37にて、ステップS36で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45を抽出する。
Next, in step S37, each black and round part extracted in step S36 is compared with a previously registered pupil sample, and a part having the highest degree of similarity is extracted. Since there are two pupils, pupil samples are prepared for the left and right pupils, and the above determination is performed by comparison with both the left and right pupil samples, and the
次に、ステップS38にて、ステップS37で抽出された左瞳部位44、右瞳部位45の各中心位置からの相対位置領域として、口が必ず存在するであろう領域47を算出し、この算出した領域47の中から唇と同様の赤色系の画素を持つ部位を抽出する。
この領域47は、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する唇を含む領域を求めて平均化した値に基づいて算出したものである。
Next, in step S38, a region 47 where the mouth will surely exist is calculated as a relative position region from each center position of the
This region 47 is calculated based on, for example, a value obtained by obtaining a region including the lips with respect to the center position between the left and right pupil parts in hundreds of face image data.
次に、ステップS39にて、ステップS38で抽出されたそれぞれの部位と、あらかじめ登録された口標本とを比較し、類似度合が最も高い部位を口部位48として抽出する。次に、ステップS40にて、ステップS37で抽出された左瞳部位44、右瞳部位45とステップS38で抽出された口部位48との間の面積49を求め、この求めた面積49から顔の大きさの値を算出する。
この顔の大きさは、たとえば何百人かの顔画像データにおける左右両方の瞳部位と口部位との間の面積に対する顔の大きさの値を平均したものに基づいて算出したものである。
Next, in step S39, each part extracted in step S38 is compared with the mouth sample registered in advance, and the part having the highest degree of similarity is extracted as the
The face size is calculated based on, for example, an average of face size values with respect to the area between the left and right pupil parts and the mouth part in hundreds of face image data.
次に、上記ステップS23の顔の輪郭領域の検出処理について、図14から図16に示すフローチャートと、図17から図25に示す画像データ例とを用いて説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
Next, the face outline region detection processing in step S23 will be described using the flowcharts shown in FIGS. 14 to 16 and the image data examples shown in FIGS. 17 to 25. FIG. The processing described below is mainly executed under the control of the
まず、ステップS41にて、メインメモリ23b内の入力画像41の測定範囲(探索範囲、探索領域)にて背景板9の色成分を測定し、ステップS42に進む。ステップS42では、ステップS41で測定した結果が、背景板9らしい色成分か否か判定し、ステップS43に進む。この際、非青背景(青背景でないもの)を被撮影者1の顔画像の部分と判定する。
First, in step S41, the color component of the
ステップS43では、後述する頭頂高さ位置検出処理を行い、縦方向頭頂縦方向ライン番号:head topを求め、ステップS44に進む。ステップS44では、頭頂位置が規定範囲内か否かを確認し、ステップS45に進む。 In step S43, a parietal height position detection process, which will be described later, is performed to obtain a vertical top line length direction: head top, and the process proceeds to step S44. In step S44, it is confirmed whether or not the top position is within a specified range, and the process proceeds to step S45.
ステップS45では、後述する左右方向の顔の中心位置の検出処理を行い、左頭側位置head leftと右頭側位置head rightから顔の中心位置横方向ライン番号:centerを求め、ステップS46に進む。ステップS46では、顔中心位置が規定範囲内か否かを確認し、ステップS47に進む。この際、上記左頭側位置head leftと、右頭側位置head rightと、上記頭頂の高さhead topと、複数の被撮影者1の顔の縦の長さの平均ライン数FACE SIZEにより、上述した顔の輪郭領域42が検出される。
In step S45, a left and right face center position detection process, which will be described later, is performed, a face center position lateral line number: center is obtained from the left head position head left and right head position head right, and the process proceeds to step S46. . In step S46, it is confirmed whether the face center position is within the specified range, and the process proceeds to step S47. At this time, the left head side position head left, the right head side position head right, the top height head top, and the average number of lines FACE SIZE of the vertical length of the face of the plurality of
ステップS47では、横方向ライン番号:center、縦方向ライン番号:headtopの交差した位置を、顔の輪郭基準位置に設定し、ステップS48に進む。ステップS48では、処理結果を、「顔の輪郭範囲が規定範囲内」に設定し、ステップ24へ進む。
また、もしステップS42、ステップS44、ステップS46にてNGだった場合は、処理結果として顔の輪郭範囲が規定範囲外と設定し、リターンする。
In step S47, the position where the horizontal line number: center and the vertical line number: headtop intersect is set as the face contour reference position, and the process proceeds to step S48. In step S48, the processing result is set to "the face outline range is within the specified range", and the process proceeds to step 24.
If the result is NG in step S42, step S44, or step S46, the face contour range is set to be outside the specified range as a processing result, and the process returns.
上記ステップ41における測定範囲(探索範囲、探索領域)と、上記ステップ43における頭頂位置head topと顔の輪郭領域42の検出方法について、具体的に説明する。
すなわち、図17に示す入力画像41中の被撮影者1の体で占める領域中、トリミングの対象となる顔の位置は被撮影者1が逆立ちでもしない限り、必ず上のほうにあり、さらにその上には青背景の領域がある。
The measurement range (search range, search area) in
That is, in the area occupied by the body of the person to be photographed 1 in the
このことより、入力画像41中の上下部分(y方向)は探索範囲(探索領域)Aから除外する。この際のパラメータを図18を用いて説明する。
上部分を除外するためのパラメータを、OVER HEADとする。
下部分を除外するためのパラメータを、Y RANGEとする。
Thus, the upper and lower parts (y direction) in the
The parameter for excluding the upper part is OVER HEAD.
The parameter for excluding the lower part is Y RANGE.
また、被撮影者1はカメラ3の正面に着座するため、横方向への位置変動はある程度の範囲で収まることにより、横長画像の両サイド(x方向)は探索範囲Aから除外する。この際のパラメータを図18を用いて説明する。
左側部分を除外するためのパラメータを、X STARTとする。
右側部分を除外するためのパラメータを、X STOPとする。
また、画像中の被撮影者1の領域は、ほぼ連続的である。
In addition, since the
The parameter for excluding the left part is assumed to be X START.
The parameter for excluding the right part is assumed to be X STOP.
Further, the area of the subject 1 in the image is almost continuous.
このことより、以下のパラメータを設定する。
横(X)方向の画素の探索間隔:x interval
縦(Y)方向の画素の探索間隔:y interval
さらに、探索領域A内で被撮影者1が存在しないラインを0、披撮影者1が存在するラインを1とすると、図19のaに示すように、縦方向(Y方向)0,0,0,0…0,0,1,1,1,…となり、0と1の昇順に並んだデータである。
Based on this, the following parameters are set.
Search interval for pixels in the horizontal (X) direction: x interval
Search interval for pixels in the vertical (Y) direction: y interval
Further, assuming that the line in which the
また、横方向(X方向)も前半部分は昇順並びのデータ、後半部分は降順並びのデータとみなすことができる。この場合、探索領域A内で被撮影者1が存在しないラインを0、披撮影者1が存在するラインを1とすると、図19のbに示すように、0,0,0,0…0,0,1,1,1,…1,1,1,0,0,…0,0,0となる。
In the horizontal direction (X direction), the first half can be regarded as data arranged in ascending order, and the second half can be regarded as data arranged in descending order. In this case, assuming that the line where the
この結果、図20に示すように、上記Y方向の0から1(0→1)の切り替わりラインが、頭頂の高さ(頭頂位置:縦方向頭頂縦方向ライン番号)head topとして検出され、上記X方向の0から1(0→1)の切り替わりラインが、左頭側位置head leftとして検出され、上記X方向の1から0(1→0)の切り替わりラインが、右頭側位置head rightとして検出される。
また、上記左頭側位置head leftと右頭側位置head rightの中間ラインが、顔の中心位置centerとして検出される。
As a result, as shown in FIG. 20, the switching line from 0 to 1 (0 → 1) in the Y direction is detected as the top height (top position: vertical line number in the vertical direction) head top. A switching line from 0 to 1 (0 → 1) in the X direction is detected as a left head side position head left, and a switching line from 1 to 0 (1 → 0) in the X direction is detected as a right head side position head right. Detected.
An intermediate line between the left head position head left and the right head position head right is detected as the center position center of the face.
上記した切り替わりラインは、端からの順次探索でも求めることができるが、探索対象が昇順(または降順)のデータであることから、探索領域Aを2分探索することにより、より効率的に処理ができる。 The above-described switching line can be obtained by a sequential search from the end, but since the search target is data in ascending order (or descending order), the search area A can be searched more efficiently by performing a binary search. it can.
また、上記左頭側位置head leftと、右頭側位置head rightと、上記頭頂の高さhead topと、複数の被撮影者1の顔の縦の長さの平均ライン数FACE SIZEにより、図21に示すように、上述した顔の輪郭領域42が検出される。
Also, the left head side position head left, the right head side position head right, the top height head top, and the average number of lines FACE SIZE of the vertical length of the face of the plurality of
上記顔の輪郭領域42の規定範囲は、顔の輪郭基準位置としての横方向ライン番号:center、縦方向ライン番号:headtopの各値から決定されるものであり、顔を中心とした写真サイズとしてのトリミングサイズが取得できる範囲であり、以下の式になる。
X FMG SIZE/2<center<(X STILL SIZE-X FMG SIZE /2)
OVER HEAD<head top<(Y STILL SIZE -Y FMG SIZE +OVER HEAD)=Y RANGE
すなわち、図22に示すように、入力画像41に対して、顔の中心位置centerは、フレーミング領域(トリミング領域)X FMG SIZEの横方向のライン数の1/2の値から、入力画像41の横方向のライン数X STILL SIZEからフレーミング領域(トリミング領域)X FMG SIZEの横方向のライン数の1/2を減算した値の範囲を規定範囲としている。
The prescribed range of the
X FMG SIZE / 2 <center <(X STILL SIZE-X FMG SIZE / 2)
OVER HEAD <head top <(Y STILL SIZE -Y FMG SIZE + OVER HEAD) = Y RANGE
That is, as shown in FIG. 22, the center position center of the face with respect to the
また、図22に示すように、入力画像41に対して、頭頂位置head topは、入力画像41の縦方向ライン番号OVER HEADから、入力画像41の縦方向のライン数Y STILL SIZEからフレーミング領域(トリミング領域)Y FMG SIZEの横方向のライン数を減算し、入力画像41の縦方向ライン番号OVER HEADを加算した値の範囲を規定範囲としている。
なお、fmg xは、トリミング左上角X座標、fmg yは、トリミング左上角Y座標となっている。
Also, as shown in FIG. 22, the top position head top for the
Note that fmg x is the trimming upper left corner X coordinate, and fmg y is the trimming upper left corner Y coordinate.
次に、上記ステップS43における頭頂高さ位置検出処理を、図16に示すフローチャートと、図23に示す画像データを参照しつつ説明する。 Next, the top height position detection process in step S43 will be described with reference to the flowchart shown in FIG. 16 and the image data shown in FIG.
まず、ステップS51では、少なくとも披撮影者1の頭頂部が存在していい規定範囲(OVER HEAD+1ライン〜Y RANGEライン)に、被撮影者1の頭頂部があることを確認する。
First, in step S51, it is confirmed that the top of the subject 1 is in a specified range (OVER HEAD + 1 line to Y RANGE line) where at least the top of the
入力画像中の縦方向ライン番号:OVER HEADの横ラインを構成する画素のうち、背景板9の色成分と異なる画素(すなわち被撮影者1の顔部分)を数え、その数が規定値以上あるか否かを確認する。 Among the pixels composing the horizontal line of the vertical line number: OVER HEAD in the input image, the pixels different from the color components of the background plate 9 (that is, the face portion of the subject 1) are counted, and the number is equal to or greater than the specified value. Check whether or not.
さらに、同様にYRANGEの横ラインを構成する画素のうち、背景板9の色成分と異なる画素が規定値以上あるか否かを確認し、OVER HEADライン上に背景板9の色成分と異なる画素が規定値未満で、Y RANGEライン上に背景板9の色成分と異なる画素が規定値以上であることを確認する。
この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う異物がついていたりした場合に、その部分を無視させるための数値である。
Further, in the same way, it is confirmed whether or not there are pixels different from the color component of the
This prescribed value is a numerical value for ignoring the portion of the subject 1 when the hair of the subject 1 is fluffing sideways or a foreign object different from the color is attached to the
入力画像の縦方向ライン番号:OVER HEADをiに、同じくY RANGEをjに設定し、ステップS52に進む。ステップS52では、OVER HEADをiに、Y RANGEをjに設定し、ステップS53に進む。 The vertical line number of the input image: OVER HEAD is set to i and Y RANGE is set to j, and the process proceeds to step S52. In step S52, OVER HEAD is set to i, Y RANGE is set to j, and the process proceeds to step S53.
ステップS53では、iラインからjラインの間に0ラインより多くラインが存在することを確認した際、ステップS54に進む。ステップS54では、iラインとjラインの中央のライン(i+j)/2をkに設定し、ステップS55に進む。 In step S53, when it is confirmed that there are more lines than 0 lines between the i line and the j line, the process proceeds to step S54. In step S54, the center line (i + j) / 2 of the i line and the j line is set to k, and the process proceeds to step S55.
ステップS55では、kの横ラインを構成している画素のうち、背景板9の色成分と違う画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。
In step S55, pixels that are different from the color components of the
上記ステップS55の判定結果がyesの場合、ステップS56にてkをjに設定し、ステップS53に戻り、上記ステップS55の判定結果がnoの場合、ステップS57にてkをiに設定し、ステップS53に戻る。 If the determination result in step S55 is yes, k is set to j in step S56, and the process returns to step S53. If the determination result in step S55 is no, k is set to i in step S57. Return to S53.
このようにして、入力画像のOVER HEADからY RANGEまでの探索領域から、1処理ループごとにこの探索領域を半分にしていき、j−iが1未満(ライン数の差がなくなった時、0ライン)となった際に、つまりステップS53の判定結果がnoの場合、ステップS58に進む。 In this way, from the search area from OVER HEAD to Y RANGE of the input image, this search area is halved for each processing loop, and j−i is less than 1 (when there is no difference in the number of lines, 0 Line), that is, if the determination result in step S53 is no, the process proceeds to step S58.
ステップS58では、頭頂部Yラインのiを頭頂位置head topに設定し、ステップS59に進む。ステップS59では、処理結果として頭頂位置head topが規定範囲内と設定し、ステップ44へ進む。 In step S58, i on the parietal portion Y line is set to the parietal position head top, and the process proceeds to step S59. In step S59, the top position head top is set within the specified range as a processing result, and the process proceeds to step 44.
また、ステップS51の判定結果がyesの場合、つまりY RENGEに顔画像のデータがなく、OVER HEADに顔画像のデータがある場合、顔画像が規定範囲内にないと判断した場合、ステップS60に進む。ステップS60では、処理結果として頭頂位置が規定範囲外と設定し、ステップ44へ進む。 If the determination result in step S51 is yes, that is, if there is no face image data in Y RENGE and there is face image data in OVER HEAD, if it is determined that the face image is not within the specified range, the process goes to step S60. move on. In step S60, the top position is set to be outside the specified range as a processing result, and the process proceeds to step 44.
次に、上記ステップS45における左右方向の顔の中心位置の検出処理を、図16に示すフローチャートと、図24〜図26に示す画像データを参照しつつ説明する。 Next, the detection processing of the center position of the face in the left-right direction in step S45 will be described with reference to the flowchart shown in FIG. 16 and the image data shown in FIGS.
まず、ステップS61では、図24に示す、入力画像41の左端縦ライン番号0をiに設定し、入力画像の中心縦ライン番号(X STILL SIZE/2)をjに設定し、ステップS62に進む。ステップS62では、iラインからjラインの間に0ラインより多くラインが存在するか否かを確認し、yesの場合、ステップS63に進む。
First, in step S61, the leftmost
ステップS63では、iラインとjラインの中央の縦ライン(i+j)/2をkに設定し、ステップS64に進む。ステップS64では、kの縦ラインを構成している画素のうち、ステップS41で測定した背景板9の色成分と違う色の画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。
In step S63, the vertical line (i + j) / 2 at the center of the i line and the j line is set to k, and the process proceeds to step S64. In step S64, out of the pixels constituting the vertical line of k, pixels having a color different from the color component of the
上記ステップS64の判定結果がyesの場合、ステップS65にてkをjに設定し、ステップS62に戻り、上記ステップS64の判定結果がnoの場合、ステップS66にてkをiに設定し、ステップS62に戻る。 If the determination result in step S64 is yes, k is set to j in step S65, and the process returns to step S62. If the determination result in step S64 is no, k is set to i in step S66. Return to S62.
このようにして、入力画像の左半分の探索領域から、1処理ループごとに探索領域を半分にしていき、j−iが1未満となった際に、つまりステップS62の判定結果がnoの場合、ステップS67に進む。
ステップS67では、ステップS62にてj−iが1未満となったところで、iを顔左端縦ライン:head leftに設定し、ステップS68に進む。
In this way, the search area is halved for each processing loop from the search area in the left half of the input image, and when j-i becomes less than 1, that is, the determination result in step S62 is no The process proceeds to step S67.
In step S67, when j-i becomes less than 1 in step S62, i is set to the left face vertical line: head left, and the process proceeds to step S68.
ステップS68では、図25に示す、入力画像41の中心縦ライン番号((X START+X STOP)/2)をiに設定し、入力画像の右端縦ライン番号(X STOP)をjに設定し、ステップS69に進む。ステップS69では、iラインからjラインの間に0ラインより多くラインが存在するか否かを確認し、noの場合ステップS70に進む。
In step S68, the center vertical line number ((X START + X STOP) / 2) of the
ステップS70では、iラインとjラインの中央の縦ライン(i+j)/2をkに設定し、ステップS71に進む。ステップS71では、kの縦ラインを構成している画素のうち、ステップS41で測定した背景板9の色成分と違う色の画素を数え、その数が規定値以上あるか判定する。この規定値とは、被撮影者1の髪が横に毛羽立っていたり、背景板9にその色とは違う微小な異物がついていたりした場合に、その部分を無視させるための数値である。
In step S70, the vertical line (i + j) / 2 at the center of the i line and the j line is set to k, and the process proceeds to step S71. In step S71, pixels having a color different from the color component of the
上記ステップS71の判定結果がyesの場合、ステップS72にてkをiに設定し、ステップS69に戻り、上記ステップS71の判定結果がnoの場合、ステップS73にてkをjに設定し、ステップS69に戻る。 If the determination result in step S71 is yes, k is set to i in step S72, and the process returns to step S69. If the determination result in step S71 is no, k is set to j in step S73. Return to S69.
このようにして、入力画像の右半分の探索領域から、1処理ループごとに探索領域を半分にしていき、j−iが1未満となった際に、つまりステップS69の判定結果がyesの場合、ステップS74に進む。 In this way, the search area is halved for each processing loop from the search area in the right half of the input image, and when j-i becomes less than 1, that is, the determination result in step S69 is yes The process proceeds to step S74.
ステップS74では、ステップS69にてj−iが1未満となったところで、iを顔右端縦ライン:head rightに設定し、ステップS75に進む。ステップS75では、図26に示すように、ステップS67により設定された顔左端縦ラインhead leftとステップS74により設定された顔右端縦ラインhead rightとに基づいて、中央位置を計算し、この計算した値をcenterの値とし、ステップ46へ進む。 In step S74, when j-i becomes less than 1 in step S69, i is set to the face right edge vertical line: head right, and the process proceeds to step S75. In step S75, as shown in FIG. 26, the center position is calculated based on the face left end vertical line head left set in step S67 and the face right end vertical line head right set in step S74. The value is set as the value of center, and the process proceeds to step 46.
上記ステップ23における被撮影者1の髪形まで含めた顔の輪郭領域42は、上記顔の輪郭基準位置(center、head top)、head left:左頭側位置、head right:右頭側位置、FACE SIZE:複数の被撮影者1の顔の縦の長さの平均ライン数により決定される。
The
上記ステップS21における両瞳が必ず存在するであろう領域43としては、図27に示すように、上記顔の輪郭基準位置(center、head top)に基づく、横座標:x eye area posi、縦座標:y eye area posiを左頂点とする横方向のサイズ:X EYE AREA SIZE、縦方向のサイズ:Y EYE AREA SIZEの領域が算出される。横座標:x eye area posi、縦座標:y eye area posiは、以下の式になる。
x eye area posi=center-(X EYE AREA SIZE /2)
y eye area posi=head top+Y EYE POSI SIZE-(Y EYE AREA SIZE /2)
すなわち、上記center(顔の輪郭基準位置の横座標)に対して、あらかじめ決まっている領域43の横幅(必ず両瞳が存在するであろう最小限の領域を示す横ライン数:X EYE AREA SIZE)の半分を差し引いた座標が、領域43の左側端部の横座標(x eye area posi)となる。
As shown in FIG. 27, the
x eye area posi = center- (X EYE AREA SIZE / 2)
y eye area posi = head top + Y EYE POSI SIZE- (Y EYE AREA SIZE / 2)
That is, with respect to the center (abscissa of the face outline reference position), the width of the predetermined area 43 (the number of horizontal lines indicating the minimum area where both pupils will always exist: X EYE AREA SIZE) The coordinates obtained by subtracting half of the) are the abscissas (x eye area posi) of the left end portion of the
上記headtop(顔の輪郭基準位置の縦座標)に対して、頭頂位置からの瞳の位置までの平均縦ライン数(Y EYE POSI SIZE)を加算し、あらかじめ決まっている領域43の縦幅(必ず両瞳が存在するであろう最小限の領域を示す縦ライン数:Y EYE AREA SIZE)の半分を差し引いた座標が、領域43の上側端部の縦座標(y eye area posi)となる。
The average vertical line number (Y EYE POSI SIZE) from the top position to the pupil position is added to the headtop (the vertical coordinate of the face contour reference position), and the vertical width of the predetermined region 43 (always) The coordinate obtained by subtracting half of the number of vertical lines (Y EYE AREA SIZE) indicating the minimum area where both pupils will be present becomes the ordinate (y area areposi) of the upper end of the
なお、前記実施の形態では、撮影された顔画像から被撮影者の顔の中の両瞳の位置および口の位置をそれぞれ検出し、これら検出した両瞳の位置および口の位置関係から顔の大きさを測定する場合について説明したが、本発明はこれに限定されるものでなく、撮影された顔画像から被撮影者の顔の中の両瞳の位置、口の位置および鼻の位置をそれぞれ検出し、これら検出した両瞳の位置、口の位置および鼻の位置関係から顔の大きさを測定するようにしてもよい。 In the above-described embodiment, the positions of both pupils and mouths in the face of the subject are detected from the captured face image, and the face position is determined from the detected positions of both eyes and mouth. Although the case where the size is measured has been described, the present invention is not limited to this, and the positions of both eyes, the mouth, and the nose in the face of the subject are determined from the captured face image. Each face may be detected, and the size of the face may be measured from the detected positions of both eyes, the mouth, and the nose.
したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影する際、顔の大きさを人間系にて判定し、顔の大きさが大き過ぎる、あるいは、小さ過ぎる画像であった場合は、操作者(撮影者)が大きさの調整(ズーミング)を行っている。
たとえば、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに、判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
Therefore, in the conventional face image photographing device, when photographing the subject, the size of the face is determined by a human system, and the face size is too large or too small. The operator (photographer) adjusts the size (zooming).
For example, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the imaging apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.
これに対して、上述した第2の実施の形態によれば、上記欠点を回避し、被撮影者の少なくとも顔画像を撮影した際、入力した顔画像の顔の大きさを自動的に認識して、出力画像の顔の大きさが常に均一になるように、自動的にズーミング処理を行うことができる。 On the other hand, according to the second embodiment described above, the above-mentioned drawbacks can be avoided, and when at least the face image of the subject is photographed, the face size of the input face image is automatically recognized. Thus, the zooming process can be automatically performed so that the size of the face of the output image is always uniform.
(第3の実施の形態)
次に、第3の実施の形態として、被撮影者1の目及び口の状態を監視することにより、撮影可能状態を認識し、自動撮影を行う実施の形態について説明する。なお、第2の実施の形態における顔の輪郭領域の算出などが同様に行われるようになっている。
図28、図29は、カメラ3からの入力画像(顔画像)と、撮影処理中の各処理時に使用する領域や座標を示したものである。
(Third embodiment)
Next, as a third embodiment, an embodiment will be described in which the state of the subject 1 and the mouth is monitored to recognize the shootable state and perform automatic shooting. It should be noted that the calculation of the face contour area in the second embodiment is performed in the same manner.
28 and 29 show an input image (face image) from the
以下、図30に示すフローチャートおよび図28、図29を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 30 and FIGS. 28 and 29. The processing described below is mainly executed under the control of the
まず、ステップS81にて、図示しないカウンタによって計数されるリトライ回数やその他のデータの初期化を行い、ステップS82に進む。ステップS82では、ビデオキャプチャ部21を介してカメラ3からの入力画像41を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS83に進む。
First, in step S81, the number of retries counted by a counter (not shown) and other data are initialized, and the process proceeds to step S82. In step S82, the
ステップS83、S84では、メインメモリ23b内の入力画像41により、カメラ3の前に被撮影者1が存在するか否かの検出処理を行う。すなわち、たとえば、入力画像31内に背景色と異なる画素を持った領域(すなわち、被撮影者の領域)を探索することにより、被撮影者1が存在し、かつ、被撮影者1の髪形まで含めた顔の輪郭領域42の位置が出力するために適正な範囲に入っているかを判定する。ここに、このステップS83、S84の処理が本発明における被撮影者検出手段に対応している。
In steps S83 and S84, detection processing is performed to determine whether or not the subject 1 is present in front of the
カメラ3の前に被撮影者1が存在しない場合、あるいは、顔の輪郭領域42の位置が不適正の場合、ステップS82に戻り、上記同様な動作を繰り返す。カメラ3の前に被撮影者1が存在し、かつ、顔の輪郭領域42の位置が適正な場合、ステップS85に進む。ステップS85では、カメラ3の前の被撮影者1に対し撮影準備を促すため、表示器5およびスピーカ10により、ガイダンスメッセージを出力し、ステップS86に進む。ここに、このステップS85の処理が本発明における撮影案内手段に対応している。
If the
ステップS86では、画像41を入力した後、後述する撮影可能状態の判定処理にて被撮影者1が静止した(撮影準備ができた)と判定するための規定時間の間待機し、ステップS87に進む。ステップS87では、再び、先の入力画像41に連続的に続く入力画像41’をカメラ3から取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS88に進む。
In step S86, after inputting the
ステップS88、S89では、メインメモリ23b内の入力画像41および入力画像41’により撮影可能状態判定処理を行うことにより、被撮影者1の撮影準備ができているか否かを判定する。この撮影可能状態判定処理については後で詳細を説明する。ここに、このステップS88、S89の処理が本発明における認識手段に対応している。
In steps S88 and S89, it is determined whether or not the subject 1 is ready to shoot by performing a shootable state determination process using the
上記判定の結果、被撮影者1の撮影準備ができている場合、ステップS90に進み、CPU部23内のメインメモリ23bに格納された入力画像41あるいは41’のうち、顔画像の出力に適している画像を選定して出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶装置26や可搬性のある記憶媒体27を画像保存手段として用いることにより、それに対して記憶(保存
出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。ここに、このステップS90の処理が本発明における選定手段に対応している。
なお、撮影した顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
As a result of the determination, if the
It should be noted that whether the photographed face image is printed out or stored is selected depending on the purpose, and the method of outputting the face image is arbitrary.
前記判定の結果、被撮影者1の撮影準備ができていない場合、ステップS91に進み、リトライ処理を行う。すなわち、まず、ステップS91では、前記リトライ回数をインクリメントし、ステップS92に進む。ステップS92では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS82に戻り、リトライ処理として再度、ステップS82からの処理を行う。ここに、このステップS91、S92の処理が本発明における判定手段に対応している。
If the result of the determination is that the
ステップS92の判定において、リトライ回数が規定値を超えた場合、出力写真にした際に不適な画像であると判断して、ステップS93に進み、エラー処理を行って、撮影処理を終了する。ここに、このステップS93の処理が本発明におけるエラー処理手段に対応している。 If the number of retries exceeds the specified value in the determination in step S92, it is determined that the image is inappropriate when the output photograph is selected, and the process proceeds to step S93 to perform error processing and end the photographing process. Here, the processing in step S93 corresponds to the error processing means in the present invention.
次に、図31に示すフローチャートおよび図28、図29を参照して、図30のステップS88、S89における撮影可能状態の判定処理について説明する。 Next, with reference to the flowchart shown in FIG. 31 and FIGS. 28 and 29, the determination process of the photographing enabled state in steps S88 and S89 in FIG. 30 will be described.
まず、ステップS101にて、顔の輪郭領域42からの相対位置領域として、両瞳が必ず存在するであろう領域43を算出し、この算出した領域43の中から瞳と同形状の部位、たとえば、黒くて丸い形状の部位を抽出する。
領域43は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
First, in step S101, a
The
次に、ステップS102にて、ステップS101で抽出された黒くて丸い形状の部位それぞれに対し、あらかじめ登録された瞳標本と比較し、それぞれの類似度合が規定値を超えている部位の中で最も高い部位を抽出する。瞳は2箇所あるため、瞳標本は左右の瞳分用意されており、上記判定を左右の瞳の両標本との比較により行い、左瞳部位44、右瞳部位45の座標を抽出する。
Next, in step S102, each of the black and round parts extracted in step S101 is compared with a pupil sample registered in advance, and the degree of similarity of each part exceeds the specified value. Extract high parts. Since there are two pupils, left and right pupil samples are prepared, and the above determination is performed by comparing the left and right pupil samples, and the coordinates of the
次に、ステップS103にて、ステップS102で抽出された左瞳部位44、右瞳部位45の各中心位置からの相対位置領域として、口が必ず存在するであろう領域47を算出し、この算出した領域47の中から唇と同様の赤色系の画素を持つ部位を抽出する。
領域47たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する唇を含む領域を求めて平均化した値に基づいて算出したものである。
Next, in step S103, a region 47 where the mouth is sure to exist is calculated as a relative position region from the center positions of the
The area 47 is calculated based on a value obtained by calculating and averaging an area including the lips with respect to the center position between the left and right pupil parts in, for example, hundreds of face image data.
次に、ステップS104にて、ステップS103で抽出された部位と、あらかじめ登録された口標本とを比較し、類似度合が規定値を超えている部位の中で最も高い部位を口部位の座標48として抽出する。次に、ステップS105にて、図28の入力画像41における左側の瞳座標44の規定周辺領域50と、図29の入力画像41’における同座標の同じ大きさの領域52での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef1を求める。
Next, in step S104, the part extracted in step S103 is compared with the mouth sample registered in advance, and the highest part among the parts having a degree of similarity exceeding a specified value is determined as the coordinate 48 of the mouth part. Extract as Next, in step S105, between the pixels in the prescribed
次に、ステップS106にて、図28の入力画像41における右側の瞳座標45の規定周辺領域51と、図29の入力画像41’における同座標の同じ大きさの領域53での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef2を求める。
Next, in step S106, between the pixels in the specified
次に、ステップS107にて、図28の入力画像41における口部位の座標48の規定周辺領域53と、図29の入力画像41’における同座標の同じ大きさの領域54での各画素間の輝度差絶対値を求め、その領域全体での合計値SumDef3を求める。
Next, in step S107, between each pixel in the prescribed
次に、ステップS108にて、ステップS105〜107で求めた輝度差絶対値の合計値SumDef1、SumDef2、SumDef3を、それらに対してそれぞれ設定された規定値とそれぞれ比較し、全て規定値以下か否かの判定を行う。
この判定の結果、3つの数値が全て規定値以下であれば、撮影可能状態であると判定し、3つの数値のうち1つでも規定値を超えている場合は、撮影可能状態でないと判定する。
Next, in step S108, the sum values SumDef1, SumDef2, and SumDef3 of the luminance difference absolute values obtained in steps S105 to 107 are respectively compared with specified values set for them, and are all equal to or less than the specified values. Judgment is made.
As a result of this determination, if all of the three numerical values are equal to or less than the predetermined value, it is determined that the photographing is possible, and if one of the three numerical values exceeds the predetermined value, it is determined that the photographing is not possible. .
被撮影者1の撮影準備が完了していれば、顔および顔の中の動く部位である目および口は静止しているため、上記3つの数値はそれぞれ規定値に対し低い値になる。逆に、顔が動いていれば、上記3つの数値はそれぞれ規定値に対し高い値になる。また、瞬きがあった場合は、SumDef2とSumDef3がそれぞれ規定値に対し高い値になる。会話や口が動いている場合には、SumDef3が規定値に対し高い値になる。
If the
前述したステップS86での規定時間とは、被撮影者1が撮影準備ができていないために挙動があった場合、上記3つの数値を充分に数値化できるようにするための動き監視時間である。
したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影する際、被撮影者の撮影準備状態(撮影可能状態)は操作者(撮影者)が判定し、撮影を行っていた。
The specified time in step S86 described above is a motion monitoring time for allowing the above three numerical values to be sufficiently quantified when the
Therefore, in the conventional face image photographing device, when photographing the subject, the operator (photographer) determines the photographing preparation state (photographable state) of the subject and the photographing is performed.
ところが、たとえば、撮影サイクルが数秒程度と早い揚合、操作者(撮影者)は、撮影装置の操作を行いながら、被撮影者の様子を観察する必要があるため、操作者(撮影者)の負荷が大きく、さらに、操作を誤まる確立も高くなる。 However, for example, the shooting cycle is as fast as a few seconds, and the operator (photographer) needs to observe the state of the subject while operating the imaging device. The load is large, and the probability of misoperation is high.
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。 In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.
これに対して、上述した第3の実施形態によれば、上記欠点を回避し、被撮影者を連続的に撮影した複数の画像にて目および口を監視することにより、被撮影者の撮影可能状態を認識することによって、人間系の判定などを伴うことなく、自動的に被撮影者の撮影可能状態を認識し、自動的に撮影を行うことができる。 On the other hand, according to the above-described third embodiment, the above-described drawbacks are avoided, and the eyes and mouth are monitored by a plurality of images obtained by continuously capturing the image of the image-captured person. By recognizing the possible state, it is possible to automatically recognize the photographable state of the person to be photographed without automatically determining the human system, and automatically perform photographing.
なお、前記実施の形態では、取込まれた複数の画像にて被撮影者の顔の中の目および口の状態を監視することにより被撮影者が撮影可能状態であるかを認識する場合について説明したが、本発明はこれに限定されるものでなく、顔の中の目、口および鼻の状態を監視することにより被撮影者が撮影可能状態であるかを認識するようにしてもよい。 In the above embodiment, a case where it is recognized whether the subject is ready to shoot by monitoring the state of the eyes and mouth in the face of the subject with a plurality of captured images. Although described above, the present invention is not limited to this, and it is possible to recognize whether the subject is ready to shoot by monitoring the state of eyes, mouth and nose in the face. .
(第4の実施の形態)
次に、第4の実施の形態として、撮影した画像に基づいて、被撮影者1の瞳の状態を認識し、瞳が正常に開いているかを判定する実施の形態について説明する。この実施の形態は、撮影後の処理に対するものである。なお、第2の実施の形態における顔の輪郭領域の算出などが同様に行われるようになっている。
(Fourth embodiment)
Next, as a fourth embodiment, an embodiment will be described in which the state of the pupil of the person to be photographed 1 is recognized based on a photographed image and it is determined whether the pupil is normally open. This embodiment is for processing after photographing. It should be noted that the calculation of the face contour area in the second embodiment is performed in the same manner.
図32は、カメラ3からの入力画像(顔画像)61と、その入力画像61中の顔の輪郭位置62からの相対位置である瞳(目)の概略位置領域63を特定し、この概略位置領域63から両瞳の位置領域64、65を抽出する様子を示したものである。
FIG. 32 identifies an input image (face image) 61 from the
以下、図33に示すフローチャートおよび図32を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 33 and FIG. The processing described below is mainly executed under the control of the
まず、ステップS111にて、リトライ回数やその他のデータの初期化を行い、ステップS112に進む。ステップS112では、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)61を取込み、CPU部23内のメインメモリ23bに一時格納し、ステップS113に進む。ステップS113では、メインメモリ23b内の入力画像61から、髪形まで含めた顔の輪郭位置62を検出し、ステップS114に進む。
First, in step S111, the number of retries and other data are initialized, and the process proceeds to step S112. In step S112, an input image (face image) 61 from the
ステップS114では、検出した顔の輪郭位置62が、あらかじめ設定される規定の範囲内か否かをチェックし、規定の範囲内でなかった場合、ステップS115に進んでエラー処理を行い、初期状態に戻る。
In step S114, it is checked whether or not the detected
また、ステップS114で、規定の範囲内であった場合、ステップS116に進む。ステップS116では、顔の輪郭位置62から、その相対位置である瞳(目)の概略位置領域63を算出し、この概略位置領域63から、瞳と同形状の丸い形状をした位置領域(64、65)を抽出し、ステップS117に進む。
概略位置領域63は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
If it is within the specified range in step S114, the process proceeds to step S116. In step S116, the
The
ステップS117では、抽出した丸い形状をした位置領域の数が、あらかじめ設定される規定数(2個)以上あるか否かをチェックし、規定数に満たない場合は、瞳が正常に開いていないと判定し、ステップS118に進む。ステップS118では、あらかじめ設定される規定時間(約0.1秒程度)待機した後、ステップS119に進む。 In step S117, it is checked whether or not the number of extracted round-shaped position areas is equal to or larger than a predetermined number (2) set in advance. If the number is not the predetermined number, the pupil is not normally opened. And the process proceeds to step S118. In step S118, after waiting for a predetermined time (about 0.1 second) set in advance, the process proceeds to step S119.
ステップS119では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS120に進む。ステップS120では、リトライ回数をインクリメントし、ステップS112に戻る。すなわち、リトライ回数が規定回数内であれば、規定時間(約0.1秒程度)待ち、リトライとして再度、顔画像を入力させるためにステップS112に戻る。
ステップS119のチェックで、規定値以上であればステップS121に進んでエラー処理を行い、初期状態に戻る。
In step S119, it is checked whether or not the number of retries is within a predetermined value set in advance, and if it is within the predetermined value, the process proceeds to step S120. In step S120, the number of retries is incremented, and the process returns to step S112. That is, if the number of retries is within the specified number, the process waits for a specified time (about 0.1 second) and returns to step S112 to input the face image again as a retry.
If it is determined in step S119 that the value is equal to or greater than the specified value, the process proceeds to step S121 to perform error processing and return to the initial state.
ステップS117のチェックで、規定数を満たした場合は、瞳が正常に開いているものと判定し、ステップS122に進む。ステップS122では、抽出したそれぞれの位置領域64、65周辺の形状と、CPU部23内のメインメモリ23bにあらかじめ記憶されている瞳の標本データとを比較し、類似度合いが最も高い抽出部位を左右瞳分抽出し、ステップS123に進む。
If the prescribed number is satisfied in the check in step S117, it is determined that the pupil is normally open, and the process proceeds to step S122. In step S122, the extracted shape around the
ステップS123では、ステップS122で抽出した最も類似している部位の類似度合いが、あらかじめ設定される閾値以上か否かをチェックし、閾値以下であれば、ステップS119に進み、前述同様のリトライ処理を行う。上記チェックの結果、閾値以上であれば、正常に開いている瞳位置と判定し、ステップS124に進む。
この場合、瞳は2箇所あるため、標本データは左右の瞳分用意されており、上記判定を左右瞳の両標本データとの比較により行い、左右両瞳の状態を認識する。
In step S123, it is checked whether or not the similarity degree of the most similar part extracted in step S122 is equal to or higher than a preset threshold value. If it is equal to or lower than the threshold value, the process proceeds to step S119, and the retry process similar to the above is performed. Do. If the result of the check is greater than or equal to the threshold value, the pupil position is determined to be normally open, and the process proceeds to step S124.
In this case, since there are two pupils, sample data is prepared for the left and right pupils, and the above determination is made by comparing with both sample data of the left and right pupils to recognize the state of both the left and right pupils.
ステップS124では、ステップS112で取込んだ入力画像を出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部23に接続された画像印刷装置31、あるいは、ネットワークアダプタ33からネットワーク32上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク32上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部23内のメインメモリ23bあるいは大容量記憶媒体25や可搬性のある記憶媒体26を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで全ての処理が終了する。
なお、顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
In step S124, the input image captured in step S112 is converted for output, and together with other personal information of the
Whether the face image is printed out or saved is selected according to the purpose, and the method of outputting the face image is arbitrary.
ところで、被撮影者1を撮影した際、瞬きまたは目つぶりがあった場合、ステップS116、S117の処理にて判定し、リトライ処理を行いつつ、瞳が開くのを待つ処理を行う。
By the way, when the
また、被撮影者1が、瞳は開いているが、よそ見その他の正面をしっかり向いていないような、正常に開いた瞳ではない場合、ステップS122、S123の処理にて判定し、正常に開いた瞳になるのを待つ。また、ステップS122、S123の処理は、ステップS116、S117の処理にて誤判定したものに対しての補正処理としても動作する。
If the
さらに、ステップS122、S123の処理は、ステップS116、S117の処理では判定できない不正常な開きすぎの瞳(びっくり目)に対しても作用し、リトライ処理を行う。 Furthermore, the processing in steps S122 and S123 also acts on an abnormally open pupil (surprised eye) that cannot be determined by the processing in steps S116 and S117, and performs retry processing.
したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影した際、瞳(目)が開いた状態かどうかを人間系にて判定し、目つぶりなどの出力写真として適さない画像であった場合には、撮り直しなどの処置を行っていた。 Therefore, in the conventional face image photographing device, when the subject is photographed, the human system determines whether or not the pupil (eyes) is open, and the image is not suitable as an output photograph such as blinking eyes. If there were, they were taking measures such as re-taking.
ところが、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行なった場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
However, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the shooting apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of an erroneous determination and printing it out, it is necessary to recall the imaged person who is not already there and take the image again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.
これに対して、上述した第4の実施の形態によれば、上記欠点を回避し、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る顔画像撮影方法および顔画像撮影装置を提供することを目的とする。
上記したように、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る。
On the other hand, according to the above-described fourth embodiment, the above-described drawbacks are avoided, images that are not suitable as output photographs such as blinking are automatically excluded, and a facial image that can always output the best image. An object is to provide a photographing method and a face image photographing device.
As described above, images that are not suitable as output photographs such as blinking are automatically excluded, and the best image can always be output.
(第5の実施の形態)
次に、第5の実施の形態として、複数フレームの連続した何コマかの画像データを記憶し、この記憶した画像から1つの画像を撮影結果として選択する実施の形態について説明する。
(Fifth embodiment)
Next, as a fifth embodiment, a description will be given of an embodiment in which several consecutive frames of image data of a plurality of frames are stored, and one image is selected as a photographing result from the stored images.
図34は、カメラ3からの入力画像(顔画像)71と、その入力画像71中の顔の輪郭位置72からの相対位置である瞳(目)の概略位置領域73を特定し、この概略位置領域73から両瞳の位置領域74、75を抽出し、この両瞳の位置領域74、75の中心位置(座標)76からの相対位置により画像切出し領域77を決定する様子を示したものである。
FIG. 34 specifies an input image (face image) 71 from the
以下、図35、図36に示すフローチャートおよび図34を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. 35 and 36 and FIG. The processing described below is mainly executed under the control of the
本装置の撮影処理は、撮影者(操作者)4が被撮影者1の準備ができるのを待機し、キーボード28内の撮影ボタン28aを押下することにより開始する。
撮影処理の開始により、まず、ステップS131にて、リトライ回数、フレーム番号、その他のデータの初期化を行い、ステップS132に進む。ステップS132では、画像取込み処理の開始指令を出力し、ステップS133、S135に進む。ステップS133では、画像取込み処理の開始指令が出力されていることを確認し、ステップS134に進む。
The photographing process of this apparatus is started by waiting for the photographer (operator) 4 to be ready for the photographed
First, in step S131, the number of retries, the frame number, and other data are initialized, and the process proceeds to step S132. In step S132, an image capture start command is output, and the process proceeds to steps S133 and S135. In step S133, it is confirmed that a start instruction for image capture processing has been output, and the process proceeds to step S134.
ステップS134では、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)71を、フレーム番号「0」から「n」まで連続して取込み、複数フレームの連続画像(動画像)としてCPU部23内のワークメモリとしてのメインメモリ23bに一時格納する。この取込処理は、画像取込処理開始指令が出力されている間、行われる。すなわち、フレーム番号「0」から「n」までの画像を取込むと、画像取込処理開始指令の出力が停止される。
In step S134, the input image (face image) 71 from the
一方、ステップS135では、上記ステップS133、S134の処理と並行して、該当フレーム番号(たとえば、フレーム番号「0」、ステップS131にて初期設定される)の画像の取込みが完了するのを待機し、取込みが完了するとステップS136に進む。ステップS136では、CPU部23内のメインメモリ23bに格納されたフレーム番号「0」の入力画像71から、髪形まで含めた顔の輪郭位置72を検出し、ステップS137に進む。
On the other hand, in step S135, in parallel with the processing in steps S133 and S134, the process waits for the completion of capturing of the image of the corresponding frame number (for example, frame number “0”, which is initially set in step S131). When the capture is completed, the process proceeds to step S136. In step S136, the
ステップS137では、検出した顔の輪郭位置72が、あらかじめ設定される規定の範囲内か否かをチェックし、規定の範囲内でなかった場合、ステップS138に進んでエラー処理を行い、初期状態に戻る。規定の範囲内であった場合、ステップS139に進む。ステップS139では、顔の輪郭位置72から、その相対位置である瞳(目)の概略位置領域73を算出し、この概略位置領域73から、両瞳と同形状の丸い形状をした位置領域74、75を抽出し、ステップS140に進む。
上記領域73は、たとえば何百人かの顔画像データにおける顔の輪郭領域に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
In step S137, it is checked whether or not the detected
The area 73 is calculated on the basis of a value obtained by obtaining an area where both pupils are always present with respect to the face outline area in hundreds of face image data, for example.
ステップS140では、抽出した丸い形状をした位置領域74、75の画像(瞳)が印刷出力に適した状態にあるか否かをチェックし、もしその画像が瞬きや目つぶりなどの印刷出力に適さない状態であった場合、ステップS141に進む。
In step S140, it is checked whether or not the extracted images (pupils) of the round-shaped
ステップS141では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS142に進む。ステップS142では、リトライ回数およびフレーム番号をそれぞれインクリメントし、ステップS135に戻る。すなわち、リトライ回数が規定回数内であれば、ステップS135に戻り、次のフレーム番号「1」の画像にてリトライを行うものである。
ステップS11のチェックで、リトライ回数が規定値以上であればステップS143に進んでエラー処理を行い、初期状態に戻る。
In step S141, it is checked whether or not the number of retries is within a preset specified value. If it is within the specified value, the process proceeds to step S142. In step S142, the number of retries and the frame number are incremented, and the process returns to step S135. That is, if the number of retries is within the specified number, the process returns to step S135 to retry with the next frame number “1” image.
If it is determined in step S11 that the number of retries is equal to or greater than the specified value, the process proceeds to step S143 to perform error processing, and the process returns to the initial state.
ステップS140のチェックで、画像に瞬きや目つぶりなどがなく、印刷出力に適した状態にあった場合、ステップS144に進む。ステップS144では、ステップS139で抽出した両瞳の位置領域74、75から、その位置領域74、75間の中心位置(座標)76を算出し、その中心位置76からの相対位置により画像切出し領域77を決定し、その画像切出し領域77内の画像を入力画像から切出し、ステップS145に進む。
この領域77は、たとえば何百人かの顔画像データにおける左右両方の瞳部位間の中心位置に対する画像切出し領域を求めて平均化した値に基づいて算出したものである。
If it is determined in step S140 that there is no blink or blinking in the image and the image is suitable for print output, the process proceeds to step S144. In step S144, a center position (coordinates) 76 between the
This
ステップS145では、ステップS144で切り出した画像を、被撮影者1のその他の個人情報とともに、目的に応じ、LANカード33からネットワーク32上に接続された図示しない印刷部において記録媒体(用紙、カード)に印刷出力したり、同ネットワーク32上に接続された図示しないファイリング機器等の保存装置に出力したり、CPU23a内のメインメモリ23bまたはハードディスクなどの大容量記憶媒体25や可搬性のある記憶媒体26に保存出力し、ステップS146に進む。ステップ146では、フレーム番号「n」の画像の取り込みが終了するのを待機し、取り込みが終了するとステップS147に進む。
In step S145, the image cut out in step S144 is recorded on a recording medium (paper, card) in a printing unit (not shown) connected to the
ステップS147では、CPU部23内のメインメモリ23bに一時格納されているnフレーム分の連続画像をバックアップ画像として大容量記憶媒体25に保存し、処理を終了する。
In step S147, the n frames of continuous images temporarily stored in the
ステップS145における印刷出力の結果にて、たとえば、被撮影者1が口を開いていた、横を向いていた、ステップS139、S140の処理にて誤判定したことなどが原因で証明用写真として適さない画像であると撮影者4が判断した場合、バックアップしてあるnフレーム分の連続画像から適合する画像を選択し、再度出力する。以下、それについて図37に示すフローチャートを参照して詳細に説明する。
Based on the result of the print output in step S145, for example, the photographed
まず、ステップS151において、撮影者4は、撮影時に登録した再出力対称の照会番号をキーボード28から入力することにより、ステップS152に進み、その照会番号に対応するバックアップ画像を大容量記憶媒体25内から検索する。この検索により、該当する画像が存在しなければ(S153)、ステップS154に進み、該当番号の画像がない旨のメッセージを表示器5に表示し、処理を終了する。
First, in step S151, the
上記検索により、該当する画像が存在した場合(S153)、ステップS155に進み、該当するバックアップ画像の全てのフレームを読出して表示器5に表示し、ステップS156に進む。ステップS156では、表示器5に表示された全フレームの画像の中から、撮影者4が、証明用写真に適した画像を選択し、そのフレーム番号をキーボード28から入力することにより、ステップS157に進む。
If there is a corresponding image as a result of the search (S153), the process proceeds to step S155, all the frames of the corresponding backup image are read and displayed on the display 5, and the process proceeds to step S156. In step S156, the
ステップS157では、キーボード28から入力されたフレーム番号に対応した画像を大容量記憶媒体25内から検索して読出し、この読出した画像をステップS15と同様な処理にて印刷出力し、再出力処理を終了する。
In step S157, an image corresponding to the frame number input from the
したがって、従来の顔画像撮影装置にあっては、被撮影者を撮影した際、正常な画像かどうかを人間系にて判定し、目つぶりなどの出力写真として適さない画像であった場合には、撮り直しなどの処置を行っていた。 Therefore, in the conventional face image photographing device, when the subject is photographed, it is determined by the human system whether or not the image is normal, and if the image is not suitable as an output photograph such as blinking , I was taking measures such as re-taking.
ところが、撮影サイクルが数秒程度と早い場合、上記人間系の判定では、撮影時の撮影装置の操作者(撮影者)の負荷が大きく、さらに判定を誤まる確立も高くなる。
特に、判定を誤まって撮影して、印刷出力した後、誤まった判定を行った場合、既にその場にはいない被撮影者を呼び戻し、再度撮影しなければならない。また、印刷出力するに伴なう出力媒体(用紙など)の費用が無駄に浪費されるという問題がある。
However, when the shooting cycle is as fast as several seconds, the human system determination has a heavy load on the operator (photographer) of the shooting apparatus at the time of shooting, and the probability of erroneous determination is high.
In particular, if an erroneous determination is made after taking an image of a wrong judgment and printing it out, then the subject who is not already there must be recalled and taken again. In addition, there is a problem that the cost of an output medium (such as paper) accompanying printing output is wasted.
これに対して、上述した第5の実施の形態によれば、上記欠点を回避し、不良画像撮影を行ったとしても、被撮影者を再び呼び戻して再度撮影することなく、良品の画像を再出力することができる。 On the other hand, according to the above-described fifth embodiment, even if the above-mentioned drawbacks are avoided and defective image shooting is performed, a non-defective image can be reproduced again without recalling the photographed person and shooting again. Can be output.
なお、上述した再出力処理プログラムは、本装置内にある場合を想定して説明したが、本装置とネットワークアダプタ33を介して、同一ネットワーク32上に接続された再出力処理専用の端末装置に設けられていてもよい。
The above-described re-output processing program has been described on the assumption that the re-output processing program is in the present apparatus. However, the re-output process program is connected to the re-output process dedicated terminal device connected to the
また、大容量記憶媒体25にバックアップ記憶したnフレーム分の連続画像は、たとえば、別途同一ネットワーク上に配備された証明用写真発行管理システムから、発行完了の情報を得ることにより消去されるようになっている。
The n frames of continuous images stored in backup in the large-
(第6の実施の形態)
次に、第6の実施の形態として、撮影された画像データにおける基準位置としての眉間の位置をクリックするのに基づいて、顔画像を抽出する実施の形態について説明する。
(Sixth embodiment)
Next, as a sixth embodiment, an embodiment in which a face image is extracted based on clicking a position between eyebrows as a reference position in photographed image data will be described.
図38は、カメラ3からの入力画像(顔画像)81と、その入力画像81中の顔の中心としての眉間83の座標を基準に、瞳が存在するであろう領域82を抽出し、かつ出力写真サイズの画像領域84を抽出する様子を示したものである。
FIG. 38 extracts an
以下、図39、図40、図41に示すフローチャートおよび図38を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
The processing operation of this apparatus will be described below with reference to the flowcharts shown in FIGS. 39, 40, and 41 and FIG. The processing described below is mainly executed under the control of the
この実施例では、撮影ボタン28aの変わりに、表示画像中の顔の眉間部分をクリックすると撮影するという処理について説明する。
まず、ステップS161にて、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)81を取込み、ステップS162に進む。ステップS162では、その入力画像81がビデオアクセラレート部22を経由し、表示器5により表示され、ステップS163に進む。ステップS163では、マウス29からクリックがあったかどうかを判定し、クリックがなかったと判定した場合、再びステップS1に戻る。すなわち、クリックがなかった場合は動画に近い状態で表示器5の表示が行われる。
In this embodiment, a description will be given of a process of shooting when a portion between the eyebrows of the face in the display image is clicked instead of the
First, in step S161, an input image (face image) 81 from the
上記ステップS163でクリックがあったと判定した場合、図40で説明する判定処理(S164)および図41で説明する画像出力処理(S165)を行い、ステップS161に戻る。
上記ステップS164は、マウス29によるクリックがあった場合に、目つぶり等のない画像かどうか判定する処理であり、図40を参照しつつ説明する。
When it is determined in step S163 that there is a click, the determination process (S164) described in FIG. 40 and the image output process (S165) described in FIG. 41 are performed, and the process returns to step S161.
Step S164 is processing for determining whether or not the image has no blinking when the
まず、ステップS171にて、リトライ回数やその他のデータの初期化を行い、ステップS172に進む。ステップS172では、上記カメラ3から取込んだ入力画像81はCPU部23内のメインメモリ23bにおける(リトライ回数に相当するバッファ番号)に一時格納され、ステップS173に進む。
First, in step S171, the number of retries and other data are initialized, and the process proceeds to step S172. In step S172, the
ステップS173では、上記N番目の画像バッファにおける画像上のマウス29でクリックされた眉間の座標83を基準に、瞳が存在するであろう領域82を算出し、ステップS174に進む。つまり、眉間の位置の座標83から、その相対位置である瞳(目)の概略位置領域82を算出する。ステップS174では、領域82中から、瞳と同形状の丸い形状をした位置領域(84、85)を抽出し、ステップS175に進む。
上記領域82は、たとえば何百人かの顔画像データにおける眉間の位置の座標に対する両瞳が必ず存在する領域を求めて平均化した値に基づいて算出したものである。
In step S173, a
The
ステップS175では、抽出した丸い形状をした位置領域の数が、あらかじめ設定される規定数(2個)以上あるか否かをチェックし、規定数に満たない場合は、瞳が正常に開いていない(被撮影者1を撮影した際に瞬きまたは目つぶりであった)と判定し、ステップS176に進む。 In step S175, it is checked whether or not the number of extracted round-shaped position areas is equal to or larger than a predetermined number (2) set in advance. If the number is not the predetermined number, the pupil is not normally opened. It is determined that the subject 1 was blinking or blinking when the subject 1 was photographed, and the process proceeds to step S176.
ステップS176では、リトライ回数があらかじめ設定される規定値以内か否かをチェックし、規定値以内であればステップS177に進む。ステップS177では、あらかじめ設定される規定時間(約0.1秒程度)待機した後、ステップS178に進む。 In step S176, it is checked whether or not the number of retries is within a predetermined value set in advance, and if it is within the predetermined value, the process proceeds to step S177. In step S177, after waiting for a predetermined time (about 0.1 second) set in advance, the process proceeds to step S178.
ステップS178では、リトライ回数をインクリメントし、ステップS172に戻る。すなわち、リトライ回数が規定回数内であれば、規定時間(約0.1秒程度)待ち、リトライとして再度、顔画像を入力させるためにステップS172に戻る。 In step S178, the number of retries is incremented, and the process returns to step S172. That is, if the number of retries is within the specified number of times, the process waits for a specified time (about 0.1 second) and returns to step S172 to input the face image again as a retry.
これにより、もし被撮影者1を撮影した際、瞬きまたは目つぶりであった場合、ステップS175の処理にて判定し、リトライを行いつつ、目が開くのを待つことを行う。
もし被撮影者が、目は開いているがよそ見その他の正面をしっかり向いていないような、正常に開いた目ではない場合は、ステップS177の処理にて判定し、正常に開いた目になるのを待つ。またステップS177の処理はステップS175の処理にて誤判定したものに対しての補正処理としても動作する。
Thereby, when the
If the subject is not a normally open eye that has eyes open but is not looking away or looking forward, the determination in step S177 is made and the eyes are normally open. Wait for Further, the process of step S177 also operates as a correction process for those erroneously determined in the process of step S175.
また、ステップS177の処理は、ステップS175の処理では判定できない不正常な開きすぎの目(びっくり目)に対しても作用し、リトライ処理を行う。
ステップS176のチェックで、規定値以上であればステップS177に進んでエラー処理を行い、初期状態に戻る。
Further, the process of step S177 also acts on abnormally open eyes (surprised eyes) that cannot be determined by the process of step S175, and performs a retry process.
If it is determined in step S176 that the value is equal to or greater than the specified value, the process proceeds to step S177 to perform error processing, and the process returns to the initial state.
ステップS175のチェックで、規定数を満たした場合は、瞳が正常に開いているものと判定し、ステップS178に進む。ステップS178では、抽出したそれぞれの位置領域84、85周辺の形状と、CPU部23内のメインメモリ23bの上記N番目の画像バッファにあらかじめ記憶されている瞳の標本データとを比較し、類似度合いが最も高い抽出部位を左右瞳分抽出し、ステップS179に進む。
If the prescribed number is satisfied in the check in step S175, it is determined that the pupil is normally open, and the process proceeds to step S178. In step S178, the extracted shapes around the
ステップS179では、ステップS178で抽出した最も類似している部位の類似度合いが、あらかじめ設定される閾値以上か否かをチェックし、閾値以下であれば、ステップS176に進み、前述同様のリトライ処理を行う。上記チェックの結果、閾値以上であれば、正常に開いている瞳位置と判定し、ステップS165の画像出力処理に進む。
この場合、瞳は2箇所あるため、標本データは左右の瞳分用意されており、上記判定を左右瞳の両標本データとの比較により行い、左右両瞳の状態を認識する。
In step S179, it is checked whether or not the similarity degree of the most similar part extracted in step S178 is equal to or higher than a preset threshold value. If it is equal to or lower than the threshold value, the process proceeds to step S176, and the retry process similar to that described above is performed. Do. As a result of the check, if it is equal to or greater than the threshold value, it is determined that the pupil position is normally open, and the process proceeds to image output processing in step S165.
In this case, since there are two pupils, sample data is prepared for the left and right pupils, and the above determination is made by comparing with both sample data of the left and right pupils to recognize the state of both the left and right pupils.
次に、上記判定処理後の上記ステップ165の画像出力処理を、図41に示すフローチャートを参照しつつ説明する。
Next, the image output processing in
まず、ステップS181では、直前の判定処理結果がエラーかどうか判定する。この判定の結果、エラーの場合、バッファ番号を「0」、すなわち、撮影のクリックが行われたタイミングにもっとも近い画像を記録している画像バッファを選択し(ステップ182)、ステップS183に進む。
また、上記ステップS181で、直前の判定処理がエラーでないと判定した場合、現在登録しているバッファ番号の画像バッファを選択し、ステップS183に進む。
First, in step S181, it is determined whether the immediately preceding determination processing result is an error. If the result of this determination is that there is an error, the buffer number is “0”, that is, the image buffer that records the image closest to the timing at which the shooting was clicked is selected (step 182), and processing proceeds to step S183.
If it is determined in step S181 that the immediately preceding determination process is not an error, the image buffer having the currently registered buffer number is selected, and the process proceeds to step S183.
ステップS183では、ステップS181あるいはS182で選択した画像バッファの画像に対し、クリックされた座標を基準に出力サイズの画像領域84を切り出し、ステップS184に進む。
In step S183, an
ステップS184では、切り出した画像に対し、必要であれば圧縮処理をし、大容量記憶媒体25や、可搬性の記憶媒体26に確保したり、ネットワークアダプタ33を経由し、ネットワーク32上の図示しない印刷機やファイリング機器に出力する。
この実施の形態では、ポインティングデバイスとしてマウスを使用しているが、タッチパネルにより画面を直接クリックする方法もある。
In step S184, if necessary, the clipped image is compressed and secured in the large-
In this embodiment, a mouse is used as a pointing device, but there is also a method of directly clicking the screen with a touch panel.
したがって、従来の顔画像撮影装置にあっては、画像を撮影してから出力されるまでの工程は、撮影ボタン押下、顔が含まれる広範囲の画像取り込み、その画像を保存媒体に確保、確保した画像中の顔周辺をトリミングし、切り出した部分を出力する。
このため、撮影の操作工程が長く複雑で、撮影してから出力するまでに時間がかかっている。
Therefore, in the conventional face image photographing device, the steps from photographing an image to outputting are assured and secured in the storage medium by pressing the photographing button, capturing a wide range of images including the face. Trim around the face in the image and output the clipped part.
For this reason, the shooting operation process is long and complicated, and it takes a long time to output after shooting.
これに対して、上述した第6の実施形態によれば、上記欠点を回避し、、被撮影者の少なくとも顔画像を撮影した際、撮影画像をトリミングするという複雑な操作を必要とすることなく、直接表示画面上の顔の位置を示すことにより、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る。 On the other hand, according to the above-described sixth embodiment, it is possible to avoid the above-described drawbacks and to perform a complicated operation of trimming a captured image when capturing at least a face image of the subject. By directly indicating the position of the face on the display screen, an image that is not suitable as an output photograph such as blinking can be automatically excluded, and the best image can always be output.
(第7の実施の形態)
次に、第7の実施の形態として、撮影された画像データをモニタ表示し、このモニタ表示に基づいて画像の取込みが指示された際に、この指示の直前にモニタ表示されていた画像を採用する実施の形態について説明する。
(Seventh embodiment)
Next, as a seventh embodiment, the captured image data is displayed on the monitor, and when the image capture is instructed based on the monitor display, the image displayed on the monitor immediately before this instruction is adopted. An embodiment to be described will be described.
図42は、カメラ3からの入力画像(顔画像)91を示したものである。
以下、図43に示すフローチャートおよび図33を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部23内のCPU23aの制御によって実行される。
FIG. 42 shows an input image (face image) 91 from the
The processing operation of this apparatus will be described below with reference to the flowchart shown in FIG. 43 and FIG. The processing described below is mainly executed under the control of the
この実施例では、撮影ボタン28aの押下に基づいて、この押下時の直前のモニタ画像を出力するという処理について説明する。
まず、ステップS191にて、ビデオキャプチャ部21を介してカメラ3からの入力画像(顔画像)91を取込み、その入力画像81がビデオアクセラレート部22を経由し、CPU部23のメインメモリ23aのバッファ部に記録し、ステップS192に進む。ステップS192では、その入力画像81が表示器5により表示され、ステップS193に進む。ステップS193では、キーボード28の撮影ボタン28aの押下を判定し、撮影ボタン28aの押下がなかったと判定した場合、再びS191に戻る。すなわち、撮影ボタン28aの押下がなかった場合は動画に近い状態で表示器5の表示が行われる。また、メインメモリ23aのバッファ部に現在の撮影画像より以前の画像が記録されている。
In this embodiment, a process of outputting a monitor image immediately before the depression based on the depression of the photographing
First, in step S191, an input image (face image) 91 from the
上記ステップS193で撮影ボタン28aの押下があったと判定した場合、上記バッファ部に記憶されている上記撮影ボタン28aの押下が行われる際に表示器5で表示されていた画像が撮影画像として判定する(ステップS194)。この撮影画像と判定した画像を、大容量記憶媒体25や、可搬性の記憶媒体26に確保したり、ネットワークアダプタ33を経由し、ネットワーク32上の図示しない印刷機やファイリング機器に出力する(ステップS195)。
When it is determined in step S193 that the
したがって、従来の顔画像撮影装置にあっては、撮影画像のモニタを見ながら、撮影画像が適性と判断しされた時、撮影ボタンを押し、撮影ボタンを押された信号(タイミング)にて画像を取りこみ、取りこんだ画像を撮影画像としている。 Therefore, in the conventional face image photographing device, when the photographed image is determined to be appropriate while looking at the monitor of the photographed image, the photograph button is pressed, and the image is determined by the signal (timing) when the photograph button is pressed. The captured image is taken as the captured image.
このような従来の方法では、適正な画像と判断したモニタの画像と、撮影画像として取りこんだ画像の間には、撮影ボタンを押すのにかかる時間、画像を取り込むための要した時間等の時間的なずれが生じ、適性と判断した画像とは時間的に遅れた、異なる画像を取り込む結果となっている。このため、判断した適正な画像とは大きく異なった画像となる場合があり、再度撮影をやり直す必要がある。 In such a conventional method, the time taken for pressing the shooting button, the time required for capturing the image, etc. between the monitor image determined to be an appropriate image and the image captured as the shot image As a result, a different image, which is delayed in time from the image determined to be appropriate, is captured. For this reason, there is a case where the image is significantly different from the determined appropriate image, and it is necessary to perform photographing again.
これに対して、上述した第7の実施形態によれば、上記欠点を回避し、被撮影者の少なくとも顔画像を撮影し、この撮影画像のモニタ表示を確認する際に、確認の指示がなされた直前のモニタ画面を出力することにより、常に最良の画像を出力し得る。 On the other hand, according to the seventh embodiment described above, a confirmation instruction is given when the above disadvantage is avoided, at least a face image of the subject is photographed, and the monitor display of the photographed image is confirmed. By outputting the previous monitor screen, the best image can always be output.
1…被撮影者、2…照明器、3…ビデオカメラ、4…撮影者(操作者)、5…表示器(モニタディスプレイ)、6…制御台(制御部)、9…背景板、10…スピーカ、11…確認中表示部(第2の表示部)、12…終了表示部(第3の表示部)、13…出口表示部(第4の表示部)、14…カメラ位置表示部(第1の表示部)、21…ビデオキャプチャ部、22…ビデオアクセラレート部、23…CPU部、23a…CPU、23b…メインメモリ、25…大容量記憶媒体、26…記憶媒体、27…リーダライタ部、28…キーボード、29…マウス、31…画像印刷装置(出力手段)、32…ネットワーク。
DESCRIPTION OF
Claims (2)
この画像取込手段により取込んだ複数フレームの連続画像をバックアップ画像として記憶する画像記憶手段と、
この画像記憶手段に記憶された複数フレームの連続画像内の所定フレームの画像から瞳の状態を認識し、その瞳が顔画像の印刷出力に適しているか否かを判定する第1の判定手段と、
この第1の判定手段により瞳の状態が顔画像の印刷出力に適していると判定された場合、上記所定フレームの画像を印刷出力する第1の印刷出力手段と、
上記第1の判定手段により瞳の状態が顔画像の印刷出力に適していないと判定された場合、上記画像記憶手段に記憶された複数フレームの連続画像内の上記所定フレームの画像の次のフレームの画像を用いて上記判定手段の判定処理を再度行わせるリトライ制御手段と、
このリトライ制御手段による上記リトライ処理の回数を計数し、その計数値があらかじめ設定される規定値に達したか否かを判定する第2の判定手段と、
この第2の判定手段が上記リトライ処理の回数が規定値に達したことを判定すると、エラー処理を行うエラー処理手段と、
上記第1の印刷出力手段により印刷出力された画像が適正でない場合、上記画像記憶手段に記憶された複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択する画像選択手段と、
この画像選択手段により選択された画像を印刷出力する第2の印刷出力手段と、
を具備したことを特徴とする顔画像撮影装置。 Image capturing means for capturing at least a face image of the subject and capturing as a plurality of frames of continuous images;
Image storage means for storing a continuous image of a plurality of frames captured by the image capture means as a backup image;
First determination means for recognizing a state of a pupil from images of predetermined frames in a plurality of consecutive frames stored in the image storage means and determining whether or not the pupil is suitable for printing out a face image; ,
A first print output unit that prints out the image of the predetermined frame when the first determination unit determines that the state of the pupil is suitable for the print output of the face image;
When the first determination unit determines that the pupil state is not suitable for the print output of the face image, the next frame of the image of the predetermined frame in the plurality of consecutive images stored in the image storage unit Retry control means for performing the determination process of the determination means again using the image of
A second determination unit that counts the number of times the retry process is performed by the retry control unit and determines whether or not the count value has reached a predetermined value;
When the second determination unit determines that the number of retry processes has reached a specified value, an error processing unit that performs error processing;
Image selection for selecting an image of a predetermined frame suitable for outputting a face image from a plurality of continuous images stored in the image storage means when the image printed out by the first print output means is not appropriate Means,
Second print output means for printing out the image selected by the image selection means;
A face image photographing apparatus comprising:
この取り込んだ複数フレームの連続画像をバックアップ画像として記憶するステップと、
この記憶された複数フレームの連続画像内の所定フレームの画像を、ファイリング機器等の保存装置またはその他保存媒体に保存出力するステップと、
この出力した画像が適正でない場合、上記記憶した複数フレームの連続画像内から顔画像の出力に適している所定フレームの画像を選択するステップと、
この選択した画像を出力するステップと、
を有することを特徴とする顔画像撮影方法。 Capturing at least a face image of the subject and capturing it as a continuous image of a plurality of frames;
Storing the captured multiple frames of continuous images as backup images;
A step of storing and outputting an image of a predetermined frame in the stored continuous image of a plurality of frames to a storage device such as a filing device or other storage medium;
If the output image is not appropriate, a step of selecting a predetermined frame image suitable for the output of the face image from the stored continuous image of the plurality of frames;
Outputting the selected image; and
A method for photographing a face image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009068311A JP2009175745A (en) | 1999-11-26 | 2009-03-19 | Face image photographing device and face image photographing method |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33661099 | 1999-11-26 | ||
JP33661199 | 1999-11-26 | ||
JP33660999 | 1999-11-26 | ||
JP2009068311A JP2009175745A (en) | 1999-11-26 | 2009-03-19 | Face image photographing device and face image photographing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000194740A Division JP2001215605A (en) | 1999-09-14 | 2000-06-28 | Face image photographing device, and face image photographing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009175745A true JP2009175745A (en) | 2009-08-06 |
Family
ID=41030818
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009068309A Expired - Lifetime JP4762324B2 (en) | 1999-11-26 | 2009-03-19 | Face image photographing apparatus and face image photographing method |
JP2009068311A Pending JP2009175745A (en) | 1999-11-26 | 2009-03-19 | Face image photographing device and face image photographing method |
JP2009068310A Pending JP2009175744A (en) | 1999-11-26 | 2009-03-19 | Face image photographing apparatus and face image photographing method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009068309A Expired - Lifetime JP4762324B2 (en) | 1999-11-26 | 2009-03-19 | Face image photographing apparatus and face image photographing method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009068310A Pending JP2009175744A (en) | 1999-11-26 | 2009-03-19 | Face image photographing apparatus and face image photographing method |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP4762324B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120293642A1 (en) * | 2011-05-18 | 2012-11-22 | Nextgenid, Inc. | Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
USD760711S1 (en) | 2012-05-18 | 2016-07-05 | NexgenID, Inc. | Kiosk |
USD818464S1 (en) | 2014-04-11 | 2018-05-22 | Nextgenid, Inc. | Kiosk |
US10963549B2 (en) | 2011-05-18 | 2021-03-30 | Nextgenid, Inc. | Device for collecting personal data from user |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5565041B2 (en) | 2010-03-30 | 2014-08-06 | ソニー株式会社 | Image processing apparatus and method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS615309A (en) * | 1984-06-19 | 1986-01-11 | Mitsubishi Electric Corp | Visual controller |
JPH07154736A (en) * | 1993-11-29 | 1995-06-16 | Kyocera Corp | Photographic device of picture for certificate |
JPH0983944A (en) * | 1995-09-08 | 1997-03-28 | Casio Comput Co Ltd | Picture fetching device and printer |
JPH10191216A (en) * | 1996-12-26 | 1998-07-21 | Fuji Photo Film Co Ltd | Photographing device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2541689B2 (en) * | 1990-05-21 | 1996-10-09 | 日産自動車株式会社 | Eye position detection device and subject state detection device |
JPH08160504A (en) * | 1994-12-07 | 1996-06-21 | Konica Corp | Automatic photographing device |
JPH08251475A (en) * | 1995-03-11 | 1996-09-27 | Nissan Motor Co Ltd | Open eye sensor for image pickup device |
JPH10269356A (en) * | 1997-03-26 | 1998-10-09 | Oki Electric Ind Co Ltd | Method for selecting image and its device |
-
2009
- 2009-03-19 JP JP2009068309A patent/JP4762324B2/en not_active Expired - Lifetime
- 2009-03-19 JP JP2009068311A patent/JP2009175745A/en active Pending
- 2009-03-19 JP JP2009068310A patent/JP2009175744A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS615309A (en) * | 1984-06-19 | 1986-01-11 | Mitsubishi Electric Corp | Visual controller |
JPH07154736A (en) * | 1993-11-29 | 1995-06-16 | Kyocera Corp | Photographic device of picture for certificate |
JPH0983944A (en) * | 1995-09-08 | 1997-03-28 | Casio Comput Co Ltd | Picture fetching device and printer |
JPH10191216A (en) * | 1996-12-26 | 1998-07-21 | Fuji Photo Film Co Ltd | Photographing device |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120293642A1 (en) * | 2011-05-18 | 2012-11-22 | Nextgenid, Inc. | Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
US9256719B2 (en) * | 2011-05-18 | 2016-02-09 | Nextgenid, Inc. | Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
US10963669B2 (en) | 2011-05-18 | 2021-03-30 | Nextgenid, Inc. | Device for collecting personal data from user |
US10963549B2 (en) | 2011-05-18 | 2021-03-30 | Nextgenid, Inc. | Device for collecting personal data from user |
USD760711S1 (en) | 2012-05-18 | 2016-07-05 | NexgenID, Inc. | Kiosk |
USD778276S1 (en) | 2012-05-18 | 2017-02-07 | Nextgenid, Inc. | Kiosk |
USD884692S1 (en) | 2012-05-18 | 2020-05-19 | Nextgenid, Inc. | Kiosk |
USD929394S1 (en) | 2012-05-18 | 2021-08-31 | Nextgenid, Inc. | Kiosk |
USD818464S1 (en) | 2014-04-11 | 2018-05-22 | Nextgenid, Inc. | Kiosk |
Also Published As
Publication number | Publication date |
---|---|
JP2009175744A (en) | 2009-08-06 |
JP2009181130A (en) | 2009-08-13 |
JP4762324B2 (en) | 2011-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100522514B1 (en) | Apparatus for Photographing a Face Image and Method Therefor | |
US8600191B2 (en) | Composite imaging method and system | |
US8866931B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
US8189927B2 (en) | Face categorization and annotation of a mobile phone contact list | |
JP2000113199A (en) | Method for deciding eye position | |
KR20100048600A (en) | Image photography apparatus and method for proposing composition based person | |
JP4762324B2 (en) | Face image photographing apparatus and face image photographing method | |
JP2005049854A (en) | Object decision device and imaging device | |
JP2007049631A (en) | Imaging apparatus | |
JP2002258682A (en) | Image forming device | |
JP5109779B2 (en) | Imaging device | |
JP2001215605A (en) | Face image photographing device, and face image photographing method | |
JP2004297167A (en) | Image display apparatus and image display system | |
JP4091184B2 (en) | Camera and image generation method | |
JP2007048108A (en) | Image evaluation system, image evaluation method and image evaluation program | |
CN110826487A (en) | Facial expression data acquisition method | |
JP2000292852A (en) | Face picture photographing device | |
JP2008167028A (en) | Imaging apparatus | |
JP4709812B2 (en) | Image generation method and image processing apparatus | |
JP4357951B2 (en) | Image photographing system and certification medium issuing system | |
JP2000292853A (en) | Method and device for photographing face picture | |
JP4454841B2 (en) | Face image photographing apparatus and face image photographing method | |
JP2000206591A (en) | Method and device for photographing face image | |
JP2003317036A (en) | Apparatus and method for issuing medium for certification | |
JP2001177740A (en) | Portraiture photographing method and portraiture device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110823 |