JP2006252327A - Image evaluation device, image evaluation method and image evaluation program - Google Patents

Image evaluation device, image evaluation method and image evaluation program Download PDF

Info

Publication number
JP2006252327A
JP2006252327A JP2005069878A JP2005069878A JP2006252327A JP 2006252327 A JP2006252327 A JP 2006252327A JP 2005069878 A JP2005069878 A JP 2005069878A JP 2005069878 A JP2005069878 A JP 2005069878A JP 2006252327 A JP2006252327 A JP 2006252327A
Authority
JP
Japan
Prior art keywords
image
face
evaluation value
eye
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005069878A
Other languages
Japanese (ja)
Inventor
Yoshihiro Yamaguchi
義弘 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005069878A priority Critical patent/JP2006252327A/en
Publication of JP2006252327A publication Critical patent/JP2006252327A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily select an image suitable for print without actually printing images by evaluating taken images. <P>SOLUTION: Each image In stored in a storage medium is read in S1. A face extraction part 112a extracts a face area Rn from each image In in S2. An evaluation value calculation part 112d calculates an evaluation value fn showing the sharpness of the face area Rn in S3. Whether all images stored in the storage medium 40 were read in S1 or not is determined, and if an image not read is present, the process is returned to S1 to read the image. When all images were read, the process proceeds to S5. In S5, the evaluation value fn is displayed on a display part 110 with each image In. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像処理装置、画像処理方法及び画像処理プログラムに係り、特にプリントに適した画像を評価する装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly to an apparatus, method, and program for evaluating an image suitable for printing.

従来、プリントに適した画像の選択を支援する技術が様々考案されている。例えば特許文献1によると、画像データと画像生成履歴情報との少なくとも一方を解析し、画像データに基づく画像の画質に関する画質パラメータ値を決定するとともに、画質パラメータ値に基づいて、画像データを出力対象として選択するか否かの出力対象判定を行う。
特開2004−112596号公報
Conventionally, various techniques for supporting selection of an image suitable for printing have been devised. For example, according to Patent Document 1, at least one of image data and image generation history information is analyzed to determine an image quality parameter value related to the image quality based on the image data, and image data is output based on the image quality parameter value. It is determined whether to select the output target.
JP 2004-112596 A

特許文献1の技術では、被写体の写り具合を考慮していないため、実際に被写体がプリントに適した状態で写っているとは限らない。肉眼で判定する方法もあるが、画像を表示するディスプレイの画素数や解像度が低く判別が難しい場合もある。また、ディスプレイの解像度が高くても、画像が多数縮小された状態で表示されると、判別は困難であり、結局プリントを作成してプリントを見なければならないこともある。本発明はこのような問題点に鑑みてなされたもので、撮影画像を評価することで、画像を実際にプリントすることなく、プリントに適した撮影画像の選択を容易にすることを目的とする。   The technique of Patent Document 1 does not take into consideration how the subject is reflected, and therefore, the subject is not always captured in a state suitable for printing. Although there is a method for making the determination with the naked eye, there are cases where the number of pixels and the resolution of the display for displaying the image are low and it is difficult to determine. Even if the resolution of the display is high, if a large number of images are displayed in a reduced state, it is difficult to discriminate, and it may eventually be necessary to create a print and view the print. SUMMARY An advantage of some aspects of the invention is that it is possible to easily select a photographed image suitable for printing without actually printing the image by evaluating the photographed image. .

上述の課題を解決するため、本発明に係る画像評価装置は、画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、顔領域のシャープネスを表す評価値を算出する評価値算出部と、画像とともに評価値を表示する表示部と、を備える。   In order to solve the above-described problems, an image evaluation apparatus according to the present invention includes a face extraction unit that extracts a face region including a human face portion from an image, and an evaluation value calculation unit that calculates an evaluation value representing the sharpness of the face region. And a display unit that displays the evaluation value together with the image.

この発明によると、顔領域のシャープネスを表す評価値を算出し、画像とともに評価値を表示する。このため、顔領域のシャープネスが容易に分かり、人物を被写体とした画像のうちプリントに適した画像の選択が容易になる。   According to the present invention, the evaluation value representing the sharpness of the face area is calculated, and the evaluation value is displayed together with the image. For this reason, the sharpness of the face area can be easily understood, and it becomes easy to select an image suitable for printing out of images having a person as a subject.

また、本発明に係る画像評価装置は、画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、顔領域から目の存在する目領域を検出する目領域検出部と、目領域内の目が開いているか又は閉じているかを判断する目開閉検出部と、目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出する評価値算出部と、画像とともに評価値を表示する表示部と、を備える。   An image evaluation apparatus according to the present invention includes a face extraction unit that extracts a face region including a human face from an image, an eye region detection unit that detects an eye region where an eye exists from the face region, An eye open / close detection unit that determines whether the eyes are open or closed, and an evaluation value that calculates an evaluation value based on the total number of face areas in which the eyes in the eye area are determined to be open or closed A calculation unit; and a display unit that displays an evaluation value together with the image.

この発明によると、撮影された人物がどれだけ目を開いているかを評価値から知ることができ、プリントに適した画像の選択が容易になる。   According to the present invention, it is possible to know from the evaluation value how many eyes the photographed person has opened, and it becomes easy to select an image suitable for printing.

評価値算出部は目領域内の目が開いていると判断された顔領域の総数を顔領域の総数で除した数を評価値として算出してもよい。   The evaluation value calculation unit may calculate the evaluation value by dividing the total number of face areas determined to have eyes open in the eye area by the total number of face areas.

評価値算出部は目領域内の目が閉じていると判断された顔領域の総数を顔領域の総数で除した数を評価値として算出してもよい。   The evaluation value calculation unit may calculate a value obtained by dividing the total number of face regions determined to have closed eyes in the eye region by the total number of face regions as the evaluation value.

また、本発明に係る画像評価装置は、画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、顔領域間の中心座標及び画像の中心座標を算出する座標算出部と、顔領域間の中心座標と画像の中心座標とに基づいて評価値を算出する評価値算出部と、画像とともに評価値を表示する表示部と、を備える。   An image evaluation apparatus according to the present invention includes a face extraction unit that extracts a face region including a human face from an image, a coordinate calculation unit that calculates center coordinates between the face regions and a center coordinate of the image, and a face region. An evaluation value calculation unit that calculates an evaluation value based on the central coordinates between the image and the center coordinate of the image, and a display unit that displays the evaluation value together with the image.

この発明によると、顔領域の配置のバランスを評価値から知ることができ、プリントに適した画像の選択が容易になる。   According to the present invention, the balance of the arrangement of the face area can be known from the evaluation value, and it becomes easy to select an image suitable for printing.

評価値算出部は顔領域間の中心座標と画像の中心座標との間の距離を評価値として算出するようにしてもよい。   The evaluation value calculation unit may calculate the distance between the center coordinates between the face regions and the center coordinates of the image as the evaluation value.

本発明に係る画像評価方法は、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域のシャープネスを表す評価値を算出するステップと、画像とともに評価値を表示するステップと、を含む。   The image evaluation method according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of calculating an evaluation value representing the sharpness of the face area, and a step of displaying the evaluation value together with the image. Including.

また、本発明に係る画像評価方法は、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域から目の存在する目領域を検出するステップと、目領域内の目が開いているか又は閉じているかを判断するステップと、目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出するステップと、画像とともに評価値を表示するステップと、を含む。   The image evaluation method according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of detecting an eye area where an eye exists from the face area, and an eye in the eye area is opened. A step of determining whether the eye in the eye region is open, a step of calculating an evaluation value based on the total number of face regions in which the eyes are determined to be open or closed, and displaying the evaluation value together with the image Steps.

また、本発明に係る画像評価方法は、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域間の中心座標及び画像の中心座標を算出するステップと、顔領域間の中心座標と画像の中心座標とに基づいて評価値を算出するステップと、画像とともに評価値を表示するステップと、を含む。   The image evaluation method according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of calculating center coordinates between the face areas and a center coordinate of the image, and center coordinates between the face areas. And calculating the evaluation value based on the center coordinates of the image, and displaying the evaluation value together with the image.

本発明に係る画像評価プログラムは、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域のシャープネスを表す評価値を算出するステップと、画像とともに評価値を表示するステップと、をコンピュータに実行させる。   The image evaluation program according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of calculating an evaluation value representing the sharpness of the face area, and a step of displaying the evaluation value together with the image. Let the computer run.

また、本発明に係る画像評価プログラムは、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域から目の存在する目領域を検出するステップと、目領域内の目が開いているか又は閉じているかを判断するステップと、目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出するステップと、画像とともに評価値を表示するステップと、をコンピュータに実行させる。   The image evaluation program according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of detecting an eye area where an eye exists from the face area, and an eye in the eye area is opened. A step of determining whether the eye in the eye region is open, a step of calculating an evaluation value based on the total number of face regions in which the eyes are determined to be open or closed, and displaying the evaluation value together with the image And causing the computer to execute the steps.

また、本発明に係る画像評価プログラムは、画像から人物の顔部分を含む顔領域を抽出するステップと、顔領域間の中心座標及び画像の中心座標を算出するステップと、顔領域間の中心座標と画像の中心座標とに基づいて評価値を算出するステップと、画像とともに評価値を表示するステップと、をコンピュータに実行させる。   The image evaluation program according to the present invention includes a step of extracting a face area including a human face portion from an image, a step of calculating center coordinates between the face areas and a center coordinate of the image, and center coordinates between the face areas. And a step of calculating an evaluation value based on the center coordinates of the image and a step of displaying the evaluation value together with the image.

この発明によると、顔領域のシャープネスを表す評価値を算出し、画像とともに評価値を表示する。このため、顔領域のシャープネスが容易に分かり、人物を被写体とした画像のうちプリントに適した画像の選択が容易になる。   According to the present invention, the evaluation value representing the sharpness of the face area is calculated, and the evaluation value is displayed together with the image. For this reason, the sharpness of the face area can be easily understood, and it becomes easy to select an image suitable for printing out of images having a person as a subject.

また、この発明によると、撮影された人物がどれだけ目を開いているかを評価値から知ることができ、プリントに適した画像の選択が容易になる。   Further, according to the present invention, it is possible to know from the evaluation value how many eyes the photographed person has opened, and it becomes easy to select an image suitable for printing.

また、この発明によると、顔領域の配置のバランスを評価値から知ることができ、プリントに適した画像の選択が容易になる。   Further, according to the present invention, the balance of the arrangement of the face area can be known from the evaluation value, and it becomes easy to select an image suitable for printing.

以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
図1は本発明の好ましい実施形態に係るデジタルカメラ10の機能ブロック図である。まず、同図のデジタルカメラ10において、中央処理装置(CPU)112は、レリーズスイッチ22、モードダイヤル150等を含む操作部113の各種のボタンやキーからの入力に基づいてデジタルカメラ10内の各回路を統括制御する。CPU112の実行するプログラムはEEPROM119に記憶される。
<First Embodiment>
FIG. 1 is a functional block diagram of a digital camera 10 according to a preferred embodiment of the present invention. First, in the digital camera 10 shown in FIG. 1, the central processing unit (CPU) 112 is configured to input each button in the digital camera 10 based on input from various buttons and keys of the operation unit 113 including the release switch 22, the mode dial 150, and the like. Supervises and controls the circuit. A program executed by the CPU 112 is stored in the EEPROM 119.

いま、モードダイヤル150によって静止画撮影モードが設定されると、CPU112は、動画(スルー画)を表示部110に表示させ、撮影画角を確認可能にする。即ち、撮像レンズ14を通過した光は、固体撮像素子102aに入射する。固体撮像素子102aの受光面には、フォトセンサが平面的に配列されており、該受光面に結像された被写体像は、各フォトセンサによって入射光量に応じた量の信号電荷に変換される。こうして蓄積された信号電荷は、図示せぬドライバ回路から与えられるパルス信号に基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出され、それぞれ撮像回路102bに加えられる。   Now, when the still image shooting mode is set by the mode dial 150, the CPU 112 displays a moving image (through image) on the display unit 110 so that the shooting angle of view can be confirmed. That is, the light that has passed through the imaging lens 14 enters the solid-state imaging device 102a. Photosensors are arranged in a plane on the light receiving surface of the solid-state imaging device 102a, and the subject image formed on the light receiving surface is converted into signal charges of an amount corresponding to the amount of incident light by each photosensor. . The signal charges accumulated in this way are sequentially read out as voltage signals (image signals) corresponding to the signal charges based on pulse signals given from a driver circuit (not shown), and are respectively added to the imaging circuit 102b.

撮像回路102bは、ゲイン調整回路を含み、得られた画像データは、それぞれ画像処理回路108及びハイパスフィルタ(HPF)125へ送られる。画像処理回路108は、A/D変換部108a、ホワイトバランス補正回路108b、ガンマ補正回路108c、YC処理回路108d、輝度・色差信号生成回路、シャープネス補正回路、コントラスト補正回路、撮影画像に対する輪郭補正を含む画像処理を行う輪郭処理部、画像のノイズ低減処理を行うノイズ低減処理部等を含む画像処理手段であり、CPU112からのコマンドに従って画像信号を処理する。   The imaging circuit 102b includes a gain adjustment circuit, and the obtained image data is sent to the image processing circuit 108 and the high-pass filter (HPF) 125, respectively. The image processing circuit 108 includes an A / D conversion unit 108a, a white balance correction circuit 108b, a gamma correction circuit 108c, a YC processing circuit 108d, a luminance / color difference signal generation circuit, a sharpness correction circuit, a contrast correction circuit, and contour correction for a captured image. The image processing means includes a contour processing unit that performs image processing, a noise reduction processing unit that performs image noise reduction processing, and the like, and processes an image signal in accordance with a command from the CPU 112.

画像処理回路108に入力された画像データは、輝度信号(Y信号)及び色差信号(Cr、Cl信号)に変換されるとともに、ガンマ補正等の所定の処理が施された後、VRAM132に格納される。   The image data input to the image processing circuit 108 is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cl signal) and subjected to predetermined processing such as gamma correction, and then stored in the VRAM 132. The

一方、撮像回路108のA/D変換部108aでデジタル信号に変換された画像データは、ハイパスフィルタ(HPF)125でG画素成分のみ抽出される。そして、積算処理部126で抽出されたG画素成分に積算処理が施されてCPU112に送られる。CPU112は、積算処理部126から送られた1画面分の64分割の画像データの内、十字キー81で任意に設定された被写体中心付近の4エリアの平均値を算出し、これをオートフォーカス(AF)評価値とする。AF評価値は、所定周期の経過毎に算出され、算出の度にメモリ127に更新記憶される。CPU112は、AF評価値に従って被写体の合焦を判定する。その判断方法は任意であるが、例えばAF評価値が極大点の近傍に略到達しているか否かを判断し、極大点に略達している場合は合焦していると判断し、その他の場合は合焦していないと判断する。あるいは、AF評価値が所定の閾値を超えていれば合焦していると判断することもできる。   On the other hand, the image data converted into a digital signal by the A / D conversion unit 108 a of the imaging circuit 108 is extracted only by the G pixel component by the high pass filter (HPF) 125. Then, the G pixel component extracted by the integration processor 126 is integrated and sent to the CPU 112. The CPU 112 calculates an average value of four areas in the vicinity of the center of the subject arbitrarily set with the cross key 81 out of the 64 divided image data for one screen sent from the integration processing unit 126, and auto-focus ( AF) Evaluation value. The AF evaluation value is calculated every elapse of a predetermined period, and is updated and stored in the memory 127 each time it is calculated. The CPU 112 determines the focus of the subject according to the AF evaluation value. The determination method is arbitrary. For example, it is determined whether or not the AF evaluation value has substantially reached the vicinity of the maximum point. If the AF evaluation value has substantially reached the maximum point, the AF evaluation value is determined to be in focus. In this case, it is determined that the subject is not in focus. Alternatively, if the AF evaluation value exceeds a predetermined threshold, it can be determined that the subject is in focus.

撮影画像を表示部110にモニタ出力する場合、VRAM132からYC信号が読み出され、ビデオエンコーダ134に送られる。ビデオエンコーダ134は、入力されたYC信号を表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換して表示部110に出力する。表示部110の駆動はドライバ111を介して行われる。   When the captured image is output to the display unit 110 on the monitor, the YC signal is read from the VRAM 132 and sent to the video encoder 134. The video encoder 134 converts the input YC signal into a predetermined display signal (for example, an NTSC color composite video signal) and outputs the converted signal to the display unit 110. The display unit 110 is driven via the driver 111.

所定のフレームレートで処理された各フレームのYC信号は、VRAM132のA領域とB領域とに交互に書き込まれ、VRAM132のA領域及びB領域のうち、YC信号が書き込まれている方の領域以外の領域から、書き込まれているYC信号が読み出される。このようにしてVRAM132内のYC信号が定期的に書き換えられ、そのYC信号から生成される映像信号が表示部110に供給されることにより、撮像中の映像がリアルタイムに表示部110に表示される。ユーザは、表示部110に表示される映像(スルー)によって撮影画角を確認できる。   The YC signal of each frame processed at a predetermined frame rate is alternately written in the A area and B area of the VRAM 132, and the Y area other than the area where the YC signal is written out of the A area and B area of the VRAM 132. The YC signal that has been written is read out from this area. In this way, the YC signal in the VRAM 132 is periodically rewritten, and the video signal generated from the YC signal is supplied to the display unit 110, whereby the image being captured is displayed on the display unit 110 in real time. . The user can check the shooting angle of view from the video (through) displayed on the display unit 110.

ここで、レリーズスイッチ22が半押しされると、AE及びAF処理が開始される。AE/AF処理が行われ、レリーズスイッチ22が全押しされることによって記録用の撮影動作がスタートする。レリーズスイッチ22が全押しに応動して取得された画像データは画像処理回路108において輝度/色差信号(Y/C信号)に変換され、ガンマ補正等の所定の処理が施された後、VRAM132に格納される。   Here, when the release switch 22 is half-pressed, AE and AF processes are started. AE / AF processing is performed, and when the release switch 22 is fully pressed, a recording operation is started. The image data acquired in response to the release switch 22 being fully pressed is converted into a luminance / color difference signal (Y / C signal) by the image processing circuit 108 and subjected to predetermined processing such as gamma correction, and then stored in the VRAM 132. Stored.

VRAM132に格納されたY/C信号は、圧縮伸長処理回路144によって所定のフォーマットに従って圧縮された後、メディアコントローラ146を介して記録媒体40にExif(Exchangeable Image File Format)ファイルとして記録される。画像はExifファイルのデータ部分に記録される。CPU112は上記Exifファイルのヘッダ部分の所定のタグ(Imagedescriptionタグなど)に撮影日時情報などを記録する。   The Y / C signal stored in the VRAM 132 is compressed according to a predetermined format by the compression / decompression processing circuit 144 and then recorded as an Exif (Exchangeable Image File Format) file on the recording medium 40 via the media controller 146. The image is recorded in the data part of the Exif file. The CPU 112 records shooting date / time information and the like in a predetermined tag (such as an image description tag) in the header portion of the Exif file.

CPU112には、キセノン管からなるストロボ18の発光を制御するストロボ制御回路115も接続されており、静止画撮影において、低照度であることが検出された場合や、ストロボボタンによって発光が指示された場合や、強制発光モードが設定された場合にタイミングジェネレータ120によって発生されたタイミング信号に同期したタイミングで短時間(例えば1秒以上の短時間)発光するようにストロボ18を制御する。   The CPU 112 is also connected to a strobe control circuit 115 that controls the light emission of the strobe 18 made of a xenon tube. When still light shooting is detected as having low illuminance, or the light emission is instructed by the strobe button. In this case or when the forced light emission mode is set, the flash 18 is controlled to emit light for a short time (for example, for a short time of 1 second or more) at a timing synchronized with the timing signal generated by the timing generator 120.

モードダイヤル150によって動画撮影モードが設定されたときには、レリーズスイッチ22の全押し操作に連動して動画記録動作がスタートし、もう一度レリーズスイッチ22を押下すると動画記録動作が停止する。レリーズスイッチ22を押下継続している期間、録画動作を行い、押下解除によって録画を停止するようにしてもよい。動画データは、例えばモーションJPEG(MPEG)形式によって記録媒体40に記録される。   When the moving image shooting mode is set by the mode dial 150, the moving image recording operation starts in conjunction with the full pressing operation of the release switch 22, and when the release switch 22 is pressed again, the moving image recording operation is stopped. The recording operation may be performed while the release switch 22 is continuously pressed, and the recording may be stopped by releasing the pressing. The moving image data is recorded on the recording medium 40 in, for example, a motion JPEG (MPEG) format.

モードダイヤル150により再生モードが選択されると、記録媒体40に記録されている最終の画像ファイル(最後に記録されたファイル)の圧縮データが読み出される。最後の記録に係るファイルが静止画ファイルの場合、この読み出された画像圧縮データは、圧縮伸長処理回路144を介して非圧縮のYC信号に伸長され、VRAM132に保存される。VRAM132に保存されたYC信号は、ビデオエンコーダ134に加えられる。ビデオエンコーダ134は、入力するYC信号からNTSC方式のRGBカラー複合映像信号を作成し、これを表示部110に出力する。これにより、表示部110には記録媒体40に記録されている最終コマのコマ画像が表示される。   When the playback mode is selected by the mode dial 150, the compressed data of the last image file (last recorded file) recorded on the recording medium 40 is read. When the file related to the last recording is a still image file, the read image compressed data is decompressed into an uncompressed YC signal via the compression / decompression processing circuit 144 and stored in the VRAM 132. The YC signal stored in the VRAM 132 is added to the video encoder 134. The video encoder 134 creates an NTSC RGB color composite video signal from the input YC signal and outputs it to the display unit 110. Thereby, the frame image of the last frame recorded on the recording medium 40 is displayed on the display unit 110.

その後、十字キー81の右キーが押されると、順方向にコマ送りされ、十字キー81の左キーが押されると、逆方向にコマ送りされる。そして、コマ送りされたコマ位置の画像ファイルが記録媒体40から読み出され、上記と同様にしてコマ画像が表示部110に再生される。尚、最終コマのコマ画像が表示されている状態で順方向にコマ送りされると、記録媒体40に記録されている1コマ目の画像ファイルが読み出され、1コマ目のコマ画像が表示部110に再生される。   Thereafter, when the right key of the cross key 81 is pressed, the frame is advanced in the forward direction, and when the left key of the cross key 81 is pressed, the frame is advanced in the reverse direction. Then, the frame-positioned image file at the frame position is read from the recording medium 40, and the frame image is reproduced on the display unit 110 in the same manner as described above. If the last frame image is displayed and the frame is advanced in the forward direction, the first frame image file recorded on the recording medium 40 is read and the first frame image is displayed. Played back to the unit 110.

表示部110は、カメラ10に内蔵されたLCD114、ファインダー又は映像出力端子等に接続された外部の表示装置に相当する。なお、CPU112は、OSD信号発生回路を含み、OSD信号発生回路はシャッター速度や絞り値、撮影可能枚数、撮影日時、警告メッセージ等の文字及びアイコン等の記号を表示するための信号を発生させる。このOSD信号発生回路から出力される信号は、必要に応じて画像信号に混合されて、LCD114に供給される。これにより、スルー画像や再生画像に文字やアイコン等が合成された合成画像が表示される。   The display unit 110 corresponds to an external display device connected to an LCD 114, a finder, a video output terminal, or the like built in the camera 10. The CPU 112 includes an OSD signal generation circuit, and the OSD signal generation circuit generates a signal for displaying characters such as a shutter speed, an aperture value, the number of shootable images, a shooting date / time, a warning message, and a symbol such as an icon. A signal output from the OSD signal generation circuit is mixed with an image signal as necessary and supplied to the LCD 114. As a result, a composite image in which characters, icons, and the like are combined with the through image and the playback image is displayed.

記録媒体40は、撮影で得た画像データを保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、又はこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、画像ファイルを保存する手段は、カメラ本体に着脱可能なリムーバブルメディアに限らず、カメラに内蔵された記録媒体(内蔵メモリ)であってもよい。   The recording medium 40 is means for holding image data obtained by shooting, and for example, a memory card called smart media is used. The form of the recording medium is not limited to this, and it may be a PC card, a compact flash (registered trademark), a magnetic disk, an optical disk, a magneto-optical disk, a memory stick, etc., electronic, magnetic, optical, or a combination thereof A readable / writable medium can be used in accordance with the above-described method. A configuration in which a plurality of media can be mounted regardless of different types or the same type of recording media may be adopted. The means for storing the image file is not limited to a removable medium that can be attached to and detached from the camera body, but may be a recording medium (built-in memory) built in the camera.

CPU112は、カメラ10の各回路を統括制御する制御回路であり、レリーズスイッチ22、十字キー81、電源スイッチ82、モードダイヤル150、情報位置指定キー83あるいは図示しないストロボボタン、ズームキー、メニュー/実行ボタンその他を含む操作部113から受信する信号に基づき、対応する回路の動作を制御するとともに、表示部110における表示制御、ストロボ発光制御、オートフォーカス(AF)制御及び自動露出(AE)制御等を行う。   The CPU 112 is a control circuit that comprehensively controls each circuit of the camera 10, and includes a release switch 22, a cross key 81, a power switch 82, a mode dial 150, an information position designation key 83 or a not-shown strobe button, zoom key, menu / execution button. Based on signals received from the operation unit 113 including others, the operation of the corresponding circuit is controlled, and display control, strobe light emission control, autofocus (AF) control, automatic exposure (AE) control, and the like are performed on the display unit 110. .

カメラ10の電源が電源スイッチ82でオンされる度に、カメラボディ内部に装着される電池からなる主要電源164から、デジタルカメラ10の各回路に電源が供給される。   Each time the power supply of the camera 10 is turned on by the power switch 82, power is supplied to each circuit of the digital camera 10 from the main power supply 164 formed of a battery mounted inside the camera body.

画像処理回路108からの画像データは、測光処理部157にも送られる。この測光処理部157は、外光の光量を測定する手段の一例である。測光処理部157は、入力される各画像データと、固体撮像素子102aの電荷蓄積時間、すなわち電子シャッタのシャッタ秒時とに基づいて被写体輝度の測光値(EV値)を算出する測光値算出部により構成できる。これにより、固体撮像素子102aの駆動が調節される。なお、電子シャッタのシャッタ秒時とともに絞り値を変化させてもよい。絞り値を変化させる場合には、絞り値を加味して被写体輝度に応じた測光値を算出する。このように、測光処理部157は、固体撮像素子102aを受光センサとしてTTL(Through The Lens) 測光方式によって被写体の明るさ(被写体輝度)を検出する。測光処理部157は、フォトトランジスタで構成された測光センサであってもよく、測光が可能な手段であれば特に限定されない。   Image data from the image processing circuit 108 is also sent to the photometric processing unit 157. The photometric processing unit 157 is an example of a unit that measures the amount of external light. The photometric processing unit 157 calculates a photometric value (EV value) of subject brightness based on each input image data and the charge accumulation time of the solid-state imaging device 102a, that is, the shutter time of the electronic shutter. Can be configured. Thereby, the drive of the solid-state image sensor 102a is adjusted. The aperture value may be changed with the shutter time of the electronic shutter. When changing the aperture value, the photometric value corresponding to the subject brightness is calculated with the aperture value taken into account. As described above, the photometry processing unit 157 detects the brightness of the subject (subject brightness) by TTL (Through The Lens) photometry using the solid-state imaging device 102a as a light receiving sensor. The photometric processing unit 157 may be a photometric sensor composed of a phototransistor, and is not particularly limited as long as it is a means capable of photometry.

図2はCPU112の実行するプログラムをブロック図で示している。CPU112は、プログラムである顔抽出部112a及び評価値算出部112dを実行する。顔抽出部112a及び評価値算出部112dはEEPROM119に記憶されており、CPU112により適宜メモリ127に読み出されて実行される。   FIG. 2 shows a program executed by the CPU 112 in a block diagram. The CPU 112 executes a face extraction unit 112a and an evaluation value calculation unit 112d, which are programs. The face extraction unit 112a and the evaluation value calculation unit 112d are stored in the EEPROM 119, and are read by the CPU 112 to the memory 127 as appropriate and executed.

顔抽出部112aは、記録媒体40に記録された撮影画像から人物の顔部分を含む領域である顔領域を抽出する。顔領域の抽出方法としては、例えば本出願人による特開平9−101579号公報「顔領域抽出方法及び複写条件決定方法」において開示された技術を適用することができる。この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として抽出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を抽出することもできる。   The face extraction unit 112a extracts a face area that is an area including the face portion of a person from the captured image recorded on the recording medium 40. As a face area extraction method, for example, the technique disclosed in Japanese Patent Laid-Open No. 9-101579 “Face Area Extraction Method and Copying Condition Determination Method” by the present applicant can be applied. This technology determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides it into a skin color region and a non-skin color region, and detects edges in the image to detect each of the images in the image. The location is classified as an edge portion or a non-edge portion. Then, an area composed of pixels classified in the skin color area and classified as a non-edge part and surrounded by pixels determined to be the edge part is extracted as a face candidate area, and the extracted face candidate area becomes a human face. A corresponding region is determined, and a face region is extracted based on the determination result. In addition, a face region can be extracted by a method described in Japanese Patent Laid-Open No. 2003-209683 and Japanese Patent Laid-Open No. 2002-199221.

評価値算出部112dは、抽出された1つ分の顔領域に対して、評価値fを算出する。   The evaluation value calculation unit 112d calculates an evaluation value f for the extracted face area.

具体的な評価値fの算出は、例えば次のように行う。評価値算出部112dは、顔領域の入力輝度信号を奇数フィールド・偶数フィールドに分けて、それぞれのフィールドで、デルタヒストグラムを求める。即ち、まず、輝度信号の各フィールドに対し、所定の係数をもつ平均化フィルタをかけて、ボケ画像を作る。   The specific evaluation value f is calculated as follows, for example. The evaluation value calculation unit 112d divides the input luminance signal of the face area into an odd field and an even field, and obtains a delta histogram in each field. That is, first, a blur image is created by applying an averaging filter having a predetermined coefficient to each field of the luminance signal.

次に、各フィールドのある画素に対し、周囲8画素との差分値をヒストグラムにする。これをフィールド内の全画素で行い、デルタヒストグラムを求める。   Next, for a certain pixel in each field, a difference value from the surrounding eight pixels is made into a histogram. This is performed for all the pixels in the field to obtain a delta histogram.

そして、デルタヒストグラムの輝度差レベル0から255までを累積加算し、累積デルタヒストグラムを求める。これを、入力輝度信号に対しても同様に行う。入力輝度信号の累積デルタヒストグラムとボケ画像の累積ヒストグラムの差の絶対値を輝度差レベルで平均し、これを評価値fとする(例えば、「デジタルカラー画像の解析・評価(東京大学出版会)」を参照)。   Then, the luminance difference levels 0 to 255 of the delta histogram are cumulatively added to obtain a cumulative delta histogram. This is similarly performed for the input luminance signal. The absolute value of the difference between the cumulative delta histogram of the input luminance signal and the cumulative histogram of the blurred image is averaged at the luminance difference level, and this is used as the evaluation value f (for example, “Analysis and Evaluation of Digital Color Image (University of Tokyo Press) ).

算出されたfは、メモリ127に記憶される。評価値fは顔領域のシャープネスを表す特徴量であり、fが大きいほど画像の高周波成分が多く、その顔領域の輪郭がくっきりしていることを表している。   The calculated f is stored in the memory 127. The evaluation value f is a feature amount representing the sharpness of the face area. The larger f is, the more high-frequency components of the image are, and the contour of the face area is clearer.

評価値fの具体的算出方式は上記に限らず、MTF(変調伝達関数)を用いて得られる各種のシャープネス指標を評価値fとすることもできる(例えば、「新編 画像解析ハンドブック(東京大学出版会)」を参照)。   The specific calculation method of the evaluation value f is not limited to the above, and various sharpness indexes obtained using MTF (modulation transfer function) can be used as the evaluation value f (for example, “New Image Analysis Handbook (published by the University of Tokyo) Meeting))).

以下、図3のフローチャートに従い、CPU112の実行する画像評価処理の流れを説明する。この処理では、記録媒体40に記録された各画像について評価値fを算出して表示することで、人物を記録した画像のうちどの画像が最もプリントに適しているかの指針を与える。   The flow of image evaluation processing executed by the CPU 112 will be described below with reference to the flowchart of FIG. In this process, an evaluation value f is calculated and displayed for each image recorded on the recording medium 40, thereby giving a guide as to which image is most suitable for printing among images recorded with people.

S1では、記録媒体40に記録された各画像Inを読み出し、圧縮伸長処理回路144を介して非圧縮のYC信号に伸長し、VRAM132に保存する。   In S 1, each image In recorded in the recording medium 40 is read out, decompressed into an uncompressed YC signal via the compression / decompression processing circuit 144, and stored in the VRAM 132.

S2では、顔抽出部112aは各画像Inからそれぞれ顔領域Rnを抽出する。nは各画像のコマ番号とする。なお、説明の簡略のため、各画像Inに記録されている顔領域は1つであり、顔抽出部112aが各画像Inから抽出する顔領域Rnは1つであるとする。読み出された画像から全く顔領域が抽出できなかった場合はその旨を示す所定のメッセージを表示部110に表示してもよい。   In S2, the face extraction unit 112a extracts a face area Rn from each image In. n is the frame number of each image. For simplification of explanation, it is assumed that there is one face area recorded in each image In, and that one face area Rn is extracted from each image In by the face extraction unit 112a. If no face area can be extracted from the read image, a predetermined message indicating that fact may be displayed on the display unit 110.

S3では、評価値算出部112dは、顔領域Rnのシャープネスを表す評価値fnを算出する。   In S3, the evaluation value calculation unit 112d calculates an evaluation value fn representing the sharpness of the face region Rn.

S4では、S1において記録媒体40に記録された全ての画像を読み出したか否かを判断し、読み出されていない画像がある場合はS1に戻ってその画像を読み出す。全ての画像を読み出した場合はS5に進む。   In S4, it is determined whether or not all the images recorded on the recording medium 40 in S1 have been read. If there is an image that has not been read, the process returns to S1 to read the image. If all the images have been read, the process proceeds to S5.

S5では、各画像Inとともに評価値fnを表示部110に表示する。図4は画像I1〜I3とともに評価値f1〜f3が表示されている様子を示す。一画面中にすべての画像Inを表示する場合、画像Inの表示サイズは、表示部110の表示サイズに合わせて適宜間引いてもよい。評価値fnの大小関係に応じて画像Inを順番に配列して表示してもよい。   In S5, the evaluation value fn is displayed on the display unit 110 together with each image In. FIG. 4 shows how the evaluation values f1 to f3 are displayed together with the images I1 to I3. When all the images In are displayed in one screen, the display size of the image In may be thinned out appropriately according to the display size of the display unit 110. The images In may be sequentially arranged and displayed according to the magnitude relationship of the evaluation values fn.

あるいは、表示部110の一画面に表示する画像Inは1つだけにし、それに合わせて評価値fnを表示し、画像Inのコマ送りに応じて評価値fnの表示を切り替えてもよい。ユーザは、表示部110に表示された画像と評価値を参照し、画像が似通っていても、どの顔が最も輪郭がはっきりしておりプリントに適しているかを、プリントせずとも判断できる。なお、プリントに不適当な画像を記録媒体40から削除すれば、記録媒体40の容量の節約にもなる。   Alternatively, only one image In may be displayed on one screen of the display unit 110, the evaluation value fn may be displayed in accordance with the image In, and the display of the evaluation value fn may be switched according to the frame advance of the image In. The user refers to the image displayed on the display unit 110 and the evaluation value, and even if the images are similar, the user can determine which face has the clearest outline and is suitable for printing without printing. If an image inappropriate for printing is deleted from the recording medium 40, the capacity of the recording medium 40 can be saved.

<第2実施形態>
評価値fは顔領域のシャープネスを表す値以外にも様々な形態をとりうる。図5は第2実施形態に係るCPU112の実行するプログラムをブロックで示している。CPU112は、プログラムである顔抽出部112a、目領域検出部112e目開閉検出部112f、評価値算出部112dを実行する。顔抽出部112aは第1実施形態と同様、記録媒体40に記録された各画像Inから顔領域を抽出する。ただし、各画像Inに記録されている人物の数は1又は複数であり、顔抽出部112aは1つの画像から複数の顔領域を抽出することもある。
Second Embodiment
The evaluation value f can take various forms other than the value representing the sharpness of the face area. FIG. 5 is a block diagram showing a program executed by the CPU 112 according to the second embodiment. The CPU 112 executes a face extraction unit 112a, an eye region detection unit 112e, an eye open / close detection unit 112f, and an evaluation value calculation unit 112d, which are programs. The face extraction unit 112a extracts a face area from each image In recorded in the recording medium 40, as in the first embodiment. However, the number of persons recorded in each image In is one or more, and the face extraction unit 112a may extract a plurality of face regions from one image.

目領域検出部112eは、顔抽出部112aが各画像Inから抽出した顔領域から目の存在する目領域を検出する。目領域は顔検出の結果得られる顔概略中心位置の相対的位置関係から検出することができる。目開閉検出部112fは、目領域内の目が開いているか又は閉じているかを判断する。目の開閉の判断方法は特に限定されない。例えば目開閉検出部112fは、両目に相当する2つの目領域内の縦方向黒色画素数をそれぞれ検出する。そして、2つの目領域の縦方向黒色画素数に基づき、両目が開いているか否かを判断する。   The eye area detection unit 112e detects an eye area where an eye exists from the face area extracted from each image In by the face extraction unit 112a. The eye region can be detected from the relative positional relationship of the approximate face center position obtained as a result of face detection. The eye opening / closing detection unit 112f determines whether the eyes in the eye region are open or closed. The method for determining whether to open or close the eyes is not particularly limited. For example, the eye opening / closing detection unit 112f detects the number of black pixels in the vertical direction in two eye regions corresponding to both eyes. Then, based on the number of vertical black pixels in the two eye areas, it is determined whether or not both eyes are open.

評価値算出部112dは、目開閉検出部112fの判断結果に基づき、各画像Inにつき、目が開いていると判断された顔領域の総数M1(n)を集計する。そして、評価値fnを次の式で算出する。   Based on the determination result of the eye opening / closing detection unit 112f, the evaluation value calculation unit 112d totals the total number M1 (n) of face regions determined to have eyes open for each image In. Then, the evaluation value fn is calculated by the following formula.

fn = M1(n) / M0(n)
ここで、M0(n)は、画像Inから抽出された顔領域の総数である。fnは、画像Inに記録された人物のうち目を開いている人物の割合を示している。
fn = M1 (n) / M0 (n)
Here, M0 (n) is the total number of face regions extracted from the image In. fn indicates the ratio of persons whose eyes are open among the persons recorded in the image In.

なお、fn = [M0(n)-M1(n) / M0(n)]
として目を瞑っている人物の割合を算出してもよい。
Fn = [M0 (n) -M1 (n) / M0 (n)]
As a result, the percentage of persons who are meditating their eyes may be calculated.

図6は第2実施形態に係る画像評価処理のフローチャートである。第2実施形態に係るCPU112も第1実施形態と同様の流れで画像評価処理を行う。   FIG. 6 is a flowchart of image evaluation processing according to the second embodiment. The CPU 112 according to the second embodiment also performs image evaluation processing in the same flow as in the first embodiment.

即ち、S10では、記録媒体40に記録された各画像Inを読み出し、圧縮伸長処理回路144を介して非圧縮のYC信号に伸長し、VRAM132に保存する。   That is, in S 10, each image In recorded in the recording medium 40 is read out, decompressed into an uncompressed YC signal via the compression / decompression processing circuit 144, and stored in the VRAM 132.

S11では、顔抽出部112aは各画像Inから顔領域を抽出する。nは各画像のコマ番号とする。   In S11, the face extraction unit 112a extracts a face area from each image In. n is the frame number of each image.

S12では、目領域検出部112eは画像Inから抽出された顔領域から目領域を検出し、目開閉検出部112fは検出された目領域内の目が開いているか否かを判断する。   In S12, the eye region detection unit 112e detects an eye region from the face region extracted from the image In, and the eye opening / closing detection unit 112f determines whether or not the eyes in the detected eye region are open.

S13では、評価値算出部112dは目開閉検出部112fの判断結果に基づき、評価値fn = M1(n) / M0(n)を算出する。   In S13, the evaluation value calculation unit 112d calculates the evaluation value fn = M1 (n) / M0 (n) based on the determination result of the eye opening / closing detection unit 112f.

S14では、S10において記録媒体40に記録された全ての画像を読み出したか否かを判断し、読み出されていない画像がある場合はS10に戻ってその画像を読み出す。全ての画像を読み出した場合はS15に進む。   In S14, it is determined whether or not all the images recorded on the recording medium 40 in S10 have been read. If there is an image that has not been read, the process returns to S10 to read the image. If all the images have been read, the process proceeds to S15.

S15では、各画像Inとともに評価値fnを表示部110に表示する。評価値fnの表示形式は第1実施形態と同様である(図4参照)。   In S15, the evaluation value fn is displayed on the display unit 110 together with each image In. The display format of the evaluation value fn is the same as that of the first embodiment (see FIG. 4).

ユーザは、表示部110に表示された画像と評価値を参照し、目をつむってない人物の率が最も高くプリントに適している画像を、プリントせずとも判断できる。プリントに不適当な画像を記録媒体40から削除すれば、記録媒体40の容量の節約にもなる。   The user can refer to the image displayed on the display unit 110 and the evaluation value to determine an image that has the highest percentage of people who are not blinded and is suitable for printing without printing. If an image inappropriate for printing is deleted from the recording medium 40, the capacity of the recording medium 40 can be saved.

<第3実施形態>
画像に複数の人物が記録されている場合、顔抽出部112aが抽出した顔領域の位置から評価値fnを算出してもよい。
<Third Embodiment>
When a plurality of persons are recorded in the image, the evaluation value fn may be calculated from the position of the face area extracted by the face extraction unit 112a.

図7は第3実施形態に係るCPU112の実行するプログラムをブロック図で示している。CPU112は、プログラムである顔抽出部112a、座標算出部112g及び評価値算出部112dを実行する。顔抽出部112aは第1実施形態と同様、記録媒体40に記録された各画像Inから顔領域を抽出する。ただし、各画像Inに記録されている人物の数は1又は複数であり、顔抽出部112aは1つの画像から複数の顔領域を抽出することもある。   FIG. 7 is a block diagram showing a program executed by the CPU 112 according to the third embodiment. The CPU 112 executes a face extraction unit 112a, a coordinate calculation unit 112g, and an evaluation value calculation unit 112d, which are programs. The face extraction unit 112a extracts a face area from each image In recorded in the recording medium 40, as in the first embodiment. However, the number of persons recorded in each image In is one or more, and the face extraction unit 112a may extract a plurality of face regions from one image.

座標算出部112gは、各顔領域の位置から顔領域間の中心座標G(n)を算出する。顔領域間の中心座標の一例として、顔抽出部112aは、抽出した1又は複数の顔領域Rl(n)の中心座標a1(n), a2(n), …, al(n), …同士を結んでなる閉領域の重心の座標を中心座標として算出する。例えば、図8に示すように、ある画像Inから3つの顔領域R1(n), R2(n), R3(n)が抽出され、それらの中心座標をa1(n), a2(n), a3(n)とすると、
G(n)= [a1(n) + a2(n) + a3(n)]/3となる。
The coordinate calculation unit 112g calculates center coordinates G (n) between the face areas from the positions of the face areas. As an example of the center coordinates between the face areas, the face extraction unit 112a uses the center coordinates a1 (n), a2 (n), ..., al (n), ... between the extracted face areas Rl (n). The coordinates of the center of gravity of the closed region formed by linking are calculated as the center coordinates. For example, as shown in FIG. 8, three face regions R1 (n), R2 (n), and R3 (n) are extracted from an image In, and their center coordinates are set as a1 (n), a2 (n), a3 (n)
G (n) = [a1 (n) + a2 (n) + a3 (n)] / 3.

顔領域間の中心座標の他の一例として、座標算出部112gは、すべての顔領域を包含する矩形のうち最小の面積を有する矩形を決定し、この矩形の重心を顔領域間の中心座標として算出する。   As another example of the center coordinates between the face areas, the coordinate calculation unit 112g determines a rectangle having the smallest area among rectangles including all the face areas, and uses the center of gravity of the rectangle as the center coordinates between the face areas. calculate.

座標算出部112gは、画像Inの中心座標Cnを算出する。画像Inの中心座標Cnは、画像Inの縦横の画素数から算出できる。   The coordinate calculation unit 112g calculates the center coordinates Cn of the image In. The center coordinates Cn of the image In can be calculated from the number of vertical and horizontal pixels of the image In.

そして、評価値算出部112dは、画像Inの評価値fnとして、画像Inの中心座標Cnと顔領域間の中心座標G(n)との間の距離を算出する。即ち、
fn=|Cn- G(n)|
である。fnの値が小さいほど、顔領域がバランスよく配置されて記録されていることになる。
Then, the evaluation value calculation unit 112d calculates the distance between the center coordinate Cn of the image In and the center coordinate G (n) between the face regions as the evaluation value fn of the image In. That is,
fn = | Cn- G (n) |
It is. The smaller the value of fn, the more the face area is recorded in a balanced manner.

図9は第3実施形態に係る画像評価処理のフローチャートである。   FIG. 9 is a flowchart of the image evaluation process according to the third embodiment.

即ち、S20では、記録媒体40に記録された各画像Inを読み出し、圧縮伸長処理回路144を介して非圧縮のYC信号に伸長し、VRAM132に保存する。   That is, in S 20, each image In recorded on the recording medium 40 is read out, decompressed into an uncompressed YC signal via the compression / decompression processing circuit 144, and stored in the VRAM 132.

S21では、顔抽出部112aは各画像Inから顔領域Rl(n)を抽出する。nは各画像のコマ番号、lは顔領域に割り当てられた連番とする。   In S21, the face extraction unit 112a extracts a face region Rl (n) from each image In. n is a frame number of each image, and l is a serial number assigned to the face area.

S22では、座標算出部112gは、顔領域Rl(n)間の中心座標G(n)、画像Inの中心座標Cnを算出する。   In S22, the coordinate calculation unit 112g calculates the center coordinate G (n) between the face regions Rl (n) and the center coordinate Cn of the image In.

S23では、評価値算出部112dは画像Inの評価値fnとして、画像Inの中心座標Cnと重心G(n)との間の距離を算出する。   In S23, the evaluation value calculation unit 112d calculates the distance between the center coordinates Cn and the center of gravity G (n) of the image In as the evaluation value fn of the image In.

S24では、S20において記録媒体40に記録された全ての画像を読み出したか否かを判断し、読み出されていない画像がある場合はS20に戻ってその画像を読み出す。全ての画像を読み出した場合はS25に進む。   In S24, it is determined whether or not all the images recorded on the recording medium 40 in S20 have been read. If there is an image that has not been read, the process returns to S20 to read the image. If all the images have been read, the process proceeds to S25.

S25では、各画像Inとともに評価値fnを表示部110に表示する。評価値fnの表示形式は第1実施形態と同様である(図4参照)。   In S25, the evaluation value fn is displayed on the display unit 110 together with each image In. The display format of the evaluation value fn is the same as that of the first embodiment (see FIG. 4).

ユーザは、表示部110に表示された画像と評価値を参照し、顔領域の配置バランスがよくプリントに適している画像を、プリントせずとも判断できる。プリントに不適当な画像を記録媒体40から削除すれば、記録媒体40の容量の節約にもなる。   The user can refer to the image displayed on the display unit 110 and the evaluation value to determine an image having a good face area arrangement balance and suitable for printing without printing. If an image inappropriate for printing is deleted from the recording medium 40, the capacity of the recording medium 40 can be saved.

なお、評価値算出部112dは、第1ないし第3実施形態で開示された評価値を別個に算出してもよいし、これらの一部の組み合わせ又は全部を同時に算出してもよい。この場合、CPU112が実行するその他のプログラムは、算出すべき評価値に合わせ、顔抽出部112a、目領域検出部112e、目開閉検出部112f、座標算出部112gの全部又はこれらの一部とする。   Note that the evaluation value calculation unit 112d may separately calculate the evaluation values disclosed in the first to third embodiments, or may calculate some or all of these combinations simultaneously. In this case, other programs executed by the CPU 112 are all or part of the face extraction unit 112a, the eye region detection unit 112e, the eye open / close detection unit 112f, and the coordinate calculation unit 112g according to the evaluation value to be calculated. .

<第4実施形態>
顔抽出部112a、評価値算出部112d、目領域検出部112e、目開閉検出部112f、座標算出部112gの全部又は一部を実行するCPU112はデジタルカメラに備えられたものでなくてもよく、各種画像処理装置に備えられてもよい。
<Fourth embodiment>
The CPU 112 that executes all or part of the face extraction unit 112a, the evaluation value calculation unit 112d, the eye region detection unit 112e, the eye opening / closing detection unit 112f, and the coordinate calculation unit 112g may not be included in the digital camera. Various image processing apparatuses may be provided.

図10は、上記のプログラムを実行可能な店頭プリント装置70の正面図である。この店頭プリント装置70は、顧客が挿入口89にスマートメディアなどの図示しない記録媒体40を挿入してお金を投入し、記録媒体40に格納されているデジタル画像をTAペーパーなどの印刷媒体にプリントするマシンである。プリント装置70は、写真店、書店、スーパーなどの各種店舗の店頭に設置された店頭情報端末であり、平常はプリントを購入する顧客が店員の補助なく単独で使用する。   FIG. 10 is a front view of the storefront printing apparatus 70 capable of executing the above program. In this storefront printing apparatus 70, a customer inserts a recording medium 40 (not shown) such as smart media into an insertion slot 89 and inserts money, and the digital image stored in the recording medium 40 is printed on a printing medium such as TA paper. It is a machine to do. The printing device 70 is a storefront information terminal installed at a storefront of various stores such as a photo shop, a bookstore, and a supermarket, and is normally used alone by a customer who purchases a print without the assistance of a store clerk.

この店頭プリント装置70には、正面にタッチパネル98の積層された液晶型の表示部110が配設されており、顧客は表示部110を見ながらタッチパネル98を操作してプリントサイズ、プリント枚数などの必要な情報を入力する。店頭プリント装置70の内部には、図示しない1又は複数のプリンタ90が設置されており、各プリンタ90がデジタル画像をプリントするようになっている。本実施形態の店頭プリント装置70には、最大4機のプリンタ80が配設される。店頭プリント装置70の正面外側には、プリントされた印刷媒体が排出される取出口83が設けられ、また、後述するコインマシン88にコインを投入する投入口85及びコインマシン88が釣り銭を返却する返却口86が設けられている。   This storefront printing apparatus 70 is provided with a liquid crystal type display unit 110 having a touch panel 98 stacked on the front surface. A customer operates the touch panel 98 while looking at the display unit 110 to determine the print size, the number of prints, and the like. Enter the required information. One or more printers 90 (not shown) are installed inside the storefront printing apparatus 70, and each printer 90 prints a digital image. The storefront printing apparatus 70 of this embodiment is provided with a maximum of four printers 80. An outlet 83 through which the printed printing medium is discharged is provided on the front outside of the storefront printing apparatus 70, and the coin slot 88 and the coin machine 88 return coins to the coin machine 88 to be described later. A return port 86 is provided.

図11は、店頭プリント装置70のハードウェア構成を示したブロック図である。   FIG. 11 is a block diagram showing a hardware configuration of the storefront printing apparatus 70.

顧客が、記録媒体40をメディア挿入口89に挿入すると、ハードディスクコントローラ74は、ハードディスク(HDD)75に記録されている制御ソフトウェアをプログラムメモリ71にロードする。記録媒体40には、画像データが所定の形式で圧縮された状態で記録されており、CPU112は、メディアリーダコントローラ82に画像データの読み出しを指示して記録媒体40から所要の画像データを取得すると、画像処理部81によりこの画像データを伸張して元の画像データに復元し、更に、画像処理部81で所要の画像処理を施してその画像データをワークメモリ76に記憶させる。   When the customer inserts the recording medium 40 into the media insertion port 89, the hard disk controller 74 loads the control software recorded on the hard disk (HDD) 75 into the program memory 71. Image data is recorded on the recording medium 40 in a compressed state. When the CPU 112 instructs the media reader controller 82 to read out the image data, the required image data is acquired from the recording medium 40. The image processing unit 81 decompresses the image data and restores the original image data. Further, the image processing unit 81 performs necessary image processing and stores the image data in the work memory 76.

プリントサイズ、プリント枚数などの必要な情報は、顧客がタッチパネル98の所望位置を押圧することでその位置に対応した電気信号に変換され、タッチパネルインターフェイス部97を介してCPU112に入力される。入力された情報は表示部110に表示される。表示部110は、表示制御部78によって作動される。コインマシン88は、タッチパネル98から入力された情報に基づいて表示部110に表示された金額を電気信号に変換し、コインマシンI/F部87を介してCPU112に入力する。CPU112は、顧客が必要な金額を投入したかどうかを確認する。必要な金額が投入されたら、プリントデータ処理部91は、ワークメモリ76に格納されている画像データからプリントジョブデータを作成し、プリンタI/F部84を介してプリントジョブデータを各プリンタ90に送る。これらの一連の制御はCPU112が行う。   Necessary information such as the print size and the number of prints is converted into an electrical signal corresponding to the position when the customer presses a desired position on the touch panel 98 and is input to the CPU 112 via the touch panel interface unit 97. The input information is displayed on the display unit 110. The display unit 110 is operated by the display control unit 78. The coin machine 88 converts the amount displayed on the display unit 110 into an electrical signal based on the information input from the touch panel 98 and inputs it to the CPU 112 via the coin machine I / F unit 87. The CPU 112 confirms whether or not the customer has entered a necessary amount. When the necessary amount is input, the print data processing unit 91 creates print job data from the image data stored in the work memory 76, and the print job data is sent to each printer 90 via the printer I / F unit 84. send. The CPU 112 performs a series of these controls.

各プリンタ90は、TA方式と呼ばれる印画方式を採用したもので、熱を加えると発色し、所定の波長の光を照射すると定着するという特性を有するTAペーパーを使用する。   Each printer 90 employs a printing system called a TA system, and uses TA paper having a characteristic that color is developed when heat is applied and fixing is performed when light of a predetermined wavelength is irradiated.

プリントが終了すると、コインマシン88への投入金額及び返却した釣り銭額などが記載されたレシートがレシートプリンタ92から出力される。レシートプリンタ92がプリントする内容はCPU112がレシートプリンタI/F部93を介して指令する。   When the printing is completed, a receipt describing the amount inserted into the coin machine 88 and the amount of change returned is output from the receipt printer 92. The contents to be printed by the receipt printer 92 are instructed by the CPU 112 via the receipt printer I / F unit 93.

CPU112が実行するプログラムである、顔抽出部112a、目領域検出部112e、目開閉検出部112f、座標算出部112g、評価値算出部112dは、HDD75に記録されており、プログラムメモリ71にロードされて実行される。   The face extraction unit 112a, the eye region detection unit 112e, the eye open / close detection unit 112f, the coordinate calculation unit 112g, and the evaluation value calculation unit 112d, which are programs executed by the CPU 112, are recorded in the HDD 75 and loaded into the program memory 71. Executed.

このような構成を有する店頭プリント装置70では、顧客が記録媒体40によって持ち込んだ画像をプリントする際、どの画像が最もプリントに適しているかを、表示部110に表示された評価値によって知ることができる。   In the storefront printing apparatus 70 having such a configuration, when an image brought in by the customer using the recording medium 40 is printed, it can be known from the evaluation value displayed on the display unit 110 which image is most suitable for printing. it can.

<第5実施形態>
上記の第1ないし4実施形態における顔抽出部112a、評価値算出部112d、目領域検出部112e、目開閉検出部112f、座標算出部112gは、汎用のCPU112で実行するプログラムであるが、これらのプログラムの一部又は全部を実装した画像処理専用の半導体集積回路(ASIC, Application Specific Integrated Circuit)で構成する態様も可能である。こうすると、CPU112の負荷が軽くなり好ましい。
<Fifth Embodiment>
The face extraction unit 112a, the evaluation value calculation unit 112d, the eye region detection unit 112e, the eye open / close detection unit 112f, and the coordinate calculation unit 112g in the first to fourth embodiments are programs executed by the general-purpose CPU 112. It is also possible to adopt a configuration in which a part or all of the program is implemented by a semiconductor integrated circuit (ASIC, Application Specific Integrated Circuit) dedicated to image processing. This is preferable because the load on the CPU 112 is reduced.

本発明の好ましい実施形態に係るデジタルカメラのブロック構成図1 is a block diagram of a digital camera according to a preferred embodiment of the present invention. 第1実施形態に係るCPUの実行するプログラムを示すブロック図The block diagram which shows the program which CPU which concerns on 1st Embodiment performs 第1実施形態に係る画像評価処理の流れを示すフローチャートThe flowchart which shows the flow of the image evaluation process which concerns on 1st Embodiment. 画像とともに表示された評価値の表示例を示す図The figure which shows the example of a display of the evaluation value displayed with the image 第2実施形態に係るCPUの実行するプログラムを示すブロック図The block diagram which shows the program which CPU which concerns on 2nd Embodiment performs 第2実施形態に係る画像評価処理の流れを示すフローチャートThe flowchart which shows the flow of the image evaluation process which concerns on 2nd Embodiment. 第3実施形態に係るCPUの実行するプログラムを示すブロック図The block diagram which shows the program which CPU which concerns on 3rd Embodiment performs 顔領域間の中心座標の一例を示す図The figure which shows an example of the center coordinate between face areas 第3実施形態に係る画像評価処理の流れを示すフローチャートThe flowchart which shows the flow of the image evaluation process which concerns on 3rd Embodiment. 本発明の好ましい実施形態に係る店頭プリント装置の正面図The front view of the shop front printing apparatus which concerns on preferable embodiment of this invention 本発明の好ましい実施形態に係る店頭プリント装置のブロック図1 is a block diagram of a storefront printing apparatus according to a preferred embodiment of the present invention.

符号の説明Explanation of symbols

40:記録媒体、110:表示部、112:CPU、112a:顔抽出部、112d:評価値算出部、112e:目領域検出部、112f:目開閉検出部、112g:座標算出部
40: recording medium, 110: display unit, 112: CPU, 112a: face extraction unit, 112d: evaluation value calculation unit, 112e: eye area detection unit, 112f: eye open / close detection unit, 112g: coordinate calculation unit

Claims (12)

画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、
前記顔領域のシャープネスを表す評価値を算出する評価値算出部と、
前記画像とともに前記評価値を表示する表示部と、
を備える画像評価装置。
A face extraction unit that extracts a face area including a human face from an image;
An evaluation value calculation unit for calculating an evaluation value representing the sharpness of the face area;
A display unit for displaying the evaluation value together with the image;
An image evaluation apparatus comprising:
画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、
前記顔領域から目の存在する目領域を検出する目領域検出部と、
前記目領域内の目が開いているか又は閉じているかを判断する目開閉検出部と、
前記目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出する評価値算出部と、
前記画像とともに前記評価値を表示する表示部と、
を備える画像評価装置。
A face extraction unit that extracts a face area including a human face from an image;
An eye area detection unit for detecting an eye area in which an eye exists from the face area;
An eye opening / closing detection unit for determining whether the eye in the eye region is open or closed;
An evaluation value calculation unit that calculates an evaluation value based on the total number of face regions in which the eyes in the eye region are determined to be open or closed;
A display unit for displaying the evaluation value together with the image;
An image evaluation apparatus comprising:
前記評価値算出部は前記目領域内の目が開いていると判断された顔領域の総数を前記顔領域の総数で除した数を評価値として算出する請求項2に記載の画像評価装置。   The image evaluation apparatus according to claim 2, wherein the evaluation value calculation unit calculates, as an evaluation value, a number obtained by dividing the total number of face regions determined to have eyes in the eye region divided by the total number of face regions. 前記評価値算出部は前記目領域内の目が閉じていると判断された顔領域の総数を前記顔領域の総数で除した数を評価値として算出する請求項2に記載の画像評価装置。   The image evaluation apparatus according to claim 2, wherein the evaluation value calculation unit calculates, as an evaluation value, a number obtained by dividing the total number of face regions determined to have eyes closed in the eye region by the total number of face regions. 画像から人物の顔部分を含む顔領域を抽出する顔抽出部と、
前記顔領域間の中心座標及び前記画像の中心座標を算出する座標算出部と、
前記顔領域間の中心座標と前記画像の中心座標とに基づいて評価値を算出する評価値算出部と、
前記画像とともに前記評価値を表示する表示部と、
を備える画像評価装置。
A face extraction unit that extracts a face area including a human face from an image;
A coordinate calculation unit that calculates center coordinates between the face regions and center coordinates of the image;
An evaluation value calculation unit that calculates an evaluation value based on the center coordinates between the face regions and the center coordinates of the image;
A display unit for displaying the evaluation value together with the image;
An image evaluation apparatus comprising:
前記評価値算出部は前記顔領域間の中心座標と前記画像の中心座標との間の距離を評価値として算出する請求項5に記載の画像評価装置。   The image evaluation apparatus according to claim 5, wherein the evaluation value calculation unit calculates a distance between a central coordinate between the face regions and a central coordinate of the image as an evaluation value. 画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域のシャープネスを表す評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
を含む画像評価方法。
Extracting a face area including a human face from an image;
Calculating an evaluation value representing the sharpness of the face area;
Displaying the evaluation value together with the image;
An image evaluation method including:
画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域から目の存在する目領域を検出するステップと、
前記目領域内の目が開いているか又は閉じているかを判断するステップと、
前記目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
を含む画像評価方法。
Extracting a face area including a human face from an image;
Detecting an eye area where eyes are present from the face area;
Determining whether eyes in the eye area are open or closed;
Calculating an evaluation value based on the total number of face regions in which the eyes in the eye region are determined to be open or closed;
Displaying the evaluation value together with the image;
An image evaluation method including:
画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域間の中心座標及び前記画像の中心座標を算出するステップと、
前記顔領域間の中心座標と前記画像の中心座標とに基づいて評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
を含む画像評価方法。
Extracting a face area including a human face from an image;
Calculating center coordinates between the face regions and center coordinates of the image;
Calculating an evaluation value based on center coordinates between the face regions and center coordinates of the image;
Displaying the evaluation value together with the image;
An image evaluation method including:
画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域のシャープネスを表す評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
をコンピュータに実行させる画像評価プログラム。
Extracting a face area including a human face from an image;
Calculating an evaluation value representing the sharpness of the face area;
Displaying the evaluation value together with the image;
An image evaluation program for causing a computer to execute.
画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域から目の存在する目領域を検出するステップと、
前記目領域内の目が開いているか又は閉じているかを判断するステップと、
前記目領域内の目が開いている又は閉じていると判断された顔領域の総数に基づいて評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
をコンピュータに実行させる画像評価プログラム。
Extracting a face area including a human face from an image;
Detecting an eye area where eyes are present from the face area;
Determining whether eyes in the eye area are open or closed;
Calculating an evaluation value based on the total number of face regions in which the eyes in the eye region are determined to be open or closed;
Displaying the evaluation value together with the image;
An image evaluation program for causing a computer to execute.
画像から人物の顔部分を含む顔領域を抽出するステップと、
前記顔領域間の中心座標及び前記画像の中心座標を算出するステップと、
前記顔領域間の中心座標と前記画像の中心座標とに基づいて評価値を算出するステップと、
前記画像とともに前記評価値を表示するステップと、
をコンピュータに実行させる画像評価プログラム。
Extracting a face area including a human face from an image;
Calculating center coordinates between the face regions and center coordinates of the image;
Calculating an evaluation value based on center coordinates between the face regions and center coordinates of the image;
Displaying the evaluation value together with the image;
An image evaluation program for causing a computer to execute.
JP2005069878A 2005-03-11 2005-03-11 Image evaluation device, image evaluation method and image evaluation program Pending JP2006252327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005069878A JP2006252327A (en) 2005-03-11 2005-03-11 Image evaluation device, image evaluation method and image evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005069878A JP2006252327A (en) 2005-03-11 2005-03-11 Image evaluation device, image evaluation method and image evaluation program

Publications (1)

Publication Number Publication Date
JP2006252327A true JP2006252327A (en) 2006-09-21

Family

ID=37092746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005069878A Pending JP2006252327A (en) 2005-03-11 2005-03-11 Image evaluation device, image evaluation method and image evaluation program

Country Status (1)

Country Link
JP (1) JP2006252327A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program
JP2009205466A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device and image output program
JP2012164321A (en) * 2012-03-12 2012-08-30 Fujifilm Corp Image output management device, method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation device, method and program
JP2009205466A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device and image output program
JP2012164321A (en) * 2012-03-12 2012-08-30 Fujifilm Corp Image output management device, method and program

Similar Documents

Publication Publication Date Title
US7711190B2 (en) Imaging device, imaging method and imaging program
US7706674B2 (en) Device and method for controlling flash
JP4656331B2 (en) Imaging apparatus and imaging method
JP3541820B2 (en) Imaging device and imaging method
JP4019200B2 (en) Camera with image display
JP2007311861A (en) Photographic apparatus and method
JP2008085737A (en) Electronic camera
JP2009094946A (en) Image pickup device and portrait right protection method in the same device
JP2006019874A (en) Blur, out of focus informing method and imaging apparatus
JP4859599B2 (en) Imaging device
US7260267B2 (en) Image processing apparatus, computer readable medium storing program, image processing method, image capturing apparatus, printing apparatus, and scanning apparatus
JP2006163496A (en) Apparatus, method and program for image recording
JP4696322B2 (en) Imaging device
JP2006287814A (en) Imaging apparatus and method of determining motion vector
JP2006252327A (en) Image evaluation device, image evaluation method and image evaluation program
JP4879127B2 (en) Digital camera and digital camera focus area selection method
JP2006221103A (en) Imaging apparatus and imaging apparatus control program
US20060182481A1 (en) Image recording apparatus
JP4254467B2 (en) Digital camera
JP2008182350A (en) Imaging apparatus and method
JP2006222900A (en) Imaging device and control program therefor
JP4306399B2 (en) Digital camera
JP2012039570A (en) Imaging device and image processing program
JP4305119B2 (en) Digital camera
JP2008160290A (en) Imaging apparatus, and imaging method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070111