JP2007081992A - Image pickup device and control method thereof - Google Patents

Image pickup device and control method thereof Download PDF

Info

Publication number
JP2007081992A
JP2007081992A JP2005268993A JP2005268993A JP2007081992A JP 2007081992 A JP2007081992 A JP 2007081992A JP 2005268993 A JP2005268993 A JP 2005268993A JP 2005268993 A JP2005268993 A JP 2005268993A JP 2007081992 A JP2007081992 A JP 2007081992A
Authority
JP
Japan
Prior art keywords
image
face
display
subject
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005268993A
Other languages
Japanese (ja)
Inventor
Yoshihiro Saga
吉博 嵯峨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005268993A priority Critical patent/JP2007081992A/en
Publication of JP2007081992A publication Critical patent/JP2007081992A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for notifying a face in a predetermined state among faces in a picked-up image. <P>SOLUTION: When a collective photographing mode is set, objects within a captured image are detected and states of the detected objects are recognized (step S105). An indication is performed for notifying an object of which the recognition result indicates a predetermined state (step S107). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、所望の撮像を行うための技術に関するものである。   The present invention relates to a technique for performing desired imaging.

人物撮影を行う場合、被写体となっている人物がよそ見をしたり目をつぶったりすることが良くある。特に集合写真を撮影したときには、よそ見をしている人や目をつぶっている人が含まれる可能性はさらに高くなる。撮影者はこのことに後で気付いても、集合写真を撮影したシーンに戻ることはできないので、結果として意図とした集合写真を得ることはできない。   When shooting a person, the person who is the subject often looks away or closes his eyes. In particular, when taking a group photo, there is a higher possibility that a person who is looking away or a person whose eyes are closed is included. Even if the photographer notices this later, he cannot return to the scene where the group photo was taken, and as a result cannot obtain the intended group photo.

通常、デジタルスチルカメラは、撮影した画像を撮影直後にディスプレイに表示するクイックレビュー機能を備える。しかし、多人数での集合写真の場合、クイックレビューで撮影された画像を確認するだけでは、よそ見をしている人や目をつぶっている人を即座に見つけることは困難である。   Usually, a digital still camera has a quick review function for displaying a photographed image on a display immediately after photographing. However, in the case of a group photo with a large number of people, it is difficult to instantly find a person who is looking away or a person whose eyes are closed only by checking an image taken by quick review.

係る技術分野には、以下のような従来技術(特許文献1を参照)が開示されている。即ち、撮像画像の中から被写体の顔の特徴的な部位を検出したり、肌色部分を検出することで顔領域を自動で検出する顔検出技術を用いて、入力された画像から顔画像を抽出し、名前、生年月日等の付加情報と共に、参照画像として登録する。そして、新たに入力された画像の中から参照画像に合致する顔画像を検出する。その顔画像をポインティングデバイス等でポインタを顔画像上に移動させると、参照情報に登録されていた付加情報を表示したり、拡大するしたりする。
特開2004−013871号公報
In the technical field, the following conventional technique (see Patent Document 1) is disclosed. That is, a face image is extracted from the input image by using a face detection technology that automatically detects a face area by detecting a characteristic part of a subject's face from a captured image or detecting a skin color part. Then, it is registered as a reference image together with additional information such as name and date of birth. Then, a face image that matches the reference image is detected from the newly input image. When the pointer is moved over the face image with a pointing device or the like, the additional information registered in the reference information is displayed or enlarged.
JP 2004-013871 A

本発明は以上の問題に鑑みてなされたものであり、撮像した画像における顔のうち、所定の状態となっている顔について報知するための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for notifying a face in a predetermined state among faces in a captured image.

また、本発明の別の目的は、それぞれの顔が所望の状態となっている場合に撮像を開始するための技術を提供することを目的とする。   Another object of the present invention is to provide a technique for starting imaging when each face is in a desired state.

本発明の目的を達成するために、例えば、本発明の撮像装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態を示す被写体について報知するための表示を行うべく、前記表示手段を制御する表示制御手段と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a detection unit that detects a subject in the image acquired by the acquisition unit;
Recognition means for recognizing the state of the subject detected by the detection means;
Display control means for controlling the display means so as to perform display for reporting a subject whose recognition result by the recognition means indicates a predetermined state.

本発明の目的を達成するために、例えば、本発明の撮像装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態である場合には、前記取得手段が取得した画像を所定のメモリに記録する記録制御手段と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a detection unit that detects a subject in the image acquired by the acquisition unit;
Recognition means for recognizing the state of the subject detected by the detection means;
And a recording control unit that records an image acquired by the acquisition unit in a predetermined memory when the recognition result by the recognition unit is in a predetermined state.

本発明の目的を達成するために、例えば、本発明の撮像装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像を逐次メモリに記録する記録制御手段と、
所定の指示入力を検知すると、前記メモリに記録された画像群のうち、修正対象画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態である場合には、前記画像群のうち1つを用いて、前記修正対象画像を修正する修正手段と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a recording control unit that sequentially records the images acquired by the acquisition unit in a memory;
Detecting a predetermined instruction input, detecting means for detecting a subject in the correction target image among the image group recorded in the memory;
Recognition means for recognizing the state of the subject detected by the detection means;
When the recognition result by the recognition means is in a predetermined state, it comprises correction means for correcting the correction target image using one of the image groups.

本発明の目的を達成するために、例えば、本発明の撮像装置の制御方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, a method for controlling an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態を示す被写体について報知するための表示を行うべく、前記表示手段を制御する表示制御工程と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a detection step of detecting a subject in the image acquired by the acquisition unit;
A recognition step for recognizing the state of the subject detected in the detection step;
A display control step of controlling the display means so as to perform a display for notifying a subject whose recognition result in the recognition step indicates a predetermined state.

本発明の目的を達成するために、例えば、本発明の撮像装置の制御方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, a method for controlling an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態である場合には、前記取得手段が取得した画像を所定のメモリに記録する記録制御工程と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a detection step of detecting a subject in the image acquired by the acquisition unit;
A recognition step for recognizing the state of the subject detected in the detection step;
And a recording control step of recording an image acquired by the acquisition unit in a predetermined memory when the recognition result by the recognition step is in a predetermined state.

本発明の目的を達成するために、例えば、本発明の撮像装置の制御方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, a method for controlling an imaging apparatus of the present invention comprises the following arrangement.

即ち、外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像を逐次メモリに記録する記録制御工程と、
所定の指示入力を検知すると、前記メモリに記録された画像群のうち、修正対象画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態である場合には、前記画像群のうち1つを用いて、前記修正対象画像を修正する修正工程と
を備えることを特徴とする。
That is, an acquisition means for acquiring an image of the outside world by imaging the outside world,
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a recording control step of sequentially recording images acquired by the acquisition unit in a memory;
When detecting a predetermined instruction input, a detection step of detecting a subject in the correction target image among the image group recorded in the memory;
A recognition step for recognizing the state of the subject detected in the detection step;
A correction step of correcting the correction target image using one of the image groups when the recognition result of the recognition step is in a predetermined state.

本発明の構成により、撮像した画像における顔のうち、所定の状態となっている顔について報知することができる。   According to the configuration of the present invention, it is possible to notify the face in a predetermined state among the faces in the captured image.

また、それぞれの顔が所望の状態となっている場合に撮像を開始することができる。   Further, imaging can be started when each face is in a desired state.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態では、撮像装置として、ディジタルカメラを適用した場合について説明する。図7は、本実施形態に係るディジタルカメラのハードウェア構成を示すブロック図である。
[First Embodiment]
In the present embodiment, a case where a digital camera is applied as an imaging device will be described. FIG. 7 is a block diagram showing a hardware configuration of the digital camera according to the present embodiment.

本実施形態に係るディジタルカメラは、被写体像を撮像するためのモードである撮影モード、撮影済みの画像を閲覧するためのモードである再生モード、そして集合写真撮影のためのモードである集合撮影モードの3つのモードを有する。ディジタルカメラの操作者が同図に示すモードスイッチ1021を操作し、この3つのモードのうち何れか1つのモードを選択すると、選択したモードを示す信号がモードスイッチ1021からIO1025を介してCPU1003に通知される。   The digital camera according to the present embodiment includes a shooting mode that is a mode for capturing a subject image, a playback mode that is a mode for browsing captured images, and a group shooting mode that is a mode for group photo shooting. There are three modes. When the operator of the digital camera operates the mode switch 1021 shown in the figure and selects one of these three modes, a signal indicating the selected mode is notified from the mode switch 1021 to the CPU 1003 via the IO 1025. Is done.

これにより、CPU1003は、モードスイッチ1021により選択されたモードを検知することができ、検知したモードに応じた動作を行うべく、図7に示した各部を制御する。以下では、各モードにおける各部の動作について説明する。なお、以下の説明では、被写体として、人の顔を用いる。   As a result, the CPU 1003 can detect the mode selected by the mode switch 1021 and controls each unit shown in FIG. 7 to perform an operation according to the detected mode. Below, operation | movement of each part in each mode is demonstrated. In the following description, a human face is used as the subject.

<撮影モード>
先ず、被写体像を撮像するためのモードである撮影モードに設定した場合の図7に示した各部の動作について説明する。なお、以下説明する各部は、CPU1003がROMコントローラ1015を介してROM1004から読み取るプログラムやデータを用いて制御することで動作するものである。
<Shooting mode>
First, the operation of each unit shown in FIG. 7 when the shooting mode, which is a mode for capturing a subject image, is set will be described. Note that each unit described below operates by being controlled by the CPU 1003 using a program or data read from the ROM 1004 via the ROM controller 1015.

レンズ1019は被写体像を結像し、結像された被写体像は撮像センサ1009によりアナログ画像信号として出力される。ADコンバータ1028は、撮像センサ1009から出力されたアナログ画像信号に対してA/D変換などを施し、ディジタル画像信号として出力する。撮像回路1010は、ADコンバータ1028から出力されるディジタル画像信号に対して、露出、ホワイトバランスを調整する処理を行うことで、調整済みの画像データを得る。更に静止画撮影時においてはこの画像データに対して圧縮処理を行い、圧縮画像データをバス1002を介してメモリコントローラ1005に出力する。後述するEVF動作の場合は圧縮していない画像データをメモリコントローラ1005に出力する。   The lens 1019 forms a subject image, and the formed subject image is output as an analog image signal by the imaging sensor 1009. The AD converter 1028 performs A / D conversion or the like on the analog image signal output from the image sensor 1009 and outputs the analog image signal as a digital image signal. The imaging circuit 1010 obtains adjusted image data by performing processing for adjusting exposure and white balance on the digital image signal output from the AD converter 1028. Further, during still image shooting, this image data is compressed, and the compressed image data is output to the memory controller 1005 via the bus 1002. In the case of an EVF operation described later, uncompressed image data is output to the memory controller 1005.

メモリコントローラ1005はこの圧縮画像データをDRAM1006に格納する。表示回路1012は、DRAM1006に格納された圧縮画像データを展開し、展開済みの画像データをDAコンバータ1029に出力、あるいはDRAM1006に格納された非圧縮画像データをDAコンバータ1029に出力する。DAコンバータ1029は、この画像データに対してD/A変換を施すことで、アナログ画像信号を生成し、後段のディスプレイ1011に出力する。以上の動作により、ディスプレイ1011の表示画面上には、上記被写体像が表示されることになる。   The memory controller 1005 stores this compressed image data in the DRAM 1006. The display circuit 1012 decompresses the compressed image data stored in the DRAM 1006 and outputs the decompressed image data to the DA converter 1029 or outputs the uncompressed image data stored in the DRAM 1006 to the DA converter 1029. The DA converter 1029 performs analog-to-digital conversion on the image data to generate an analog image signal and outputs the analog image signal to the subsequent display 1011. With the above operation, the subject image is displayed on the display screen of the display 1011.

ここで、ディジタルカメラの操作者によってシャッタースイッチ1023が押下されると、その旨を示す信号はシャッタースイッチ1023からIO1025を介してCPU1003に通知される。CPU1003は、シャッタースイッチ1023が押下された旨をこの信号により検知すると、メモリコントローラ1005を制御する。この制御により、撮像回路1010はADコンバータ1028から出力されるディジタル画像信号に対して、露出、ホワイトバランスを調整する処理を行い、さらにこの画像データに対して圧縮処理を行い、圧縮画像データをバス1002を介してメモリコントローラ1005に記録する。メモリコントローラ1005は、DRAM1006に格納された圧縮画像データを読み出し、ソケット1008に接続されているメモリカード1007に、この読み出した圧縮画像データを転送する。   Here, when the operator of the digital camera presses the shutter switch 1023, a signal indicating that is sent from the shutter switch 1023 to the CPU 1003 via the IO 1025. When the CPU 1003 detects from this signal that the shutter switch 1023 has been pressed, the CPU 1003 controls the memory controller 1005. By this control, the imaging circuit 1010 performs a process for adjusting exposure and white balance on the digital image signal output from the AD converter 1028, further performs a compression process on the image data, and transfers the compressed image data to the bus. The data is recorded in the memory controller 1005 via 1002. The memory controller 1005 reads the compressed image data stored in the DRAM 1006 and transfers the read compressed image data to the memory card 1007 connected to the socket 1008.

このような処理を行うことで、操作者がシャッタースイッチ1023を押下した場合には、そのタイミングに応じてDRAM1006に格納された画像をメモリカード1007に記録することができる。
<集合撮影モード>
次に、集合写真を撮影するためのモードである集合撮影モードに設定した場合の図7に示した各部の動作について説明する。なお、以下説明する各部は、CPU1003がROMコントローラ1015を介してROM1004から読み取るプログラムやデータを用いて制御することで動作するものである。
By performing such processing, when the operator presses the shutter switch 1023, an image stored in the DRAM 1006 can be recorded on the memory card 1007 in accordance with the timing.
<Group shooting mode>
Next, the operation of each unit shown in FIG. 7 when the group shooting mode, which is a mode for taking a group photo, is set will be described. Note that each unit described below operates by being controlled by the CPU 1003 using a program or data read from the ROM 1004 via the ROM controller 1015.

集合撮影モードが設定されると、上記撮影モードが設定された場合における動作に加え、特徴検出回路1000が動作する。図1は、集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。   When the group shooting mode is set, the feature detection circuit 1000 operates in addition to the operation when the shooting mode is set. FIG. 1 is a flowchart of processing performed by the digital camera when the group shooting mode is set.

先ず、ディスプレイ1011に被写体を表示するための処理(EVF表示)を行う(ステップS102)。即ち上述の通り、レンズ1019、撮像センサ1009、ADコンバータ1028、撮像回路1010を介して出力される被写体のディジタル画像信号は、撮像回路1010により画像データとしてメモリコントローラ1005に出力される。メモリコントローラ1005はこの画像データをDRAM1006に格納する。   First, processing (EVF display) for displaying a subject on the display 1011 is performed (step S102). That is, as described above, the digital image signal of the subject output via the lens 1019, the image sensor 1009, the AD converter 1028, and the image pickup circuit 1010 is output to the memory controller 1005 as image data by the image pickup circuit 1010. The memory controller 1005 stores this image data in the DRAM 1006.

表示回路1012は、DRAM1006に格納された画像データをDAコンバータ1029に出力する。DAコンバータ1029は、この展開済みの画像データに対してD/A変換を施すことで、アナログ画像信号を生成し、後段のディスプレイ1011に出力する。   The display circuit 1012 outputs the image data stored in the DRAM 1006 to the DA converter 1029. The DA converter 1029 generates an analog image signal by performing D / A conversion on the developed image data, and outputs the analog image signal to the subsequent display 1011.

ここで、ディジタルカメラの操作者がシャッタースイッチ1023を押下した旨をIO1025、バス1002を介してCPU1003が検知すると、処理をステップS103を介してステップS104に進める。そしてCPU1003は、DRAM1006に格納された最新の圧縮画像データを、ソケット1008に接続されているメモリカード1007に転送する(ステップS104)。更に、CPU1003は、同ステップにおいて、この圧縮画像データを展開したもの(撮影画像データ)をDRAM1006内に作成する。   If the CPU 1003 detects that the operator of the digital camera has pressed the shutter switch 1023 via the IO 1025 and the bus 1002, the process proceeds to step S104 via step S103. The CPU 1003 transfers the latest compressed image data stored in the DRAM 1006 to the memory card 1007 connected to the socket 1008 (step S104). Further, in the same step, the CPU 1003 creates a decompressed image data (photographed image data) in the DRAM 1006.

そして、特徴検出回路1000は、この撮影画像データを用いて、この撮影画像内に含まれている人の顔について認識処理を行い、認識した顔の状態について判別するための処理を行う(ステップS105)。   Then, the feature detection circuit 1000 performs recognition processing on the human face included in the captured image using the captured image data, and performs processing for determining the state of the recognized face (step S105). ).

図2は、ステップS105における処理の詳細を示すフローチャートである。   FIG. 2 is a flowchart showing details of the processing in step S105.

CPU1003、特徴検出回路1000は先ず、DRAM1006に格納されている撮影画像から顔を検出する処理を行う(ステップS202)。この検出処理には、パラメータ1001が用いられる。パラメータ1001は、顔の検出、認識の際に用いるパラメータである。画像内における顔の検出方法については様々な方法が考えられるが、例えば、特開2002−183731号公報、特開2004−062565号公報に開示されている技術を用いることができる。   First, the CPU 1003 and the feature detection circuit 1000 perform a process of detecting a face from a captured image stored in the DRAM 1006 (step S202). The parameter 1001 is used for this detection process. A parameter 1001 is a parameter used for face detection and recognition. Various methods for detecting a face in an image are conceivable. For example, techniques disclosed in Japanese Patent Application Laid-Open Nos. 2002-183731 and 2004-062565 can be used.

これらに開示された顔検出アルゴリズムにおいて、画像中の顔の輪郭に対する目の位置を判定することでよそ見を検出することができる。更に同アルゴリズムを用いれば、目を判定するときに細い目まで目と判定するように閾値設定を変化させたうえで顔検出を行うことにより目をつぶった顔を検出することができる。更に、同アルゴリズムを用いれば、目の色を判定することにより赤目となった顔を検出することができる。   In the face detection algorithms disclosed therein, looking away can be detected by determining the position of the eye with respect to the face outline in the image. Further, when the same algorithm is used, a face with closed eyes can be detected by performing face detection after changing the threshold setting so as to determine that the eyes are thin even when eyes are determined. Furthermore, if the algorithm is used, a face with red eyes can be detected by determining the color of the eyes.

なお、本実施形態では、よそ見をした顔や目をつぶった顔も検出する必要があるため、顔判定に用いる、顔の輪郭の縦横比や顔に対する目の位置や目の特徴を判定する閾値を、顔を広く検出することが可能なように設定する。   In this embodiment, since it is necessary to detect a face that has been looked away or a face that has closed its eyes, a threshold for determining the aspect ratio of the face outline, the position of the eyes with respect to the face, and the characteristics of the eyes used for face determination Is set so that the face can be detected widely.

そして、ステップS202における顔検出処理の結果、撮像画像から1つも顔が検出できなかった場合には、本フローチャートに従った処理を終了する。一方、1以上の顔を検出した場合には処理をステップS203に進め、CPU1003は、撮影画像において検出した顔の領域を囲む枠を規定する座標値をDRAM1006に格納する処理を、検出した顔毎に行う(ステップS203)。例えば、枠の四隅の座標値をDRAM1006に格納しても良いし、枠の左上隅の座標値と右下隅の座標値とをDRAM1006に格納するようにしても良い。なお、検出した顔の領域を囲むものはここでは四角形の枠としているが、この枠の形状は如何なるものであっても良い。   If no face is detected from the captured image as a result of the face detection process in step S202, the process according to this flowchart is terminated. On the other hand, if one or more faces are detected, the process proceeds to step S203, and the CPU 1003 performs a process of storing, in the DRAM 1006, coordinate values that define a frame surrounding the detected face area in the captured image for each detected face. (Step S203). For example, the coordinate values of the four corners of the frame may be stored in the DRAM 1006, or the coordinate values of the upper left corner and the lower right corner of the frame may be stored in the DRAM 1006. In addition, although what surrounds the area | region of the detected face is made into the square frame here, the shape of this frame may be what.

このような処理により、撮影画像中における各顔について、顔を囲む枠を規定する座標値をDRAM1006に格納することができる。ここで、CPU1003は、検出したそれぞれの顔を指し示すためのポインタをリセットする(ステップS204)。即ち、検出したそれぞれの顔に対して番号を付けた場合に、ポインタが指し示す番号が最初の番号となるようにする。   With such processing, for each face in the captured image, coordinate values that define a frame surrounding the face can be stored in the DRAM 1006. Here, the CPU 1003 resets a pointer for pointing to each detected face (step S204). That is, when a number is assigned to each detected face, the number indicated by the pointer is set to the first number.

次に、CPU1003は、現在のポインタが指し示す顔を囲む枠を規定する座標値データを参照し、この顔における目を検出し(ステップS205)、検出した目がよそ見の目であるのか否かのチェックを行う(ステップS206)。検出した目がよそ見の目であるのか否かのチェックは、例えば、ステップS202で顔検出処理の際に検出した顔の輪郭と目の位置を用いて判定する。人間の顔の場合、目は顔の輪郭に対してある範囲の位置に存在するはずである。しかし顔の輪郭に対して二つの目が中心より右あるいは左に偏って存在する場合、その顔はよそ見であると判定することができる。   Next, the CPU 1003 refers to the coordinate value data defining the frame surrounding the face pointed to by the current pointer, detects the eyes in this face (step S205), and determines whether or not the detected eyes are looking away. A check is performed (step S206). Whether or not the detected eyes are looking away is determined using, for example, the face contour and the eye position detected in the face detection process in step S202. In the case of a human face, the eyes should be in a range of positions relative to the face outline. However, if two eyes are present to the right or left of the center of the face, it can be determined that the face is looking away.

従って、このようなチェック処理の結果、検出した目がよそ見の目である場合には処理をステップS210に進め、現在のポインタが指し示している顔を囲む枠を規定する座標値データを、DRAM1006内のエラー情報領域に格納する(ステップS210)。   Therefore, if the result of such check processing is that the detected eye is looking away, the processing proceeds to step S210, and coordinate value data defining the frame surrounding the face pointed to by the current pointer is stored in the DRAM 1006. In the error information area (step S210).

一方、ステップS206におけるチェック処理の結果、検出した目がよそ見の目では無い場合、若しくはステップS210における処理の次には処理をステップS207に進める。そして、ステップS205で検出した目が開いているか否か、開いている場合には目が赤目となっているか否かをチェックする(ステップS207)。検出した目が開いているか否かのチェックは、例えば、ステップS202で顔検出処理の際に検出した目の縦横比を測定する。極端に横長な比率であるとき、閉じられた目と判断する。また、目が赤目であるか否かは、瞳検出することで得られる瞳領域の色を判別する事によりチェックすることができる。   On the other hand, if the detected eyes are not looking away as a result of the check process in step S206, or after the process in step S210, the process proceeds to step S207. Then, it is checked whether or not the eyes detected in step S205 are open, and if they are open, whether or not the eyes are red eyes (step S207). For checking whether or not the detected eyes are open, for example, the aspect ratio of the eyes detected during the face detection process in step S202 is measured. When the ratio is extremely long, it is determined that the eyes are closed. Whether or not the eyes are red eyes can be checked by determining the color of the pupil region obtained by detecting the pupil.

ステップS207におけるチェック処理の結果、目が閉じている、若しくは目が開いており且つ目が赤目である、と判定された場合には、処理をステップS211に進める。そして、現在のポインタが指し示している顔を囲む枠を規定する座標値データを、DRAM1006内のエラー情報領域に格納する(ステップS211)。   As a result of the check process in step S207, if it is determined that the eyes are closed or the eyes are open and the eyes are red eyes, the process proceeds to step S211. Then, coordinate value data defining a frame surrounding the face pointed to by the current pointer is stored in the error information area in the DRAM 1006 (step S211).

一方、ステップS207におけるチェック処理の結果、検出した目が開いており、且つ目が赤目ではない場合には処理をステップS208に進める。そして、ステップS202で検出した全ての顔についてステップS205以降の処理を行ったか否かをチェックし(ステップS208)、未だ行っていない場合には処理をステップS209に進め、ポインタを1つインクリメントする(ステップS209)。これにより、未だステップS205以降の処理対象となっていない顔を、次のステップS205以降の処理対象とする。そして処理をステップS205に戻し、インクリメント後のポインタが指し示す顔についてステップS205以降の処理を行う。   On the other hand, as a result of the check processing in step S207, if the detected eye is open and the eye is not red-eye, the process proceeds to step S208. Then, it is checked whether or not the processes after step S205 have been performed for all the faces detected in step S202 (step S208). If not, the process proceeds to step S209 and the pointer is incremented by one ( Step S209). As a result, a face that is not yet a processing target after step S205 is set as a processing target after the next step S205. Then, the process returns to step S205, and the processes after step S205 are performed on the face indicated by the incremented pointer.

一方、全ての顔についてステップS205以降の処理を行った場合には本フローチャートにおける処理を終了する。   On the other hand, when the processes after step S205 have been performed for all the faces, the processes in this flowchart are terminated.

以上説明した図2のフローチャートに従った処理によれば、撮影画像中の顔のうち、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、を囲む枠を規定する座標値データをDRAM1006内に格納することができる。   According to the processing according to the flowchart of FIG. 2 described above, among the faces in the captured image, a face looking away, a face with closed eyes, a face with open eyes but red eyes, Can be stored in the DRAM 1006.

以上説明した図2のフローチャートに従った処理が終了すると、図1のステップS106に戻り、DRAM1006より撮影画像データを読み出し、これをディスプレイ1011に表示する処理(クイックレビュー画面表示)を行う(ステップS106)。即ち、撮影画像を表示回路1012に出力する。表示回路1012は、この撮影画像をDAコンバータ1029に出力する。DAコンバータ1029は、撮影画像に対してD/A変換を施すことで、アナログ画像信号を生成し、後段のディスプレイ1011に出力する。   When the process according to the flowchart of FIG. 2 described above is completed, the process returns to step S106 of FIG. 1, and the captured image data is read from the DRAM 1006 and displayed on the display 1011 (quick review screen display) (step S106). ). That is, the captured image is output to the display circuit 1012. The display circuit 1012 outputs this captured image to the DA converter 1029. The DA converter 1029 generates an analog image signal by performing D / A conversion on the captured image, and outputs the analog image signal to the display 1011 at the subsequent stage.

次に、CPU1003は、DRAM1006内のエラー情報領域内を参照し、枠を規定する座標値データがあればこれを読み出し、顔毎の枠をDRAM1006上の画像データ上に上書きする。(ステップS107)。   Next, the CPU 1003 refers to the error information area in the DRAM 1006, reads coordinate value data defining a frame, if there is, and overwrites the frame for each face on the image data on the DRAM 1006. (Step S107).

表示回路1012は、ステップS106より、画像データをDAコンバータ1029に送出しはじめているため、枠が上書きされた表示画像がDAコンバータ1029に送出されることになる。DAコンバータ1029は画像のデータに対してD/A変換し、アナログ画像信号としてディスプレイ1011に送出する。これにより、ディスプレイ1011の表示画面上に表示されている撮影画像上において、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔には、枠が表示されることになる。   Since the display circuit 1012 starts sending image data to the DA converter 1029 from step S106, the display image with the frame overwritten is sent to the DA converter 1029. The DA converter 1029 D / A converts the image data and sends it to the display 1011 as an analog image signal. As a result, on the captured image displayed on the display screen of the display 1011, a frame is formed on the face looking away, the face with closed eyes, and the face with open eyes but red eyes. Will be displayed.

図8は、ディスプレイ1011の表示画面上に表示されている撮影画像上において、よそ見をしている顔、目を閉じている顔に枠が表示されている場合の表示例を示す図である。同図に示す如く、よそ見している顔、目を閉じている顔にはそれぞれ枠の画像801,802が重畳されて表示されている。   FIG. 8 is a diagram illustrating a display example when a frame is displayed on a face that is looking away and a face with closed eyes on a captured image displayed on the display screen of the display 1011. As shown in the figure, frame images 801 and 802 are superimposed and displayed on a face looking away and a face with closed eyes, respectively.

なお、ここでは、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れについても同じ色でもって枠を表示しているが、顔の種類毎に枠の色などの表示形態を異ならせるようにしても良い。   Here, the frame is displayed in the same color for the face looking away, the face with closed eyes, and the face with open eyes but red eyes. The display form such as the color of the frame may be different for each type.

次にCPU1003は、エラー情報領域内に格納されている顔毎の座標値データをエラー情報ファイルとして作成し、ステップS104でメモリカード1007内に記録した圧縮画像データと関連付けてメモリカード1007内に格納する(ステップS109)。   Next, the CPU 1003 creates the coordinate value data for each face stored in the error information area as an error information file, and stores it in the memory card 1007 in association with the compressed image data recorded in the memory card 1007 in step S104. (Step S109).

以上の処理により、撮影した画像において、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在する場合には、そのような顔に枠を表示することができる。なお、このような顔を通知する形態については枠を表示することに限定するものではなく、例えば、そのような顔の画像領域内の色を変更するようにしても良いし、通知形態については様々なもの考えられる。   By the above processing, if a captured image includes a face looking away, a face with closed eyes, or a face with open eyes but red eyes, such a face is framed. Can be displayed. Note that the form for notifying such a face is not limited to displaying a frame. For example, the color in the image area of such a face may be changed. Various things can be considered.

<再生モード>
次に、メモリカード1007に記録された画像をディスプレイ1011に表示する為のモードである再生モードが設定された場合に、図7に示した各部が行う動作について説明する。なお、以下説明する各部は、CPU1003がROMコントローラ1015を介してROM1004から読み取るプログラムやデータを用いて制御することで動作するものである。
<Playback mode>
Next, an operation performed by each unit shown in FIG. 7 when a playback mode that is a mode for displaying an image recorded on the memory card 1007 on the display 1011 is set will be described. Note that each unit described below operates by being controlled by the CPU 1003 using a program or data read from the ROM 1004 via the ROM controller 1015.

図3は、再生モードが設定された場合にディジタルカメラが行う処理のフローチャートである。先ず、CPU1003は、メモリカード1007内に記録された画像を指し示すポインタをリセットし、ポインタが、最も最近にメモリカード1007内に記録された画像を指し示すようにする(ステップS302)。   FIG. 3 is a flowchart of processing performed by the digital camera when the playback mode is set. First, the CPU 1003 resets a pointer indicating an image recorded in the memory card 1007 so that the pointer points to an image recorded most recently in the memory card 1007 (step S302).

次に、CPU1003は、現在のポインタが指し示す画像をメモリカード1007から読み出し、ディスプレイ1011に表示する(ステップS303)。より詳しくは、現在のポインタが指し示す画像をメモリカード1007から読み出すべく、CPU1003はメモリカードコントローラ1013を制御する。これによりメモリカードコントローラ1013は、CPU1003により指示された画像を読み出し、表示回路1012に出力する。表示回路1012は、この画像を展開し、展開後の画像データを一旦DRAM1006に記録する。さらに表示回路1012は、DRAM1006上のデータを繰り返しDAコンバータ1029に送出する。DAコンバータ1029はこの画像データに対してD/A変換し、アナログ画像信号としてディスプレイ1011に送出する。これにより、ディスプレイ1011の表示画面上には、現在のポインタが指し示す画像が表示されることになる。   Next, the CPU 1003 reads the image pointed to by the current pointer from the memory card 1007 and displays it on the display 1011 (step S303). More specifically, the CPU 1003 controls the memory card controller 1013 in order to read the image indicated by the current pointer from the memory card 1007. As a result, the memory card controller 1013 reads an image instructed by the CPU 1003 and outputs it to the display circuit 1012. The display circuit 1012 expands this image and records the expanded image data in the DRAM 1006 once. Further, the display circuit 1012 repeatedly sends the data on the DRAM 1006 to the DA converter 1029. The DA converter 1029 D / A converts this image data and sends it to the display 1011 as an analog image signal. As a result, an image indicated by the current pointer is displayed on the display screen of the display 1011.

ここで、メモリカード1007内において、現在のポインタが指し示す画像にエラー情報ファイルが関連付けられて格納されている場合、ステップS303ではこのエラー情報ファイルも読み出す。そこで、ステップS303における表示処理後、現在のポインタが指し示す画像のデータにエラー情報ファイルが関連付けられて格納されている場合には処理をステップS304を介してステップS305に進める。そして、CPU1003はエラー情報ファイルに格納されている座標値データを用いて枠の画像を生成し、DRAM1006上に存在する表示中の画像データに上書きする。(ステップS305)。   If an error information file is stored in the memory card 1007 in association with the image indicated by the current pointer, the error information file is also read in step S303. Therefore, after the display process in step S303, if the error information file is stored in association with the image data pointed to by the current pointer, the process proceeds to step S305 via step S304. Then, the CPU 1003 generates a frame image using the coordinate value data stored in the error information file, and overwrites the displayed image data on the DRAM 1006. (Step S305).

これにより、ディスプレイ1011の表示画面上に表示されている撮影画像上において、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔には、枠が重畳されて表示されることになる。   As a result, on the captured image displayed on the display screen of the display 1011, a frame is formed on the face looking away, the face with closed eyes, and the face with open eyes but red eyes. It will be displayed superimposed.

ディジタルカメラの操作者は、メモリカード1007に記録されている次の画像をディスプレイ1011に表示させる場合には、操作スイッチ1022を構成している送りボタンを押下する。送りボタンが押下されると、操作スイッチ1022からはその旨を示す信号がIO1025を介してCPU1003に通知される。   When an operator of the digital camera displays the next image recorded on the memory card 1007 on the display 1011, the operator of the digital camera presses the feed button constituting the operation switch 1022. When the feed button is pressed, a signal indicating that is sent from the operation switch 1022 to the CPU 1003 via the IO 1025.

CPU1003がこの信号を検知すると、処理をステップS306を介してステップS307に進め、CPU1003は、メモリカード1007内において次に新しい画像を指し示すべく、ポインタを設定する(ステップS307)。そして処理をステップS303に戻し、次に新しい画像に対してステップS303以降の処理を行う。   When the CPU 1003 detects this signal, the process proceeds to step S307 via step S306, and the CPU 1003 sets a pointer to point to the next new image in the memory card 1007 (step S307). Then, the process returns to step S303, and the processes after step S303 are performed on the new image.

以上の説明により、本実施形態によれば、撮影した画像において、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在する場合には、そのような顔に枠を表示することができる。これにより、ディジタルカメラの操作者は、これらのような顔の撮影があったことを容易に認知することができる。   As described above, according to the present embodiment, when a photographed image includes a face looking away, a face with closed eyes, and a face with open eyes but red eyes. , A frame can be displayed on such a face. As a result, the operator of the digital camera can easily recognize that the face has been photographed.

[第2の実施形態]
本実施形態では、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在しないような集合撮影を行うディジタルカメラについて説明する。
[Second Embodiment]
In the present embodiment, a digital camera that performs group shooting such that a face looking away, a face with closed eyes, and a face with open eyes but red eyes will not be present will be described.

図4は、本実施形態に係る集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。   FIG. 4 is a flowchart of processing performed by the digital camera when the group shooting mode according to the present embodiment is set.

先ず、ディスプレイ1011に被写体を表示するための処理(EVF表示)を行う(ステップS402)。ステップS402における処理は、上記ステップS102における処理と同様にして行う。   First, processing (EVF display) for displaying a subject on the display 1011 is performed (step S402). The process in step S402 is performed in the same manner as the process in step S102.

ここで、ディジタルカメラの操作者がシャッタースイッチ1023を押下した旨をIO1025、バス1002を介してCPU1003が検知すると、処理をステップS403を介してステップS405に進める。ステップS405では先ず、CPU1003は、DRAM1006に格納された最新の圧縮画像データを展開したもの(撮影画像データ)をDRAM1006内に作成する。   If the CPU 1003 detects that the operator of the digital camera has pressed the shutter switch 1023 via the IO 1025 and the bus 1002, the process proceeds to step S405 via step S403. In step S <b> 405, first, the CPU 1003 creates in the DRAM 1006 a developed version of the latest compressed image data stored in the DRAM 1006 (captured image data).

そして、特徴検出回路1000は、この撮影画像データを用いて、この撮影画像内に含まれている人の顔について認識処理を行い、認識した顔の状態について判別するための処理を行う。ステップS405における処理は、上記ステップS105における処理と同様にして行う。   The feature detection circuit 1000 performs recognition processing on the human face included in the captured image using the captured image data, and performs processing for determining the state of the recognized face. The process in step S405 is performed in the same manner as the process in step S105.

次に、CPU1003はDRAM1006内のエラー情報領域に座標値データが格納されているか否かをチェックする(ステップS406)。これにより、撮影画像内に、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在するか否かをチェックすることができる。   Next, the CPU 1003 checks whether coordinate value data is stored in the error information area in the DRAM 1006 (step S406). Thereby, it is possible to check whether or not there is a face looking away, a face with closed eyes, and a face with open eyes but red eyes in the captured image.

このチェック処理の結果、DRAM1006内のエラー情報領域に座標値データが格納されている場合には処理をステップS402に戻す。   If the coordinate value data is stored in the error information area in the DRAM 1006 as a result of this check process, the process returns to step S402.

一方、DRAM1006内のエラー情報領域に座標値データが格納されていない場合には、処理をステップS407に進め、撮影画像データをディスプレイ1011に表示する処理(クイックレビュー画面表示)を行う(ステップS407)。即ち、撮影画像を表示回路1012に出力する。表示回路1012は、この撮影画像をDAコンバータ1029に出力する。DAコンバータ1029は、撮影画像に対してD/A変換を施すことで、アナログ画像信号を生成し、後段のディスプレイ1011に出力する。   On the other hand, if the coordinate value data is not stored in the error information area in the DRAM 1006, the process proceeds to step S407, and the process of displaying the photographed image data on the display 1011 (quick review screen display) is performed (step S407). . That is, the captured image is output to the display circuit 1012. The display circuit 1012 outputs this captured image to the DA converter 1029. The DA converter 1029 generates an analog image signal by performing D / A conversion on the captured image, and outputs the analog image signal to the display 1011 at the subsequent stage.

次に、CPU1003は、この撮影画像データの展開元の圧縮画像データを、バス1002を介してメモリコントローラ1005に出力し、そこに格納する(ステップS408)。   Next, the CPU 1003 outputs the compressed image data from which the captured image data is expanded to the memory controller 1005 via the bus 1002, and stores it therein (step S408).

以上のように、本実施例はよそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れも存在しない場面でのみ、被写体の撮影が行われる。従ってシャッタースイッチ1023を押しつづけていれば、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れも存在しない状態が発生したときに、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れも存在しない画像が撮影される。   As described above, in this embodiment, the subject is photographed only in a situation where none of the face looking away, the face with closed eyes, and the face with open eyes but red eyes are present. Is called. Therefore, if the shutter switch 1023 is kept pressed, when there is a state in which none of the face looking away, the face with closed eyes, or the face with open eyes but red eyes is present, An image in which none of the face looking away, the face with closed eyes, or the face with open eyes but red eyes is present is taken.

以上の説明により、本実施形態によれば、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れも存在しない画像を撮像することができる。   As described above, according to the present embodiment, it is possible to capture an image in which neither a face looking away, a face with closed eyes, or a face with open eyes but red eyes is present. it can.

[第3の実施形態]
第2の実施形態に係る集合撮影モードでは、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、の何れも存在しない画像を撮像することができる。しかし、よそ見をする人や目をつぶる人が撮影の間に代わる代わる現れつづけると、いつまでたっても撮影を行うことができない。そこで、本実施形態では、このような問題を解消する集合撮影モードについて説明する。
[Third Embodiment]
In the group shooting mode according to the second embodiment, it is possible to capture an image in which none of a face looking away, a face with closed eyes, and a face with open eyes but red eyes are present. it can. However, if a person who looks away or a person who closes his eyes continues to appear during the shooting, the shooting cannot be performed indefinitely. Therefore, in this embodiment, a group shooting mode that solves such a problem will be described.

図5は、本実施形態に係る集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。   FIG. 5 is a flowchart of processing performed by the digital camera when the group shooting mode according to the present embodiment is set.

先ず、ディスプレイ1011に被写体を表示するための処理(EVF表示)を行う(ステップS502)。ステップS502における処理は、上記ステップS102における処理と同様にして行う。   First, processing (EVF display) for displaying a subject on the display 1011 is performed (step S502). The process in step S502 is performed in the same manner as the process in step S102.

ここで、ディジタルカメラの操作者がシャッタースイッチ1023を押下した旨をIO1025、バス1002を介してCPU1003が検知すると、処理をステップS503を介してステップS504に進める。   If the CPU 1003 detects that the operator of the digital camera has pressed the shutter switch 1023 via the IO 1025 and the bus 1002, the process proceeds to step S504 via step S503.

そしてCPU1003は、DRAM1006に格納された最新の圧縮画像データを、ソケット1008に接続されているメモリカード1007に転送する(ステップS504)。ここで、ディジタルカメラの操作者がシャッタースイッチ1023の押下を解除した旨をIO1025、バス1002を介してCPU1003が検知していない限りは、処理はステップS506を介してステップS504に戻る。即ち、シャッタースイッチ1023を押下している限りは、DRAM1006には順次圧縮画像データが格納され、この格納された圧縮画像データは順次メモリカード1007に転送されることになる。   The CPU 1003 transfers the latest compressed image data stored in the DRAM 1006 to the memory card 1007 connected to the socket 1008 (step S504). Here, unless the CPU 1003 detects that the operator of the digital camera has released the press of the shutter switch 1023 via the IO 1025 and the bus 1002, the process returns to step S504 via step S506. That is, as long as the shutter switch 1023 is pressed, the compressed image data is sequentially stored in the DRAM 1006, and the stored compressed image data is sequentially transferred to the memory card 1007.

一方、ディジタルカメラの操作者がシャッタースイッチ1023の押下を解除した旨をIO1025、バス1002を介してCPU1003が検知すると、処理をステップS506を介してステップS507に進める。ステップS507では先ず、CPU1003がメモリカードコントローラ1013を制御し、シャッタースイッチ1023を押下して最初にメモリカード1007に記録した圧縮画像データをメモリカード1007からDRAM1006に読み出す。そして、読み出した圧縮画像データを展開し、展開済み画像データ(第1撮影画像データ)に対して図2のフローチャートに従った処理を行う(ステップS507)。   On the other hand, when the CPU 1003 detects that the operator of the digital camera has released the press of the shutter switch 1023 via the IO 1025 and the bus 1002, the process proceeds to step S507 via step S506. In step S507, first, the CPU 1003 controls the memory card controller 1013, and the shutter switch 1023 is pressed to read the compressed image data first recorded on the memory card 1007 from the memory card 1007 to the DRAM 1006. Then, the read compressed image data is expanded, and the expanded image data (first photographed image data) is processed according to the flowchart of FIG. 2 (step S507).

即ち、第1撮影画像について座標値データがエラー情報領域内に格納されているか否かをチェックする。より詳しくは、この第1撮影画像中に、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在するか否かをチェックする。チェックの結果、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔の何れかが存在する場合には処理をステップS508を介してステップS512に進め、存在する顔について以下説明する修正処理を行う(ステップS512)。   That is, it is checked whether or not the coordinate value data is stored in the error information area for the first captured image. More specifically, it is checked whether or not a face looking away, a face with closed eyes, and a face with open eyes but red eyes are present in the first photographed image. As a result of the check, if any of the face looking away, the face with closed eyes, or the face with open eyes but red eyes is present, the process proceeds to step S512 via step S508. Then, the correction process described below is performed for the existing face (step S512).

図6は、ステップS512における処理の詳細を示すフローチャートである。   FIG. 6 is a flowchart showing details of the processing in step S512.

先ず、CPU1003は、第1撮影画像に対応する座標値データをエラー情報領域から読み出す(ステップS602)。次に、以下の処理対象とする画像を、シャッタースイッチ1023を押下して2番目にメモリカード1007に記録した圧縮画像データを展開した展開済み画像データ(第2撮影画像データ)とする(ステップS604)。そして、第2撮影画像データ中で、ステップS602で読み出した座標値データで規定される枠内に、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔、が存在するか否かをチェックする(ステップS605)。このチェック処理は、CPU1003、特徴検出回路1000により行われ、図2のフローチャートを用いて説明したとおりである。   First, the CPU 1003 reads coordinate value data corresponding to the first captured image from the error information area (step S602). Next, an image to be processed is set as decompressed image data (second photographed image data) obtained by decompressing the compressed image data secondly recorded on the memory card 1007 by pressing the shutter switch 1023 (step S604). ). Then, in the second photographed image data, the face looking away, the face with eyes closed, and the eyes open with red eyes within the frame defined by the coordinate value data read in step S602. It is checked whether or not a face is present (step S605). This check process is performed by the CPU 1003 and the feature detection circuit 1000, as described with reference to the flowchart of FIG.

このチェック処理の結果、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔の何れかが存在した場合には処理をステップS604に戻す。そして、以下の処理対象とする画像を、シャッタースイッチ1023を押下して3番目にメモリカード1007に記録した圧縮画像データを展開した展開済み画像データ(第3撮影画像データ)とする。そして、第3の撮影画像データについてステップS605,S606における処理を行う。   As a result of this check process, if any of the face looking away, the face with closed eyes, or the face with open eyes but red eyes is present, the process returns to step S604. Then, an image to be processed is set as decompressed image data (third photographed image data) obtained by decompressing the compressed image data recorded on the memory card 1007 third by pressing the shutter switch 1023. And the process in step S605, S606 is performed about 3rd picked-up image data.

以下の説明では、第x(x≧2)撮影画像中で、ステップS602で読み出した座標値データで規定される枠内に上記何れの顔も存在しない場合について説明する。ここで第x撮影画像とは、シャッタースイッチ1023を押下してx番目にメモリカード1007に記録した圧縮画像を展開した展開済み画像のことである。   In the following description, a case will be described in which none of the above faces exists in the frame defined by the coordinate value data read out in step S602 in the xth (x ≧ 2) photographed image. Here, the x-th photographed image is a developed image obtained by decompressing the compressed image recorded in the xth memory card 1007 by pressing the shutter switch 1023.

第x撮影画像中で、ステップS602で読み出した座標値データで規定される枠内に、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔の何れも含まれてない場合には処理をステップS607からステップS608に進める。そして、この枠内の画像領域をコピーし、第1撮影画像中で、ステップS602で読み出した座標値データで規定される枠内に、張り付ける(ステップS608)。これにより、第1撮影画像中で、よそ見をしている顔、目を閉じている顔、目は開いているが赤目となっている顔が存在しても、これを修正することができる。   In the x-th photographed image, the face looking away, the face with closed eyes, the face with open eyes but red eyes within the frame defined by the coordinate value data read in step S602. If neither is included, the process proceeds from step S607 to step S608. Then, the image area in the frame is copied and pasted in the frame defined by the coordinate value data read in step S602 in the first captured image (step S608). Thereby, even if there is a face looking away, a face with closed eyes, or a face with open eyes but red eyes in the first captured image, this can be corrected.

そして処理を図5におけるステップS509に戻し、ステップS608で修正済みの画像をディスプレイ1011に表示する処理(クイックレビュー画面表示)を行う(ステップS509)。即ち、修正済みの画像を表示回路1012に出力する。表示回路1012はこの修正済みの画像をDAコンバータ1029に出力する。DAコンバータ1029は、この画像に対してD/A変換を施すことで、アナログ画像信号を生成し、後段のディスプレイ1011に出力する。   Then, the process returns to step S509 in FIG. 5, and a process (quick review screen display) for displaying the corrected image in step S608 on the display 1011 is performed (step S509). That is, the corrected image is output to the display circuit 1012. The display circuit 1012 outputs the corrected image to the DA converter 1029. The DA converter 1029 generates an analog image signal by performing D / A conversion on the image, and outputs the analog image signal to the subsequent display 1011.

次に、CPU1003は、修正済みの画像を画像ファイルとして、メモリカードコントローラ1013を介してメモリカード1007に記録する(ステップS510)。記録の際には、修正済みの画像を圧縮して記録する。   Next, the CPU 1003 records the corrected image as an image file on the memory card 1007 via the memory card controller 1013 (step S510). When recording, the corrected image is compressed and recorded.

更に、CPU1003は、DRAM1006内のエラー情報領域内を参照し、枠を規定する座標値データがあればこれを読み出し、ステップS510で記録した画像ファイルに関連付けてメモリカード1007に記録する(ステップS511)。   Further, the CPU 1003 refers to the error information area in the DRAM 1006, reads the coordinate value data defining the frame, if any, and records it in the memory card 1007 in association with the image file recorded in step S510 (step S511). .

なお、本実施形態では、修正対象の画像を、シャッタースイッチ1023を押下して最初にメモリカード1007に記録した圧縮画像データを展開した画像とした。しかし、シャッタースイッチ1023を押下している間に記録された画像であれば良く、第1撮影画像に限定するものではない。   In the present embodiment, the image to be corrected is an image obtained by developing compressed image data first recorded on the memory card 1007 by pressing the shutter switch 1023. However, any image recorded while the shutter switch 1023 is pressed may be used, and the image is not limited to the first photographed image.

ここで、上記各実施形態では、被写体として人の顔を用いた。しかし、被写体としてその他のものを用いても良く、その場合には、その被写体の状態を認識するために必要なパラメータをパラメータ1001として予め作成しておく必要がある。   Here, in each of the above embodiments, a human face is used as a subject. However, other objects may be used as the subject, and in that case, a parameter necessary for recognizing the state of the subject needs to be created in advance as the parameter 1001.

また、第1〜3の実施形態のうち任意のものを適宜組み合わせた実施形態も実施可能である。   In addition, an embodiment in which any one of the first to third embodiments is appropriately combined can be implemented.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code of software that implements the functions of the above-described embodiments is supplied to a system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。6 is a flowchart of processing performed by a digital camera when a group shooting mode is set. ステップS105における処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process in step S105. 再生モードが設定された場合にディジタルカメラが行う処理のフローチャートである。It is a flowchart of the process which a digital camera performs when the reproduction mode is set. 本発明の第2の実施形態に係る集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。It is a flowchart of the processing which a digital camera performs when the group shooting mode according to the second embodiment of the present invention is set. 本発明の第3の実施形態に係る集合撮影モードが設定された場合にディジタルカメラが行う処理のフローチャートである。It is a flowchart of the processing which a digital camera performs when the group shooting mode according to the third embodiment of the present invention is set. ステップS512における処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process in step S512. 本発明の第1の実施形態に係るディジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the digital camera which concerns on the 1st Embodiment of this invention. ディスプレイ1011の表示画面上に表示されている撮影画像上において、よそ見をしている顔、目を閉じている顔に枠が表示されている場合の表示例を示す図である。10 is a diagram illustrating a display example when a frame is displayed on a face looking away and a face with closed eyes on a captured image displayed on the display screen of the display 1011. FIG.

Claims (11)

外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態を示す被写体について報知するための表示を行うべく、前記表示手段を制御する表示制御手段と
を備えることを特徴とする撮像装置。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a detection unit that detects a subject in the image acquired by the acquisition unit;
Recognition means for recognizing the state of the subject detected by the detection means;
An image pickup apparatus comprising: a display control unit that controls the display unit so as to perform display for notifying a subject whose recognition result by the recognition unit indicates a predetermined state.
前記被写体は、人の顔であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject is a human face. 前記検出手段が検出した人の顔が、よそ見した顔、目をつぶった顔、赤目となった顔の何れかであると前記認識手段が認識した場合には、前記表示制御手段は、当該認識した顔について報知する為の表示を行うべく、前記表示手段を制御することを特徴とする請求項2に記載の撮像装置。   When the recognizing means recognizes that the human face detected by the detecting means is a face looked away, a face with closed eyes, or a face with red eyes, the display control means The image pickup apparatus according to claim 2, wherein the display unit is controlled to perform display for notifying the face that has been performed. 外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態である場合には、前記取得手段が取得した画像を所定のメモリに記録する記録制御手段と
を備えることを特徴とする撮像装置。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a detection unit that detects a subject in the image acquired by the acquisition unit;
Recognition means for recognizing the state of the subject detected by the detection means;
An image pickup apparatus comprising: a recording control unit that records an image acquired by the acquisition unit in a predetermined memory when a recognition result by the recognition unit is in a predetermined state.
外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置であって、
所定のモードが設定された場合には、前記取得手段が取得した画像を逐次メモリに記録する記録制御手段と、
所定の指示入力を検知すると、前記メモリに記録された画像群のうち、修正対象画像中における被写体を検出する検出手段と、
前記検出手段が検出した被写体の状態を認識する認識手段と、
前記認識手段による認識結果が所定の状態である場合には、前記画像群のうち1つを用いて、前記修正対象画像を修正する修正手段と
を備えることを特徴とする撮像装置。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
An image pickup apparatus comprising: display means for displaying an image obtained by the obtaining means;
When a predetermined mode is set, a recording control unit that sequentially records the images acquired by the acquisition unit in a memory;
Detecting a predetermined instruction input, detecting means for detecting a subject in the correction target image among the image group recorded in the memory;
Recognition means for recognizing the state of the subject detected by the detection means;
An imaging apparatus comprising: correction means for correcting the correction target image using one of the image groups when the recognition result by the recognition means is in a predetermined state.
前記修正手段は、前記画像群のうち、画像中の前記被写体が前記所定の状態ではないと前記認識手段により認識された画像を用いて、前記修正対象画像を修正することを特徴とする請求項5に記載の撮像装置。   The correction means corrects the correction target image using an image recognized by the recognition means that the subject in the image is not in the predetermined state in the image group. 5. The imaging device according to 5. 外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態を示す被写体について報知するための表示を行うべく、前記表示手段を制御する表示制御工程と
を備えることを特徴とする撮像装置の制御方法。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a detection step of detecting a subject in the image acquired by the acquisition unit;
A recognition step for recognizing the state of the subject detected in the detection step;
A display control step of controlling the display means so as to perform display for notifying a subject whose recognition result in the recognition step indicates a predetermined state.
外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態である場合には、前記取得手段が取得した画像を所定のメモリに記録する記録制御工程と
を備えることを特徴とする撮像装置の制御方法。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a detection step of detecting a subject in the image acquired by the acquisition unit;
A recognition step for recognizing the state of the subject detected in the detection step;
And a recording control step of recording an image acquired by the acquisition unit in a predetermined memory when the recognition result of the recognition step is in a predetermined state.
外界を撮像することで、当該外界の画像を取得する取得手段と、
前記取得手段が取得した画像を表示する表示手段と、を備える撮像装置の制御方法であって、
所定のモードが設定された場合には、前記取得手段が取得した画像を逐次メモリに記録する記録制御工程と、
所定の指示入力を検知すると、前記メモリに記録された画像群のうち、修正対象画像中における被写体を検出する検出工程と、
前記検出工程で検出した被写体の状態を認識する認識工程と、
前記認識工程による認識結果が所定の状態である場合には、前記画像群のうち1つを用いて、前記修正対象画像を修正する修正工程と
を備えることを特徴とする撮像装置の制御方法。
Acquisition means for acquiring an image of the outside world by imaging the outside world;
A display means for displaying an image acquired by the acquisition means, and a control method for an imaging apparatus comprising:
When a predetermined mode is set, a recording control step of sequentially recording images acquired by the acquisition unit in a memory;
When detecting a predetermined instruction input, a detection step of detecting a subject in the correction target image among the image group recorded in the memory;
A recognition step for recognizing the state of the subject detected in the detection step;
And a correction step of correcting the correction target image using one of the image groups when the recognition result in the recognition step is in a predetermined state.
撮像装置に請求項7乃至9の何れか1項に記載の制御方法を実行させることを特徴とするプログラム。   A program for causing an imaging apparatus to execute the control method according to claim 7. 請求項10に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能なプログラム。   A computer-readable program storing the program according to claim 10.
JP2005268993A 2005-09-15 2005-09-15 Image pickup device and control method thereof Withdrawn JP2007081992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005268993A JP2007081992A (en) 2005-09-15 2005-09-15 Image pickup device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005268993A JP2007081992A (en) 2005-09-15 2005-09-15 Image pickup device and control method thereof

Publications (1)

Publication Number Publication Date
JP2007081992A true JP2007081992A (en) 2007-03-29

Family

ID=37941792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005268993A Withdrawn JP2007081992A (en) 2005-09-15 2005-09-15 Image pickup device and control method thereof

Country Status (1)

Country Link
JP (1) JP2007081992A (en)

Similar Documents

Publication Publication Date Title
JP4154400B2 (en) Imaging apparatus, control method thereof, and program
JP4645685B2 (en) Camera, camera control program, and photographing method
US8274572B2 (en) Electronic camera capturing a group of a plurality of specific objects
JP4663700B2 (en) Imaging apparatus and imaging method
JP2004062565A (en) Image processor and image processing method, and program storage medium
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
JP2008092515A (en) Electronic camera, image processing apparatus and program
JP4127521B2 (en) Digital camera and control method thereof
JP2010063085A (en) Imaging device, photographing method, and program
JP2007027971A (en) Photographing apparatus, control method thereof, program, and recording medium
JP4894616B2 (en) Imaging device
JP5142825B2 (en) Image display device and image display method
JP4888192B2 (en) Imaging device
JP3927802B2 (en) Image processing device
JP2020102059A (en) Image processor
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2008067298A (en) Photography apparatus and program
JP5289354B2 (en) Imaging device
JP2010016693A (en) Electronic camera
JP2007081992A (en) Image pickup device and control method thereof
JP5116494B2 (en) Imaging device
JP2005176272A (en) Image pickup method and apparatus thereof
JP2004208281A (en) Image correction apparatus and imaging unit
JP2009005251A (en) Image processing apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202