JP2006087083A - Imaging device, and control method of imaging device - Google Patents

Imaging device, and control method of imaging device Download PDF

Info

Publication number
JP2006087083A
JP2006087083A JP2005232182A JP2005232182A JP2006087083A JP 2006087083 A JP2006087083 A JP 2006087083A JP 2005232182 A JP2005232182 A JP 2005232182A JP 2005232182 A JP2005232182 A JP 2005232182A JP 2006087083 A JP2006087083 A JP 2006087083A
Authority
JP
Japan
Prior art keywords
unit
image data
imaging
warning
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005232182A
Other languages
Japanese (ja)
Other versions
JP2006087083A5 (en
JP4551839B2 (en
Inventor
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005232182A priority Critical patent/JP4551839B2/en
Publication of JP2006087083A publication Critical patent/JP2006087083A/en
Publication of JP2006087083A5 publication Critical patent/JP2006087083A5/ja
Application granted granted Critical
Publication of JP4551839B2 publication Critical patent/JP4551839B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device such as a digital camera which gives an alarm to a user when an unintended picture is photographed, and can perform re-photographing automatically or by intention of the user. <P>SOLUTION: When an imaging condition of a photographing object is not suitable by detecting the photographing object in the image data photographed, and discriminating the imaging condition of the photographing object, the device gives an alarm to the user by displaying the image attached with an alarm content which suggests the fact in an electronic view finder, or by other measures. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラやデジタルビデオカメラ等の撮像装置において、最適な画像を撮像するための制御に関するものである。   The present invention relates to control for capturing an optimal image in an imaging apparatus such as a digital camera or a digital video camera.

デジタルカメラやデジタルビデオカメラ等の撮像装置において、撮像画像を確認するための機能として、撮像モードでは撮像の直後に撮った画像を液晶ディスプレイに表示するレックレビュー機能がある。   In an imaging apparatus such as a digital camera or a digital video camera, as a function for confirming a captured image, there is a REC review function for displaying an image taken immediately after imaging on a liquid crystal display in the imaging mode.

また、再生モードではユーザーの操作に応じて撮った画像を順に表示する機能がある。デジタルカメラやデジタルビデオカメラ等において、上記の機能を使用する際、撮像画像の確認のため等に用いる液晶である電子ビューファインダー(これよりEVFという)では画面サイズが小さく、撮像画像を縮小して表示する場合が多い。   In the playback mode, there is a function for sequentially displaying images taken in response to a user operation. When using the above functions in a digital camera, digital video camera, etc., the electronic viewfinder (hereinafter referred to as EVF), which is a liquid crystal used for confirming the captured image, has a small screen size and reduces the captured image. It is often displayed.

したがって、例えば被写体の人物の目が閉じられていたり、赤目であったり、被写体の顔の輝度値が高すぎたり、焦点があってなかったり、と意図する撮影ができなかったとしても、被写体が小さい場合はそのような状況を確認することは困難であった。   Therefore, even if the subject's eyes are closed, the eyes are red, the brightness of the subject's face is too high, or the subject is not in focus, the subject cannot be captured. When it is small, it is difficult to confirm such a situation.

そのため、これらの撮像装置は、ユーザーによるボタン操作によって画像を拡大してから画像の確認を行える機能を備えている。   For this reason, these image pickup apparatuses have a function of confirming an image after enlarging the image by a button operation by the user.

しかしながら、撮影する度に画像を拡大することは手間がかかる。よって、撮影画像に不備があって撮影をやり直そうとしても、操作の間に被写体の構図が変化してしまっている可能性が高い。   However, it is troublesome to enlarge the image every time it is taken. Therefore, even if there is a defect in the photographed image and an attempt is made to redo the photographing, there is a high possibility that the composition of the subject has changed during the operation.

また、ユーザーによっては、1枚撮像するたびに画像を確認するのではなく、複数の画像を撮像し終わった後で、まとめて撮像画像を確認するといった使い方をすることもある。   In addition, some users do not check the image every time one image is taken, but may use the method of checking the picked-up images collectively after taking a plurality of images.

この場合、最初の画像を撮影してからしばらく経過した後に、意図する撮影ができていなかったことに気付くことになる。この場合も、撮影画像に不備があって撮影をやり直そうとしても、操作の間に被写体の構図が変化してしまっている可能性が高い。   In this case, after a while has passed since the first image was photographed, it was noticed that the intended photographing was not performed. Also in this case, there is a high possibility that the composition of the subject has changed during the operation even if there is a defect in the captured image and an attempt is made to redo the shooting.

そこで、ユーザーがわざわざ画像を拡大する操作を行わずとも、すぐさま撮像の成否を判定できる機能が望まれている。   Therefore, there is a demand for a function that can immediately determine the success or failure of imaging without requiring the user to bother to enlarge the image.

例えば、被写体の顔及び目の位置を検出して、目つぶりなどの出力写真として適さない画像を自動的に排除し、常に最良の画像を出力し得る証明写真用のシステムが提案されている(特許文献1)。
特開2000−292853号公報
For example, an ID photo system has been proposed that detects the position of a subject's face and eyes, automatically eliminates images that are not suitable as output photos such as blinking, and can always output the best image ( Patent Document 1).
JP 2000-292853 A

特許文献1には、被写体の目の位置を検出し、目の状態を判定して瞳が開いている場合にのみ撮像するとある。   Japanese Patent Application Laid-Open No. 2004-133620 detects an eye position of a subject, determines the state of the eye, and captures an image only when the pupil is open.

このような方法は、証明写真のように一人の被写体が撮像対象で、かつ目が開いていることが前提である場合においては有効である。   Such a method is effective when it is assumed that one subject is an object to be imaged and the eyes are open like an ID photo.

しかしながら、ユーザーが任意のタイミングで撮像を行う一般的なデジタルカメラやデジタルビデオカメラ等の使用方法では、目を閉じている状態を撮像することもあり、被写体の状態に応じて一義的に処理を決定してしまうという方法は好ましくない。   However, when using a general digital camera, digital video camera, or the like in which the user captures images at an arbitrary timing, the user may capture a state where the eyes are closed, and the processing is uniquely performed according to the state of the subject. The method of deciding is not preferable.

本発明は上記問題点を鑑みてなされたものであり、簡便に最適な画像を撮像することを可能にさせる撮像装置あるいは撮像方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus or an imaging method that makes it possible to easily capture an optimal image.

上記課題を解決し、目的を達成するために、本発明の撮像装置は、使用者からの指示に応じて撮像された画像データから被写体領域を検出する被写体検出手段と、前記撮像された画像データを基に、表示用画像データを生成する信号処理手段と、前記信号処理手段にて処理された表示用画像データを表示する表示手段と、前記被写体検出手段の検出結果をもとに、警告するか否かの判定をする判定手段と、判定手段の判定結果に応じて警告を行う報知手段とを有し、制御部は、前記警告の内容に応じて、撮像部の制御パラメータを自動で変更して撮像部に撮像させることを特徴とする撮像装置。   In order to solve the above problems and achieve the object, an imaging apparatus according to the present invention includes subject detection means for detecting a subject region from image data captured in accordance with an instruction from a user, and the captured image data. Based on the detection result of the signal processing means for generating the display image data, the display means for displaying the display image data processed by the signal processing means, and the detection result of the subject detection means Determining means for determining whether or not, and notifying means for giving a warning according to the determination result of the determining means, the control unit automatically changes the control parameters of the imaging unit according to the content of the warning Then, the imaging apparatus is configured to cause the imaging unit to capture an image.

また、上記課題を解決し、目的を達成するために、本発明の撮像装置の制御方法は、使用者からの指示に応じて撮像された画像データから被写体領域を検出する被写体を検出する被写体検出工程と、前記撮像された画像データを基に、表示用画像データを生成する信号処理工程と、前記信号処理工程にて処理された表示用画像データを表示する表示工程と、前記被写体検出工程の検出結果をもとに、警告するか否かの判定をする判定工程と、判定手段の判定結果に応じて警告を行う報知工程とを有し、制御部は、前記警告の内容に応じて、撮像部の制御パラメータを自動で変更して撮像部に撮像させることを特徴とする撮像装置の制御方法。   In order to solve the above problems and achieve the object, the control method of the imaging apparatus of the present invention is a subject detection method for detecting a subject for detecting a subject area from image data captured in accordance with an instruction from a user. A signal processing step for generating display image data based on the captured image data, a display step for displaying the display image data processed in the signal processing step, and a subject detection step. Based on the detection result, it has a determination step for determining whether or not to warn, and a notification step for performing warning according to the determination result of the determination means, the control unit according to the content of the warning, A control method for an image pickup apparatus, wherein a control parameter of an image pickup unit is automatically changed and the image pickup unit picks up an image.

本発明によれば、デジタルカメラやデジタルビデオカメラ等での撮像時に、被写体の状態を画像処理によって判定し、その判定結果に応じて再撮像、または再撮像を促すような警告を行うことによって、簡便に最適な画像を撮像することを可能にさせることができる。   According to the present invention, at the time of imaging with a digital camera, a digital video camera, or the like, the state of the subject is determined by image processing, and re-imaging according to the determination result, or a warning that prompts re-imaging is performed, It is possible to easily take an optimal image.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
本実施形態における撮像装置20の構成を図1に示す。ここでは撮像装置としてデジタルカメラを例にあげて説明を行う。
(First embodiment)
FIG. 1 shows the configuration of the imaging apparatus 20 in the present embodiment. Here, a digital camera will be described as an example of the imaging device.

同図において、1は撮像装置20の各機能を制御する為の信号を制御する制御部である。   In the figure, reference numeral 1 denotes a control unit that controls signals for controlling each function of the imaging apparatus 20.

2は、光電変換機能を有するCCDやCMOS等の固体撮像素子、固体撮像素子に被写体光を導くための撮像光学系、固体撮像素子に到達する光量を調整する絞りやシャッターからなる光量調節部材、および固体撮像素子の出力信号の利得を調節するAGC(オートゲインコントローラ)等を有している撮像部である。   2 is a solid-state imaging device such as a CCD or CMOS having a photoelectric conversion function, an imaging optical system for guiding subject light to the solid-state imaging device, a light amount adjusting member including a diaphragm or a shutter for adjusting the amount of light reaching the solid-state imaging device, And an imaging unit having an AGC (auto gain controller) for adjusting the gain of the output signal of the solid-state imaging device.

3は撮像部2から出力される信号を入力として、例えば公知の色補正処理や輝度補正処理等の信号処理を施し画像データを生成する画像処理部である。   Reference numeral 3 denotes an image processing unit that receives a signal output from the imaging unit 2 and performs signal processing such as known color correction processing and luminance correction processing to generate image data.

4は画像処理部3で生成された画像データを蓄積する画像蓄積バッファである。   An image storage buffer 4 stores the image data generated by the image processing unit 3.

5は画像蓄積バッファ4に蓄えられた画像データを読み出して、データ量を間引いた画像データに変換する信号変換部である。   Reference numeral 5 denotes a signal conversion unit that reads out image data stored in the image storage buffer 4 and converts the image data into image data obtained by thinning out the data amount.

9は画像蓄積バッファ4に蓄積された画像データを用いて、画像データの中から人物の顔を検出する顔検出部である。   A face detection unit 9 detects a human face from the image data using the image data stored in the image storage buffer 4.

8は顔検出部9にて検出された人物の顔が所定の条件を満たしているか否かを判定する判定部である。   A determination unit 8 determines whether or not the face of the person detected by the face detection unit 9 satisfies a predetermined condition.

6は判定部8の判定結果に応じて、信号変換部5にて生成された画像データと警告表示とを合成する画像生成部である。   Reference numeral 6 denotes an image generation unit that synthesizes the image data generated by the signal conversion unit 5 and the warning display according to the determination result of the determination unit 8.

7は画像生成部6の出力を不図示のD/A変換装置によりアナログ信号に変換して表示する表示部である。   A display unit 7 converts the output of the image generation unit 6 into an analog signal by a D / A converter (not shown) and displays the analog signal.

10は画像蓄積バッファ4に一時的に保存されていた画像データが最終的に保存されるフラッシュメモリ等の記録部である。   Reference numeral 10 denotes a recording unit such as a flash memory in which image data temporarily stored in the image storage buffer 4 is finally stored.

図2は本実施形態における処理の流れを説明するためのフローチャートである。以下このフローチャートにそって動作の説明を行う。   FIG. 2 is a flowchart for explaining the flow of processing in the present embodiment. The operation will be described below with reference to this flowchart.

なお、このフローチャートは、カメラの不図示のレリーズスイッチがユーザーによって操作されることで、制御部1が撮影画像データを記録するよう指示を出した後の処理から記載されている。   This flowchart is described from the processing after the control unit 1 gives an instruction to record the captured image data when the release switch (not shown) of the camera is operated by the user.

ステップS101では、撮像部2が設定された露出値に沿うように固体撮像素子への露光動作を行い、固体撮像素子の出力信号の利得を調節する。   In step S101, the imaging unit 2 performs an exposure operation on the solid-state imaging device so as to follow the set exposure value, and adjusts the gain of the output signal of the solid-state imaging device.

ステップS102では、画像処理部3は、撮像部2から出力される信号を処理して画像データを生成する。   In step S102, the image processing unit 3 processes the signal output from the imaging unit 2 to generate image data.

ステップS103では、制御部1は、S102で生成された画像データを画像蓄積バッファ4に記録する。この画像蓄積バッファ4に記録された画像データに対して、次のステップS104の処理とステップS105,S106の処理とが並行して行われる。   In step S103, the control unit 1 records the image data generated in S102 in the image accumulation buffer 4. The process of the next step S104 and the processes of steps S105 and S106 are performed on the image data recorded in the image storage buffer 4 in parallel.

ステップS104では、信号変換部5は、画像蓄積バッファ4に蓄えられた画像データよりも解像度の小さな表示用画像データを生成する。   In step S <b> 104, the signal conversion unit 5 generates display image data having a smaller resolution than the image data stored in the image storage buffer 4.

なお、解像度の小さな表示用画像データに変換する理由は、EVFの性能上、表示できる解像度には限界があり、高解像度の画像データを扱うのは処理時間の増大を招くので、データを間引いた解像度の小さい画像に変換することにより、扱うデータ量を小さくし処理の高速化を図るためである。   The reason for converting to display image data with a small resolution is that the resolution that can be displayed is limited due to the performance of EVF, and handling high-resolution image data causes an increase in processing time, so the data is thinned out. This is because conversion to an image with a small resolution reduces the amount of data to be handled and speeds up the processing.

ステップS105では、顔検出部9はS103で画像蓄積バッファ4に蓄積された画像データから後述する顔検出を行う。   In step S105, the face detection unit 9 performs face detection described later from the image data stored in the image storage buffer 4 in S103.

ステップS106では、判定部8は、顔検出部9にて検出された顔の目が閉じているか否かの判定を行う。本実施形態では、被写体が目を閉じていると判定された場合に、警告を行うものとする。ここで、ステップS104の処理と、ステップS105,106の処理を別々に行う理由について説明する。ステップS104にて生成された表示用画像データは解像度が小さいため、判定部8が表示用画像データを用いて判定を行おうとすると、特に被写体が小さい場合は判定に失敗する場合が考えられる。そこで、ステップS105,106において、表示用画像データよりも解像度の大きな画像データを用いて目が閉じているか否かの判定を行うことにより、表示用画像データを用いた場合に比較して、判定の精度を高めることができる。なお、判定速度をあげるために、ステップS104にて生成された表示用画像データよりは解像度が大きいが、ステップS103にて画像蓄積バッファ4に蓄積された画像データよりは解像度の小さい判定用の画像データを生成し、これから顔検出および目つぶりの判定を行うようにしても良い。   In step S106, the determination unit 8 determines whether the eyes of the face detected by the face detection unit 9 are closed. In the present embodiment, a warning is given when it is determined that the subject has closed eyes. Here, the reason why the process of step S104 and the processes of steps S105 and S106 are performed separately will be described. Since the display image data generated in step S104 has a low resolution, if the determination unit 8 tries to make a determination using the display image data, the determination may fail, particularly when the subject is small. Therefore, in steps S105 and S106, it is determined whether or not the eyes are closed by using image data having a resolution higher than that of the display image data, as compared with the case where the display image data is used. Can improve the accuracy. In order to increase the determination speed, a determination image having a resolution higher than that of the display image data generated in step S104 but a resolution lower than that of the image data stored in the image storage buffer 4 in step S103. Data may be generated, and face detection and blinking determination may be performed from now on.

ステップS107では、ステップS106にて警告する必要があると判定されたのであれば、画像生成部6は、ステップS104にて生成される画像データに警告表示を合成した新たな画像データを生成して出力する。ステップS106にて警告する必要がないと判定されたのであれば、画像生成部6は、ステップS104にて生成される画像データをそのまま出力する。   In step S107, if it is determined in step S106 that it is necessary to give a warning, the image generation unit 6 generates new image data by combining the image data generated in step S104 with a warning display. Output. If it is determined in step S106 that there is no need to issue a warning, the image generation unit 6 outputs the image data generated in step S104 as it is.

ステップS108では、画像生成部6の出力を受けて、表示部7がその表示を行う。   In step S108, the display unit 7 receives the output from the image generation unit 6 and displays it.

ステップS109では、ステップS106にて被写体が目を閉じていると判定されたか否かを判定する。被写体が目を閉じていないと判定されたのであれば、ステップS110へ進み、画像蓄積バッファ4に蓄積された画像データをフラッシュメモリ等の記録媒体に記録して、このフローを終了する。   In step S109, it is determined whether or not it is determined in step S106 that the subject has closed eyes. If it is determined that the subject does not have eyes closed, the process proceeds to step S110, where the image data stored in the image storage buffer 4 is recorded on a recording medium such as a flash memory, and this flow ends.

ステップS109で被写体が目を閉じていると判定されたのであれば、制御部1は、フラッシュ光量、撮影感度やシャッタースピード等といった撮像部2の制御パラメータを保持し、撮像部2を再度駆動して固体撮像素子への露光動作を行うためにステップS101へと戻る。あるいは、制御部1は、焦点調節動作、測光動作をやり直して新たな撮像部2の制御パラメータを設定してから、撮像部2を再度駆動して固体撮像素子への露光動作を行うためにステップS101へと戻る。   If it is determined in step S109 that the subject has closed eyes, the control unit 1 holds the control parameters of the imaging unit 2 such as the flash light amount, imaging sensitivity, shutter speed, and the like, and drives the imaging unit 2 again. Then, the process returns to step S101 to perform the exposure operation for the solid-state imaging device. Alternatively, the control unit 1 performs the focus adjustment operation and the photometry operation again to set a new control parameter of the image pickup unit 2, and then drives the image pickup unit 2 again to perform the exposure operation to the solid-state image pickup device. Return to S101.

なお、ステップS109において被写体が目を閉じていると判定された場合には、ステップS111に進み、露出量、フラッシュ光量やシャッタースピード等といった撮像部2の制御パラメータを変更する。   If it is determined in step S109 that the subject has closed eyes, the process proceeds to step S111, and the control parameters of the imaging unit 2 such as the exposure amount, the flash light amount, and the shutter speed are changed.

ステップS111にて、制御パラメータを変更するのは、計時変化により最初行われた撮像から撮像シーンの状況が変わっている可能性があるからである。   The reason why the control parameter is changed in step S111 is that there is a possibility that the situation of the imaging scene has changed from the initial imaging performed due to the time change.

そして、制御部1は、ステップS111にて撮像部2の制御パラメータを変更したのであれば、この変更した制御パラメータを設定して、ステップS101に戻り、撮像部2を再度駆動して固体撮像素子への露光動作を行う。   If the control unit 1 has changed the control parameter of the image pickup unit 2 in step S111, the control unit 1 sets the changed control parameter, returns to step S101, and drives the image pickup unit 2 again to drive the solid-state image sensor. The exposure operation is performed.

つづいて、顔検出部9にて行われる顔検出処理について説明する。   Next, the face detection process performed by the face detection unit 9 will be described.

代表的な顔検出方法としては、ニューラルネットワークに代表される学習を用いた手法、目や鼻や口といった形状に特徴のある部位を画像領域からテンプレートマッチングを用い探し出し、形状の類似度が高ければ顔とみなす手法、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されている。そして、これらの手法を複数組み合わせて顔検出するものが一般的である。   As a typical face detection method, a method using learning typified by a neural network, a part having a characteristic shape such as an eye, nose or mouth is searched from an image region using template matching, and if the similarity of the shape is high Many methods have been proposed, such as a method that considers a face, a method that detects image features such as skin color and eye shape, and uses statistical analysis. In general, the face detection is performed by combining a plurality of these methods.

具体的には特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法が挙げられている。   Specifically, a face detection method using wavelet transform and image feature amount described in JP-A No. 2002-251380 is cited.

ここで、色情報と目の特徴的な形状からテンプレートマッチングを行うことによって顔検出を行う手法について説明する。   Here, a method of performing face detection by performing template matching from color information and a characteristic shape of eyes will be described.

図3は本実施形態における顔検出方法、および目の状態の判別方法の一例を説明した図である。図4は本実施形態における顔検出方法を説明するためのフローチャートである。以下このフローチャートにそって動作の説明を行う。   FIG. 3 is a diagram illustrating an example of the face detection method and the eye state determination method according to the present embodiment. FIG. 4 is a flowchart for explaining the face detection method in this embodiment. The operation will be described below with reference to this flowchart.

ステップS401では、顔検出部9は、対象となる画像データから肌色領域の抽出を行う。   In step S401, the face detection unit 9 extracts a skin color region from the target image data.

図5はCIELabの色空間における代表色を示した色度図であり、その中の楕円で示した領域は肌色である可能性が高い領域である。   FIG. 5 is a chromaticity diagram showing representative colors in the color space of CIELab, and an area indicated by an ellipse is an area that is likely to be a skin color.

図3aは顔検出する対象となる画像データを示す図である。   FIG. 3A is a diagram showing image data to be subjected to face detection.

図3bは図3aに示す画像中から肌色領域の色度である領域を抽出したものを示す図である。   FIG. 3b is a diagram showing an area extracted from the image shown in FIG. 3a which is the chromaticity of the skin color area.

ステップS402では、顔検出部9は、顔検出の対象となる画像に対して例えばハイパスフィルタを適応する。   In step S402, the face detection unit 9 applies, for example, a high-pass filter to the image that is the target of face detection.

図3cは図3bに示す画像にハイパスフィルタを適応して得られた画像の例である。   FIG. 3c is an example of an image obtained by applying a high-pass filter to the image shown in FIG. 3b.

本実施形態では顔検出部9は、抽出された肌色領域から目、鼻、口、眉等の顔の特徴的な部位を検出し、顔以外の肌色領域を除外する。   In this embodiment, the face detection unit 9 detects characteristic parts of the face such as eyes, nose, mouth, and eyebrows from the extracted skin color area, and excludes skin color areas other than the face.

ステップS403では、図6に示すように、ステップS402にて検出された領域に対して、予め撮像装置内のメモリに記録されている目のテンプレートデータを用いてテンプレートマッチング(テンプレートデータと撮像された画像データを比較し、一致あるいは近似するものがあるかを検証する)を行い、撮像された画像データ中における目の検出を行う。   In step S403, as shown in FIG. 6, template matching is performed on the area detected in step S402 using template data of eyes recorded in advance in a memory in the imaging device (imaged with template data). The image data is compared to verify whether there is a match or approximation, and eyes are detected in the captured image data.

ステップS404では、顔検出部9は、ステップS403で検出された目の画像データとテンプレートマッチングにより検出された目の位置を比較する。
比較の結果、目の開き具合が充分でない場合や、片方の目しか検出されない場合や、両目とも検出できなかった場合には、被写体の目が閉じていると判定し、このフローを終了する。
In step S404, the face detection unit 9 compares the eye image data detected in step S403 with the eye position detected by template matching.
As a result of the comparison, when the degree of opening of the eyes is not sufficient, when only one eye is detected, or when both eyes cannot be detected, it is determined that the eyes of the subject are closed, and this flow ends.

図7は被写体が目を閉じてしまったことを画面上に表示して警告している様子を示した図である。   FIG. 7 is a diagram showing a state where a warning is displayed on the screen that the subject has closed his eyes.

このように被写体が目を閉じてしまった場合に、画像生成部6は、画面上に文字やアイコンを合成して表示することで、ユーザーにわかりやすく警告を行うことが可能である。   When the subject closes his / her eyes in this way, the image generation unit 6 can synthesize a character and an icon on the screen and display them in an easy-to-understand manner.

なお、警告を行う方法はこれに限られるものではなく、音声や、LED等を点滅又は点灯させること等によって代替できることは言うまでもない。   It should be noted that the method of issuing a warning is not limited to this, and it is needless to say that the warning can be replaced by blinking or lighting an LED or the like.

ユーザーは、警告が発せられたことによって、その場ですぐさま撮像のやり直しが行われることを知ることができる。   The user can know that imaging is immediately performed again on the spot when the warning is issued.

また、上記のフローチャートでは、被写体が目を閉じているときは自動的に撮像をやり直していたが、これに限られるものではない。   In the above flowchart, the imaging is automatically performed again when the subject closes his eyes. However, the present invention is not limited to this.

被写体がウインクをしているシーン等、判定部8が不適切と判定してしまうシーンを故意に撮像することも想定されるので、警告を発した後の再撮像を行うか否かの判断は、ユーザーに任せるようにしてもよい。   Since it is also assumed that the scene that the determination unit 8 determines to be inappropriate, such as a scene in which the subject is winking, it is assumed that re-imaging after issuing a warning is performed. It may be left to the user.

不図示の選択ボタンを押すことで、再撮像を自動で行うかユーザーに選択させるかを切り換えられるように構成してもよい。   By pressing a selection button (not shown), it may be configured such that re-imaging is automatically performed or the user is allowed to select.

警告が発せられた場合にユーザーが再撮像の要否を判定するのであれば、ユーザーはEVFに表示されている画像の構図を考慮して、すぐさま撮像のやり直しを行うか否かを判断することができる。   If the user determines whether or not re-imaging is necessary when a warning is issued, the user should determine whether or not to re-capture the image immediately in consideration of the composition of the image displayed on the EVF. Can do.

EVFに表示された画像は解像度が低いために、被写体が目を閉じているか否かを判断することが困難な場合もあるが、警告の有無によってユーザーが素早く被写体の目が閉じていることを確実に知ることができ、被写体の構図が大きく変わらないうちに撮像をやり直すことが可能となる。   Since the image displayed on the EVF has a low resolution, it may be difficult to determine whether or not the subject has closed eyes. It is possible to know with certainty, and it is possible to redo the imaging before the composition of the subject is largely changed.

これによって画像の構図と、被写体の目の状態を比較して、撮像のやり直しの有無をユーザーが自由に選択できるようになる。   As a result, the composition of the image and the state of the subject's eyes can be compared, and the user can freely select whether or not to perform imaging again.

なお、本実施形態においては、警告の結果、再撮影を行うことになった際にパラメータの変更を行っているが、警告判定の基となった画像データを得た直前の撮影からの時間を計測し、所定時間以上経過しているのであれば、測光動作や測距動作を再度行って撮像部2の制御パラメータを新たに設定しなおすようにしてもよい。   In this embodiment, the parameter is changed when the re-shooting is performed as a result of the warning. However, the time from the shooting immediately before the image data used as the basis of the warning determination is obtained. If a predetermined time or more has passed, the photometric operation or the distance measuring operation may be performed again to newly set the control parameters of the imaging unit 2.

次に、第1の実施形態の変形例について説明する。   Next, a modification of the first embodiment will be described.

この変形例は、カメラの不図示のレリーズスイッチがユーザーによって操作される前に顔検出を行うものである。レリーズスイッチがユーザーによって操作されるよりも前の時点から、ユーザーが表示部7にて被写体をモニターできる撮影モードを例にあげて、図8のフローチャートを用いて説明する。   In this modification, face detection is performed before a release switch (not shown) of the camera is operated by the user. A shooting mode in which the user can monitor the subject on the display unit 7 from a point in time before the release switch is operated by the user will be described as an example with reference to the flowchart of FIG.

カメラに静止画を撮影するためのモードが設定されると、ステップS1101では、ユーザーが被写体をモニターするための画像データを得るために、撮像部2が固体撮像素子への露光動作を行い、固体撮像素子の出力信号の利得を調節する。   When a mode for taking a still image is set in the camera, in step S1101, the imaging unit 2 performs an exposure operation on the solid-state imaging device in order to obtain image data for the user to monitor the subject. The gain of the output signal of the image sensor is adjusted.

ステップS1102では、画像処理部3は、撮像部2から出力される信号を処理して画像データを生成する。   In step S1102, the image processing unit 3 processes the signal output from the imaging unit 2 to generate image data.

ステップS1103では、制御部1は、S1102で生成された画像データを画像蓄積バッファ4に記録する。   In step S1103, the control unit 1 records the image data generated in S1102 in the image storage buffer 4.

ステップS1104では、信号変換部5は、画像蓄積バッファ4に蓄えられた画像データよりも解像度の小さな表示用画像データを生成する。   In step S <b> 1104, the signal conversion unit 5 generates display image data having a smaller resolution than the image data stored in the image storage buffer 4.

ステップS1105では、顔検出部9はS1103で画像蓄積バッファ4に蓄積された画像データから顔検出を行う。この処理は、図2に示すステップS105での処理と同じである。   In step S1105, the face detection unit 9 performs face detection from the image data stored in the image storage buffer 4 in S1103. This process is the same as the process in step S105 shown in FIG.

ステップS1106では、検出された顔が存在する領域の座標を記録する。   In step S1106, the coordinates of the area where the detected face exists are recorded.

ステップS1107では、ステップS1106にて記録された座標に応じた枠を生成し、この枠をステップS1104にて生成された画像データに合成した新たな画像データを生成する。   In step S1107, a frame corresponding to the coordinates recorded in step S1106 is generated, and new image data is generated by combining this frame with the image data generated in step S1104.

ステップS1108では、表示部7がこの新たな画像データを用いて表示を行う。これにより、カメラがどの領域を顔として検出し、どの領域に対して焦点調節や露出制御を優先的に行うのかをユーザーが認識することができる。そしてカメラは顔が存在する領域の画像データに重みをおいて、焦点調節や絞り値の制御を行うとともに、露光時間を設定する。   In step S1108, the display unit 7 performs display using the new image data. Thus, the user can recognize which area the camera detects as a face and which area is subjected to focus adjustment and exposure control preferentially. The camera weights the image data of the area where the face exists, performs focus adjustment and control of the aperture value, and sets the exposure time.

ステップS1109では、カメラの不図示のレリーズスイッチがユーザーによって操作されたか否かを判定し、操作されていなければステップS1101に戻り、操作されていればステップS101に進む。   In step S1109, it is determined whether or not a release switch (not shown) of the camera has been operated by the user. If not operated, the process returns to step S1101, and if operated, the process proceeds to step S101.

ステップS101では、撮像部2が固体撮像素子への露光動作を行い、固体撮像素子の出力信号の利得を調節する。   In step S101, the imaging unit 2 performs an exposure operation on the solid-state image sensor, and adjusts the gain of the output signal of the solid-state image sensor.

ステップS102では、画像処理部3は、撮像部2から出力される信号を処理して画像データを生成する。   In step S102, the image processing unit 3 processes the signal output from the imaging unit 2 to generate image data.

ステップS103では、制御部1は、S102で生成された画像データを画像蓄積バッファ4に記録する。この画像蓄積バッファ4に記録された画像データに対して、次のステップS104の処理とステップS106の処理とが並行して行われる。   In step S103, the control unit 1 records the image data generated in S102 in the image accumulation buffer 4. The process of the next step S104 and the process of step S106 are performed in parallel on the image data recorded in the image storage buffer 4.

ステップS104では、信号変換部5は、画像蓄積バッファ4に蓄えられた画像データよりも解像度の小さな表示用画像データを生成する。   In step S <b> 104, the signal conversion unit 5 generates display image data having a smaller resolution than the image data stored in the image storage buffer 4.

ステップS106では、判定部8は、画像蓄積バッファ4に蓄えられた画像データから、ステップS1106で記録された座標に応じた領域の中に一対の目が存在するか否かを判断する。判定部8は、一対の目が存在しない場合は被写体の目が閉じていると判定し、警告を行うものとする。   In step S106, the determination unit 8 determines from the image data stored in the image storage buffer 4 whether a pair of eyes exists in the area corresponding to the coordinates recorded in step S1106. The determination unit 8 determines that the subject's eyes are closed when there is no pair of eyes, and issues a warning.

ステップS107では、ステップS106にて警告する必要があると判定されたのであれば、画像生成部6は、ステップS104にて生成される画像データに警告表示を合成した新たな画像データを生成して出力する。ステップS106にて警告する必要がないと判定されたのであれば、画像生成部6は、ステップS104にて生成される画像データをそのまま出力する。   In step S107, if it is determined in step S106 that it is necessary to give a warning, the image generation unit 6 generates new image data by combining the image data generated in step S104 with a warning display. Output. If it is determined in step S106 that there is no need to issue a warning, the image generation unit 6 outputs the image data generated in step S104 as it is.

ステップS108では、画像生成部6の出力を受けて、表示部7がその表示を行う。   In step S108, the display unit 7 receives the output from the image generation unit 6 and displays it.

ステップS109では、ステップS106にて被写体が目を閉じていると判定されたか否かを判定する。被写体が目を閉じていないと判定されたのであれば、ステップS110へ進み、画像蓄積バッファ4に蓄積された画像データをフラッシュメモリ等の記録媒体に記録して、このフローを終了する。   In step S109, it is determined whether or not it is determined in step S106 that the subject has closed eyes. If it is determined that the subject does not have eyes closed, the process proceeds to step S110, where the image data stored in the image storage buffer 4 is recorded on a recording medium such as a flash memory, and this flow ends.

ステップS109で被写体が目を閉じていると判定されたのであれば、制御部1は、フラッシュ光量、撮影感度やシャッタースピード等といった撮像部2の制御パラメータを保持し、撮像部2を再度駆動して固体撮像素子への露光動作を行うためにステップS101へと戻る。あるいは、制御部1は、焦点調節動作、測光動作をやり直して新たな撮像部2の制御パラメータを設定してから、撮像部2を再度駆動して固体撮像素子への露光動作を行うためにステップS101へと戻る。   If it is determined in step S109 that the subject has closed eyes, the control unit 1 holds the control parameters of the imaging unit 2 such as the flash light amount, imaging sensitivity, shutter speed, and the like, and drives the imaging unit 2 again. Then, the process returns to step S101 to perform the exposure operation for the solid-state imaging device. Alternatively, the control unit 1 performs the focus adjustment operation and the photometry operation again to set a new control parameter of the image pickup unit 2, and then drives the image pickup unit 2 again to perform the exposure operation to the solid-state image pickup device. Return to S101.

このように、撮影画像データを記録する指示がユーザーから出る前の画像データから顔の位置を検出し、その座標に基づいて、撮影画像データから目を閉じているか否かの判定を行ってもよい。   As described above, the position of the face is detected from the image data before the instruction to record the captured image data is issued from the user, and it is determined whether or not the eyes are closed based on the coordinates. Good.

(第2の実施形態)
次に本発明の別の実施形態について説明する。第1の実施形態と異なる点を中心に説明する。
(Second Embodiment)
Next, another embodiment of the present invention will be described. A description will be given centering on differences from the first embodiment.

本実施形態では、警告を行う基準として被写体に赤目現象が発生しているか否かを判定基準としている。   In the present embodiment, whether or not a red-eye phenomenon has occurred in the subject is used as a criterion for warning.

赤目現象とは、公知のように、照度の低い状況下で人物を撮像する際にはストロボ装置を発光させて撮像を行うが、ストロボ装置から発せられた閃光が人物の眼球の奥で反射してしまい、人物の目が赤く写ってしまう現象である。   As is well known, the red-eye phenomenon is known when a person is imaged under low illuminance conditions. The strobe device emits light to capture the image, but the flash emitted from the strobe device reflects off the back of the person's eyeball. This is a phenomenon in which a person's eyes appear red.

本実施形態における判定部8は、顔検出部にて検出された顔に赤目が生じているか否かの判定を行う。   The determination unit 8 in the present embodiment determines whether or not red eyes are generated on the face detected by the face detection unit.

図9は本実施形態における処理の流れを説明するためのフローチャートである。   FIG. 9 is a flowchart for explaining the flow of processing in this embodiment.

以下、このフローチャートに沿って動作の説明を行う。   Hereinafter, the operation will be described with reference to this flowchart.

図2とは、画像蓄積バッファ4に蓄積された画像データより検出された顔領域から、赤目検出を行って警告の有無の判定を行う点(ステップS105、S201)と、警告を行うと判定された場合にフラッシュ光量に間する撮像部2の制御パラメータを強制的に変更する点(ステップS202)が異なる。   In FIG. 2, it is determined that red eyes are detected from the face area detected from the image data stored in the image storage buffer 4 to determine whether or not there is a warning (steps S105 and S201), and that the warning is performed. The difference is that the control parameter of the imaging unit 2 forcibly changing the amount of flash light is forcibly changed (step S202).

赤目検出は、まず顔検出部9が図3のステップS401〜S404と同様の処理によって画像データから目を検出する。判定部8がこの目として検出された領域の色相を調べ、目の画像位置の平均色相を検出し赤色成分が設定された閾値以上の場合に、赤目が生じていると判断する。   In the red eye detection, first, the face detection unit 9 detects an eye from image data by the same processing as steps S401 to S404 in FIG. The determination unit 8 examines the hue of the area detected as the eye, detects the average hue of the image position of the eye, and determines that the red eye is generated when the red component is equal to or greater than the set threshold value.

判定部8は、この赤目検出の結果と、撮像した時のフラッシュの発光量、周辺の明るさ、撮像感度、シャッタースピード等の撮像条件を基にユーザーに対して警告を行うか否かの判定を行う。   The determination unit 8 determines whether or not to warn the user based on the result of this red-eye detection and the imaging conditions such as the flash emission amount at the time of imaging, the ambient brightness, imaging sensitivity, and shutter speed. I do.

具体的な判定方法としては、撮影しようとする被写体の周辺の明るさが暗く、かつ大光量のフラッシュ発光を行った場合は、赤目になる可能性が高くなるので、赤目であるという判定確立を上げる(つまり、赤目成分の閾値を低くする)。   As a specific determination method, if the brightness of the subject to be photographed is dark and a large amount of flash is emitted, the possibility of red eyes increases, so the determination of red eyes is established. Increase (that is, lower the threshold value of the red eye component).

逆にフラッシュ発光を行わなかった場合には、顔検出部9により出力された顔検出の結果を加味するまでもなく、赤目警告を行わないと判断するような制御をすることによって高速で精度の高い判定が可能である。   On the contrary, when the flash emission is not performed, it is not necessary to consider the result of the face detection output by the face detection unit 9 and it is possible to perform high-speed and high-accuracy by performing control so as not to perform the red-eye warning. High judgment is possible.

図10は赤目であることを画面上に表示して警告している様子を示した図である。   FIG. 10 is a diagram showing a state where a warning is given by displaying on the screen that the eye is red.

このように赤目であった場合に、画像生成部6は、画面上に文字やアイコンを合成して表示することで、ユーザーにわかりやすく警告を行うことが可能である。   In this way, when the image is red-eye, the image generation unit 6 can give a warning to the user in an easy-to-understand manner by synthesizing and displaying characters and icons on the screen.

また、音声や、LED等を点滅又は点灯させることによって警告しても良いことは言うまでもない。   Needless to say, a warning may be given by blinking or lighting a voice or LED.

警告が発せられた場合、ステップS202に進み、フラッシュ光量に関する撮像部2の制御パラメータを変更する。   When the warning is issued, the process proceeds to step S202, and the control parameter of the imaging unit 2 relating to the flash light amount is changed.

具体的には赤目緩和用ランプの点灯時間を長くしたり、赤目緩和用ランプの光量を大きくしたり、フラッシュ発光量を変更したりすることで、制御部1は赤目現象が生じにくい状況となるように撮像部2の制御パラメータを変更する。   Specifically, by increasing the lighting time of the red-eye mitigation lamp, increasing the light amount of the red-eye mitigation lamp, or changing the flash light emission amount, the control unit 1 is less likely to cause the red-eye phenomenon. As described above, the control parameters of the imaging unit 2 are changed.

そして、制御部1は、ステップS202にて撮像部2の制御パラメータを変更したのであれば、この変更した制御パラメータを設定して、ステップS101に戻り、撮像部2を再度駆動して固体撮像素子への露光動作を行う。   If the control parameter of the imaging unit 2 is changed in step S202, the control unit 1 sets the changed control parameter, returns to step S101, drives the imaging unit 2 again, and solid-state imaging device. The exposure operation is performed.

(第3の実施形態)
本発明の更に別の実施形態について説明する。第2の実施形態では赤目現象が生じているか否かを警告の判定基準としていたが、本実施形態では、被写体の顔領域が合焦状態にあるか否か、あるいは、ぶれているか否かを警告の判定基準としている。
(Third embodiment)
Still another embodiment of the present invention will be described. In the second embodiment, whether or not the red-eye phenomenon has occurred is used as a criterion for warning. In this embodiment, whether or not the face area of the subject is in focus or whether or not it is blurred is determined. This is a warning criterion.

本実施形態における判定部8は、顔検出部にて検出された顔のぶれの状態や合焦状態の判定を行う。   The determination unit 8 in the present embodiment determines the state of blurring or the in-focus state detected by the face detection unit.

一般的に撮影に適さない画像として、ぶれている画像やフォーカスが合ってない画像がある。   In general, there are blurred images and images that are not in focus as images that are not suitable for shooting.

また、ぶれと呼ばれるものには、シャッターを押した際にカメラが動いてしまう手ぶれと、被写体が動いていた為に生じる被写体ぶれと呼ばれるものがある。   In addition, there are camera shakes that cause the camera to move when the shutter is pressed, and camera shakes that occur because the subject has moved.

どちらとも画像領域の一定方向に動いている場合が多く、例えば周波数的な解析方法としてフーリエ変換等を用いることにより、通常の画像に存在しないような特定の周波数成分が多いと判断された場合にはぶれていると検出する手法がある。   Both of them often move in a certain direction of the image area. For example, when it is determined that there are many specific frequency components that do not exist in a normal image by using Fourier transform or the like as a frequency analysis method. There is a technique for detecting blurring.

フォーカスがあってないことを検出する手法に関しては、上記ぶれ検知手法と同様に周波数的解析を行い、高周波成分が少ないような場合にフォーカスがあってないと判断する手法がある。   As a method of detecting that there is no focus, there is a method of performing a frequency analysis in the same manner as the shake detection method and determining that there is no focus when there are few high-frequency components.

図11は本実施形態における処理の流れを説明するためのフローチャートである。   FIG. 11 is a flowchart for explaining the flow of processing in this embodiment.

図9とは、画像蓄積バッファ4に蓄積された画像データから顔検出部9にて顔の領域を検出し、検出された顔領域の合焦状態を判定する点(ステップS105、S301)が異なっている。   9 differs from FIG. 9 in that the face detection unit 9 detects the face area from the image data stored in the image storage buffer 4 and determines the in-focus state of the detected face area (steps S105 and S301). ing.

警告が発せられた場合、ステップS202にてシャッタースピードや感度等の撮像部2の制御パラメータを強制的に変更する。   If a warning is issued, the control parameters of the imaging unit 2 such as the shutter speed and sensitivity are forcibly changed in step S202.

ぶれを防止するために露出時間を短く(シャッター速度を早く)し、これを絞り値や感度で補償する。   In order to prevent blur, the exposure time is shortened (shutter speed is increased), and this is compensated by the aperture value and sensitivity.

本実施形態によれば、画像がぶれたり、フォーカスが合わないといった状況を検出し、その旨を撮像者に警告することで、好適な画像の撮像をすることを可能にする。   According to the present embodiment, it is possible to capture a suitable image by detecting a situation where the image is blurred or out of focus, and alerting the photographer to that effect.

上述の実施形態では、被写体が人物であり、目を閉じていることを検出した場合、赤目であることを検出した場合、あるいは、ぶれていることを検出した場合を例に挙げて説明を行ったが、本発明はこれらに限られるものではない。   In the above-described embodiment, the case where the subject is a person and it is detected that the eyes are closed, the case where the red eyes are detected, or the case where it is blurred is described as an example. However, the present invention is not limited to these.

また、画像処理を行い画像データから被写体の特徴を検出し、その検出結果に応じて警告の有無を表示する、あるいは自動的に再撮影を行う構成であれば、画像データの不備についての判定基準は上記以外のものであって構わない。
主被写体となる対象を判別し、この主被写体となる対象に生じた不具合が、表示された撮影画像データが小さいがためにユーザーが視覚的に認識できなくなる場合であれば、本発明を自在に適用することができる。
In addition, if the image processing is performed to detect the characteristics of the subject from the image data and the presence or absence of a warning is displayed according to the detection result, or if re-photographing is performed automatically, a criterion for deficiencies in the image data May be other than the above.
If the subject that is the main subject is discriminated and the problem that has occurred in the main subject is that the displayed captured image data is small and the user cannot visually recognize it, the present invention can be freely used. Can be applied.

上述の構成を満たすことにより、画像データにユーザーが拡大表示しないと確認できないような不備が生じていた場合であっても、速やかに撮影を行うよう警告、あるいは自動的に再撮影を行うことができるため、タイミングを逸することなく所望の撮影ができるようになる。   By satisfying the above-described configuration, even if there is a defect in the image data that cannot be confirmed unless the user enlarges the image data, a warning is given so that shooting can be performed quickly, or automatic re-shooting can be performed. Therefore, desired shooting can be performed without losing timing.

第1の実施形態における撮像装置のブロック図である。It is a block diagram of the imaging device in a 1st embodiment. 第1の実施形態における処理のフローチャートを示す図である。It is a figure which shows the flowchart of the process in 1st Embodiment. 第1の実施形態における顔検出方法の説明図である。It is explanatory drawing of the face detection method in 1st Embodiment. 第1の実施形態における顔検出方法のフローチャートを示す図である。It is a figure which shows the flowchart of the face detection method in 1st Embodiment. CIELab色空間における代表的な色度図である。FIG. 3 is a representative chromaticity diagram in a CIELab color space. 第1の実施形態におけるテンプレートマッチングを示す図である。It is a figure which shows the template matching in 1st Embodiment. 第1の実施形態における警告の形態を示す図である。It is a figure which shows the form of the warning in 1st Embodiment. 第1の実施形態の変形例における処理のフローチャートを示す図である。It is a figure which shows the flowchart of the process in the modification of 1st Embodiment. 第2の実施形態における処理のフローチャートを示す図である。It is a figure which shows the flowchart of the process in 2nd Embodiment. 第2の実施形態における警告の形態を示す図である。It is a figure which shows the form of the warning in 2nd Embodiment. 第3の実施形態における処理のフローチャートを示す図である。It is a figure which shows the flowchart of the process in 3rd Embodiment.

符号の説明Explanation of symbols

1 制御部
2 撮像部
3 画像処理部
4 画像蓄積バッファ
5 信号変換部
6 画像生成部
7 表示部
8 判定部
9 顔検出部
10 記録部
DESCRIPTION OF SYMBOLS 1 Control part 2 Imaging part 3 Image processing part 4 Image storage buffer 5 Signal conversion part 6 Image generation part 7 Display part 8 Judgment part 9 Face detection part 10 Recording part

Claims (16)

使用者からの指示に応じて撮像された画像データから被写体領域を検出する被写体検出手段と、
前記撮像された画像データを基に、表示用画像データを生成する信号処理手段と、
前記信号処理手段にて処理された表示用画像データを表示する表示手段と、
前記被写体検出手段の検出結果をもとに、警告するか否かの判定をする判定手段と、
判定手段の判定結果に応じて警告を行う報知手段とを有し、
制御部は、前記警告の内容に応じて、撮像部の制御パラメータを自動で変更して撮像部に撮像させることを特徴とする撮像装置。
Subject detection means for detecting a subject region from image data captured in accordance with an instruction from a user;
Signal processing means for generating display image data based on the imaged image data;
Display means for displaying the display image data processed by the signal processing means;
Determination means for determining whether or not to warn based on the detection result of the subject detection means;
An informing means for giving a warning according to the determination result of the determining means,
The control unit automatically changes a control parameter of the image pickup unit according to the content of the warning and causes the image pickup unit to pick up an image.
前記判定手段にて警告する必要がないと判定された場合に、記録手段に前記画像データを記録させることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein when the determination unit determines that there is no need to give a warning, the recording unit records the image data. 前記報知手段は、前記表示用画像データに前記警告の内容を付加した警告内容表示画像を生成し、該警告内容表示画像を前記表示手段に表示させることを特徴とする請求項1又は2に記載の撮像装置。   The said notification means produces | generates the warning content display image which added the content of the said warning to the said display image data, and displays this warning content display image on the said display means. Imaging device. 前記制御部は、前記報知手段にて警告内容を知らせた後の使用者からの指示を検知した場合に、撮像部に撮像させることを特徴とする請求項1から3のいずれかに記載の撮像装置。   4. The imaging according to claim 1, wherein the control unit causes the imaging unit to capture an image when detecting an instruction from a user after notifying the warning content by the notification unit. 5. apparatus. 前記報知手段によって行われる警告内容は、前記被写体検出手段にて検出された被写体領域の合焦状態に基づいて決定されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the warning content performed by the notification unit is determined based on a focus state of a subject area detected by the subject detection unit. 前記報知手段によって行われる警告内容は、被写体の目の色相に基づいて決定されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the warning content performed by the notification unit is determined based on a hue of an eye of a subject. 前記報知手段によって行われる警告内容は、被写体の目の開き具合に基づいて決定されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the warning content performed by the notification unit is determined based on a degree of eye opening of the subject. 前記判定手段による判定の結果、再撮影することになった場合に、直前の撮影から所定時間以上経過していた場合には、撮像手段の制御パラメータを新たに設定し直すことを特徴とする請求項4に記載の撮像装置。   As a result of the determination by the determination unit, if a predetermined time or more has passed since the last shooting when re-shooting is performed, the control parameter of the imaging unit is newly set again. Item 5. The imaging device according to Item 4. 使用者からの指示に応じて撮像された画像データから被写体領域を検出する被写体を検出する被写体検出工程と、
前記撮像された画像データを基に、表示用画像データを生成する信号処理工程と、
前記信号処理工程にて処理された表示用画像データを表示する表示工程と、
前記被写体検出工程の検出結果をもとに、警告するか否かの判定をする判定工程と、
判定手段の判定結果に応じて警告を行う報知工程とを有し、
制御部は、前記警告の内容に応じて、撮像部の制御パラメータを自動で変更して撮像部に撮像させることを特徴とする撮像装置の制御方法。
A subject detection step for detecting a subject for detecting a subject region from image data captured in accordance with an instruction from a user;
A signal processing step for generating display image data based on the imaged image data;
A display step of displaying the display image data processed in the signal processing step;
A determination step of determining whether or not to warn based on the detection result of the subject detection step;
A notification step for giving a warning according to the determination result of the determination means,
A control unit automatically changes a control parameter of an imaging unit according to the content of the warning and causes the imaging unit to capture an image.
前記判定工程にて警告する必要がないと判定された場合に、記録手段に前記画像データを記録させる記録工程を有することを特徴とする請求項9に記載の撮像装置の制御方法。   The method of controlling an imaging apparatus according to claim 9, further comprising a recording step of causing the recording unit to record the image data when it is determined that there is no need to issue a warning in the determination step. 前記報知工程は、前記表示用画像データに前記警告の内容を付加した警告内容表示画像を生成し、該警告内容表示画像を前記表示工程に表示させることを特徴とする請求項9又は10に記載の撮像装置の制御方法。   11. The notification step generates a warning content display image in which the warning content is added to the display image data, and displays the warning content display image in the display step. Method for controlling the imaging apparatus. 前記制御部は、前記報知行程にて警告内容を知らせた後の使用者からの指示を検知した場合に、撮像部に撮像させることを特徴とする請求項9から11のいずれかに記載の撮像装置の制御方法。   The imaging unit according to claim 9, wherein the control unit causes the imaging unit to capture an image when detecting an instruction from a user after notifying the warning content in the notification process. Device control method. 前記報知手段によって行われる警告内容は、前記被写体検出手段にて検出された被写体領域の合焦状態に基づいて決定されることを特徴とする請求項9から12のいずれかに記載の撮像装置の制御方法。   13. The imaging device according to claim 9, wherein the warning content performed by the notification unit is determined based on a focus state of a subject area detected by the subject detection unit. Control method. 前記報知手段によって行われる警告内容は、被写体の目の色相に基づいて決定されることを特徴とする請求項9から12のいずれかに記載の撮像装置の制御方法。   The method for controlling an imaging apparatus according to any one of claims 9 to 12, wherein the warning content performed by the notification unit is determined based on a hue of an eye of a subject. 前記報知手段によって行われる警告内容は、被写体の目の開き具合に基づいて決定されることを特徴とする請求項9から12のいずれかに記載の撮像装置の制御方法。   The method for controlling an imaging apparatus according to any one of claims 9 to 12, wherein the warning content performed by the notifying unit is determined based on an eye open degree of a subject. 前記判定工程による判定の結果再撮影することになった場合に、直前の撮影から所定時間以上経過していた場合には、撮像工程の制御パラメータの設定をやり直すことを特徴とする請求項12に記載の撮像装置の制御方法。   The control parameter setting of the imaging process is performed again if a predetermined time or more has passed since the last shooting when the determination result in the determination process results in re-imaging. A control method for the imaging apparatus according to the description.
JP2005232182A 2004-08-16 2005-08-10 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Expired - Fee Related JP4551839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005232182A JP4551839B2 (en) 2004-08-16 2005-08-10 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004236501 2004-08-16
JP2005232182A JP4551839B2 (en) 2004-08-16 2005-08-10 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Publications (3)

Publication Number Publication Date
JP2006087083A true JP2006087083A (en) 2006-03-30
JP2006087083A5 JP2006087083A5 (en) 2008-09-25
JP4551839B2 JP4551839B2 (en) 2010-09-29

Family

ID=36165157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005232182A Expired - Fee Related JP4551839B2 (en) 2004-08-16 2005-08-10 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4551839B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007113937A1 (en) * 2006-04-05 2007-10-11 Nikon Corporation Electronic camera
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2008065807A (en) * 2006-08-11 2008-03-21 Canon Inc Marker arrangement information measurement unit and method
JP2008078945A (en) * 2006-09-20 2008-04-03 Fujitsu Ltd Imaging apparatus with blurring correction function, blurring correction method, and blurring correction processing program
JP2008160279A (en) * 2006-12-21 2008-07-10 Sanyo Electric Co Ltd Imaging apparatus and imaging method
EP1954024A1 (en) 2007-01-30 2008-08-06 FUJIFILM Corporation Image taking device and control method for image taking
JP2008249407A (en) * 2007-03-29 2008-10-16 Canon Inc Image processing device and image processing method
JP2009141811A (en) * 2007-12-07 2009-06-25 Nec Corp Image processor, method, program, recording medium, imaging apparatus and mobile terminal device
JP2010500836A (en) * 2006-08-11 2010-01-07 フォトネーション ビジョン リミテッド Real-time face tracking in digital image acquisition device
KR100946086B1 (en) * 2007-05-02 2010-03-10 가시오게산키 가부시키가이샤 Imaging device, computer-readable recording medium recorded imaging control program, and imaging control method
US8422739B2 (en) 2006-08-11 2013-04-16 DigitalOptics Corporation Europe Limited Real-time face tracking in a digital image acquisition device
US8465415B2 (en) 2009-07-23 2013-06-18 Olympus Corporation Endoscope apparatus and measurement method
KR101448536B1 (en) 2008-03-21 2014-10-08 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2017534090A (en) * 2015-08-21 2017-11-16 小米科技有限責任公司Xiaomi Inc. Face recognition method, apparatus and terminal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212150A (en) * 1998-01-27 1999-08-06 Matsushita Electric Ind Co Ltd Stroboscopic device
JP2003158646A (en) * 2001-11-21 2003-05-30 Canon Inc Image pickup device and control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212150A (en) * 1998-01-27 1999-08-06 Matsushita Electric Ind Co Ltd Stroboscopic device
JP2003158646A (en) * 2001-11-21 2003-05-30 Canon Inc Image pickup device and control system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007113937A1 (en) * 2006-04-05 2007-10-11 Nikon Corporation Electronic camera
JP2007281760A (en) * 2006-04-05 2007-10-25 Nikon Corp Electronic camera
US8379108B2 (en) 2006-04-05 2013-02-19 Nikon Corporation Electronic camera that detects and extracts faces
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
US8068639B2 (en) 2006-07-13 2011-11-29 Sony Corporation Image pickup apparatus, control method therefor, and computer program for detecting image blur according to movement speed and change in size of face area
JP2008065807A (en) * 2006-08-11 2008-03-21 Canon Inc Marker arrangement information measurement unit and method
US8666124B2 (en) 2006-08-11 2014-03-04 DigitalOptics Corporation Europe Limited Real-time face tracking in a digital image acquisition device
US8509498B2 (en) 2006-08-11 2013-08-13 DigitalOptics Corporation Europe Limited Real-time face tracking in a digital image acquisition device
JP2010500836A (en) * 2006-08-11 2010-01-07 フォトネーション ビジョン リミテッド Real-time face tracking in digital image acquisition device
US8422739B2 (en) 2006-08-11 2013-04-16 DigitalOptics Corporation Europe Limited Real-time face tracking in a digital image acquisition device
US8081815B2 (en) 2006-08-11 2011-12-20 Canon Kabushiki Kaisha Marker arrangement information measuring apparatus and method
JP2008078945A (en) * 2006-09-20 2008-04-03 Fujitsu Ltd Imaging apparatus with blurring correction function, blurring correction method, and blurring correction processing program
JP2008160279A (en) * 2006-12-21 2008-07-10 Sanyo Electric Co Ltd Imaging apparatus and imaging method
EP1954024A1 (en) 2007-01-30 2008-08-06 FUJIFILM Corporation Image taking device and control method for image taking
US7889269B2 (en) 2007-01-30 2011-02-15 Fujifilm Corporation Image taking device and control method for image taking
JP2008249407A (en) * 2007-03-29 2008-10-16 Canon Inc Image processing device and image processing method
CN101409789B (en) * 2007-05-02 2012-10-10 卡西欧计算机株式会社 Imaging device and imaging control method
US8379942B2 (en) 2007-05-02 2013-02-19 Casio Computer Co., Ltd. Imaging device, recording medium having recorded therein imaging control program, and imaging control method
KR100946086B1 (en) * 2007-05-02 2010-03-10 가시오게산키 가부시키가이샤 Imaging device, computer-readable recording medium recorded imaging control program, and imaging control method
JP2009141811A (en) * 2007-12-07 2009-06-25 Nec Corp Image processor, method, program, recording medium, imaging apparatus and mobile terminal device
KR101448536B1 (en) 2008-03-21 2014-10-08 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
US8465415B2 (en) 2009-07-23 2013-06-18 Olympus Corporation Endoscope apparatus and measurement method
JP2017534090A (en) * 2015-08-21 2017-11-16 小米科技有限責任公司Xiaomi Inc. Face recognition method, apparatus and terminal
US10007841B2 (en) 2015-08-21 2018-06-26 Xiaomi Inc. Human face recognition method, apparatus and terminal

Also Published As

Publication number Publication date
JP4551839B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP4551839B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR100738492B1 (en) Image capture apparatus and control method therefor
KR100944908B1 (en) Image device, focus control method and storage medium recording a focus control program
JP4986175B2 (en) Imaging apparatus and program
JP2008311817A (en) Image photographing device and image photographing method, and computer program
US20100026830A1 (en) Self-timer photographing apparatus and method involving checking the number of persons
JP5180349B2 (en) Imaging apparatus, method, and program
US20130271627A1 (en) Camera with red-eye correction function
JP4818999B2 (en) Imaging apparatus, method, and program
JP4697549B2 (en) Image capturing apparatus and face detection method thereof
JP2008017169A (en) Electronic camera
JP2008054297A (en) System for and method of photographing image, and computer program
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
JP2007124665A (en) Programmable anti-aliasing systems and methods for cameras
JP2008054031A (en) Digital camera and display control method
JP2009017427A (en) Imaging device
JP2008160701A (en) Camera and photographic control program for the camera
JP2005039365A (en) Digital camera and control method thereof
JP2009182880A (en) Imaging apparatus and its program
JP2007208355A (en) Photographing device, method, and program
JP2008244991A (en) Imaging apparatus and imaging method
JP2006128793A (en) Image pickup device and control method thereof
JP2011078143A (en) Photographing apparatus, face detecting method thereof and image recording method
JP4789776B2 (en) Imaging apparatus and imaging method
JP4305119B2 (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080807

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100616

TRDD Decision of grant or rejection written
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

R150 Certificate of patent or registration of utility model

Ref document number: 4551839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees