JP2010021795A - Image capturing apparatus, correction controller, correction control method, and program - Google Patents

Image capturing apparatus, correction controller, correction control method, and program Download PDF

Info

Publication number
JP2010021795A
JP2010021795A JP2008180456A JP2008180456A JP2010021795A JP 2010021795 A JP2010021795 A JP 2010021795A JP 2008180456 A JP2008180456 A JP 2008180456A JP 2008180456 A JP2008180456 A JP 2008180456A JP 2010021795 A JP2010021795 A JP 2010021795A
Authority
JP
Japan
Prior art keywords
correction
image
unit
live view
view image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008180456A
Other languages
Japanese (ja)
Inventor
Keiji Kunishige
恵二 国重
Satoshi Miyazaki
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008180456A priority Critical patent/JP2010021795A/en
Publication of JP2010021795A publication Critical patent/JP2010021795A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus that captures an image while previously confirming an effect of processing for the area of a specified face organ of a subject including the face, a correction controller, a correction control method, and a program. <P>SOLUTION: A display unit 28 updates and displays a subject image output from an image sensor 11 as a live-view image at a predetermined display frame rate. An organ detection unit 22 detects the area of the specified face organ included in the face from the live-view image including the face in the live-view image. An image correction unit 201 processes the area of the face organ detected by the organ detection unit 22 to perform correction processing on the live-view image. When a correction mode is selected, a correction control unit 261 performs control so that the image correction unit 201 performs the correction processing and also performs control to make the display frame rate of the live-view image lower than that of the display frame rate when the correction mode is not selected according to a time needed for the correction processing. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置、撮像装置に設けられる補正制御装置、撮像装置における補正制御方法および撮像装置のコンピュータに実行させるプログラムに関するものである。   The present invention relates to an imaging apparatus, a correction control apparatus provided in the imaging apparatus, a correction control method in the imaging apparatus, and a program executed by a computer of the imaging apparatus.

従来から、人物撮影を行う際の技法の一つとして、被写体の瞳にキャッチライトと呼ばれる光を映し込み、人物の表情を生き生きとさせる撮影技法が知られている。一般に、キャッチライト撮影はレフ板を用いて行われ、大掛かりな機材が必要となる上、撮影者の熟練を要するため、手軽に実施できるものではなかった。この種の問題を解決するための技術として、画像中の目の領域を検出して画像処理を施すことによって被写体の瞳にキャッチライトを発生させるものが知られている。例えば、特許文献1には、自然なキャッチライトを実現するため、被写体の顔の大きさや向き、照明の方向といった被写体の状況を検出してキャッチライトの合成位置を決定する技術が開示されている。   2. Description of the Related Art Conventionally, as one technique for photographing a person, a photographing technique is known in which a light called a catch light is reflected on a subject's pupil to make a person's facial expression lively. In general, catchlight photography is performed using a reflex board, which requires a large amount of equipment and skill of the photographer. As a technique for solving this type of problem, there is known a technique for generating a catch light in the pupil of a subject by detecting an eye region in an image and performing image processing. For example, Patent Document 1 discloses a technique for determining a synthetic position of a catch light by detecting a subject situation such as the size and orientation of the subject's face and the direction of illumination in order to realize a natural catch light. .

特開2005−222152号公報JP-A-2005-222152

ところで、デジタルカメラ等の撮像装置では、撮像素子からの出力をライブビュー画像としてリアルタイムに表示部に表示させて電子ファインダーとして用いている。このライブビュー画像に映る目領域等の特定の顔器官の領域にキャッチライトを合成する等の加工を施せば、顔器官に対する加工の効果を撮影前に確認することができる。しかしながら、ライブビュー画像から特定の顔器官を検出して加工を施す場合、ライブビュー画像を表示する際の処理負荷が増大してしまう。例えば、特許文献1では、キャッチライトの合成位置を決定するためにキャッチライトを発生させる画像を解析して被写体の状況を検出しなければならない。このため、処理が間に合わずにライブビュー画像を適切に表示できない事態が生じるという問題があった。   By the way, in an imaging apparatus such as a digital camera, an output from an imaging element is displayed on a display unit in real time as a live view image and used as an electronic viewfinder. If processing such as synthesizing a catch light is performed on a specific facial organ region such as the eye region shown in the live view image, the processing effect on the facial organ can be confirmed before imaging. However, when a specific facial organ is detected from the live view image and processed, the processing load for displaying the live view image increases. For example, in Patent Document 1, it is necessary to detect the state of a subject by analyzing an image that generates a catchlight in order to determine a combined position of the catchlight. For this reason, there has been a problem that a situation occurs in which the live view image cannot be displayed properly without being processed in time.

本発明は、上記に鑑みてなされたものであって、顔を含む被写体の特定の顔器官の領域に対する加工の効果を事前に確認しながら撮影することが可能な撮像装置、補正制御装置、補正制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an imaging device, a correction control device, and a correction device that can perform imaging while confirming in advance the effect of processing on a specific facial organ region of a subject including a face It is an object to provide a control method and a program.

上述した課題を解決し、目的を達成するため、本発明にかかる撮像装置は、被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部と、前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行う補正制御部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that captures a subject, and a subject image captured by the imaging unit as a live view image at a predetermined display frame rate. A display unit for updating display, an organ detection unit for detecting a region of a specific facial organ included in the face from a live view image including a face of the live view image, and a face detected by the organ detection unit An image correction unit that corrects the live view image by processing an organ region, a correction setting unit that sets whether the image correction unit corrects the live view image, and a setting that performs the correction. If the image correction unit controls, the image correction unit controls to perform the correction process, and the display frame rate of the live view image when the correction is set to be Than the display frame rate when the setting is not corrected, it characterized in that it comprises a correction control unit that performs control to slow depending on the time required for the correction processing.

また、本発明にかかる撮像装置は、上記の発明において、前記画像補正部は、前記特定の顔器官の領域に所定の合成用画像を合成することによって、前記顔器官の領域の加工を行うことを特徴とする。   In the imaging device according to the present invention, in the above invention, the image correction unit processes the facial organ region by synthesizing a predetermined synthesis image with the specific facial organ region. It is characterized by.

また、本発明にかかる撮像装置は、上記の発明において、前記器官検出部は、前記特定の顔器官を目として前記ライブビュー画像の顔に含まれる目領域を検出し、前記画像補正部は、前記器官検出部によって検出された目領域にキャッチライト画像を合成することを特徴とする。   In the imaging device according to the present invention, in the above invention, the organ detection unit detects an eye region included in a face of the live view image using the specific facial organ as an eye, and the image correction unit includes: A catchlight image is synthesized with the eye area detected by the organ detection unit.

また、本発明にかかる撮像装置は、上記の発明において、装置本体の振動を検出し、検出の結果をもとに前記撮像部の駆動を制御する手振れ補正部を備え、前記補正制御部は、前記補正を行う設定の場合に、前記手振れ補正部を動作させる制御を行うことを特徴とする。   Further, the imaging apparatus according to the present invention includes a camera shake correction unit that detects vibration of the apparatus main body and controls driving of the imaging unit based on a result of the detection in the above invention, and the correction control unit includes: In the case of setting to perform the correction, control for operating the camera shake correction unit is performed.

また、本発明にかかる撮像装置は、上記の発明において、前記ライブビュー画像から顔領域を検出する顔検出部を備え、前記補正制御部は、前記補正を行う設定の場合であって、前記顔検出部によって前記ライブビュー画像から顔領域が検出された場合に、前記表示フレームレートを遅くする制御を行うことを特徴とする。   The imaging apparatus according to the present invention further includes a face detection unit that detects a face area from the live view image, and the correction control unit is configured to perform the correction, and When the detection unit detects a face area from the live view image, control is performed to reduce the display frame rate.

また、本発明にかかる撮像装置は、上記の発明において、前記画像補正部は、前記ライブビュー画像中の前記加工された顔器官の領域を含む部分画像を拡大処理する拡大処理部を備え、前記補正制御部は、前記補正を行う設定の場合に、前記拡大処理部が前記拡大処理を行うよう制御することを特徴とする。   In the image pickup apparatus according to the present invention, in the above invention, the image correction unit includes an enlargement processing unit that enlarges a partial image including the processed facial organ region in the live view image, The correction control unit controls the enlargement processing unit to perform the enlargement processing when the correction is set to be performed.

また、本発明にかかる撮像装置は、上記の発明において、複数の顔データを記憶した顔データ記憶部と、前記ライブビュー画像から顔領域を検出する顔検出部と、前記顔検出部によって検出された顔領域を前記顔データ記憶部に記憶された顔データと照合し、前記ライブビュー画像に含まれる特定人物の顔を認識する人物認識部と、を備え、前記補正制御部は、前記補正を行う設定の場合であって、前記人物認識部によって前記ライブビュー画像に含まれる特定人物の顔が認識された場合に、前記画像補正部が前記補正処理を行うよう制御するとともに、前記表示フレームレートを遅くする制御を行うことを特徴とする。   The imaging device according to the present invention is detected by the face data storage unit that stores a plurality of face data, a face detection unit that detects a face area from the live view image, and the face detection unit in the above invention. A face recognition unit that compares the face area with the face data stored in the face data storage unit and recognizes the face of a specific person included in the live view image, and the correction control unit performs the correction. In the case of setting to perform, when the face of a specific person included in the live view image is recognized by the person recognition unit, the image correction unit is controlled to perform the correction process, and the display frame rate It is characterized by performing control for slowing down.

また、本発明にかかる撮像装置は、上記の発明において、前記ライブビュー画像中の前記被写体の動きを検出する動き検出部を備え、前記補正制御部は、前記補正を行う設定の場合であって、前記動き検出部による検出の結果前記被写体の動きがない場合に、前記表示フレームレートを遅くする制御を行うことを特徴とする。   The imaging apparatus according to the present invention may further include a motion detection unit that detects the motion of the subject in the live view image, and the correction control unit is configured to perform the correction. The display frame rate is controlled to be slow when there is no motion of the subject as a result of detection by the motion detection unit.

また、本発明にかかる補正制御装置は、被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部とを備えた撮像装置に設けられる補正制御装置であって、前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行うことを特徴とする。   The correction control apparatus according to the present invention includes an imaging unit that captures a subject, a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate, and the live view. An organ detection unit for detecting a region of a specific facial organ included in the face from a live view image including a face in the image, and processing the region of the facial organ detected by the organ detection unit to perform the live view A correction control device provided in an imaging apparatus, comprising: an image correction unit that performs image correction processing; and a correction setting unit that sets whether or not the image correction unit corrects the live view image. When the setting for performing the correction is performed, the image correction unit controls the correction processing to be performed, and the display frame of the live view image in the setting for performing the correction is performed. Mureto a and performs control to slow depending on the time required for the correction processing than the display frame rate when the setting is not performed the correction.

また、本発明にかかる補正制御方法は、被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部とを備えた撮像装置における補正制御方法であって、前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行うことを特徴とする。   The correction control method according to the present invention includes an imaging unit that captures a subject, a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate, and the live view. An organ detection unit for detecting a region of a specific facial organ included in the face from a live view image including a face in the image, and processing the region of the facial organ detected by the organ detection unit to perform the live view A correction control method in an imaging apparatus, comprising: an image correction unit that performs image correction processing; and a correction setting unit that sets whether or not the image correction unit corrects the live view image. When the setting is made, the image correction unit controls the correction processing to be performed, and the display frame of the live view image in the setting to perform the correction The chromatography bets, and performs control to slow depending on the time required for the correction processing than the display frame rate when the setting is not performed the correction.

また、本発明にかかるプログラムは、被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部とを備えた撮像装置のコンピュータに、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する検出ステップと、前記器官検出ステップで検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する補正ステップと、前記ライブビュー画像の補正を行うか否かを設定する設定ステップと、前記設定ステップで補正を行う設定がされた場合には、前記補正ステップで前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くするよう制御する補正制御ステップと、を実行させることを特徴とする。   According to another aspect of the present invention, there is provided a program for an imaging apparatus including: an imaging unit that captures a subject; and a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate. A computer detects a specific facial organ region included in the face from a live view image including a face of the live view image, and processes the facial organ region detected in the organ detecting step. When the correction step for correcting the live view image, the setting step for setting whether or not to correct the live view image, and the setting for correction in the setting step are performed, the correction step The display frame rate of the live view image in the case of the setting for performing the correction Characterized in that to execute a correction control step of controlling so as to slow down depending on the time required for the correction processing than the display frame rate when the setting is not performed the correction.

また、本発明にかかるプログラムは、上記の発明において、前記検出ステップは、前記特定の顔器官を目として前記ライブビュー画像の顔に含まれる目領域を検出し、前記補正ステップは、前記検出ステップで検出された目領域にキャッチライト画像を合成することを特徴とする。   Further, in the program according to the present invention, in the above invention, the detection step detects an eye region included in a face of the live view image using the specific facial organ as an eye, and the correction step includes the detection step. A catchlight image is synthesized with the eye area detected in step (1).

本発明によれば、顔を含む被写体の特定の顔器官の領域に対する加工の効果を事前に確認しながら撮影することが可能な撮像装置、補正制御装置、補正制御方法およびプログラムを提供することができる。   According to the present invention, it is possible to provide an imaging device, a correction control device, a correction control method, and a program capable of capturing an image while confirming in advance the effect of processing on a specific facial organ region of a subject including a face. it can.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、本発明の撮像装置をデジタルカメラに適用した場合を例にとって説明する。なお、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a case where the imaging apparatus of the present invention is applied to a digital camera will be described as an example. Note that the present invention is not limited to the embodiments. Moreover, in description of drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態1)
図1は、デジタルカメラ1の背面図である。図1に示すように、デジタルカメラ1は、カメラ本体2の上面に配設された撮影タイミングを指示するためのレリーズボタン(シャッターボタン)3、カメラ本体2の背面に配設された電源ボタン4やメニューボタン5、上下左右の各方向ボタン(上ボタン、下ボタン、左ボタンおよび右ボタン)を有する十字ボタン6、操作内容を確定する等のためのOKボタン7、各種画面を表示する表示部28等を備えている。また、図示しないが、カメラ本体2の前面には、撮像レンズ等が配設されている。ユーザが電源ボタン4を押下し、電源をONすると、デジタルカメラ1は撮影可能な状態(撮影モード)となる。この撮影モードでは、撮像レンズを通して撮像素子11(図2参照)に結像されている被写体像が1フレーム(例えば1/30秒)毎に出力され、ライブビュー画像として表示部28にリアルタイムに表示されるようになっている。そして、例えばレリーズボタン3の押下タイミングで電子的な撮影が行われる。
(Embodiment 1)
FIG. 1 is a rear view of the digital camera 1. As shown in FIG. 1, the digital camera 1 includes a release button (shutter button) 3 for instructing photographing timing provided on the upper surface of the camera body 2, and a power button 4 provided on the back surface of the camera body 2. And menu button 5, cross button 6 having up / down / left / right direction buttons (up button, down button, left button and right button), OK button 7 for confirming operation details, and display unit for displaying various screens 28 etc. Although not shown, an imaging lens or the like is disposed on the front surface of the camera body 2. When the user presses the power button 4 to turn on the power, the digital camera 1 is in a state where it can shoot (shooting mode). In this shooting mode, the subject image formed on the image sensor 11 (see FIG. 2) through the imaging lens is output every frame (for example, 1/30 second) and displayed on the display unit 28 in real time as a live view image. It has come to be. For example, electronic photographing is performed at the timing when the release button 3 is pressed.

図2は、このデジタルカメラ1のシステム構成を示すブロック図である。図2に示すように、デジタルカメラ1は、撮像素子11と、レンズ系ユニット12と、レンズ駆動回路13と、撮像回路14と、振動センサ15と、防振制御部16と、SDRAM(Synchronous Dynamic Random Access Memory)17と、AE部18と、AF部19と、画像処理部20と、顔検出部21と、器官検出部22と、顔データ記憶部としての顔辞書23と、人物認識部24と、動き検出部25と、CPU26と、内蔵メモリ27と、表示部28と、表示駆動回路29と、通信I/F30と、操作部31と、着脱メモリ32と、電源回路33と、電池34とを備える。そして、撮像回路14、レンズ駆動回路13、防振制御部16、SDRAM17、AE部18、AF部19、画像処理部20、器官検出部22、顔検出部21、顔辞書23、人物認識部24、動き検出部25、CPU26、表示駆動回路29および着脱メモリ32がバス35を介して接続されて構成されている。また、撮像素子11やレンズ系ユニット12、撮像回路14は、被写体を撮影する撮像部を構成する。   FIG. 2 is a block diagram showing a system configuration of the digital camera 1. As shown in FIG. 2, the digital camera 1 includes an imaging device 11, a lens system unit 12, a lens driving circuit 13, an imaging circuit 14, a vibration sensor 15, an image stabilization control unit 16, and an SDRAM (Synchronous Dynamic Random Access Memory) 17, AE unit 18, AF unit 19, image processing unit 20, face detection unit 21, organ detection unit 22, face dictionary 23 as a face data storage unit, and person recognition unit 24 The motion detection unit 25, the CPU 26, the built-in memory 27, the display unit 28, the display drive circuit 29, the communication I / F 30, the operation unit 31, the removable memory 32, the power supply circuit 33, and the battery 34. With. The imaging circuit 14, the lens driving circuit 13, the image stabilization control unit 16, the SDRAM 17, the AE unit 18, the AF unit 19, the image processing unit 20, the organ detection unit 22, the face detection unit 21, the face dictionary 23, and the person recognition unit 24. The motion detector 25, the CPU 26, the display drive circuit 29, and the removable memory 32 are connected via a bus 35. In addition, the imaging element 11, the lens system unit 12, and the imaging circuit 14 constitute an imaging unit that captures an image of a subject.

撮像素子11は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサであって、レンズ系ユニット12を通して入射する被写体像をフレーム単位で光電変換し、アナログ電気信号を出力する。レンズ系ユニット12は、AF(Auto-Focus)用レンズやズーム用レンズ等を含む撮像レンズ、絞り、シャッター等を含み、レンズ駆動回路13は、レンズ系ユニット12を駆動する。   The image pickup device 11 is an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and photoelectrically converts a subject image incident through the lens system unit 12 in units of frames and outputs an analog electric signal. To do. The lens system unit 12 includes an imaging lens including an AF (Auto-Focus) lens, a zoom lens, and the like, a diaphragm, a shutter, and the like. The lens driving circuit 13 drives the lens system unit 12.

撮像回路14は、撮像素子11から出力されたアナログ電気信号に対してCDS(Correlated Double Sampling)やAGC(Automatic Gain Control)等のアナログ信号処理を行った後、デジタル電気信号に変換するとともに、このデジタル電気信号に対して画素補間処理や色補正処理等のデジタル信号処理を行い、画像データとして出力する。この画像データは、SDRAM17に一時的に記憶される。   The imaging circuit 14 performs analog signal processing such as CDS (Correlated Double Sampling) and AGC (Automatic Gain Control) on the analog electrical signal output from the imaging device 11 and converts the analog electrical signal into a digital electrical signal. Digital signal processing such as pixel interpolation processing and color correction processing is performed on the digital electrical signal and output as image data. This image data is temporarily stored in the SDRAM 17.

振動センサ15は、カメラ本体2の振動を検出するためのものであり、防振制御部16とともに手振れ補正部を構成する。この振動センサ15は、例えばジャイロ等の角速度センサで実現され、デジタルカメラ1の光学系の光軸方向をZ軸方向とし、Z軸方向に垂直な平面(撮像素子11の撮像面)をXY平面とした場合のX軸、Y軸およびZ軸の各軸回りの角速度を個別のジャイロ等によって検出する。そして、防振制御部16は、振動センサ15の検出結果をもとに撮像素子11の駆動を制御し、手振れ等による画像振れを抑制するための防振制御処理(手振れ補正処理)を行う。この防振制御処理は、公知の技術を適宜適用して行う。また、手振れ補正の方式としては、撮像素子を駆動する代わりにレンズ系ユニットの一部のレンズを駆動する方式でも良い。   The vibration sensor 15 is for detecting the vibration of the camera body 2 and constitutes a camera shake correction unit together with the image stabilization control unit 16. The vibration sensor 15 is realized by an angular velocity sensor such as a gyro, for example. The optical axis direction of the optical system of the digital camera 1 is the Z-axis direction, and a plane perpendicular to the Z-axis direction (imaging surface of the image sensor 11) is an XY plane. In this case, the angular velocities around the X, Y, and Z axes are detected by individual gyros or the like. Then, the image stabilization control unit 16 controls the drive of the image sensor 11 based on the detection result of the vibration sensor 15, and performs image stabilization control processing (camera shake correction processing) for suppressing image shake due to camera shake or the like. This image stabilization control process is performed by appropriately applying a known technique. Further, as a camera shake correction method, a method of driving a part of the lenses of the lens system unit instead of driving the imaging device may be used.

SDRAM17は、撮像回路14から出力される画像データや、画像処理部20による処理中の画像データ等の一時記憶用に使用される。例えば、1フレーム毎に撮像回路14から出力される画像(ライブビュー画像)の画像データや、撮影タイミングで撮像回路14から出力される画像(以下、「撮影画像」という。)の画像データ等が一時的に記憶される。デジタルカメラ1のモードの一つである撮影モード等では、撮像素子11に結像されている被写体像が動画的にリアルタイムに表示部28に表示されるようになっており、ライブビュー画像とは、この画像のことをいう。   The SDRAM 17 is used for temporary storage of image data output from the imaging circuit 14 and image data being processed by the image processing unit 20. For example, image data of an image (live view image) output from the imaging circuit 14 for each frame, image data of an image output from the imaging circuit 14 at the shooting timing (hereinafter referred to as “captured image”), and the like. Temporarily stored. In the shooting mode, which is one of the modes of the digital camera 1, the subject image formed on the image sensor 11 is displayed on the display unit 28 in a moving image in real time. What is a live view image? This is the image.

AE部18は、撮像回路14から出力された画像データをもとに、自動露出を行う。AF部19は、撮像回路14から出力された画像データをもとに、自動焦点調節を行う。   The AE unit 18 performs automatic exposure based on the image data output from the imaging circuit 14. The AF unit 19 performs automatic focus adjustment based on the image data output from the imaging circuit 14.

画像処理部20は、撮像回路14から出力された画像データに対して各種の画像処理を施すとともに、記録用、表示用、キャッチライト合成用等に適した画像データに変換する処理を行う。例えば、撮影画像の画像データを記録する際、あるいは記録されている画像データを表示する際等に、JPEG(Joint Photographic Experts Group)方式等に基づく画像データの圧縮処理や伸張処理を行う。また、画素数を増減させて画像データを拡縮させる処理、画像データから一部分を切り出す処理、各画素の輝度成分や色成分を調整する明るさ調整処理や色調整処理等、画像データに対する各種の画像処理を必要に応じて行う。この画像処理部20は、顔を含むライブビュー画像から検出された目領域を加工してライブビュー画像を補正処理する画像補正部201と、ライブビュー画像中の画像補正部201によって加工された目領域を含む部分画像を拡大処理する拡大処理部203とを含む。   The image processing unit 20 performs various types of image processing on the image data output from the imaging circuit 14 and performs processing for converting into image data suitable for recording, display, catchlight synthesis, and the like. For example, when recording image data of a photographed image or displaying recorded image data, image data compression processing or decompression processing based on a JPEG (Joint Photographic Experts Group) method or the like is performed. Various images for image data, such as processing to increase or decrease image data by increasing or decreasing the number of pixels, processing to cut out a part from image data, brightness adjustment processing or color adjustment processing to adjust the luminance component or color component of each pixel, etc. Perform processing as needed. The image processing unit 20 processes an eye region detected from a live view image including a face and corrects the live view image, and an eye processed by the image correction unit 201 in the live view image. And an enlargement processing unit 203 that enlarges a partial image including the region.

顔検出部21は、ライブビュー画像の画像データをもとに、周知技術であるパターンマッチングを適用してこの画像データ中の顔の領域(顔領域)を検出する。器官検出部22は、顔検出部21によって検出された顔領域中の左右の目や鼻、唇等の各顔パーツ(顔器官)の領域を検出する。本実施の形態では、器官検出部22は、特定の顔器官として目を検出する。そして、器官検出部22は、顔検出部21による顔領域の検出結果をもとに左右の目の領域(目領域)を検出し、この目領域の検出結果をもとに、目の大きさや形状、目領域中の瞳孔部分および瞳孔周辺の虹彩部分である黒目の領域等を特定する。この顔検出部21および器官検出部22によって検出されたライブビュー画像中の顔領域の位置座標、目領域の位置座標や目の大きさ、形状、黒目の領域の位置座標を含む顔パーツのデータは、SDRAM17に記憶される。   The face detection unit 21 detects a face area (face area) in the image data by applying pattern matching which is a well-known technique based on the image data of the live view image. The organ detection unit 22 detects regions of face parts (facial organs) such as left and right eyes, nose, and lips in the face region detected by the face detection unit 21. In the present embodiment, the organ detection unit 22 detects eyes as a specific facial organ. Then, the organ detection unit 22 detects the left and right eye regions (eye regions) based on the detection results of the face regions by the face detection unit 21, and based on the detection results of the eye regions, The shape, the pupil portion in the eye region, the black eye region that is the iris portion around the pupil, and the like are specified. Face part data including face area position coordinates, eye area position coordinates, eye size, shape, and black eye area position coordinates in the live view image detected by the face detection unit 21 and the organ detection unit 22 Is stored in the SDRAM 17.

顔辞書23は、例えば人物に対して固有に割り当てられる人物IDと対応付けて、その人物を実際に撮影した顔画像(顔データ)を登録(記憶)したデータテーブルであり、ユーザによる登録操作に従って顔画像が随時登録される。例えば、ユーザは、登録したい人物を撮影することによって、その人物の顔画像を顔辞書23に登録する。   The face dictionary 23 is a data table in which face images (face data) obtained by actually photographing a person are registered (stored) in association with a person ID uniquely assigned to the person, for example, according to a registration operation by the user. Face images are registered as needed. For example, the user registers a face image of the person in the face dictionary 23 by photographing the person to be registered.

人物認識部24は、ライブビュー画像中の顔領域を顔辞書23と照合し、ライブビュー画像に含まれる特定人物の顔を認識(識別)するものである。例えば、人物認識部24は、顔検出部21によってライブビュー画像から検出された顔領域を顔辞書23に登録されている各顔画像と比較し、類似度を算出する。そして、人物認識部24は、最も類似度の高い顔画像の人物IDを認識結果として出力する。   The person recognition unit 24 collates the face area in the live view image with the face dictionary 23 and recognizes (identifies) the face of a specific person included in the live view image. For example, the person recognizing unit 24 compares the face area detected from the live view image by the face detecting unit 21 with each face image registered in the face dictionary 23, and calculates the similarity. Then, the person recognizing unit 24 outputs the person ID of the face image having the highest similarity as the recognition result.

動き検出部25は、撮像回路14から出力されたライブビュー画像の画像データをもとにフレーム毎の動きベクトルを検出し、被写体の動き量として出力する。ライブビュー画像は、1フレーム毎(例えば1/30秒毎)に随時取り込まれてSDRAM17に一時的に記憶され、所定の表示フレームレートで表示部28に表示されるが、動き検出部25は、近接するライブビュー画像間の差分を求めることによって動きベクトルを検出する。具体的には、動き検出部25は、前に取り込まれて動きベクトルの検出用に保持されているライブビュー画像の画像データを、新たに取り込まれたライブビュー画像の画像データと比較して差分を求める。これにより、各ライブビュー画像に映る同一の被写体位置の変化量を表す動きベクトルを検出することができる。ここで、隣接するライブビュー画像間の差分を求めることによって動きベクトルを検出することとしてもよいし、所定のフレーム間隔で動き検出を行うこととしてもよい。また、この動きベクトルの検出は、適宜公知の技術を用いて行う。   The motion detection unit 25 detects a motion vector for each frame based on the image data of the live view image output from the imaging circuit 14 and outputs it as the amount of motion of the subject. The live view image is captured as needed every frame (for example, every 1/30 seconds), temporarily stored in the SDRAM 17, and displayed on the display unit 28 at a predetermined display frame rate. A motion vector is detected by obtaining a difference between adjacent live view images. Specifically, the motion detection unit 25 compares the image data of the live view image previously captured and stored for detecting the motion vector with the newly captured image data of the live view image. Ask for. Thereby, it is possible to detect a motion vector representing the amount of change in the same subject position shown in each live view image. Here, a motion vector may be detected by obtaining a difference between adjacent live view images, or motion detection may be performed at a predetermined frame interval. In addition, the detection of the motion vector is appropriately performed using a known technique.

CPU26は、操作部31からの操作信号等に応じて内蔵メモリ27からカメラプログラムを読み出して実行し、デジタルカメラ1を構成する各部に対する指示やデータの転送等を行ってデジタルカメラ1の動作を統括的に制御する。このCPU26は、補正制御部261を含む。補正制御部261は、ライブビュー画像の補正を行う場合に、画像補正部201が補正処理を行うよう制御するとともに、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正を行わない場合よりも遅くする制御を行う。例えば、ユーザが撮影モードに関する設定の1つである補正モードを選択した場合にライブビュー画像の補正を行うこととする。そして、通常の撮影モード等の補正モードが選択されていない撮影モードでは、ライブビュー画像の補正を行わない。また、実施の形態1では、補正制御部261は、ライブビュー画像の補正を行う場合において、防振制御部16が防振制御処理を行うよう制御する。   The CPU 26 reads and executes a camera program from the built-in memory 27 in response to an operation signal from the operation unit 31, etc., and gives instructions to each unit constituting the digital camera 1, transfers data, and the like to control the operation of the digital camera 1. Control. The CPU 26 includes a correction control unit 261. When correcting the live view image, the correction control unit 261 controls the image correction unit 201 to perform the correction process, and corrects the display frame rate of the live view image according to the time required for the correction process. The control is made slower than when there is no. For example, the live view image is corrected when the user selects a correction mode which is one of the settings related to the shooting mode. Then, in the shooting mode in which the correction mode such as the normal shooting mode is not selected, the live view image is not corrected. In the first embodiment, the correction control unit 261 controls the image stabilization control unit 16 to perform the image stabilization control process when the live view image is corrected.

内蔵メモリ27は、例えばフラッシュメモリ等の電気的に書き換えが可能な不揮発性メモリであり、この内蔵メモリ27には、デジタルカメラ1を動作させ、このデジタルカメラ1が備える種々の機能を実現するための各種のカメラプログラムや、このカメラプログラムの実行中に使用されるデータ等が予め記録されている。データには後述するキャッチライト画像のデータが含まれる。この内蔵メモリ27には、CPU26を補正制御部261として機能させるための補正制御プログラム271が格納される。すなわち、補正制御部261が行う処理は、補正制御部261が内蔵メモリ27から補正制御プログラム271を読み出して実行することによって実現され、このプログラム自体が補正制御部261の機能を実現することになる。なお、プログラムの記録媒体はフラッシュメモリに限定されるものではなく、CD−ROMやDVD−ROM等の光学記録媒体、MD等の磁気記録媒体、テープ媒体、ICカードなどの半導体メモリを用いることができる。   The built-in memory 27 is an electrically rewritable nonvolatile memory such as a flash memory, for example. The built-in memory 27 operates the digital camera 1 and realizes various functions provided in the digital camera 1. The various camera programs and data used during the execution of the camera program are recorded in advance. The data includes catchlight image data to be described later. The built-in memory 27 stores a correction control program 271 for causing the CPU 26 to function as the correction control unit 261. That is, the processing performed by the correction control unit 261 is realized by the correction control unit 261 reading and executing the correction control program 271 from the built-in memory 27, and this program itself realizes the function of the correction control unit 261. . The program recording medium is not limited to a flash memory, and an optical recording medium such as a CD-ROM or DVD-ROM, a magnetic recording medium such as an MD, a tape medium, or a semiconductor memory such as an IC card is used. it can.

表示部28は、撮影画像やライブビュー画像の他、デジタルカメラ1の各種設定情報等を表示するためのものであり、LCD(Liquid Crystal Display)やELディスプレイ(Electroluminescence Display)等の表示装置で実現される。表示駆動回路29は、表示部28を駆動する。この表示部28には、撮影モード中は所定の表示フレームレートでライブビュー画像が再描画されて動画的に連続表示され、再生モード中は撮影画像が表示される。   The display unit 28 displays various setting information of the digital camera 1 in addition to the photographed image and the live view image, and is realized by a display device such as an LCD (Liquid Crystal Display) or an EL display (Electroluminescence Display). Is done. The display drive circuit 29 drives the display unit 28. On the display unit 28, the live view image is redrawn at a predetermined display frame rate during the shooting mode and continuously displayed as a moving image, and the shot image is displayed during the playback mode.

操作部31は、撮影タイミングの指示、補正モードを含む各種の撮影モードや再生モードといったモードの設定操作、撮影条件の設定操作等、ユーザによる各種操作を受け付けて操作信号をCPU26に通知するためのものであり、各種機能が割り当てられたボタンスイッチ等で実現される。実施の形態1では、操作部31は、補正設定部として、ユーザ操作に従って撮影モードに関する設定の1つとして補正モードの設定を行う。この操作部31は、図1のレリーズボタン3、電源ボタン4、メニューボタン5、十字ボタン6、およびOKボタン7を含む。   The operation unit 31 is for accepting various operations by the user, such as an instruction for photographing timing, a setting operation for various photographing modes including a correction mode and a playback mode, a setting operation for photographing conditions, and the like, and notifies the CPU 26 of an operation signal. It is realized by a button switch to which various functions are assigned. In the first embodiment, the operation unit 31 sets a correction mode as one of settings related to a shooting mode in accordance with a user operation as a correction setting unit. The operation unit 31 includes the release button 3, the power button 4, the menu button 5, the cross button 6, and the OK button 7 in FIG. 1.

通信I/F30は、例えばUSB(Universal Serial Bus)等の通信規格によってデジタルカメラ1を例えばパソコン等の外部機器と接続するためのインターフェースである。   The communication I / F 30 is an interface for connecting the digital camera 1 to an external device such as a personal computer according to a communication standard such as USB (Universal Serial Bus).

着脱メモリ32は、例えばxD−ピクチャーカード(登録商標)やコンパクトフラッシュ(登録商標)カード等のデジタルカメラ1に着脱自在なメモリカードである。この着脱メモリ32には、その種類に応じた図示しない読み書き装置によって撮影画像の画像データが書き込まれ、または読み書き装置によって着脱メモリ32に記録された画像データが読み出される。   The removable memory 32 is a memory card that is detachable from the digital camera 1 such as an xD-Picture Card (registered trademark) or a CompactFlash (registered trademark) card. In the detachable memory 32, image data of a photographed image is written by a read / write device (not shown) corresponding to the type, or image data recorded in the detachable memory 32 is read by the read / write device.

電源回路33は、装填されている電池34によって供給される電力を、所定の電力に変換してデジタルカメラ1の各部へと供給する。   The power supply circuit 33 converts the power supplied by the battery 34 loaded therein into predetermined power and supplies it to each part of the digital camera 1.

ここで、以上のように構成されるデジタルカメラ1の機能の一つである補正モードの概要について説明する。実施の形態1のデジタルカメラ1は、撮影モードに関する設定として補正モードが選択されているか否かによってライブビュー画像の表示フレームレートを変更する。具体的には、補正モードが選択されている場合の表示フレームレートを、通常の撮影モード等の補正モードが選択されていない場合の表示フレームレートと比較して低くする。図3は、ライブビュー画像の表示・更新タイミングを説明する図である。1番上の段の列が、撮像素子11でのライブビュー画像の画像取り込みタイミングを示す。そして、上記取り込まれた画像1aを表示するタイミングを、補正モードの有無に応じて2番、3番目の列でそれぞれ示す。2番目が補正モードが選択されていない撮影モードでのライブビュー画像の表示・更新タイミングで、第1フレームレートとする。3番目が補正モードが選択されている撮影モードでのライブビュー画像の表示・更新タイミングで、第2フレームレートとする。   Here, an outline of the correction mode, which is one of the functions of the digital camera 1 configured as described above, will be described. The digital camera 1 according to the first embodiment changes the display frame rate of the live view image depending on whether the correction mode is selected as the setting relating to the shooting mode. Specifically, the display frame rate when the correction mode is selected is set lower than the display frame rate when the correction mode such as the normal shooting mode is not selected. FIG. 3 is a diagram for explaining the display / update timing of the live view image. The uppermost row indicates the image capture timing of the live view image on the image sensor 11. And the timing which displays the said captured image 1a is each shown by the 2nd and 3rd column according to the presence or absence of correction mode. The second is the first frame rate at the display / update timing of the live view image in the shooting mode in which the correction mode is not selected. The third is the second frame rate at the display / update timing of the live view image in the shooting mode in which the correction mode is selected.

先ず、撮像素子11でのライブビュー画像の画像取り込みタイミングを標準的な30(フレーム/秒)とする。そして、取り込んだ画像Iaを表示するために表示用の画像処理がすることが必要になるので、表示されるタイミングは、画像取り込み後に所定の画像処理の時間の後になる。補正モードが選択されていない場合の表示用の画像処理の時間が、1/30秒以下とすれば、第1フレームレートの列で示すように、取り込んだ画像が毎回表示部28にライブビュー画像Ibとして更新表示できる。つまり、第1フレームレートは、取り込みレートと同じ30(フレーム/秒)になる。   First, the image capture timing of the live view image at the image sensor 11 is set to a standard of 30 (frames / second). Since it is necessary to perform image processing for display in order to display the captured image Ia, the display timing is after a predetermined image processing time after capturing the image. If the display image processing time when the correction mode is not selected is 1/30 seconds or less, the captured image is displayed on the display unit 28 every time as shown in the first frame rate column. It can be updated and displayed as Ib. That is, the first frame rate is 30 (frames / second), which is the same as the capture rate.

次に、補正モードが選択された場合には、通常の表示用処理に補正にともなう余分な処理が加わる。この実施形態の例では、補正分を加えた画像処理にかかる時間が1/30秒以上になるとする。とすれば、第1フレームレートと同様なタイミングでの表示は破綻してしまう。そこで、第2フレームレートの列で示すように、取り込まれたライブビュー画像Iaを1フレーム間引いて2フレーム毎に画像処理し、処理したライブビュー画像Icを表示部28に更新表示するようにする。つまり、第2フレームレートは、取り込みレートの半分である15(フレーム/秒)になる。   Next, when the correction mode is selected, extra processing accompanying correction is added to the normal display processing. In the example of this embodiment, it is assumed that the time required for image processing to which correction is added is 1/30 second or more. Then, the display at the same timing as the first frame rate is broken. Therefore, as shown in the second frame rate column, the captured live view image Ia is thinned out by one frame, image processing is performed every two frames, and the processed live view image Ic is updated and displayed on the display unit 28. . That is, the second frame rate is 15 (frames / second) which is half of the capture rate.

ここで、補正モードが選択されている場合に行う画像処理では、表示用の画像処理に加え、ライブビュー画像から顔領域を検出してその目領域を加工する処理(補正処理)を行う。すなわち先ず、顔領域中の目領域を検出する。複数の顔領域が検出されている場合には、それぞれの顔領域から目領域を検出する。そして、検出した目領域を加工する。左右の二つの目領域が検出されている場合には、それぞれの目領域を加工する。目領域の加工は、例えば予め合成用画像としてキャッチライト用に用意されたキャッチライト画像を目領域に合成することで行う。なお、ここでは、補正モードが選択されている場合の表示フレームレートを15(フレーム/秒)としたが、この表示フレームレートは一例であって、補正処理に要する時間に応じて適宜設定することができる。   Here, in the image processing performed when the correction mode is selected, in addition to display image processing, processing (correction processing) for detecting a face region from a live view image and processing the eye region is performed. That is, first, an eye area in the face area is detected. When a plurality of face areas are detected, an eye area is detected from each face area. Then, the detected eye area is processed. When two left and right eye areas are detected, each eye area is processed. The processing of the eye area is performed by, for example, synthesizing a catchlight image prepared for the catchlight in advance as an image for synthesis with the eye area. Here, the display frame rate when the correction mode is selected is set to 15 (frames / second). However, this display frame rate is an example, and should be set as appropriate according to the time required for the correction process. Can do.

次に、デジタルカメラ1の動作について説明する。図4は、デジタルカメラ1の基本動作を示すフローチャートである。図4に示すように、デジタルカメラ1は、電源ボタン4が押下されて電源投入(パワーON)されると(ステップa1:Yes)、パワーON状態へ遷移する(ステップa3)。   Next, the operation of the digital camera 1 will be described. FIG. 4 is a flowchart showing the basic operation of the digital camera 1. As shown in FIG. 4, when the power button 4 is pressed and the power is turned on (power ON) (step a1: Yes), the digital camera 1 transitions to a power ON state (step a3).

そして、メニュー操作ありの場合(メニューボタン5が押下された場合)には(ステップa5:Yes)、メニュー動作に移る(ステップa7)。このメニュー動作では、CPU26がメニュー処理を開始し、メニュー画面を表示部28に表示させてモードの設定メニューや各種撮影条件の設定メニュー等のメニュー項目を提示する。そして、CPU26は、ユーザ操作によって選択されたメニュー項目に応じた処理を行い、操作部31からの操作信号に従ってモードの設定や撮影条件の設定・変更等を行うための処理を実行する。ここでのメニュー処理によって、例えば撮影モードや再生モード等のモードを設定することができ、撮影モードとして補正モードを選択しない通常の撮影モードや補正モードを選択した撮影モードを設定することができる。   When there is a menu operation (when the menu button 5 is pressed) (step a5: Yes), the operation proceeds to the menu operation (step a7). In this menu operation, the CPU 26 starts menu processing, displays a menu screen on the display unit 28, and presents menu items such as a mode setting menu and various shooting condition setting menus. Then, the CPU 26 performs a process according to the menu item selected by the user operation, and executes a process for setting a mode, setting / changing a shooting condition, and the like according to an operation signal from the operation unit 31. By the menu processing here, for example, a shooting mode, a playback mode, or the like can be set, and a normal shooting mode in which the correction mode is not selected as the shooting mode or a shooting mode in which the correction mode is selected can be set.

メニュー操作がなければ(ステップa5:No)、現在設定されているモードに応じた動作に移る。すなわち、現在のモードが撮影モードの場合には(ステップa9:Yes)、撮影モード動作に移る(ステップa11)。ここで、撮影モード動作に移ると、表示部28に対してライブビュー画像の表示が継続的に行われるライブビュー画像表示状態となる。すなわち、撮像素子11に結像されている被写体像の画像データをSDRAM17に一時的に記憶するとともに、この画像データを所定のフレームレートで表示部28に表示する一連の処理を繰り返し行い、ライブビュー画像を動画的に連続表示する。そして、例えばレリーズボタン3が押下されたタイミングで撮影処理を行い、このときの撮影範囲の画像を撮影画像として生成する。一方、現在のモードが撮影モードではなく(ステップa9:No)、再生モードの場合には(ステップa13:Yes)、再生モード動作に移る(ステップa15)。このときCPU26は、例えば、着脱メモリ32に記録されている撮影画像の画像データを読み出して表示部28に再生表示するための制御を行う。また、現在のモードが再生モードではなく(ステップa13:No)、その他のモードの場合には(ステップa17:Yes)、そのモードに応じた動作に移る(ステップa19)。   If there is no menu operation (step a5: No), it moves to the operation according to the currently set mode. That is, when the current mode is the shooting mode (step a9: Yes), the process proceeds to the shooting mode operation (step a11). Here, when the shooting mode operation is started, a live view image display state in which a live view image is continuously displayed on the display unit 28 is set. In other words, the image data of the subject image formed on the image sensor 11 is temporarily stored in the SDRAM 17 and a series of processes for displaying the image data on the display unit 28 at a predetermined frame rate is repeated to perform live view. Display images continuously as a movie. Then, for example, photographing processing is performed at the timing when the release button 3 is pressed, and an image in the photographing range at this time is generated as a photographed image. On the other hand, when the current mode is not the shooting mode (step a9: No) and in the playback mode (step a13: Yes), the operation proceeds to the playback mode (step a15). At this time, for example, the CPU 26 performs control for reading out the image data of the photographed image recorded in the removable memory 32 and reproducing and displaying it on the display unit 28. If the current mode is not the playback mode (step a13: No) and other modes (step a17: Yes), the operation proceeds to the mode (step a19).

そして、電源ボタン4が押下されて電源が遮断(パワーOFF)されると(ステップa21:Yes)、デジタルカメラ1はパワーOFF状態へと遷移し(ステップa23)、基本動作を終える。パワーOFFされなければ(ステップa21:No)、ステップa5に戻る。   When the power button 4 is pressed and the power is turned off (power OFF) (step a21: Yes), the digital camera 1 transitions to the power OFF state (step a23) and ends the basic operation. If the power is not turned off (step a21: No), the process returns to step a5.

次に、撮影モードの場合のデジタルカメラ1の撮影モード動作について説明する。図5は、実施の形態1におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。   Next, the shooting mode operation of the digital camera 1 in the shooting mode will be described. FIG. 5 is a flowchart showing the shooting mode operation of the digital camera 1 in the first embodiment.

図5に示すように、撮影モード動作では先ず、CPU26の制御のもと、撮像回路14が撮像素子11を起動する(ステップb1)。そして、ライブビュー画像の画像取り込みタイミングの場合には(ステップb3:Yes)、ステップb7に移行する。ライブビュー画像の表示・更新タイミングの場合には(ステップb5:Yes)、ステップb35に移行する。このとき、CPU26は、設定されている表示フレームレートに従ってライブビュー画像の表示・更新タイミングを判定する。ライブビュー画像の画像取り込みタイミングでなく(ステップb3:No)、表示・更新タイミングでもなければ(ステップb5:No)、ステップb37に移行する。   As shown in FIG. 5, in the shooting mode operation, first, the imaging circuit 14 activates the imaging device 11 under the control of the CPU 26 (step b1). In the case of the image capture timing of the live view image (step b3: Yes), the process proceeds to step b7. In the case of the display / update timing of the live view image (step b5: Yes), the process proceeds to step b35. At this time, the CPU 26 determines the display / update timing of the live view image according to the set display frame rate. If it is not the image capture timing of the live view image (step b3: No) and not the display / update timing (step b5: No), the process proceeds to step b37.

ステップb7では、測光処理を行い、次いでライブビュー画像を取り込む(ステップb9)。続いて、CPU26が、撮影モードの種類を判定する。そして、撮影モードの設定として補正モードが選択されている場合には(ステップb11:Yes)、補正制御部261が、防振制御部16が防振制御処理を行うよう制御し、この制御によって、防振制御部16が、振動センサ15を駆動して防振制御処理を行う(ステップb17)。そして、補正制御部261は、表示フレームレートを第2表示フレームレートとし(ステップb19)、補正フラグをセット(“ON”に設定)する(ステップb21)。   In step b7, photometric processing is performed, and then a live view image is captured (step b9). Subsequently, the CPU 26 determines the type of shooting mode. When the correction mode is selected as the shooting mode setting (step b11: Yes), the correction control unit 261 controls the image stabilization control unit 16 to perform the image stabilization control process. The image stabilization control unit 16 drives the vibration sensor 15 to perform image stabilization control processing (step b17). Then, the correction control unit 261 sets the display frame rate to the second display frame rate (step b19) and sets the correction flag (sets “ON”) (step b21).

続いて、顔検出部21が顔検出処理を行い、ステップb9で取り込んだライブビュー画像から顔領域を検出する(ステップb23)。そして、器官検出部22が顔器官検出処理を行い、顔検出部21による顔領域の検出結果をもとに、目領域等の顔パーツを検出する(ステップb25)。ここで、ライブビュー画像に複数の顔が映っており、複数の顔領域を検出している場合には、各顔領域についてそれぞれ目領域の検出を行う。このとき、器官検出部22は、目領域の検出結果をもとに、目の大きさや形状、黒目の領域等を特定する。なお、ライブビュー画像に顔の正面が映っており、顔領域から目領域を2つ検出した場合には、この2つの目領域について、それぞれ目の大きさや形状、黒目の領域等の特定を行う。   Subsequently, the face detection unit 21 performs face detection processing, and detects a face area from the live view image captured in step b9 (step b23). Then, the organ detection unit 22 performs face organ detection processing, and detects face parts such as the eye region based on the detection result of the face region by the face detection unit 21 (step b25). Here, when a plurality of faces are shown in the live view image and a plurality of face areas are detected, eye areas are detected for each face area. At this time, the organ detection unit 22 specifies the size and shape of the eyes, the black eye area, and the like based on the detection result of the eye area. If the face of the face is reflected in the live view image and two eye areas are detected from the face area, the eye size, shape, black eye area, etc. are specified for each of the two eye areas. .

続いて、画像補正部201が、検出されたライブビュー画像中の目領域を加工し(左右の目領域が検出された場合には各目領域をそれぞれ加工し)、ライブビュー画像を補正処理する(ステップb27)。すなわち先ず、画像補正部201は、キャッチライト画像が目領域からはみ出さないようにするため、特定した目の大きさや形状をもとにキャッチライト画像に拡縮処理やトリミング処理等を施す。そして、画像補正部201は、目領域にキャッチライト画像を合成する。キャッチライト画像のデータは、内蔵メモリ27から読み出されて使用される。   Subsequently, the image correction unit 201 processes the eye area in the detected live view image (if each of the left and right eye areas is detected, processes each eye area), and corrects the live view image. (Step b27). That is, first, the image correction unit 201 performs enlargement / reduction processing, trimming processing, or the like on the catchlight image based on the size and shape of the specified eye so that the catchlight image does not protrude from the eye area. Then, the image correction unit 201 synthesizes a catchlight image with the eye area. The catchlight image data is read from the built-in memory 27 and used.

ここで、キャッチライト画像の合成手法は特に限定されるものではなく、キャッチライト画像の色成分および輝度成分を上書きして合成することとしてもよいし、キャッチライト画像の輝度成分のみを上書きするようにしてもよい。例えば、黒目の領域に対しては色成分および輝度成分を上書きして合成し、白目の領域に対しては輝度成分のみを上書きするようにしてもよい。また、キャッチライト画像として用いる画像についても、特に限定されるものではない。例えば、事前に複数種類のキャッチライト画像を用意しておき、ユーザが指定したキャッチライト画像等、適宜選択して用いることとしてもよい。また、瞳(黒目)の領域からはみ出さないようにキャッチライト画像を合成するようにしてもよい。すなわち、黒目の大きさや形状をもとに、瞳からはみ出さないようにキャッチライト画像を拡縮処理し、拡縮処理後のキャッチライト画像を黒目の外形に沿うようにトリミング処理する。なお、円形状や楕円形状等の所定の形状をトリミング形状として予め設定しておくこととしてもよい。あるいは、キャッチライト画像として円形状や楕円形状の画像を用意しておくこととしてもよい。これによれば、目領域の瞳の部分に、加工したテンプレート画像をキャッチライトとして合成することができる。   Here, the method for synthesizing the catchlight image is not particularly limited, and it may be synthesized by overwriting the color component and luminance component of the catchlight image, or only the luminance component of the catchlight image may be overwritten. It may be. For example, the color component and the luminance component may be overwritten for the black eye region, and only the luminance component may be overwritten for the white eye region. Also, the image used as the catchlight image is not particularly limited. For example, a plurality of types of catchlight images may be prepared in advance, and catchlight images designated by the user may be appropriately selected and used. Alternatively, the catch light image may be synthesized so as not to protrude from the pupil (black eye) region. That is, based on the size and shape of the black eye, the catchlight image is enlarged or reduced so as not to protrude from the pupil, and the catchlight image after the enlargement / reduction processing is trimmed so as to follow the outline of the black eye. Note that a predetermined shape such as a circular shape or an elliptical shape may be set in advance as a trimming shape. Alternatively, a circular or elliptical image may be prepared as a catchlight image. According to this, the processed template image can be combined as a catch light with the pupil portion of the eye region.

一方、補正モードが選択されていない撮影モードの場合には(ステップb11:No)、CPU26は、表示フレームレートを第1表示フレームレートとし(ステップb31)、補正フラグをクリア(“OFF”に設定)する(ステップb33)。   On the other hand, when the shooting mode is not selected (step b11: No), the CPU 26 sets the display frame rate to the first display frame rate (step b31) and clears the correction flag (set to “OFF”). (Step b33).

また、ステップb35では、ライブビュー画像を表示部28に表示する制御を行う。すなわち、補正モードが選択されておりステップb19で表示フレームレートが第2フレームレートに設定された場合には、例えば、ステップb27で補正処理されたライブビュー画像の表示を取り込み画像の2フレーム毎に更新する。したがって、ライブビュー画像を補正処理するための時間を十分に確保することができる。一方、補正モードが選択されておらずステップb31で表示フレームレートが第1フレームレートに設定された場合には、1フレーム毎にライブビュー画像の表示を更新する。   In step b35, control for displaying the live view image on the display unit 28 is performed. That is, when the correction mode is selected and the display frame rate is set to the second frame rate in step b19, for example, the display of the live view image corrected in step b27 is captured every two frames of the image. Update. Therefore, a sufficient time for correcting the live view image can be secured. On the other hand, if the correction mode is not selected and the display frame rate is set to the first frame rate in step b31, the display of the live view image is updated every frame.

図6は、顔を含むライブビュー画像の一例を示す図である。また、図7は、補正処理したライブビュー画像の一例を示す図であり、図6のライブビュー画像に映る顔の黒目の部分にキャッチライト画像を合成した様子を示している。このライブビュー画像は、図6のライブビュー画像から目領域を検出し、検出した目領域にキャッチライト画像を合成することによって得られた画像であり、撮影モードに関する設定として補正モードを選択すると、図7に示すように、補正処理されたライブビュー画像が表示部28に表示される。   FIG. 6 is a diagram illustrating an example of a live view image including a face. FIG. 7 is a diagram showing an example of the corrected live view image, and shows a state in which the catchlight image is combined with the black eye portion of the face shown in the live view image of FIG. This live view image is an image obtained by detecting the eye area from the live view image of FIG. 6 and synthesizing the catch light image with the detected eye area. When the correction mode is selected as the setting related to the shooting mode, As shown in FIG. 7, the corrected live view image is displayed on the display unit 28.

そして、図5に示すように、ステップb37では、CPU26は、撮影操作やモード切替操作、メニュー操作等の各種操作入力があった場合に(ステップb37:Yes)、入力された操作が撮影操作か否かを判定する。すなわち、入力された操作がレリーズボタン3の押下操作の場合には(ステップb39:Yes)、撮影処理を行ってこのときの撮影範囲の静止画像を撮影し(ステップb41)、図4のステップa11にリターンする。一方、入力された操作が撮影操作以外の操作の場合には(ステップb39:No)、図4のステップa11にリターンし、その後ステップa21に移る。   As shown in FIG. 5, in step b37, the CPU 26 determines whether the input operation is a shooting operation when there are various operation inputs such as a shooting operation, a mode switching operation, and a menu operation (step b37: Yes). Determine whether or not. In other words, when the input operation is a pressing operation of the release button 3 (step b39: Yes), a photographing process is performed to photograph a still image in the photographing range at this time (step b41), and step a11 in FIG. Return to On the other hand, if the input operation is an operation other than the shooting operation (step b39: No), the process returns to step a11 in FIG. 4 and then proceeds to step a21.

図8は、撮影処理の詳細な処理手順を示すフローチャートである。図8に示すように、撮影処理では、先ず撮影準備動作として、AF部19がAF(自動焦点)動作を行い、AE部18がAE(自動露出)動作を行う(ステップc1)。そして、撮影動作に移る(ステップc3)。   FIG. 8 is a flowchart showing a detailed processing procedure of the photographing process. As shown in FIG. 8, in the photographing process, first, as photographing preparation operations, the AF unit 19 performs an AF (automatic focus) operation, and the AE unit 18 performs an AE (automatic exposure) operation (step c1). Then, the process proceeds to the photographing operation (step c3).

そして、撮影動作を終えると、CPU26は、補正フラグを判定する(ステップc5)。そして、補正フラグが “ON”の場合には、図5のステップb23〜b27と同様に、顔検出部21が顔検出処理を行って顔領域を検出し(ステップc7)、器官検出部22が顔器官検出処理を行って顔領域中の目領域を検出し(ステップc9)、画像補正部201がキャッチライト画像を合成することで目領域を加工して撮影用の画像を補正処理する(ステップc11)。そして、ステップc5の判定結果が“OFF”の場合、またはステップc11の補正処理を終えた場合にはステップc13に移り、撮影画像を圧縮して着脱メモリ32に記録する。すなわち、補正フラグが“OFF”の場合には、ステップc3の撮像動作の結果得られた撮影画像を着脱メモリ32に記録する。一方、補正フラグが“ON”の場合には、ステップc11で補正処理した撮影画像を着脱メモリ32に記録する。なお、補正処理した撮影画像と併せて補正処理前の撮影画像を着脱メモリ32に記録するようにしてもよい。そして、図5のステップb41にリターンする。   When the photographing operation is finished, the CPU 26 determines a correction flag (step c5). When the correction flag is “ON”, as in steps b23 to b27 of FIG. 5, the face detection unit 21 performs face detection processing to detect a face area (step c7), and the organ detection unit 22 A face organ detection process is performed to detect an eye area in the face area (step c9), and the image correction unit 201 synthesizes the catchlight image to process the eye area and correct the image for imaging (step). c11). If the determination result in step c5 is “OFF”, or if the correction process in step c11 is completed, the process proceeds to step c13, where the captured image is compressed and recorded in the removable memory 32. That is, when the correction flag is “OFF”, the captured image obtained as a result of the imaging operation in step c3 is recorded in the removable memory 32. On the other hand, if the correction flag is “ON”, the captured image corrected in step c11 is recorded in the removable memory 32. In addition, you may make it record the picked-up image before correction processing in the attachment / detachment memory 32 with the picked-up image which carried out the correction process. Then, the process returns to step b41 in FIG.

以上説明したように、実施の形態1によれば、補正モードが選択されている撮影モードでのライブビュー画像の表示フレームレートを補正処理に要する時間に応じて設定し、補正モードが選択されていない撮影モードでのライブビュー画像の表示フレームレートよりも遅くすることができる。これによれば、ライブビュー画像中の目領域を加工してキャッチライト画像を合成する補正処理のための時間を確保することができる。したがって、構成を複雑にすることなくライブビュー画像に対する補正処理をリアルタイムで適切に行うことが可能となるため、顔を含む被写体の目領域に対するキャッチライト画像の合成効果を事前に確認しながら撮影することができるという効果を奏する。また、ライブビュー画像の表示フレームレートを補正処理に要する時間に応じて通常よりも遅くするだけでよいので、撮影に与える影響も少ない。さらに、振動センサ15および防振制御部16によって実現される手振れ補正機能によって手振れ等のカメラ本体2の振動によるライブビュー画像の画像振れを抑制できる。したがって、目の位置の振れに起因するキャッチライトの位置ずれを防止できるので、補正処理の精度を向上させることができ、より適切に補正処理が行える。   As described above, according to the first embodiment, the display frame rate of the live view image in the shooting mode in which the correction mode is selected is set according to the time required for the correction process, and the correction mode is selected. It can be slower than the display frame rate of the live view image in no shooting mode. According to this, it is possible to secure time for the correction processing for processing the eye region in the live view image and synthesizing the catchlight image. Therefore, since it is possible to appropriately perform correction processing on the live view image in real time without complicating the configuration, shooting is performed while confirming in advance the effect of combining the catchlight image with the eye area of the subject including the face. There is an effect that can be. In addition, since the display frame rate of the live view image only needs to be slower than usual according to the time required for the correction process, there is little influence on the shooting. Furthermore, image stabilization of the live view image due to vibration of the camera body 2 such as camera shake can be suppressed by the camera shake correction function realized by the vibration sensor 15 and the image stabilization control unit 16. Therefore, the catch light can be prevented from being displaced due to the shake of the eye position, so that the accuracy of the correction process can be improved and the correction process can be performed more appropriately.

(実施の形態2)
次に、実施の形態2について説明する。なお、実施の形態2は、図2に示したシステム構成のデジタルカメラ1で実現でき、以下では、各構成要素に同一の符号を付する。
(Embodiment 2)
Next, a second embodiment will be described. The second embodiment can be realized by the digital camera 1 having the system configuration shown in FIG. 2, and the same reference numerals are given to the respective components in the following.

実施の形態2では、CPU26の補正制御部261は、実施の形態1と同様にして画像補正部201がライブビュー画像の補正を行うか否かの設定を行う。そして、補正モードが選択されておりライブビュー画像の補正を行う場合であって、顔検出部21によってライブビュー画像から顔領域が検出された場合に、補正制御部261は、画像補正部201が補正処理を行うよう制御するとともに、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正を行わない場合よりも遅くする制御を行う。   In the second embodiment, the correction control unit 261 of the CPU 26 sets whether or not the image correction unit 201 corrects the live view image as in the first embodiment. When the correction mode is selected and the live view image is corrected and the face area is detected from the live view image by the face detection unit 21, the correction control unit 261 uses the image correction unit 201. Control is performed so that the correction process is performed, and control is performed so that the display frame rate of the live view image is slower than when no correction is performed according to the time required for the correction process.

図9は、実施の形態2におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。なお、図9において、図5と同様の処理工程には同一の符号を付している。図9に示すように、実施の形態2の撮影モード動作では、ステップb11で撮影モードの種類を判定した結果補正モードが選択されている場合に(ステップb11:Yes)、顔検出部21が顔検出処理を行い、ステップb9で取り込んだライブビュー画像から顔領域を検出する(ステップd13)。そして、顔領域が検出された場合には(ステップd14:Yes)、ステップb19に移り、補正制御部261は、実施の形態1と同様の要領で表示フレームレートを第2表示フレームレートとする。そして、補正制御部261が補正フラグをセットした後(ステップb21)、器官検出部22が顔器官検出処理を行い、ステップd13で顔検出部21が行った顔領域の検出結果をもとに、目領域等の顔パーツを検出する(ステップb25)。一方、補正モードが選択されていない場合には(ステップb11:No)、ステップb31に移る。また、補正モードが選択されている場合であっても、顔領域が検出されない場合には(ステップd14:No)、ステップb31に移って表示フレームレートを第1表示フレームレートとする。   FIG. 9 is a flowchart showing the shooting mode operation of the digital camera 1 in the second embodiment. In FIG. 9, the same processing steps as those in FIG. As shown in FIG. 9, in the shooting mode operation of the second embodiment, when the correction mode is selected as a result of determining the type of shooting mode in step b11 (step b11: Yes), the face detection unit 21 detects the face. A detection process is performed, and a face area is detected from the live view image captured in step b9 (step d13). If the face area is detected (step d14: Yes), the process proceeds to step b19, and the correction control unit 261 sets the display frame rate to the second display frame rate in the same manner as in the first embodiment. Then, after the correction control unit 261 sets the correction flag (step b21), the organ detection unit 22 performs face organ detection processing, and based on the detection result of the face area performed by the face detection unit 21 in step d13, Face parts such as the eye area are detected (step b25). On the other hand, when the correction mode is not selected (step b11: No), the process proceeds to step b31. Even when the correction mode is selected, when a face area is not detected (step d14: No), the process proceeds to step b31 to set the display frame rate as the first display frame rate.

以上説明したように、実施の形態2によれば、補正モードが選択されている場合であって、ライブビュー画像から顔領域が検出された場合のライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正モードが選択されていない撮影モードでのライブビュー画像の表示フレームレートよりも遅くすることができる。ここで、補正モードが選択されている場合であっても、ライブビュー画像から顔領域が検出されない場合には、ライブビュー画像の補正処理は行われず、ライブビュー画像は、補正モードが選択されていない場合の通常の表示フレームレート(第1フレームレート)で表示される。これによれば、実施の形態1と同様の効果を奏するとともに、ライブビュー画像中に顔が含まれる場合のみ表示フレームレートを遅くしてライブビュー画像を補正処理するので、補正モードが設定されていても、画面に顔が存在しない場合は滑らかなライブビュー画像が表示され、補正処理を適切に行える。   As described above, according to the second embodiment, the display frame rate of the live view image when the correction mode is selected and the face area is detected from the live view image is used for the correction process. Depending on the time required, it can be slower than the display frame rate of the live view image in the shooting mode in which the correction mode is not selected. Here, even when the correction mode is selected, if the face area is not detected from the live view image, the live view image is not corrected, and the correction mode is selected for the live view image. Displayed at the normal display frame rate (first frame rate) when there is no frame. According to this, the same effect as in the first embodiment is achieved, and the correction is set because the live view image is corrected by reducing the display frame rate only when the face is included in the live view image. However, if there is no face on the screen, a smooth live view image is displayed, and correction processing can be performed appropriately.

(実施の形態3)
次に、実施の形態3について説明する。なお、実施の形態3は、図2に示したシステム構成のデジタルカメラ1で実現でき、以下では、各構成要素に同一の符号を付する。
(Embodiment 3)
Next, Embodiment 3 will be described. The third embodiment can be realized by the digital camera 1 having the system configuration shown in FIG. 2, and the same reference numerals are given to the respective components in the following.

実施の形態3では、ユーザが補正モードに関する設定として拡大プレビュー表示モードを選択した場合にライブビュー画像を補正処理し、加工した目領域を含む部分画像を拡大処理したライブビュー画像の表示を行う。すなわち、CPU26の補正制御部261は、実施の形態1と同様にして画像補正部201がライブビュー画像の補正を行うか否かの設定を行う。このとき、補正制御部261は、部分画像を拡大表示するか否かの設定を行う。そして、拡大プレビュー表示モードが選択されている場合に部分画像の拡大表示を行うこととし、顔検出部21によってライブビュー画像から顔領域が検出された場合に、補正制御部261は、画像補正部201が補正処理を行い、拡大処理部203が拡大処理を行うよう制御する。また、補正制御部261は、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正を行わない場合よりも遅くする制御を行う。   In the third embodiment, when the user selects the enlarged preview display mode as the setting relating to the correction mode, the live view image is corrected, and the live view image obtained by enlarging the partial image including the processed eye area is displayed. That is, the correction control unit 261 of the CPU 26 sets whether or not the image correction unit 201 corrects the live view image as in the first embodiment. At this time, the correction control unit 261 sets whether or not to enlarge the partial image. Then, when the enlarged preview display mode is selected, the partial image is enlarged and displayed. When the face detection unit 21 detects a face area from the live view image, the correction control unit 261 displays the image correction unit. 201 performs correction processing, and controls the enlargement processing unit 203 to perform enlargement processing. In addition, the correction control unit 261 performs control to make the display frame rate of the live view image slower than the case where correction is not performed according to the time required for the correction process.

図10は、実施の形態3におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。なお、図10において、図5と同様の処理工程には同一の符号を付している。図10に示すように、実施の形態3の撮影モード動作では、ステップb11で撮影モードの種類を判定した結果補正モードが選択されている場合に(ステップb11:Yes)、顔検出部21が顔検出処理を行い、ステップb9で取り込んだライブビュー画像から顔領域を検出する(ステップe12)。そして、顔領域が検出された場合には(ステップe13:Yes)、補正制御部261が、補正フラグをセットする(ステップe14)。   FIG. 10 is a flowchart illustrating the shooting mode operation of the digital camera 1 according to the third embodiment. In FIG. 10, the same processing steps as those in FIG. As shown in FIG. 10, in the shooting mode operation of the third embodiment, when the correction mode is selected as a result of determining the type of shooting mode in step b11 (step b11: Yes), the face detection unit 21 detects the face. Detection processing is performed, and a face area is detected from the live view image captured in step b9 (step e12). When a face area is detected (step e13: Yes), the correction control unit 261 sets a correction flag (step e14).

続いて補正制御部261は、補正モードの設定を判定し、拡大プレビュー表示モードが選択されている場合には(ステップe15:Yes)、ステップb19に移り、補正制御部261は、実施の形態1と同様の要領で表示フレームレートを第2表示フレームレートとする。続いて、器官検出部22が顔器官検出処理を行い、ステップe12で顔検出部21が行った顔領域の検出結果をもとに、目領域等の顔パーツを検出する(ステップb25)。そして、画像補正部201が目領域を加工してライブビュー画像を補正処理した後(ステップb27)、拡大処理部203が、加工された目領域を含む部分画像を拡大処理する(ステップe29)。   Subsequently, the correction control unit 261 determines the setting of the correction mode, and when the enlarged preview display mode is selected (step e15: Yes), the process proceeds to step b19, and the correction control unit 261 performs the first embodiment. The display frame rate is set to the second display frame rate in the same manner as described above. Subsequently, the organ detection unit 22 performs a face organ detection process, and detects face parts such as an eye region based on the detection result of the face region performed by the face detection unit 21 in step e12 (step b25). Then, after the image correction unit 201 processes the eye region and corrects the live view image (step b27), the enlargement processing unit 203 enlarges the partial image including the processed eye region (step e29).

図11および図12は、拡大処理の原理を説明する図である。先ず、図11に示すように、ライブビュー画像中の加工された目領域を含む部分画像I1を抽出する。例えば、目領域の位置をもとに(x1,y1)、(x2,y2)の各座標値を求めることによって部分画像I1を抽出する。続いて、部分画像I1を、予め設定された所定の倍率で拡大処理する。そして、図12に示すように、拡大処理した部分画像I3を、例えば拡大処理前の部分画像I1(図11)と中心位置を一致させて配置し、ライブビュー画像として表示部28に表示する。なお、図11,図12では、加工された左右の目領域のうち、左目の目領域を含む部分画像を拡大処理する場合を例示したが、右目の目領域を含む部分画像を抽出して拡大処理することとしてもよいし、左右両方の目領域を含む部分画像を抽出して拡大処理することとしてもよい。 11 and 12 are diagrams for explaining the principle of enlargement processing. First, as shown in FIG. 11, a partial image I1 including a processed eye region in the live view image is extracted. For example, the partial image I1 is extracted by obtaining the coordinate values of (x 1 , y 1 ) and (x 2 , y 2 ) based on the position of the eye region. Subsequently, the partial image I1 is enlarged at a predetermined magnification set in advance. Then, as shown in FIG. 12, the enlarged partial image I3 is arranged, for example, so as to coincide with the center position of the partial image I1 (FIG. 11) before the enlargement process, and is displayed on the display unit 28 as a live view image. 11 and 12 exemplify the case where the partial image including the left eye region is enlarged among the processed left and right eye regions, the partial image including the right eye region is extracted and enlarged. Processing may be performed, or partial images including both the left and right eye regions may be extracted and enlarged.

一方、図10に示すように、補正モードが選択されていない場合には(ステップb11:No)、補正フラグをクリアし(ステップe31)、ステップe33に移る。また、補正モードが選択されている場合であっても、顔領域が検出されない場合も(ステップe13:No)、補正フラグをクリアし(ステップe31)、ステップe33に移る。拡大プレビュー表示モードが選択されていない場合は(ステップe15:No)、ステップe33に移る。そして、ステップe33では、CPU26が、表示フレームレートを第1表示フレームレートとする。   On the other hand, as shown in FIG. 10, when the correction mode is not selected (step b11: No), the correction flag is cleared (step e31), and the process proceeds to step e33. Even when the correction mode is selected, when the face area is not detected (step e13: No), the correction flag is cleared (step e31), and the process proceeds to step e33. If the enlarged preview display mode is not selected (step e15: No), the process proceeds to step e33. In step e33, the CPU 26 sets the display frame rate to the first display frame rate.

以上説明したように、実施の形態3によれば、補正モードが選択されており且つ拡大プレビュー表示モードが選択されている場合に、ライブビュー画像から顔領域が検出された場合のライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正モードが選択されていない撮影モードでのライブビュー画像の表示フレームレートよりも遅くすることができる。ここで、補正モードが選択されている場合であっても、拡大プレビュー表示モードが選択された場合、つまり補正の効果の確認を積極的に希望する指示があった場合にのみ、ライブビュー画像の補正処理を行うようにする。補正モードが選択されている場合であっても、拡大プレビュー表示モードが選択されていない場合には、ライブビュー画像は、補正モードが選択されていない場合の通常の表示フレームレート(第1フレームレート)で表示される。これによれば、実施の形態1と同様の効果を奏するとともに、加工された目領域を含む部分画像を拡大処理することができる。従って、ライブビュー画像中の加工箇所である目領域がライブビュー画像のサイズに対して小さい場合であっても、この加工効果を容易に確認することができるという効果を奏する。また、ユーザが拡大プレビューモードを選択した場合にライブビュー画像の補正処理を行い、加工箇所を拡大表示することができ、必要に応じて補正処理および拡大処理を行うことができる。例えば、補正は希望するがライブビュー時には通常のフレームレートで画像表示をさせることも、簡単な操作で可能になる。   As described above, according to the third embodiment, when the correction mode is selected and the enlarged preview display mode is selected, the live view image when the face area is detected from the live view image is displayed. The display frame rate can be made slower than the display frame rate of the live view image in the shooting mode in which the correction mode is not selected according to the time required for the correction process. Here, even when the correction mode is selected, only when the enlarged preview display mode is selected, that is, when there is an instruction that positively confirms the effect of the correction, the live view image is displayed. Correction processing is performed. Even when the correction mode is selected, if the enlarged preview display mode is not selected, the live view image has a normal display frame rate (first frame rate when the correction mode is not selected). ) Is displayed. According to this, the same effect as in the first embodiment can be obtained, and the partial image including the processed eye region can be enlarged. Therefore, even if the eye area, which is a processing location in the live view image, is smaller than the size of the live view image, this processing effect can be easily confirmed. Further, when the user selects the enlargement preview mode, the live view image correction process can be performed, the processed portion can be displayed in an enlarged manner, and the correction process and the enlargement process can be performed as necessary. For example, although correction is desired, it is possible to display an image at a normal frame rate during live view with a simple operation.

(実施の形態4)
次に、実施の形態4について説明する。なお、実施の形態4は、図2に示したシステム構成のデジタルカメラ1で実現でき、以下では、各構成要素に同一の符号を付する。
(Embodiment 4)
Next, a fourth embodiment will be described. The fourth embodiment can be realized by the digital camera 1 having the system configuration shown in FIG. 2, and the same reference numerals are given to the respective components in the following.

実施の形態4では、CPU26の補正制御部261は、実施の形態1と同様にして画像補正部201がライブビュー画像の補正を行うか否かの設定を行う。そして、補正モードが選択されておりライブビュー画像の補正を行う場合であって、顔検出部21によってライブビュー画像から顔領域が検出された場合に、補正制御部261は、画像補正部201が補正処理を行うよう制御するとともに、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正を行わない場合よりも遅くする制御を行う。   In the fourth embodiment, the correction control unit 261 of the CPU 26 sets whether or not the image correction unit 201 corrects the live view image as in the first embodiment. When the correction mode is selected and the live view image is corrected and the face area is detected from the live view image by the face detection unit 21, the correction control unit 261 uses the image correction unit 201. Control is performed so that the correction process is performed, and control is performed so that the display frame rate of the live view image is slower than when no correction is performed according to the time required for the correction process.

図13は、実施の形態4におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。なお、図13において、図5と同様の処理工程には同一の符号を付している。図13に示すように、実施の形態4の撮影モード動作では、ステップb11で撮影モードの種類を判定した結果補正モードが選択されている場合に(ステップb11:Yes)、実施の形態2と同様にして顔検出部21が顔検出処理を行う(ステップf13)。そして、顔領域が検出された場合に(ステップf14:Yes)、人物認識部24が人物認識処理を行う(ステップf15)。すなわち、人物認識部24は、顔検出部21によって検出された顔領域を顔辞書23と照合し、ライブビュー画像に含まれる特定人物の顔を認識する。ここで、認識する特定人物については、例えば事前に顔辞書23に登録されている顔画像の中から特定人物を指定するユーザ操作を受け付けて設定しておく。そして、認識の結果ライブビュー画像に含まれる特定人物の顔が認識された場合に(ステップf16:Yes)、ステップb19に移り、実施の形態1と同様の要領で表示フレームレートを第2表示フレームレートとし、ライブビュー画像の補正処理を行う。ここで行う補正処理は、特定人物の目領域に対してのみ行う。一方、補正モードが選択されていない場合には(ステップb11:No)、ステップb31に移る。また、補正モードが選択されている場合であっても、顔領域が検出されない場合や(ステップf14:No)、ライブビュー画像から特定人物の顔が認識されない場合には(ステップf16:No)、ステップb31に移って表示フレームレートを第1表示フレームレートとする。   FIG. 13 is a flowchart illustrating the shooting mode operation of the digital camera 1 according to the fourth embodiment. In FIG. 13, the same processing steps as those in FIG. As shown in FIG. 13, in the shooting mode operation of the fourth embodiment, when the correction mode is selected as a result of determining the type of shooting mode in step b11 (step b11: Yes), the same as in the second embodiment. Then, the face detection unit 21 performs face detection processing (step f13). When the face area is detected (step f14: Yes), the person recognition unit 24 performs a person recognition process (step f15). That is, the person recognizing unit 24 collates the face area detected by the face detecting unit 21 with the face dictionary 23 and recognizes the face of the specific person included in the live view image. Here, the specific person to be recognized is set by accepting, for example, a user operation for designating a specific person from face images registered in the face dictionary 23 in advance. If the face of the specific person included in the live view image is recognized as a result of the recognition (step f16: Yes), the process proceeds to step b19, and the display frame rate is set to the second display frame in the same manner as in the first embodiment. The rate is used to correct the live view image. The correction process performed here is performed only for the eye area of the specific person. On the other hand, when the correction mode is not selected (step b11: No), the process proceeds to step b31. Even when the correction mode is selected, when a face area is not detected (step f14: No), or when the face of a specific person is not recognized from the live view image (step f16: No), Moving to step b31, the display frame rate is set as the first display frame rate.

以上説明したように、実施の形態4によれば、補正モードが選択されている場合であって、ライブビュー画像から検出された顔領域が予めユーザ操作等によって指定される特定人物の顔と認識された場合に、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正モードが選択されていない撮影モードでのライブビュー画像の表示フレームレートよりも遅くすることができる。ここで、補正モードが選択されている場合であっても、ライブビュー画像から顔領域が検出されない場合、あるいは検出された場合であってもその顔領域が特定人物の顔と認識されない場合には、ライブビュー画像の補正処理は行われず、ライブビュー画像は、補正モードが選択されていない場合の通常の表示フレームレート(第1フレームレート)で表示される。これによれば、実施の形態1と同様の効果を奏するとともに、特定人物の目領域に対してのみ加工をして補正処理でき、この加工効果を事前に確認することができる。   As described above, according to the fourth embodiment, when the correction mode is selected, the face area detected from the live view image is recognized as the face of a specific person specified in advance by a user operation or the like. In this case, the display frame rate of the live view image can be made slower than the display frame rate of the live view image in the shooting mode in which the correction mode is not selected according to the time required for the correction process. Here, even if the correction mode is selected, if the face area is not detected from the live view image, or if the face area is not recognized as the face of the specific person even if it is detected The live view image is not corrected, and the live view image is displayed at the normal display frame rate (first frame rate) when the correction mode is not selected. According to this, while having the same effect as Embodiment 1, it is possible to perform correction processing by processing only the eye area of a specific person, and it is possible to confirm this processing effect in advance.

(実施の形態5)
次に、実施の形態5について説明する。なお、実施の形態5は、図2に示したシステム構成のデジタルカメラ1で実現でき、以下では、各構成要素に同一の符号を付する。
(Embodiment 5)
Next, a fifth embodiment will be described. The fifth embodiment can be realized by the digital camera 1 having the system configuration shown in FIG. 2, and the same reference numerals are given to the respective components in the following.

実施の形態5では、CPU26の補正制御部261は、実施の形態1と同様にして画像補正部201がライブビュー画像の補正を行うか否かの設定を行う。そして、補正モードが選択されておりライブビュー画像の補正を行う場合であって、顔検出部21によってライブビュー画像から顔領域が検出され且つ動き検出部25によって検出された被写体の動き量が所定の閾値K以下の場合に、補正制御部261は、画像補正部201が補正処理を行うよう制御するとともに、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正を行わない場合よりも遅くする制御を行う。ここで、閾値Kの値としては、被写体の動き量が十分小さく被写体の動きがないと推定できる値を予め設定しておく。   In the fifth embodiment, the correction control unit 261 of the CPU 26 sets whether or not the image correction unit 201 corrects the live view image as in the first embodiment. When the correction mode is selected and the live view image is corrected, the face area is detected from the live view image by the face detection unit 21 and the motion amount of the subject detected by the motion detection unit 25 is predetermined. The correction control unit 261 controls the image correction unit 201 to perform the correction process when the threshold value K is equal to or less than the threshold value K, and does not correct the display frame rate of the live view image according to the time required for the correction process. Control slower than that. Here, as the value of the threshold value K, a value that can be estimated that the amount of movement of the subject is sufficiently small and the subject does not move is set in advance.

図14は、人物Pを含むライブビュー画像の一例を示す図であり、図14中において、前(直前)に取り込まれたライブビュー画像中での人物Pの位置を二点鎖線で示し、さらに前(2つ前)に取り込まれたライブビュー画像中での人物Pの位置を一点鎖線で示している。すなわち、前々回取り込まれたライブビュー画像と前回取り込まれたライブビュー画像との間の人物Pの動きは、一点鎖線で示す位置から二点鎖線で示す位置へと大きく動いている。一方、前回取り込まれたライブビュー画像と今回取り込まれたライブビュー画像との間では、二点鎖線で示す位置から実線で示す位置へと人物Pが移動しており、その動き量は小さく、人物Pの動きはほぼ停止している。実施の形態5では、ライブビュー画像から顔領域が検出された場合にライブビュー画像間の被写体の動き量を検出し、その大小を所定の閾値Kと比較することによって被写体の動きの有無を推定する。   FIG. 14 is a diagram illustrating an example of a live view image including a person P. In FIG. 14, the position of the person P in the live view image captured before (immediately before) is indicated by a two-dot chain line. The position of the person P in the live view image captured before (two before) is indicated by a one-dot chain line. That is, the movement of the person P between the live view image captured two times before and the previously captured live view image moves greatly from the position indicated by the alternate long and short dash line to the position indicated by the alternate long and two short dashes line. On the other hand, between the live view image captured last time and the live view image captured this time, the person P moves from the position indicated by the two-dot chain line to the position indicated by the solid line, and the amount of movement is small. P's movement is almost stopped. In the fifth embodiment, when a face area is detected from a live view image, the amount of movement of the subject between the live view images is detected, and the presence or absence of the subject movement is estimated by comparing the amount of movement with a predetermined threshold K. To do.

なお、ここでは、動き検出部25の検出結果をもとに被写体の動き量を判定し、動き量が十分小さい場合に表示フレームレートを遅くしてライブビュー画像の補正処理を行うこととするが、被写体の動き量の判定方法はこれに限定されるものではない。すなわち、顔検出部21が検出した顔領域の位置をもとに、隣接するライブビュー画像間での顔領域の位置の変化量を算出することとしてもよい。図15は、顔領域の位置の変化量の算出原理を示す図であり、図14のように位置が変化した被写体について、図15中に実線、一点鎖線および二点鎖線でそれぞれ示した人物Pの顔領域の位置の変化を示している。図15に示すように、ライブビュー画像から検出された顔領域の例えば中心位置Cnー2,Cnー1,Cの変化量を算出するようにしてもよい。そして、変化量の大小を所定の閾値と比較することによって被写体の動きの有無を推定することとしてもよい。 Here, the amount of motion of the subject is determined based on the detection result of the motion detection unit 25, and when the amount of motion is sufficiently small, the display frame rate is slowed down and the live view image correction processing is performed. The method for determining the amount of movement of the subject is not limited to this. In other words, the amount of change in the position of the face area between adjacent live view images may be calculated based on the position of the face area detected by the face detection unit 21. FIG. 15 is a diagram illustrating the calculation principle of the amount of change in the position of the face region. For a subject whose position has changed as shown in FIG. 14, the person P indicated by a solid line, a one-dot chain line, and a two-dot chain line in FIG. The change of the position of the face area is shown. As shown in FIG. 15, for example, the amount of change in the center positions C n−2 , C n−1 , and C n of the face area detected from the live view image may be calculated. Then, the presence or absence of the movement of the subject may be estimated by comparing the amount of change with a predetermined threshold.

図16は、実施の形態5におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。なお、図16において、図5と同様の処理工程には同一の符号を付している。図16に示すように、実施の形態5の撮影モード動作では、ステップb11で撮影モードの種類を判定した結果補正モードが選択されている場合に(ステップb11:Yes)、実施の形態2と同様にして顔検出部21が顔検出処理を行う(ステップg13)。そして、顔領域が検出された場合に(ステップg14:Yes)、補正フラグをセットする(ステップg15)。   FIG. 16 is a flowchart showing the shooting mode operation of the digital camera 1 according to the fifth embodiment. In FIG. 16, the same processing steps as those in FIG. As shown in FIG. 16, in the shooting mode operation of the fifth embodiment, when the correction mode is selected as a result of determining the type of shooting mode in step b11 (step b11: Yes), the same as in the second embodiment. Then, the face detection unit 21 performs face detection processing (step g13). When a face area is detected (step g14: Yes), a correction flag is set (step g15).

次に、動き検出部25が動き検出処理を行う(ステップg16)。すなわち、動き検出部25は、隣接するライブビュー画像に映る同一の被写体位置の変化量を表す動きベクトルを被写体の動き量として検出する。そして、動き検出の結果動き量が予め設定される所定の閾値K以下であり、被写体の動きがないと推定される場合に(ステップg17:Yes)、ステップb19に移り、実施の形態1と同様の要領で表示フレームレートを第2表示フレームレートとし、ライブビュー画像の補正処理を行う。一方、補正モードが選択されていない場合には(ステップb11:No)、あるいは顔領域が検出されない場合に(ステップg14:No)、補正フラグをクリアし(ステップg31)、ステップg33に移る。また、補正モードが選択されている場合であっても、動き量が閾値Kより大きく被写体の動きがあると推定される場合には(ステップg17:No)、ステップg33に移り、表示フレームレートを第1表示フレームレートとする。   Next, the motion detection unit 25 performs a motion detection process (step g16). That is, the motion detection unit 25 detects a motion vector representing a change amount of the same subject position shown in an adjacent live view image as a subject motion amount. Then, when it is estimated that the amount of motion is equal to or less than a predetermined threshold value K set in advance as a result of motion detection and there is no subject motion (step g17: Yes), the process proceeds to step b19, and is the same as in the first embodiment. In this manner, the display frame rate is set to the second display frame rate, and the live view image is corrected. On the other hand, when the correction mode is not selected (step b11: No), or when the face area is not detected (step g14: No), the correction flag is cleared (step g31), and the process proceeds to step g33. Even when the correction mode is selected, if it is estimated that the amount of motion is greater than the threshold value K and the subject is moving (step g17: No), the process proceeds to step g33, and the display frame rate is changed. The first display frame rate is assumed.

以上説明したように、実施の形態5によれば、補正モードが選択されている場合であって、ライブビュー画像から顔領域が検出され且つ被写体の動きがないと推定される場合に、ライブビュー画像の表示フレームレートを、補正処理に要する時間に応じて補正モードが選択されていない撮影モードでのライブビュー画像の表示フレームレートよりも遅くすることができる。ここで、補正モードが選択されている場合であっても、ライブビュー画像から顔領域が検出されない場合、あるいは検出された場合であっても被写体の動き量が大きい場合には、ライブビュー画像の補正処理は行われず、ライブビュー画像は、補正モードが選択されていない場合の通常の表示フレームレート(第1フレームレート)で表示される。これによれば、実施の形態1と同様の効果を奏するとともに、被写体の動きが大きい場合には補正処理を行わないようにすることができるので、補正処理の精度を向上させ、より適切に補正処理が行える。   As described above, according to the fifth embodiment, when the correction mode is selected and the face area is detected from the live view image and it is estimated that there is no movement of the subject, the live view The display frame rate of the image can be made slower than the display frame rate of the live view image in the shooting mode in which the correction mode is not selected according to the time required for the correction process. Here, even when the correction mode is selected, when the face area is not detected from the live view image or when the movement amount of the subject is large even if it is detected, the live view image The correction process is not performed, and the live view image is displayed at the normal display frame rate (first frame rate) when the correction mode is not selected. According to this, the same effect as in the first embodiment can be obtained, and the correction process can be prevented from being performed when the subject's movement is large, so that the accuracy of the correction process is improved and the correction is performed more appropriately. Can be processed.

以上、この発明の好適な実施の形態について説明したが、この発明は、上記したものに限定されず、発明の趣旨を逸脱しない範囲で適宜変更が可能である。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the invention.

例えば、上記した実施の形態では、ライブビュー画像から検出した目領域にキャッチライト画像を合成する場合について説明したが、明るさ調整処理や色調整処理、透明処理等の画像処理を適宜施して目領域を加工し、ライブビュー画像を補正処理することとしてもよい。   For example, in the above-described embodiment, the case where the catchlight image is synthesized with the eye area detected from the live view image has been described. However, the eye processing is appropriately performed by performing image processing such as brightness adjustment processing, color adjustment processing, and transparency processing. The region may be processed and the live view image may be corrected.

また、特定の顔器官の領域の加工の一例として、目領域にキャッチライト画像を合成する場合について説明したが、これに限定されるものではない。   In addition, as an example of processing of a specific facial organ region, a case where a catchlight image is combined with an eye region has been described, but the present invention is not limited to this.

例えば、目領域に含まれる黒目のサイズを変更して加工し、ライブビュー画像を補正処理することとしてもよい。図17は、本変形例における補正処理の概要を説明する図である。この場合には、目領域A11を検出し、黒目の領域A13を特定する(a)。続いて、検出した黒目の領域A13からその直径D11を算出する(b)。そして、例えば予め設定される所定の倍率を乗じて補正処理後の黒目の直径D13を算出する(c)。そして、算出した補正処理後の黒目の直径D13をもとに黒目のサイズを拡大して加工した黒目の領域A15を得る(d)。   For example, the size of the black eye included in the eye area may be changed and processed to correct the live view image. FIG. 17 is a diagram for explaining the outline of the correction processing in this modification. In this case, the eye area A11 is detected and the black eye area A13 is specified (a). Subsequently, the diameter D11 is calculated from the detected black eye area A13 (b). Then, for example, the diameter D13 of the corrected black eye is calculated by multiplying by a predetermined magnification set in advance (c). Then, a black-eye area A15 processed by enlarging the black-eye size based on the calculated black-eye diameter D13 after correction processing is obtained (d).

あるいは、目領域に含まれる黒目の領域の色を変更して加工し、ライブビュー画像を補正処理することとしてもよい。図18は、本変形例における補正処理の概要を説明する図である。この場合には、目領域A21を検出し、黒目の領域A23を特定する(a)。そして、検出した黒目の領域A23の中心部分を除く周囲の領域A25の色を変更して黒目の領域A23を加工する(b)。   Alternatively, the color of the black eye area included in the eye area may be changed and processed to correct the live view image. FIG. 18 is a diagram for explaining the outline of the correction processing in this modification. In this case, the eye area A21 is detected and the black eye area A23 is specified (a). Then, the color of the surrounding area A25 excluding the central part of the detected black eye area A23 is changed to process the black eye area A23 (b).

また、上記した実施の形態では、特定の顔器官の領域として目領域を検出する場合について説明したが、これに限定されるものではなく、例えば特定の顔器官として口の領域(口領域)を検出することとしてもよい。   In the above-described embodiment, the case where the eye region is detected as the specific facial organ region has been described. However, the present invention is not limited to this. For example, the mouth region (mouth region) is used as the specific facial organ. It may be detected.

例えば、口領域に含まれる唇の領域(唇領域)を検出し、この唇領域に明るさ調整処理や色調整処理等の画像処理を適宜施して加工し、補正処理することとしてもよい。図19は、顔を含むライブビュー画像の一例を示す図である。また、図20は、補正処理したライブビュー画像の一例を示す図であり、図19のライブビュー画像に映る顔の唇の部分を加工した様子を示している。図20に示すライブビュー画像は、図19のライブビュー画像から唇領域を検出し、検出した唇領域内の輝度値が最大の位置を検出して補正処理することによって得られた画像である。すなわち、本変形例では、例えば、検出した輝度値が最大の位置を基準位置とした唇領域内の所定範囲(A31)の色を変更したり、輝度値を変更する等の補正処理を施す。あるいは、輝度値が所定値以上の領域について明るさを強調するような補正処理を施すこととしてもよい。また、輝度値が最大の位置に予め用意した合成用画像を合成することとしてもよい。これによれば、唇の領域を加工して艶感や立体感を発生させることができる。   For example, a lip region (lip region) included in the mouth region may be detected, and image processing such as brightness adjustment processing and color adjustment processing may be appropriately performed on the lip region for processing and correction processing. FIG. 19 is a diagram illustrating an example of a live view image including a face. FIG. 20 is a diagram showing an example of the corrected live view image, and shows a state in which the lip portion of the face shown in the live view image of FIG. 19 is processed. The live view image shown in FIG. 20 is an image obtained by detecting the lip region from the live view image of FIG. 19, detecting the position where the luminance value in the detected lip region is maximum, and performing correction processing. That is, in the present modification, for example, correction processing such as changing the color of the predetermined range (A31) in the lip region with the position where the detected luminance value is the maximum as the reference position, or changing the luminance value is performed. Or it is good also as performing the correction process which emphasizes brightness about the area | region where a luminance value is more than predetermined value. Alternatively, a synthesis image prepared in advance at a position having the maximum luminance value may be synthesized. According to this, it is possible to generate a glossy feeling and a three-dimensional feeling by processing the lip region.

あるいは、口領域に含まれる歯の領域を検出し、検出した歯の領域を白く加工してライブビュー画像を補正処理することとしてもよい。図21は、本変形例における補正処理の概要を説明する図である。この場合には先ず、口領域A41を検出し、検出した口領域A41から歯の領域A43を検出する(a)。そして、検出した歯の領域A43の色を白く加工したり、あるいは輝度を上げる処理をして光沢感が出るようにする(b)。   Alternatively, a tooth region included in the mouth region may be detected, the detected tooth region may be processed into white, and the live view image may be corrected. FIG. 21 is a diagram for explaining the outline of the correction processing in the present modification. In this case, first, the mouth area A41 is detected, and the tooth area A43 is detected from the detected mouth area A41 (a). Then, the detected tooth region A43 is processed to have a white color, or a process for increasing the luminance is performed so that the glossiness is obtained (b).

また、本発明は、上記した各実施の形態そのままに限定されるものではなく、各実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を除外して形成してもよい。あるいは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiments. For example, some components may be excluded from all the components shown in the embodiment. Or you may form combining the component shown in different embodiment suitably.

また、補正制御部261が行う処理は、プログラム(補正制御プログラム271)を実行することによってソフトウェアとして実現する場合に限定されるものではなく、一部または全部をハードウェアで構成してもよい。一方、画像処理部20や画像補正部201、拡大処理部203、器官検出部22、顔検出部21、人物認識部24、動き検出部25等をハードウェアで実現する構成について説明したが、所定のプログラムを実行することによってソフトウェアとして実現することとしてもよい。   In addition, the processing performed by the correction control unit 261 is not limited to being realized as software by executing a program (correction control program 271), and part or all of the processing may be configured by hardware. On the other hand, the configuration in which the image processing unit 20, the image correction unit 201, the enlargement processing unit 203, the organ detection unit 22, the face detection unit 21, the person recognition unit 24, the motion detection unit 25, and the like are realized by hardware has been described. It is good also as implement | achieving as software by running this program.

また、上記実施の形態では、撮像装置の具体例としてデジタルカメラを例にとって説明したが、これに限定されるものではなく、携帯電話のカメラ部やPC付属のカメラ部に適用してもよい。そして、静止画像データを加工して補正処理する場合について説明したが、補正処理の対象は静止画像データに限定されるものではなく、動画像データに対しても同様に適用できる。   In the above embodiment, a digital camera has been described as a specific example of the imaging apparatus. However, the present invention is not limited to this, and the present invention may be applied to a camera unit of a mobile phone or a camera unit attached to a PC. The case where the correction processing is performed by processing still image data has been described, but the target of the correction processing is not limited to still image data, and can be similarly applied to moving image data.

デジタルカメラ1の背面図である。2 is a rear view of the digital camera 1. FIG. このデジタルカメラ1のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of the digital camera 1. FIG. ライブビュー画像の表示・更新タイミングを説明する図である。It is a figure explaining the display and update timing of a live view image. デジタルカメラ1の基本動作を示すフローチャートである。3 is a flowchart showing a basic operation of the digital camera 1. 実施の形態1におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。3 is a flowchart illustrating a shooting mode operation of the digital camera 1 according to the first embodiment. 顔を含むライブビュー画像の一例を示す図である。It is a figure which shows an example of the live view image containing a face. 補正処理したライブビュー画像の一例を示す図である。It is a figure which shows an example of the live view image which carried out the correction process. 撮影処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of an imaging | photography process. 実施の形態2におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。6 is a flowchart illustrating a shooting mode operation of the digital camera 1 according to the second embodiment. 実施の形態3におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。10 is a flowchart illustrating a shooting mode operation of the digital camera 1 according to the third embodiment. 拡大処理の原理を説明する図である。It is a figure explaining the principle of an expansion process. 拡大処理の原理を説明する他の図である。It is another figure explaining the principle of an expansion process. 実施の形態4におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。10 is a flowchart illustrating a shooting mode operation of the digital camera 1 according to the fourth embodiment. 人物を含むライブビュー画像の一例を示す図である。It is a figure which shows an example of the live view image containing a person. 顔領域の位置の変化量の算出原理を示す図である。It is a figure which shows the calculation principle of the variation | change_quantity of the position of a face area. 実施の形態5におけるデジタルカメラ1の撮影モード動作を示すフローチャートである。10 is a flowchart illustrating a shooting mode operation of the digital camera 1 according to the fifth embodiment. 変形例における補正処理の概要を説明する図である。It is a figure explaining the outline | summary of the correction process in a modification. 他の変形例における補正処理の概要を説明する図である。It is a figure explaining the outline | summary of the correction process in another modification. 顔を含むライブビュー画像の一例を示す図である。It is a figure which shows an example of the live view image containing a face. 補正処理したライブビュー画像の一例を示す図である。It is a figure which shows an example of the live view image which carried out the correction process. 他の変形例における補正処理の概要を説明する図である。It is a figure explaining the outline | summary of the correction process in another modification.

符号の説明Explanation of symbols

1 デジタルカメラ
2 カメラ本体
3 レリーズボタン
5 メニューボタン
6 十字ボタン
7 OKボタン
11 撮像素子
12 レンズ系ユニット
13 レンズ駆動回路
14 撮像回路
15 振動センサ
16 防振制御部
17 SDRAM
18 AE部
19 AF部
20 画像処理部
201 画像補正部
203 拡大処理部
21 顔検出部
22 器官検出部
23 顔辞書
24 人物認識部
25 動き検出部
26 CPU
261 補正制御部
27 内蔵メモリ
271 補正制御プログラム
28 表示部
29 表示駆動回路
30 通信I/F
31 操作部
32 着脱メモリ
33 電源回路
34 電池
35 バス
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Camera body 3 Release button 5 Menu button 6 Cross button 7 OK button 11 Image sensor 12 Lens system unit 13 Lens drive circuit 14 Imaging circuit 15 Vibration sensor 16 Anti-vibration control part 17 SDRAM
18 AE unit 19 AF unit 20 image processing unit 201 image correction unit 203 enlargement processing unit 21 face detection unit 22 organ detection unit 23 face dictionary 24 person recognition unit 25 motion detection unit 26 CPU
261 Correction control unit 27 Built-in memory 271 Correction control program 28 Display unit 29 Display drive circuit 30 Communication I / F
31 Operation Unit 32 Detachable Memory 33 Power Supply Circuit 34 Battery 35 Bus

Claims (12)

被写体を撮影する撮像部と、
前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、
前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、
前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、
前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部と、
前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行う補正制御部と、
を備えることを特徴とする撮像装置。
An imaging unit for photographing a subject;
A display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate;
An organ detection unit for detecting a region of a specific facial organ included in the face from a live view image including a face of the live view image;
An image correction unit that corrects the live view image by processing a region of the facial organ detected by the organ detection unit;
A correction setting unit for setting whether the image correction unit corrects the live view image;
When the setting to perform the correction is made, the image correction unit controls to perform the correction process, and the display frame rate of the live view image in the setting to perform the correction is not corrected. A correction control unit that performs control to be slower than the display frame rate in the case of setting according to the time required for the correction process;
An imaging apparatus comprising:
前記画像補正部は、前記特定の顔器官の領域に所定の合成用画像を合成することによって、前記顔器官の領域の加工を行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image correction unit processes the facial organ region by combining a predetermined composition image with the specific facial organ region. 前記器官検出部は、前記特定の顔器官を目として前記ライブビュー画像の顔に含まれる目領域を検出し、
前記画像補正部は、前記器官検出部によって検出された目領域にキャッチライト画像を合成することを特徴とする請求項2に記載の撮像装置。
The organ detection unit detects an eye region included in a face of the live view image using the specific facial organ as an eye,
The imaging apparatus according to claim 2, wherein the image correction unit synthesizes a catchlight image with an eye region detected by the organ detection unit.
装置本体の振動を検出し、検出の結果をもとに前記撮像部の駆動を制御する手振れ補正部を備え、
前記補正制御部は、前記補正を行う設定の場合に、前記手振れ補正部を動作させる制御を行うことを特徴とする請求項1に記載の撮像装置。
A camera shake correction unit that detects the vibration of the apparatus body and controls the driving of the imaging unit based on the detection result,
The imaging apparatus according to claim 1, wherein the correction control unit performs control to operate the camera shake correction unit when the correction is set to be performed.
前記ライブビュー画像から顔領域を検出する顔検出部を備え、
前記補正制御部は、前記補正を行う設定の場合であって、前記顔検出部によって前記ライブビュー画像から顔領域が検出された場合に、前記表示フレームレートを遅くする制御を行うことを特徴とする請求項1に記載の撮像装置。
A face detection unit for detecting a face area from the live view image;
The correction control unit performs control to slow down the display frame rate when a face area is detected from the live view image by the face detection unit when the correction is set. The imaging device according to claim 1.
前記画像補正部は、前記ライブビュー画像中の前記加工された顔器官の領域を含む部分画像を拡大処理する拡大処理部を備え、
前記補正制御部は、前記補正を行う設定の場合に、前記拡大処理部が前記拡大処理を行うよう制御することを特徴とする請求項1に記載の撮像装置。
The image correction unit includes an enlargement processing unit that enlarges a partial image including the processed facial organ region in the live view image,
The imaging apparatus according to claim 1, wherein the correction control unit controls the enlargement processing unit to perform the enlargement processing when the correction is set to be performed.
複数の顔データを記憶した顔データ記憶部と、
前記ライブビュー画像から顔領域を検出する顔検出部と、
前記顔検出部によって検出された顔領域を前記顔データ記憶部に記憶された顔データと照合し、前記ライブビュー画像に含まれる特定人物の顔を認識する人物認識部と、
を備え、
前記補正制御部は、前記補正を行う設定の場合であって、前記人物認識部によって前記ライブビュー画像に含まれる特定人物の顔が認識された場合に、前記画像補正部が前記補正処理を行うよう制御するとともに、前記表示フレームレートを遅くする制御を行うことを特徴とする請求項1に記載の撮像装置。
A face data storage unit storing a plurality of face data;
A face detection unit for detecting a face region from the live view image;
A person recognition unit that compares the face area detected by the face detection unit with the face data stored in the face data storage unit, and recognizes the face of a specific person included in the live view image;
With
The correction control unit is configured to perform the correction, and when the person recognition unit recognizes a face of a specific person included in the live view image, the image correction unit performs the correction process. The image pickup apparatus according to claim 1, wherein control is performed so as to reduce the display frame rate.
前記ライブビュー画像中の前記被写体の動きを検出する動き検出部を備え、
前記補正制御部は、前記補正を行う設定の場合であって、前記動き検出部による検出の結果前記被写体の動きがない場合に、前記表示フレームレートを遅くする制御を行うことを特徴とする請求項1に記載の撮像装置。
A motion detection unit that detects the motion of the subject in the live view image;
The correction control unit performs control to slow down the display frame rate when there is no movement of the subject as a result of detection by the motion detection unit when the correction is set. Item 2. The imaging device according to Item 1.
被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部とを備えた撮像装置に設けられる補正制御装置であって、
前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行うことを特徴とする補正制御装置。
From an imaging unit that captures a subject, a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate, and a live view image including a face of the live view image An organ detection unit that detects a region of a specific facial organ included in the face; an image correction unit that processes the region of the facial organ detected by the organ detection unit to correct the live view image; and A correction control device provided in an imaging apparatus including a correction setting unit configured to set whether or not the image correction unit corrects the live view image;
When the setting to perform the correction is made, the image correction unit controls to perform the correction process, and the display frame rate of the live view image in the setting to perform the correction is not corrected. A correction control apparatus that performs control so as to be slower than the display frame rate in the case of setting according to the time required for the correction processing.
被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部と、前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する器官検出部と、前記器官検出部によって検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する画像補正部と、前記画像補正部が前記ライブビュー画像の補正を行うか否かを設定する補正設定部とを備えた撮像装置における補正制御方法であって、
前記補正を行う設定がされた場合には、前記画像補正部が前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くする制御を行うことを特徴とする補正制御方法。
From an imaging unit that captures a subject, a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate, and a live view image including a face of the live view image An organ detection unit that detects a region of a specific facial organ included in the face; an image correction unit that processes the region of the facial organ detected by the organ detection unit to correct the live view image; and A correction control method in an imaging apparatus comprising: a correction setting unit that sets whether or not the image correction unit corrects the live view image,
When the setting to perform the correction is made, the image correction unit controls to perform the correction process, and the display frame rate of the live view image in the setting to perform the correction is not corrected. A correction control method, characterized in that control is performed so as to be slower than the display frame rate in the case of setting according to the time required for the correction processing.
被写体を撮影する撮像部と、前記撮像部によって撮影されている被写体像をライブビュー画像として所定の表示フレームレートで更新表示する表示部とを備えた撮像装置のコンピュータに、
前記ライブビュー画像のうちの顔を含むライブビュー画像から、前記顔に含まれる特定の顔器官の領域を検出する検出ステップと、
前記器官検出ステップで検出された顔器官の領域を加工して前記ライブビュー画像を補正処理する補正ステップと、
前記ライブビュー画像の補正を行うか否かを設定する設定ステップと、
前記設定ステップで補正を行う設定がされた場合には、前記補正ステップで前記補正処理を行うよう制御するとともに、前記補正を行う設定の場合の前記ライブビュー画像の表示フレームレートを、前記補正を行わない設定の場合の表示フレームレートよりも前記補正処理に要する時間に応じて遅くするよう制御する補正制御ステップと、
を実行させることを特徴とするプログラム。
A computer of an imaging apparatus comprising: an imaging unit that captures a subject; and a display unit that updates and displays a subject image captured by the imaging unit as a live view image at a predetermined display frame rate.
A detection step of detecting a region of a specific facial organ included in the face from a live view image including a face of the live view image;
A correction step of correcting the live view image by processing a region of the facial organ detected in the organ detection step;
A setting step for setting whether to correct the live view image;
When correction is set in the setting step, the correction process is controlled to be performed in the correction step, and the display frame rate of the live view image in the setting for correction is set to the correction. A correction control step for controlling the display frame rate to be slower than the display frame rate in the case of setting not to be performed according to the time required for the correction processing;
A program characterized by having executed.
前記検出ステップは、前記特定の顔器官を目として前記ライブビュー画像の顔に含まれる目領域を検出し、
前記補正ステップは、前記検出ステップで検出された目領域にキャッチライト画像を合成することを特徴とする請求項11に記載のプログラム。
The detection step detects an eye region included in the face of the live view image using the specific facial organ as an eye,
The program according to claim 11, wherein the correcting step synthesizes a catchlight image with the eye area detected in the detecting step.
JP2008180456A 2008-07-10 2008-07-10 Image capturing apparatus, correction controller, correction control method, and program Pending JP2010021795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008180456A JP2010021795A (en) 2008-07-10 2008-07-10 Image capturing apparatus, correction controller, correction control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008180456A JP2010021795A (en) 2008-07-10 2008-07-10 Image capturing apparatus, correction controller, correction control method, and program

Publications (1)

Publication Number Publication Date
JP2010021795A true JP2010021795A (en) 2010-01-28

Family

ID=41706261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008180456A Pending JP2010021795A (en) 2008-07-10 2008-07-10 Image capturing apparatus, correction controller, correction control method, and program

Country Status (1)

Country Link
JP (1) JP2010021795A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081201A (en) * 2008-09-25 2010-04-08 Nikon Corp Imaging apparatus
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
JP2014182673A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014182672A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014187551A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Image acquisition device, image acquisition method and program
JP2019070870A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method and program
JP2020113061A (en) * 2019-01-11 2020-07-27 株式会社東芝 Information processing device, information processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081201A (en) * 2008-09-25 2010-04-08 Nikon Corp Imaging apparatus
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
US8842200B2 (en) 2010-11-08 2014-09-23 Olympus Imaging Corp. Imaging device and imaging method capable of bright spot processing
JP2014182673A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014182672A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2014187551A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Image acquisition device, image acquisition method and program
JP2019070870A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method and program
JP2020113061A (en) * 2019-01-11 2020-07-27 株式会社東芝 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US8285075B2 (en) Image processing apparatus, image processing method, and program
US8275212B2 (en) Image processing apparatus, image processing method, and program
US8558944B2 (en) Image capture apparatus and method for generating combined-image data
US8553138B2 (en) Image capture apparatus and method for generating combined-image data
JP2009232275A (en) Image pickup device
JP6124700B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2010021795A (en) Image capturing apparatus, correction controller, correction control method, and program
JP5400486B2 (en) Imaging apparatus and imaging method
JP2009224994A (en) Photographing apparatus, and image combining method of photographing apparatus
JP6242428B2 (en) Imaging apparatus and imaging method
JP5289354B2 (en) Imaging device
JP5106364B2 (en) Camera, control method and control program
JP4229692B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP2013179565A (en) Image pickup device
JP2011077850A (en) Image processing apparatus, image processing method, and program
JP2010028237A (en) Image pickup device and method for determining photographic parameter
JP5925275B2 (en) Imaging apparatus and imaging method
JP6013574B2 (en) Imaging apparatus and imaging method
JP6213619B2 (en) Camera and program
JP5816732B2 (en) Imaging apparatus and imaging method
JP6724527B2 (en) Imaging device, imaging control method and program
JP5816733B2 (en) Imaging apparatus and imaging method
JP2010141399A (en) Imaging device, image processing method in the imaging device and image processing program
JP5637645B2 (en) Imaging apparatus and imaging method
JP5734348B2 (en) Imaging device