JP2008022280A - Imaging apparatus, method, and program - Google Patents

Imaging apparatus, method, and program Download PDF

Info

Publication number
JP2008022280A
JP2008022280A JP2006192182A JP2006192182A JP2008022280A JP 2008022280 A JP2008022280 A JP 2008022280A JP 2006192182 A JP2006192182 A JP 2006192182A JP 2006192182 A JP2006192182 A JP 2006192182A JP 2008022280 A JP2008022280 A JP 2008022280A
Authority
JP
Japan
Prior art keywords
image data
unit
image
face
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006192182A
Other languages
Japanese (ja)
Inventor
Toru Ueda
徹 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006192182A priority Critical patent/JP2008022280A/en
Publication of JP2008022280A publication Critical patent/JP2008022280A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To simply display, in check display just after photographing (called post view or quick view), a difference between a face position intended by a user as an object of focus or exposure, etc. and a face position where focus or exposure or the like is actually performed. <P>SOLUTION: If a face can be detected from a check image, then a detection frame F indicative of its range can be indicated in the check image. It is easily checked whether an image can be photographed in the state where focus or exposure or the like is actually performed at a position intended by a user, by a difference between a face position upon half depression indicated by a bracket B and a face position upon full depression indicated by the frame F. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は顔検出に応じて自動合焦や自動露出等を行う機能を備えた撮影装置に関する。   The present invention relates to a photographing apparatus having a function of performing automatic focusing, automatic exposure, and the like according to face detection.

従来より顔検出機能を有する撮影装置が知られている。特許文献1では、テレビ電話端末のテンキー操作部で希望領域抽出開始点に相当するボタンを選択し、カーソルキー操作により移動、再度選択により位置決定を可能とさせることで抽出領域を構成し、領域枠を任意に作成する。   2. Description of the Related Art Conventionally, photographing apparatuses having a face detection function are known. In Patent Document 1, an extraction area is configured by selecting a button corresponding to a desired area extraction start point with a numeric keypad operation unit of a videophone terminal, moving by cursor key operation, and enabling position determination by selection again. Create an arbitrary frame.

特許文献2では、顔画像をカメラにより入力し、この入力された顔画像から顔を抽出して認識を行う人物認識装置において、認識対象者の登録時および認識時、認識対象者に対し操作案内などを表示する表示部に、認識対象者の身長により変化する最適な立ち位置を案内するガイド線を表示するとともに、実際に検出した認識対象者の顔の位置や大きさを示す円パターンをガイド線の内側に接して表示する。   In Patent Document 2, in a person recognition device that inputs a face image by a camera, extracts a face from the input face image, and performs recognition, operation guidance is given to the recognition target person at the time of registration and recognition of the recognition target person. Etc. on the display unit that displays the guide line that guides the optimal standing position that changes depending on the height of the person to be recognized, and guides a circular pattern that indicates the position and size of the face of the person to be actually detected Display inside the line.

特許文献3では、撮像部からの画像データに含まれる人物の眼を検出し、検出された眼の位置および大きさを示す情報を出力し、その情報に基づいて、焦点を合わせる画像データの位置および大きさを示すフォーカス枠を設定し、フォーカス枠毎の合焦点位置を検出し、検出した合焦点位置のうち、撮影に用いる合焦点位置を決定するAF制御部を有する。   In Patent Literature 3, the human eye included in the image data from the imaging unit is detected, information indicating the detected position and size of the eye is output, and the position of the image data to be focused based on the information is disclosed. And a focus frame indicating the size, an in-focus position for each focus frame is detected, and among the detected in-focus positions, an AF control unit that determines an in-focus position used for shooting is provided.

特許文献4では、撮像によって被写体像が得られ、その被写体像がカメラの表示画面に表示される。検出された顔の画像を囲むように顔枠が表示される。顔枠内の画像データを用いて自動合焦制御および自動露出制御が行われる。   In Patent Document 4, a subject image is obtained by imaging, and the subject image is displayed on a display screen of a camera. A face frame is displayed so as to surround the detected face image. Automatic focus control and automatic exposure control are performed using the image data in the face frame.

特許文献5では、撮像によって被写体像が得られ、その被写体像がカメラの表示画面に表示される。検出された顔の画像を囲むように顔枠が表示される。検出された顔画像の中心が表示画面の中心となるように被写体像がシフトされ、かつ拡大されて表示画面に表示される。顔の画像が大きく表示されるので、表示画面が小さい場合であっても顔を確認しやすくなる。
特開平11−46355号公報 特開2004−151978号公報 特開2005−128156号公報 特開2005−286940号公報 特開2005−318515号公報
In Patent Document 5, a subject image is obtained by imaging, and the subject image is displayed on a display screen of a camera. A face frame is displayed so as to surround the detected face image. The subject image is shifted so that the center of the detected face image is the center of the display screen, and is enlarged and displayed on the display screen. Since the face image is displayed large, it is easy to confirm the face even when the display screen is small.
JP 11-46355 A JP 2004-151978 A JP 2005-128156 A JP 2005-286940 A JP 2005-318515 A

ところで、上記特許文献1〜4のように、顔検出モードを設定して撮影した場合、ユーザが意図した位置に実際にピントや露出等が合わされて撮影されたのか否かは分かりにくく、ユーザが撮影画像を確認する際に不便である。   By the way, as described in Patent Documents 1 to 4, when shooting is performed with the face detection mode set, it is difficult to know whether or not the shooting was actually performed with the focus, exposure, etc. taken at the position intended by the user. This is inconvenient when confirming the captured image.

本発明はこのような問題点に鑑みてなされたもので、撮影直後の確認表示(いわゆるポストビューやクイックビューと呼ばれるもの)において、ユーザがピントや露出等の対象として意図した顔位置と、実際にピントや露出等がなされた顔位置との差異を分かりやすく表示することにより、かかる不便さを改善する。   The present invention has been made in view of such problems. In a confirmation display immediately after shooting (so-called post view or quick view), the face position intended by the user as a target for focus, exposure, etc. Such inconvenience is improved by displaying the difference from the face position on which the focus or exposure is made in an easy-to-understand manner.

本発明は、被写体から撮影レンズを介して入射した光を受光して継続的に撮影信号に変換して出力する撮影素子、撮影素子から出力された撮影信号を画像データに変換して出力する画像データ変換部、画像データの取得準備指示および記録指示を入力する指示部、指示部に取得準備指示が入力されたことに応じて画像データ変換部からの画像データから顔領域を検出する顔検出部、顔検出部の検出した顔領域に対して、合焦および露出の制御うち少なくともいずれか1つを含む撮影条件の調整処理を実行する調整部、指示部に記録指示が入力されたことによる前記撮影素子の露光に応じて出力された撮影信号である撮影確認用の画像データを記録する記録部、および少なくとも取得準備指示が入力されたことに応じて画像データから検出された顔領域の位置を示す映像または撮影確認用の画像データを表示することが可能な表示部を備える撮影装置に関する。   The present invention relates to a photographing element that receives light incident from a subject via a photographing lens, continuously converts it into a photographing signal, and outputs an image that is obtained by converting the photographing signal output from the photographing element into image data. A data conversion unit, an instruction unit for inputting an acquisition preparation instruction and a recording instruction for image data, and a face detection unit for detecting a face area from image data from the image data conversion unit in response to an acquisition preparation instruction being input to the instruction unit When the recording instruction is input to the adjustment unit and the instruction unit that execute the adjustment process of the photographing condition including at least one of focusing and exposure control for the face area detected by the face detection unit A recording unit that records image data for shooting confirmation, which is a shooting signal output in response to exposure of the shooting element, and is detected from the image data in response to at least an acquisition preparation instruction being input On imaging device including a display unit capable of displaying image data for confirmation image or photographing indicating the position of the face region.

この撮影装置において、顔検出部は、記録指示部が記録指示の入力を受け付けたことに応じ、撮影確認用の画像データに基づいて被写体の顔領域を検出し、顔検出部が記録指示の入力に応じ、撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、撮影確認用の画像データから検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御する表示制御部を備える。   In this photographing apparatus, the face detection unit detects the face area of the subject based on the image data for photographing confirmation in response to the recording instruction unit accepting the input of the recording instruction, and the face detection unit inputs the recording instruction. Accordingly, when at least one face area is detected from the image data for shooting confirmation, an image showing the position of the face area detected from the image data for shooting confirmation is displayed together with the image data for shooting confirmation. The display control part which controls a part is provided.

この発明によると、撮影準備指示入力時の顔の位置と、記録指示入力時の顔の位置との差異により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。   According to the present invention, an image can be taken in a state where the focus or exposure is actually adjusted to the position intended by the user due to the difference between the position of the face when inputting the shooting preparation instruction and the position of the face when inputting the recording instruction. It can be easily confirmed whether or not.

表示制御部は、顔検出部が撮影確認用の画像データから顔領域を検出しなかった場合、取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御するようにしてもよい。   If the face detection unit does not detect the face area from the image data for shooting confirmation, the display control unit checks the image indicating the position of the detected face area in response to the acquisition preparation instruction being input. The display unit may be controlled to display together with the image data for use.

こうすると、取得準備指示の入力の際に顔領域が検出されれば、その後顔の向きが変わるなどして記録指示入力時に顔が検出されなくなっても、取得準備指示の入力の際の顔領域の位置を表示することができる。このため、取得準備指示の入力の際の顔検出に応じた焦点調節等に失敗したとユーザが勘違いしてしまうことを防ぐことができ、ユーザの不安を解消することができる。   In this way, if a face area is detected when the acquisition preparation instruction is input, the face area when the acquisition preparation instruction is input even if the face is subsequently detected and the face is not detected when the recording instruction is input. The position of can be displayed. For this reason, it is possible to prevent the user from misunderstanding that the focus adjustment or the like according to the face detection at the time of inputting the acquisition preparation instruction has failed, and the user's anxiety can be resolved.

取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像である第1の映像か、記録指示の入力を受け付けたことに応じて検出された顔領域の位置を示す映像である第2の映像のいずれを表示するかを選択可能な選択部をさらに備え、表示制御部は、選択部が選択した第1の映像または第2の映像のいずれか一方を、撮影確認用の画像データとともに表示するよう表示部を制御するようにしてもよい。   A first image that is an image indicating the position of the face area detected in response to the acquisition preparation instruction being input, or an image that indicates the position of the face area detected in response to the input of the recording instruction And a selection unit capable of selecting which of the second images is to be displayed, and the display control unit is configured to confirm whether the first image selected by the selection unit or the second image is to be captured. The display unit may be controlled to display together with the image data.

こうすると、ユーザが第1の映像または第2の映像のいずれか一方を任意に選択して表示させることができる。なお、第1の映像または第2の映像のいずれも表示させないことも選択可能にしてもよい。   In this way, the user can arbitrarily select and display either the first video or the second video. It may be possible to select not to display either the first video or the second video.

本発明に係る撮影方法は、顔検出部により、記録指示部が記録指示の入力を受け付けたことに応じ、撮影確認用の画像データに基づいて被写体の顔領域を検出するステップと、顔検出部が記録指示の入力に応じ、撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、撮影確認用の画像データから検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御するステップと、を含む。   The photographing method according to the present invention includes a step of detecting a face area of a subject based on image data for photographing confirmation when a recording instruction unit receives an input of a recording instruction by a face detection unit, and a face detection unit When at least one face area is detected from the image data for shooting confirmation in response to the input of the recording instruction, an image indicating the position of the face area detected from the image data for shooting confirmation is displayed as image data for shooting confirmation. And controlling the display unit to display it together.

上記の撮影方法を、撮影装置に備えられたコンピュータに実行させるためのプログラムも本発明に含まれる。このプログラムは、フラッシュメモリやメモリカードなど各種の記録媒体に記憶して提供することもできるし、インターネットなどのネットワークを介して配信することも可能である。   A program for causing the computer provided in the photographing apparatus to execute the above photographing method is also included in the present invention. This program can be provided by being stored in various recording media such as a flash memory and a memory card, or can be distributed via a network such as the Internet.

この発明によると、撮影準備指示入力時の顔の位置と、記録指示入力時の顔の位置との差異により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。   According to the present invention, an image can be taken in a state where the focus or exposure is actually adjusted to the position intended by the user due to the difference between the position of the face when inputting the shooting preparation instruction and the position of the face when inputting the recording instruction. It can be easily confirmed whether or not.

以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
図1は、本発明の好ましい実施形態に係るデジタルカメラ(以下カメラと略す)100の正面図である。
<First Embodiment>
FIG. 1 is a front view of a digital camera (hereinafter abbreviated as a camera) 100 according to a preferred embodiment of the present invention.

カメラ100の正面に配備されたレンズ鏡胴60には、ズームレンズ101a及びフォーカスレンズ101bを含む撮影レンズ101が内蔵されており、ズームレンズ101aを光軸方向に移動させることで焦点距離調節が行なわれるとともに、フォーカスレンズ101bを光軸方向に移動させることによりピント調節が行なわれる。   A lens barrel 60 provided in front of the camera 100 includes a photographic lens 101 including a zoom lens 101a and a focus lens 101b, and the focal length is adjusted by moving the zoom lens 101a in the optical axis direction. In addition, focus adjustment is performed by moving the focus lens 101b in the optical axis direction.

レンズ鏡胴60は、カメラボディ180に沈胴した状態から、予め設定された最短焦点距離位置であるワイド端と最長焦点距離位置であるテレ端との間で進退することで、カメラボディ180から繰り出し、また収納される。この図では、レンズ鏡胴60がカメラボディ180に沈胴した状態が示されている。   The lens barrel 60 is advanced from the camera body 180 by moving forward and backward between the wide end, which is the shortest focal length position, and the tele end, which is the longest focal length position, from the state where the lens barrel 60 is retracted. Also stored. In this figure, a state in which the lens barrel 60 is retracted into the camera body 180 is shown.

またカメラ100には、非撮影時には撮影レンズ101の前面を覆って撮影レンズ101と外界とを遮ることで撮影レンズ101を保護する状態をつくり出すとともに、撮像時には撮像レンズを外界に露出するレンズカバー61が設けられている。   In addition, the camera 100 creates a state in which the photographing lens 101 is protected by covering the front surface of the photographing lens 101 and blocking the photographing lens 101 and the outside when not photographing, and a lens cover 61 that exposes the photographing lens to the outside when photographing. Is provided.

レンズカバー61は開閉自在な機構で構成されており、開放状態で撮影レンズ101の前面を覆い、閉鎖状態で撮影レンズ101の前面を外界に露出する。レンズカバー61は電源スイッチ121のオン/オフに連動して開放/閉鎖される。この図ではレンズカバー61は開放状態となっている。   The lens cover 61 is configured by a mechanism that can be freely opened and closed. The lens cover 61 covers the front surface of the photographing lens 101 in an open state, and exposes the front surface of the photographing lens 101 to the outside in a closed state. The lens cover 61 is opened / closed in conjunction with the power switch 121 being turned on / off. In this figure, the lens cover 61 is open.

カメラ100の上面には、中央部分にレリーズスイッチ104の配備されたモードダイヤル123と電源スイッチ121とが配備されており、正面には、ストロボ105a、AF補助光ランプ105b、セルフタイマランプ105c等が配備されている。   On the upper surface of the camera 100, a mode dial 123 and a power switch 121 provided with a release switch 104 at the center are provided, and a strobe 105a, an AF auxiliary light lamp 105b, a self-timer lamp 105c, and the like are provided on the front. Has been deployed.

図2はカメラ100の背面図である。カメラ100の背面には、ズームスイッチ127が配備されている。ズームスイッチ127のワイド(W)側を押すと、押し続けている間、レンズ鏡胴60がワイド端(望遠)側に繰り出し、テレ(T)側の他方を押すと、押し続けている間、レンズ鏡胴60がテレ端(広角)側に移動する。   FIG. 2 is a rear view of the camera 100. A zoom switch 127 is provided on the back of the camera 100. When the wide (W) side of the zoom switch 127 is pressed, the lens barrel 60 is extended to the wide end (telephoto) side while being pressed, and when the other side of the tele (T) side is pressed, the lens barrel 60 is being pressed. The lens barrel 60 moves to the tele end (wide angle) side.

カメラ100の背面には、画像表示LCD102、十字キー124、情報位置指定キー126等も設けられている。十字キー124は、上下左右がそれぞれ表示明るさ調節/セルフタイマ/マクロ撮影/ストロボ撮影を設定する操作系である。後述するが、十字キー124の下キーを押下することで、セルフタイマ回路83の計時完了後にメインCPU20がCCD132にシャッタ動作を行わせるセルフ撮影モードの設定を行える。   On the back of the camera 100, an image display LCD 102, a cross key 124, an information position designation key 126, and the like are also provided. The cross key 124 is an operation system for setting display brightness adjustment / self-timer / macro shooting / flash shooting on the top, bottom, left and right respectively. As will be described later, by pressing the lower key of the cross key 124, the main CPU 20 can set the self-photographing mode in which the CCD 132 performs the shutter operation after the time measurement of the self-timer circuit 83 is completed.

図3は第1実施形態に係るカメラ100のブロック図である。カメラ100にはユーザがこのカメラ100を使用するときに種々の操作を行なうための操作部120が設けられている。この操作部120には、カメラ100を作動させるための電源投入用の電源スイッチ121、オート撮影やマニュアル撮影等を選択するためのモードダイヤル123、各種のメニューの設定や選択あるいはズームを行なうための十字キー124、閃光発光用スイッチ125、および十字キー124で選択されたメニューの実行やキャンセル等を行なうための情報位置指定キー126が備えられている。   FIG. 3 is a block diagram of the camera 100 according to the first embodiment. The camera 100 is provided with an operation unit 120 for performing various operations when the user uses the camera 100. The operation unit 120 includes a power switch 121 for turning on the power for operating the camera 100, a mode dial 123 for selecting auto shooting, manual shooting, and the like, and setting and selection of various menus or zooming. A cross key 124, a flash emission switch 125, and an information position designation key 126 for executing or canceling the menu selected by the cross key 124 are provided.

また、カメラ100には、撮影画像や再生画像等を表示するための画像表示LCD102と、操作の手助けを行なうための操作LCD表示103が備えられている。   In addition, the camera 100 is provided with an image display LCD 102 for displaying captured images, reproduced images, and the like, and an operation LCD display 103 for assisting operations.

このカメラ100にはレリーズスイッチ104が配備されている。このレリーズスイッチ104によって撮影の開始指示がメインCPU20へと伝えられる。このカメラ100では所定のメニュー画面によって撮影と再生との切り替えが自在になっている。また、カメラ100には、コントラストAF時に被写体に投光スポットを照射するための発光ダイオード(LED)からなるAF補助光ランプ105b、閃光を発光するストロボ105aを有する閃光発光装置が配備されている。   The camera 100 is provided with a release switch 104. The release switch 104 transmits a shooting start instruction to the main CPU 20. In the camera 100, switching between photographing and reproduction can be freely performed on a predetermined menu screen. Further, the camera 100 is provided with a flash light emitting device having an AF auxiliary light lamp 105b composed of a light emitting diode (LED) for irradiating a subject with a light projection spot during contrast AF, and a strobe 105a that emits flash light.

また、カメラ100には、撮影レンズ101と、絞り131と、撮影レンズ101および絞り131を経由して結像された被写体像をアナログの画像信号に変換する撮像素子であるCCDセンサ132(以下CCD132と略記する)とが備えられている。CCD132は、CCD132に照射された被写体光により発生した電荷を可変の電荷蓄積時間(露光期間)の間蓄積することにより画像信号を生成するものである。CCD132からは、CG部136から出力される垂直同期信号VDに同期したタイミングでフレーム毎の画像信号が順次出力される。   In addition, the camera 100 includes a photographing lens 101, a diaphragm 131, and a CCD sensor 132 (hereinafter referred to as a CCD 132) that is an imaging device that converts a subject image formed through the photographing lens 101 and the diaphragm 131 into an analog image signal. For short). The CCD 132 generates an image signal by accumulating charges generated by subject light irradiated on the CCD 132 for a variable charge accumulation time (exposure period). The CCD 132 sequentially outputs image signals for each frame at a timing synchronized with the vertical synchronization signal VD output from the CG unit 136.

撮像素子にCCD132を用いた場合には、色偽信号やモアレ縞等の発生を防止するために、入射光内の不要な高周波成分を除去する光学的ローパスフィルタ132aが配設されている。また、入射光内の赤外線を吸収若しくは反射して、長波長域で感度が高いCCDセンサ132固有の感度特性を補正する赤外カットフィルタ132bが配設されている。光学的ローパスフィルタ132a及び赤外カットフィルタ132bの具体的な配設の態様は特に限定されない。   When the CCD 132 is used as the image sensor, an optical low-pass filter 132a that removes unnecessary high-frequency components in the incident light is disposed in order to prevent the generation of color false signals and moire fringes. In addition, an infrared cut filter 132b that absorbs or reflects infrared light in incident light and corrects a sensitivity characteristic unique to the CCD sensor 132 having high sensitivity in a long wavelength region is provided. The specific arrangement of the optical low-pass filter 132a and the infrared cut filter 132b is not particularly limited.

また、カメラ100には、CCDセンサ132からのアナログ画像信号が表わす被写体像のホワイトバランスを合わせるとともにその被写体像の階調特性における直線の傾き(γ)を調節し、さらにアナログ画像信号を増幅する増幅率可変の増幅器を含む白バランス・γ処理部133が備えられている。   The camera 100 also adjusts the white balance of the subject image represented by the analog image signal from the CCD sensor 132 and adjusts the slope (γ) of the straight line in the gradation characteristics of the subject image, and further amplifies the analog image signal. A white balance / γ processing unit 133 including an amplifier with a variable gain is provided.

さらに、カメラ100には、白バランス・γ処理部133からのアナログ信号をディジタルのR,G,B画像データにA/D変換するA/D変換部134と、そのA/D変換部134からのR,G,B画像データを格納するバッファメモリ135が備えられている。   Further, the camera 100 includes an A / D converter 134 that A / D converts an analog signal from the white balance / γ processing unit 133 into digital R, G, B image data, and an A / D converter 134. A buffer memory 135 for storing R, G, B image data is provided.

A/D変換部134によって得られたR,G,B画像データは、AF検出部150にも入力される。AF検出部150は、R,G,B画像データを1画面の所定の分割エリア毎にかつ同じ色成分毎に積算平均し、さらにフレームごとに、全エリアのR,G,B画像データの積算平均値Ir,Ig,Ibを算出する。この積算平均値Ir,Ig,IbをR,G,Bの可視光の受光量とする。   The R, G, B image data obtained by the A / D conversion unit 134 is also input to the AF detection unit 150. The AF detection unit 150 averages the R, G, B image data for each predetermined divided area of the screen and for each same color component, and further integrates the R, G, B image data of all areas for each frame. Average values Ir, Ig, and Ib are calculated. The integrated average values Ir, Ig, and Ib are used as the amounts of R, G, and B visible light received.

ただし、R,G,Bの可視光の受光量Ir,Ig,Ibは、R、G、Bの可視光にそれぞれ感度を有するCCD132以外の受光センサ(図示せず)によって検出することも可能である。   However, the R, G, and B visible light receiving amounts Ir, Ig, and Ib can be detected by a light receiving sensor (not shown) other than the CCD 132 that has sensitivity to the R, G, and B visible lights, respectively. is there.

また、カメラ100には、CG(クロックジェネレータ)部136と、測光・測距用CPU137と、充電・発光制御部138と、通信制御部139と、YC処理部140と、電源電池68とが備えられている。   Further, the camera 100 includes a CG (clock generator) unit 136, a photometry / ranging CPU 137, a charge / light emission control unit 138, a communication control unit 139, a YC processing unit 140, and a power supply battery 68. It has been.

CG部136は、CCDセンサ132を駆動するための垂直同期信号VD,高速掃き出しパルスPを含む駆動信号、白バランス・γ処理部133,A/D変換部134を制御する制御信号、および通信制御部139を制御する制御信号を出力する。また、このCG部136には、測光・測距用CPU137からの制御信号が入力される。   The CG unit 136 includes a vertical synchronization signal VD for driving the CCD sensor 132, a drive signal including a high-speed sweep pulse P, a control signal for controlling the white balance / γ processing unit 133, the A / D conversion unit 134, and communication control. A control signal for controlling the unit 139 is output. Further, a control signal from the photometry / ranging CPU 137 is input to the CG unit 136.

測光・測距用CPU137は、ズーム用モータ110、フォーカス用モータ111、絞り調節を行う絞り用モータ112を制御してズームレンズ101a、フォーカスレンズ101b、絞り131をそれぞれ駆動することにより被写体までの距離の算出(測距)を行ない、CG部136および充電・発光制御部138を制御する。ズーム用モータ110、フォーカス用モータ111、絞り用モータ112の駆動は、モータドライバ62によって制御され、モータドライバ62の制御コマンドは、測光・測距用CPU137あるいはメインCPU20から送られる。   The photometry / ranging CPU 137 controls the zoom motor 110, the focus motor 111, and the aperture motor 112 for adjusting the aperture to drive the zoom lens 101a, the focus lens 101b, and the aperture 131, respectively, thereby driving the distance to the subject. Is calculated (ranging), and the CG unit 136 and the charge / light emission control unit 138 are controlled. Driving of the zoom motor 110, the focus motor 111, and the aperture motor 112 is controlled by the motor driver 62, and a control command for the motor driver 62 is sent from the photometry / ranging CPU 137 or the main CPU 20.

なお、ズームレンズ101a、フォーカスレンズ101b、絞り131、AF補助光照射角の駆動源は、ズーム用モータ110、フォーカス用モータ111、絞り用モータ112のような各種モータに限定する必然性はなく、アクチュエータなどであってもよい。   The driving source of the zoom lens 101a, the focus lens 101b, the stop 131, and the AF auxiliary light irradiation angle is not necessarily limited to various motors such as the zoom motor 110, the focus motor 111, and the stop motor 112. It may be.

測光・測距用CPU137は、レリーズスイッチ104が半押し(S1オン)されると、CCD132によって周期的(1/30秒から1/60秒ごと)に得られる画像データ(スルー画像)に基づいて被写体の明るさの測光(EV値の算出)を行う。   The CPU 137 for photometry / ranging is based on image data (through image) obtained periodically (every 1/30 seconds to 1/60 seconds) by the CCD 132 when the release switch 104 is half-pressed (S1 is turned on). Measure the brightness of the subject (calculate EV value).

即ち、AE演算部151は、A/D変換部134から出力されたR、G、Bの画像信号を積算し、その積算値を測光・測距用CPU137に提供する。測光・測距用CPU137は、AE演算部151から入力する積算値に基づいて被写体の平均的な明るさ(被写体輝度)を検出し、撮影に適した露出値(EV値)を算出する。   That is, the AE calculation unit 151 integrates the R, G, and B image signals output from the A / D conversion unit 134 and provides the integrated values to the photometry / ranging CPU 137. The photometry / ranging CPU 137 detects the average brightness (subject brightness) of the subject based on the integrated value input from the AE calculation unit 151, and calculates an exposure value (EV value) suitable for photographing.

そして、測光・測距用CPU137は、得られたEV値に基づいて絞り131の絞り値(F値)及びCCD132の電子シャッタあるいはメカニカルシャッタのシャッタスピードを含む露出値を所定のプログラム線図にしたがって決定する(AE動作)。   Then, based on the obtained EV value, the photometry / ranging CPU 137 determines the exposure value including the aperture value (F value) of the aperture 131 and the shutter speed of the electronic shutter or mechanical shutter of the CCD 132 according to a predetermined program diagram. Determine (AE operation).

レリーズスイッチ104が全押し(S2オン)されると、測光・測距用CPU137は、その決定した絞り値に基づいて絞り131を駆動し、絞り131の開口径を制御するとともに、決定したシャッタスピードに基づき、CG136を介してCCD132での電荷蓄積時間を制御する。   When the release switch 104 is fully pressed (S2 is turned on), the photometry / ranging CPU 137 drives the aperture 131 based on the determined aperture value, controls the aperture diameter of the aperture 131, and determines the determined shutter speed. Based on the above, the charge accumulation time in the CCD 132 is controlled via the CG 136.

AE動作は、絞り優先AE,シャッタ速度優先AE,プログラムAEなどがあるが、いずれにおいても、被写体輝度を測定し、この被写体輝度の測光値に基づいて決められた露出値、すなわち絞り値とシャッタスピードとの組み合わせで撮影を行うことにより、適正な露光量で撮像されるように制御しており、面倒な露出決定の手間を省くことができる。   The AE operation includes an aperture priority AE, a shutter speed priority AE, a program AE, etc. In any case, the subject brightness is measured, and an exposure value determined based on the photometric value of the subject brightness, that is, an aperture value and a shutter. By taking a picture in combination with the speed, control is performed so that an image is taken with an appropriate exposure amount, and it is possible to save troublesome determination of exposure.

AF検出部150は、測光・測距CPU137により選定された検出範囲に対応する画像データをA/D変換部134から抽出する。焦点位置を検出する方法は、合焦位置で画像データの高周波成分が最大振幅になるという特徴を利用して行う。AF検出部150は、抽出された画像データの高周波成分を1フィールド期間積分することにより、振幅値を算出する。AF検出部150は、測光・測距CPU137がフォーカス用モータ111を駆動制御してフォーカスレンズ101bを可動範囲内、即ち無限遠側の端点(INF点)から至近側の端点(NEAR点)の間で移動させている間に順次振幅値の計算を実行し、最大振幅を検出した時に検出値を測光・測距CPU137に送信する。   The AF detection unit 150 extracts image data corresponding to the detection range selected by the photometry / ranging CPU 137 from the A / D conversion unit 134. The method of detecting the focal position is performed using the feature that the high frequency component of the image data has the maximum amplitude at the in-focus position. The AF detection unit 150 calculates an amplitude value by integrating the high-frequency component of the extracted image data for one field period. The AF detector 150 is configured such that the photometry / ranging CPU 137 drives and controls the focus motor 111 to move the focus lens 101b within the movable range, that is, between the end point (INF point) on the infinity side and the end point (NEAR point) on the near side. When the maximum amplitude is detected, the detection value is transmitted to the photometry / ranging CPU 137 when the maximum amplitude is detected.

測光・測距CPU137は、この検出値を取得して対応する合焦位置に、フォーカスレンズ101bを移動させるようにフォーカス用モータ111に指令を出す。フォーカス用モータ111は、測光・測距CPU137の指令に応じてフォーカスレンズ101bを合焦位置に移動させる(AF動作)。   The photometry / ranging CPU 137 obtains this detection value and issues a command to the focus motor 111 to move the focus lens 101b to the corresponding in-focus position. The focus motor 111 moves the focus lens 101b to the in-focus position in accordance with a command from the photometry / ranging CPU 137 (AF operation).

測光・測距用CPU137は、メインCPU20とのCPU間通信によってレリーズスイッチ104と接続されており、ユーザによりレリーズスイッチ104が半押しされた時に、この合焦位置の検出が行われる。また、測光・測距用CPU137には、ズーム用モータ111が接続されており、メインCPU20が、ズームスイッチ127によってユーザからのTELE方向又はWIDE方向へのズームの指令を取得した場合に、ズーム用モータ110を駆動させることにより、ズームレンズ101aをWIDE端とTELE端との間で移動させる。   The photometry / ranging CPU 137 is connected to the release switch 104 through inter-CPU communication with the main CPU 20, and the in-focus position is detected when the release switch 104 is half-pressed by the user. Further, a zoom motor 111 is connected to the photometry / ranging CPU 137, and when the main CPU 20 obtains a zoom command in the TELE direction or WIDE direction from the user by the zoom switch 127, the zoom motor 111 is used. By driving the motor 110, the zoom lens 101a is moved between the WIDE end and the TELE end.

充電・発光制御部138は,ストロボ105aを発光させるために電源電池68からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電したり、そのストロボ105aの発光を制御する。   The charging / light emission control unit 138 is supplied with electric power from the power supply battery 68 in order to cause the strobe 105a to emit light, and charges a flash light emitting capacitor (not shown) or controls light emission of the strobe 105a.

充電・発光制御部138は,電源電池68の充電開始、レリーズスイッチ104の半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号をメインCPU20や測光・測距CPU137から取り込んだことに応じ、セルフタイマランプ(タリーランプ)105cやAF補助光ランプ105bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。   The charging / light emission control unit 138 sends various signals such as charging start of the power supply battery 68, a half-press / full-press operation signal of the release switch 104, and signals indicating the light emission amount and the light emission timing to the main CPU 20 and the photometry / ranging CPU 137. Is supplied to the self-timer lamp (tally lamp) 105c and the AF auxiliary light lamp 105b, and control is performed so that a desired light emission amount can be obtained at a desired timing.

なお、セルフタイマランプ105cはLEDで構成してもよく、AF補助光ランプ105bを構成するLEDと共通にしてもよい。   Note that the self-timer lamp 105c may be constituted by an LED, or may be made common with the LED constituting the AF auxiliary light lamp 105b.

メインCPU20には、セルフタイマ回路83が接続されている。メインCPU20は、セルフ撮影モードが設定されている場合、レリーズスイッチ104の全押し信号に基づいて計時を行なう。この計時中に、メインCPU20は測光・測距CPU137を介し、残り時間に合わせて点滅速度をだんだんと早めながら、セルフタイマランプ105cを点滅させる。セルフタイマ回路83は、計時完了後に計時完了信号をメインCPU20に入力する。メインCPU20は、計時完了信号に基づいて、CCD132にシャッタ動作を実施させる。   A self-timer circuit 83 is connected to the main CPU 20. When the self-photographing mode is set, the main CPU 20 measures time based on the full-press signal of the release switch 104. During this timing, the main CPU 20 causes the self-timer lamp 105c to blink while gradually increasing the blinking speed in accordance with the remaining time via the photometry / ranging CPU 137. The self-timer circuit 83 inputs a timing completion signal to the main CPU 20 after timing is completed. The main CPU 20 causes the CCD 132 to perform a shutter operation based on the timing completion signal.

通信制御部139には、通信ポート107が備えられており、この通信制御部139は、カメラ100により撮影された被写体の画像信号をUSB端子が備えられたパーソナルコンピュータ等の外部装置に出力し、およびこのような外部装置からカメラ100に画像信号を入力することにより、その外部装置との間のデータ通信を担うものである。また、このカメラ100は、ロール状の写真フイルムに写真撮影を行なう通常のカメラが有するISO感度80,100,200,400,1600等に切り替える機能を模擬した機能を有し、ISO感度400以上に切り替えられた場合、白バランス・γ処理部133の増幅器の増幅率が所定の増幅率を越えた高増幅率に設定された高感度モードとなる。通信制御部139は、高感度モードでの撮影中は、外部装置との通信を停止する。   The communication control unit 139 includes a communication port 107. The communication control unit 139 outputs an image signal of a subject photographed by the camera 100 to an external device such as a personal computer equipped with a USB terminal. In addition, by inputting an image signal from such an external device to the camera 100, data communication with the external device is performed. The camera 100 also has a function of simulating the function of switching to ISO sensitivity 80, 100, 200, 400, 1600, etc. of a normal camera that takes a photograph on a roll-shaped photographic film, and has an ISO sensitivity of 400 or more. When switched, the high-sensitivity mode is set in which the amplification factor of the amplifier of the white balance / γ processing unit 133 is set to a high amplification factor exceeding a predetermined amplification factor. The communication control unit 139 stops communication with the external device during shooting in the high sensitivity mode.

また、カメラ100には、圧縮・伸長&ID抽出部143と、I/F部144が備えられている。圧縮・伸長&ID抽出部143は、バッファメモリ135に格納された画像データを、バスライン142を介して読み出して圧縮し、I/F部144を経由してメモリカード200に格納する。また、圧縮・伸長&ID抽出部143は、メモリカード200に格納された画像データの読み出しにあたり、メモリカード200固有の識別番号(ID)を抽出し、そのメモリカード200に格納された画像データを読み出して伸長し、バッファメモリ135に格納する。   The camera 100 also includes a compression / decompression & ID extraction unit 143 and an I / F unit 144. The compression / decompression & ID extraction unit 143 reads and compresses the image data stored in the buffer memory 135 via the bus line 142 and stores the image data in the memory card 200 via the I / F unit 144. In addition, the compression / decompression & ID extraction unit 143 extracts an identification number (ID) unique to the memory card 200 and reads the image data stored in the memory card 200 when reading the image data stored in the memory card 200. Are decompressed and stored in the buffer memory 135.

バッファメモリ135に格納されたY/C信号は、圧縮・伸長&ID抽出部143によって所定のフォーマットに従って圧縮された後、I/F144を介してメモリカード200のようなリムーバブルメディアないしハードディスク(HDD)75のような内蔵型大容量記憶媒体に所定の形式(例えばExif(Exchangeable Image File Format)ファイル)で記録される。ハードディスク(HDD)75へのデータ記録またはハードディスク(HDD)75からのデータの読込みは、メインCPU20の指令に応じてハードディスクコントローラ74によって制御される。   The Y / C signal stored in the buffer memory 135 is compressed in accordance with a predetermined format by the compression / decompression & ID extraction unit 143, and then the removable medium such as the memory card 200 or the hard disk (HDD) 75 via the I / F 144. Are recorded in a predetermined format (for example, an Exif (Exchangeable Image File Format) file). Data recording to the hard disk (HDD) 75 or reading of data from the hard disk (HDD) 75 is controlled by the hard disk controller 74 in accordance with a command from the main CPU 20.

また、カメラ100には、メインCPU20と、EEPROM146と、YC/RGB変換部147と、表示用のドライバ148とが備えられている。メインCPU20は、このカメラ100全体の制御を行なう。EEPROM146には、このカメラ100固有の固体データやプログラム等が格納されている。YC/RGB変換部147は、YC処理部140で生成されたカラー映像信号YCを3色のRGB信号に変換して表示用のドライバ148を経由して画像表示LCD102に出力する。   The camera 100 includes a main CPU 20, an EEPROM 146, a YC / RGB conversion unit 147, and a display driver 148. The main CPU 20 controls the entire camera 100. The EEPROM 146 stores solid data and programs unique to the camera 100. The YC / RGB conversion unit 147 converts the color video signal YC generated by the YC processing unit 140 into RGB signals of three colors, and outputs them to the image display LCD 102 via the display driver 148.

また、カメラ100は、AC電源から電力を得るためのACアダプタ48と電源電池68とが着脱可能な構成となっている。電源電池68は充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は図示しない電池収納室に装填することにより、カメラ100の各回路と電気的に接続される。   In addition, the camera 100 has a configuration in which an AC adapter 48 for obtaining power from an AC power supply and a power supply battery 68 are detachable. The power battery 68 is composed of a rechargeable secondary battery such as a nickel-cadmium battery, a nickel metal hydride battery, or a lithium ion battery. The power supply battery 68 may be a single-use primary battery such as a lithium battery or an alkaline battery. The power supply battery 68 is electrically connected to each circuit of the camera 100 by being loaded into a battery storage chamber (not shown).

ACアダプタ48がカメラ100に装填されAC電源からACアダプタ48を介してカメラ100に電力が供給される場合には、電源電池68が電池収納室に装填されている場合であっても、優先的に当該ACアダプタ48から出力された電力がカメラ100の各部に駆動用の電力として供給される。また、ACアダプタ48が装填されておらず、かつ電源電池68が電池収納室に装填されている場合には、当該電源電池68から出力された電力がカメラ100の各部に駆動用の電力として供給される。   When the AC adapter 48 is loaded in the camera 100 and power is supplied from the AC power source to the camera 100 via the AC adapter 48, the power supply battery 68 is preferential even if it is loaded in the battery storage chamber. The power output from the AC adapter 48 is supplied to each part of the camera 100 as driving power. If the AC adapter 48 is not loaded and the power battery 68 is loaded in the battery storage chamber, the power output from the power battery 68 is supplied to each part of the camera 100 as driving power. Is done.

なお、図示しないが、カメラ100には、電池収納室内に収納される電源電池68とは別にバックアップ電池が設けられている。内蔵バックアップ電池には例えば専用の二次電池が用いられ、電源電池68によって充電される。バックアップ電池は、電源電池68の交換や取り外し等、電源電池68が電池収納室に装填されていない場合、カメラ100の基本機能に給電する。   Although not shown, the camera 100 is provided with a backup battery separately from the power supply battery 68 housed in the battery housing chamber. For example, a dedicated secondary battery is used as the built-in backup battery and is charged by the power supply battery 68. The backup battery supplies power to the basic functions of the camera 100 when the power battery 68 is not loaded in the battery storage chamber, such as when the power battery 68 is replaced or removed.

即ち、電源電池68又はACアダプタ48からの電源供給が停止すると、バックアップ電池がスイッチング回路(図示せず)によってRTC15等に接続され、これらの回路に給電する。これにより、バックアップ電池29が寿命に達しない限り、RTC15等の基本機能には、電源供給が間断なく継続する。   That is, when the power supply from the power supply battery 68 or the AC adapter 48 is stopped, the backup battery is connected to the RTC 15 or the like by a switching circuit (not shown) and supplies power to these circuits. As a result, as long as the backup battery 29 does not reach the end of its life, power supply continues to the basic functions such as the RTC 15 without interruption.

RTC(Real Time Clock)15は計時専用のチップであり、電源電池68やACアダプタ48からの給電がオフされていてもバックアップ電池から電源供給を受けて継続的に動作する。   An RTC (Real Time Clock) 15 is a chip dedicated to timekeeping, and continuously operates by receiving power supply from the backup battery even when power supply from the power supply battery 68 or the AC adapter 48 is turned off.

画像表示LCD102には透過型又は半透過型の液晶パネル71を背面側から照明するバックライト70が配設されており、省電力モードの場合には、メインCPU20によりそのバックライト70の明るさ(輝度)がバックライトドライバ72を介して制御され、バックライト70の消費電力が低減されるようになっている。また、省電力モードは、操作部120の情報位置指定キー126を押して画像表示LCD102にメニュー画面を表示させ、そのメニュー画面で所定の操作を行うことによってオン/オフを設定することができるようになっている。   The image display LCD 102 is provided with a backlight 70 that illuminates the transmissive or transflective liquid crystal panel 71 from the back side. In the power saving mode, the main CPU 20 determines the brightness of the backlight 70 ( Brightness) is controlled through the backlight driver 72, and the power consumption of the backlight 70 is reduced. In the power saving mode, the information position designation key 126 of the operation unit 120 is pressed to display a menu screen on the image display LCD 102, and a predetermined operation can be performed on the menu screen so that on / off can be set. It has become.

図4は第1実施形態に係るメインCPU20の実行するプログラムをブロック図で概念的に示している。メインCPU20は、EEPROM146やハードディスク75等のコンピュータ読み取り可能な記憶媒体に記憶されたプログラムである顔検出部20a、撮影制御部20b、表示制御部20cをRAM145等に読み出して実行する。これらをまとめて単にプログラムと呼ぶこともある。   FIG. 4 conceptually shows a program executed by the main CPU 20 according to the first embodiment in a block diagram. The main CPU 20 reads the face detection unit 20a, the imaging control unit 20b, and the display control unit 20c, which are programs stored in a computer-readable storage medium such as the EEPROM 146 and the hard disk 75, to the RAM 145 and executes them. These are sometimes simply called a program.

顔検出部20aは、バッファメモリ135に逐次記憶されるスルー画像もしくはメモリカード200の画像から人物の顔部分を含む領域である顔領域を検出する。顔領域の検出方法としては、例えば本出願人による特開平9−101579号公報において開示された技術を適用することができる。   The face detection unit 20 a detects a face area, which is an area including a human face portion, from a through image sequentially stored in the buffer memory 135 or an image on the memory card 200. As a method for detecting a face region, for example, the technique disclosed in Japanese Patent Laid-Open No. 9-101579 by the present applicant can be applied.

この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として検出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を検出することもできる。   This technology determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides it into a skin color region and a non-skin color region, and detects edges in the image to detect each pixel in the image. The location is classified as an edge portion or a non-edge portion. Then, an area surrounded by pixels that are located in the skin color area and classified as a non-edge part and surrounded by pixels that are determined to be edge parts is extracted as a face candidate area, and the extracted face candidate area becomes a human face. It is determined whether the region is a corresponding region, and is detected as a face region based on the determination result. In addition to this, a face region can also be detected by a method described in Japanese Patent Application Laid-Open Nos. 2003-209683 and 2002-199221.

撮影制御部20bは、後述の撮影処理を実行する。   The imaging control unit 20b executes an imaging process described later.

表示制御部20cは、ドライバ148に内蔵されたOSD信号発生回路148aに対し、シャッタ速度や絞り値、撮影可能枚数、撮影日時、警告メッセージ、グラフィカルユーザインターフェイス(GUI)等の文字及び記号情報を表示するための信号を発生させるコマンドを送る。OSD信号発生回路148aから出力される信号は、必要に応じてYC/RGB変換部147からの画像信号に混合されて、液晶パネル71に供給される。これにより、スルー画像や再生画像に文字等が合成された合成画像が表示される。   The display control unit 20c displays character and symbol information such as a shutter speed, an aperture value, the number of images that can be shot, the date and time of shooting, a warning message, and a graphical user interface (GUI) on the OSD signal generation circuit 148a built in the driver 148. Send a command to generate a signal to do. The signal output from the OSD signal generation circuit 148 a is mixed with the image signal from the YC / RGB conversion unit 147 as necessary and supplied to the liquid crystal panel 71. As a result, a combined image in which characters and the like are combined with the through image and the reproduced image is displayed.

以下、図5のフローチャートを参照し、CPU20の実行する撮影処理の流れを説明する。この処理は、操作部120による「顔検出モード」のオンに連動して開始する。   Hereinafter, the flow of photographing processing executed by the CPU 20 will be described with reference to the flowchart of FIG. This process starts in conjunction with the “face detection mode” being turned on by the operation unit 120.

S1では、表示制御部20cは、LCD102へのスルー画の表示を開始する。   In S <b> 1, the display control unit 20 c starts displaying a through image on the LCD 102.

S2では、撮影制御部20bは、レリーズスイッチ104の半押し信号を検知し、検知したことに応じてS3に移行する。   In S2, the imaging control unit 20b detects a half-press signal of the release switch 104, and proceeds to S3 in response to the detection.

S3では、顔検出部20aは半押し信号の検知に応じ、スルー画から顔検出を行う。撮影制御部20bは、顔検出部20aが顔検出をすることができたか否かを判断し、顔検出部20aが顔検出をすることができた場合はS4、顔検出をすることができない場合はS5に移行する。なお、顔検出をすることができない原因としては、画角中に顔が存在しない、存在していても横を向いているなどが考えられる。   In S3, the face detection unit 20a performs face detection from the through image in response to detection of the half-press signal. The imaging control unit 20b determines whether or not the face detection unit 20a has been able to detect a face. If the face detection unit 20a has been able to detect a face, S4, if face detection cannot be performed Shifts to S5. Note that the reason why face detection cannot be performed is that the face does not exist in the angle of view, or even if it exists, it faces sideways.

S4では、顔検出部20aは、スルー画から検出された顔の範囲を、表示制御部20cに通知する。表示制御部20cは、顔検出部20aから通知された顔の範囲に基づき、検出された顔の範囲を示すブラケットB等の各種のグラフィック(以下、「第1の検出枠」で表すこともある)の映像信号をスルー画像に合成表示するようOSD信号発生回路148aを制御する。   In S4, the face detection unit 20a notifies the display control unit 20c of the face range detected from the through image. The display control unit 20c may be represented by various graphics (hereinafter, “first detection frame”) such as a bracket B indicating the detected face range based on the face range notified from the face detection unit 20a. The OSD signal generation circuit 148a is controlled so as to synthesize and display the video signal of) on the through image.

S5では、顔検出部20aは、顔検出を中止し、引き続きスルー画の表示が行われる。   In S5, the face detection unit 20a stops face detection and continues to display a through image.

S6では、撮影制御部20bは、レリーズスイッチ104の全押し信号を検知し、検知したことに応じてS7に移行する。全押し信号が検知されない場合はS3に戻る。なお上記動作S3〜6を繰り返すなどして、第1の検出枠の表示位置が半押し時おける実際の顔の範囲に追従するようにしてもよいが、詳細は省略する。   In S6, the imaging control unit 20b detects a full press signal of the release switch 104, and proceeds to S7 in response to the detection. If the full press signal is not detected, the process returns to S3. It should be noted that the display position of the first detection frame may follow the actual range of the face when half-pressed by repeating the operations S3 to S6, but details are omitted.

S7では、撮影制御部20bは、顔検出部20aが上記S3で検出した顔領域についてAF・AE・AWB(オートホワイトバランス)調整動作などを行い、この動作で得られた焦点位置および露出値をロックする。撮影制御部20bは、AF・AE動作の完了後、即座にCCD132にシャッタ動作を実施させ、確認用画像(いわゆるポストビューあるいはクイックビューに用いられる画像)を取得し、バッファメモリ135に記憶する。確認用画像は、所定の圧縮形式で圧縮した上、メモリカード200に記憶してもよい。   In S7, the imaging control unit 20b performs an AF / AE / AWB (auto white balance) adjustment operation on the face area detected by the face detection unit 20a in S3, and the focus position and exposure value obtained by this operation are calculated. Lock it. The photographing control unit 20b immediately causes the CCD 132 to perform a shutter operation after the AF / AE operation is completed, acquires a confirmation image (an image used for so-called post view or quick view), and stores it in the buffer memory 135. The confirmation image may be stored in the memory card 200 after being compressed in a predetermined compression format.

さらに、顔検出部20aは、レリーズスイッチ104の全押し信号検知時点で取得された確認用画像から顔検出を行う。   Further, the face detection unit 20a performs face detection from the confirmation image acquired when the release switch 104 is fully pressed.

なお、レリーズスイッチ104の全押し信号検知から確認用画像の取得終了までの間は、スルー画像の表示を停止(いわゆるブラックアウト)してもよいし、全押し信号検知の直前に取得されたスルー画を表示したまま(いわゆるフリーズ表示)を行ってもよい。   Note that during the period from detection of the full-press signal of the release switch 104 to the end of acquisition of the confirmation image, display of the through image may be stopped (so-called blackout), or through may be acquired immediately before detection of the full-press signal. The image may be displayed (so-called freeze display).

S8では、撮影制御部20bは、顔検出部20aが確認用画像から顔検出をすることができたか否かを判断し、顔検出がされた場合はS9、顔検出をすることができない場合はS10に移行する。   In S8, the photographing control unit 20b determines whether or not the face detection unit 20a can detect the face from the confirmation image. If the face is detected, S9. If the face cannot be detected, The process proceeds to S10.

S9では、顔検出部20aは、確認用画像から検出された顔の範囲を、表示制御部20cに通知する。   In S9, the face detection unit 20a notifies the display control unit 20c of the face range detected from the confirmation image.

表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。かつ、表示制御部20cは、顔検出部20aから通知された確認用画像における顔の範囲に基づき、検出された顔を囲む枠Fその他のグラフィック(以下「第2の検出枠」で表す)の映像信号をスルー画像に合成表示するようOSD信号発生回路148aを制御する。   The display control unit 20c displays the confirmation image acquired in the buffer memory 135 or the like. In addition, the display control unit 20c, based on the face range in the confirmation image notified from the face detection unit 20a, includes a frame F and other graphics (hereinafter referred to as “second detection frame”) surrounding the detected face. The OSD signal generation circuit 148a is controlled so as to synthesize and display the video signal on the through image.

S10では、表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。第2の検出枠の表示は特に行わない。   In S10, the display control unit 20c displays the confirmation image acquired in the buffer memory 135 or the like. The display of the second detection frame is not particularly performed.

S100では、取得された確認用画像を記録用画像として、メモリカード200(もしくはHDD75)に格納される。格納が完了すると、S1に戻り、再びスルー画の表示を開始する。あるいは、画像取得動作を終了し、確認用画像の一部の拡大処理など、各種の画像処理を行ってもよい。   In S100, the acquired confirmation image is stored in the memory card 200 (or HDD 75) as a recording image. When the storage is completed, the process returns to S1, and the display of the through image is started again. Alternatively, the image acquisition operation may be terminated, and various image processing such as enlargement processing of a part of the confirmation image may be performed.

以上のように、本処理では、レリーズスイッチ104の半押し時に顔検出を行い、その結果得られた顔の範囲を示すブラケットBを表示するだけでなく、レリーズスイッチ104の全押し後に、確認用画像について再度顔検出を行い、その結果得られた顔の範囲を示す枠Fを表示する。   As described above, in this processing, the face detection is performed when the release switch 104 is half-pressed, and not only the bracket B indicating the resulting face range is displayed, but also the confirmation switch after the release switch 104 is fully pressed. Face detection is performed again on the image, and a frame F indicating the face range obtained as a result is displayed.

図6は上記処理によるスルー画表示および確認用画像の表示の様子を示す。具体的には、図6(a)はレリーズスイッチ104の半押し時におけるスルー画像およびブラケットBであり、図6(b)は半押し以後に画角はほぼ変化させないまま、レリーズスイッチ104が全押しされた時点のスルー画像であり、図6(c)は半押し状態で画角はほぼ動かさないまま、レリーズスイッチ104が全押しされたことにより取得された確認用画像および枠Fであり、図6(d)は半押し以後に画角が変化し、その後にレリーズスイッチ104が全押しされた時点でのスルー画であり、図6(e)は半押し以後に画角が変化し、その後にレリーズスイッチ104が全押しされた場合に得られた確認用画像および枠Fである。   FIG. 6 shows a through image display and a confirmation image displayed by the above processing. Specifically, FIG. 6A shows a through image and bracket B when the release switch 104 is half-pressed, and FIG. 6B shows that the release switch 104 is not fully changed after the half-press and the angle of view is not substantially changed. FIG. 6C shows a confirmation image and a frame F acquired when the release switch 104 is fully pressed while the angle of view is not substantially moved in the half-pressed state. 6D is a through image when the angle of view changes after half-pressing and then the release switch 104 is fully pressed. FIG. 6E shows the angle of view changing after half-pressing. The confirmation image and the frame F obtained when the release switch 104 is fully pressed after that.

図6(e)に示すように、確認用画像から顔が検出できれば、その範囲を示す検出枠Fを、確認用画像中に示すことができ、ブラケットBによって示される半押し時の顔の位置と、枠Fによって示される全押し時の顔の位置との差異、すなわちブラケットBから枠Fまでの隔たりの大小により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。   As shown in FIG. 6E, if a face can be detected from the confirmation image, a detection frame F indicating the range can be shown in the confirmation image, and the position of the face when half-pressed indicated by the bracket B And the position of the face when fully pressed indicated by the frame F, that is, the distance from the bracket B to the frame F, the image is actually focused and exposed at the position intended by the user. It can be easily confirmed whether or not the image has been taken.

また、本実施形態の処理では、レリーズスイッチ104の半押し後に、画角が変化してもしなくても、それとは無関係に、確認用画像における実際の顔の範囲を示すことができる。   In the processing of the present embodiment, the actual face range in the confirmation image can be shown regardless of whether or not the angle of view changes after the release switch 104 is pressed halfway.

<第2実施形態>
図7は本発明の好ましい第2の実施形態に係る撮影処理の流れを示すフローチャートである。この処理では、レリーズスイッチ104の全押し検知時に顔検出を試みても、顔が検出されなかった場合を考慮した処理を行う。
<Second Embodiment>
FIG. 7 is a flowchart showing a flow of photographing processing according to the preferred second embodiment of the present invention. In this process, a process is performed in consideration of the case where a face is not detected even if face detection is attempted when the release switch 104 is fully pressed.

S11〜S17は、それぞれ第1実施形態におけるS1〜S7と同様である。   S11 to S17 are the same as S1 to S7 in the first embodiment, respectively.

S18では、S13で検出された顔、すなわちレリーズスイッチ104の半押し検知時かそれ以後に検出することができた顔の範囲を示す枠Fを表示する。   In S18, a frame F indicating the range of the face detected in S13, that is, the range of the face that could be detected when the release switch 104 is half-pressed or thereafter is displayed.

図8は上記処理によるスルー画表示および確認用画像の表示の様子を示す。具体的には、図8(a)はレリーズスイッチ104の半押し時におけるスルー画およびブラケットBであり、図8(b)は被写体の顔が正面を向いた状態でレリーズスイッチ104が全押しされた時点のスルー画であり、図8(c)は被写体の顔が正面を向いた状態で取得された確認用画像および枠Fであり、図8(d)は被写体の顔が横を向いた状態でレリーズスイッチ104が全押しされた場合のスルー画およびブラケットBであり、図8(e)は被写体の顔が横を向いた状態でレリーズスイッチ104が全押しされた場合に得られた確認用および枠Fである。   FIG. 8 shows a through image display and a confirmation image displayed by the above processing. Specifically, FIG. 8A shows a through image and bracket B when the release switch 104 is half-pressed, and FIG. 8B shows the release switch 104 fully pressed with the subject's face facing front. FIG. 8C shows a confirmation image and a frame F acquired with the subject's face facing front, and FIG. 8D shows the subject's face facing sideways. FIG. 8 (e) shows the confirmation obtained when the release switch 104 is fully pressed with the face of the subject facing sideways when the release switch 104 is fully pressed in the state. And frame F.

図8(e)に示すように、本処理では、被写体が横を向いて顔が検出できなくなった場合、レリーズスイッチ104の半押し検知時以後に検出された顔の範囲を示す検出枠Fを表示する。   As shown in FIG. 8E, in this process, when the subject is facing sideways and the face cannot be detected, a detection frame F indicating the face range detected after the half-pressing detection of the release switch 104 is displayed. indicate.

こうすると、全押し検知時に顔検出ができなかった場合でも、検出枠が表示されるから、ユーザが顔検出に応じたAF/AEに失敗したと勘違いしてしまうことを防ぐことができ、ユーザの不安を解消することができる。   In this way, even when face detection cannot be performed at the time of full press detection, the detection frame is displayed, so that it is possible to prevent the user from misunderstanding that AF / AE according to face detection has failed. The anxiety can be resolved.

<第3実施形態>
レリーズスイッチ104の半押し検知時における顔検出または全押し検知時における顔検出のうち、ずれの時点において検出された顔の範囲を、検出枠として表示するかを、ユーザが任意に選択できるようにしてもよい。
<Third Embodiment>
Allows the user to arbitrarily select whether to display the range of the face detected at the time of deviation, as the detection frame, of the face detection at the time of half-press detection of the release switch 104 or the face detection at the time of full-press detection. May be.

例えば図9(a)に示すようなメニュー画面を、操作部120に対する「メニュー画面表示」の指示入力に応じて表示する。このメニュー画面で「ポストビュー検出枠設定」項目が選択されると、図9(b)に示すような「ポストビュー検出枠設定画面」に遷移する。   For example, a menu screen as shown in FIG. 9A is displayed in response to a “menu screen display” instruction input to the operation unit 120. When the “post view detection frame setting” item is selected on this menu screen, the screen changes to a “post view detection frame setting screen” as shown in FIG.

図9(b)に示す「ポストビュー検出枠設定画面」では、「レリーズ半押し時情報」項目Z1、「レリーズ全押し時情報」項目Z2、および「OFF」項目Z3が表示されており、ユーザは操作部120を操作することにより、項目Z1〜Z3のうち、いずれか1つの項目を任意に選択することができる。   In the “post-view detection frame setting screen” shown in FIG. 9B, “release half-press information” item Z1, “release full-press information” item Z2, and “OFF” item Z3 are displayed. By operating the operation unit 120, any one of the items Z1 to Z3 can be arbitrarily selected.

なお、「顔検出モード」が選択されていなければ、「ポストビュー検出枠設定」項目は必要のない機能であるから、「顔検出モード」がオンにされていない場合、「メニュー画面」から「ポストビュー検出枠設定」項目を消去するか文字の明るさを暗くして選択無効の状態にしてもよい。   If “Face Detection Mode” is not selected, the “Post View Detection Frame Setting” item is an unnecessary function. If “Face Detection Mode” is not turned on, “ The “post-view detection frame setting” item may be deleted or the character brightness may be reduced to make the selection invalid.

図10は本発明の好ましい第3の実施形態に係る撮影処理の流れを示すフローチャートである。この処理では、これらの項目Z1〜Z3のいずれが選択されるかに応じて、検出枠の示す顔の範囲が、レリーズスイッチ104の半押し時のものか、あるいは全押し時のものかが変わる。   FIG. 10 is a flowchart showing the flow of a photographing process according to the preferred third embodiment of the present invention. In this process, depending on which of these items Z1 to Z3 is selected, the face range indicated by the detection frame changes when the release switch 104 is half-pressed or when it is fully pressed. .

S21〜S27は、それぞれ第1実施形態におけるS1〜S7と同様である。   S21 to S27 are the same as S1 to S7 in the first embodiment, respectively.

S28では、「ポストビュー検出枠設定画面」において、「レリーズ半押し時情報」項目Z1が選択されているか否かを判断し、項目Z1が選択されている場合はS29、項目Z1が選択されていない場合はS30に移行する。   In S28, it is determined whether or not the “release half-press information” item Z1 is selected on the “post-view detection frame setting screen”. If the item Z1 is selected, S29 and the item Z1 are selected. If not, the process proceeds to S30.

S29では、第2実施形態のS18と同様、レリーズスイッチ104の半押し検知時あるいはそれ以後に検出することができた顔の範囲を示す検出枠を表示する。   In S29, as in S18 of the second embodiment, a detection frame indicating the range of the face that can be detected when the release switch 104 is half-pressed or after that is displayed.

S30では、「レリーズ全押し時情報」項目Z2が選択されているか否かを判断し、項目Z2が選択されている場合はS31、項目Z1が選択されていない場合(すなわち「OFF」項目Z3が選択されている場合)はS32に移行する。   In S30, it is determined whether or not the “release full press information” item Z2 is selected. If the item Z2 is selected, S31 is selected, and if the item Z1 is not selected (that is, the “OFF” item Z3 is selected). If selected), the process proceeds to S32.

S31では、第1実施形態のS9と同様レリーズスイッチ104の全押し検知時あるいはそれ以後に検出することができた顔の範囲を示す検出枠を表示する。   In S31, as in S9 of the first embodiment, a detection frame indicating the range of the face that can be detected when the release switch 104 is fully pressed or after that is displayed.

S32では、第1実施形態のS10と同様、表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。検出枠の表示は特に行わない。   In S32, as in S10 of the first embodiment, the display control unit 20c displays the confirmation image acquired in the buffer memory 135 or the like. The detection frame is not particularly displayed.

すなわちユーザは、「ポストビュー検出枠設定画面」から、半押し検知時における顔検出または全押し検知時における顔検出のうち、いずれの時点において検出された顔の範囲を示す検出枠を表示するかを、ユーザが任意に選択できる。例えば、半押し検知時における顔検出の位置が知りたければ「レリーズ半押し時情報」項目Z1を選択すればよい。あるいは全押し検知時における顔検出の位置が知りたければ「レリーズ全押し時情報」項目Z2を選択すればよい。あるいは検出枠の表示そのものが煩わしいと感じる場合は、「OFF」項目Z3を選択すればよい。   In other words, from the “postview detection frame setting screen”, the user should display the detection frame indicating the detected face range at any time of face detection at the time of half-press detection or face detection at the time of full-press detection. Can be arbitrarily selected by the user. For example, if it is desired to know the position of face detection when half-press is detected, the “release half-press information” item Z1 may be selected. Alternatively, if it is desired to know the position of face detection at the time of full press detection, the “release full press information” item Z2 may be selected. Alternatively, if the display of the detection frame itself seems to be troublesome, the “OFF” item Z3 may be selected.

デジタルカメラの正面図Front view of digital camera デジタルカメラの背面図Rear view of digital camera デジタルカメラのブロック構成図Block diagram of digital camera 第1実施形態に係るメインCPUの実行するプログラムを概念的に示した図The figure which showed notionally the program which the main CPU which concerns on 1st Embodiment performs 第1実施形態に係る撮影処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography process which concerns on 1st Embodiment. 第1実施形態に係る撮影処理によって表示される画像、ブラケットおよび枠の一例を示す図The figure which shows an example of the image displayed by the imaging | photography process which concerns on 1st Embodiment, a bracket, and a frame 第2実施形態に係る撮影処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography process which concerns on 2nd Embodiment. 第2実施形態に係る撮影処理によって表示される画像、ブラケットおよび枠の一例を示す図The figure which shows an example of the image displayed by the imaging | photography process which concerns on 2nd Embodiment, a bracket, and a frame メニュー画面およびポストビュー検出枠設定画面の一例を示す図The figure which shows an example of a menu screen and a postview detection frame setting screen 第3実施形態に係る撮影処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography process which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

20:メインCPU、20a:顔検出部、20b:撮影制御部、20c:表示制御部、83:セルフタイマ回路、101:撮影レンズ、105c:セルフタイマランプ、132:CCD、134:A/D変換部、150:AF検出部、151:AE演算部 20: main CPU, 20a: face detection unit, 20b: photographing control unit, 20c: display control unit, 83: self-timer circuit, 101: photographing lens, 105c: self-timer lamp, 132: CCD, 134: A / D conversion Section, 150: AF detection section, 151: AE calculation section

Claims (5)

被写体から撮影レンズを介して入射した光を受光して継続的に撮影信号に変換して出力する撮影素子、前記撮影素子から出力された撮影信号を画像データに変換して出力する画像データ変換部、前記画像データの取得準備指示および記録指示を入力する指示部、前記指示部に前記取得準備指示が入力されたことに応じて前記画像データ変換部からの画像データから顔領域を検出する顔検出部、前記顔検出部の検出した顔領域に対して、合焦および露出の制御うち少なくともいずれか1つを含む撮影条件の調整処理を実行する調整部、前記指示部に前記記録指示が入力されたことによる前記撮影素子の露光に応じて前記撮影素子から出力された撮影信号である撮影確認用の画像データを記録する記録部、および少なくとも前記取得準備指示が入力されたことに応じて前記画像データから検出された顔領域の位置を示す映像または前記撮影確認用の画像データを表示することが可能な表示部を備える撮影装置であって、
前記顔検出部は、前記記録指示部が前記記録指示の入力を受け付けたことに応じ、前記撮影確認用の画像データに基づいて前記被写体の顔領域を検出し、
前記顔検出部が前記記録指示の入力に応じ、前記撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、前記撮影確認用の画像データから検出された顔領域の位置を示す映像を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御する表示制御部を備える撮影装置。
An imaging element that receives light incident from a subject via a photographic lens, continuously converts it into a photographic signal and outputs it, and an image data converter that converts the photographic signal output from the imaging element into image data and outputs the image data An instruction unit for inputting an acquisition preparation instruction and a recording instruction for the image data, and face detection for detecting a face area from the image data from the image data conversion unit in response to the acquisition preparation instruction being input to the instruction unit The recording instruction is input to the adjustment unit that executes adjustment processing of photographing conditions including at least one of focusing and exposure control for the face area detected by the face detection unit, and the instruction unit A recording unit for recording image data for shooting confirmation, which is a shooting signal output from the shooting element in response to exposure of the shooting element, and at least the acquisition preparation instruction A photographing apparatus including a display unit capable of displaying image data for position confirmation image or the shooting showing a detected face region from the image data in response to that is,
The face detection unit detects a face area of the subject based on the image data for shooting confirmation in response to the recording instruction unit receiving an input of the recording instruction,
When the face detection unit detects at least one face area from the image data for shooting confirmation in response to the input of the recording instruction, an image showing the position of the face area detected from the image data for shooting confirmation is displayed. A photographing apparatus comprising: a display control unit that controls the display unit to display the image together with the image data for photographing confirmation.
前記表示制御部は、前記顔検出部が前記撮影確認用の画像データから顔領域を検出しなかった場合、前記取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御する請求項1に記載の撮影装置。   The display control unit, when the face detection unit does not detect a face region from the image data for shooting confirmation, an image indicating the position of the face region detected in response to the acquisition preparation instruction being input The image capturing apparatus according to claim 1, wherein the display unit is controlled to display the image together with the image data for capturing confirmation. 前記取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像である第1の映像か、前記記録指示の入力を受け付けたことに応じて検出された顔領域の位置を示す映像である第2の映像のいずれを表示するかを選択可能な選択部をさらに備え、
前記表示制御部は、前記選択部が選択した前記第1の映像または前記第2の映像のいずれか一方を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御する請求項1または2に記載の撮影装置。
The first image, which is an image showing the position of the face area detected in response to the input of the acquisition preparation instruction, or the position of the face area detected in response to the input of the recording instruction A selection unit capable of selecting which of the second images to be displayed is to be displayed;
The display control unit controls the display unit to display either the first video or the second video selected by the selection unit together with the image data for shooting confirmation. The imaging device according to 2.
被写体から撮影レンズを介して入射した光を受光して継続的に撮影信号に変換して出力する撮影素子、前記撮影素子から出力された撮影信号を画像データに変換して出力する画像データ変換部、前記画像データの取得準備指示および記録指示を入力する指示部、前記指示部に前記取得準備指示が入力されたことに応じて前記画像データ変換部からの画像データから顔領域を検出する顔検出部、前記顔検出部の検出した顔領域に対して、合焦および露出の制御うち少なくともいずれか1つを含む撮影条件の調整処理を実行する調整部、前記指示部に前記記録指示が入力されたことによる前記撮影素子の露光に応じて前記撮影素子から出力された撮影信号である撮影確認用の画像データを記録する記録部、および少なくとも前記取得準備指示が入力されたことに応じて前記画像データから検出された顔領域の位置を示す映像、前記撮影確認用の画像データその他の映像を表示することが可能な表示部を備える撮影装置における撮影方法であって、
前記顔検出部により、前記記録指示部が前記記録指示の入力を受け付けたことに応じ、前記撮影確認用の画像データに基づいて前記被写体の顔領域を検出するステップと、
前記顔検出部が前記記録指示の入力に応じ、前記撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、前記撮影確認用の画像データから検出された顔領域の位置を示す映像を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御するステップと、
を含む撮影方法。
An imaging element that receives light incident from a subject via a photographic lens, continuously converts it into a photographic signal and outputs it, and an image data converter that converts the photographic signal output from the imaging element into image data and outputs the image data An instruction unit for inputting an acquisition preparation instruction and a recording instruction for the image data, and face detection for detecting a face area from the image data from the image data conversion unit in response to the acquisition preparation instruction being input to the instruction unit The recording instruction is input to the adjustment unit that executes adjustment processing of photographing conditions including at least one of focusing and exposure control for the face area detected by the face detection unit, and the instruction unit A recording unit for recording image data for shooting confirmation, which is a shooting signal output from the shooting element in response to exposure of the shooting element, and at least the acquisition preparation instruction An imaging method in an imaging apparatus comprising a display unit capable of displaying a video indicating a position of a face area detected from the image data in response to the image data, the image data for shooting confirmation, and other video. ,
Detecting the face area of the subject based on the image data for shooting confirmation in response to the recording instruction unit receiving an input of the recording instruction by the face detection unit;
When the face detection unit detects at least one face area from the image data for shooting confirmation in response to the input of the recording instruction, an image showing the position of the face area detected from the image data for shooting confirmation is displayed. Controlling the display unit to display together with the image data for shooting confirmation;
Including shooting method.
請求項4に記載の撮影方法を、撮影装置に備えられたコンピュータに実行させるためのプログラム。   A non-transitory computer-readable storage medium storing a program for causing a computer provided in an imaging apparatus to execute the imaging method according to claim 4.
JP2006192182A 2006-07-12 2006-07-12 Imaging apparatus, method, and program Pending JP2008022280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006192182A JP2008022280A (en) 2006-07-12 2006-07-12 Imaging apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006192182A JP2008022280A (en) 2006-07-12 2006-07-12 Imaging apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2008022280A true JP2008022280A (en) 2008-01-31

Family

ID=39077916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006192182A Pending JP2008022280A (en) 2006-07-12 2006-07-12 Imaging apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2008022280A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239696A (en) * 2008-03-27 2009-10-15 Sony Corp Imaging apparatus, character information association method and character information association program
JP2009302835A (en) * 2008-06-12 2009-12-24 Sony Corp Image processor and image processing method
JP2010028354A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging apparatus, imaging method, program, and recording medium
JP2010041621A (en) * 2008-08-07 2010-02-18 Canon Inc Imaging device, its control method, and program
CN114830628A (en) * 2019-11-25 2022-07-29 富士胶片株式会社 Image making method
CN114830628B (en) * 2019-11-25 2024-04-26 富士胶片株式会社 Image making method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239696A (en) * 2008-03-27 2009-10-15 Sony Corp Imaging apparatus, character information association method and character information association program
JP4517310B2 (en) * 2008-03-27 2010-08-04 ソニー株式会社 Imaging apparatus, character information association method, and character information association program
US8705878B2 (en) 2008-03-27 2014-04-22 Sony Corporation Imaging apparatus, character information association method and character information association program
JP2009302835A (en) * 2008-06-12 2009-12-24 Sony Corp Image processor and image processing method
JP2010028354A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging apparatus, imaging method, program, and recording medium
JP2010041621A (en) * 2008-08-07 2010-02-18 Canon Inc Imaging device, its control method, and program
CN114830628A (en) * 2019-11-25 2022-07-29 富士胶片株式会社 Image making method
CN114830628B (en) * 2019-11-25 2024-04-26 富士胶片株式会社 Image making method

Similar Documents

Publication Publication Date Title
JP4654974B2 (en) Imaging apparatus and imaging method
JP4626425B2 (en) Imaging apparatus, imaging method, and imaging program
JP4683339B2 (en) Image trimming device
JP4661413B2 (en) Imaging apparatus, number of shots management method and number of shots management program
JP4943769B2 (en) Imaging apparatus and in-focus position search method
JP4904243B2 (en) Imaging apparatus and imaging control method
US7889985B2 (en) Imaging apparatus
JP2008131094A (en) Imaging apparatus and method
JP4683228B2 (en) Image display device, photographing device, image display method and program
JP4623299B2 (en) Imaging apparatus and imaging method
JP2005311699A (en) Imaging apparatus and display control method
JP2006145629A (en) Imaging apparatus
JP2007306418A (en) Imaging apparatus and imaging control method
JP2008141617A (en) Photographing apparatus, face detection method thereof and image recording method
JP2007104108A (en) Imaging apparatus, emission luminance control method and program
JP2008022280A (en) Imaging apparatus, method, and program
JP2007274598A (en) Imaging apparatus and photographing condition display method
JP4697604B2 (en) Imaging apparatus and imaging control method
JP5134116B2 (en) Imaging apparatus and in-focus position search method
JP2008129082A (en) Image taking device and light emission control method
JP4534253B2 (en) Imaging device
JP2007178453A (en) Imaging apparatus and imaging method
JP2011078143A (en) Photographing apparatus, face detecting method thereof and image recording method
JP2007295390A (en) Imaging apparatus, and warning method
JP2006352252A (en) Image recorder, image recording/reproducing method and program