JP2008022280A - Imaging apparatus, method, and program - Google Patents
Imaging apparatus, method, and program Download PDFInfo
- Publication number
- JP2008022280A JP2008022280A JP2006192182A JP2006192182A JP2008022280A JP 2008022280 A JP2008022280 A JP 2008022280A JP 2006192182 A JP2006192182 A JP 2006192182A JP 2006192182 A JP2006192182 A JP 2006192182A JP 2008022280 A JP2008022280 A JP 2008022280A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- image
- face
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は顔検出に応じて自動合焦や自動露出等を行う機能を備えた撮影装置に関する。 The present invention relates to a photographing apparatus having a function of performing automatic focusing, automatic exposure, and the like according to face detection.
従来より顔検出機能を有する撮影装置が知られている。特許文献1では、テレビ電話端末のテンキー操作部で希望領域抽出開始点に相当するボタンを選択し、カーソルキー操作により移動、再度選択により位置決定を可能とさせることで抽出領域を構成し、領域枠を任意に作成する。 2. Description of the Related Art Conventionally, photographing apparatuses having a face detection function are known. In Patent Document 1, an extraction area is configured by selecting a button corresponding to a desired area extraction start point with a numeric keypad operation unit of a videophone terminal, moving by cursor key operation, and enabling position determination by selection again. Create an arbitrary frame.
特許文献2では、顔画像をカメラにより入力し、この入力された顔画像から顔を抽出して認識を行う人物認識装置において、認識対象者の登録時および認識時、認識対象者に対し操作案内などを表示する表示部に、認識対象者の身長により変化する最適な立ち位置を案内するガイド線を表示するとともに、実際に検出した認識対象者の顔の位置や大きさを示す円パターンをガイド線の内側に接して表示する。 In Patent Document 2, in a person recognition device that inputs a face image by a camera, extracts a face from the input face image, and performs recognition, operation guidance is given to the recognition target person at the time of registration and recognition of the recognition target person. Etc. on the display unit that displays the guide line that guides the optimal standing position that changes depending on the height of the person to be recognized, and guides a circular pattern that indicates the position and size of the face of the person to be actually detected Display inside the line.
特許文献3では、撮像部からの画像データに含まれる人物の眼を検出し、検出された眼の位置および大きさを示す情報を出力し、その情報に基づいて、焦点を合わせる画像データの位置および大きさを示すフォーカス枠を設定し、フォーカス枠毎の合焦点位置を検出し、検出した合焦点位置のうち、撮影に用いる合焦点位置を決定するAF制御部を有する。 In Patent Literature 3, the human eye included in the image data from the imaging unit is detected, information indicating the detected position and size of the eye is output, and the position of the image data to be focused based on the information is disclosed. And a focus frame indicating the size, an in-focus position for each focus frame is detected, and among the detected in-focus positions, an AF control unit that determines an in-focus position used for shooting is provided.
特許文献4では、撮像によって被写体像が得られ、その被写体像がカメラの表示画面に表示される。検出された顔の画像を囲むように顔枠が表示される。顔枠内の画像データを用いて自動合焦制御および自動露出制御が行われる。 In Patent Document 4, a subject image is obtained by imaging, and the subject image is displayed on a display screen of a camera. A face frame is displayed so as to surround the detected face image. Automatic focus control and automatic exposure control are performed using the image data in the face frame.
特許文献5では、撮像によって被写体像が得られ、その被写体像がカメラの表示画面に表示される。検出された顔の画像を囲むように顔枠が表示される。検出された顔画像の中心が表示画面の中心となるように被写体像がシフトされ、かつ拡大されて表示画面に表示される。顔の画像が大きく表示されるので、表示画面が小さい場合であっても顔を確認しやすくなる。
ところで、上記特許文献1〜4のように、顔検出モードを設定して撮影した場合、ユーザが意図した位置に実際にピントや露出等が合わされて撮影されたのか否かは分かりにくく、ユーザが撮影画像を確認する際に不便である。 By the way, as described in Patent Documents 1 to 4, when shooting is performed with the face detection mode set, it is difficult to know whether or not the shooting was actually performed with the focus, exposure, etc. taken at the position intended by the user. This is inconvenient when confirming the captured image.
本発明はこのような問題点に鑑みてなされたもので、撮影直後の確認表示(いわゆるポストビューやクイックビューと呼ばれるもの)において、ユーザがピントや露出等の対象として意図した顔位置と、実際にピントや露出等がなされた顔位置との差異を分かりやすく表示することにより、かかる不便さを改善する。 The present invention has been made in view of such problems. In a confirmation display immediately after shooting (so-called post view or quick view), the face position intended by the user as a target for focus, exposure, etc. Such inconvenience is improved by displaying the difference from the face position on which the focus or exposure is made in an easy-to-understand manner.
本発明は、被写体から撮影レンズを介して入射した光を受光して継続的に撮影信号に変換して出力する撮影素子、撮影素子から出力された撮影信号を画像データに変換して出力する画像データ変換部、画像データの取得準備指示および記録指示を入力する指示部、指示部に取得準備指示が入力されたことに応じて画像データ変換部からの画像データから顔領域を検出する顔検出部、顔検出部の検出した顔領域に対して、合焦および露出の制御うち少なくともいずれか1つを含む撮影条件の調整処理を実行する調整部、指示部に記録指示が入力されたことによる前記撮影素子の露光に応じて出力された撮影信号である撮影確認用の画像データを記録する記録部、および少なくとも取得準備指示が入力されたことに応じて画像データから検出された顔領域の位置を示す映像または撮影確認用の画像データを表示することが可能な表示部を備える撮影装置に関する。 The present invention relates to a photographing element that receives light incident from a subject via a photographing lens, continuously converts it into a photographing signal, and outputs an image that is obtained by converting the photographing signal output from the photographing element into image data. A data conversion unit, an instruction unit for inputting an acquisition preparation instruction and a recording instruction for image data, and a face detection unit for detecting a face area from image data from the image data conversion unit in response to an acquisition preparation instruction being input to the instruction unit When the recording instruction is input to the adjustment unit and the instruction unit that execute the adjustment process of the photographing condition including at least one of focusing and exposure control for the face area detected by the face detection unit A recording unit that records image data for shooting confirmation, which is a shooting signal output in response to exposure of the shooting element, and is detected from the image data in response to at least an acquisition preparation instruction being input On imaging device including a display unit capable of displaying image data for confirmation image or photographing indicating the position of the face region.
この撮影装置において、顔検出部は、記録指示部が記録指示の入力を受け付けたことに応じ、撮影確認用の画像データに基づいて被写体の顔領域を検出し、顔検出部が記録指示の入力に応じ、撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、撮影確認用の画像データから検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御する表示制御部を備える。 In this photographing apparatus, the face detection unit detects the face area of the subject based on the image data for photographing confirmation in response to the recording instruction unit accepting the input of the recording instruction, and the face detection unit inputs the recording instruction. Accordingly, when at least one face area is detected from the image data for shooting confirmation, an image showing the position of the face area detected from the image data for shooting confirmation is displayed together with the image data for shooting confirmation. The display control part which controls a part is provided.
この発明によると、撮影準備指示入力時の顔の位置と、記録指示入力時の顔の位置との差異により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。 According to the present invention, an image can be taken in a state where the focus or exposure is actually adjusted to the position intended by the user due to the difference between the position of the face when inputting the shooting preparation instruction and the position of the face when inputting the recording instruction. It can be easily confirmed whether or not.
表示制御部は、顔検出部が撮影確認用の画像データから顔領域を検出しなかった場合、取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御するようにしてもよい。 If the face detection unit does not detect the face area from the image data for shooting confirmation, the display control unit checks the image indicating the position of the detected face area in response to the acquisition preparation instruction being input. The display unit may be controlled to display together with the image data for use.
こうすると、取得準備指示の入力の際に顔領域が検出されれば、その後顔の向きが変わるなどして記録指示入力時に顔が検出されなくなっても、取得準備指示の入力の際の顔領域の位置を表示することができる。このため、取得準備指示の入力の際の顔検出に応じた焦点調節等に失敗したとユーザが勘違いしてしまうことを防ぐことができ、ユーザの不安を解消することができる。 In this way, if a face area is detected when the acquisition preparation instruction is input, the face area when the acquisition preparation instruction is input even if the face is subsequently detected and the face is not detected when the recording instruction is input. The position of can be displayed. For this reason, it is possible to prevent the user from misunderstanding that the focus adjustment or the like according to the face detection at the time of inputting the acquisition preparation instruction has failed, and the user's anxiety can be resolved.
取得準備指示が入力されたことに応じて検出された顔領域の位置を示す映像である第1の映像か、記録指示の入力を受け付けたことに応じて検出された顔領域の位置を示す映像である第2の映像のいずれを表示するかを選択可能な選択部をさらに備え、表示制御部は、選択部が選択した第1の映像または第2の映像のいずれか一方を、撮影確認用の画像データとともに表示するよう表示部を制御するようにしてもよい。 A first image that is an image indicating the position of the face area detected in response to the acquisition preparation instruction being input, or an image that indicates the position of the face area detected in response to the input of the recording instruction And a selection unit capable of selecting which of the second images is to be displayed, and the display control unit is configured to confirm whether the first image selected by the selection unit or the second image is to be captured. The display unit may be controlled to display together with the image data.
こうすると、ユーザが第1の映像または第2の映像のいずれか一方を任意に選択して表示させることができる。なお、第1の映像または第2の映像のいずれも表示させないことも選択可能にしてもよい。 In this way, the user can arbitrarily select and display either the first video or the second video. It may be possible to select not to display either the first video or the second video.
本発明に係る撮影方法は、顔検出部により、記録指示部が記録指示の入力を受け付けたことに応じ、撮影確認用の画像データに基づいて被写体の顔領域を検出するステップと、顔検出部が記録指示の入力に応じ、撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、撮影確認用の画像データから検出された顔領域の位置を示す映像を、撮影確認用の画像データとともに表示するよう表示部を制御するステップと、を含む。 The photographing method according to the present invention includes a step of detecting a face area of a subject based on image data for photographing confirmation when a recording instruction unit receives an input of a recording instruction by a face detection unit, and a face detection unit When at least one face area is detected from the image data for shooting confirmation in response to the input of the recording instruction, an image indicating the position of the face area detected from the image data for shooting confirmation is displayed as image data for shooting confirmation. And controlling the display unit to display it together.
上記の撮影方法を、撮影装置に備えられたコンピュータに実行させるためのプログラムも本発明に含まれる。このプログラムは、フラッシュメモリやメモリカードなど各種の記録媒体に記憶して提供することもできるし、インターネットなどのネットワークを介して配信することも可能である。 A program for causing the computer provided in the photographing apparatus to execute the above photographing method is also included in the present invention. This program can be provided by being stored in various recording media such as a flash memory and a memory card, or can be distributed via a network such as the Internet.
この発明によると、撮影準備指示入力時の顔の位置と、記録指示入力時の顔の位置との差異により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。 According to the present invention, an image can be taken in a state where the focus or exposure is actually adjusted to the position intended by the user due to the difference between the position of the face when inputting the shooting preparation instruction and the position of the face when inputting the recording instruction. It can be easily confirmed whether or not.
以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
<第1実施形態>
図1は、本発明の好ましい実施形態に係るデジタルカメラ(以下カメラと略す)100の正面図である。
<First Embodiment>
FIG. 1 is a front view of a digital camera (hereinafter abbreviated as a camera) 100 according to a preferred embodiment of the present invention.
カメラ100の正面に配備されたレンズ鏡胴60には、ズームレンズ101a及びフォーカスレンズ101bを含む撮影レンズ101が内蔵されており、ズームレンズ101aを光軸方向に移動させることで焦点距離調節が行なわれるとともに、フォーカスレンズ101bを光軸方向に移動させることによりピント調節が行なわれる。
A
レンズ鏡胴60は、カメラボディ180に沈胴した状態から、予め設定された最短焦点距離位置であるワイド端と最長焦点距離位置であるテレ端との間で進退することで、カメラボディ180から繰り出し、また収納される。この図では、レンズ鏡胴60がカメラボディ180に沈胴した状態が示されている。
The
またカメラ100には、非撮影時には撮影レンズ101の前面を覆って撮影レンズ101と外界とを遮ることで撮影レンズ101を保護する状態をつくり出すとともに、撮像時には撮像レンズを外界に露出するレンズカバー61が設けられている。
In addition, the
レンズカバー61は開閉自在な機構で構成されており、開放状態で撮影レンズ101の前面を覆い、閉鎖状態で撮影レンズ101の前面を外界に露出する。レンズカバー61は電源スイッチ121のオン/オフに連動して開放/閉鎖される。この図ではレンズカバー61は開放状態となっている。
The
カメラ100の上面には、中央部分にレリーズスイッチ104の配備されたモードダイヤル123と電源スイッチ121とが配備されており、正面には、ストロボ105a、AF補助光ランプ105b、セルフタイマランプ105c等が配備されている。
On the upper surface of the
図2はカメラ100の背面図である。カメラ100の背面には、ズームスイッチ127が配備されている。ズームスイッチ127のワイド(W)側を押すと、押し続けている間、レンズ鏡胴60がワイド端(望遠)側に繰り出し、テレ(T)側の他方を押すと、押し続けている間、レンズ鏡胴60がテレ端(広角)側に移動する。
FIG. 2 is a rear view of the
カメラ100の背面には、画像表示LCD102、十字キー124、情報位置指定キー126等も設けられている。十字キー124は、上下左右がそれぞれ表示明るさ調節/セルフタイマ/マクロ撮影/ストロボ撮影を設定する操作系である。後述するが、十字キー124の下キーを押下することで、セルフタイマ回路83の計時完了後にメインCPU20がCCD132にシャッタ動作を行わせるセルフ撮影モードの設定を行える。
On the back of the
図3は第1実施形態に係るカメラ100のブロック図である。カメラ100にはユーザがこのカメラ100を使用するときに種々の操作を行なうための操作部120が設けられている。この操作部120には、カメラ100を作動させるための電源投入用の電源スイッチ121、オート撮影やマニュアル撮影等を選択するためのモードダイヤル123、各種のメニューの設定や選択あるいはズームを行なうための十字キー124、閃光発光用スイッチ125、および十字キー124で選択されたメニューの実行やキャンセル等を行なうための情報位置指定キー126が備えられている。
FIG. 3 is a block diagram of the
また、カメラ100には、撮影画像や再生画像等を表示するための画像表示LCD102と、操作の手助けを行なうための操作LCD表示103が備えられている。
In addition, the
このカメラ100にはレリーズスイッチ104が配備されている。このレリーズスイッチ104によって撮影の開始指示がメインCPU20へと伝えられる。このカメラ100では所定のメニュー画面によって撮影と再生との切り替えが自在になっている。また、カメラ100には、コントラストAF時に被写体に投光スポットを照射するための発光ダイオード(LED)からなるAF補助光ランプ105b、閃光を発光するストロボ105aを有する閃光発光装置が配備されている。
The
また、カメラ100には、撮影レンズ101と、絞り131と、撮影レンズ101および絞り131を経由して結像された被写体像をアナログの画像信号に変換する撮像素子であるCCDセンサ132(以下CCD132と略記する)とが備えられている。CCD132は、CCD132に照射された被写体光により発生した電荷を可変の電荷蓄積時間(露光期間)の間蓄積することにより画像信号を生成するものである。CCD132からは、CG部136から出力される垂直同期信号VDに同期したタイミングでフレーム毎の画像信号が順次出力される。
In addition, the
撮像素子にCCD132を用いた場合には、色偽信号やモアレ縞等の発生を防止するために、入射光内の不要な高周波成分を除去する光学的ローパスフィルタ132aが配設されている。また、入射光内の赤外線を吸収若しくは反射して、長波長域で感度が高いCCDセンサ132固有の感度特性を補正する赤外カットフィルタ132bが配設されている。光学的ローパスフィルタ132a及び赤外カットフィルタ132bの具体的な配設の態様は特に限定されない。
When the
また、カメラ100には、CCDセンサ132からのアナログ画像信号が表わす被写体像のホワイトバランスを合わせるとともにその被写体像の階調特性における直線の傾き(γ)を調節し、さらにアナログ画像信号を増幅する増幅率可変の増幅器を含む白バランス・γ処理部133が備えられている。
The
さらに、カメラ100には、白バランス・γ処理部133からのアナログ信号をディジタルのR,G,B画像データにA/D変換するA/D変換部134と、そのA/D変換部134からのR,G,B画像データを格納するバッファメモリ135が備えられている。
Further, the
A/D変換部134によって得られたR,G,B画像データは、AF検出部150にも入力される。AF検出部150は、R,G,B画像データを1画面の所定の分割エリア毎にかつ同じ色成分毎に積算平均し、さらにフレームごとに、全エリアのR,G,B画像データの積算平均値Ir,Ig,Ibを算出する。この積算平均値Ir,Ig,IbをR,G,Bの可視光の受光量とする。
The R, G, B image data obtained by the A /
ただし、R,G,Bの可視光の受光量Ir,Ig,Ibは、R、G、Bの可視光にそれぞれ感度を有するCCD132以外の受光センサ(図示せず)によって検出することも可能である。
However, the R, G, and B visible light receiving amounts Ir, Ig, and Ib can be detected by a light receiving sensor (not shown) other than the
また、カメラ100には、CG(クロックジェネレータ)部136と、測光・測距用CPU137と、充電・発光制御部138と、通信制御部139と、YC処理部140と、電源電池68とが備えられている。
Further, the
CG部136は、CCDセンサ132を駆動するための垂直同期信号VD,高速掃き出しパルスPを含む駆動信号、白バランス・γ処理部133,A/D変換部134を制御する制御信号、および通信制御部139を制御する制御信号を出力する。また、このCG部136には、測光・測距用CPU137からの制御信号が入力される。
The CG unit 136 includes a vertical synchronization signal VD for driving the
測光・測距用CPU137は、ズーム用モータ110、フォーカス用モータ111、絞り調節を行う絞り用モータ112を制御してズームレンズ101a、フォーカスレンズ101b、絞り131をそれぞれ駆動することにより被写体までの距離の算出(測距)を行ない、CG部136および充電・発光制御部138を制御する。ズーム用モータ110、フォーカス用モータ111、絞り用モータ112の駆動は、モータドライバ62によって制御され、モータドライバ62の制御コマンドは、測光・測距用CPU137あるいはメインCPU20から送られる。
The photometry / ranging
なお、ズームレンズ101a、フォーカスレンズ101b、絞り131、AF補助光照射角の駆動源は、ズーム用モータ110、フォーカス用モータ111、絞り用モータ112のような各種モータに限定する必然性はなく、アクチュエータなどであってもよい。
The driving source of the
測光・測距用CPU137は、レリーズスイッチ104が半押し(S1オン)されると、CCD132によって周期的(1/30秒から1/60秒ごと)に得られる画像データ(スルー画像)に基づいて被写体の明るさの測光(EV値の算出)を行う。
The
即ち、AE演算部151は、A/D変換部134から出力されたR、G、Bの画像信号を積算し、その積算値を測光・測距用CPU137に提供する。測光・測距用CPU137は、AE演算部151から入力する積算値に基づいて被写体の平均的な明るさ(被写体輝度)を検出し、撮影に適した露出値(EV値)を算出する。
That is, the
そして、測光・測距用CPU137は、得られたEV値に基づいて絞り131の絞り値(F値)及びCCD132の電子シャッタあるいはメカニカルシャッタのシャッタスピードを含む露出値を所定のプログラム線図にしたがって決定する(AE動作)。
Then, based on the obtained EV value, the photometry / ranging
レリーズスイッチ104が全押し(S2オン)されると、測光・測距用CPU137は、その決定した絞り値に基づいて絞り131を駆動し、絞り131の開口径を制御するとともに、決定したシャッタスピードに基づき、CG136を介してCCD132での電荷蓄積時間を制御する。
When the
AE動作は、絞り優先AE,シャッタ速度優先AE,プログラムAEなどがあるが、いずれにおいても、被写体輝度を測定し、この被写体輝度の測光値に基づいて決められた露出値、すなわち絞り値とシャッタスピードとの組み合わせで撮影を行うことにより、適正な露光量で撮像されるように制御しており、面倒な露出決定の手間を省くことができる。 The AE operation includes an aperture priority AE, a shutter speed priority AE, a program AE, etc. In any case, the subject brightness is measured, and an exposure value determined based on the photometric value of the subject brightness, that is, an aperture value and a shutter. By taking a picture in combination with the speed, control is performed so that an image is taken with an appropriate exposure amount, and it is possible to save troublesome determination of exposure.
AF検出部150は、測光・測距CPU137により選定された検出範囲に対応する画像データをA/D変換部134から抽出する。焦点位置を検出する方法は、合焦位置で画像データの高周波成分が最大振幅になるという特徴を利用して行う。AF検出部150は、抽出された画像データの高周波成分を1フィールド期間積分することにより、振幅値を算出する。AF検出部150は、測光・測距CPU137がフォーカス用モータ111を駆動制御してフォーカスレンズ101bを可動範囲内、即ち無限遠側の端点(INF点)から至近側の端点(NEAR点)の間で移動させている間に順次振幅値の計算を実行し、最大振幅を検出した時に検出値を測光・測距CPU137に送信する。
The
測光・測距CPU137は、この検出値を取得して対応する合焦位置に、フォーカスレンズ101bを移動させるようにフォーカス用モータ111に指令を出す。フォーカス用モータ111は、測光・測距CPU137の指令に応じてフォーカスレンズ101bを合焦位置に移動させる(AF動作)。
The photometry / ranging
測光・測距用CPU137は、メインCPU20とのCPU間通信によってレリーズスイッチ104と接続されており、ユーザによりレリーズスイッチ104が半押しされた時に、この合焦位置の検出が行われる。また、測光・測距用CPU137には、ズーム用モータ111が接続されており、メインCPU20が、ズームスイッチ127によってユーザからのTELE方向又はWIDE方向へのズームの指令を取得した場合に、ズーム用モータ110を駆動させることにより、ズームレンズ101aをWIDE端とTELE端との間で移動させる。
The photometry / ranging
充電・発光制御部138は,ストロボ105aを発光させるために電源電池68からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電したり、そのストロボ105aの発光を制御する。
The charging / light emission control unit 138 is supplied with electric power from the
充電・発光制御部138は,電源電池68の充電開始、レリーズスイッチ104の半押し・全押し操作信号等の各種の信号や、発光量、発光タイミングを示す信号をメインCPU20や測光・測距CPU137から取り込んだことに応じ、セルフタイマランプ(タリーランプ)105cやAF補助光ランプ105bへの電流供給制御を行い、所望の発光量が所望のタイミングで得られるように制御する。
The charging / light emission control unit 138 sends various signals such as charging start of the
なお、セルフタイマランプ105cはLEDで構成してもよく、AF補助光ランプ105bを構成するLEDと共通にしてもよい。
Note that the self-
メインCPU20には、セルフタイマ回路83が接続されている。メインCPU20は、セルフ撮影モードが設定されている場合、レリーズスイッチ104の全押し信号に基づいて計時を行なう。この計時中に、メインCPU20は測光・測距CPU137を介し、残り時間に合わせて点滅速度をだんだんと早めながら、セルフタイマランプ105cを点滅させる。セルフタイマ回路83は、計時完了後に計時完了信号をメインCPU20に入力する。メインCPU20は、計時完了信号に基づいて、CCD132にシャッタ動作を実施させる。
A self-
通信制御部139には、通信ポート107が備えられており、この通信制御部139は、カメラ100により撮影された被写体の画像信号をUSB端子が備えられたパーソナルコンピュータ等の外部装置に出力し、およびこのような外部装置からカメラ100に画像信号を入力することにより、その外部装置との間のデータ通信を担うものである。また、このカメラ100は、ロール状の写真フイルムに写真撮影を行なう通常のカメラが有するISO感度80,100,200,400,1600等に切り替える機能を模擬した機能を有し、ISO感度400以上に切り替えられた場合、白バランス・γ処理部133の増幅器の増幅率が所定の増幅率を越えた高増幅率に設定された高感度モードとなる。通信制御部139は、高感度モードでの撮影中は、外部装置との通信を停止する。
The
また、カメラ100には、圧縮・伸長&ID抽出部143と、I/F部144が備えられている。圧縮・伸長&ID抽出部143は、バッファメモリ135に格納された画像データを、バスライン142を介して読み出して圧縮し、I/F部144を経由してメモリカード200に格納する。また、圧縮・伸長&ID抽出部143は、メモリカード200に格納された画像データの読み出しにあたり、メモリカード200固有の識別番号(ID)を抽出し、そのメモリカード200に格納された画像データを読み出して伸長し、バッファメモリ135に格納する。
The
バッファメモリ135に格納されたY/C信号は、圧縮・伸長&ID抽出部143によって所定のフォーマットに従って圧縮された後、I/F144を介してメモリカード200のようなリムーバブルメディアないしハードディスク(HDD)75のような内蔵型大容量記憶媒体に所定の形式(例えばExif(Exchangeable Image File Format)ファイル)で記録される。ハードディスク(HDD)75へのデータ記録またはハードディスク(HDD)75からのデータの読込みは、メインCPU20の指令に応じてハードディスクコントローラ74によって制御される。
The Y / C signal stored in the
また、カメラ100には、メインCPU20と、EEPROM146と、YC/RGB変換部147と、表示用のドライバ148とが備えられている。メインCPU20は、このカメラ100全体の制御を行なう。EEPROM146には、このカメラ100固有の固体データやプログラム等が格納されている。YC/RGB変換部147は、YC処理部140で生成されたカラー映像信号YCを3色のRGB信号に変換して表示用のドライバ148を経由して画像表示LCD102に出力する。
The
また、カメラ100は、AC電源から電力を得るためのACアダプタ48と電源電池68とが着脱可能な構成となっている。電源電池68は充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池68は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池68は図示しない電池収納室に装填することにより、カメラ100の各回路と電気的に接続される。
In addition, the
ACアダプタ48がカメラ100に装填されAC電源からACアダプタ48を介してカメラ100に電力が供給される場合には、電源電池68が電池収納室に装填されている場合であっても、優先的に当該ACアダプタ48から出力された電力がカメラ100の各部に駆動用の電力として供給される。また、ACアダプタ48が装填されておらず、かつ電源電池68が電池収納室に装填されている場合には、当該電源電池68から出力された電力がカメラ100の各部に駆動用の電力として供給される。
When the
なお、図示しないが、カメラ100には、電池収納室内に収納される電源電池68とは別にバックアップ電池が設けられている。内蔵バックアップ電池には例えば専用の二次電池が用いられ、電源電池68によって充電される。バックアップ電池は、電源電池68の交換や取り外し等、電源電池68が電池収納室に装填されていない場合、カメラ100の基本機能に給電する。
Although not shown, the
即ち、電源電池68又はACアダプタ48からの電源供給が停止すると、バックアップ電池がスイッチング回路(図示せず)によってRTC15等に接続され、これらの回路に給電する。これにより、バックアップ電池29が寿命に達しない限り、RTC15等の基本機能には、電源供給が間断なく継続する。
That is, when the power supply from the
RTC(Real Time Clock)15は計時専用のチップであり、電源電池68やACアダプタ48からの給電がオフされていてもバックアップ電池から電源供給を受けて継続的に動作する。
An RTC (Real Time Clock) 15 is a chip dedicated to timekeeping, and continuously operates by receiving power supply from the backup battery even when power supply from the
画像表示LCD102には透過型又は半透過型の液晶パネル71を背面側から照明するバックライト70が配設されており、省電力モードの場合には、メインCPU20によりそのバックライト70の明るさ(輝度)がバックライトドライバ72を介して制御され、バックライト70の消費電力が低減されるようになっている。また、省電力モードは、操作部120の情報位置指定キー126を押して画像表示LCD102にメニュー画面を表示させ、そのメニュー画面で所定の操作を行うことによってオン/オフを設定することができるようになっている。
The
図4は第1実施形態に係るメインCPU20の実行するプログラムをブロック図で概念的に示している。メインCPU20は、EEPROM146やハードディスク75等のコンピュータ読み取り可能な記憶媒体に記憶されたプログラムである顔検出部20a、撮影制御部20b、表示制御部20cをRAM145等に読み出して実行する。これらをまとめて単にプログラムと呼ぶこともある。
FIG. 4 conceptually shows a program executed by the
顔検出部20aは、バッファメモリ135に逐次記憶されるスルー画像もしくはメモリカード200の画像から人物の顔部分を含む領域である顔領域を検出する。顔領域の検出方法としては、例えば本出願人による特開平9−101579号公報において開示された技術を適用することができる。
The
この技術は、撮影した画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。そして、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が人物の顔に相当する領域かを判定し、この判定結果に基づき顔領域として検出するものである。また、この他に、特開2003−209683号公報や特開2002−199221号公報に記載される方法で顔領域を検出することもできる。 This technology determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides it into a skin color region and a non-skin color region, and detects edges in the image to detect each pixel in the image. The location is classified as an edge portion or a non-edge portion. Then, an area surrounded by pixels that are located in the skin color area and classified as a non-edge part and surrounded by pixels that are determined to be edge parts is extracted as a face candidate area, and the extracted face candidate area becomes a human face. It is determined whether the region is a corresponding region, and is detected as a face region based on the determination result. In addition to this, a face region can also be detected by a method described in Japanese Patent Application Laid-Open Nos. 2003-209683 and 2002-199221.
撮影制御部20bは、後述の撮影処理を実行する。
The
表示制御部20cは、ドライバ148に内蔵されたOSD信号発生回路148aに対し、シャッタ速度や絞り値、撮影可能枚数、撮影日時、警告メッセージ、グラフィカルユーザインターフェイス(GUI)等の文字及び記号情報を表示するための信号を発生させるコマンドを送る。OSD信号発生回路148aから出力される信号は、必要に応じてYC/RGB変換部147からの画像信号に混合されて、液晶パネル71に供給される。これにより、スルー画像や再生画像に文字等が合成された合成画像が表示される。
The
以下、図5のフローチャートを参照し、CPU20の実行する撮影処理の流れを説明する。この処理は、操作部120による「顔検出モード」のオンに連動して開始する。
Hereinafter, the flow of photographing processing executed by the
S1では、表示制御部20cは、LCD102へのスルー画の表示を開始する。
In S <b> 1, the
S2では、撮影制御部20bは、レリーズスイッチ104の半押し信号を検知し、検知したことに応じてS3に移行する。
In S2, the
S3では、顔検出部20aは半押し信号の検知に応じ、スルー画から顔検出を行う。撮影制御部20bは、顔検出部20aが顔検出をすることができたか否かを判断し、顔検出部20aが顔検出をすることができた場合はS4、顔検出をすることができない場合はS5に移行する。なお、顔検出をすることができない原因としては、画角中に顔が存在しない、存在していても横を向いているなどが考えられる。
In S3, the
S4では、顔検出部20aは、スルー画から検出された顔の範囲を、表示制御部20cに通知する。表示制御部20cは、顔検出部20aから通知された顔の範囲に基づき、検出された顔の範囲を示すブラケットB等の各種のグラフィック(以下、「第1の検出枠」で表すこともある)の映像信号をスルー画像に合成表示するようOSD信号発生回路148aを制御する。
In S4, the
S5では、顔検出部20aは、顔検出を中止し、引き続きスルー画の表示が行われる。
In S5, the
S6では、撮影制御部20bは、レリーズスイッチ104の全押し信号を検知し、検知したことに応じてS7に移行する。全押し信号が検知されない場合はS3に戻る。なお上記動作S3〜6を繰り返すなどして、第1の検出枠の表示位置が半押し時おける実際の顔の範囲に追従するようにしてもよいが、詳細は省略する。
In S6, the
S7では、撮影制御部20bは、顔検出部20aが上記S3で検出した顔領域についてAF・AE・AWB(オートホワイトバランス)調整動作などを行い、この動作で得られた焦点位置および露出値をロックする。撮影制御部20bは、AF・AE動作の完了後、即座にCCD132にシャッタ動作を実施させ、確認用画像(いわゆるポストビューあるいはクイックビューに用いられる画像)を取得し、バッファメモリ135に記憶する。確認用画像は、所定の圧縮形式で圧縮した上、メモリカード200に記憶してもよい。
In S7, the
さらに、顔検出部20aは、レリーズスイッチ104の全押し信号検知時点で取得された確認用画像から顔検出を行う。
Further, the
なお、レリーズスイッチ104の全押し信号検知から確認用画像の取得終了までの間は、スルー画像の表示を停止(いわゆるブラックアウト)してもよいし、全押し信号検知の直前に取得されたスルー画を表示したまま(いわゆるフリーズ表示)を行ってもよい。
Note that during the period from detection of the full-press signal of the
S8では、撮影制御部20bは、顔検出部20aが確認用画像から顔検出をすることができたか否かを判断し、顔検出がされた場合はS9、顔検出をすることができない場合はS10に移行する。
In S8, the photographing
S9では、顔検出部20aは、確認用画像から検出された顔の範囲を、表示制御部20cに通知する。
In S9, the
表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。かつ、表示制御部20cは、顔検出部20aから通知された確認用画像における顔の範囲に基づき、検出された顔を囲む枠Fその他のグラフィック(以下「第2の検出枠」で表す)の映像信号をスルー画像に合成表示するようOSD信号発生回路148aを制御する。
The
S10では、表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。第2の検出枠の表示は特に行わない。
In S10, the
S100では、取得された確認用画像を記録用画像として、メモリカード200(もしくはHDD75)に格納される。格納が完了すると、S1に戻り、再びスルー画の表示を開始する。あるいは、画像取得動作を終了し、確認用画像の一部の拡大処理など、各種の画像処理を行ってもよい。 In S100, the acquired confirmation image is stored in the memory card 200 (or HDD 75) as a recording image. When the storage is completed, the process returns to S1, and the display of the through image is started again. Alternatively, the image acquisition operation may be terminated, and various image processing such as enlargement processing of a part of the confirmation image may be performed.
以上のように、本処理では、レリーズスイッチ104の半押し時に顔検出を行い、その結果得られた顔の範囲を示すブラケットBを表示するだけでなく、レリーズスイッチ104の全押し後に、確認用画像について再度顔検出を行い、その結果得られた顔の範囲を示す枠Fを表示する。
As described above, in this processing, the face detection is performed when the
図6は上記処理によるスルー画表示および確認用画像の表示の様子を示す。具体的には、図6(a)はレリーズスイッチ104の半押し時におけるスルー画像およびブラケットBであり、図6(b)は半押し以後に画角はほぼ変化させないまま、レリーズスイッチ104が全押しされた時点のスルー画像であり、図6(c)は半押し状態で画角はほぼ動かさないまま、レリーズスイッチ104が全押しされたことにより取得された確認用画像および枠Fであり、図6(d)は半押し以後に画角が変化し、その後にレリーズスイッチ104が全押しされた時点でのスルー画であり、図6(e)は半押し以後に画角が変化し、その後にレリーズスイッチ104が全押しされた場合に得られた確認用画像および枠Fである。
FIG. 6 shows a through image display and a confirmation image displayed by the above processing. Specifically, FIG. 6A shows a through image and bracket B when the
図6(e)に示すように、確認用画像から顔が検出できれば、その範囲を示す検出枠Fを、確認用画像中に示すことができ、ブラケットBによって示される半押し時の顔の位置と、枠Fによって示される全押し時の顔の位置との差異、すなわちブラケットBから枠Fまでの隔たりの大小により、ユーザが意図した位置に実際にピントや露出等が合わされた状態で画像が撮影できたか否かを容易に確認することができる。 As shown in FIG. 6E, if a face can be detected from the confirmation image, a detection frame F indicating the range can be shown in the confirmation image, and the position of the face when half-pressed indicated by the bracket B And the position of the face when fully pressed indicated by the frame F, that is, the distance from the bracket B to the frame F, the image is actually focused and exposed at the position intended by the user. It can be easily confirmed whether or not the image has been taken.
また、本実施形態の処理では、レリーズスイッチ104の半押し後に、画角が変化してもしなくても、それとは無関係に、確認用画像における実際の顔の範囲を示すことができる。
In the processing of the present embodiment, the actual face range in the confirmation image can be shown regardless of whether or not the angle of view changes after the
<第2実施形態>
図7は本発明の好ましい第2の実施形態に係る撮影処理の流れを示すフローチャートである。この処理では、レリーズスイッチ104の全押し検知時に顔検出を試みても、顔が検出されなかった場合を考慮した処理を行う。
<Second Embodiment>
FIG. 7 is a flowchart showing a flow of photographing processing according to the preferred second embodiment of the present invention. In this process, a process is performed in consideration of the case where a face is not detected even if face detection is attempted when the
S11〜S17は、それぞれ第1実施形態におけるS1〜S7と同様である。 S11 to S17 are the same as S1 to S7 in the first embodiment, respectively.
S18では、S13で検出された顔、すなわちレリーズスイッチ104の半押し検知時かそれ以後に検出することができた顔の範囲を示す枠Fを表示する。
In S18, a frame F indicating the range of the face detected in S13, that is, the range of the face that could be detected when the
図8は上記処理によるスルー画表示および確認用画像の表示の様子を示す。具体的には、図8(a)はレリーズスイッチ104の半押し時におけるスルー画およびブラケットBであり、図8(b)は被写体の顔が正面を向いた状態でレリーズスイッチ104が全押しされた時点のスルー画であり、図8(c)は被写体の顔が正面を向いた状態で取得された確認用画像および枠Fであり、図8(d)は被写体の顔が横を向いた状態でレリーズスイッチ104が全押しされた場合のスルー画およびブラケットBであり、図8(e)は被写体の顔が横を向いた状態でレリーズスイッチ104が全押しされた場合に得られた確認用および枠Fである。
FIG. 8 shows a through image display and a confirmation image displayed by the above processing. Specifically, FIG. 8A shows a through image and bracket B when the
図8(e)に示すように、本処理では、被写体が横を向いて顔が検出できなくなった場合、レリーズスイッチ104の半押し検知時以後に検出された顔の範囲を示す検出枠Fを表示する。
As shown in FIG. 8E, in this process, when the subject is facing sideways and the face cannot be detected, a detection frame F indicating the face range detected after the half-pressing detection of the
こうすると、全押し検知時に顔検出ができなかった場合でも、検出枠が表示されるから、ユーザが顔検出に応じたAF/AEに失敗したと勘違いしてしまうことを防ぐことができ、ユーザの不安を解消することができる。 In this way, even when face detection cannot be performed at the time of full press detection, the detection frame is displayed, so that it is possible to prevent the user from misunderstanding that AF / AE according to face detection has failed. The anxiety can be resolved.
<第3実施形態>
レリーズスイッチ104の半押し検知時における顔検出または全押し検知時における顔検出のうち、ずれの時点において検出された顔の範囲を、検出枠として表示するかを、ユーザが任意に選択できるようにしてもよい。
<Third Embodiment>
Allows the user to arbitrarily select whether to display the range of the face detected at the time of deviation, as the detection frame, of the face detection at the time of half-press detection of the
例えば図9(a)に示すようなメニュー画面を、操作部120に対する「メニュー画面表示」の指示入力に応じて表示する。このメニュー画面で「ポストビュー検出枠設定」項目が選択されると、図9(b)に示すような「ポストビュー検出枠設定画面」に遷移する。
For example, a menu screen as shown in FIG. 9A is displayed in response to a “menu screen display” instruction input to the
図9(b)に示す「ポストビュー検出枠設定画面」では、「レリーズ半押し時情報」項目Z1、「レリーズ全押し時情報」項目Z2、および「OFF」項目Z3が表示されており、ユーザは操作部120を操作することにより、項目Z1〜Z3のうち、いずれか1つの項目を任意に選択することができる。
In the “post-view detection frame setting screen” shown in FIG. 9B, “release half-press information” item Z1, “release full-press information” item Z2, and “OFF” item Z3 are displayed. By operating the
なお、「顔検出モード」が選択されていなければ、「ポストビュー検出枠設定」項目は必要のない機能であるから、「顔検出モード」がオンにされていない場合、「メニュー画面」から「ポストビュー検出枠設定」項目を消去するか文字の明るさを暗くして選択無効の状態にしてもよい。 If “Face Detection Mode” is not selected, the “Post View Detection Frame Setting” item is an unnecessary function. If “Face Detection Mode” is not turned on, “ The “post-view detection frame setting” item may be deleted or the character brightness may be reduced to make the selection invalid.
図10は本発明の好ましい第3の実施形態に係る撮影処理の流れを示すフローチャートである。この処理では、これらの項目Z1〜Z3のいずれが選択されるかに応じて、検出枠の示す顔の範囲が、レリーズスイッチ104の半押し時のものか、あるいは全押し時のものかが変わる。
FIG. 10 is a flowchart showing the flow of a photographing process according to the preferred third embodiment of the present invention. In this process, depending on which of these items Z1 to Z3 is selected, the face range indicated by the detection frame changes when the
S21〜S27は、それぞれ第1実施形態におけるS1〜S7と同様である。 S21 to S27 are the same as S1 to S7 in the first embodiment, respectively.
S28では、「ポストビュー検出枠設定画面」において、「レリーズ半押し時情報」項目Z1が選択されているか否かを判断し、項目Z1が選択されている場合はS29、項目Z1が選択されていない場合はS30に移行する。 In S28, it is determined whether or not the “release half-press information” item Z1 is selected on the “post-view detection frame setting screen”. If the item Z1 is selected, S29 and the item Z1 are selected. If not, the process proceeds to S30.
S29では、第2実施形態のS18と同様、レリーズスイッチ104の半押し検知時あるいはそれ以後に検出することができた顔の範囲を示す検出枠を表示する。
In S29, as in S18 of the second embodiment, a detection frame indicating the range of the face that can be detected when the
S30では、「レリーズ全押し時情報」項目Z2が選択されているか否かを判断し、項目Z2が選択されている場合はS31、項目Z1が選択されていない場合(すなわち「OFF」項目Z3が選択されている場合)はS32に移行する。 In S30, it is determined whether or not the “release full press information” item Z2 is selected. If the item Z2 is selected, S31 is selected, and if the item Z1 is not selected (that is, the “OFF” item Z3 is selected). If selected), the process proceeds to S32.
S31では、第1実施形態のS9と同様レリーズスイッチ104の全押し検知時あるいはそれ以後に検出することができた顔の範囲を示す検出枠を表示する。
In S31, as in S9 of the first embodiment, a detection frame indicating the range of the face that can be detected when the
S32では、第1実施形態のS10と同様、表示制御部20cは、バッファメモリ135等に取得された確認用画像を表示する。検出枠の表示は特に行わない。
In S32, as in S10 of the first embodiment, the
すなわちユーザは、「ポストビュー検出枠設定画面」から、半押し検知時における顔検出または全押し検知時における顔検出のうち、いずれの時点において検出された顔の範囲を示す検出枠を表示するかを、ユーザが任意に選択できる。例えば、半押し検知時における顔検出の位置が知りたければ「レリーズ半押し時情報」項目Z1を選択すればよい。あるいは全押し検知時における顔検出の位置が知りたければ「レリーズ全押し時情報」項目Z2を選択すればよい。あるいは検出枠の表示そのものが煩わしいと感じる場合は、「OFF」項目Z3を選択すればよい。 In other words, from the “postview detection frame setting screen”, the user should display the detection frame indicating the detected face range at any time of face detection at the time of half-press detection or face detection at the time of full-press detection. Can be arbitrarily selected by the user. For example, if it is desired to know the position of face detection when half-press is detected, the “release half-press information” item Z1 may be selected. Alternatively, if it is desired to know the position of face detection at the time of full press detection, the “release full press information” item Z2 may be selected. Alternatively, if the display of the detection frame itself seems to be troublesome, the “OFF” item Z3 may be selected.
20:メインCPU、20a:顔検出部、20b:撮影制御部、20c:表示制御部、83:セルフタイマ回路、101:撮影レンズ、105c:セルフタイマランプ、132:CCD、134:A/D変換部、150:AF検出部、151:AE演算部 20: main CPU, 20a: face detection unit, 20b: photographing control unit, 20c: display control unit, 83: self-timer circuit, 101: photographing lens, 105c: self-timer lamp, 132: CCD, 134: A / D conversion Section, 150: AF detection section, 151: AE calculation section
Claims (5)
前記顔検出部は、前記記録指示部が前記記録指示の入力を受け付けたことに応じ、前記撮影確認用の画像データに基づいて前記被写体の顔領域を検出し、
前記顔検出部が前記記録指示の入力に応じ、前記撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、前記撮影確認用の画像データから検出された顔領域の位置を示す映像を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御する表示制御部を備える撮影装置。 An imaging element that receives light incident from a subject via a photographic lens, continuously converts it into a photographic signal and outputs it, and an image data converter that converts the photographic signal output from the imaging element into image data and outputs the image data An instruction unit for inputting an acquisition preparation instruction and a recording instruction for the image data, and face detection for detecting a face area from the image data from the image data conversion unit in response to the acquisition preparation instruction being input to the instruction unit The recording instruction is input to the adjustment unit that executes adjustment processing of photographing conditions including at least one of focusing and exposure control for the face area detected by the face detection unit, and the instruction unit A recording unit for recording image data for shooting confirmation, which is a shooting signal output from the shooting element in response to exposure of the shooting element, and at least the acquisition preparation instruction A photographing apparatus including a display unit capable of displaying image data for position confirmation image or the shooting showing a detected face region from the image data in response to that is,
The face detection unit detects a face area of the subject based on the image data for shooting confirmation in response to the recording instruction unit receiving an input of the recording instruction,
When the face detection unit detects at least one face area from the image data for shooting confirmation in response to the input of the recording instruction, an image showing the position of the face area detected from the image data for shooting confirmation is displayed. A photographing apparatus comprising: a display control unit that controls the display unit to display the image together with the image data for photographing confirmation.
前記表示制御部は、前記選択部が選択した前記第1の映像または前記第2の映像のいずれか一方を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御する請求項1または2に記載の撮影装置。 The first image, which is an image showing the position of the face area detected in response to the input of the acquisition preparation instruction, or the position of the face area detected in response to the input of the recording instruction A selection unit capable of selecting which of the second images to be displayed is to be displayed;
The display control unit controls the display unit to display either the first video or the second video selected by the selection unit together with the image data for shooting confirmation. The imaging device according to 2.
前記顔検出部により、前記記録指示部が前記記録指示の入力を受け付けたことに応じ、前記撮影確認用の画像データに基づいて前記被写体の顔領域を検出するステップと、
前記顔検出部が前記記録指示の入力に応じ、前記撮影確認用の画像データから少なくとも1つの顔領域を検出した場合、前記撮影確認用の画像データから検出された顔領域の位置を示す映像を、前記撮影確認用の画像データとともに表示するよう前記表示部を制御するステップと、
を含む撮影方法。 An imaging element that receives light incident from a subject via a photographic lens, continuously converts it into a photographic signal and outputs it, and an image data converter that converts the photographic signal output from the imaging element into image data and outputs the image data An instruction unit for inputting an acquisition preparation instruction and a recording instruction for the image data, and face detection for detecting a face area from the image data from the image data conversion unit in response to the acquisition preparation instruction being input to the instruction unit The recording instruction is input to the adjustment unit that executes adjustment processing of photographing conditions including at least one of focusing and exposure control for the face area detected by the face detection unit, and the instruction unit A recording unit for recording image data for shooting confirmation, which is a shooting signal output from the shooting element in response to exposure of the shooting element, and at least the acquisition preparation instruction An imaging method in an imaging apparatus comprising a display unit capable of displaying a video indicating a position of a face area detected from the image data in response to the image data, the image data for shooting confirmation, and other video. ,
Detecting the face area of the subject based on the image data for shooting confirmation in response to the recording instruction unit receiving an input of the recording instruction by the face detection unit;
When the face detection unit detects at least one face area from the image data for shooting confirmation in response to the input of the recording instruction, an image showing the position of the face area detected from the image data for shooting confirmation is displayed. Controlling the display unit to display together with the image data for shooting confirmation;
Including shooting method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006192182A JP2008022280A (en) | 2006-07-12 | 2006-07-12 | Imaging apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006192182A JP2008022280A (en) | 2006-07-12 | 2006-07-12 | Imaging apparatus, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008022280A true JP2008022280A (en) | 2008-01-31 |
Family
ID=39077916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006192182A Pending JP2008022280A (en) | 2006-07-12 | 2006-07-12 | Imaging apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008022280A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239696A (en) * | 2008-03-27 | 2009-10-15 | Sony Corp | Imaging apparatus, character information association method and character information association program |
JP2009302835A (en) * | 2008-06-12 | 2009-12-24 | Sony Corp | Image processor and image processing method |
JP2010028354A (en) * | 2008-07-17 | 2010-02-04 | Canon Inc | Imaging apparatus, imaging method, program, and recording medium |
JP2010041621A (en) * | 2008-08-07 | 2010-02-18 | Canon Inc | Imaging device, its control method, and program |
CN114830628A (en) * | 2019-11-25 | 2022-07-29 | 富士胶片株式会社 | Image making method |
CN114830628B (en) * | 2019-11-25 | 2024-04-26 | 富士胶片株式会社 | Image making method |
-
2006
- 2006-07-12 JP JP2006192182A patent/JP2008022280A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239696A (en) * | 2008-03-27 | 2009-10-15 | Sony Corp | Imaging apparatus, character information association method and character information association program |
JP4517310B2 (en) * | 2008-03-27 | 2010-08-04 | ソニー株式会社 | Imaging apparatus, character information association method, and character information association program |
US8705878B2 (en) | 2008-03-27 | 2014-04-22 | Sony Corporation | Imaging apparatus, character information association method and character information association program |
JP2009302835A (en) * | 2008-06-12 | 2009-12-24 | Sony Corp | Image processor and image processing method |
JP2010028354A (en) * | 2008-07-17 | 2010-02-04 | Canon Inc | Imaging apparatus, imaging method, program, and recording medium |
JP2010041621A (en) * | 2008-08-07 | 2010-02-18 | Canon Inc | Imaging device, its control method, and program |
CN114830628A (en) * | 2019-11-25 | 2022-07-29 | 富士胶片株式会社 | Image making method |
CN114830628B (en) * | 2019-11-25 | 2024-04-26 | 富士胶片株式会社 | Image making method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4654974B2 (en) | Imaging apparatus and imaging method | |
JP4626425B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4683339B2 (en) | Image trimming device | |
JP4661413B2 (en) | Imaging apparatus, number of shots management method and number of shots management program | |
JP4943769B2 (en) | Imaging apparatus and in-focus position search method | |
JP4904243B2 (en) | Imaging apparatus and imaging control method | |
US7889985B2 (en) | Imaging apparatus | |
JP2008131094A (en) | Imaging apparatus and method | |
JP4683228B2 (en) | Image display device, photographing device, image display method and program | |
JP4623299B2 (en) | Imaging apparatus and imaging method | |
JP2005311699A (en) | Imaging apparatus and display control method | |
JP2006145629A (en) | Imaging apparatus | |
JP2007306418A (en) | Imaging apparatus and imaging control method | |
JP2008141617A (en) | Photographing apparatus, face detection method thereof and image recording method | |
JP2007104108A (en) | Imaging apparatus, emission luminance control method and program | |
JP2008022280A (en) | Imaging apparatus, method, and program | |
JP2007274598A (en) | Imaging apparatus and photographing condition display method | |
JP4697604B2 (en) | Imaging apparatus and imaging control method | |
JP5134116B2 (en) | Imaging apparatus and in-focus position search method | |
JP2008129082A (en) | Image taking device and light emission control method | |
JP4534253B2 (en) | Imaging device | |
JP2007178453A (en) | Imaging apparatus and imaging method | |
JP2011078143A (en) | Photographing apparatus, face detecting method thereof and image recording method | |
JP2007295390A (en) | Imaging apparatus, and warning method | |
JP2006352252A (en) | Image recorder, image recording/reproducing method and program |