JP2008263478A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2008263478A JP2008263478A JP2007105567A JP2007105567A JP2008263478A JP 2008263478 A JP2008263478 A JP 2008263478A JP 2007105567 A JP2007105567 A JP 2007105567A JP 2007105567 A JP2007105567 A JP 2007105567A JP 2008263478 A JP2008263478 A JP 2008263478A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image data
- imaging
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置に関し、特に連写機能を有する撮像装置に関するものである。 The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus having a continuous shooting function.
従来よりデジタルカメラやデジタルビデオカメラ等の撮像装置において、画像データから顔等の対象物を検出し、その対象物の検出結果に基づいて自動露出制御や自動合焦制御等を行って被写体を撮像する撮像方法が知られている。またユーザの所望する撮影画像を取得するために、被写体に対して複数の撮影いわゆる連写を行う連写機能を有する撮像装置も知られている。そこで近年、このような連写機能を有する撮像装置において、顔検出を利用することにより連写により取得される画像の画質を向上させた撮像装置が提案されている。 Conventionally, in an imaging device such as a digital camera or digital video camera, an object such as a face is detected from image data, and the subject is imaged by performing automatic exposure control, automatic focusing control, etc. based on the detection result of the object. An imaging method is known. There is also known an imaging apparatus having a continuous shooting function for performing a plurality of shootings, so-called continuous shooting, on a subject in order to acquire a captured image desired by a user. Therefore, in recent years, an imaging apparatus that improves the image quality of an image acquired by continuous shooting by using face detection has been proposed in an imaging apparatus having such a continuous shooting function.
しかしながら、上記のような撮像装置では、連写により得られた複数の画像において、必ずしも全ての画像から顔が検出できるものではなく、顔が未検出となったときには、被写体中に顔が存在しているにも関わらず、被写体の明るさ(輝度)やピント(合焦位置)、ホワイトバランス等が、顔が存在しないとして設定されてしまう問題があった。 However, in the imaging apparatus as described above, in a plurality of images obtained by continuous shooting, a face cannot always be detected from all images. When a face is not detected, the face exists in the subject. In spite of this, there is a problem that the brightness (luminance), focus (focus position), white balance, etc. of the subject are set as no face exists.
そこで連写中に顔が検出されなかった場合、所定時間内に得られた顔検出結果に基づいて自動露出制御や自動合焦制御等を行う撮像装置が提案されている(特許文献1)。
しかしながら、特許文献1に記載された上記撮像装置は、所定時間内に得られた顔検出結果つまり顔が未検出であった画像とは異なる時刻に撮像された画像の顔検出結果を使用するため、顔情報の精度が低減してしまう虞がある。また精度を向上させるために未検出であった画像の前後の画像データにおける顔情報を補間処理し算出した顔情報を使用する方法は、連写において少なくとも前後の撮像により得られた画像を記憶してから顔情報を算出するので、算出された顔情報は、撮像後に算出可能な画像処理パラメータの算出に使用することは可能であるが、撮像時には既に決定している必要がある撮像制御パラメータの算出に使用することは困難である。
However, the imaging device described in
本発明はかかる事情に鑑みてなされたものであり、連写時に取得した画像データにおいて顔等の対象物が検出できないときでも、連写時に取得した全ての画像において、画像毎に対象物に照準の合った最適なパラメータを使用することにより、対象物に対して最適な画質にすることができる撮像装置を提供することを目的とするものである。 The present invention has been made in view of such circumstances, and even when an object such as a face cannot be detected in image data acquired at the time of continuous shooting, the object is aimed at each image in all images acquired at the time of continuous shooting. It is an object of the present invention to provide an imaging apparatus that can achieve an optimum image quality for an object by using optimal parameters that match each other.
本発明の撮像装置は、被写体を撮像して画像データを取得する、連写機能を有する撮像手段と、
画像データから所定の対象物を検出する対象物検出手段と、
対象物検出手段により検出された対象物の画像データにおける領域情報を記憶する記憶手段と、
対象物検出手段が連写中に取得した画像データから対象物を検出できないとき、記憶手段に直前に記憶された1つ以上の対象物の領域情報から、前記取得した画像データにおける対象物の領域情報を推定する対象物領域推定手段と、
推定された対象物の領域情報に基づいて、前記取得した画像データに対して施す画像処理のパラメータ及び/又は直後の撮像における撮像制御のパラメータを算出するパラメータ算出手段とを備えていることを特徴とするものである。
An imaging apparatus according to the present invention includes an imaging unit having a continuous shooting function that captures an image of a subject and acquires image data;
Object detection means for detecting a predetermined object from the image data;
Storage means for storing region information in the image data of the object detected by the object detection means;
When the object detection means cannot detect the object from the image data acquired during continuous shooting, the area of the object in the acquired image data is obtained from the area information of one or more objects stored immediately before in the storage means. Object region estimation means for estimating information;
Parameter calculation means for calculating parameters of image processing to be performed on the acquired image data and / or parameters of imaging control in the immediately subsequent imaging based on the estimated area information of the object. It is what.
本発明の撮像装置は、前記領域情報が、位置情報及び/又は大きさ情報であることが好ましい。 In the imaging apparatus of the present invention, it is preferable that the area information is position information and / or size information.
また本発明の撮像装置は、前記領域情報が位置情報を含むときに、
対象物領域推定手段が、記憶手段に直前に記憶された1つ以上の対象物の位置情報から該対象物の移動軌跡を直線又は曲線で近似し、該近似された移動軌跡に基づいて前記取得した画像データにおける対象物の位置情報を推定することができる。
In the imaging apparatus of the present invention, when the area information includes position information,
The object region estimation means approximates the movement trajectory of the object by a straight line or a curve from the position information of one or more objects stored immediately before in the storage means, and the acquisition is performed based on the approximated movement trajectory. It is possible to estimate the position information of the object in the obtained image data.
また本発明の撮像装置は、前記領域情報が大きさ情報を含むときに、
対象物領域推定手段が、記憶手段に直前に記憶された1つ以上の対象物の大きさ情報から該対象物の大きさ変動を直線又は曲線で近似し、該近似された大きさ変動に基づいて前記取得した画像データにおける対象物の大きさ情報を推定することができる。
In the imaging apparatus of the present invention, when the area information includes size information,
The object region estimation means approximates the size variation of the target object with a straight line or a curve from the size information of one or more objects stored immediately before in the storage means, and based on the approximate size variation Thus, the size information of the object in the acquired image data can be estimated.
なお本発明の撮像装置は、画像処理パラメータが、ホワイトバランス調整処理、ノイズ低減処理、輪郭強調処理のいずれか1つ以上のパラメータであることが好ましい。 In the imaging apparatus of the present invention, it is preferable that the image processing parameter is one or more parameters of white balance adjustment processing, noise reduction processing, and edge enhancement processing.
また本発明の撮像装置は、撮像制御パラメータが、自動露出及び/又は自動焦点の設定値であることが好ましい。 In the imaging apparatus of the present invention, it is preferable that the imaging control parameter is a set value of automatic exposure and / or autofocus.
本発明の撮像装置によれば、連写中に取得した画像データから対象物を検出できないとき、記憶手段に直前に記憶された1つ以上の対象物の領域情報から、前記取得した画像データにおける対象物の領域情報を推定し、推定された対象物の領域情報に基づいて、前記取得した画像データに対して施す画像処理のパラメータ及び/又は直後の撮像における撮像制御のパラメータを算出するので、前記取得した画像データにおける対象物の領域情報を、次の撮像により取得される画像データを使用せずに、直前つまり過去に記憶された対象物の領域情報から推定することができるため、推定された対象物の領域情報は、撮像後に算出可能な画像処理パラメータの算出に使用することができると共に撮像時には既に決定している必要がある撮像制御パラメータの算出にも使用することができる。 According to the imaging apparatus of the present invention, when the object cannot be detected from the image data acquired during the continuous shooting, the area information of one or more objects stored immediately before in the storage unit is used to determine the acquired image data. Since the area information of the object is estimated, and based on the estimated area information of the object, the parameters of the image processing to be performed on the acquired image data and / or the parameters of the imaging control in the immediately subsequent imaging are calculated. Since the area information of the object in the acquired image data can be estimated from the area information of the object stored immediately before, that is, in the past without using the image data acquired by the next imaging, it is estimated. The target area information can be used to calculate image processing parameters that can be calculated after imaging, and imaging control that must already be determined at the time of imaging It can also be used in the calculation of the parameters.
これにより連写時に取得した画像データにおいて対象物が検出できないときでも、連写時に取得した全ての画像において、画像毎に対象物に照準の合った最適なパラメータを使用することができるので、対象物に対して最適な画質の画像を取得することができる。 As a result, even when the target object cannot be detected in the image data acquired at the time of continuous shooting, it is possible to use optimal parameters that are aimed at the target object for each image in all images acquired at the time of continuous shooting. It is possible to acquire an image having an optimum image quality for an object.
以下、本発明にかかる撮像装置の一実施形態を、図面を参照して詳細に説明する。尚、以下の実施の形態では、本発明における撮像装置としてデジタルカメラを例に説明するが、本発明の適用範囲はこれに限定されず、例えば、カメラ付き携帯電話、カメラ付きPDA等、電子撮像機能を備えた他の電子機器に対しても適用可能である。 Hereinafter, an embodiment of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In the following embodiments, a digital camera will be described as an example of the imaging apparatus in the present invention. However, the scope of the present invention is not limited to this, and for example, electronic imaging such as a mobile phone with a camera, a PDA with a camera, etc. The present invention can also be applied to other electronic devices having functions.
図1及び図2は、デジタルカメラの一例を示すものであり、それぞれ背面側及び前面側から見た斜視図である。デジタルカメラ1の本体10の背面には、図1に示す如く、撮影者による操作のためのインターフェースとして、動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻る)ボタン15、表示切替ボタン16が設けられ、更に撮影のためのファインダ17及び撮影並びに再生のための液晶モニタ18が設けられている。また本体10の上面には、シャッタボタン19が設けられている。
1 and 2 show an example of a digital camera, and are perspective views seen from the back side and the front side, respectively. As shown in FIG. 1, an
動作モードスイッチ11は、静止画撮影モード、動画撮影モード、再生モードの各動作モードを切り替えるためのスライドスイッチである。
The
メニュー/OKボタン12は、押下される毎に撮影モード、フラッシュ発光モード、顔検出連写モード、セルフタイマーON/OFF、記録画素数や感度等の設定を行うための各種メニューを液晶モニタ18に表示させたり、液晶モニタ18に表示されたメニューに基づく選択・設定を確定させたりするためのボタンである。顔検出連写モードは、顔検出機能を使用して被写体を連写するモードである。なおメニュー/OKボタン12により、撮影モードを露出やホワイトバランスを全て自動で設定するためのオートモード、及びマニュアルで設定するためのマニュアルモードに設定可能である。
Each time the menu /
ズーム/上下矢印レバー13は、上下方向にレバーを倒すことによって、撮影時には望遠/広角の調整を行い、各種設定時に液晶モニタ18に表示されるメニュー画面中のカーソルを上下に移動して表示させるためのレバーである。左右矢印ボタン14は、各種設定時に液晶モニタ18に表示されるメニュー画面中のカーソルを左右に移動して表示させるためのボタンである。
The zoom / up / down arrow lever 13 tilts the lever in the up / down direction to adjust the telephoto / wide angle during shooting, and moves the cursor in the menu screen displayed on the
Back(戻る)ボタン15は、押下されることによって各種設定操作を中止し、液晶モニタ18に1つ前の画面を表示するためのボタンである。表示切替ボタン16は、押下されることによって液晶モニタ18の表示のON/OFF、各種ガイド表示、文字表示のON/OFF等を切り替えるためのボタンである。
The
ファインダ17は、撮影者が被写体を撮影する際に構図やピントを合わせるために覗くためのものである。ファインダ17から見える被写体像は、本体10の前面にあるファインダ窓23を介して映し出される。
The
以上説明した各ボタン及びスイッチ等の操作によって設定された内容は、液晶モニタ18中の表示や、ファインダ17内のランプ、スライドレバーの位置等によって確認可能となっている。
The contents set by the operation of each button and switch described above can be confirmed by the display on the
また液晶モニタ18は、撮影の際に被写体確認用のスルー画像が表示されることにより、電子ビューファインダとして機能する他、撮影後の静止画や動画の再生表示、各種設定メニューの表示を行う。
The
更に、本体10の前面には、図2に示す如く、撮影レンズ20、レンズカバー21、電源スイッチ22、ファインダ窓23、フラッシュライト24及びセルフタイマーランプ25が設けられ、側面にはメディアスロット26が設けられている。
Further, as shown in FIG. 2, a photographing
撮影レンズ20は、被写体像を所定の結像面上(本体10内部にあるCCD等)に結像させるためのものであり、フォーカスレンズやズームレンズ等によって構成される。レンズカバー21は、デジタルカメラ1の電源がオフ状態のとき、再生モードであるとき等に撮影レンズ20の表面を覆い、汚れやゴミ等から撮影レンズ20を保護するものである。
The
電源スイッチ22は、デジタルカメラ1の電源のON/OFFを切り替えるためのスイッチである。フラッシュライト24は、シャッタボタン19が押下され、本体10の内部にあるシャッタが開いている間に、撮影に必要な光を被写体に対して瞬間的に照射するためのものである。
The
セルフタイマーランプ25は、セルフタイマーによって撮影する際に、シャッタの開閉タイミングすなわち露光の開始及び終了を被写体に知らせるためものである。メディアスロット26は、メモリカード等の外部記録メディア70が充填されるための充填口であり、外部記録メディア70が充填されると、データの読み取り/書き込みが行われる。
The self-
図3にデジタルカメラ1の機能構成を示すブロック図を示す。図3に示す如く、デジタルカメラ1の操作系として、前述の動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻り)ボタン15、表示切替ボタン16、シャッタボタン19、電源スイッチ22と、これらのスイッチ、ボタン、レバー類の操作内容をCPU75に伝えるためのインターフェースである操作系制御部74が設けられている。
FIG. 3 is a block diagram showing the functional configuration of the
また、撮影レンズ20を構成するものとして、フォーカスレンズ20a及びズームレンズ20bが設けられている。これらの各レンズは、モータとモータドライバからなるフォーカスレンズ駆動部51、ズームレンズ駆動部52によってステップ駆動され、光軸方向に移動可能な構成となっている。フォーカスレンズ駆動部51は、AF処理部62から出力されるフォーカス駆動量データに基づいてフォーカスレンズ20aをステップ駆動する。ズームレンズ駆動部52は、ズーム/上下矢印レバー13の操作量データに基づいてズームレンズ20bのステップ駆動を制御する。
Further, a
絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。この絞り駆動部55は、AE(自動露出)処理部63から出力される絞り値データに基づいて絞り54の絞り径の調整を行う。
The
シャッタ56は、メカニカルシャッタであり、モータとモータドライバとからなるシャッタ駆動部57によって駆動される。シャッタ駆動部57は、シャッタボタン19の押下により発生する信号と、AE処理部63から出力されるシャッタ速度データとに応じてシャッタ56の開閉の制御を行う。
The
上記光学系の後方には、撮影素子であるCCD58を有している。CCD58は、多数の受光素子がマトリクス状に配置されてなる光電面を有しており、光学系を通過した被写体光が光電面に結像され、光電変換される。光電面の前方には、各画素に光を集光させるためのマイクロレンズアレイ(不図示)と、RGB各色のフィルタが規則的に配列されてなるカラーフィルタアレイ(不図示)とが配置されている。
At the back of the optical system, there is a
CCD58は、CCD制御部59から供給される垂直転送クロック信号及び水平転送クロック信号に同期して、画素毎に蓄積された電荷を1ラインずつ読み出してシリアルなアナログ画像信号として出力する。各画素における電荷の蓄積時間、即ち露出時間は、CCD制御部59から与えられる電子シャッタ駆動信号によって決定される。そして上記光学系及びCCD58、CCD制御部59を含めて撮像部(撮像手段)100が構成される。
The
CCD58が出力するアナログ画像信号は、アナログ信号処理部60に入力される。このアナログ信号処理部60は、アナログ画像信号のノイズ除去を行う相関2重サンプリング回路(CDS)と、アナログ画像信号のゲイン調整を行うオートゲインコントローラ(AGC)と、アナログ画像信号をデジタル画像データに変換するA/Dコンバータ(ADC)とからなる。そしてこのデジタル信号に変換されたデジタル画像データは、画素毎にRGBの濃度値を持つCCD−RAWデータである。
The analog image signal output from the
タイミングジェネレータ72は、タイミング信号を発生させるものであり、このタイミング信号がシャッタ駆動部57、CCD制御部59、アナログ信号処理部60に入力されて、シャッタボタン19の操作と、シャッタ56の開閉、CCD58の電荷取り込み、アナログ信号処理60の処理の同期が取られる。フラッシュ制御部73は、フラッシュ24の発光動作を制御する。
The
画像入力コントローラ61は、上記アナログ信号処理部60から入力されたCCD−RAWデータをフレームメモリ66に書き込む。このフレームメモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。
The
表示制御部71は、フレームメモリ66に格納された画像データをスルー画像として液晶モニタ18に表示させるためのものであり、例えば、輝度(Y)信号と色(C)信号を一緒にして1つの信号としたコンポジット信号に変換して、液晶モニタ18に出力する。スルー画像は、撮影モードが選択されている間、所定時間間隔で取得されて液晶モニタ18に表示される。また、表示制御部71は、外部記録メディア70に記憶され、メディア制御部67によって読み出された画像ファイルに含まれる画像データに基づいた画像を液晶モニタ18に表示させる。
The
顔検出部(対象物検出手段)69は、画像データから人物の顔を検出するためのものであり、顔検出連写モードが選択されているときにONに設定される。顔検出部69は、具体的には、顔に含まれる顔の特徴、すなわち顔らしさを有する領域(例えば肌色を有する、目を有する、顔の形状を有する等)を顔領域として算出するものであり、画像データの各領域毎に取得される顔らしさを表す顔評価値が所定の閾値よりも大きい値であるときに、顔があると判断する。なお「顔評価値」とは顔らしさを表す数値であり、例えば口らしさ、目らしさ、鼻らしさ等を総合的に評価して定量化したものである。
The face detection unit (object detection means) 69 is for detecting a human face from image data, and is set to ON when the face detection continuous shooting mode is selected. Specifically, the
また顔検出部69は、例えば図示しない顔検出ボタンによって顔検出のON/OFFを設定するようにしてもよいし、メニュー/OKボタン12等によって顔検出のON/OFFを選択するようにしてもよいし、適宜変更可能である。
Further, the
本実施形態では、人物の顔を検出するものとして以下説明するが、動物の顔や自動車等、特徴点すなわちその対象物らしさを有するものであれば別の対象物を検出するようにしてもよい。そして顔検出がONに設定された場合には常時スルー画像から顔の検出処理が行われる。 In this embodiment, the following description will be made on the assumption that a human face is detected. However, another object may be detected as long as it has a feature point, that is, an object-like character, such as an animal face or a car. . When face detection is set to ON, face detection processing is always performed from a through image.
顔領域推定部(対象物領域推定手段)83は、連写中に顔検出部69が撮像部100により取得された画像データから顔を検出できないときに、顔の領域情報を推定する。なおこの顔領域推定部83については、後で詳細に説明する。
A face area estimation unit (object area estimation unit) 83 estimates face area information when the
パラメータ算出部(パラメータ算出手段)80は、画像データにおける顔領域情報に基づいて算出されるものであり、画像データに対して施す画像処理のパラメータ及び/又は撮像における撮像制御のパラメータすなわち撮像部100の設定値を算出する。
The parameter calculation unit (parameter calculation means) 80 is calculated based on face area information in the image data, and is a parameter for image processing applied to the image data and / or a parameter for imaging control in imaging, that is, the
画像処理パラメータとしては、画像データのホワイトバランスの調整処理、ノイズ低減処理、輪郭強調処理(シャープネス処理)等のパラメータがあり、パラメータ算出部80はこれらパラメータのうちいずれか1つ以上のパラメータを算出する。なおホワイトバランスの調整処理のパラメータは、後述のAWB処理部64を介して算出される。
Image processing parameters include parameters such as white balance adjustment processing of image data, noise reduction processing, and contour enhancement processing (sharpness processing). The
撮像制御パラメータとしては、後述する自動焦点処理(AF処理)や自動露出処理(AE処理)等の設定値があり、パラメータ算出部80はこれら設定値の少なくとも一方を算出する。なお自動焦点の設定値(合焦設定値)は後述のAF処理部62を介して、自動露出の設定値(露出設定値)は後述のAE処理部63を介してそれぞれ算出される。
As the imaging control parameters, there are set values such as an automatic focus process (AF process) and an automatic exposure process (AE process) described later, and the
なお本実施形態におけるパラメータ算出部80は上記画像処理パラメータと撮像制御パラメータの両方を算出するものとするが、本発明はこれに限られるものではなく、どちらか一方のみを算出することも可能である。
The
AF処理部62は、画像データに基づいて焦点位置を検出して合焦設定値(フォーカス駆動量)を決定し、フォーカス駆動量データを出力する(AF処理)。焦点位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するパッシブ方式が適用される。
The
AE処理部63は、画像データに基づいて被写体輝度(測光値)を測定し、測定した被写体輝度に基づいて絞り値及びシャッタスピード等の露出設定値を決定し、絞り値データ及びシャッタスピードデータを出力する(AE処理)。
The
AWB処理部64は、撮像時のホワイトバランスを自動調整する(AWB処理)。なお、AWB処理部64は、撮像前でも、本撮像後でもホワイトバランスの調整を行うことができる。
The
なお、露出及びホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1の撮影者がマニュアル操作により設定可能である。また、露出及びホワイトバランスが自動で設定された場合にも、撮影者が操作系から指示を行うことにより、露出及びホワイトバランスをマニュアル調整することが可能である。
The exposure and white balance can be set manually by the photographer of the
画像処理部(画像処理手段)68は、本画像の画像データに対してガンマ補正処理、輪郭強調(シャープネス)処理、コントラスト処理、ノイズ低減処理等の画質補正処理を施すと共に、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータ及び赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。このときノイズ低減処理及び輪郭強調処理は上述のパラメータ算出部により算出されたパラメータに基づいて行うものとする。 An image processing unit (image processing means) 68 performs gamma correction processing, contour enhancement (sharpness) processing, contrast processing, noise reduction processing, and other image quality correction processing on the image data of the main image, and converts the CCD-RAW data. YC processing is performed for conversion into YC data composed of Y data that is a luminance signal, Cb data that is a blue color difference signal, and Cr data that is a red color difference signal. At this time, the noise reduction processing and the contour enhancement processing are performed based on the parameters calculated by the parameter calculation unit described above.
なお本画像とは、撮影者によって撮像指示がなされた時、例えばシャッタボタン19が全押し操作された時にCCD58から取り込まれ、アナログ信号処理部60、画像入力コントローラ61経由でフレームメモリ66に格納された画像データによる画像である。本画像の画素数の上限はCCD58の画素数によって決定されるが、例えば、撮影者が設定可能な画質設定(ファイン、ノーマル等の設定)により、記録画素数を変更することができる。一方、スルー画像等の画素数は本画像より少なくてもよく、例えば、本画像の1/16程度の画素数で取り込まれてもよい。
Note that the main image is taken in from the
圧縮/伸長処理部65は、画像処理部68によって画質補正等の処理が行われた本画像の画像データに対して、例えばJPEG等の圧縮形式で圧縮処理を行って、画像ファイルを生成する。この画像ファイルには、Exif形式等に基づいて、撮影日時や、連写時に何番目に撮像された画像であるか等の付帯情報が格納されたタグが付加される。またこの圧縮/伸長処理部65は、再生モードにおいては外部記録メディア70から圧縮された画像ファイルを読み出し、伸長処理を行う。伸長後の画像データは表示制御部71に出力され、表示制御部71は画像データに基づいた画像を液晶モニタ18に表示する。
The compression /
メディア制御部67は、図2におけるメディアスロット26に相当し、外部記録メディア70に記憶された画像ファイル等の読み出し、又は画像ファイルの書き込みを行う。
The
内部メモリ(記憶手段)85は、デジタルカメラ1において設定される各種定数、及び、CPU75が実行するプログラム等を格納すると共に顔検出部69により検出された顔の画像データにおける領域情報を記憶する。この領域情報は、位置情報及び/又は大きさ情報である。なおこの内部メモリ85には、上述の顔らしさの評価値、顔の明るさ、顔の色味(色相)、顔の中央度、正面顔や横顔等の顔の向き等も記憶される。
The internal memory (storage means) 85 stores various constants set in the
撮像制御部(撮像制御手段)81は、パラメータ算出部80により決定された撮像制御御パラメータに基づいて撮像が行われるように、撮像部100を設定するものであり、合焦設定値に基づいてフォーカスレンズ駆動部51を制御すると共に、露出設定値に基づいて、絞り駆動部55及びシャッタ駆動部57を制御する。なおこの撮像制御部81はCPU75の機能の一部としてもよい。
The imaging control unit (imaging control unit) 81 sets the
CPU75は、各種ボタン、レバー、スイッチの操作や各機能ブロックからの信号に応じて、デジタルカメラ1の本体各部を制御する。またデータバス76は、画像入力コントローラ61、各種処理部62〜65、68、フレームメモリ66、各種制御部67、71、81、顔検出部69、パラメータ算出部80、撮像制御部81、内部メモリ82、顔領域推定部83及びCPU75に接続されており、このデータバス76を介して各種信号、データの送受信が行われる。
The
次に、以上の構成のデジタルカメラ1において連写時に行われる処理について説明する。図4は顔検出連写モードが選択されたときのデジタルカメラ1の連写処理のフローチャートである。なおこの連写処理の前後は、顔検出がONに設定された撮影モードであり、この状態からさらに連写モードが選択されることにより、顔検出連写モードとなる。したがって連写処理の前後では、液晶モニタ18にスルー画像が表示され、このスルー画像において所定間隔にて顔検出が繰り返し行われて、この顔検出結果は内部メモリ82に記憶される。なおこの顔検出結果は、例えばユーザが予め設定した個数を記憶したときには、次回の顔検出結果は、古い顔検出結果に上書きして記憶するように設定してもよい。
Next, processing performed during continuous shooting in the
連写処理は、まず図4に示す如く、ユーザが撮影枚数Nを設定する(ステップS1)。なお撮影枚数Nの設定は、例えば液晶モニタ18に撮影枚数を複数表示し、ユーザがメニュー/OKボタン12等を操作することにより選択/確定するようにしてもよい。
In the continuous shooting process, first, as shown in FIG. 4, the user sets the number N of shots (step S1). The number of shots N may be set / selected by, for example, displaying a plurality of shots on the liquid crystal monitor 18 and operating the menu /
次に撮像部100が被写体の撮像を行い(ステップS2)、顔検出部69がこの撮像により取得された画像データから顔の検出を行う(ステップS3)。そして顔が検出されていない場合は(ステップS4;NO)、顔領域推定部83が、この取得された画像データにおける顔の領域情報を推定する(ステップS11)。
Next, the
ここで顔領域推定部83による顔の領域の推定処理を詳細に説明する。本実施形態では、顔の領域情報は顔の位置情報及び大きさ情報とするため、先ず顔の位置の推定処理について説明する。図5に顔位置の推移を示すグラフ、図6に顔の大きさの推移を示すグラフ、図7(a)に顔位置の推定処理を説明する図、図7(b)に顔の大きさの推定処理を説明する図をそれぞれ示す。
Here, the face area estimation processing by the face
先ず顔の位置の移動を算出するために、図7(a)に示す如く、顔領域から特徴点を一点、算出点として選択する。本実施形態では算出点を右目とするが、本発明はこれに限られるものではなく、例えば鼻であっても左右の目の中間点であっても顔領域の重点等であってもよく、適宜変更可能である。 First, in order to calculate the movement of the face position, as shown in FIG. 7A, one feature point is selected as a calculation point from the face area. In this embodiment, the calculation point is the right eye, but the present invention is not limited to this, for example, it may be the nose, the midpoint of the left and right eyes, or the emphasis of the face area, It can be changed as appropriate.
そして顔検出結果として、図7(a)に示す如く、例えば画像データPの左下を原点に設定して顔の位置情報を記録しておき、この顔領域をX軸(横軸)とY軸(縦軸)からなる座標上に配置して、算出点としての目のX軸方向及びY軸方向の座標点を検出する。例えば内部メモリ82に記憶された顔の領域情報が、過去から順に顔F1、顔F2、顔F3の3つある場合には、それぞれ座標点(X,Y)は顔F1(X1,Y1)、顔F2(X2,Y2)、顔F3(X3,Y3)となる。
As the face detection result, as shown in FIG. 7A, for example, the position information of the face is recorded by setting the lower left of the image data P as the origin, and this face area is recorded on the X axis (horizontal axis) and the Y axis. It arranges on the coordinates which consist of (vertical axis), and detects the coordinate point of the X-axis direction and Y-axis direction of eyes as a calculation point. For example, when the face area information stored in the
そして顔の位置の推定処理は、ステップS2における撮像の直前に記憶された1つ以上(本実施形態では5つ)の顔の位置情報から、上述のように顔Fすなわち目の座標点をそれぞれ検出し、X軸方向については図5(a)に示す如く、横軸を時間とする座標上に配置し(黒丸)、時間経過に伴う顔の動きを直線近似して、この近似直線上の点(白丸)を、ステップS2にて取得した画像データにおいて推定したX軸方向の顔位置とする。 In the face position estimation process, the face F, that is, the coordinate point of the eye is respectively determined as described above from one or more (five in the present embodiment) face position information stored immediately before imaging in step S2. As shown in FIG. 5 (a), the X-axis direction is arranged on the coordinate with the horizontal axis as time (black circle), and the face motion with the passage of time is linearly approximated. The point (white circle) is set as the face position in the X-axis direction estimated in the image data acquired in step S2.
同様にしてY軸方向についても図5(b)に示す如く、時間経過に伴う顔の動きを直線近似して、この近似直線上の点(白丸)を、前記取得した画像データにおいてしたY軸方向の顔位置とする。このようにして連写時に顔が検出できなかった画像データにおける顔位置を推定する。 Similarly, in the Y-axis direction, as shown in FIG. 5 (b), the movement of the face over time is linearly approximated, and a point (white circle) on the approximated line is represented by the Y-axis in the acquired image data. The face position in the direction. In this way, the face position in the image data where the face could not be detected during continuous shooting is estimated.
次に顔の大きさの推定処理について説明する。顔の大きさの推定処理は上記顔位置の推定処理と同様に、図7(b)に示す如く、画像データPの左下を原点に設定して顔の領域すなわち大きさ情報を記録しておき、この顔領域を顔の横サイズ方向C(横軸)と顔の縦サイズ方向L(縦軸)からなる座標上に配置して、顔領域の上端点と下端点との差分値すなわち顔の縦サイズΔL及び顔領域の左端点と右端点との差分値すなわち顔の横サイズΔCを検出する。 Next, face size estimation processing will be described. Similar to the face position estimation process, the face size estimation process records the face area, that is, the size information by setting the lower left of the image data P as the origin, as shown in FIG. The face area is arranged on the coordinates of the horizontal size direction C (horizontal axis) of the face and the vertical size direction L (vertical axis) of the face, and the difference value between the upper end point and the lower end point of the face area, that is, the face The vertical size ΔL and the difference value between the left end point and the right end point of the face area, that is, the face horizontal size ΔC are detected.
そして上記顔の位置の推定処理と同様に、ステップS2における撮像の直前に記憶された1つ以上(本実施形態では5つ)の顔の大きさ情報から、上述のように顔Fの縦サイズΔL及び横サイズΔCそれぞれ検出し、縦サイズΔLについては図6(a)に示す如く、横軸を時間とする座標上に配置し(黒丸)、時間経過に伴う顔の大きさの縦サイズΔLの変化を直線近似して、この近似直線上の点(白丸)を、ステップS2にて取得した画像データにおいて推定した顔の縦サイズΔLとする。同様にしてY軸方向についても図6(b)に示す如く、時間経過に伴う顔の動きを直線近似して、この近似直線上の点(白丸)を前記取得した画像データにおいて推定した顔の横サイズΔCとする。このようにして連写時に顔が検出できなかった画像データにおける顔の大きさを推定する。 Similar to the face position estimation process, the vertical size of the face F as described above is obtained from one or more (five in this embodiment) face size information stored immediately before imaging in step S2. Each of ΔL and horizontal size ΔC is detected, and the vertical size ΔL is arranged on the coordinate with the horizontal axis as time (black circle) as shown in FIG. 6A, and the vertical size ΔL of the face size with the passage of time. And a point (white circle) on the approximate line is set as the face vertical size ΔL estimated in the image data acquired in step S2. Similarly, in the Y-axis direction, as shown in FIG. 6 (b), the movement of the face over time is linearly approximated, and a point (white circle) on the approximate line is estimated in the acquired image data. The horizontal size is ΔC. In this way, the size of the face in the image data that could not be detected during continuous shooting is estimated.
なお例えば連写中、一番目に撮像された画像データから顔が検出されなかったときには、この一番目の撮像の直前に、上述したようにスルー画像から検出され記憶された5つの顔の領域情報を使用して上記と同様に顔位置及び顔の大きさを推定する。また連写中、例えば三番目に撮像された画像データから顔が検出されなかったときには、一番目と二番目に撮像された画像データから検出され記憶された顔の領域情報と、一枚目の直前にスルー画像から検出され記憶された3つの顔の領域情報を使用して顔位置及び顔の大きさを推定する。また6枚の連写を行うときに、六番目に撮像された画像データから顔が検出されなかったときには、一番目〜五番目に撮像された画像データからそれぞれ検出され記憶された顔の領域情報を使用する。 For example, during continuous shooting, when a face is not detected from the first imaged image data, the area information of the five faces detected from the through image and stored as described above immediately before the first imaging. Is used to estimate the face position and face size as described above. Also, during continuous shooting, for example, when a face is not detected from the third imaged image data, the face area information detected and stored from the first and second imaged image data, and the first image The face position and face size are estimated using the three face area information detected and stored immediately before from the through image. In addition, when six consecutive shots are taken, if no face is detected from the sixth imaged image data, face area information detected and stored from the first to fifth imaged image data, respectively. Is used.
このようにして顔が検出できないときには顔領域を推定して(ステップS11)、取得した画像データにおいて推定した顔の領域情報を内部メモリ82に記憶する。このように顔領域を推定することにより、顔が検出されなかった画像データにおいても、顔が存在していることにすることができる。その後、CPU75は処理をステップS5へ移行する。なおステップS5以降の処理は後で詳細に説明する。
When the face cannot be detected in this way, the face area is estimated (step S11), and the estimated face area information in the acquired image data is stored in the
一方、ステップS4にて顔が検出された場合は(ステップS4;YES)、検出された顔の画像データにおける領域情報を内部メモリ82に記憶する。なおこのとき画像データから複数の顔が検出された場合には、顔らしさの評価値、顔の明るさ、顔の色味(色相)、顔の中央度、正面顔や横顔等の顔の向き等を選択基準とし、例えばこの中の一つを基準として代表顔を決定してもよいし、上記選択基準からいくつかを選び、選んだ選択基準に重みを算出して重み基準として代表顔を決定してもよい。また前記選択基準のうち、この顔が検出された画像データの撮像の直前に内部メモリ82に記憶された前記選択基準との差分が最も小さいものを優先的に代表顔としてもよい。内部メモリ82には上記のように決定された代表顔の領域情報を記憶する。
On the other hand, if a face is detected in step S4 (step S4; YES), the area information in the detected face image data is stored in the
そして上述のように顔検出又は推定により顔の領域情報が求められて、内部メモリ82に記憶されると、次にパラメータ算出部80が、内部メモリ82に記憶された、顔の領域情報又は推定された顔の領域情報に基づいて上述した画像処理のパラメータ及び撮像制御パラメータを算出する(ステップS5)。そして撮像制御部81は、ステップS5にて算出された撮像制御パラメータすなわち合焦設定値(フォーカス駆動量)及び露出設定値(絞り値及びシャッタスピード)に従って、次回の撮像用に撮像部100の設定を更新する(ステップS6)。
When face area information is obtained by face detection or estimation as described above and stored in the
次に画像処理部68が、ステップS5にて算出された画像処理パラメータすなわちホワイトバランスの調整処理、ノイズ低減処理、輪郭強調処理(シャープネス処理)のパラメータに従ってステップS2にて取得された画像データに対して画像処理を行う(ステップS7)。なおこのとき画像処理が施された本画像データに対してさらに圧縮/伸長処理部67によって圧縮処理が施されて画像ファイルが生成されてもよい。
Next, the
そしてCPU75は、画像処理が施された本画像データを、メディア制御部67を介して外部記録メディア70に記憶する(ステップS8)。
Then, the
次にCPU75は、撮像回数すなわちステップS2〜ステップS8の処理が何回繰り返されたかをカウントし(ステップS9)、カウント数がステップS1にてユーザにより設定された数Nであるか否かを判別する(ステップS10)。カウント数がNでない場合には(ステップS10;NO)、CPU75は処理をステップS2へ移行して、設定されたカウント数Nになるまで以降の処理を繰り返す。
Next, the
一方、カウント数がNである場合には(ステップS10;YES)、CPU75はメディア制御部67を介してステップS8にて外部記録メディア70に記録された画像ファイルを読み出し、表示制御部71を介して液晶モニタ18に一覧表示する(ステップS12)。このようにしてデジタルカメラ1は、被写体の連写を行う。
On the other hand, if the count is N (step S10; YES), the
以上のようなデジタルカメラ1によれば、連写中に取得した画像データから顔が検出できないときに、前記取得した画像データにおける顔の領域情報を、次の撮像により取得される画像データを使用せずに、直前つまり過去に記憶された顔の領域情報から推定することができるため、推定された顔の領域情報は、撮像後に算出可能な画像処理パラメータの算出に使用することができると共に撮像時には既に決定している必要がある撮像制御パラメータの算出にも使用することができる。これにより連写時に取得した画像データにおいて顔が検出できないときでも、連写時に取得した全ての画像において、画像毎に顔に照準の合った最適なパラメータを使用することにより、顔に対して最適な画質の画像を取得することができる。
According to the
なお本発明の撮像装置は、上述した実施形態のデジタルカメラ1に限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜設計変更可能である。
The image pickup apparatus of the present invention is not limited to the
1 デジタルカメラ(撮像装置)
100撮像部(撮像手段)
18 液晶モニタ
19 シャッタボタン
62 AF(自動焦点)処理部
63 AE(自動露出)処理部
64 AWB処理部
68 画像処理部(画像処理手段)
69 顔検出部(対象物検出手段)
70 外部記録メディア
75 CPU
80 パラメータ算出部(パラメータ算出手段)
81 撮像制御部
82 内部メモリ(記録手段)
83 顔領域推定部(対象物領域推定手段)
1 Digital camera (imaging device)
100 imaging unit (imaging means)
18 Liquid crystal monitor 19
69 Face detection unit (object detection means)
70
80 Parameter calculation unit (parameter calculation means)
81
83 Face area estimation unit (object area estimation means)
Claims (6)
前記画像データから所定の対象物を検出する対象物検出手段と、
該対象物検出手段により検出された対象物の前記画像データにおける領域情報を記憶する記憶手段と、
前記対象物検出手段が連写中に取得した前記画像データから前記対象物を検出できないとき、前記記憶手段に直前に記憶された1つ以上の前記対象物の領域情報から、前記取得した画像データにおける対象物の領域情報を推定する対象物領域推定手段と、
前記推定された対象物の領域情報に基づいて、前記取得した画像データに対して施す画像処理のパラメータ及び/又は直後の撮像における撮像制御のパラメータを算出するパラメータ算出手段とを備えていることを特徴とする撮像装置。 An imaging means having a continuous shooting function for capturing an image of a subject and acquiring image data;
Object detection means for detecting a predetermined object from the image data;
Storage means for storing region information in the image data of the object detected by the object detection means;
When the object detection unit cannot detect the object from the image data acquired during continuous shooting, the acquired image data is obtained from area information of one or more objects stored immediately before in the storage unit. Object region estimation means for estimating region information of the object in
Parameter calculating means for calculating parameters of image processing to be performed on the acquired image data and / or parameters of imaging control in the immediately subsequent imaging based on the estimated area information of the object. An imaging device that is characterized.
前記対象物領域推定手段が、前記記憶手段に直前に記憶された1つ以上の前記対象物の位置情報から該対象物の移動軌跡を直線又は曲線で近似し、該近似された移動軌跡に基づいて前記取得した画像データにおける前記対象物の位置情報を推定するものであることを特徴とする請求項2に記載の撮像装置。 When the area information includes the position information,
The object region estimation means approximates the movement trajectory of the object with a straight line or a curve from the position information of one or more of the objects stored immediately before in the storage means, and based on the approximated movement trajectory The imaging apparatus according to claim 2, wherein position information of the object in the acquired image data is estimated.
前記対象物領域推定手段が、前記記憶手段に直前に記憶された1つ以上の前記対象物の大きさ情報から該対象物の大きさ変動を直線又は曲線で近似し、該近似された大きさ変動に基づいて前記取得した画像データにおける前記対象物の大きさ情報を推定するものであることを特徴とする請求項2又は3に記載の撮像装置。 When the area information includes the size information,
The object area estimation means approximates the size variation of the object by a straight line or a curve from the size information of one or more objects previously stored in the storage means, and the approximate size The imaging apparatus according to claim 2, wherein size information of the object in the acquired image data is estimated based on a change.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007105567A JP2008263478A (en) | 2007-04-13 | 2007-04-13 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007105567A JP2008263478A (en) | 2007-04-13 | 2007-04-13 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008263478A true JP2008263478A (en) | 2008-10-30 |
Family
ID=39985629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007105567A Withdrawn JP2008263478A (en) | 2007-04-13 | 2007-04-13 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008263478A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113130A (en) * | 2008-11-06 | 2010-05-20 | Nikon Corp | Focus detecting device, imaging apparatus, focus detecting method |
JP2010191784A (en) * | 2009-02-19 | 2010-09-02 | Nikon Corp | Imaging device |
CN103535021A (en) * | 2011-02-24 | 2014-01-22 | 高通股份有限公司 | Auto-focus tracking |
JP2014081650A (en) * | 2013-12-17 | 2014-05-08 | Nikon Corp | Focus detecting device |
JP2020072391A (en) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | Imaging apparatus and control method of imaging apparatus |
-
2007
- 2007-04-13 JP JP2007105567A patent/JP2008263478A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113130A (en) * | 2008-11-06 | 2010-05-20 | Nikon Corp | Focus detecting device, imaging apparatus, focus detecting method |
JP2010191784A (en) * | 2009-02-19 | 2010-09-02 | Nikon Corp | Imaging device |
CN103535021A (en) * | 2011-02-24 | 2014-01-22 | 高通股份有限公司 | Auto-focus tracking |
JP2014510943A (en) * | 2011-02-24 | 2014-05-01 | クアルコム,インコーポレイテッド | Autofocus tracking |
US9077890B2 (en) | 2011-02-24 | 2015-07-07 | Qualcomm Incorporated | Auto-focus tracking |
CN103535021B (en) * | 2011-02-24 | 2017-09-12 | 高通股份有限公司 | Auto-focusing is followed the trail of |
JP2014081650A (en) * | 2013-12-17 | 2014-05-08 | Nikon Corp | Focus detecting device |
JP2020072391A (en) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | Imaging apparatus and control method of imaging apparatus |
JP7242247B2 (en) | 2018-10-31 | 2023-03-20 | キヤノン株式会社 | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7706674B2 (en) | Device and method for controlling flash | |
TWI420902B (en) | Camera, camera control program, and camera control method | |
JP4760742B2 (en) | Digital camera, information display method, and information display control program | |
JP5025532B2 (en) | Imaging apparatus, imaging apparatus control method, and imaging apparatus control program | |
US7668451B2 (en) | System for and method of taking image | |
JP4787180B2 (en) | Imaging apparatus and imaging method | |
JP4657960B2 (en) | Imaging method and apparatus | |
US20090160963A1 (en) | Apparatus and method for blurring image background in digital image processing device | |
JP4796007B2 (en) | Imaging device | |
JP2007233113A (en) | Distance measuring device and method | |
JP5027580B2 (en) | Imaging apparatus, method, and program | |
JP2008079193A (en) | Digital camera | |
JP2007299339A (en) | Image reproducing device, method and program | |
JP2007235640A (en) | Photographing device and method | |
JP2008263478A (en) | Imaging apparatus | |
US20070195190A1 (en) | Apparatus and method for determining in-focus position | |
JP5409483B2 (en) | Imaging device | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP2004032524A (en) | Digital camera | |
JP2009077143A (en) | Automatic photographing apparatus | |
JP2007208355A (en) | Photographing device, method, and program | |
JP5105298B2 (en) | Imaging apparatus and program thereof | |
JP2008219367A (en) | Imaging apparatus and imaging method | |
US8073319B2 (en) | Photographing method and photographing apparatus based on face detection and photography conditions | |
JP4756005B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100706 |