JP5451918B2 - Imaging apparatus, control method thereof, and program - Google Patents
Imaging apparatus, control method thereof, and program Download PDFInfo
- Publication number
- JP5451918B2 JP5451918B2 JP2013048477A JP2013048477A JP5451918B2 JP 5451918 B2 JP5451918 B2 JP 5451918B2 JP 2013048477 A JP2013048477 A JP 2013048477A JP 2013048477 A JP2013048477 A JP 2013048477A JP 5451918 B2 JP5451918 B2 JP 5451918B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- subject
- image
- evaluation value
- scene discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、撮像装置、その制御方法及びプログラムに関する。 The present invention relates to an imaging apparatus, a control method thereof, and a program.
従来、デジタルスチルカメラなどの撮像装置には、逐次撮像された被写体の明るさ、色、距離、動きなどの様々な事情を判断して被写体状況(シーン)を示すシーン判別評価値を算出するものがある。このような撮像装置は、算出されたシーン判別評価値と顔検出結果とにより特定されたシーンに応じて撮像を行う。例えば、特許文献1には、シーンに応じた撮像には、主被写体が存在すると推定される領域とそれ以外の領域の明暗差を示すシーン判別評価値とに基づいて逆光シーンであることを検出し、逆光を解消するような露出制御を行う技術が開示されている。
Conventionally, in an imaging apparatus such as a digital still camera, a scene discrimination evaluation value indicating a subject situation (scene) is calculated by judging various circumstances such as brightness, color, distance, and movement of sequentially photographed subjects. There is. Such an imaging apparatus performs imaging according to the scene specified by the calculated scene discrimination evaluation value and the face detection result. For example, in
しかしながら、CCDやCMOSイメージセンサを用いた撮像素子で被写体の明るさ、色、距離、動きなどの様々な事情を判断しようとすると、そのダイナミックレンジの狭さが課題となる。静止画や動画の撮影の用いる撮像素子は、そもそもダイナミックレンジが広くなく、明暗差が激しいシーンの測光には不向きである。露出量が不適切である場合、明部の白とび、暗部の黒つぶれが顕著になり、逐次撮像された被写体の明るさ、色、距離、動きなどの様々な事情を判断しようとしても、適切な検出を行うことはできない。このような状況下でシーン判別を行い、その判別結果に応じて撮像を行ってしまうと、かえって不適切な画像となってしまうおそれがある。 However, when an image sensor using a CCD or CMOS image sensor is used to determine various circumstances such as the brightness, color, distance, and movement of a subject, the narrow dynamic range becomes a problem. An image sensor used for taking a still image or a moving image does not have a wide dynamic range in the first place, and is not suitable for photometry of a scene having a strong contrast between light and dark. If the amount of exposure is inappropriate, overexposure in bright areas and blackout in dark areas will be noticeable. Even if you try to determine various circumstances such as the brightness, color, distance, and movement of subjects that have been sequentially captured, Cannot be detected. If scene discrimination is performed under such circumstances and imaging is performed according to the discrimination result, there is a risk that an inappropriate image will be obtained.
本発明は、このような従来技術の課題を解決することを目的としてなされたものである。本発明の目的は、撮像素子のダイナミックレンジが狭くとも適切なシーン判別を可能とする撮像装置、その制御方法及びプログラムを提供することである。 The present invention has been made for the purpose of solving such problems of the prior art. An object of the present invention is to provide an imaging apparatus capable of appropriate scene discrimination even when the dynamic range of the imaging element is narrow, a control method thereof, and a program.
上記目的は、撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段と、前記シーン判別手段を制御する制御手段と、を有し、前記制御手段は、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする本発明による画像処理装置によって達成される。 The object is to periodically calculate a scene discrimination evaluation value used for scene discrimination of a subject from images taken in time series by the imaging means, and to calculate the scene discrimination evaluation value calculated by the calculation unit. And a scene discriminating unit that discriminates the scene of the subject and a control unit that controls the scene discriminating unit, and the control unit is imaged in time series by the scene discriminating unit. Among the images, the scene of the subject is discriminated using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject does not converge within a predetermined range with respect to the target luminance. First, the scene of the subject using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance. It is achieved by the image processing apparatus according to the present invention characterized by causing another.
また、上記目的は、撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段とを有する画像処理装置の制御方法であって、前記画像処理装置の制御手段が、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする本発明による画像処理装置の制御方法によっても達成される。 Further, the object is to periodically calculate a scene discrimination evaluation value used for scene discrimination of a subject from images captured in time series by the imaging unit, and the scene discrimination evaluation calculated by the calculation unit. A method of controlling an image processing apparatus having a scene determination means for determining a scene of the subject using a value, wherein the control means of the image processing apparatus images the scene determination means in the time series. Among the obtained images, the scene determination of the subject using the scene determination evaluation value calculated from the image obtained when the luminance of the subject does not converge within a predetermined range with respect to the target luminance is The subject using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance without performing Also achieved by a method of controlling an image processing apparatus according to the present invention characterized by causing the determination of a scene.
本発明によれば、撮像素子のダイナミックレンジが狭くとも適切にシーン判別することができる。 According to the present invention, it is possible to appropriately determine a scene even if the dynamic range of the image sensor is narrow.
以下、この発明の実施の形態について図を参照して説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の最も好ましい形態を示すものであり、発明の範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, the embodiment of the present invention shows the most preferable mode of the invention, and does not limit the scope of the invention.
図1は、本実施形態に係る撮像装置100の全体構成を示すブロック図である。図1に示すように、撮像装置100では、レンズ10により外光を撮像素子16に集光する。図1ではレンズは1枚として表現しているが、複数枚のレンズから構成されたレンズユニットを搭載することも可能である。
FIG. 1 is a block diagram illustrating an overall configuration of an
また、レンズ10は、レンズ駆動回路42にてレンズ位置を光軸に沿って前後に動かすことで焦点を調節したり、画角を調節したりすることも可能である。さらに、ブレ量検知回路44で測定した撮像装置100のブレ量を元に、手ブレ補正回路40にてレンズを駆動し、手ブレをキャンセルする方向に光軸を変化させることで、光学的な手ブレ補正を行うことも可能である。なお、ブレ量検知回路44には撮像装置100のブレ量を測定するジャイロセンサが含まれている。図1ではレンズを駆動することで手ブレ補正を実現しているが、同様に撮像素子16を駆動することで手ブレ補正を実現してもよい。
In addition, the
レンズ10を通過した光は絞り14によりその光量が調節される。撮像装置100では、制御部60が絞り制御情報を絞り駆動回路26に伝達することで、絞り14を制御することが可能となっている。
The amount of light passing through the
絞り14は、複数枚の羽から構成された虹彩絞りや、板に予め様々な径の孔を打ち抜いた丸絞りがある。制御部60は、絞り14と絞り駆動回路26を用い、被写体輝度が高い場合は絞りを絞って光量を落とすように制御し、被写体輝度が低い場合は絞りを開放にして光を多く取り込むように制御する。
The
撮像装置100では、制御部60がメカニカルシャッタ制御情報をメカニカルシャッタ駆動回路28に伝達することでメカニカルシャッタ12を制御することが可能となっている。静止画撮像時の露出時間はメカニカルシャッタ12の開閉時間により決定され、この露出時間は制御部60が時間を判断し、メカニカルシャッタ駆動回路28に指示を出すことで決定される。
In the
レンズ10、メカニカルシャッタ12、絞り14を通過した光は撮像素子16で受光される。撮像装置100は、制御部60が撮像素子制御信号をTG24(TimingGenerator)に伝達することで撮像素子16を制御することができる。
Light that has passed through the
TG24は、制御部60から受信した撮像素子制御信号を元に撮像素子16を駆動する。撮像素子16は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどであり、露出時に受光した被写体像を光電変換する。撮像素子16は、TG24からの駆動信号に基づいて、露出と露出時に光電変換された撮像データの読み出しが行われる。なお、この露出と光電変換された撮像データの読み出しとは、TG24からの駆動信号を基準に周期的に行ってもよい。
The TG 24 drives the
また、撮像素子16で光電変換された撮像データは、特定のラインや特定の領域のみを読み出してもよい。これは、TG24から出力される読み出し用の駆動信号に応じて読み出し方法を変更することで実現できる。制御部60は、状況に応じて最適な読み出し方式を決定し、TG24に指示する。例えば、静止画撮像時には、解像度の高い撮像データが要求されるため、撮像素子16の全データを読み出す方式が決定される。また、電子ビューファインダ(ElectricalViewFinder)時や動画撮像時には、30fps又は60fpsなどの高いフレームレートが要求されるため、撮像素子16の特定のラインだけ間引いて読み出す方式が決定される。
Moreover, only the specific line or the specific area may be read out from the imaging data photoelectrically converted by the
また、TG24は、撮像素子16の露出時間を制御することが可能である。これは、任意のタイミングで光電変換によりチャージした電荷を撮像素子16が開放するように、駆動信号を撮像素子16へ出すことで実現できる。
Further, the TG 24 can control the exposure time of the
撮像素子16から読み出された撮像データは、CDS回路18(Correlated Double Sampler)を通過する。CDS回路18は、相関二重サンプリング方式により撮像データのノイズ成分を除去することを主な役割とする。その後、撮像データはPGA回路20(Programmable Gain Amplifier)により減衰/増幅される。制御部60は、増幅レベルをPGA回路20に伝達することで、PGA回路20における減衰/増減量を制御する。
The imaging data read from the
通常、撮像素子16の露出を適正とすることは、絞り14で撮像素子16への露出量を適切に設定すると共に、メカニカルシャッタ12における露出時間を適切に設定することで実現される。PGA回路20では、撮像データの減衰/増幅を行うことで、擬似的に露出を替えるという機能を提供することができる。すなわち、PGA回路20は、絞りやシャッタ速度と並ぶ撮像時の露出条件の一つである感度を切り替えるという機能を提供する。
Usually, appropriate exposure of the
PGA回路20で減衰/増幅された撮像データは、A/D回路22(Analog/Digital Converter)にてアナログ信号からデジタル信号へ変換される。なお、図1では、CDS回路、PGA回路、A/D回路をそれぞれ別のブロックとして表現しているが、一つのIC(Integrated Circuit)パッケージにこれらの機能を搭載したものを用いてもよい。
The imaging data attenuated / amplified by the
A/D回路22でデジタル信号に変換された撮像データは、画像処理回路50へ入力される。画像処理回路50は、画像処理を行うブロックが複数構成され、種々の画像処理を行う。撮像素子16は、カラーフィルタ(図示しない)を通して各画素ごとに特定の色成分を抽出している。したがって、A/D回路22から出力される撮像データは、撮像素子16の画素及びカラーフィルタの配置に対応したデータ形式となっている。よって、A/D回路22から輝度成分のみを評価して露出制御を行う自動露出制御(AE:AutoExposureControl)で使用するには適さないデータ形式である。このため、画像処理回路50では、撮像データから色情報を排除し、輝度情報のみを抜き出す機能を備えている。逆に色情報を抜き出す機能も備え、被写体の光源を特定し、色を適切に調整するホワイトバランス(AWB)処理に使用することも可能となっている。
The imaging data converted into a digital signal by the A /
さらに、画像処理回路50では、撮像素子16から撮像データの周波数成分のみを抜き出す機能を備え、自動ピント合わせ制御(AF:AutoFocus)に使用することが可能となっている。撮像素子16から読み出された撮像データのどの領域の周波数成分を抽出するか、また、領域内をどのように分割するかを決定する機能を備えている。
Further, the
さらに、画像処理回路50は、A/D回路22によりデジタル信号に変換された撮像データのレベルの増減、画像の色効果などを操作する機能を備え、撮像画像の画質を調整する役割も担っている。撮像データのレベルに関しては、画像全体に一律の増幅率でレベルを増減させる、元の信号レベルの大小に応じて信号レベルを変換するガンマ変換、画面内の領域ごとの周波数成分に応じた増幅率でレベルを増減させるなど、様々な調整が可能となっている。
Further, the
A/D回路22によりデジタル信号に変換された撮像データは、画像処理回路50へ入力されると同時に、一時記憶メモリ30に記憶されてもよい。一旦、一時記憶メモリ30に記憶した撮像データは再度読み出すことができ、画像処理回路50から撮像データを参照したり、読み出した撮像データを画像処理回路50に入力することも可能である。さらに、画像処理回路50で画像処理した撮像データを一時記憶メモリ30に書き戻したり、画像処理回路50からの任意のデータを一時記憶メモリ30に書き込むことも可能である。
The imaging data converted into a digital signal by the A /
画像処理回路50で処理された撮像データは画像認識回路38に入力される。画像認識回路38は、入力された画像の明るさ状況、ピント合焦状況、色状況の認識に加え、人物の顔認識とその表情、文字がある場合はその文字情報を認識することが可能となっている。画像認識回路38には複数の画像を入力することが可能となっており、例えば2つの画像を入力し、その2つの画像の特徴を比較することで、同一の画像か否かの判定をすることが可能である。
The imaging data processed by the
画像認識回路38で画像を認識する方法に加え、制御部60でも画像認識処理を行うことができる。制御部60は、図示しないCPU(Central Processing Unit)上で予めコーディングされたプログラムを実行することが可能となっている。このプログラムを順次実行することで、制御部60は、一時記憶メモリ30に記憶された撮像データを読み出して、その読み出した撮像データを解析して撮像時の状況を認識することができる。
In addition to the method of recognizing an image by the
LCD(Liquid Crystal Display)などである表示部108に撮像データを表示出力する場合は、画像処理回路50で画像処理を行った撮像データをVRAM34(Video Random Access Memory)に展開する。VRAM34に展開した撮像データは、D/A回路36にてアナログデータに変換されて表示部108に表示出力される。電子ビューファインダ表示は、撮像素子16から連続して読み出される撮像データを順次表示部108に表示することで実現される。なお、VRAM34上には、1つの撮像画像を表示部108に最も大きくなるように表示する、又は複数の撮像画像をマルチ画面表示するなど、様々な表示形態に対応するように撮像データを展開してよい。
When image data is displayed and output on the
表示部108には、画像だけでなく任意の情報を単独、もしくは画像と共に表示してもよい。具体的には、撮像装置100の状態、ユーザが選択あるいは撮像装置100が決定したシャッタ速度、絞り値、感度情報などの文字情報、画像処理回路50にて測定した輝度分布などのグラフ、顔認識結果、シーン認識結果などがある。また、表示部108では、情報の表示位置、表示色も操作部70により受け付けられたユーザの操作指示に応じて任意に選択可能である。撮像装置100では、操作部70により受け付けられたユーザの操作指示に応じて、これら様々な情報を表示部108で表示することで、ユーザインターフェースを実現している。
The
操作部70は、電源スイッチ102、シャッタスイッチ104、モード切替スイッチ110、パラメータ選択スイッチ151、153、157、159などを有する。電源スイッチ102は、ユーザから電源のON/OFFの指示を受け付ける。シャッタスイッチ104は、ユーザから撮像を準備するための撮像準備指示や撮像開始指示を受け付ける。モード切替スイッチ110は、ユーザから撮像モードの切り替え指示を受け付ける。パラメータ選択スイッチ151、153、157、159は、ユーザからパラメータの選択指示を受け付ける。なお、上述した各スイッチの詳細については後述する。
The
また、表示部108には、記憶媒体I/F80を介して撮像装置100と接続する記憶媒体82に記憶されている画像データを読み出して表示することも可能である。なお、画像データが圧縮されている場合は、圧縮伸長部32にて画像データを伸長し、伸長後の画像データをVRAM34に展開する。
The
記憶媒体82は、記憶媒体I/F80を介して撮像装置100と接続可能となっており、制御部60の制御の下でデータの読み出し又は記憶が可能な不揮発性のメモリである。記憶媒体82には、主に撮像した画像データを記憶することが可能である。また、各画像データには、絞り値、シャッタ速度、ISO感度、撮像した時刻などの撮像情報を付加することができる。この付加されたデータは画像データと共に記憶媒体82に記憶されてもよい。
The
外部機器I/F84は、PC(Personal Computer)などの外部機器86と接続するための通信インターフェースである。撮像装置100と外部機器86とは、外部機器I/F84を介して互いに通信可能に接続され、制御部60の制御の下でデータの送受信が可能となっている。例えば、外部機器86からの指示に応じて撮像した画像データの転送などが外部機器I/F84を介して行われる。
The external device I /
図2に撮像装置100の外観図を示す。図2(a)は、撮像装置100の前面外観を示す図である。図2(b)は、撮像装置100の背面外観を示す図である。
FIG. 2 shows an external view of the
図2(a)に示すように、撮像装置100の前面にはレンズ10が配置されており、撮像装置100は被写体像を捉えることが可能となっている。レンズ10が設けられた同一面(前面)には制御部60により発光が制御されるストロボユニット90が配置されている。撮像装置100は、主被写体が暗い場合にストロボユニット90を発光させることで撮像に十分な光量を得ることができ、暗い中でも速いシャッタ速度を保ち、好適な撮像画像を得ることができる。
As shown in FIG. 2A, a
図2(b)に示すように、撮像装置100の背面には表示部108が配置されている。表示部108は、撮像素子16で逐次撮像された撮像画像を連続して表示する電子ビューファインダ表示を行い、ユーザがその連続画像(ライブ画像)を参照して被写体を捉えるためのファインダとして使用されてもよい。このとき、AE(自動露出調整)やAF(自動焦点調整)における測光領域情報、測距領域情報をライブ画像に重畳して表示することも可能である。さらに、表示部108には、被写体の認識情報として、人物の顔を認識した結果に応じてその人物の顔に枠を重畳して表示したり、青空、夕陽、逆光など、背景シーンの状況を認識した結果をアイコンで表示してもよい。
また、撮像装置100の背面には従来からの光学ファインダ106を併設してもよい。
As illustrated in FIG. 2B, the
Further, a conventional
また、撮像装置100の背面にはモード切替スイッチ110が設けられている。モード切替スイッチ110は、静止画撮像モード、動画撮像モード、再生モードなどの撮像装置100の動作モードの切り替え指示をユーザから受け付ける。
Further, a
また、撮像装置100の背面には決定スイッチ、カーソルスイッチなどのパラメータ選択スイッチ151、153、155、157、159が設けられている。このパラメータ選択スイッチ151、153、155、157、159により、測距領域や測光モードをはじめとする撮像時の撮像条件の選択、撮像画像の再生時のページ送り、動作設定全般などのパラメータをユーザが選択して設定できる。さらに、前述の電子ビューファインダ表示のON/OFFを選択してもよい。また、表示部108は、画像を表示するとともに、タッチパネルとして、パラメータ選択スイッチ151、153、155、157、159と同様の設定をユーザから受け付けてもよい。
In addition, parameter selection switches 151, 153, 155, 157, and 159 such as a determination switch and a cursor switch are provided on the back surface of the
図2(a)、図2(b)に示すように、撮像装置100の上部には電源スイッチ102、シャッタスイッチ104が配置されている。シャッタスイッチ104は、スイッチを浅く押下する場合(SW1動作)と深く押下する場合(SW2動作)の2段階の押下操作をユーザから受け付ける。そして、シャッタスイッチ104は、SW1動作で静止画撮像の撮像準備開始の指示を、SW2動作で静止画像の撮像開始の指示をユーザから受け付ける。よって、ユーザがシャッタスイッチ104を浅く押すことで、撮像装置100では撮像準備として自動露出調整と自動焦点調整とが行われる。次いで、ユーザがシャッタスイッチ104を深く押すことで撮像装置100では静止画撮像や画像認識などが行われることとなる。
As shown in FIGS. 2A and 2B, a
なお、自動露出調整では、例えばモード切替スイッチ110で選択された撮像モードに応じた制御線図に従って制御部60が露出制御して、モード切替スイッチ110で選択されている撮像モードで好適な露出を得るように動作する。撮像モードには、オートモードといった汎用的な撮像モードがある。また、予めユーザが設定したシャッタ速度を優先するシャッタ速度優先モード、予めユーザが設定した絞り値を優先する絞り優先モードなどの撮像モードがあってもよい。
In the automatic exposure adjustment, for example, the
これらの撮像モードでは、PGA回路20で設定する撮像感度を自動で好適に選択設定することや、予めユーザが撮像感度を指定することも可能である。ユーザが予め撮像感度を指定する際、撮像感度を上げるほど撮像された画像信号のS/Nが劣化するため、画質を優先したいユーザは低感度を選択することが想定される。
In these imaging modes, the imaging sensitivity set by the
ここで、撮像装置100において、シーンを識別して表示部108にその識別結果を表示する様子について図3を参照して説明する。図3は、表示部108のライブ画像を例示する図であり、人物391を撮像装置100で撮像した際に表示部108に表示される画像の様子を示している。
Here, how the
人物391の被写体像は、レンズ10を通して撮像素子16に結像し、光電変換された後に撮像素子16から画像データとして読み出される。撮像素子16から読み出された画像データは、一時記憶メモリ30に記憶されるか、もしくは直接画像処理回路50に入力される。画像処理回路50では、顔認識に適した画像データを生成し、生成後の画像データを一時記憶メモリ30に記憶させる。また、画像処理回路50では、シーン認識に適した画像データを生成し、生成後の画像データを一時記憶メモリ30に記憶させる。また、画像処理回路50では、表示部108への表示に適した画像データを生成し、生成後の画像データをVRAM34に記憶させる。
The subject image of the
その後、顔認識用に生成された画像データが画像認識回路38に入力され、画像認識回路38は人物の顔を検出する顔認識を行う。この顔認識の結果、人物の顔の数、位置、大きさが取得されることとなる。この画像認識回路38による顔認識の結果により、図3に示すように、表示部108では、VRAM34に予め生成された表示用の画像データを表示する際に、顔認識の結果に基づいた顔検出枠341を重畳描画する。
Thereafter, image data generated for face recognition is input to the
これと同時に、一時記憶メモリ30に生成されたシーン認識に適した画像データを読み出し、制御部60にて被写体の状況を判別するシーン判別(状況判別)が行われる。シーン判別は、予めプログラミングされたコードをCPUで実行することで実現されるアルゴリズムに従って行われる。したがって、判別可能なシーンの種類やシーン判別性能はそのプログラム次第となる。
At the same time, image data suitable for scene recognition generated in the
制御部60にて判別されたシーンについては、その状態を抽象化して示すアイコン343として、画像認識回路38による顔認識の結果と共に表示部108の画面に重畳表示される。具体的には、図3に示すように、VRAM34に予め生成された表示用の画像データを表示部108に表示する際に、アイコン343として重畳表示される。なお、図3の例では表示部108の左上位置に人物のシーンアイコン311を表示する形態を表しているが、表示形態はこの限りでなく、表示位置、大きさ、アイコンデザインは任意に変更可能となっている。
The scene determined by the
図4に、識別可能なシーンと、各シーンを抽象化したアイコンの例を示す。シーンアイコン301は、画像認識回路38で人物の顔が検出され、シーン判別処理により逆光シーンと判別された場合を示す。逆光シーンは、主被写体の背後に太陽などの明るい被写体が存在して主被写体が暗くなるが、シーン認識用の画像を複数のブロックに分割してブロック毎の輝度情報の分布をチェックして、逆光パターンであるか否かを判定することで判別される。
FIG. 4 shows an example of an identifiable scene and an icon obtained by abstracting each scene. A
シーンアイコン303、305は、同様に逆光シーンであるが、主被写体が人物ではない場合を示している。さらに、シーンアイコン303においては、ピント合焦位置が至近距離であることを示している。このような合焦位置の情報もアイコンとして抽象化して表現してもよい。
Similarly, the
シーンアイコン311、313、315は、それぞれ逆光シーンではなく、主被写体が人物である場合、主被写体が人物ではなく合焦位置が至近距離である場合、主被写体が人物ではない場合を示す。
シーンアイコン321、325は、シーン判別処理により夜景シーンと判別された場合を示す。夜景シーンの判別は、逆光シーンと同様に制御部60にてシーン認識用の画像を解析することで行う。具体的には、画面内に暗い空領域が所定以上存在するか否かの判定、イルミネーションなどを示す点光源が存在するか否かの判定などの画像解析を行う。
それに加え、本来は手ブレ補正に用いるブレ量検知回路44にて検出された撮像装置100のブレ量も使用して夜景シーンの判別を行ってもよい。夜景シーンの場合、シャッタ速度が長くなる撮像に対して、ユーザが撮像装置100を三脚固定したり任意の場所に置くなどしてブレないようにする。したがって、撮像装置100では、ブレ量検知回路44の検出結果に基づいてブレ量が微小になったことを検知できた場合を夜景シーンへ移行する条件の一つとする。
In addition, the night scene may be determined using the blur amount of the
シーンアイコン333は、シーン判別処理により夕景シーンと判別された場合を示す。夕景シーンはその特徴的な色によりシーンを判別する。一時記憶メモリ30に生成されたシーン認識用の画像には色情報も含まれており、逆光シーンと同様に制御部60にてその画像を解析することで夕景シーンを判別する。具体的には、シーン認識用の画像の所定の領域に、所定の色温度の領域が所定量以上あることを検知して夕景シーンと判別する。
The
制御部60は、このシーン判別結果に応じて、レンズ駆動回路42、絞り駆動回路26、メカニカルシャッタ駆動回路28、TG24、PGA回路20、および、画像処理回路50を制御する。例えば、制御部60は、撮像データから得られた輝度情報の平均値が等しい場合であっても、主被写体が人物であるか否か、逆光であるか否かに応じて、撮像データ内の輝度情報の重み付けを変えたり、絞りと露出時間の組合せを変えたりする。あるいは、PGA回路20の増幅レベルを変えたり、画像処理回路50のガンマ変換の設定を変えたりもする。さらに、主被写体が人物であるか否かに応じて、周波数成分の値が等しくても、レンズ10の被写界深度を異ならせたりもする。さらに、夕景シーンであるか否か、夜景シーンであるか否かに応じて、画像処理回路50による撮像データに対する色処理の設定を変えたりもする。
The
シャッタスイッチ104の操作を受け付ける前の定常状態では、上述したシーン判別に用いる評価値(シーン判別評価値)の生成を、撮像素子16により時系列的に撮像された画像から周期的に行い続ける。そして、シーン判別評価値が所定回数得られた時点で最新のシーン判別評価値を参照し、シーンに変化があればシーンアイコンの表示を更新する。シーン判別評価値が所定回数得られてからシーン変化の有無を判断するのは、あまりに高い頻度でシーン判別結果を更新してしまうと、被写体の状況によってはシーン判別結果がめまぐるしく変化してしまうためである。このような場合は、かえってユーザに不快感を与えたり、撮像装置の制御が不安定になったりするおそれがある。
In the steady state before accepting the operation of the
しかし、撮像装置100における撮像では、被写体を急に変更する場合や、被写体が急に動いた後の撮像など、急にシーンが変わった直後に撮像を行うシチュエーションが多くある。撮像を行う際には、シャッタスイッチ104のSW1動作、SW2動作で、それぞれ撮像準備、撮像を行う。この時、被写体の動きなどにより急なシーン変化がある場合、SW1動作による撮像準備にかかる時間は短いほどよい。且つ、シーン変化を撮像装置100が適切に検知して、シーン変化後の被写体に対する適切な露出調整、焦点調整、さらにはシーンアイコン表示を行うことが求められている。
However, in imaging with the
図5に上述した撮像装置100の撮像の一例を示す。図5の例では、ユーザは花395を撮像するつもりでいるがまだ花395から離れた位置におり、撮像装置100の撮像画角には様々な被写体が入っているものとする。また、撮像画角の中には太陽393を背に花395の近くに座っている人物391が含まれているため、シーンアイコン表示は人物を含む逆光シーンを示すシーンアイコン301となっている。
FIG. 5 shows an example of imaging by the
上述した状態から、撮像装置100を持ったユーザが花395に近付いていく場合は、撮像画角から人物391が外れ、撮像目的である花395が画角の中心に大きく位置することとなる。ここで、人物391が画角から外れた段階で直ぐにSW1動作による撮像準備を行う際には、撮像対象である花395が画面の中心に位置しており、シーン判別の周期に関わらずに至近距離で合焦が行われるシーンアイコン313が表示されることが望ましい。要するに、SW1動作による撮像準備時には、シーン判別にかかる処理時間が短く、新たなシーンも適切に判別されることが望まれている。
When the user who has the
ここで、図6のタイミングチャートを参照して、シーン判別評価値の生成、顔検出、シーン判別のタイミングを説明する。図6に示すように、撮像装置100では、撮像素子16の垂直同期信号401を基準に、各垂直同期(VD)で露出403が行われている。また、撮像装置100では、各VDで露出した画像データが撮像素子16から読み出され、その読み出された画像データを元にシーン判別評価値405の生成が行われている。すなわち、撮像装置100では、時系列的に撮像された画像から被写体の状況判別に係るシーン判別評価値が逐次算出されている。また、撮像装置100では、撮像素子16から読み出された画像データを元に顔検出407が行われている。すなわち、撮像装置100では、時系列的に撮像された画像から人物の顔が逐次検出されている。
Here, with reference to the timing chart of FIG. 6, the timing of scene discrimination evaluation value generation, face detection, and scene discrimination will be described. As shown in FIG. 6, in the
また、露出403はVDごとに行われており、シーン判別評価値405の出力はその次のVDから毎VDで行われているのに対し、顔検出407はさらに次のVDから2VD周期で行われている。具体的には、露出期間411の画像データによるシーン判別評価値405の出力は次のVDの期間413で行われる。また、露出期間411の画像データによる顔検出407は、さらに次のVDであり、露出期間417の開始と同じタイミングの期間415で行われる。
The exposure 403 is performed for each VD, and the scene
この顔検出407が行われるタイミングについては、画像認識回路38の処理速度に依存するものである。図6の例では、画像認識回路38が1つの入力画像から顔検出を実施するには1VD以内で処理が終わらないことを示す。ただし、図6は一例であり、画像認識回路38の性能、検出精度、入力画像のサイズなどに依存して顔検出の処理時間は変動する。例えば、顔検出の処理時間は、1VDより短い場合もあれば、さらに長い場合もある。
The timing at which this face detection 407 is performed depends on the processing speed of the
図6に例示したタイミングにおいて、時刻421でシーン判別を実施する場合、その時点で最新のシーン判別評価値405と顔検出407を使用しようとすると、異なる露出期間の画像データを用いて一つのシーン判別を行うこととなる。具体的には、時刻421での最新のシーン判別評価値405は露出期間417の画像データを元に期間419で出力されたものであり、最新の顔検出407は露出期間411の画像データを元に期間415で出力されたものである。露出期間411と露出期間417とは2VDの時間的なズレがあるため、時刻421で最新のシーン判別評価値405、顔検出407を用いたシーン判別は正確に行うことが困難である。
When performing scene discrimination at
そこで、図7にシーン判別評価値と顔検出の元となる露出期間のズレを解消するタイミングチャートを例示する。図7に示すように、時刻437におけるシーン判別では、最新のシーン判別評価値と顔検出結果を用いるのではなく、同一の露出期間の画像データを元にしたシーン判別評価値と顔検出結果を用いる。
FIG. 7 illustrates a timing chart for eliminating the difference between the scene discrimination evaluation value and the exposure period that is the basis of face detection. As shown in FIG. 7, in the scene discrimination at
具体的には、時刻437で最新の顔検出結果が露出期間431を元に期間435で出力されたものである場合は、同じ露出期間431を元に期間433で出力されたシーン判別評価値を用いて期間439でシーン判別を行う。このように、同一の露出期間による画像データで生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行う場合は、より正確なシーン判別を行うことができる。なお、時刻437において、数VD過去のシーン判別評価値を用いるため、一時記憶メモリ30には数VDに亘ってシーン判別評価値を格納しておく領域が確保されている。
Specifically, when the latest face detection result is output in the
また、図7の例では、顔検出結果の出力の方がシーン判別評価値の出力よりも後に行われる場合を例示したが、逆にシーン判別評価値の出力の方が顔検出結果の出力の方よりも後であってもよい。この場合も同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行うことに変わりはない。なお、数VD過去の顔検出結果を用いるため、一時記憶メモリ30には数VDに亘って顔検出結果を格納しておく領域が確保される。
In the example of FIG. 7, the face detection result is output after the scene discrimination evaluation value is output. Conversely, the output of the scene discrimination evaluation value is the output of the face detection result. It may be later. In this case, the scene discrimination is still performed using the scene discrimination evaluation value generated from the image data of the same exposure period and the face detection result. Since the face detection results of several VDs in the past are used, an area for storing the face detection results over several VDs is secured in the
さらに、図8にSW1動作前の定常状態からSW1動作時のタイミングチャートを例示する。図8に示す例でも、図7と同様に、同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行っている。時刻437aにおけるSW1動作前には一定周期で逐次判別し続け、SW1動作時には最新の顔検出結果と、その顔検出結果と同一の露出期間による画像データから生成されたシーン判別評価値とを用いてシーン判別を行っている。
Further, FIG. 8 illustrates a timing chart from the steady state before the SW1 operation to the SW1 operation. In the example shown in FIG. 8, similarly to FIG. 7, scene discrimination is performed using a scene discrimination evaluation value and a face detection result generated from image data for the same exposure period. Prior to the SW1 operation at
ただし、図8で前提としていることは、時刻437aにおけるSW1動作前の定常状態からSW1動作時において、被写体に変動が無いことである。SW1動作の直前にシーンを替えて撮像を行う場合など、被写体への追従が完了していない状態でSW1動作が行われた場合に新たなシーンに対応したシーン判別を適切に行うためには、被写体への追従を終えてからシーン判別を行う必要がある。
However, what is assumed in FIG. 8 is that the subject does not change during the SW1 operation from the steady state before the SW1 operation at
図9にSW1動作時に被写体への輝度追従が完了していない場合のタイミングチャートを例示する。図9に示すように、時刻441のSW1動作時には、被写体に最適な露出で撮像を行うために、被写体輝度の測定(測光)を行う。
FIG. 9 illustrates a timing chart in the case where the luminance tracking to the subject is not completed during the SW1 operation. As shown in FIG. 9, during the SW1 operation at
CCDやCMOSイメージセンサを用いた撮像素子16による測光では、そのダイナミックレンジの狭さが課題となっている。撮像素子16は、そもそもダイナミックレンジが広くなく、明暗差が激しいシーンの測光には不向きである。露出量が不適切である場合、明部の白とび、暗部の黒つぶれが顕著になり、正確な測光が行えなくなるためである。このようなダイナミックレンジが狭い撮像素子16で測光する場合は、絞り、電子シャッタ、ゲインなどの露出を段階的に調節して、撮像素子16に受光させる光量を適切に制御して測光を行う必要がある。
In photometry using the
したがって、図9に示すように、露出期間411のSW1動作時に測光を行う際には、撮像素子16への光量が不適切なため、光量を適切にするためのAE収束期間443を設けている。AE収束期間とは、撮像データから求めた輝度が、目標輝度に対して、所定の範囲内(例えば、±1/3段以内)に収束するまで待つ期間である。そして、撮像データから求めた輝度が、目標輝度に対して、予め定められた範囲内になった後の期間455でシーン判別を行う。これは、AE収束期間が経過する前に得られたシーン判別評価値を用いてシーン判別を行ってしまうと、AE収束期間を待った場合と異なる領域にて黒つぶれや白とびが生じてしまう可能性が高いためである。このような状況下では、撮像データの輝度分布は勿論のこと、周波数成分や色情報等を適切に検出することができず、誤ったシーン判別結果を導いてしまうことにつながりかねない。
Therefore, as shown in FIG. 9, when performing photometry during the SW1 operation in the
そこで、シーン判別を行う際に使用するシーン判別評価値と顔検出結果は、それぞれ撮像データから求めた輝度が目標輝度に対して所定の範囲内に収束した時点で最新のデータ(最も早くに得られるデータ)を用いるようにしている。具体的には、期間455のシーン判別で用いるシーン判別評価値は、AE収束後の露出期間451の画像データを元に期間453で生成されたものである。また、期間455のシーン判別で用いる顔検出結果は、AE収束前の露出期間445の画像データを元に期間449で生成されたものである。
Therefore, the scene discrimination evaluation value and the face detection result used for scene discrimination are the latest data (obtained earliest) when the brightness obtained from the captured data converges within a predetermined range with respect to the target brightness. Data). Specifically, the scene discrimination evaluation value used for scene discrimination in the
シーン判別にAEの収束を必要とする場合はAE収束期間分のタイムラグが生じ、AE収束後の露出期間の画像データを元に顔検出を行う場合はそれに新たなタイムラグの増加を招くことになる。よって、図9の例では、AEの収束を必要とする場合には、互いに異なる露出期間の画像データを元に生成されたシーン判別評価値と顔検出結果とを用い、シーン判別に関するタイムラグの短縮に重点をおいたシーケンスとしている。言い換えると、AE収束後に、最も早く得られるシーン判別評価値及び顔検出結果とに基づいてシーン判別が行われる。この場合、顔検出結果はAEが収束する前の画像データを元に生成されることになるが、収束する間際の画像データであれば、AE収束後に得られる画像データと比較して大きな差は生じにくいと考えられる。そこで、収束する間際の画像データにおける顔検出結果であれば、一定レベルの信頼度が得られるものと判断し、AE収束後の露出期間の画像データからシーン判別評価値を得られると、これらを用いてすぐさまシーン判別を行う。 When scene detection requires AE convergence, a time lag corresponding to the AE convergence period occurs. When face detection is performed based on image data during the exposure period after AE convergence, a new time lag increases. . Therefore, in the example of FIG. 9, when convergence of AE is required, the time lag related to scene discrimination is shortened using the scene discrimination evaluation value and the face detection result generated based on the image data of different exposure periods. The sequence is focused on. In other words, after the AE has converged, scene discrimination is performed based on the scene discrimination evaluation value and the face detection result obtained earliest. In this case, the face detection result is generated based on the image data before the convergence of the AE, but if the image data is just before the convergence, there is a large difference compared with the image data obtained after the convergence of the AE. It is thought that it is hard to occur. Therefore, if it is a face detection result in the image data just before convergence, it is determined that a certain level of reliability is obtained, and when the scene discrimination evaluation value is obtained from the image data of the exposure period after AE convergence, these are obtained. Use to perform scene discrimination immediately.
しかしながら、ユーザのSW1動作、SW2動作の状況に応じて上述したシーケンスは変更してもよい。図10にSW1動作時に被写体への輝度追従が完了しておらず、AEの収束を要する場合であっても、同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行うシーケンスを示す。 However, the above-described sequence may be changed according to the state of the user SW1 operation and SW2 operation. FIG. 10 uses the scene discrimination evaluation value and the face detection result generated from the image data for the same exposure period even when the luminance tracking to the subject is not completed during the SW1 operation and convergence of AE is required. Shows the sequence for scene discrimination.
撮像装置100は、SW1動作時に撮像準備として露出調整や焦点調整を行い、SW2動作時に撮像を行う。この二段階に亘るユーザの操作としては、一旦SW1動作を保持して露出調整、焦点調整、構図を確認した後にSW2動作を行う撮り方、SW1動作の後に間を空けずにSW2動作を行う撮り方がある。前者のようにSW1動作を一旦保持する場合は、SW2動作による撮像まで間があるため、シーン判別に関するタイムラグを短縮する要求がそれほど厳しくないと想定される。
The
このような場合は、図10に示すように、時刻461におけるSW1動作によるAE収束期間463が経過した後の同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別を行う。具体的には、AE収束後の露出期間465の画像データを元にしたシーン判別評価値と顔検出結果の取得を期間467、469で行い、取得されたシーン判別評価値と顔検出結果に基づいたシーン判別を期間471で行う。
In such a case, as shown in FIG. 10, scene discrimination is performed using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period after the
AE収束後の同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別では、図9と図10との比較から明らかなように、約2VD程度のタイムラグが生じることとなる。しかしながら、シーン判別に関するタイムラグの短縮に重点が置かれていない状況であれば、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別が行われるため、シーン判別精度を高めるメリットを優先することができる。 In the scene discrimination using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period after AE convergence, a time lag of about 2 VD occurs as is apparent from the comparison between FIG. 9 and FIG. Become. However, if there is no emphasis on shortening the time lag related to scene discrimination, scene discrimination is performed using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period, so the scene discrimination accuracy is improved. Priority can be given to the benefits of enhancement.
次に、撮像装置100において、AE収束やユーザの操作に応じて上述したシーケンスをどのように使い分けるかについて、図11を参照して説明する。図11に撮像装置100の起動から撮像までの全体フローを示す。
Next, how to use the above-described sequence properly in accordance with the AE convergence and the user's operation in the
図11に示すように、撮像装置100では、電源スイッチ102の操作などにより処理が開始されると(S201)、制御部60の制御の下、表示部108にライブ画像を表示するEVF状態となる。EVF状態時には、表示部108の表示画像の画質を適切に調整したり、顔検出、シーン判別を行った結果を表示部108に表示する。このため、EVF状態時には、制御部60の制御の下、AE処理(S203)、AWB処理(S205)、AF処理(S207)、顔検出処理(S209)、シーン判別処理(S211)が行われる。
As shown in FIG. 11, in the
この時のシーン判別処理(S211)では、制御部60の制御の下、図8に例示したシーケンスを用いたシーン判別が行われる。すなわち、EVF状態では、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別が行われ続けることとなる。
In the scene discrimination process (S211) at this time, scene discrimination using the sequence illustrated in FIG. 8 is performed under the control of the
次いで、制御部60は、シャッタスイッチ104によるSW1動作の有無(ON/OFF)を判定し(S213)、SW1動作が確認されるまではS203〜S211の処理を継続して行う。SW1動作が確認された場合、制御部60は、静止画撮像用のAE処理を行う(S215)。このAE処理では、撮像素子16で撮像された画像に基づいて被写体輝度が測定されるが、被写体輝度が適正レベルではない、もしくは安定していない場合はAEを収束させる。
Next, the
次いで、制御部60は、静止画撮像用のシーン判別処理を行う(S301)。ここで、S301のシーン判別処理について、図12を参照して説明する。図12に示すように、シーン判別処理が開始されると、制御部60はAEが安定状態(AEが収束している)か否かを判定する(S303)。
Next, the
AEが安定(収束)していた場合はAEを収束させる必要がない(既に収束している)。したがって、制御部60は、シーン判別評価値と顔検出に用いる画像データの露出期間を同期したシーン判別処理、すなわち、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別を行う(S309)。言い換えると、S309では、時系列的に撮像された画像のうち、同じタイミングで撮像された画像に対する顔検出結果及びシーン判別評価値に基づいたシーン判別処理が行われる。
When AE is stable (converged), it is not necessary to converge AE (already converged). Therefore, the
AEが安定(収束)していない場合はAE収束期間中ということとなる。したがって、制御部60は、AE収束を待ち(S305)、AE収束後にSW1、SW2が一気押しであるか否かを判定する(S307)。このS307では、SW1動作の後のSW2動作が予め定められた所定の時間内に行われたか否かを判定し、SW1動作の後に時間を空けずにSW2動作を行う撮り方か否かが判別される。
If AE is not stable (converged), it means that it is during the AE convergence period. Therefore, the
一気押しでない場合(一旦SW1動作が保持され、SW1動作とSW2動作の間が所定の時間以上である場合)は、シーン判別に関するタイムラグの短縮よりもシーン判別精度の向上に重点をおくことができる。したがって、制御部60は、図10に例示したように、シーン判別評価値と顔検出に用いる画像データの露出期間を同期したシーン判別処理を行う(S309)。
When it is not pressed at once (when the SW1 operation is once held and the interval between the SW1 operation and the SW2 operation is longer than a predetermined time), it is possible to focus on improving the scene discrimination accuracy rather than reducing the time lag related to scene discrimination. . Therefore, as illustrated in FIG. 10, the
一気押しの場合(SW1動作の後に時間を空けずにSW2動作がある場合)は、SW2動作に応じた撮像が行われるため、シーン判別精度の向上よりもタイムラグの短縮が重要となる。したがって、制御部60は、図9に例示したように、シーン判別評価値と顔検出とに用いる互いの画像データを同一の露出期間とすることなく、互いの画像データの露出期間が非同期のシーン判別処理を行い(S311)、シーン判別のタイムラグを短縮させる。言い換えると、S311では、SW2動作があった後に最も早く得られるシーン判別評価値及び顔検出結果とに基づいたシーン判別処理が行われる。
In the case of pressing at a stroke (when there is an SW2 operation without waiting for a time after the SW1 operation), imaging is performed according to the SW2 operation, and therefore it is important to shorten the time lag rather than improving the scene discrimination accuracy. Therefore, as illustrated in FIG. 9, the
図11に示すように、シーン判別処理の後、制御部60は、静止画撮像用のAF処理を行って(S219)、被写体への焦点調整を行う。上述したS219までを行うことでSW1動作時の処理は完了する。
As shown in FIG. 11, after the scene determination process, the
次いで、制御部60は、SW1がOFFされたか否かを判定する(S211)。SW1がOFFされていれば撮像準備を取りやめたと判断し、制御部60は、EVF定常状態のループへ処理を戻す。
Next, the
SW1がONであり、SW1の押下が保持されている場合、制御部60は、SW2がONされたか否かを判定し(S223)、SW2のONに応答した撮像動作、すなわち、静止画撮像処理(S225〜S229)を開始する。なお、SW2がOFFのままである場合、制御部60は、S215へ処理を戻す。
When SW1 is ON and SW1 is held down, the
静止画撮像処理が開始されると、制御部60は、ストロボを発光させたストロボ撮像を行うか否かをストロボ発光の有無について予め設定された情報や被写体輝度に基づいて判定する(S225)。ストロボ発光を行う場合、制御部60は、調光処理を行って静止画撮像時のストロボ発光量を決定する(S227)。調光処理では、所定の発光量でストロボをプリ発光させてその反射光を測光センサ、あるいは撮像素子16で測定し、その測定結果に基づいて被写体の反射率やストロボ光の到達具合を確認してストロボ発光量を決定する。
When the still image capturing process is started, the
以上で静止画撮影のための露出、シーン、ピント、ストロボなどからなる撮影条件が決定され、被写体に適切に応じた静止画撮像が行われる(S229)。すなわち、S229では、シーン判別処理による被写体の状況判別結果に基づく静止画撮像が行われる。なお、静止画撮像の後、制御部60はEVF定常状態のループへ処理を戻す。
Thus, the shooting conditions including exposure, scene, focus, strobe, etc. for still image shooting are determined, and still image shooting appropriate for the subject is performed (S229). That is, in S229, still image capturing is performed based on the subject situation determination result by the scene determination process. Note that after the still image is captured, the
なお、本実施形態ではシーン判別評価値の算出より顔検出結果の取得の方が時間がかかる場合を例示したが、逆に、シーン判別評価値の算出の方が顔検出結果の取得より時間がかかってもよい。要は、静止画像の撮像指示があった際のシーン特定のタイムラグを低減するため、シーン判別には、撮像指示があった後に最も早く得られる顔検出結果及びシーン判別評価値を用いればよい。 In this embodiment, the case where the face detection result acquisition takes more time than the calculation of the scene determination evaluation value is illustrated, but conversely, the calculation of the scene determination evaluation value takes longer than the acquisition of the face detection result. It may take. In short, in order to reduce the scene specific time lag when an instruction to capture a still image is given, the face detection result and the scene discrimination evaluation value that are obtained earliest after the imaging instruction is given may be used.
なお、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。 Note that the description in the above-described embodiment shows an example, and the present invention is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。 The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。 As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。 In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.
100 撮像装置
10 レンズ
16 撮像素子
30 一時記憶メモリ
34 VRAM
38 画像認識回路
50 画像処理回路
60 制御部
70 操作部
90 ストロボユニット
104 シャッタスイッチ
108 表示部
DESCRIPTION OF
38
Claims (5)
前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段と、
前記シーン判別手段を制御する制御手段と、を有し、
前記制御手段は、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする画像処理装置。 Calculation means for periodically calculating a scene discrimination evaluation value used for scene discrimination of a subject from an image taken in time series by the imaging means;
Scene discrimination means for discriminating the scene of the subject using the scene discrimination evaluation value calculated by the calculation means;
Control means for controlling the scene discrimination means,
The control means calculates from the images obtained when the luminance of the subject does not converge within a predetermined range with respect to the target brightness among the images taken in time series by the scene discrimination means. The scene of the subject is not discriminated using the determined scene discrimination evaluation value, and is calculated from an image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance. An image processing apparatus, comprising: discriminating a scene of the subject using the determined scene discrimination evaluation value.
前記制御手段は、前記シーン判別手段に、前記顔検出手段による顔検出結果と前記シーン判別評価値を、前記被写体のシーンの判別に使用させることを特徴とする請求項1に記載の画像処理装置。 Face detection means for sequentially detecting a human face from images imaged in time series by the imaging means;
The image processing apparatus according to claim 1, wherein the control unit causes the scene determination unit to use a face detection result by the face detection unit and the scene determination evaluation value for determining a scene of the subject. .
前記画像処理装置の制御手段が、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする画像処理装置の制御方法。 Using the calculation means for periodically calculating the scene discrimination evaluation value used for scene discrimination of the subject from the images taken in time series by the imaging means, and using the scene discrimination evaluation value calculated by the calculation means, A control method of an image processing apparatus having scene determination means for determining the scene of the subject,
Obtained when the control means of the image processing device has the luminance of the subject not converged within a predetermined range with respect to the target luminance among the images taken in time series by the scene discrimination means. Obtained when the subject scene is not discriminated using the scene discrimination evaluation value calculated from the obtained image and the luminance of the subject converges within the predetermined range with respect to the target luminance. A method for controlling an image processing apparatus, comprising: discriminating a scene of the subject using the scene discrimination evaluation value calculated from a captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013048477A JP5451918B2 (en) | 2013-03-11 | 2013-03-11 | Imaging apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013048477A JP5451918B2 (en) | 2013-03-11 | 2013-03-11 | Imaging apparatus, control method thereof, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009022962A Division JP5317737B2 (en) | 2009-02-03 | 2009-02-03 | Imaging apparatus, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013153500A JP2013153500A (en) | 2013-08-08 |
JP5451918B2 true JP5451918B2 (en) | 2014-03-26 |
Family
ID=49049428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013048477A Expired - Fee Related JP5451918B2 (en) | 2013-03-11 | 2013-03-11 | Imaging apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5451918B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10110826B2 (en) | 2014-02-25 | 2018-10-23 | Sony Corporation | Imaging with adjustment of angle of view |
-
2013
- 2013-03-11 JP JP2013048477A patent/JP5451918B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013153500A (en) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5317737B2 (en) | Imaging apparatus, control method thereof, and program | |
US8937677B2 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable medium | |
US8970716B2 (en) | Image-capturing apparatus and control method of the image-capturing apparatus | |
US10129486B2 (en) | Image capturing apparatus, control method therefor, and storage medium | |
US10116876B2 (en) | Image capturing method and apparatus, with reduced saturation and improved signal-to-noise ratio based on a dynamic range | |
JP2009171220A (en) | Imaging apparatus and its control method | |
JP5759190B2 (en) | Imaging apparatus and control method thereof | |
JP5036334B2 (en) | Imaging apparatus, imaging method, and program for causing computer to execute the method | |
JP2010287919A (en) | Imaging device | |
JP6758950B2 (en) | Imaging device, its control method and program | |
KR20100091845A (en) | Digital photographing apparatus, method for controlling the same and medium for recording the method | |
JP5451918B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2012163679A (en) | Imaging device, stroboscope control method, and stroboscope control program | |
JP6603892B2 (en) | Imaging device | |
JP5832618B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2022171438A (en) | Exposure control device, imaging apparatus, control method, and program | |
JP4789776B2 (en) | Imaging apparatus and imaging method | |
US9525815B2 (en) | Imaging apparatus, method for controlling the same, and recording medium to control light emission | |
JP2015041823A (en) | Imaging apparatus, control method of the same, program, and storage medium | |
JP2010183298A (en) | Imaging device and control method thereof | |
JP2010169825A (en) | Imaging device | |
JP6501628B2 (en) | Imaging device, control method therefor, and control program | |
JP2014127770A (en) | Imaging apparatus | |
JP5323245B2 (en) | Imaging device | |
JP2010041504A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131226 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5451918 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |