JP5451918B2 - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP5451918B2
JP5451918B2 JP2013048477A JP2013048477A JP5451918B2 JP 5451918 B2 JP5451918 B2 JP 5451918B2 JP 2013048477 A JP2013048477 A JP 2013048477A JP 2013048477 A JP2013048477 A JP 2013048477A JP 5451918 B2 JP5451918 B2 JP 5451918B2
Authority
JP
Japan
Prior art keywords
scene
subject
image
evaluation value
scene discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013048477A
Other languages
Japanese (ja)
Other versions
JP2013153500A (en
Inventor
聡 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013048477A priority Critical patent/JP5451918B2/en
Publication of JP2013153500A publication Critical patent/JP2013153500A/en
Application granted granted Critical
Publication of JP5451918B2 publication Critical patent/JP5451918B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮像装置、その制御方法及びプログラムに関する。   The present invention relates to an imaging apparatus, a control method thereof, and a program.

従来、デジタルスチルカメラなどの撮像装置には、逐次撮像された被写体の明るさ、色、距離、動きなどの様々な事情を判断して被写体状況(シーン)を示すシーン判別評価値を算出するものがある。このような撮像装置は、算出されたシーン判別評価値と顔検出結果とにより特定されたシーンに応じて撮像を行う。例えば、特許文献1には、シーンに応じた撮像には、主被写体が存在すると推定される領域とそれ以外の領域の明暗差を示すシーン判別評価値とに基づいて逆光シーンであることを検出し、逆光を解消するような露出制御を行う技術が開示されている。   Conventionally, in an imaging apparatus such as a digital still camera, a scene discrimination evaluation value indicating a subject situation (scene) is calculated by judging various circumstances such as brightness, color, distance, and movement of sequentially photographed subjects. There is. Such an imaging apparatus performs imaging according to the scene specified by the calculated scene discrimination evaluation value and the face detection result. For example, in Patent Document 1, it is detected that a scene is a backlight scene based on a scene discrimination evaluation value indicating a difference in brightness between an area where a main subject is estimated to exist and an area other than the area where the main subject is present. However, a technique for performing exposure control that eliminates backlight is disclosed.

特開2008−287091号公報JP 2008-287091 A

しかしながら、CCDやCMOSイメージセンサを用いた撮像素子で被写体の明るさ、色、距離、動きなどの様々な事情を判断しようとすると、そのダイナミックレンジの狭さが課題となる。静止画や動画の撮影の用いる撮像素子は、そもそもダイナミックレンジが広くなく、明暗差が激しいシーンの測光には不向きである。露出量が不適切である場合、明部の白とび、暗部の黒つぶれが顕著になり、逐次撮像された被写体の明るさ、色、距離、動きなどの様々な事情を判断しようとしても、適切な検出を行うことはできない。このような状況下でシーン判別を行い、その判別結果に応じて撮像を行ってしまうと、かえって不適切な画像となってしまうおそれがある。   However, when an image sensor using a CCD or CMOS image sensor is used to determine various circumstances such as the brightness, color, distance, and movement of a subject, the narrow dynamic range becomes a problem. An image sensor used for taking a still image or a moving image does not have a wide dynamic range in the first place, and is not suitable for photometry of a scene having a strong contrast between light and dark. If the amount of exposure is inappropriate, overexposure in bright areas and blackout in dark areas will be noticeable. Even if you try to determine various circumstances such as the brightness, color, distance, and movement of subjects that have been sequentially captured, Cannot be detected. If scene discrimination is performed under such circumstances and imaging is performed according to the discrimination result, there is a risk that an inappropriate image will be obtained.

本発明は、このような従来技術の課題を解決することを目的としてなされたものである。本発明の目的は、撮像素子のダイナミックレンジが狭くとも適切なシーン判別を可能とする撮像装置、その制御方法及びプログラムを提供することである。   The present invention has been made for the purpose of solving such problems of the prior art. An object of the present invention is to provide an imaging apparatus capable of appropriate scene discrimination even when the dynamic range of the imaging element is narrow, a control method thereof, and a program.

上記目的は、撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段と、前記シーン判別手段を制御する制御手段と、を有し、前記制御手段は、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする本発明による画像処理装置によって達成される。   The object is to periodically calculate a scene discrimination evaluation value used for scene discrimination of a subject from images taken in time series by the imaging means, and to calculate the scene discrimination evaluation value calculated by the calculation unit. And a scene discriminating unit that discriminates the scene of the subject and a control unit that controls the scene discriminating unit, and the control unit is imaged in time series by the scene discriminating unit. Among the images, the scene of the subject is discriminated using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject does not converge within a predetermined range with respect to the target luminance. First, the scene of the subject using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance. It is achieved by the image processing apparatus according to the present invention characterized by causing another.

また、上記目的は、撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段とを有する画像処理装置の制御方法であって、前記画像処理装置の制御手段が、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする本発明による画像処理装置の制御方法によっても達成される。   Further, the object is to periodically calculate a scene discrimination evaluation value used for scene discrimination of a subject from images captured in time series by the imaging unit, and the scene discrimination evaluation calculated by the calculation unit. A method of controlling an image processing apparatus having a scene determination means for determining a scene of the subject using a value, wherein the control means of the image processing apparatus images the scene determination means in the time series. Among the obtained images, the scene determination of the subject using the scene determination evaluation value calculated from the image obtained when the luminance of the subject does not converge within a predetermined range with respect to the target luminance is The subject using the scene discrimination evaluation value calculated from the image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance without performing Also achieved by a method of controlling an image processing apparatus according to the present invention characterized by causing the determination of a scene.

本発明によれば、撮像素子のダイナミックレンジが狭くとも適切にシーン判別することができる。   According to the present invention, it is possible to appropriately determine a scene even if the dynamic range of the image sensor is narrow.

本実施形態に係る撮像装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to an embodiment. (a)は、本実施形態に係る撮像装置の前面外観を示す図であり、(b)は、本実施形態に係る撮像装置の背面外観を示す図である。(A) is a figure which shows the front external appearance of the imaging device which concerns on this embodiment, (b) is a figure which shows the back external appearance of the imaging device which concerns on this embodiment. 表示部のライブ画像を例示する図である。It is a figure which illustrates the live image of a display part. 各シーンを抽象化したシーンアイコンを例示する図である。It is a figure which illustrates the scene icon which abstracted each scene. 撮像装置による撮像の一例を示す図である。It is a figure which shows an example of the imaging by an imaging device. 撮像装置におけるシーン判別評価値の生成、顔検出、シーン判別のタイミングの一例を示すタイミングチャートである。6 is a timing chart showing an example of timings of scene discrimination evaluation value generation, face detection, and scene discrimination in the imaging apparatus. 撮像装置におけるシーン判別評価値の生成、顔検出、シーン判別のタイミングの一例を示すタイミングチャートである。6 is a timing chart showing an example of timings of scene discrimination evaluation value generation, face detection, and scene discrimination in the imaging apparatus. 撮像装置におけるシーン判別評価値の生成、顔検出、シーン判別のタイミングの一例を示すタイミングチャートである。6 is a timing chart showing an example of timings of scene discrimination evaluation value generation, face detection, and scene discrimination in the imaging apparatus. 撮像装置におけるシーン判別評価値の生成、顔検出、シーン判別のタイミングの一例を示すタイミングチャートである。6 is a timing chart showing an example of timings of scene discrimination evaluation value generation, face detection, and scene discrimination in the imaging apparatus. 撮像装置におけるシーン判別評価値の生成、顔検出、シーン判別のタイミングの一例を示すタイミングチャートである。6 is a timing chart showing an example of timings of scene discrimination evaluation value generation, face detection, and scene discrimination in the imaging apparatus. 本実施形態に係る撮像装置の全体フローを示すフローチャートである。It is a flowchart which shows the whole flow of the imaging device which concerns on this embodiment. シーン判別処理を示すフローチャートである。It is a flowchart which shows a scene discrimination | determination process.

以下、この発明の実施の形態について図を参照して説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の最も好ましい形態を示すものであり、発明の範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, the embodiment of the present invention shows the most preferable mode of the invention, and does not limit the scope of the invention.

図1は、本実施形態に係る撮像装置100の全体構成を示すブロック図である。図1に示すように、撮像装置100では、レンズ10により外光を撮像素子16に集光する。図1ではレンズは1枚として表現しているが、複数枚のレンズから構成されたレンズユニットを搭載することも可能である。   FIG. 1 is a block diagram illustrating an overall configuration of an imaging apparatus 100 according to the present embodiment. As shown in FIG. 1, in the imaging apparatus 100, external light is condensed on the imaging element 16 by the lens 10. In FIG. 1, the lens is expressed as one lens, but it is also possible to mount a lens unit composed of a plurality of lenses.

また、レンズ10は、レンズ駆動回路42にてレンズ位置を光軸に沿って前後に動かすことで焦点を調節したり、画角を調節したりすることも可能である。さらに、ブレ量検知回路44で測定した撮像装置100のブレ量を元に、手ブレ補正回路40にてレンズを駆動し、手ブレをキャンセルする方向に光軸を変化させることで、光学的な手ブレ補正を行うことも可能である。なお、ブレ量検知回路44には撮像装置100のブレ量を測定するジャイロセンサが含まれている。図1ではレンズを駆動することで手ブレ補正を実現しているが、同様に撮像素子16を駆動することで手ブレ補正を実現してもよい。   In addition, the lens 10 can adjust the focal point and the angle of view by moving the lens position back and forth along the optical axis by the lens driving circuit 42. Further, based on the blur amount of the imaging apparatus 100 measured by the blur amount detection circuit 44, the lens is driven by the camera shake correction circuit 40, and the optical axis is changed in a direction in which the camera shake is canceled. It is also possible to perform camera shake correction. Note that the blur amount detection circuit 44 includes a gyro sensor that measures the blur amount of the imaging apparatus 100. In FIG. 1, camera shake correction is realized by driving the lens, but camera shake correction may be realized by driving the image sensor 16 in the same manner.

レンズ10を通過した光は絞り14によりその光量が調節される。撮像装置100では、制御部60が絞り制御情報を絞り駆動回路26に伝達することで、絞り14を制御することが可能となっている。   The amount of light passing through the lens 10 is adjusted by the diaphragm 14. In the imaging apparatus 100, the control unit 60 can control the diaphragm 14 by transmitting the diaphragm control information to the diaphragm driving circuit 26.

絞り14は、複数枚の羽から構成された虹彩絞りや、板に予め様々な径の孔を打ち抜いた丸絞りがある。制御部60は、絞り14と絞り駆動回路26を用い、被写体輝度が高い場合は絞りを絞って光量を落とすように制御し、被写体輝度が低い場合は絞りを開放にして光を多く取り込むように制御する。   The diaphragm 14 includes an iris diaphragm composed of a plurality of wings and a round diaphragm in which holes of various diameters are punched in advance on a plate. The control unit 60 uses the diaphragm 14 and the diaphragm drive circuit 26 to control the diaphragm so as to reduce the amount of light when the subject brightness is high, and to capture a large amount of light by opening the diaphragm when the subject brightness is low. Control.

撮像装置100では、制御部60がメカニカルシャッタ制御情報をメカニカルシャッタ駆動回路28に伝達することでメカニカルシャッタ12を制御することが可能となっている。静止画撮像時の露出時間はメカニカルシャッタ12の開閉時間により決定され、この露出時間は制御部60が時間を判断し、メカニカルシャッタ駆動回路28に指示を出すことで決定される。   In the imaging apparatus 100, the control unit 60 can control the mechanical shutter 12 by transmitting mechanical shutter control information to the mechanical shutter drive circuit 28. The exposure time at the time of still image capturing is determined by the opening / closing time of the mechanical shutter 12, and this exposure time is determined by the control unit 60 judging the time and giving an instruction to the mechanical shutter drive circuit 28.

レンズ10、メカニカルシャッタ12、絞り14を通過した光は撮像素子16で受光される。撮像装置100は、制御部60が撮像素子制御信号をTG24(TimingGenerator)に伝達することで撮像素子16を制御することができる。   Light that has passed through the lens 10, the mechanical shutter 12, and the aperture 14 is received by the image sensor 16. The imaging device 100 can control the imaging device 16 by the control unit 60 transmitting an imaging device control signal to the TG 24 (Timing Generator).

TG24は、制御部60から受信した撮像素子制御信号を元に撮像素子16を駆動する。撮像素子16は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどであり、露出時に受光した被写体像を光電変換する。撮像素子16は、TG24からの駆動信号に基づいて、露出と露出時に光電変換された撮像データの読み出しが行われる。なお、この露出と光電変換された撮像データの読み出しとは、TG24からの駆動信号を基準に周期的に行ってもよい。   The TG 24 drives the image sensor 16 based on the image sensor control signal received from the control unit 60. The image sensor 16 is a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like, and photoelectrically converts a subject image received during exposure. Based on the drive signal from the TG 24, the image sensor 16 reads out image data that has undergone photoelectric conversion during exposure and exposure. Note that this exposure and readout of photoelectrically converted imaging data may be periodically performed based on a drive signal from the TG 24.

また、撮像素子16で光電変換された撮像データは、特定のラインや特定の領域のみを読み出してもよい。これは、TG24から出力される読み出し用の駆動信号に応じて読み出し方法を変更することで実現できる。制御部60は、状況に応じて最適な読み出し方式を決定し、TG24に指示する。例えば、静止画撮像時には、解像度の高い撮像データが要求されるため、撮像素子16の全データを読み出す方式が決定される。また、電子ビューファインダ(ElectricalViewFinder)時や動画撮像時には、30fps又は60fpsなどの高いフレームレートが要求されるため、撮像素子16の特定のラインだけ間引いて読み出す方式が決定される。   Moreover, only the specific line or the specific area may be read out from the imaging data photoelectrically converted by the imaging element 16. This can be realized by changing the readout method according to the readout drive signal output from the TG 24. The control unit 60 determines an optimum reading method according to the situation, and instructs the TG 24. For example, since a high-resolution image data is required when capturing a still image, a method for reading out all data of the image sensor 16 is determined. In addition, since a high frame rate such as 30 fps or 60 fps is required at the time of electronic viewfinder (Electrical ViewFinder) or moving image shooting, a method of thinning and reading out a specific line of the image sensor 16 is determined.

また、TG24は、撮像素子16の露出時間を制御することが可能である。これは、任意のタイミングで光電変換によりチャージした電荷を撮像素子16が開放するように、駆動信号を撮像素子16へ出すことで実現できる。   Further, the TG 24 can control the exposure time of the image sensor 16. This can be realized by outputting a drive signal to the image sensor 16 so that the image sensor 16 releases charges charged by photoelectric conversion at an arbitrary timing.

撮像素子16から読み出された撮像データは、CDS回路18(Correlated Double Sampler)を通過する。CDS回路18は、相関二重サンプリング方式により撮像データのノイズ成分を除去することを主な役割とする。その後、撮像データはPGA回路20(Programmable Gain Amplifier)により減衰/増幅される。制御部60は、増幅レベルをPGA回路20に伝達することで、PGA回路20における減衰/増減量を制御する。   The imaging data read from the imaging element 16 passes through the CDS circuit 18 (Correlated Double Sampler). The main role of the CDS circuit 18 is to remove noise components of the imaging data by the correlated double sampling method. Thereafter, the imaging data is attenuated / amplified by a PGA circuit 20 (Programmable Gain Amplifier). The controller 60 controls the attenuation / increase / decrease amount in the PGA circuit 20 by transmitting the amplification level to the PGA circuit 20.

通常、撮像素子16の露出を適正とすることは、絞り14で撮像素子16への露出量を適切に設定すると共に、メカニカルシャッタ12における露出時間を適切に設定することで実現される。PGA回路20では、撮像データの減衰/増幅を行うことで、擬似的に露出を替えるという機能を提供することができる。すなわち、PGA回路20は、絞りやシャッタ速度と並ぶ撮像時の露出条件の一つである感度を切り替えるという機能を提供する。   Usually, appropriate exposure of the image sensor 16 is realized by appropriately setting the exposure amount to the image sensor 16 with the aperture 14 and appropriately setting the exposure time in the mechanical shutter 12. The PGA circuit 20 can provide a function of changing exposure in a pseudo manner by performing attenuation / amplification of imaging data. That is, the PGA circuit 20 provides a function of switching sensitivity, which is one of the exposure conditions at the time of imaging along with the aperture and shutter speed.

PGA回路20で減衰/増幅された撮像データは、A/D回路22(Analog/Digital Converter)にてアナログ信号からデジタル信号へ変換される。なお、図1では、CDS回路、PGA回路、A/D回路をそれぞれ別のブロックとして表現しているが、一つのIC(Integrated Circuit)パッケージにこれらの機能を搭載したものを用いてもよい。   The imaging data attenuated / amplified by the PGA circuit 20 is converted from an analog signal to a digital signal by an A / D circuit 22 (Analog / Digital Converter). In FIG. 1, the CDS circuit, the PGA circuit, and the A / D circuit are represented as separate blocks, but a single IC (Integrated Circuit) package having these functions may be used.

A/D回路22でデジタル信号に変換された撮像データは、画像処理回路50へ入力される。画像処理回路50は、画像処理を行うブロックが複数構成され、種々の画像処理を行う。撮像素子16は、カラーフィルタ(図示しない)を通して各画素ごとに特定の色成分を抽出している。したがって、A/D回路22から出力される撮像データは、撮像素子16の画素及びカラーフィルタの配置に対応したデータ形式となっている。よって、A/D回路22から輝度成分のみを評価して露出制御を行う自動露出制御(AE:AutoExposureControl)で使用するには適さないデータ形式である。このため、画像処理回路50では、撮像データから色情報を排除し、輝度情報のみを抜き出す機能を備えている。逆に色情報を抜き出す機能も備え、被写体の光源を特定し、色を適切に調整するホワイトバランス(AWB)処理に使用することも可能となっている。   The imaging data converted into a digital signal by the A / D circuit 22 is input to the image processing circuit 50. The image processing circuit 50 includes a plurality of blocks for performing image processing, and performs various image processing. The image sensor 16 extracts a specific color component for each pixel through a color filter (not shown). Therefore, the image data output from the A / D circuit 22 has a data format corresponding to the arrangement of the pixels and the color filters of the image sensor 16. Therefore, the data format is not suitable for use in automatic exposure control (AE) in which exposure control is performed by evaluating only the luminance component from the A / D circuit 22. For this reason, the image processing circuit 50 has a function of excluding color information from image data and extracting only luminance information. Conversely, it also has a function of extracting color information, and can be used for white balance (AWB) processing that specifies the light source of the subject and appropriately adjusts the color.

さらに、画像処理回路50では、撮像素子16から撮像データの周波数成分のみを抜き出す機能を備え、自動ピント合わせ制御(AF:AutoFocus)に使用することが可能となっている。撮像素子16から読み出された撮像データのどの領域の周波数成分を抽出するか、また、領域内をどのように分割するかを決定する機能を備えている。   Further, the image processing circuit 50 has a function of extracting only the frequency component of the image data from the image sensor 16 and can be used for automatic focus control (AF: AutoFocus). A function of determining which region of the image data read from the image sensor 16 is to be extracted and how to divide the region is provided.

さらに、画像処理回路50は、A/D回路22によりデジタル信号に変換された撮像データのレベルの増減、画像の色効果などを操作する機能を備え、撮像画像の画質を調整する役割も担っている。撮像データのレベルに関しては、画像全体に一律の増幅率でレベルを増減させる、元の信号レベルの大小に応じて信号レベルを変換するガンマ変換、画面内の領域ごとの周波数成分に応じた増幅率でレベルを増減させるなど、様々な調整が可能となっている。   Further, the image processing circuit 50 has a function of operating the increase / decrease of the level of the imaging data converted into a digital signal by the A / D circuit 22 and the color effect of the image, and also plays a role of adjusting the image quality of the captured image. Yes. Regarding the level of image data, gamma conversion that converts the signal level according to the magnitude of the original signal level, and the amplification factor according to the frequency component for each area in the screen Various adjustments, such as increasing or decreasing the level, are possible.

A/D回路22によりデジタル信号に変換された撮像データは、画像処理回路50へ入力されると同時に、一時記憶メモリ30に記憶されてもよい。一旦、一時記憶メモリ30に記憶した撮像データは再度読み出すことができ、画像処理回路50から撮像データを参照したり、読み出した撮像データを画像処理回路50に入力することも可能である。さらに、画像処理回路50で画像処理した撮像データを一時記憶メモリ30に書き戻したり、画像処理回路50からの任意のデータを一時記憶メモリ30に書き込むことも可能である。   The imaging data converted into a digital signal by the A / D circuit 22 may be input to the image processing circuit 50 and stored in the temporary storage memory 30 at the same time. The imaging data once stored in the temporary storage memory 30 can be read again, the imaging data can be referred to from the image processing circuit 50, or the read imaging data can be input to the image processing circuit 50. Further, the image data processed by the image processing circuit 50 can be written back to the temporary storage memory 30, or arbitrary data from the image processing circuit 50 can be written to the temporary storage memory 30.

画像処理回路50で処理された撮像データは画像認識回路38に入力される。画像認識回路38は、入力された画像の明るさ状況、ピント合焦状況、色状況の認識に加え、人物の顔認識とその表情、文字がある場合はその文字情報を認識することが可能となっている。画像認識回路38には複数の画像を入力することが可能となっており、例えば2つの画像を入力し、その2つの画像の特徴を比較することで、同一の画像か否かの判定をすることが可能である。   The imaging data processed by the image processing circuit 50 is input to the image recognition circuit 38. The image recognition circuit 38 is capable of recognizing a person's face, its facial expression, and character information when there is a character, in addition to recognizing the brightness state, focus state, and color state of the input image. It has become. It is possible to input a plurality of images to the image recognition circuit 38. For example, two images are input and the characteristics of the two images are compared to determine whether or not they are the same image. It is possible.

画像認識回路38で画像を認識する方法に加え、制御部60でも画像認識処理を行うことができる。制御部60は、図示しないCPU(Central Processing Unit)上で予めコーディングされたプログラムを実行することが可能となっている。このプログラムを順次実行することで、制御部60は、一時記憶メモリ30に記憶された撮像データを読み出して、その読み出した撮像データを解析して撮像時の状況を認識することができる。   In addition to the method of recognizing an image by the image recognition circuit 38, the control unit 60 can also perform image recognition processing. The control unit 60 can execute a program coded in advance on a CPU (Central Processing Unit) (not shown). By sequentially executing this program, the control unit 60 can read the imaging data stored in the temporary storage memory 30, analyze the read imaging data, and recognize the situation at the time of imaging.

LCD(Liquid Crystal Display)などである表示部108に撮像データを表示出力する場合は、画像処理回路50で画像処理を行った撮像データをVRAM34(Video Random Access Memory)に展開する。VRAM34に展開した撮像データは、D/A回路36にてアナログデータに変換されて表示部108に表示出力される。電子ビューファインダ表示は、撮像素子16から連続して読み出される撮像データを順次表示部108に表示することで実現される。なお、VRAM34上には、1つの撮像画像を表示部108に最も大きくなるように表示する、又は複数の撮像画像をマルチ画面表示するなど、様々な表示形態に対応するように撮像データを展開してよい。   When image data is displayed and output on the display unit 108 such as an LCD (Liquid Crystal Display), the image data subjected to image processing by the image processing circuit 50 is developed in a VRAM 34 (Video Random Access Memory). The imaging data developed in the VRAM 34 is converted into analog data by the D / A circuit 36 and displayed on the display unit 108. The electronic viewfinder display is realized by sequentially displaying image data read out from the image sensor 16 on the display unit 108. Note that on the VRAM 34, the captured data is expanded so as to correspond to various display forms such as displaying one captured image on the display unit 108 so as to be the largest, or displaying a plurality of captured images on a multi-screen. It's okay.

表示部108には、画像だけでなく任意の情報を単独、もしくは画像と共に表示してもよい。具体的には、撮像装置100の状態、ユーザが選択あるいは撮像装置100が決定したシャッタ速度、絞り値、感度情報などの文字情報、画像処理回路50にて測定した輝度分布などのグラフ、顔認識結果、シーン認識結果などがある。また、表示部108では、情報の表示位置、表示色も操作部70により受け付けられたユーザの操作指示に応じて任意に選択可能である。撮像装置100では、操作部70により受け付けられたユーザの操作指示に応じて、これら様々な情報を表示部108で表示することで、ユーザインターフェースを実現している。   The display unit 108 may display not only an image but also arbitrary information alone or together with the image. Specifically, the state of the imaging device 100, the shutter speed selected by the user or determined by the imaging device 100, character information such as aperture value and sensitivity information, a graph such as the luminance distribution measured by the image processing circuit 50, face recognition Results include scene recognition results. In the display unit 108, the display position and display color of information can be arbitrarily selected according to the user's operation instruction received by the operation unit 70. In the imaging apparatus 100, the user interface is realized by displaying these various types of information on the display unit 108 in accordance with a user operation instruction received by the operation unit 70.

操作部70は、電源スイッチ102、シャッタスイッチ104、モード切替スイッチ110、パラメータ選択スイッチ151、153、157、159などを有する。電源スイッチ102は、ユーザから電源のON/OFFの指示を受け付ける。シャッタスイッチ104は、ユーザから撮像を準備するための撮像準備指示や撮像開始指示を受け付ける。モード切替スイッチ110は、ユーザから撮像モードの切り替え指示を受け付ける。パラメータ選択スイッチ151、153、157、159は、ユーザからパラメータの選択指示を受け付ける。なお、上述した各スイッチの詳細については後述する。   The operation unit 70 includes a power switch 102, a shutter switch 104, a mode switch 110, parameter selection switches 151, 153, 157, 159, and the like. The power switch 102 receives a power ON / OFF instruction from the user. The shutter switch 104 receives an imaging preparation instruction and an imaging start instruction for preparing imaging from the user. The mode switch 110 receives an instruction to switch the imaging mode from the user. Parameter selection switches 151, 153, 157, and 159 accept parameter selection instructions from the user. Details of each of the switches described above will be described later.

また、表示部108には、記憶媒体I/F80を介して撮像装置100と接続する記憶媒体82に記憶されている画像データを読み出して表示することも可能である。なお、画像データが圧縮されている場合は、圧縮伸長部32にて画像データを伸長し、伸長後の画像データをVRAM34に展開する。   The display unit 108 can also read and display image data stored in the storage medium 82 connected to the imaging device 100 via the storage medium I / F 80. If the image data is compressed, the compression / decompression unit 32 decompresses the image data and expands the decompressed image data in the VRAM 34.

記憶媒体82は、記憶媒体I/F80を介して撮像装置100と接続可能となっており、制御部60の制御の下でデータの読み出し又は記憶が可能な不揮発性のメモリである。記憶媒体82には、主に撮像した画像データを記憶することが可能である。また、各画像データには、絞り値、シャッタ速度、ISO感度、撮像した時刻などの撮像情報を付加することができる。この付加されたデータは画像データと共に記憶媒体82に記憶されてもよい。   The storage medium 82 is a non-volatile memory that can be connected to the imaging apparatus 100 via the storage medium I / F 80 and can read or store data under the control of the control unit 60. The storage medium 82 can store mainly captured image data. In addition, imaging information such as an aperture value, shutter speed, ISO sensitivity, and imaging time can be added to each image data. The added data may be stored in the storage medium 82 together with the image data.

外部機器I/F84は、PC(Personal Computer)などの外部機器86と接続するための通信インターフェースである。撮像装置100と外部機器86とは、外部機器I/F84を介して互いに通信可能に接続され、制御部60の制御の下でデータの送受信が可能となっている。例えば、外部機器86からの指示に応じて撮像した画像データの転送などが外部機器I/F84を介して行われる。   The external device I / F 84 is a communication interface for connecting to an external device 86 such as a PC (Personal Computer). The imaging apparatus 100 and the external device 86 are connected to each other via an external device I / F 84 so that they can communicate with each other, and can transmit and receive data under the control of the control unit 60. For example, transfer of image data captured in accordance with an instruction from the external device 86 is performed via the external device I / F 84.

図2に撮像装置100の外観図を示す。図2(a)は、撮像装置100の前面外観を示す図である。図2(b)は、撮像装置100の背面外観を示す図である。   FIG. 2 shows an external view of the imaging apparatus 100. FIG. 2A is a diagram illustrating an appearance of the front surface of the imaging apparatus 100. FIG. 2B is a diagram illustrating a rear appearance of the imaging apparatus 100.

図2(a)に示すように、撮像装置100の前面にはレンズ10が配置されており、撮像装置100は被写体像を捉えることが可能となっている。レンズ10が設けられた同一面(前面)には制御部60により発光が制御されるストロボユニット90が配置されている。撮像装置100は、主被写体が暗い場合にストロボユニット90を発光させることで撮像に十分な光量を得ることができ、暗い中でも速いシャッタ速度を保ち、好適な撮像画像を得ることができる。   As shown in FIG. 2A, a lens 10 is disposed on the front surface of the imaging apparatus 100, and the imaging apparatus 100 can capture a subject image. A strobe unit 90 whose light emission is controlled by the control unit 60 is disposed on the same surface (front surface) on which the lens 10 is provided. The imaging apparatus 100 can obtain a sufficient amount of light for imaging by causing the flash unit 90 to emit light when the main subject is dark, and can obtain a suitable captured image while maintaining a fast shutter speed even in the dark.

図2(b)に示すように、撮像装置100の背面には表示部108が配置されている。表示部108は、撮像素子16で逐次撮像された撮像画像を連続して表示する電子ビューファインダ表示を行い、ユーザがその連続画像(ライブ画像)を参照して被写体を捉えるためのファインダとして使用されてもよい。このとき、AE(自動露出調整)やAF(自動焦点調整)における測光領域情報、測距領域情報をライブ画像に重畳して表示することも可能である。さらに、表示部108には、被写体の認識情報として、人物の顔を認識した結果に応じてその人物の顔に枠を重畳して表示したり、青空、夕陽、逆光など、背景シーンの状況を認識した結果をアイコンで表示してもよい。
また、撮像装置100の背面には従来からの光学ファインダ106を併設してもよい。
As illustrated in FIG. 2B, the display unit 108 is disposed on the back surface of the imaging device 100. The display unit 108 performs an electronic viewfinder display that continuously displays captured images sequentially captured by the image sensor 16 and is used as a finder for a user to capture a subject with reference to the continuous images (live images). May be. At this time, the photometry area information and the distance measurement area information in AE (automatic exposure adjustment) and AF (automatic focus adjustment) can be displayed superimposed on the live image. Furthermore, on the display unit 108, as subject recognition information, a frame is superimposed on the person's face according to the result of recognizing the person's face, and background scene conditions such as blue sky, sunset, and backlight are displayed. The recognized result may be displayed as an icon.
Further, a conventional optical viewfinder 106 may be provided on the back surface of the imaging apparatus 100.

また、撮像装置100の背面にはモード切替スイッチ110が設けられている。モード切替スイッチ110は、静止画撮像モード、動画撮像モード、再生モードなどの撮像装置100の動作モードの切り替え指示をユーザから受け付ける。   Further, a mode change switch 110 is provided on the back surface of the imaging apparatus 100. The mode switch 110 receives from the user an instruction to switch the operation mode of the imaging apparatus 100 such as a still image capturing mode, a moving image capturing mode, and a playback mode.

また、撮像装置100の背面には決定スイッチ、カーソルスイッチなどのパラメータ選択スイッチ151、153、155、157、159が設けられている。このパラメータ選択スイッチ151、153、155、157、159により、測距領域や測光モードをはじめとする撮像時の撮像条件の選択、撮像画像の再生時のページ送り、動作設定全般などのパラメータをユーザが選択して設定できる。さらに、前述の電子ビューファインダ表示のON/OFFを選択してもよい。また、表示部108は、画像を表示するとともに、タッチパネルとして、パラメータ選択スイッチ151、153、155、157、159と同様の設定をユーザから受け付けてもよい。   In addition, parameter selection switches 151, 153, 155, 157, and 159 such as a determination switch and a cursor switch are provided on the back surface of the imaging apparatus 100. The parameter selection switches 151, 153, 155, 157, and 159 are used to select parameters such as selection of imaging conditions such as a distance measurement area and photometry mode, page feed during reproduction of captured images, and general operation settings. Can be selected and set. Further, ON / OFF of the electronic viewfinder display described above may be selected. The display unit 108 may display an image and accept a setting similar to that of the parameter selection switches 151, 153, 155, 157, and 159 from the user as a touch panel.

図2(a)、図2(b)に示すように、撮像装置100の上部には電源スイッチ102、シャッタスイッチ104が配置されている。シャッタスイッチ104は、スイッチを浅く押下する場合(SW1動作)と深く押下する場合(SW2動作)の2段階の押下操作をユーザから受け付ける。そして、シャッタスイッチ104は、SW1動作で静止画撮像の撮像準備開始の指示を、SW2動作で静止画像の撮像開始の指示をユーザから受け付ける。よって、ユーザがシャッタスイッチ104を浅く押すことで、撮像装置100では撮像準備として自動露出調整と自動焦点調整とが行われる。次いで、ユーザがシャッタスイッチ104を深く押すことで撮像装置100では静止画撮像や画像認識などが行われることとなる。   As shown in FIGS. 2A and 2B, a power switch 102 and a shutter switch 104 are arranged on the upper portion of the imaging apparatus 100. The shutter switch 104 receives a two-step pressing operation from the user when the switch is pressed lightly (SW1 operation) and when pressed deeply (SW2 operation). The shutter switch 104 receives from the user an instruction to start imaging preparation for still image capturing in the SW1 operation and an instruction to start capturing still images in the SW2 operation. Therefore, when the user presses the shutter switch 104 shallowly, the image capturing apparatus 100 performs automatic exposure adjustment and automatic focus adjustment as preparation for image capturing. Next, when the user depresses the shutter switch 104 deeply, the image capturing apparatus 100 performs still image capturing, image recognition, and the like.

なお、自動露出調整では、例えばモード切替スイッチ110で選択された撮像モードに応じた制御線図に従って制御部60が露出制御して、モード切替スイッチ110で選択されている撮像モードで好適な露出を得るように動作する。撮像モードには、オートモードといった汎用的な撮像モードがある。また、予めユーザが設定したシャッタ速度を優先するシャッタ速度優先モード、予めユーザが設定した絞り値を優先する絞り優先モードなどの撮像モードがあってもよい。   In the automatic exposure adjustment, for example, the control unit 60 performs exposure control according to a control diagram corresponding to the imaging mode selected by the mode switch 110, and a suitable exposure is obtained in the imaging mode selected by the mode switch 110. Operate to get. The imaging mode includes a general-purpose imaging mode such as an auto mode. Further, there may be an imaging mode such as a shutter speed priority mode that prioritizes a shutter speed set in advance by the user and an aperture priority mode that prioritizes an aperture value set in advance by the user.

これらの撮像モードでは、PGA回路20で設定する撮像感度を自動で好適に選択設定することや、予めユーザが撮像感度を指定することも可能である。ユーザが予め撮像感度を指定する際、撮像感度を上げるほど撮像された画像信号のS/Nが劣化するため、画質を優先したいユーザは低感度を選択することが想定される。   In these imaging modes, the imaging sensitivity set by the PGA circuit 20 can be automatically selected and set appropriately, or the user can specify the imaging sensitivity in advance. When the user designates the imaging sensitivity in advance, the S / N of the captured image signal deteriorates as the imaging sensitivity is increased. Therefore, it is assumed that the user who wants to give priority to the image quality selects the low sensitivity.

ここで、撮像装置100において、シーンを識別して表示部108にその識別結果を表示する様子について図3を参照して説明する。図3は、表示部108のライブ画像を例示する図であり、人物391を撮像装置100で撮像した際に表示部108に表示される画像の様子を示している。   Here, how the imaging apparatus 100 identifies a scene and displays the identification result on the display unit 108 will be described with reference to FIG. FIG. 3 is a diagram illustrating a live image on the display unit 108, and shows a state of an image displayed on the display unit 108 when the person 391 is imaged by the imaging device 100.

人物391の被写体像は、レンズ10を通して撮像素子16に結像し、光電変換された後に撮像素子16から画像データとして読み出される。撮像素子16から読み出された画像データは、一時記憶メモリ30に記憶されるか、もしくは直接画像処理回路50に入力される。画像処理回路50では、顔認識に適した画像データを生成し、生成後の画像データを一時記憶メモリ30に記憶させる。また、画像処理回路50では、シーン認識に適した画像データを生成し、生成後の画像データを一時記憶メモリ30に記憶させる。また、画像処理回路50では、表示部108への表示に適した画像データを生成し、生成後の画像データをVRAM34に記憶させる。   The subject image of the person 391 is imaged on the image sensor 16 through the lens 10, photoelectrically converted, and then read out as image data from the image sensor 16. Image data read from the image sensor 16 is stored in the temporary storage memory 30 or directly input to the image processing circuit 50. The image processing circuit 50 generates image data suitable for face recognition, and stores the generated image data in the temporary storage memory 30. Further, the image processing circuit 50 generates image data suitable for scene recognition, and stores the generated image data in the temporary storage memory 30. Further, the image processing circuit 50 generates image data suitable for display on the display unit 108, and stores the generated image data in the VRAM 34.

その後、顔認識用に生成された画像データが画像認識回路38に入力され、画像認識回路38は人物の顔を検出する顔認識を行う。この顔認識の結果、人物の顔の数、位置、大きさが取得されることとなる。この画像認識回路38による顔認識の結果により、図3に示すように、表示部108では、VRAM34に予め生成された表示用の画像データを表示する際に、顔認識の結果に基づいた顔検出枠341を重畳描画する。   Thereafter, image data generated for face recognition is input to the image recognition circuit 38, and the image recognition circuit 38 performs face recognition for detecting a human face. As a result of this face recognition, the number, position, and size of a person's face are acquired. Based on the result of face recognition by the image recognition circuit 38, as shown in FIG. 3, the display unit 108 detects the face based on the result of face recognition when displaying the display image data generated in advance in the VRAM 34. The frame 341 is superimposed and drawn.

これと同時に、一時記憶メモリ30に生成されたシーン認識に適した画像データを読み出し、制御部60にて被写体の状況を判別するシーン判別(状況判別)が行われる。シーン判別は、予めプログラミングされたコードをCPUで実行することで実現されるアルゴリズムに従って行われる。したがって、判別可能なシーンの種類やシーン判別性能はそのプログラム次第となる。   At the same time, image data suitable for scene recognition generated in the temporary storage memory 30 is read, and scene determination (situation determination) is performed in which the controller 60 determines the state of the subject. The scene determination is performed according to an algorithm realized by executing a preprogrammed code by the CPU. Therefore, the type of scene that can be discriminated and the scene discrimination performance depend on the program.

制御部60にて判別されたシーンについては、その状態を抽象化して示すアイコン343として、画像認識回路38による顔認識の結果と共に表示部108の画面に重畳表示される。具体的には、図3に示すように、VRAM34に予め生成された表示用の画像データを表示部108に表示する際に、アイコン343として重畳表示される。なお、図3の例では表示部108の左上位置に人物のシーンアイコン311を表示する形態を表しているが、表示形態はこの限りでなく、表示位置、大きさ、アイコンデザインは任意に変更可能となっている。   The scene determined by the control unit 60 is superimposed and displayed on the screen of the display unit 108 together with the face recognition result by the image recognition circuit 38 as an icon 343 showing the state in an abstract manner. Specifically, as shown in FIG. 3, when display image data generated in advance in the VRAM 34 is displayed on the display unit 108, it is superimposed and displayed as an icon 343. In the example of FIG. 3, a form in which a person scene icon 311 is displayed at the upper left position of the display unit 108 is shown. However, the display form is not limited to this, and the display position, size, and icon design can be arbitrarily changed. It has become.

図4に、識別可能なシーンと、各シーンを抽象化したアイコンの例を示す。シーンアイコン301は、画像認識回路38で人物の顔が検出され、シーン判別処理により逆光シーンと判別された場合を示す。逆光シーンは、主被写体の背後に太陽などの明るい被写体が存在して主被写体が暗くなるが、シーン認識用の画像を複数のブロックに分割してブロック毎の輝度情報の分布をチェックして、逆光パターンであるか否かを判定することで判別される。   FIG. 4 shows an example of an identifiable scene and an icon obtained by abstracting each scene. A scene icon 301 indicates a case where a human face is detected by the image recognition circuit 38 and is determined to be a backlight scene by the scene determination process. In the backlight scene, there is a bright subject such as the sun behind the main subject and the main subject becomes dark, but the scene recognition image is divided into multiple blocks and the distribution of luminance information for each block is checked, This is determined by determining whether the pattern is a backlight pattern.

シーンアイコン303、305は、同様に逆光シーンであるが、主被写体が人物ではない場合を示している。さらに、シーンアイコン303においては、ピント合焦位置が至近距離であることを示している。このような合焦位置の情報もアイコンとして抽象化して表現してもよい。   Similarly, the scene icons 303 and 305 indicate a backlight scene, but the main subject is not a person. Further, the scene icon 303 indicates that the in-focus position is a close distance. Such in-focus position information may be abstracted as an icon.

シーンアイコン311、313、315は、それぞれ逆光シーンではなく、主被写体が人物である場合、主被写体が人物ではなく合焦位置が至近距離である場合、主被写体が人物ではない場合を示す。   Scene icons 311, 313, and 315 are not backlight scenes, respectively, and indicate that the main subject is a person, the main subject is not a person, the in-focus position is a close distance, and the main subject is not a person.

シーンアイコン321、325は、シーン判別処理により夜景シーンと判別された場合を示す。夜景シーンの判別は、逆光シーンと同様に制御部60にてシーン認識用の画像を解析することで行う。具体的には、画面内に暗い空領域が所定以上存在するか否かの判定、イルミネーションなどを示す点光源が存在するか否かの判定などの画像解析を行う。   Scene icons 321 and 325 indicate a case where a night scene is determined by the scene determination process. The night scene is discriminated by analyzing an image for scene recognition by the control unit 60 as in the case of the backlight scene. Specifically, image analysis such as determination of whether or not a dark sky area exists in the screen more than a predetermined amount, and determination of whether or not a point light source indicating illumination or the like exists is performed.

それに加え、本来は手ブレ補正に用いるブレ量検知回路44にて検出された撮像装置100のブレ量も使用して夜景シーンの判別を行ってもよい。夜景シーンの場合、シャッタ速度が長くなる撮像に対して、ユーザが撮像装置100を三脚固定したり任意の場所に置くなどしてブレないようにする。したがって、撮像装置100では、ブレ量検知回路44の検出結果に基づいてブレ量が微小になったことを検知できた場合を夜景シーンへ移行する条件の一つとする。   In addition, the night scene may be determined using the blur amount of the image pickup apparatus 100 that is originally detected by the blur amount detection circuit 44 used for camera shake correction. In the case of a night view scene, the user is prevented from blurring by capturing the image capturing apparatus 100 on a tripod or placing it on an arbitrary place for an image capturing with a long shutter speed. Therefore, in the imaging apparatus 100, one of the conditions for shifting to the night scene is a case where it can be detected that the blur amount has become minute based on the detection result of the blur amount detection circuit 44.

シーンアイコン333は、シーン判別処理により夕景シーンと判別された場合を示す。夕景シーンはその特徴的な色によりシーンを判別する。一時記憶メモリ30に生成されたシーン認識用の画像には色情報も含まれており、逆光シーンと同様に制御部60にてその画像を解析することで夕景シーンを判別する。具体的には、シーン認識用の画像の所定の領域に、所定の色温度の領域が所定量以上あることを検知して夕景シーンと判別する。   The scene icon 333 indicates a case where it is determined as an evening scene by the scene determination process. An evening scene is identified by its characteristic color. The scene recognition image generated in the temporary storage memory 30 includes color information, and the sunset scene is determined by analyzing the image by the control unit 60 in the same manner as the backlight scene. Specifically, it is determined that a predetermined area of a predetermined color temperature exists in a predetermined area of the scene recognition image and is determined to be an evening scene.

制御部60は、このシーン判別結果に応じて、レンズ駆動回路42、絞り駆動回路26、メカニカルシャッタ駆動回路28、TG24、PGA回路20、および、画像処理回路50を制御する。例えば、制御部60は、撮像データから得られた輝度情報の平均値が等しい場合であっても、主被写体が人物であるか否か、逆光であるか否かに応じて、撮像データ内の輝度情報の重み付けを変えたり、絞りと露出時間の組合せを変えたりする。あるいは、PGA回路20の増幅レベルを変えたり、画像処理回路50のガンマ変換の設定を変えたりもする。さらに、主被写体が人物であるか否かに応じて、周波数成分の値が等しくても、レンズ10の被写界深度を異ならせたりもする。さらに、夕景シーンであるか否か、夜景シーンであるか否かに応じて、画像処理回路50による撮像データに対する色処理の設定を変えたりもする。   The control unit 60 controls the lens driving circuit 42, the aperture driving circuit 26, the mechanical shutter driving circuit 28, the TG 24, the PGA circuit 20, and the image processing circuit 50 according to the scene determination result. For example, even if the average value of the luminance information obtained from the imaging data is the same, the control unit 60 determines whether the main subject is a person, whether it is backlit, Change the weighting of brightness information or change the combination of aperture and exposure time. Alternatively, the amplification level of the PGA circuit 20 is changed, or the gamma conversion setting of the image processing circuit 50 is changed. Further, depending on whether or not the main subject is a person, the depth of field of the lens 10 may be varied even if the frequency component values are equal. Further, depending on whether it is a sunset scene or a night scene, the setting of the color processing for the image data by the image processing circuit 50 may be changed.

シャッタスイッチ104の操作を受け付ける前の定常状態では、上述したシーン判別に用いる評価値(シーン判別評価値)の生成を、撮像素子16により時系列的に撮像された画像から周期的に行い続ける。そして、シーン判別評価値が所定回数得られた時点で最新のシーン判別評価値を参照し、シーンに変化があればシーンアイコンの表示を更新する。シーン判別評価値が所定回数得られてからシーン変化の有無を判断するのは、あまりに高い頻度でシーン判別結果を更新してしまうと、被写体の状況によってはシーン判別結果がめまぐるしく変化してしまうためである。このような場合は、かえってユーザに不快感を与えたり、撮像装置の制御が不安定になったりするおそれがある。   In the steady state before accepting the operation of the shutter switch 104, the above-described evaluation value (scene discrimination evaluation value) used for scene discrimination is periodically generated from the images imaged in time series by the image sensor 16. Then, when the scene discrimination evaluation value is obtained a predetermined number of times, the latest scene discrimination evaluation value is referred to, and if there is a change in the scene, the display of the scene icon is updated. The reason for judging whether or not there is a scene change after the scene discrimination evaluation value has been obtained a predetermined number of times is that if the scene discrimination result is updated too frequently, the scene discrimination result will change drastically depending on the situation of the subject. It is. In such a case, the user may be uncomfortable or the imaging apparatus may become unstable.

しかし、撮像装置100における撮像では、被写体を急に変更する場合や、被写体が急に動いた後の撮像など、急にシーンが変わった直後に撮像を行うシチュエーションが多くある。撮像を行う際には、シャッタスイッチ104のSW1動作、SW2動作で、それぞれ撮像準備、撮像を行う。この時、被写体の動きなどにより急なシーン変化がある場合、SW1動作による撮像準備にかかる時間は短いほどよい。且つ、シーン変化を撮像装置100が適切に検知して、シーン変化後の被写体に対する適切な露出調整、焦点調整、さらにはシーンアイコン表示を行うことが求められている。   However, in imaging with the imaging apparatus 100, there are many situations in which imaging is performed immediately after a scene suddenly changes, such as when the subject is suddenly changed or when the subject suddenly moves. When imaging is performed, imaging preparation and imaging are performed by the SW1 operation and SW2 operation of the shutter switch 104, respectively. At this time, if there is an abrupt scene change due to the movement of the subject or the like, the shorter the time required for imaging preparation by the SW1 operation is better. In addition, it is required that the image capturing apparatus 100 appropriately detect a scene change and perform appropriate exposure adjustment, focus adjustment, and scene icon display on the subject after the scene change.

図5に上述した撮像装置100の撮像の一例を示す。図5の例では、ユーザは花395を撮像するつもりでいるがまだ花395から離れた位置におり、撮像装置100の撮像画角には様々な被写体が入っているものとする。また、撮像画角の中には太陽393を背に花395の近くに座っている人物391が含まれているため、シーンアイコン表示は人物を含む逆光シーンを示すシーンアイコン301となっている。   FIG. 5 shows an example of imaging by the imaging apparatus 100 described above. In the example of FIG. 5, it is assumed that the user intends to image the flower 395 but is still away from the flower 395, and various subjects are included in the imaging field angle of the imaging device 100. In addition, since the imaging field angle includes a person 391 sitting near the flower 395 with the sun 393 in the background, the scene icon display is a scene icon 301 indicating a backlight scene including the person.

上述した状態から、撮像装置100を持ったユーザが花395に近付いていく場合は、撮像画角から人物391が外れ、撮像目的である花395が画角の中心に大きく位置することとなる。ここで、人物391が画角から外れた段階で直ぐにSW1動作による撮像準備を行う際には、撮像対象である花395が画面の中心に位置しており、シーン判別の周期に関わらずに至近距離で合焦が行われるシーンアイコン313が表示されることが望ましい。要するに、SW1動作による撮像準備時には、シーン判別にかかる処理時間が短く、新たなシーンも適切に判別されることが望まれている。   When the user who has the imaging device 100 approaches the flower 395 from the above-described state, the person 391 deviates from the imaging angle of view, and the flower 395, which is the imaging purpose, is located at the center of the angle of view. Here, when the person 391 deviates from the angle of view and immediately prepares for imaging by the SW1 operation, the flower 395 to be imaged is located at the center of the screen, and is close to the scene regardless of the scene discrimination cycle. It is desirable to display a scene icon 313 that is focused at a distance. In short, at the time of imaging preparation by the SW1 operation, it is desired that the processing time required for scene determination is short, and a new scene is also appropriately determined.

ここで、図6のタイミングチャートを参照して、シーン判別評価値の生成、顔検出、シーン判別のタイミングを説明する。図6に示すように、撮像装置100では、撮像素子16の垂直同期信号401を基準に、各垂直同期(VD)で露出403が行われている。また、撮像装置100では、各VDで露出した画像データが撮像素子16から読み出され、その読み出された画像データを元にシーン判別評価値405の生成が行われている。すなわち、撮像装置100では、時系列的に撮像された画像から被写体の状況判別に係るシーン判別評価値が逐次算出されている。また、撮像装置100では、撮像素子16から読み出された画像データを元に顔検出407が行われている。すなわち、撮像装置100では、時系列的に撮像された画像から人物の顔が逐次検出されている。   Here, with reference to the timing chart of FIG. 6, the timing of scene discrimination evaluation value generation, face detection, and scene discrimination will be described. As shown in FIG. 6, in the imaging apparatus 100, exposure 403 is performed at each vertical synchronization (VD) with reference to the vertical synchronization signal 401 of the image sensor 16. Further, in the imaging apparatus 100, the image data exposed by each VD is read from the imaging element 16, and the scene discrimination evaluation value 405 is generated based on the read image data. That is, in the imaging apparatus 100, scene discrimination evaluation values relating to subject situation discrimination are sequentially calculated from images taken in time series. In the imaging apparatus 100, face detection 407 is performed based on image data read from the imaging element 16. In other words, in the imaging apparatus 100, a human face is sequentially detected from images captured in time series.

また、露出403はVDごとに行われており、シーン判別評価値405の出力はその次のVDから毎VDで行われているのに対し、顔検出407はさらに次のVDから2VD周期で行われている。具体的には、露出期間411の画像データによるシーン判別評価値405の出力は次のVDの期間413で行われる。また、露出期間411の画像データによる顔検出407は、さらに次のVDであり、露出期間417の開始と同じタイミングの期間415で行われる。   The exposure 403 is performed for each VD, and the scene discrimination evaluation value 405 is output every VD from the next VD, whereas the face detection 407 is performed every 2 VD from the next VD. It has been broken. Specifically, the output of the scene discrimination evaluation value 405 based on the image data in the exposure period 411 is performed in the next VD period 413. The face detection 407 based on the image data in the exposure period 411 is the next VD, and is performed in the period 415 at the same timing as the start of the exposure period 417.

この顔検出407が行われるタイミングについては、画像認識回路38の処理速度に依存するものである。図6の例では、画像認識回路38が1つの入力画像から顔検出を実施するには1VD以内で処理が終わらないことを示す。ただし、図6は一例であり、画像認識回路38の性能、検出精度、入力画像のサイズなどに依存して顔検出の処理時間は変動する。例えば、顔検出の処理時間は、1VDより短い場合もあれば、さらに長い場合もある。   The timing at which this face detection 407 is performed depends on the processing speed of the image recognition circuit 38. In the example of FIG. 6, the image recognition circuit 38 indicates that the process does not end within 1 VD in order to perform face detection from one input image. However, FIG. 6 is an example, and the face detection processing time varies depending on the performance of the image recognition circuit 38, the detection accuracy, the size of the input image, and the like. For example, the face detection processing time may be shorter or longer than 1 VD.

図6に例示したタイミングにおいて、時刻421でシーン判別を実施する場合、その時点で最新のシーン判別評価値405と顔検出407を使用しようとすると、異なる露出期間の画像データを用いて一つのシーン判別を行うこととなる。具体的には、時刻421での最新のシーン判別評価値405は露出期間417の画像データを元に期間419で出力されたものであり、最新の顔検出407は露出期間411の画像データを元に期間415で出力されたものである。露出期間411と露出期間417とは2VDの時間的なズレがあるため、時刻421で最新のシーン判別評価値405、顔検出407を用いたシーン判別は正確に行うことが困難である。   When performing scene discrimination at time 421 at the timing illustrated in FIG. 6, if it is attempted to use the latest scene discrimination evaluation value 405 and face detection 407 at that time, one scene using image data of different exposure periods is used. A determination is made. Specifically, the latest scene discrimination evaluation value 405 at time 421 is output in the period 419 based on the image data in the exposure period 417, and the latest face detection 407 is based on the image data in the exposure period 411. In the period 415. Since the exposure period 411 and the exposure period 417 have a temporal shift of 2 VD, it is difficult to accurately perform scene discrimination using the latest scene discrimination evaluation value 405 and face detection 407 at time 421.

そこで、図7にシーン判別評価値と顔検出の元となる露出期間のズレを解消するタイミングチャートを例示する。図7に示すように、時刻437におけるシーン判別では、最新のシーン判別評価値と顔検出結果を用いるのではなく、同一の露出期間の画像データを元にしたシーン判別評価値と顔検出結果を用いる。   FIG. 7 illustrates a timing chart for eliminating the difference between the scene discrimination evaluation value and the exposure period that is the basis of face detection. As shown in FIG. 7, in the scene discrimination at time 437, the latest scene discrimination evaluation value and face detection result are not used, but the scene discrimination evaluation value and face detection result based on image data of the same exposure period are used. Use.

具体的には、時刻437で最新の顔検出結果が露出期間431を元に期間435で出力されたものである場合は、同じ露出期間431を元に期間433で出力されたシーン判別評価値を用いて期間439でシーン判別を行う。このように、同一の露出期間による画像データで生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行う場合は、より正確なシーン判別を行うことができる。なお、時刻437において、数VD過去のシーン判別評価値を用いるため、一時記憶メモリ30には数VDに亘ってシーン判別評価値を格納しておく領域が確保されている。   Specifically, when the latest face detection result is output in the period 435 based on the exposure period 431 at the time 437, the scene discrimination evaluation value output in the period 433 based on the same exposure period 431 is used. The scene is discriminated in the period 439. Thus, more accurate scene discrimination can be performed when scene discrimination is performed using the scene discrimination evaluation value and the face detection result generated from the image data for the same exposure period. At time 437, since the scene discrimination evaluation value of several VDs in the past is used, the temporary storage memory 30 has an area for storing the scene discrimination evaluation value over several VDs.

また、図7の例では、顔検出結果の出力の方がシーン判別評価値の出力よりも後に行われる場合を例示したが、逆にシーン判別評価値の出力の方が顔検出結果の出力の方よりも後であってもよい。この場合も同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行うことに変わりはない。なお、数VD過去の顔検出結果を用いるため、一時記憶メモリ30には数VDに亘って顔検出結果を格納しておく領域が確保される。   In the example of FIG. 7, the face detection result is output after the scene discrimination evaluation value is output. Conversely, the output of the scene discrimination evaluation value is the output of the face detection result. It may be later. In this case, the scene discrimination is still performed using the scene discrimination evaluation value generated from the image data of the same exposure period and the face detection result. Since the face detection results of several VDs in the past are used, an area for storing the face detection results over several VDs is secured in the temporary storage memory 30.

さらに、図8にSW1動作前の定常状態からSW1動作時のタイミングチャートを例示する。図8に示す例でも、図7と同様に、同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行っている。時刻437aにおけるSW1動作前には一定周期で逐次判別し続け、SW1動作時には最新の顔検出結果と、その顔検出結果と同一の露出期間による画像データから生成されたシーン判別評価値とを用いてシーン判別を行っている。   Further, FIG. 8 illustrates a timing chart from the steady state before the SW1 operation to the SW1 operation. In the example shown in FIG. 8, similarly to FIG. 7, scene discrimination is performed using a scene discrimination evaluation value and a face detection result generated from image data for the same exposure period. Prior to the SW1 operation at time 437a, the discriminator continues to discriminate sequentially at a certain period. During the SW1 operation, the latest face detection result and the scene discrimination evaluation value generated from the image data with the same exposure period as the face detection result are used. Scene discrimination is performed.

ただし、図8で前提としていることは、時刻437aにおけるSW1動作前の定常状態からSW1動作時において、被写体に変動が無いことである。SW1動作の直前にシーンを替えて撮像を行う場合など、被写体への追従が完了していない状態でSW1動作が行われた場合に新たなシーンに対応したシーン判別を適切に行うためには、被写体への追従を終えてからシーン判別を行う必要がある。   However, what is assumed in FIG. 8 is that the subject does not change during the SW1 operation from the steady state before the SW1 operation at time 437a. In order to appropriately perform scene discrimination corresponding to a new scene when the SW1 operation is performed in a state where tracking of the subject is not completed, such as when imaging is performed immediately before the SW1 operation, It is necessary to discriminate the scene after finishing following the subject.

図9にSW1動作時に被写体への輝度追従が完了していない場合のタイミングチャートを例示する。図9に示すように、時刻441のSW1動作時には、被写体に最適な露出で撮像を行うために、被写体輝度の測定(測光)を行う。   FIG. 9 illustrates a timing chart in the case where the luminance tracking to the subject is not completed during the SW1 operation. As shown in FIG. 9, during the SW1 operation at time 441, the subject brightness is measured (photometric) in order to capture an image with the optimum exposure for the subject.

CCDやCMOSイメージセンサを用いた撮像素子16による測光では、そのダイナミックレンジの狭さが課題となっている。撮像素子16は、そもそもダイナミックレンジが広くなく、明暗差が激しいシーンの測光には不向きである。露出量が不適切である場合、明部の白とび、暗部の黒つぶれが顕著になり、正確な測光が行えなくなるためである。このようなダイナミックレンジが狭い撮像素子16で測光する場合は、絞り、電子シャッタ、ゲインなどの露出を段階的に調節して、撮像素子16に受光させる光量を適切に制御して測光を行う必要がある。   In photometry using the image sensor 16 using a CCD or CMOS image sensor, the narrow dynamic range is an issue. The image sensor 16 is not suitable for photometry of a scene that has a wide dynamic range and has a strong contrast. This is because when the exposure amount is inappropriate, overexposure of bright portions and overexposure of dark portions become prominent, and accurate photometry cannot be performed. When photometry is performed with the image sensor 16 having a narrow dynamic range, it is necessary to adjust the exposure of the aperture, electronic shutter, gain, and the like in stages, and perform photometry by appropriately controlling the amount of light received by the image sensor 16. There is.

したがって、図9に示すように、露出期間411のSW1動作時に測光を行う際には、撮像素子16への光量が不適切なため、光量を適切にするためのAE収束期間443を設けている。AE収束期間とは、撮像データから求めた輝度が、目標輝度に対して、所定の範囲内(例えば、±1/3段以内)に収束するまで待つ期間である。そして、撮像データから求めた輝度が、目標輝度に対して、予め定められた範囲内になった後の期間455でシーン判別を行う。これは、AE収束期間が経過する前に得られたシーン判別評価値を用いてシーン判別を行ってしまうと、AE収束期間を待った場合と異なる領域にて黒つぶれや白とびが生じてしまう可能性が高いためである。このような状況下では、撮像データの輝度分布は勿論のこと、周波数成分や色情報等を適切に検出することができず、誤ったシーン判別結果を導いてしまうことにつながりかねない。   Therefore, as shown in FIG. 9, when performing photometry during the SW1 operation in the exposure period 411, an AE convergence period 443 for making the light quantity appropriate is provided because the light quantity to the image sensor 16 is inappropriate. . The AE convergence period is a period of waiting until the luminance obtained from the imaging data converges within a predetermined range (for example, within ± 1/3 step) with respect to the target luminance. Then, scene determination is performed in a period 455 after the luminance obtained from the imaging data is within a predetermined range with respect to the target luminance. This is because if the scene discrimination is performed using the scene discrimination evaluation value obtained before the AE convergence period elapses, blackout or overexposure may occur in a different area from when waiting for the AE convergence period. This is because the nature is high. Under such circumstances, not only the luminance distribution of the imaged data but also the frequency components and color information cannot be detected properly, leading to erroneous scene discrimination results.

そこで、シーン判別を行う際に使用するシーン判別評価値と顔検出結果は、それぞれ撮像データから求めた輝度が目標輝度に対して所定の範囲内に収束した時点で最新のデータ(最も早くに得られるデータ)を用いるようにしている。具体的には、期間455のシーン判別で用いるシーン判別評価値は、AE収束後の露出期間451の画像データを元に期間453で生成されたものである。また、期間455のシーン判別で用いる顔検出結果は、AE収束前の露出期間445の画像データを元に期間449で生成されたものである。   Therefore, the scene discrimination evaluation value and the face detection result used for scene discrimination are the latest data (obtained earliest) when the brightness obtained from the captured data converges within a predetermined range with respect to the target brightness. Data). Specifically, the scene discrimination evaluation value used for scene discrimination in the period 455 is generated in the period 453 based on the image data of the exposure period 451 after AE convergence. Further, the face detection result used in the scene discrimination in the period 455 is generated in the period 449 based on the image data in the exposure period 445 before AE convergence.

シーン判別にAEの収束を必要とする場合はAE収束期間分のタイムラグが生じ、AE収束後の露出期間の画像データを元に顔検出を行う場合はそれに新たなタイムラグの増加を招くことになる。よって、図9の例では、AEの収束を必要とする場合には、互いに異なる露出期間の画像データを元に生成されたシーン判別評価値と顔検出結果とを用い、シーン判別に関するタイムラグの短縮に重点をおいたシーケンスとしている。言い換えると、AE収束後に、最も早く得られるシーン判別評価値及び顔検出結果とに基づいてシーン判別が行われる。この場合、顔検出結果はAEが収束する前の画像データを元に生成されることになるが、収束する間際の画像データであれば、AE収束後に得られる画像データと比較して大きな差は生じにくいと考えられる。そこで、収束する間際の画像データにおける顔検出結果であれば、一定レベルの信頼度が得られるものと判断し、AE収束後の露出期間の画像データからシーン判別評価値を得られると、これらを用いてすぐさまシーン判別を行う。   When scene detection requires AE convergence, a time lag corresponding to the AE convergence period occurs. When face detection is performed based on image data during the exposure period after AE convergence, a new time lag increases. . Therefore, in the example of FIG. 9, when convergence of AE is required, the time lag related to scene discrimination is shortened using the scene discrimination evaluation value and the face detection result generated based on the image data of different exposure periods. The sequence is focused on. In other words, after the AE has converged, scene discrimination is performed based on the scene discrimination evaluation value and the face detection result obtained earliest. In this case, the face detection result is generated based on the image data before the convergence of the AE, but if the image data is just before the convergence, there is a large difference compared with the image data obtained after the convergence of the AE. It is thought that it is hard to occur. Therefore, if it is a face detection result in the image data just before convergence, it is determined that a certain level of reliability is obtained, and when the scene discrimination evaluation value is obtained from the image data of the exposure period after AE convergence, these are obtained. Use to perform scene discrimination immediately.

しかしながら、ユーザのSW1動作、SW2動作の状況に応じて上述したシーケンスは変更してもよい。図10にSW1動作時に被写体への輝度追従が完了しておらず、AEの収束を要する場合であっても、同一の露出期間による画像データから生成されたシーン判別評価値と顔検出結果を用いてシーン判別を行うシーケンスを示す。   However, the above-described sequence may be changed according to the state of the user SW1 operation and SW2 operation. FIG. 10 uses the scene discrimination evaluation value and the face detection result generated from the image data for the same exposure period even when the luminance tracking to the subject is not completed during the SW1 operation and convergence of AE is required. Shows the sequence for scene discrimination.

撮像装置100は、SW1動作時に撮像準備として露出調整や焦点調整を行い、SW2動作時に撮像を行う。この二段階に亘るユーザの操作としては、一旦SW1動作を保持して露出調整、焦点調整、構図を確認した後にSW2動作を行う撮り方、SW1動作の後に間を空けずにSW2動作を行う撮り方がある。前者のようにSW1動作を一旦保持する場合は、SW2動作による撮像まで間があるため、シーン判別に関するタイムラグを短縮する要求がそれほど厳しくないと想定される。   The imaging apparatus 100 performs exposure adjustment and focus adjustment as imaging preparation during the SW1 operation, and performs imaging during the SW2 operation. The user's operations in these two stages include taking a SW2 operation after holding the SW1 operation and confirming the exposure adjustment, focus adjustment, and composition, and taking a SW2 operation without a gap after the SW1 operation. There is a way. When the SW1 operation is temporarily held as in the former case, it is assumed that the time required for reducing the time lag related to scene discrimination is not so severe because there is a period until the image is captured by the SW2 operation.

このような場合は、図10に示すように、時刻461におけるSW1動作によるAE収束期間463が経過した後の同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別を行う。具体的には、AE収束後の露出期間465の画像データを元にしたシーン判別評価値と顔検出結果の取得を期間467、469で行い、取得されたシーン判別評価値と顔検出結果に基づいたシーン判別を期間471で行う。   In such a case, as shown in FIG. 10, scene discrimination is performed using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period after the AE convergence period 463 by the SW1 operation at time 461 has elapsed. Do. Specifically, the scene discrimination evaluation value and the face detection result are acquired in the periods 467 and 469 based on the image data of the exposure period 465 after AE convergence, and based on the acquired scene discrimination evaluation value and the face detection result. Scene discrimination is performed in period 471.

AE収束後の同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別では、図9と図10との比較から明らかなように、約2VD程度のタイムラグが生じることとなる。しかしながら、シーン判別に関するタイムラグの短縮に重点が置かれていない状況であれば、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別が行われるため、シーン判別精度を高めるメリットを優先することができる。   In the scene discrimination using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period after AE convergence, a time lag of about 2 VD occurs as is apparent from the comparison between FIG. 9 and FIG. Become. However, if there is no emphasis on shortening the time lag related to scene discrimination, scene discrimination is performed using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period, so the scene discrimination accuracy is improved. Priority can be given to the benefits of enhancement.

次に、撮像装置100において、AE収束やユーザの操作に応じて上述したシーケンスをどのように使い分けるかについて、図11を参照して説明する。図11に撮像装置100の起動から撮像までの全体フローを示す。   Next, how to use the above-described sequence properly in accordance with the AE convergence and the user's operation in the imaging apparatus 100 will be described with reference to FIG. FIG. 11 shows an overall flow from activation of the imaging apparatus 100 to imaging.

図11に示すように、撮像装置100では、電源スイッチ102の操作などにより処理が開始されると(S201)、制御部60の制御の下、表示部108にライブ画像を表示するEVF状態となる。EVF状態時には、表示部108の表示画像の画質を適切に調整したり、顔検出、シーン判別を行った結果を表示部108に表示する。このため、EVF状態時には、制御部60の制御の下、AE処理(S203)、AWB処理(S205)、AF処理(S207)、顔検出処理(S209)、シーン判別処理(S211)が行われる。   As shown in FIG. 11, in the imaging apparatus 100, when processing is started by operating the power switch 102 or the like (S201), the EVF state in which a live image is displayed on the display unit 108 is controlled under the control of the control unit 60. . In the EVF state, the display unit 108 displays the result of appropriately adjusting the image quality of the display image on the display unit 108, performing face detection, and scene discrimination. Therefore, in the EVF state, under the control of the control unit 60, AE processing (S203), AWB processing (S205), AF processing (S207), face detection processing (S209), and scene discrimination processing (S211) are performed.

この時のシーン判別処理(S211)では、制御部60の制御の下、図8に例示したシーケンスを用いたシーン判別が行われる。すなわち、EVF状態では、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別が行われ続けることとなる。   In the scene discrimination process (S211) at this time, scene discrimination using the sequence illustrated in FIG. 8 is performed under the control of the control unit 60. That is, in the EVF state, scene discrimination using the scene discrimination evaluation value of the image data and the face detection result for the same exposure period continues to be performed.

次いで、制御部60は、シャッタスイッチ104によるSW1動作の有無(ON/OFF)を判定し(S213)、SW1動作が確認されるまではS203〜S211の処理を継続して行う。SW1動作が確認された場合、制御部60は、静止画撮像用のAE処理を行う(S215)。このAE処理では、撮像素子16で撮像された画像に基づいて被写体輝度が測定されるが、被写体輝度が適正レベルではない、もしくは安定していない場合はAEを収束させる。   Next, the control unit 60 determines whether or not the SW1 operation is performed (ON / OFF) by the shutter switch 104 (S213), and continues the processing of S203 to S211 until the SW1 operation is confirmed. When the SW1 operation is confirmed, the control unit 60 performs AE processing for still image capturing (S215). In this AE process, the subject brightness is measured based on the image picked up by the image sensor 16, but the AE is converged when the subject brightness is not at an appropriate level or is not stable.

次いで、制御部60は、静止画撮像用のシーン判別処理を行う(S301)。ここで、S301のシーン判別処理について、図12を参照して説明する。図12に示すように、シーン判別処理が開始されると、制御部60はAEが安定状態(AEが収束している)か否かを判定する(S303)。   Next, the control unit 60 performs a scene determination process for capturing a still image (S301). Here, the scene determination processing in S301 will be described with reference to FIG. As shown in FIG. 12, when the scene determination process is started, the control unit 60 determines whether or not the AE is in a stable state (AE has converged) (S303).

AEが安定(収束)していた場合はAEを収束させる必要がない(既に収束している)。したがって、制御部60は、シーン判別評価値と顔検出に用いる画像データの露出期間を同期したシーン判別処理、すなわち、同一の露出期間による画像データのシーン判別評価値と顔検出結果を用いたシーン判別を行う(S309)。言い換えると、S309では、時系列的に撮像された画像のうち、同じタイミングで撮像された画像に対する顔検出結果及びシーン判別評価値に基づいたシーン判別処理が行われる。   When AE is stable (converged), it is not necessary to converge AE (already converged). Therefore, the control unit 60 performs scene discrimination processing in which the scene discrimination evaluation value and the exposure period of the image data used for face detection are synchronized, that is, a scene using the scene discrimination evaluation value of the image data and the face detection result in the same exposure period. A determination is made (S309). In other words, in S309, scene discrimination processing is performed based on the face detection result and the scene discrimination evaluation value for images taken at the same timing among images taken in time series.

AEが安定(収束)していない場合はAE収束期間中ということとなる。したがって、制御部60は、AE収束を待ち(S305)、AE収束後にSW1、SW2が一気押しであるか否かを判定する(S307)。このS307では、SW1動作の後のSW2動作が予め定められた所定の時間内に行われたか否かを判定し、SW1動作の後に時間を空けずにSW2動作を行う撮り方か否かが判別される。   If AE is not stable (converged), it means that it is during the AE convergence period. Therefore, the control unit 60 waits for AE convergence (S305), and determines whether SW1 and SW2 are pressed at once after AE convergence (S307). In S307, it is determined whether or not the SW2 operation after the SW1 operation is performed within a predetermined time, and it is determined whether or not the SW2 operation is performed without taking time after the SW1 operation. Is done.

一気押しでない場合(一旦SW1動作が保持され、SW1動作とSW2動作の間が所定の時間以上である場合)は、シーン判別に関するタイムラグの短縮よりもシーン判別精度の向上に重点をおくことができる。したがって、制御部60は、図10に例示したように、シーン判別評価値と顔検出に用いる画像データの露出期間を同期したシーン判別処理を行う(S309)。   When it is not pressed at once (when the SW1 operation is once held and the interval between the SW1 operation and the SW2 operation is longer than a predetermined time), it is possible to focus on improving the scene discrimination accuracy rather than reducing the time lag related to scene discrimination. . Therefore, as illustrated in FIG. 10, the control unit 60 performs scene discrimination processing in which the scene discrimination evaluation value and the exposure period of image data used for face detection are synchronized (S309).

一気押しの場合(SW1動作の後に時間を空けずにSW2動作がある場合)は、SW2動作に応じた撮像が行われるため、シーン判別精度の向上よりもタイムラグの短縮が重要となる。したがって、制御部60は、図9に例示したように、シーン判別評価値と顔検出とに用いる互いの画像データを同一の露出期間とすることなく、互いの画像データの露出期間が非同期のシーン判別処理を行い(S311)、シーン判別のタイムラグを短縮させる。言い換えると、S311では、SW2動作があった後に最も早く得られるシーン判別評価値及び顔検出結果とに基づいたシーン判別処理が行われる。   In the case of pressing at a stroke (when there is an SW2 operation without waiting for a time after the SW1 operation), imaging is performed according to the SW2 operation, and therefore it is important to shorten the time lag rather than improving the scene discrimination accuracy. Therefore, as illustrated in FIG. 9, the control unit 60 does not set the image data used for the scene discrimination evaluation value and the face detection to be the same exposure period, and the exposure period of the image data is asynchronous. A discrimination process is performed (S311), and the time lag of scene discrimination is shortened. In other words, in S311, a scene discrimination process based on the scene discrimination evaluation value and the face detection result obtained earliest after the SW2 operation is performed.

図11に示すように、シーン判別処理の後、制御部60は、静止画撮像用のAF処理を行って(S219)、被写体への焦点調整を行う。上述したS219までを行うことでSW1動作時の処理は完了する。   As shown in FIG. 11, after the scene determination process, the control unit 60 performs an AF process for capturing a still image (S219) and adjusts the focus on the subject. By performing the above-described steps up to S219, the processing during the SW1 operation is completed.

次いで、制御部60は、SW1がOFFされたか否かを判定する(S211)。SW1がOFFされていれば撮像準備を取りやめたと判断し、制御部60は、EVF定常状態のループへ処理を戻す。   Next, the control unit 60 determines whether or not SW1 is turned off (S211). If SW1 is OFF, it is determined that the imaging preparation has been canceled, and the control unit 60 returns the process to the EVF steady state loop.

SW1がONであり、SW1の押下が保持されている場合、制御部60は、SW2がONされたか否かを判定し(S223)、SW2のONに応答した撮像動作、すなわち、静止画撮像処理(S225〜S229)を開始する。なお、SW2がOFFのままである場合、制御部60は、S215へ処理を戻す。   When SW1 is ON and SW1 is held down, the control unit 60 determines whether or not SW2 is ON (S223), and performs an imaging operation in response to SW2 being ON, that is, a still image imaging process. (S225 to S229) is started. If SW2 remains OFF, the control unit 60 returns the process to S215.

静止画撮像処理が開始されると、制御部60は、ストロボを発光させたストロボ撮像を行うか否かをストロボ発光の有無について予め設定された情報や被写体輝度に基づいて判定する(S225)。ストロボ発光を行う場合、制御部60は、調光処理を行って静止画撮像時のストロボ発光量を決定する(S227)。調光処理では、所定の発光量でストロボをプリ発光させてその反射光を測光センサ、あるいは撮像素子16で測定し、その測定結果に基づいて被写体の反射率やストロボ光の到達具合を確認してストロボ発光量を決定する。   When the still image capturing process is started, the control unit 60 determines whether or not to perform strobe imaging with a strobe light on the basis of information set in advance regarding the presence or absence of strobe light emission and subject brightness (S225). In the case of performing strobe light emission, the control unit 60 performs light adjustment processing and determines the strobe light emission amount at the time of capturing a still image (S227). In the light control processing, the strobe is pre-flashed with a predetermined light emission amount, and the reflected light is measured by the photometric sensor or the image sensor 16, and the reflectance of the subject and the degree of arrival of the strobe light are confirmed based on the measurement result. To determine the flash output.

以上で静止画撮影のための露出、シーン、ピント、ストロボなどからなる撮影条件が決定され、被写体に適切に応じた静止画撮像が行われる(S229)。すなわち、S229では、シーン判別処理による被写体の状況判別結果に基づく静止画撮像が行われる。なお、静止画撮像の後、制御部60はEVF定常状態のループへ処理を戻す。   Thus, the shooting conditions including exposure, scene, focus, strobe, etc. for still image shooting are determined, and still image shooting appropriate for the subject is performed (S229). That is, in S229, still image capturing is performed based on the subject situation determination result by the scene determination process. Note that after the still image is captured, the control unit 60 returns the processing to the EVF steady state loop.

なお、本実施形態ではシーン判別評価値の算出より顔検出結果の取得の方が時間がかかる場合を例示したが、逆に、シーン判別評価値の算出の方が顔検出結果の取得より時間がかかってもよい。要は、静止画像の撮像指示があった際のシーン特定のタイムラグを低減するため、シーン判別には、撮像指示があった後に最も早く得られる顔検出結果及びシーン判別評価値を用いればよい。   In this embodiment, the case where the face detection result acquisition takes more time than the calculation of the scene determination evaluation value is illustrated, but conversely, the calculation of the scene determination evaluation value takes longer than the acquisition of the face detection result. It may take. In short, in order to reduce the scene specific time lag when an instruction to capture a still image is given, the face detection result and the scene discrimination evaluation value that are obtained earliest after the imaging instruction is given may be used.

なお、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。   Note that the description in the above-described embodiment shows an example, and the present invention is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

100 撮像装置
10 レンズ
16 撮像素子
30 一時記憶メモリ
34 VRAM
38 画像認識回路
50 画像処理回路
60 制御部
70 操作部
90 ストロボユニット
104 シャッタスイッチ
108 表示部
DESCRIPTION OF SYMBOLS 100 Imaging device 10 Lens 16 Image sensor 30 Temporary memory 34 VRAM
38 Image recognition circuit 50 Image processing circuit 60 Control unit 70 Operation unit 90 Strobe unit 104 Shutter switch 108 Display unit

Claims (5)

撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、
前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段と、
前記シーン判別手段を制御する制御手段と、を有し、
前記制御手段は、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする画像処理装置。
Calculation means for periodically calculating a scene discrimination evaluation value used for scene discrimination of a subject from an image taken in time series by the imaging means;
Scene discrimination means for discriminating the scene of the subject using the scene discrimination evaluation value calculated by the calculation means;
Control means for controlling the scene discrimination means,
The control means calculates from the images obtained when the luminance of the subject does not converge within a predetermined range with respect to the target brightness among the images taken in time series by the scene discrimination means. The scene of the subject is not discriminated using the determined scene discrimination evaluation value, and is calculated from an image obtained when the luminance of the subject converges within the predetermined range with respect to the target luminance. An image processing apparatus, comprising: discriminating a scene of the subject using the determined scene discrimination evaluation value.
前記撮像手段により時系列的に撮像された画像から人物の顔を逐次検出する顔検出手段を有し、
前記制御手段は、前記シーン判別手段に、前記顔検出手段による顔検出結果と前記シーン判別評価値を、前記被写体のシーンの判別に使用させることを特徴とする請求項1に記載の画像処理装置。
Face detection means for sequentially detecting a human face from images imaged in time series by the imaging means;
The image processing apparatus according to claim 1, wherein the control unit causes the scene determination unit to use a face detection result by the face detection unit and the scene determination evaluation value for determining a scene of the subject. .
前記制御手段は、前記シーン判別手段に、前記時系列的に撮像された画像のうちのそれぞれ異なる画像について得られた、前記顔検出結果と前記シーン判別評価値を、前記被写体のシーン判別に使用させることを特徴とする請求項2に記載の画像処理装置。   The control means uses the face detection result and the scene discrimination evaluation value obtained for each of the images picked up in time series to the scene discrimination means for scene discrimination of the subject. The image processing apparatus according to claim 2, wherein: 撮像手段により時系列的に撮像された画像から、被写体のシーン判別に用いるシーン判別評価値を周期的に算出する算出手段と、前記算出手段により算出された前記シーン判別評価値を使用して、前記被写体のシーンを判別するシーン判別手段とを有する画像処理装置の制御方法であって、
前記画像処理装置の制御手段が、前記シーン判別手段に、前記時系列的に撮像された画像のうち、前記被写体の輝度が目標輝度に対して所定の範囲内に収束していない場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別は行わせず、前記被写体の輝度が前記目標輝度に対して前記所定の範囲内に収束している場合に得られた画像から算出された前記シーン判別評価値を使用した前記被写体のシーンの判別を行わせることを特徴とする画像処理装置の制御方法。
Using the calculation means for periodically calculating the scene discrimination evaluation value used for scene discrimination of the subject from the images taken in time series by the imaging means, and using the scene discrimination evaluation value calculated by the calculation means, A control method of an image processing apparatus having scene determination means for determining the scene of the subject,
Obtained when the control means of the image processing device has the luminance of the subject not converged within a predetermined range with respect to the target luminance among the images taken in time series by the scene discrimination means. Obtained when the subject scene is not discriminated using the scene discrimination evaluation value calculated from the obtained image and the luminance of the subject converges within the predetermined range with respect to the target luminance. A method for controlling an image processing apparatus, comprising: discriminating a scene of the subject using the scene discrimination evaluation value calculated from a captured image.
コンピュータを請求項1乃至3のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   The program for functioning a computer as an image processing apparatus of any one of Claims 1 thru | or 3.
JP2013048477A 2013-03-11 2013-03-11 Imaging apparatus, control method thereof, and program Expired - Fee Related JP5451918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013048477A JP5451918B2 (en) 2013-03-11 2013-03-11 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048477A JP5451918B2 (en) 2013-03-11 2013-03-11 Imaging apparatus, control method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009022962A Division JP5317737B2 (en) 2009-02-03 2009-02-03 Imaging apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2013153500A JP2013153500A (en) 2013-08-08
JP5451918B2 true JP5451918B2 (en) 2014-03-26

Family

ID=49049428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048477A Expired - Fee Related JP5451918B2 (en) 2013-03-11 2013-03-11 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5451918B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10110826B2 (en) 2014-02-25 2018-10-23 Sony Corporation Imaging with adjustment of angle of view

Also Published As

Publication number Publication date
JP2013153500A (en) 2013-08-08

Similar Documents

Publication Publication Date Title
JP5317737B2 (en) Imaging apparatus, control method thereof, and program
US8937677B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable medium
US8970716B2 (en) Image-capturing apparatus and control method of the image-capturing apparatus
US10129486B2 (en) Image capturing apparatus, control method therefor, and storage medium
US10116876B2 (en) Image capturing method and apparatus, with reduced saturation and improved signal-to-noise ratio based on a dynamic range
JP2009171220A (en) Imaging apparatus and its control method
JP5759190B2 (en) Imaging apparatus and control method thereof
JP5036334B2 (en) Imaging apparatus, imaging method, and program for causing computer to execute the method
JP2010287919A (en) Imaging device
JP6758950B2 (en) Imaging device, its control method and program
KR20100091845A (en) Digital photographing apparatus, method for controlling the same and medium for recording the method
JP5451918B2 (en) Imaging apparatus, control method thereof, and program
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP6603892B2 (en) Imaging device
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP2022171438A (en) Exposure control device, imaging apparatus, control method, and program
JP4789776B2 (en) Imaging apparatus and imaging method
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP2015041823A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2010183298A (en) Imaging device and control method thereof
JP2010169825A (en) Imaging device
JP6501628B2 (en) Imaging device, control method therefor, and control program
JP2014127770A (en) Imaging apparatus
JP5323245B2 (en) Imaging device
JP2010041504A (en) Camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R151 Written notification of patent or utility model registration

Ref document number: 5451918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees