JP2015011216A - Imaging device, and control method and control program of the same - Google Patents
Imaging device, and control method and control program of the same Download PDFInfo
- Publication number
- JP2015011216A JP2015011216A JP2013137031A JP2013137031A JP2015011216A JP 2015011216 A JP2015011216 A JP 2015011216A JP 2013137031 A JP2013137031 A JP 2013137031A JP 2013137031 A JP2013137031 A JP 2013137031A JP 2015011216 A JP2015011216 A JP 2015011216A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- unit
- image
- evaluation value
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、画像データに応じて測光測距などに係る撮像用評価値を検出することのできる撮像装置に関する。 The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to an imaging apparatus capable of detecting an imaging evaluation value related to photometric distance measurement according to image data.
従来、撮像装置においてフォーカス制御に用いる被写体の位置情報を得る際には、撮像素子から出力される画像信号に基づいて当該位置情報を得ている。また、被写体を示す光信号を専用の検出装置に直接入力して、当該光信号が示す画像における位相差に基づいて位置情報を得ることも行われている。なお、画像データに基づいて位置情報を得る場合には、専用の検出装置が不要となる点で、撮像装置を小型化することができる。 Conventionally, when obtaining position information of a subject used for focus control in an image pickup apparatus, the position information is obtained based on an image signal output from an image pickup device. In addition, an optical signal indicating a subject is directly input to a dedicated detection device, and position information is obtained based on a phase difference in an image indicated by the optical signal. In the case where position information is obtained based on image data, the imaging device can be downsized in that a dedicated detection device is not required.
図10は、従来の撮像装置においてライブビューの際のオートフォーカス撮像動作(AF評価撮像)のタイミングを説明するための図である。図に示されるように、従来の撮像装置においては、垂直同期信号(Vertical Driving Pulse:VD)によって撮像タイミングが規定されている。AF制御信号がオンとなると、ライブビュー撮像期間後のVDに従ってAF評価像用の画像の撮像が行われ、AF制御信号がオフとなると、再びライブビュー撮像期間となる。このように、ライブビュー用画像を得るライブビュー撮像期間とAF評価用画像を得るAF動作期間とは時間軸に沿ってシリアルに配置されているで、ライブビュー用画像とAF評価用画像を同時に撮像する構成にはなっていない。 FIG. 10 is a diagram for explaining the timing of autofocus imaging operation (AF evaluation imaging) during live view in a conventional imaging apparatus. As shown in the figure, in the conventional imaging apparatus, the imaging timing is defined by a vertical synchronizing signal (VD). When the AF control signal is turned on, an image for an AF evaluation image is captured according to VD after the live view imaging period, and when the AF control signal is turned off, the live view imaging period starts again. As described above, the live view imaging period for obtaining the live view image and the AF operation period for obtaining the AF evaluation image are serially arranged along the time axis, and the live view image and the AF evaluation image are simultaneously displayed. It is not configured to image.
このため、図示するようにライブビュー用画像の撮像期間(フレーム)の間に位置するAF動作期間でAF評価用画像を撮像しているので、ライブビュー用画像とAF評価用画像との間にタイムラグが存在する。 For this reason, as shown in the figure, since the AF evaluation image is captured during the AF operation period located between the live view image capturing periods (frames), the live view image and the AF evaluation image are between. There is a time lag.
加えて、AF評価用画像を撮像する際においてもライブビュー表示は行われるものの、この際には、AF評価用画像に基づいてライブビュー表示が行われる。そして、図10示すように、AF評価用画像を撮像する際には、ライブビュー撮像期間よりもフレームレートが高くされるため、撮像素子の読み出しにおける間引き率が高くなり、画質の低下が避けられない。 In addition, although live view display is performed even when an AF evaluation image is captured, live view display is performed based on the AF evaluation image. As shown in FIG. 10, when the AF evaluation image is captured, the frame rate is set higher than that of the live view imaging period. Therefore, the thinning-out rate in the reading of the image sensor increases, and the deterioration of the image quality is inevitable. .
この点を回避するため、例えば、撮像素子の画素部に焦点信号検出用画素を撮像信号用画素とは別に設けるようにした構成がある。この構成では、ライブビュー表示のための撮像用信号を読み出すライブビュー用読み出しモードとともに、焦点検出用信号および自動露光用測光情報に用いるための撮像用信号を撮像素子から読み出す焦点検出・自動露光(AE)用読み出しモードを備える。そして、これら読み出しモードをフレーム毎に循環的に繰り返して行うようにしている(特許文献1参照)。 In order to avoid this point, for example, there is a configuration in which focus signal detection pixels are provided separately from the image signal pixels in the pixel portion of the image sensor. In this configuration, the focus detection / automatic exposure (reading the imaging signal for use in the focus detection signal and the photometric information for automatic exposure from the imaging element together with the live view readout mode for reading the imaging signal for live view display ( AE) read mode. These read modes are repeated cyclically for each frame (see Patent Document 1).
ところが、特許文献1においては、画素部に焦点信号検出用画素が設けられているため、必然的に撮像信号用画素のエリアが小さくなってしまい、焦点信号検出用画素は撮像信号(画像信号)を得る際には用いられないので、その分画質が低下してしまう。また、焦点信号検出用画素は、撮像信号用画素に比べて、感度が下がってしまうため、撮影シーンによっては、焦点信号の検出精度が低下する。 However, in Patent Document 1, since the focus signal detection pixel is provided in the pixel portion, the area of the image signal pixel is inevitably reduced, and the focus signal detection pixel is an image signal (image signal). Since it is not used when obtaining the image quality, the image quality is lowered accordingly. In addition, since the focus signal detection pixel has a lower sensitivity than the imaging signal pixel, the detection accuracy of the focus signal is lowered depending on the shooting scene.
そこで、本発明の目的は、シーン判別によって、焦点検出精度と焦点検出速度の最適化を行うことが可能な撮像素子、その制御方法、および制御プログラムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging device capable of optimizing focus detection accuracy and focus detection speed by scene discrimination, a control method therefor, and a control program.
上記本発明の目的を達成するため、本発明によれば、被写体の光学像を形成する撮影光学系を有し、光学像を撮像して画像信号を生成する撮像装置は、光学像を光電変換して画像信号を生成する画素をマトリックス状に配列した画素部を有する第1の素子部と、画素部から画像信号を読み出す読み出し手段が配設された第2の画素部とを備え、読み出し手段が、画素部の第1の画素群から画像信号を読み出す第1の読み出し手段と、画素部の第2画素群から画像信号を読み出す第2の読み出し手段を有する撮像素子と、撮像素子が出力する画像信号から、光学像の撮像条件に関する情報を取得して判定する撮像条件判定手段と、判定の結果に従って、第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、光学像の撮像に関する撮像評価値を検出する撮像評価値検出手段とを備える。 In order to achieve the above-described object of the present invention, according to the present invention, an imaging apparatus having a photographing optical system for forming an optical image of a subject and capturing an optical image to generate an image signal is a photoelectric conversion of the optical image. A first element portion having a pixel portion in which pixels for generating an image signal are arranged in a matrix, and a second pixel portion provided with a reading means for reading the image signal from the pixel portion, However, the imaging device has a first reading unit that reads an image signal from the first pixel group of the pixel unit, a second reading unit that reads an image signal from the second pixel group of the pixel unit, and the imaging device outputs An imaging condition determination unit that acquires and determines information about an imaging condition of an optical image from an image signal, and an image signal that is read by the first reading unit and the second reading unit according to the determination result And a imaging evaluation value detecting means for detecting the imaging evaluation value related to the imaging of.
本発明の撮像装置によれば、シーン判別によって、焦点検出精度と焦点検出速度の最適化を行うことが可能な撮像素子、その制御方法、および制御プログラムを提供する。 According to the imaging apparatus of the present invention, an imaging device capable of optimizing focus detection accuracy and focus detection speed by scene discrimination, a control method thereof, and a control program are provided.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<第1の実施形態>
図1は、本発明の第1の実施例に係る撮像装置の構成例を示すブロック図である。図示されている撮像装置は、例えば、動画機能付き電子スチルカメラ又はビデオカメラに適用される。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the first embodiment of the present invention. The illustrated imaging apparatus is applied to, for example, an electronic still camera with a moving image function or a video camera.
同図において、撮像装置100は、レンズ101、イメージセンサ102、画像信号処理部103、圧縮伸長部104、レンズ駆動制御部105、撮像信号評価値検出部106、シーン判別部107、システム制御部108を備える。また、撮像装置100はさらに、発光部109、操作部110、記憶部111、表示部112を備える。
In the figure, an
レンズ101は、撮影光学系を構成するレンズ群である。レンズ101内には、フォーカスレンズが含まれている。フォーカスレンズは、ピント調整用レンズである。フォーカスレンズは光軸方向に沿って位置を変更可能に構成されている。レンズ駆動制御部105、撮像評価値検出部106によって検出された値に基づいてフォーカスレンズを駆動制御し、焦点調節処理を実行する焦点調節手段としての機能を有する。レンズ101を通ってきた光は、CMOSイメージセンサ等で構成されたイメージセンサ102の結像面上に被写体の光学像として結像され、後述する画素201で画素信号に光電変換される。
The
イメージセンサ102は、画素201およびA/Dコンバータを有し、例えば、いわゆるXY読み出し方式のCMOS型イメージセンサである。イメージセンサ102は、システム制御部108による制御の下で、露光、信号読み出し、およびリセットなどの撮像動作を行って、撮像信号(画像信号ともいう)を出力する。
The
撮像評価値検出部106は、イメージセンサ102から出力された画像信号から撮像評価値を検出する。その際、システム制御107から出力されるタイミングにおいて、撮像評価値の検出を行う。なお、詳細な動作については後述する。
The imaging evaluation
ここで、撮像評価値とは、撮像装置の制御や、撮影された画像に対する補正等を行う際に必要なパラメータである。例えば、AF評価値や、WB(ホワイトバランス)評価値、AE(Automatic Exposure)評価値など、撮像装置の基本動作に必要な評価値である。AF評価値は、撮像時に被写体にピントを合わせるための評価値であり、主にフォーカスレンズを制御する際に必要である。WB評価値は、撮像時に色を補正するために必要な評価値であり、現像の際に必要なパラメータである。AE評価値は、撮影時に露出を適正に合わせるために必要な評価値であり、主に、絞りや、シャッタースピード、感度を設定する際に必要である。 Here, the imaging evaluation value is a parameter necessary for controlling the imaging apparatus, correcting the captured image, and the like. For example, it is an evaluation value necessary for the basic operation of the imaging apparatus, such as an AF evaluation value, a WB (white balance) evaluation value, an AE (Automatic Exposure) evaluation value. The AF evaluation value is an evaluation value for focusing on the subject at the time of imaging, and is mainly necessary when controlling the focus lens. The WB evaluation value is an evaluation value necessary for correcting a color at the time of imaging, and is a parameter necessary for development. The AE evaluation value is an evaluation value necessary for appropriately adjusting the exposure at the time of shooting, and is mainly required when setting the aperture, shutter speed, and sensitivity.
システム制御部108は、撮像評価値として得られるパラメータの1つであるAF評価値に基づいてレンズ101の制御量を決定し、この制御量をレンズ駆動制御部105に出力する。レンズ駆動制御部105は、システム制御108から得られた、AF評価値の制御量に基づいてレンズ101を光軸方向に駆動することで、被写体のピント調節を行う。
The
画像信号処理部103は、システム制御部108による制御の下で、イメージセンサ102の出力である画像信号に対して信号処理を行って画像データを生成する。具体的には、撮像評価値検出部で検出された撮像評価値に基づいて、ホワイトバランス調整処理、色補正処理、およびAE処理などの信号処理を施して画像データを生成する。
The image
圧縮伸長部104は、システム制御部108による制御の下で動作し、画像信号処理部103の出力である画像データに対して、所定の静止画像データフォーマットによって圧縮符号化処理を行う。例えば、所定の静止画像データフォーマットは、JPEG(Joint Photographic Coding Experts Group)方式などである。また、圧縮伸長部104はシステム制御部108から送られた符号化画像データに対して伸長復号化の処理を行う。なお、圧縮伸長部104は、MPEG(Moving Picture Experts Group)方式などによって動画像データに対して圧縮符号化/伸長復号化処理を行うようにしてもよい。
The compression /
シーン判別部107では、システム制御部から得られる撮影条件から撮影シーンを判別し、判別した撮影シーンに従って、撮影時の撮影パラメータや画像処理パラメータなどを変更するための情報をシステム制御部108へ送る。ここで、撮像評価値検出部106は、シーン判別の情報に基づいて、後述する、撮像評価値検出用画像信号および表示画像信号のどちらから撮像評価値を検出するかを決定する。
The
システム制御部108は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを備えるマイクロコントローラである。システム制御部108のCPUは、ROMに記憶されたプログラムを実行することによって、撮像装置100全体を統括的に制御する。
The
発光部109は、画像信号処理部103によるAE処理によって被写体の露光値が低いと判定されると、被写体に対して光を照射して照明を行う。発光部109としては、例えば、キセノン管を用いたストロボ装置又はLED発光装置が用いられる。操作部110は、例えば、シャッタレリーズボタンなどの各種操作キー、レバー、およびダイヤルを有し、ユーザーの入力操作に従った操作信号をシステム制御部108に与える。
When the
記録部111は、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、又は磁気テープなどの記録媒体であり、圧縮伸長部104により圧縮符号化された画像データを画像ファイルとして記憶する。また、記録部111は、システム制御部108によって指定された画像ファイルを読み出してシステム制御部108に出力する。
The
画像表示部112は、例えば、LCD(Liquid Crystal Display)などの表示デバイスおよびLCDに対するインタフェース回路を備え、システム制御部108から送られた画像データで表わされる画像を表示デバイスに表示する。
The
図2は、図1に示すイメージセンサ102の構成を説明するための図である。図2(a)はイメージセンサの斜視図であり、図2(b)はその構成を示すブロック図である。
FIG. 2 is a diagram for explaining the configuration of the
図2(a)において、イメージセンサ102は第1チップ(第1の素子部)20び第2のチップ21(第2の素子部)を有し、第2のチップ21上に第1のチップ20が積層されている。第1のチップ20はマトリックス状に配列された複数の画素201を有し、第1のチップ20は画素配列を光入射側に向けて積層されている(つまり、光学像の受光する側に位置している)。第2のチップ21には、後述する列走査回路213−a及び213−bと行走査回路212などの画素駆動回路が形成されている。
In FIG. 2A, the
このように、第1のチップ20に画素201を形成し、第2のチップ21に画素駆動回路を形成すれば、イメージセンサ102の周辺回路および画素部の製造プロセスを分けることができる。これにより、周辺回路における配線の細線化、高密度化による高速化、小型化、および高機能化を図ることができる。
In this manner, if the
図2(b)に示すように、第1のチップ20において、画素201はマトリクス状に配列されており、各画素201は水平方向(行方向)において転送信号線203、リセット信号線204、および行選択信号線205に接続されている。また、垂直方向(列方向)において列信号線202−aおよび202−bに接続されている。なお、列信号線202−aおよび202−bの各々は、行単位で、画素を異なる読み出し先に接続する。
As shown in FIG. 2B, in the
また、画素201の各々は、図示するように、光電変換素子であるフォトダイオードPD、転送トランジスタM1、リセットトランジスタM2、増幅トランジスタM3、選択トランジスタM、4、フローティングディフュージョンFDを有している。なお、図示の例では、トランジスタの各々はnチャネルMOSFET(MOS Field−Effect Transistor)である。
Each of the
転送トランジスタM1、リセットトランジスタM2、および選択トランジスタM4のゲートには、それぞれ転送信号線203、リセット信号線204、および行選択信号線205が接続されている。これら信号線203〜205は水平方向に延在し、同一行の画素を同時に駆動する。これによってライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を制御することができる。さらに、選択トランジスタM4のソースには列信号線202−a又は202−bが行単位で接続されている。
A
フォトダイオードPDは、光電変換によって生成された電荷を蓄積する。フォトダイオードPDのP側は、接地され、N側は、転送トランジスタM1のソースに接続されている。転送トランジスタM1がオンすると、フォトダイオードPDの電荷がFDに転送され、FDには寄生容量が存在するので、FDに転送された電荷が蓄積される。 The photodiode PD accumulates electric charges generated by photoelectric conversion. The P side of the photodiode PD is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD, and since there is a parasitic capacitance in the FD, the charge transferred to the FD is accumulated.
増幅トランジスタM3のドレインには電源電圧Vddが印加され、そのゲートはFDに接続されている。増幅トランジスタM3は、FDの電荷(つまり、電圧)を増幅して電圧信号に変換する。選択トランジスタM4は、行選択信号線205によって、信号を読み出す画素を行単位で選択するためのものであり、そのドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは列信号線202に接続されている。 A power supply voltage Vdd is applied to the drain of the amplification transistor M3, and its gate is connected to the FD. The amplification transistor M3 amplifies the charge (that is, voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting a pixel from which a signal is read out by the row selection signal line 205 in units of rows, and the drain thereof is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 202.
行信号選択線205によって選択トランジスタM4がオンすると、FDの電圧に対応する電圧信号が列信号線202に出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、そのソースはFDに接続されている。リセット信号線204によるリセットトランジスタM2のオンによって、FDの電圧は電源電圧Vddにリセットされる。 When the selection transistor M4 is turned on by the row signal selection line 205, a voltage signal corresponding to the voltage of the FD is output to the column signal line 202. A power supply voltage Vdd is applied to the drain of the reset transistor M2, and its source is connected to the FD. When the reset transistor M2 is turned on by the reset signal line 204, the voltage of the FD is reset to the power supply voltage Vdd.
第2のチップ21には、カラムADCブロック211が配設されており、カラムADC211は列信号線202−a又は202−bに接続されている。さらに、第2のチップ21には、行走査回路212、列走査回路213−a、213−b、タイミング制御回路214、水平信号線(出力手段)215−a、215−bが設けられている。
The
タイミング制御回路214はシステム制御部108の制御下で行走査回路212、列走査回路213−a及び213−b、およびカラムADCブロック211の動作タイミングを制御する。行走査回路212は各行の走査を行い、列走査回路213aおよび213bはそれぞれ各列の走査を行う。
The timing control circuit 214 controls the operation timing of the row scanning circuit 212, the column scanning circuits 213-a and 213-b, and the column ADC block 211 under the control of the
水平信号線215−a及び215−bは、それぞれ列走査回路213−aおよび213−bで制御されるタイミングに従ってカラムADCブロック211の出力信号(画像信号)を転送する。これによって、ライブビュー用の画像信号(第2の画像信号、つまり、画像表示信号)は列信号線202−aに出力され、撮像評価値検出用の画像信号(第1の画像信号)は列信号線202−bに出力される。 The horizontal signal lines 215-a and 215-b transfer the output signal (image signal) of the column ADC block 211 according to the timing controlled by the column scanning circuits 213-a and 213-b, respectively. Thereby, an image signal for live view (second image signal, that is, an image display signal) is output to the column signal line 202-a, and an image signal for detecting an imaging evaluation value (first image signal) is output to the column. The signal is output to the signal line 202-b.
図3において、行番号1および2は撮像評価値検出用画像の撮像のための行(第1の画素群)であり、行番号3〜8はライブビュー用画像の撮像のための行(第2の画素群)である。図示の例では、読み出し走査が行単位で順次行われて、8行単位で繰り返し読み出し走査が行われることになる。
In FIG. 3,
撮像評価値検出用撮像では、フレームレート重視のため垂直同色4画素中3画素を間引き読み出しする。一方、ライブビュー用撮像では、画質重視のため垂直同色4画素中1画素を間引いて3画素を加算する。言い換えると、撮像評価値検出用撮像においては、第1の画素群を第1のフレームレートで読み出しを行う。そしてライブビュー用撮像では第2の画素群を第1のフレームレートよりも遅い第2のフレームレートで読み出しを行う。 In imaging evaluation value detection imaging, 3 pixels out of 4 pixels of the same vertical color are skipped and read out in order to emphasize the frame rate. On the other hand, in live view imaging, in order to emphasize image quality, 1 pixel is thinned out from 4 pixels of the same vertical color and 3 pixels are added. In other words, in imaging for imaging evaluation value detection, the first pixel group is read at the first frame rate. In live view imaging, the second pixel group is read out at a second frame rate that is slower than the first frame rate.
上述のように、選択行毎に撮像評価値検出用撮像とライブビュー用撮像とを分けることによって、異なる電荷蓄積時間でデータサイズの異なるフレームレートの画像信号を取得することが可能となる。 As described above, by dividing the imaging evaluation value detection imaging and the live view imaging for each selected row, it is possible to acquire image signals of different frame rates with different data sizes in different charge accumulation times.
列信号線202−a及び202−bに出力された電圧信号(アナログ信号)は、図2に示すカラムADCブロック211においてアナログ信号からデジタル信号(画像信号)に変換される。カラムADCブロック211の出力である画像信号は、列走査回路213−a又は213−bによってカラムADCブロック211から水平信号線215−a又は215−bに読み出され出力される(第1の読み出し手段、第2の読み出し手段)。 The voltage signals (analog signals) output to the column signal lines 202-a and 202-b are converted from analog signals to digital signals (image signals) in the column ADC block 211 shown in FIG. The image signal that is the output of the column ADC block 211 is read out from the column ADC block 211 to the horizontal signal line 215-a or 215-b by the column scanning circuit 213-a or 213-b and output (first reading). Means, second reading means).
次に、撮像評価値の例として、AF動作用の最適な撮像評価値(AF評価値)を検出する動作を、図4を用いて説明する。 Next, as an example of the imaging evaluation value, an operation for detecting an optimal imaging evaluation value (AF evaluation value) for the AF operation will be described with reference to FIG.
図4(a)は、後述するシーン判別の結果、撮像評価値検出用画像からAF評価値(オートフォーカス評価値)を検出する際のタイミングチャートを示す図である。図示のように、垂直同期信号によって撮像タイミングが規定されており、AF評価モードとなると、システム制御部108は時間T0の垂直同期信号の立下りでAF制御信号を立ち上げる(Hレベル)。続いて、垂直同期信号が立ち上がると、システム制御部108は垂直同期信号に同期して画像表示信号用と撮像評価値検出用の撮像動作を同時に開始して行っていく。
FIG. 4A is a timing chart when an AF evaluation value (autofocus evaluation value) is detected from an imaging evaluation value detection image as a result of scene determination described later. As shown in the figure, the imaging timing is defined by the vertical synchronization signal, and in the AF evaluation mode, the
期間T0〜TF1で、水平信号線215−bを介して画素部20から読み出された撮像評価用画像信号は、撮像評価値検出部106に入力され、TF1〜TF2においてAF評価値が算出される。AF評価値は、イメージセンサ102から出力された、撮像評価値検出用画像信号から得られるコントラスト情報および位相差情報に基づいて、システム制御部108で制御されるタイミングで算出される。その後、期間TF2〜TF3において、撮像評価値検出部106はAF評価値をシステム制御部108に出力する。
The imaging evaluation image signal read out from the
図示の例では、1垂直同期信号の期間中にライブビュー用画像の1フレームが撮像され、AF評価値検出用画像(AF走査)の3フレームが撮像される。そして、システム制御部108が垂直同期信号をLレベルとすると、ライブビュー用画像1フレーム期間内のAF評価が終了する。
In the illustrated example, one frame of the live view image is captured during the period of one vertical synchronization signal, and three frames of the AF evaluation value detection image (AF scanning) are captured. When the
システム制御部108はAF評価値と後述する所定のAF期待値とを比較する。AF評価値がAF期待値との所定の評価条件を満足すると、システム制御部108はAF制御信号を立ち下げる(時間T1)。AF制御信号が立ち下がると、AF評価用撮像のみが停止して、ライブビュー撮像が継続して行われることになる。
The
図4(b)は、後述するシーン判別の結果に従って、ライブビュー用画像からAF評価値を検出する際のタイミングチャートを示す図である。 FIG. 4B is a diagram illustrating a timing chart when an AF evaluation value is detected from a live view image in accordance with a result of scene determination described later.
図4(a)と同様に、垂直同期信号によって撮像タイミングが規定されており、AF評価モードが設定されていると、システム制御部108は時間T0の垂直同期信号の立下りでAF制御信号を立ち上げる(Hレベル)。続いて、垂直同期信号が立ち上がると、システム制御部108は垂直同期信号に同期して画像表示信号用のみ撮像動作を行っていく。
As in FIG. 4A, when the imaging timing is defined by the vertical synchronization signal and the AF evaluation mode is set, the
期間T0〜TF4において、215−aを介して画素201から読み出されたライブビュー用画像信号は、撮像評価値検出部106と画像信号処理部103に入力され、期間TF4〜TF5においてAF評価値が算出される。撮像評価値検出部106は、イメージセンサ102から出力された、ライブビュー用画像の画像信号から得られるコントラスト情報および位相差情報に基づいて、システム制御部108で制御されるタイミングでAF評価値を算出する。その後、期間TF5〜TF6において、撮像評価値検出部106はAF評価値をシステム制御部108に出力する。
In the period T0 to TF4, the live view image signal read from the
図示の例では、1垂直同期信号の期間中にライブビュー用画像の1フレームが撮像され、AF評価値検出用画像(AF走査)は撮像されない。システム制御部108が垂直同期信号をLレベルとすると、ライブビュー用画像1フレーム期間内のAF評価が終了する。
In the illustrated example, one frame of the live view image is captured during the period of one vertical synchronization signal, and the AF evaluation value detection image (AF scanning) is not captured. When the
システム制御部108はライブビュー用画像から検出されたAF評価値と後述する所定のAF期待値とを比較し、AF評価値がAF期待値との所定の評価条件を満足すると、AF制御信号を立ち下げる(時間T7)。AF制御信号が立ち下がると、表示画像からのAF評価用検出動作が停止して、ライブビュー撮像が継続して行われることになる。
The
図4(a)に示すように、本実施例では、撮像評価値検出用画像は、ライブビュー用画像の動作より速いフレームレートを設定可能なため、撮像装置への撮像評価値の反映を、従来よりも迅速に制御することが可能となる。 As shown in FIG. 4A, in the present embodiment, the imaging evaluation value detection image can set a frame rate faster than the operation of the live view image. It becomes possible to control more quickly than in the past.
しかしながら、撮像装置にはプログラム線図で決められた、露出制御によって暗時の追従限界が存在する。そのためフレームレートが速い撮像評価値検出用画像と、フレームレートの遅いライブビュー用画像では、露出制御による暗部の追従限界が異なってしまう。本実施例では、暗部の追従限界が3段分の差が発生してしまう。 However, the imaging apparatus has a dark tracking limit by exposure control determined by a program diagram. Therefore, the tracking limit of the dark part by exposure control differs between the imaging evaluation value detection image with a fast frame rate and the live view image with a slow frame rate. In the present embodiment, the difference in the tracking limit of the dark part is generated by three steps.
シーン判別部107は、ライブビュー用画像撮影時にシステム制御部108によって撮影(露出)条件として設定されている感度設定値や、シャッタースピードなどから算出される露光量から撮影シーンの特徴を判別する。撮像評価値検出部106は、シーン判別部107の判別結果に従って、撮像評価値検出用画像とライブビュー用画像のいずれかから撮像評価値を検出する。
The
次に本実施形態1にかかわる撮像装置のAF評価モードでの動作を、図5のフローチャートを用いて詳細に説明する。 Next, the operation of the imaging apparatus according to the first embodiment in the AF evaluation mode will be described in detail with reference to the flowchart of FIG.
図示のフローチャートはシステム制御部108の制御下で行われる。説明のため、撮像評価値検出用画像で検出される撮像評価値をAF_Kα、ライブビュー用画像で検出される撮像評価値をAF_Kβとする。
The illustrated flowchart is performed under the control of the
ユーザーにより電源がONされ、各種初期設定を行った後(ステップS502)、ライブビューモードや動画記録などの動作モードに移行し、撮影が開始される(ステップS520)。 After the power is turned on by the user and various initial settings are made (step S502), the mode is shifted to an operation mode such as live view mode or moving image recording, and shooting is started (step S520).
システム制御部108はAF評価モードであるか否かを判定する(ステップS502)。つまり、システム制御部108はオートフォーカスモードが設定されているか否かを判定する。AF評価モードでないと(ステップS503において、No)、システム制御部108はライブビュー撮像のみを開始して(ステップS520)、後述のステップS521に進む。
The
一方、AF評価モードであると(ステップS503において、Yes)、システム制御部108はAF制御信号をオン(Hレベル)にする(ステップS504)。続いて、システム制御部108はAF評価用撮像の回数をカウントするための変数nに0を代入して初期化する(ステップS505)。次にステップS506では、システム制御部108によって、ライブビュー撮影を行う際の撮像条件の露光量Sを検出する。
On the other hand, in the AF evaluation mode (Yes in step S503), the
次に、シーン判別部107によって、ステップS506で検出された露光量Eと露光量期待値Evの比較を行う(撮像条件判定)。システム制御部108は、ライブビュー撮影の露光量が露光設定の期待値であるEvに対して次の式(1)、つまり、所定の感度条件を満たすか否かを判定する(ステップS507)
E<Ev ・・・(1)
ライブビューの露光量Evが、(1)式を満たす(Yes)場合、S508に進み、AF評価値検出用の撮像をスタートする。
Next, the
E <Ev (1)
If the exposure amount Ev of the live view satisfies the expression (1) (Yes), the process proceeds to S508, and imaging for AF evaluation value detection is started.
次に、図4(a)で説明したように、システム制御部108はAF評価用撮像を開始する。(ステップS508)AF評価用撮像を開始した後、システム制御部108は変数nを1だけインクリメントする(ステップS509)。その後、システム制御部108による制御の下で、撮像評価値検出部106はAF評価用撮像で得られたAF評価用画像信号からAF評価値AF_Kαを検出する(ステップS510)。
Next, as described in FIG. 4A, the
続いて、システム制御部108は、AF評価値AF_KαがAF期待値であるK_minαおよびK_maxαに対して次の式(2)、つまり所定の評価条件を満たすか否かを判定する(ステップS511)
K_minα<AF_Kα<K_maxα (2)
ここでAF評価値期待値K_minαおよびK_max αは期待されるAF評価値の最小値および最大値に設定されており、あらかじめ撮像装置の設計の際又は撮像装置の調整の際にシステム制御部108に記録される。
Subsequently, the
K_minα <AF_Kα <K_maxα (2)
Here, the AF evaluation value expected values K_minα and K_max α are set to the minimum value and the maximum value of the expected AF evaluation value, and are previously set in the
AF評価値AF_Kαが式(2)を満たさないと(ステップS511において、No)、システム制御部108は上記のAF評価値AF_Kαに基づいてフィードバック制御量を求める。そして、システム制御部108は当該フィードバック制御量に従ってレンズ駆動制御部105を駆動制御してレンズ101に備えられたフォーカスレンズを駆動する(ステップS512)。
If the AF evaluation value AF_Kα does not satisfy Expression (2) (No in step S511), the
続いて、システム制御部108は変数(AF評価値撮像回数)nが所定の数(ここでは、3)であるか否かを番定する(ステップS513)。AF評価値撮像回数が3回未満であれば(ステップS511において、No)、システム制御部108はステップS510の処理に戻ってAF評価用撮像を行う。一方、AF評価値撮像回数が3回であれば(ステップS513において、Yes)、システム制御部108は、ステップS505の処理に戻ってAF評価値撮像回数nをゼロとする。
Subsequently, the
AF評価値AF_Kαが式(2)を満たすと(ステップS511において、Yes)、システム制御部108はAF制御信号をオフ(Lレベル)として(ステップS514)、撮像素子102におけるAF評価用撮像を停止する(ステップS515)。その後、システム制御部108は、動作をステップS522へ進める。
When the AF evaluation value AF_Kα satisfies Expression (2) (Yes in step S511), the
ステップS507にてライブビュー用画像の露光量Eが、(1)式を満たさない(No)場合、S516に進み、ライブビュー用の撮像画像からAF評価値AF_Kβを検出する。続いて、システム制御部108は、AF評価値AF_KβがAF期待値であるK_minβおよびK_maxβに対して次の式(3)、つまり、所定の表価条件を満たすか否かを判定する(ステップS517)。
K_minβ<AF_K<K_maxβ (3)
ここでAF期待値K_minβおよびK_maxβは期待されるAF評価値の最小値および最大値として設定されており、予め撮像装置の設計の際又は撮像装置の調整の際にシステム制御部108に記録される。
If the exposure amount E of the live view image does not satisfy the expression (1) in step S507 (No), the process proceeds to S516, and the AF evaluation value AF_Kβ is detected from the live view captured image. Subsequently, the
K_minβ <AF_K <K_maxβ (3)
Here, the expected AF values K_minβ and K_maxβ are set as minimum and maximum values of expected AF evaluation values, and are recorded in advance in the
AF評価値AF_Kβが式(3)を満たさない場合は(ステップS517に置いて、No)、システム制御部108は上記のAF評価値AF_Kβに応じてフィードバック制御量を求める。そして、システム制御部108は当該フィードバック制御量に応じてレンズ駆動制御部105を駆動制御してレンズ101に備えられたフォーカスレンズを駆動し(ステップS518)、ステップS522へ進む。
When the AF evaluation value AF_Kβ does not satisfy Expression (3) (No in step S517), the
AF評価値AF_Kβが式(3)を満たす場合は(ステップS517において、Yes)、システム制御部108はAF制御信号をオフ(Lレベル)とし(ステップS519)、ステップS522へ進む。ステップS522では、ライブビュー動作の終了の指示があると(Yes)、ライブビュー動作が終了し、ひき続きライブビュー動画が行われる場合は(No)、ステップS503へ戻り、ライブビュー動作を行いながら、AF動作を行う。
When the AF evaluation value AF_Kβ satisfies Expression (3) (Yes in step S517), the
上述のように、本実施例は、ライブビュー用撮像と撮像評価値検出用撮像が1フレーム期間中に同時に可能な撮像素子を備えた撮像装置を前提としている。そして、ライブビュー撮像時の露出条件に基づいたシーン判別の結果に従って、AF評価値を検出する画像を、AF評価値用画像およびライブビュー画像から選択する。これによって、明るい被写体撮影時ではAF評価を行う際のタイムラグを短縮することができ、暗部に対してはAF評価値の精度を向上することが可能となる。また、本実施例では、AF評価値と比較するAF期待値を、AF評価値用画像およびライブビュー画像それぞれについて異なる期待値としたが、同じ期待値としてもよい。 As described above, the present embodiment is premised on an imaging apparatus including an imaging element capable of performing live view imaging and imaging evaluation value detection imaging simultaneously during one frame period. Then, an image for detecting the AF evaluation value is selected from the AF evaluation value image and the live view image according to the result of the scene discrimination based on the exposure condition at the time of live view imaging. As a result, the time lag at the time of AF evaluation can be shortened when shooting a bright subject, and the accuracy of the AF evaluation value can be improved for dark portions. In this embodiment, the expected AF value to be compared with the AF evaluation value is set to a different expected value for each of the AF evaluation value image and the live view image. However, the same expected value may be used.
また、本実施例では、撮像評価値の例として、AF評価値を用いて説明したが、その他の撮像評価値、例えば、WB評価値(ホワイトバランスデータ)や、AE評価値(露出制御データ)についても同様な構成で最適な評価値を検出することが可能である。WB評価値やAE評価値においても、ステップS507のシーン判別の結果に従って、撮像評価値検出用画像およびライビュー用画像のいずれかから評価値を検出するかを切り替える。これにより、WBやAE評価値検出のタイムラグと精度の最適化を行うことが可能となる。 In this embodiment, the AF evaluation value is used as an example of the imaging evaluation value. However, other imaging evaluation values such as a WB evaluation value (white balance data) and an AE evaluation value (exposure control data) are used. It is possible to detect an optimum evaluation value with a similar configuration. Also in the WB evaluation value and the AE evaluation value, whether the evaluation value is detected from either the imaging evaluation value detection image or the live image is switched according to the result of the scene discrimination in step S507. This makes it possible to optimize the time lag and accuracy of WB and AE evaluation value detection.
<第2の実施形態>
本発明の第1の実施例では、露出量の情報のみで撮影シーンを判別し、その結果に従って、AF評価値AF評価値画像またはライブビュー画像のいずれかから検出する構成を説明した。本実施例では、露出量の情報のみではなく、顔情報や、輝度情報、色情報などに基づいて撮影シーンを判別することでさらに精度よく撮像評価値を検出する構成をする。以下、本発明の第2の実施例に係る撮像装置について、図6乃至8を参照して説明する。なお、図において第1の実施例と同様の部分は、同じ符号を付して示し、その説明を省略する。
<Second Embodiment>
In the first embodiment of the present invention, a configuration has been described in which a shooting scene is determined based only on exposure amount information, and detection is performed from either an AF evaluation value AF evaluation value image or a live view image according to the result. In this embodiment, the imaging evaluation value is detected with higher accuracy by discriminating the shooting scene based on not only the exposure amount information but also face information, luminance information, color information, and the like. Hereinafter, an image pickup apparatus according to a second embodiment of the present invention will be described with reference to FIGS. In the figure, the same parts as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図6は、本実施例に係る撮像装置のブロック図である。第1の実施例と異なるのは、顔情報検出部601、輝度情報検出部602、色情報検出部603を備えることであり、その他の構成は同様である。
FIG. 6 is a block diagram of the imaging apparatus according to the present embodiment. The difference from the first embodiment is that a face information detection unit 601, a luminance
顔情報検出部601は、イメージセンサ102から出力された画像信号に対して顔検出処理を行い、フレーム画像に映り込んだ人物や動物(ペットなど)の顔を検出し、検出した顔の領域を顔情報としてシーン判別部107に出力する。
The face information detection unit 601 performs face detection processing on the image signal output from the
輝度情報検出部602は、画像信号処部103か出力された画像データ画像に対して輝度検出処理を行い、画像フレーム画像を複数の領域に分割し、各領域における平均輝度を求める。輝度情報検出部602は、これらの平均輝度を用いて、例えば、フレーム画像の中心部とその周辺部との輝度差や中心輝度値などの輝度情報を求める。輝度情報検出部602で検出された輝度情報は、シーン判別部107に出力される。
The luminance
色情報検出部603は、画像信号処理103から出力された画像データ画像に対して色検出処理を行い、平均彩度、高彩度領域の面積などの色情報を検出する。色情報検出部603で検出された色情報は、シーン判別部107に出力される。
The color
シーン判別部107は、顔情報検出部601、輝度情報検出部602、及び色情報検出部603から入力された各情報に基づいて、信号処理部103で処理された画像データ画像から撮影シーンの背景や撮影シーンの被写体を判別する。なお、顔情報検出部601、輝度情報検出部602、及び色情報検出部603から送られてきた各情報は、シーン判別部107により一時的に保存され、随時更新される。
The
次に、本実施例に係る撮像装置における撮影シーンの判別動作について説明する。
シーン判別部107は、イメージセンサ102から出力されるライブビューの画像信号に対し、輝度検出部602にて検出された輝度情報と色検出部603にて検出された色情報を用いて、撮影シーンの背景を判別する。さらに、顔検出部601にて検出された顔情報を用いて、撮影シーンにおける被写体を判別する。
Next, a shooting scene discrimination operation in the imaging apparatus according to the present embodiment will be described.
The
まず、撮影シーンの背景を判別する場合について説明する。
シーン判別部107は、輝度検出部602にて検出された輝度情報と色検出部603にて検出された色情報を解析し、画像上の青空色の領域の面積が閾値以上かどうかを判定する。シーン判別部107は、青空色の領域の面積が閾値以上ならば、撮影シーンの背景は青空であると判定する。また、シーン判別部107は、輝度検出部602からの輝度情報と色検出部603からの色情報を解析する。その結果、シーン判別部107は、画像上の輝度が所定のヒストグラム分布や分散の条件を満たすと判定した場合に、撮影シーンの背景は夜景であると判定する。例えば、夜景等の暗部の場合の画像上の輝度は、低輝度部が大部分を占め、且つ高輝度部が単発的に発生している状態である。また、シーン判別部107は、輝度検出部602からの輝度情報と色検出部603からの色情報を解析し、画像上の平均彩度、高彩度の領域の面積が共に閾値以上かどうかを判定し、閾値以上であれば、撮影シーンが鮮やかなシーンであると判定する。
First, the case of determining the background of the shooting scene will be described.
The
次に、撮影シーンにおける被写体を判別する動作について説明する。
シーン判別部107は、顔検出部601からの顔情報を解析し、画像信号から顔が検出されていた場合には、撮影シーンにおける被写体が人物であると判定する。
シーン判別部107は、上述したようにシーンの背景と被写体の両方を判定し、これらの判定結果を組み合わせて、1つの判定結果をシステム制御部107に出力する。
Next, an operation for determining a subject in a shooting scene will be described.
The
As described above, the
次に、本実施例に係る撮像装置のAF評価モードでの動作を、図9のフローチャートを用いて詳細を説明する。なお、本実施例の詳細な動作を説明するために、ライビュー画像から検出される顔情報検出値をXl、輝度情報検出値をYl、色情報検出値をZlとし、第1の実施例と異なる動作についてのみ説明する。 Next, the operation of the imaging apparatus according to the present embodiment in the AF evaluation mode will be described in detail with reference to the flowchart of FIG. In order to explain the detailed operation of the present embodiment, the face information detection value detected from the live image is Xl, the luminance information detection value is Yl, and the color information detection value is Zl, which is different from the first embodiment. Only the operation will be described.
シーン判別部107は、検出された各情報の検出値とそれぞれの期待値、顔情報X、輝度情報Y、色情報Zを比較し、図8に示すように、AF評価値AF_Kα又はAF_Kβを選択する。この結果に従って、ステップS702での分岐を決定する。
The
ステップS701では、取得されたライブビュー用画像に対して顔検出部601、輝度検出部602、色検出部603によって、顔情報Xl、輝度情報Yl、色情報Zlの検出を行う。S702では、シーン判別部107によってS701で撮像評価値検出用画像およびライブビュー用画像から検出された各情報値から、図8の表に示すようにて次の撮影に反映するための撮像評価値を決定する。
In step S701, the face information Xl, the luminance information Yl, and the color information Zl are detected by the face detection unit 601, the
例えば、一つの例として各情報値の関係が下記に示すような場合は、
顔情報値:Xl>X
輝度情報値:Yl>Y
色情報値:Zl>Z
ステップS702にて、AF評価値検出用撮像をスタートし(つまり、Yesで分岐)、ステップS508へ進み、システム制御部108は変数nを1インクリメントする(ステップS509)。その後は第1の実施例と同様である。
For example, if the relationship between each information value is as shown below,
Face information value: Xl> X
Luminance information value: Yl> Y
Color information value: Zl> Z
In step S702, imaging for AF evaluation value detection is started (that is, branching is Yes), the process proceeds to step S508, and the
また、他の例として各情報値の関係が下記に示すような場合は、
顔情報値:Xl≦Xl
輝度情報値:Yl≦Y
色情報値:Zl≦Z
ステップS702にて、AF評価値検出用撮像スタートせず(つまり、Noで分岐)、S516へ進みライブビュー用撮像画像からAF評価値AF_Kβを検出する。その後は第1の実施例と同様である。その他のシーン判別の場合分けは、図8に示すような関係に従う。
As another example, if the relationship between information values is as shown below,
Face information value: Xl ≦ Xl
Luminance information value: Yl ≦ Y
Color information value: Zl ≦ Z
In step S702, the AF evaluation value detection imaging is not started (that is, the branch is NO), and the process proceeds to S516 to detect the AF evaluation value AF_Kβ from the live view captured image. The subsequent steps are the same as in the first embodiment. The other cases of scene discrimination follow the relationship shown in FIG.
以上、本実施例は、ライブビュー用撮像と撮像評価値検出用撮像が1フレーム期間中に同時に可能な撮像素子を備えた撮像装置を前提としている。そして、輝度/色/顔情報に基づいた撮影シーンを判別の結果に従って、AF評価値を検出する画像を、AF評価値用画像またはライブビュー画像から選択する。これにより、明るい被写体撮影時ではAF評価を行う際のタイムラグを短縮することができ、暗部に対してはAF評価値の精度を向上することが可能となる。 As described above, the present embodiment is premised on an imaging apparatus including an imaging device capable of performing live view imaging and imaging evaluation value detection imaging simultaneously during one frame period. Then, an image for detecting the AF evaluation value is selected from the AF evaluation value image or the live view image in accordance with the result of determining the shooting scene based on the luminance / color / face information. Thereby, the time lag at the time of performing AF evaluation can be shortened at the time of photographing a bright subject, and the accuracy of the AF evaluation value can be improved for a dark part.
また、本実施例では、シーン判別を行う際、撮像評価値検出用画像とライブビュー用画像それぞれから、顔情報、輝度情報、色情報を検出したが、それらに限定されるわけではない。第1の本実施例で記載した感度を検出し、その結果もシーン判別の一つの因子とすることで、さらなるAF評価値の検出タイムラグ、検出速度の最適化が可能となる。 In this embodiment, when scene determination is performed, face information, luminance information, and color information are detected from the imaging evaluation value detection image and the live view image, but the present invention is not limited thereto. By detecting the sensitivity described in the first embodiment and using the result as one factor for scene discrimination, it is possible to further optimize the AF evaluation value detection time lag and detection speed.
また、本実施例では、シーン判別を行う際に必要な情報である顔情報、輝度情報、色情報の少なくとも2つが大きな情報値である場合の撮像画像から撮像評価値を決定したが、これに限定するわけではない。撮像評価値によって各情報値に重みを付けて比較を行ってもよい。 In this embodiment, the imaging evaluation value is determined from the captured image when at least two of face information, luminance information, and color information, which are information necessary for scene discrimination, are large information values. It is not limited. Each information value may be weighted and compared by the imaging evaluation value.
<第3の実施形態>
次に、本発明の第3の実施例を説明する。本実施例は、撮像評価値検出部106を、イメージセンサ102の外部ではなく、内部、例えば図2(a)の第2のチップ21の画素駆動回路内に形成した構成である。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In this embodiment, the imaging evaluation
図9は、撮像評価値検出部を組み込んだイメージセンサ102の構成図である。同図において、図2と同様の部分は同じ符号を付して示す。
FIG. 9 is a configuration diagram of the
図において、901は、撮像評価値、例えばAF評価値(オートフォーカスデータ)を検出し、検出した評価値のみをシステム制御部106に出力する撮像評価値検出部である。撮像評価値検出部901は、システム制御部108が撮像素子102で得られる画像信号から得られるコントラスト情報および位相差情報に基づいて制御するタイミングに従って動作する。
In the figure, reference numeral 901 denotes an imaging evaluation value detection unit that detects an imaging evaluation value, for example, an AF evaluation value (autofocus data), and outputs only the detected evaluation value to the
スイッチ902、903はシステム制御部108によって制御され、撮像評価値を検出する際、シーン判別部107の判別結果に基づいて、撮像評価値検出用の画像信号とライブビュー用の画像信号のどちらを撮像評価値検出部901に選択的に入力するかを切り替える。スイッチ902は、図3で図示した、撮像評価値用に対応する画素の信号を、信号処理部103または、撮像評価値検出部901に出力するか選択するスイッチである。また、スイッチ903は、図3で図示した、ライブビュー用選択行に対応する画素信号を撮像評価値に使用する際にONするスイッチである。
The switches 902 and 903 are controlled by the
図9のイメージセンサを第1の実施例に係る撮像装置で使用したときの、当該イメージセンサの動作を図5のフローチャートを用いて説明する。 The operation of the image sensor when the image sensor of FIG. 9 is used in the imaging apparatus according to the first embodiment will be described with reference to the flowchart of FIG.
ステップS503で、AF動作が開始される。第1の実施例で説明したように、ステップS507においてライブビューの露光量Evが、(1)式を満たす(YES)場合、ステップS508に進み、AF評価値検出用の撮像がスタートする。このとき、スイッチ902は撮像評価値検出部901側に接続され、スイッチ903はOFFにされる。 In step S503, the AF operation is started. As described in the first embodiment, when the live view exposure amount Ev satisfies the expression (1) (YES) in step S507, the process proceeds to step S508, and imaging for AF evaluation value detection starts. At this time, the switch 902 is connected to the imaging evaluation value detection unit 901 side, and the switch 903 is turned off.
AF評価用撮像を開始した後、システム制御部108は変数nを1だけインクリメントする(ステップS509)。そして、撮像評価値検出部901は、AF評価値用画像からAF評価値AF_Kαを検出する。
After starting the AF evaluation imaging, the
ステップS507においてライブビューの露光量Evが、(1)式を満たさない(No)の場合、S516へ進む。S516では、スイッチ903がONにされ、撮像評価値検出部901は、ライブビュー用の画像信号からAF評価値AF_Kβを検出する。このとき、スイッチ902は、信号処理部104側へ接続されているが、AF評価値用の動作は行っていないため、信号処理部への画素信号は出力されない。また、撮像評価値検出部901は、システム制御部108へ、AF評価値のみを転送するため、第1の実施例と比較して外部への転送データ量を削減でき、消費電力の削減が可能となる。以後の動作は、第1の実施の動作と同様なため、説明は省略する。なお、第2の実施例に係る撮像装置に図9のイメージセンサを用いた場合も、同様の動作となる。
If the exposure value Ev of the live view does not satisfy the expression (1) (No) in step S507, the process proceeds to S516. In S516, the switch 903 is turned on, and the imaging evaluation value detection unit 901 detects the AF evaluation value AF_Kβ from the image signal for live view. At this time, the switch 902 is connected to the
上述した第3の実施例では、撮像評価値をイメージセンサ内に構成することで、第1および第2の実形例において撮像評価値検出時のデータの転送量を削減できるので、消費電力を低減させることが可能となる。 In the third embodiment described above, by configuring the imaging evaluation value in the image sensor, the amount of data transferred when the imaging evaluation value is detected in the first and second actual examples can be reduced. It can be reduced.
以上、本発明の実施の形態を第1乃至第3の実施例に基づいて説明したが、本発明は、これらの実施例に限定されるものではなく、この発明の要旨を逸脱しない範囲での様々な形態も本発明に含まれる。 The embodiments of the present invention have been described based on the first to third embodiments. However, the present invention is not limited to these embodiments, and the scope of the present invention is not deviated. Various forms are also included in the present invention.
例えば、上記の実施の形態の機能の制御方法として、撮像装置に制御部が当該装置の各部を制御してその機能を実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとし、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記憶媒体に記録される。上記の制御方法および制御プログラムの各々は、少なくとも制御ステップおよび表示制御ステップを有している。 For example, as a function control method of the above-described embodiment, the control unit may cause the imaging device to execute each function by controlling each unit of the device. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable storage medium, for example. Each of the above control method and control program has at least a control step and a display control step.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (18)
前記光学像を光電変換して画像信号を生成する画素をマトリックス状に配列した画素部を有する第1の素子部と、前記画素部から画像信号を読み出す読み出し手段が配設された第2の素子部とを備え、前記読み出し手段が、前記画素部の第1の画素群から画像信号を読み出す第1の読み出し手段と、前記画素部の第2画素群から画像信号を読み出す第2の読み出し手段を有する撮像素子と、
前記撮像素子が出力する画像信号から、前記光学像の撮像条件に関する情報を取得して判定する撮像条件判定手段と、
前記判定の結果に従って、前記第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、前記光学像の撮像に関する撮像評価値を検出する撮像評価値検出手段と、
を備えることを特徴とする撮像装置。 In an imaging device that has a photographing optical system that forms an optical image of a subject and that captures the optical image to generate an image signal,
A second element provided with a first element part having a pixel part in which pixels for photoelectrically converting the optical image to generate an image signal are arranged in a matrix, and a reading means for reading out the image signal from the pixel part A first readout unit that reads out an image signal from the first pixel group of the pixel unit, and a second readout unit that reads out the image signal from the second pixel group of the pixel unit. An image sensor having
Imaging condition determining means for acquiring and determining information on the imaging condition of the optical image from the image signal output by the imaging element;
An imaging evaluation value detection unit that detects an imaging evaluation value related to imaging of the optical image from any one of the image signals read by the first reading unit and the second reading unit according to the determination result;
An imaging apparatus comprising:
前記撮像素子が出力する画像信号から、前記光学像の撮像条件に関する情報を取得して判定する撮像条件判定ステップと
前記判定の結果に従って、前記第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、前記光学像の撮像に関する撮像評価値を検出する撮像評価値検出ステップと、
を備えることを特徴とする制御方法。 An imaging optical system that forms an optical image of a subject, and an imaging device that captures the optical image and generates an image signal, and the imaging device matrixes pixels that photoelectrically convert the optical image to generate an image signal A first element portion having pixel portions arranged in a shape and a second element portion provided with a reading means for reading an image signal from the pixel portion, wherein the reading means is a first portion of the pixel portion. In a control method of an imaging apparatus including an imaging element having a first readout unit that reads out an image signal from the pixel group and a second readout unit that reads out an image signal from the second pixel group of the pixel unit,
An imaging condition determination step for acquiring and determining information related to an imaging condition of the optical image from an image signal output from the imaging element, and reading by the first reading unit and the second reading unit according to the determination result An imaging evaluation value detection step for detecting an imaging evaluation value related to imaging of the optical image from any of the image signals;
A control method comprising:
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013137031A JP6346417B2 (en) | 2013-06-28 | 2013-06-28 | Imaging apparatus, control method thereof, and control program |
GB1322878.8A GB2511405B (en) | 2012-12-28 | 2013-12-23 | Image pickup element, image pickup apparatus, and method and program for controlling the same |
GB1519148.9A GB2529575B (en) | 2012-12-28 | 2013-12-23 | Image pickup element, image pickup apparatus, and method and program for controlling the same |
KR1020130163663A KR101663947B1 (en) | 2012-12-28 | 2013-12-26 | Image pickup element, image pickup apparatus, method for controlling the same, and storage medium |
US14/141,732 US9609223B2 (en) | 2012-12-28 | 2013-12-27 | Image pickup element, image pickup apparatus, and method and program for controlling the same |
DE102013227163.8A DE102013227163B4 (en) | 2012-12-28 | 2013-12-27 | PICTURE RECORDING DEVICE, PICTURE RECORDING DEVICE AND METHOD AND PROGRAM FOR CONTROLLING THEM |
BR102013033787A BR102013033787A2 (en) | 2012-12-28 | 2013-12-27 | image capture element, image capture apparatus, and method and program for controlling the same |
RU2013158771/07A RU2566735C2 (en) | 2012-12-28 | 2013-12-27 | Image capture element and device, method and programme for their control |
CN201310745423.1A CN103916575B (en) | 2012-12-28 | 2013-12-30 | Photographing element, picture pick-up device and its control method |
KR1020160126372A KR101757655B1 (en) | 2012-12-28 | 2016-09-30 | Image pickup element, image pickup apparatus, method for controlling the same, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013137031A JP6346417B2 (en) | 2013-06-28 | 2013-06-28 | Imaging apparatus, control method thereof, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015011216A true JP2015011216A (en) | 2015-01-19 |
JP6346417B2 JP6346417B2 (en) | 2018-06-20 |
Family
ID=52304416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013137031A Active JP6346417B2 (en) | 2012-12-28 | 2013-06-28 | Imaging apparatus, control method thereof, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6346417B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018066928A (en) * | 2016-10-21 | 2018-04-26 | キヤノン株式会社 | Solid state image pickup element, control method thereof, and imaging apparatus |
JP2019212240A (en) * | 2018-06-08 | 2019-12-12 | 富士通株式会社 | Simulation program, simulation method and simulation device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006128196A (en) * | 2004-10-26 | 2006-05-18 | Sony Corp | Semiconductor image sensor module and manufacturing method thereof |
JP2009089105A (en) * | 2007-10-01 | 2009-04-23 | Nikon Corp | Solid-state imaging apparatus and electronic camera employing the same |
JP2011253099A (en) * | 2010-06-03 | 2011-12-15 | Nikon Corp | Focus detector |
JP2012058439A (en) * | 2010-09-08 | 2012-03-22 | Olympus Imaging Corp | Digital camera |
JP2012058464A (en) * | 2010-09-08 | 2012-03-22 | Pentax Ricoh Imaging Co Ltd | Imaging system and pixel signal reading method |
JP2013113857A (en) * | 2011-11-24 | 2013-06-10 | Canon Inc | Imaging device, and control method therefor |
-
2013
- 2013-06-28 JP JP2013137031A patent/JP6346417B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006128196A (en) * | 2004-10-26 | 2006-05-18 | Sony Corp | Semiconductor image sensor module and manufacturing method thereof |
JP2009089105A (en) * | 2007-10-01 | 2009-04-23 | Nikon Corp | Solid-state imaging apparatus and electronic camera employing the same |
JP2011253099A (en) * | 2010-06-03 | 2011-12-15 | Nikon Corp | Focus detector |
JP2012058439A (en) * | 2010-09-08 | 2012-03-22 | Olympus Imaging Corp | Digital camera |
JP2012058464A (en) * | 2010-09-08 | 2012-03-22 | Pentax Ricoh Imaging Co Ltd | Imaging system and pixel signal reading method |
JP2013113857A (en) * | 2011-11-24 | 2013-06-10 | Canon Inc | Imaging device, and control method therefor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018066928A (en) * | 2016-10-21 | 2018-04-26 | キヤノン株式会社 | Solid state image pickup element, control method thereof, and imaging apparatus |
JP2019212240A (en) * | 2018-06-08 | 2019-12-12 | 富士通株式会社 | Simulation program, simulation method and simulation device |
JP7070121B2 (en) | 2018-06-08 | 2022-05-18 | 富士通株式会社 | Simulation program, simulation method and simulation equipment |
Also Published As
Publication number | Publication date |
---|---|
JP6346417B2 (en) | 2018-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10349028B2 (en) | Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium | |
US10368025B2 (en) | Imaging element, imaging apparatus, its control method, and control program | |
JP6995806B2 (en) | Image sensor and image sensor | |
US9609223B2 (en) | Image pickup element, image pickup apparatus, and method and program for controlling the same | |
JP6159105B2 (en) | Imaging apparatus and control method thereof | |
JP2008109485A (en) | Imaging apparatus and imaging control method | |
JP6521731B2 (en) | Imaging device, control method therefor, and control program | |
KR102368625B1 (en) | Digital photographing apparatus and the method for the same | |
JP6346417B2 (en) | Imaging apparatus, control method thereof, and control program | |
JP6632580B2 (en) | Imaging device and imaging device | |
JP6223160B2 (en) | Imaging device, control method thereof, and control program | |
JP2011166515A (en) | Imaging apparatus | |
JP2009272799A (en) | Imaging device and program | |
KR101757655B1 (en) | Image pickup element, image pickup apparatus, method for controlling the same, and storage medium | |
JP7051565B2 (en) | Imaging device and its control method, imaging system | |
JP7037396B2 (en) | Image sensor, image pickup device and image pickup method | |
JP2017192048A (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP2015126386A (en) | Image pickup device, and control method and program of the same | |
JP2012204938A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171124 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6346417 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |