JP2015011216A - Imaging device, and control method and control program of the same - Google Patents

Imaging device, and control method and control program of the same Download PDF

Info

Publication number
JP2015011216A
JP2015011216A JP2013137031A JP2013137031A JP2015011216A JP 2015011216 A JP2015011216 A JP 2015011216A JP 2013137031 A JP2013137031 A JP 2013137031A JP 2013137031 A JP2013137031 A JP 2013137031A JP 2015011216 A JP2015011216 A JP 2015011216A
Authority
JP
Japan
Prior art keywords
imaging
unit
image
evaluation value
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013137031A
Other languages
Japanese (ja)
Other versions
JP6346417B2 (en
Inventor
忍 渡邉
Shinobu Watanabe
忍 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013137031A priority Critical patent/JP6346417B2/en
Priority to GB1322878.8A priority patent/GB2511405B/en
Priority to GB1519148.9A priority patent/GB2529575B/en
Priority to KR1020130163663A priority patent/KR101663947B1/en
Priority to BR102013033787A priority patent/BR102013033787A2/en
Priority to US14/141,732 priority patent/US9609223B2/en
Priority to DE102013227163.8A priority patent/DE102013227163B4/en
Priority to RU2013158771/07A priority patent/RU2566735C2/en
Priority to CN201310745423.1A priority patent/CN103916575B/en
Publication of JP2015011216A publication Critical patent/JP2015011216A/en
Priority to KR1020160126372A priority patent/KR101757655B1/en
Application granted granted Critical
Publication of JP6346417B2 publication Critical patent/JP6346417B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To optimize a detection time lag and detection accuracy in performing AF control according to a photographic scene.SOLUTION: An imaging device includes an image sensor 102 that can output image signals in a plurality of drive modes having different frame rates during one frame period, and selects the optimal image for detecting an imaging evaluation value according to the feature of a determined photographic scene.

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、画像データに応じて測光測距などに係る撮像用評価値を検出することのできる撮像装置に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to an imaging apparatus capable of detecting an imaging evaluation value related to photometric distance measurement according to image data.

従来、撮像装置においてフォーカス制御に用いる被写体の位置情報を得る際には、撮像素子から出力される画像信号に基づいて当該位置情報を得ている。また、被写体を示す光信号を専用の検出装置に直接入力して、当該光信号が示す画像における位相差に基づいて位置情報を得ることも行われている。なお、画像データに基づいて位置情報を得る場合には、専用の検出装置が不要となる点で、撮像装置を小型化することができる。   Conventionally, when obtaining position information of a subject used for focus control in an image pickup apparatus, the position information is obtained based on an image signal output from an image pickup device. In addition, an optical signal indicating a subject is directly input to a dedicated detection device, and position information is obtained based on a phase difference in an image indicated by the optical signal. In the case where position information is obtained based on image data, the imaging device can be downsized in that a dedicated detection device is not required.

図10は、従来の撮像装置においてライブビューの際のオートフォーカス撮像動作(AF評価撮像)のタイミングを説明するための図である。図に示されるように、従来の撮像装置においては、垂直同期信号(Vertical Driving Pulse:VD)によって撮像タイミングが規定されている。AF制御信号がオンとなると、ライブビュー撮像期間後のVDに従ってAF評価像用の画像の撮像が行われ、AF制御信号がオフとなると、再びライブビュー撮像期間となる。このように、ライブビュー用画像を得るライブビュー撮像期間とAF評価用画像を得るAF動作期間とは時間軸に沿ってシリアルに配置されているで、ライブビュー用画像とAF評価用画像を同時に撮像する構成にはなっていない。   FIG. 10 is a diagram for explaining the timing of autofocus imaging operation (AF evaluation imaging) during live view in a conventional imaging apparatus. As shown in the figure, in the conventional imaging apparatus, the imaging timing is defined by a vertical synchronizing signal (VD). When the AF control signal is turned on, an image for an AF evaluation image is captured according to VD after the live view imaging period, and when the AF control signal is turned off, the live view imaging period starts again. As described above, the live view imaging period for obtaining the live view image and the AF operation period for obtaining the AF evaluation image are serially arranged along the time axis, and the live view image and the AF evaluation image are simultaneously displayed. It is not configured to image.

このため、図示するようにライブビュー用画像の撮像期間(フレーム)の間に位置するAF動作期間でAF評価用画像を撮像しているので、ライブビュー用画像とAF評価用画像との間にタイムラグが存在する。   For this reason, as shown in the figure, since the AF evaluation image is captured during the AF operation period located between the live view image capturing periods (frames), the live view image and the AF evaluation image are between. There is a time lag.

加えて、AF評価用画像を撮像する際においてもライブビュー表示は行われるものの、この際には、AF評価用画像に基づいてライブビュー表示が行われる。そして、図10示すように、AF評価用画像を撮像する際には、ライブビュー撮像期間よりもフレームレートが高くされるため、撮像素子の読み出しにおける間引き率が高くなり、画質の低下が避けられない。   In addition, although live view display is performed even when an AF evaluation image is captured, live view display is performed based on the AF evaluation image. As shown in FIG. 10, when the AF evaluation image is captured, the frame rate is set higher than that of the live view imaging period. Therefore, the thinning-out rate in the reading of the image sensor increases, and the deterioration of the image quality is inevitable. .

この点を回避するため、例えば、撮像素子の画素部に焦点信号検出用画素を撮像信号用画素とは別に設けるようにした構成がある。この構成では、ライブビュー表示のための撮像用信号を読み出すライブビュー用読み出しモードとともに、焦点検出用信号および自動露光用測光情報に用いるための撮像用信号を撮像素子から読み出す焦点検出・自動露光(AE)用読み出しモードを備える。そして、これら読み出しモードをフレーム毎に循環的に繰り返して行うようにしている(特許文献1参照)。   In order to avoid this point, for example, there is a configuration in which focus signal detection pixels are provided separately from the image signal pixels in the pixel portion of the image sensor. In this configuration, the focus detection / automatic exposure (reading the imaging signal for use in the focus detection signal and the photometric information for automatic exposure from the imaging element together with the live view readout mode for reading the imaging signal for live view display ( AE) read mode. These read modes are repeated cyclically for each frame (see Patent Document 1).

特開2009−89105号公報JP 2009-89105 A

ところが、特許文献1においては、画素部に焦点信号検出用画素が設けられているため、必然的に撮像信号用画素のエリアが小さくなってしまい、焦点信号検出用画素は撮像信号(画像信号)を得る際には用いられないので、その分画質が低下してしまう。また、焦点信号検出用画素は、撮像信号用画素に比べて、感度が下がってしまうため、撮影シーンによっては、焦点信号の検出精度が低下する。   However, in Patent Document 1, since the focus signal detection pixel is provided in the pixel portion, the area of the image signal pixel is inevitably reduced, and the focus signal detection pixel is an image signal (image signal). Since it is not used when obtaining the image quality, the image quality is lowered accordingly. In addition, since the focus signal detection pixel has a lower sensitivity than the imaging signal pixel, the detection accuracy of the focus signal is lowered depending on the shooting scene.

そこで、本発明の目的は、シーン判別によって、焦点検出精度と焦点検出速度の最適化を行うことが可能な撮像素子、その制御方法、および制御プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging device capable of optimizing focus detection accuracy and focus detection speed by scene discrimination, a control method therefor, and a control program.

上記本発明の目的を達成するため、本発明によれば、被写体の光学像を形成する撮影光学系を有し、光学像を撮像して画像信号を生成する撮像装置は、光学像を光電変換して画像信号を生成する画素をマトリックス状に配列した画素部を有する第1の素子部と、画素部から画像信号を読み出す読み出し手段が配設された第2の画素部とを備え、読み出し手段が、画素部の第1の画素群から画像信号を読み出す第1の読み出し手段と、画素部の第2画素群から画像信号を読み出す第2の読み出し手段を有する撮像素子と、撮像素子が出力する画像信号から、光学像の撮像条件に関する情報を取得して判定する撮像条件判定手段と、判定の結果に従って、第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、光学像の撮像に関する撮像評価値を検出する撮像評価値検出手段とを備える。   In order to achieve the above-described object of the present invention, according to the present invention, an imaging apparatus having a photographing optical system for forming an optical image of a subject and capturing an optical image to generate an image signal is a photoelectric conversion of the optical image. A first element portion having a pixel portion in which pixels for generating an image signal are arranged in a matrix, and a second pixel portion provided with a reading means for reading the image signal from the pixel portion, However, the imaging device has a first reading unit that reads an image signal from the first pixel group of the pixel unit, a second reading unit that reads an image signal from the second pixel group of the pixel unit, and the imaging device outputs An imaging condition determination unit that acquires and determines information about an imaging condition of an optical image from an image signal, and an image signal that is read by the first reading unit and the second reading unit according to the determination result And a imaging evaluation value detecting means for detecting the imaging evaluation value related to the imaging of.

本発明の撮像装置によれば、シーン判別によって、焦点検出精度と焦点検出速度の最適化を行うことが可能な撮像素子、その制御方法、および制御プログラムを提供する。   According to the imaging apparatus of the present invention, an imaging device capable of optimizing focus detection accuracy and focus detection speed by scene discrimination, a control method thereof, and a control program are provided.

本発明の第1の実施例に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施例に係る撮像装置が有する撮像素子の構成を示す図である。It is a figure which shows the structure of the image pick-up element which the imaging device which concerns on 1st Example of this invention has. 本発明の第1の実施例に係る撮像装置が使用する撮像素子の画素部の読み出し構成を説明するための図である。It is a figure for demonstrating the read-out structure of the pixel part of the image pick-up element which the imaging device which concerns on 1st Example of this invention uses. 本発明の第1の実施例に係る撮像装置の撮像タイミングを示す図である。It is a figure which shows the imaging timing of the imaging device which concerns on 1st Example of this invention. 本発明の第1の実施例に係る撮像装置のAFモードでの動作のフローチャートを示す図である。It is a figure which shows the flowchart of operation | movement in AF mode of the imaging device which concerns on 1st Example of this invention. 本発明の第2の実施例に係る撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which concerns on 2nd Example of this invention. 本発明の第2の実施例に係る撮像装置のAFモードでの動作のフローチャートを示す図である。It is a figure which shows the flowchart of operation | movement in AF mode of the imaging device which concerns on 2nd Example of this invention. 本発明の第2の実施例に係る撮像装置におけるシーン判定の判定表を示す図である。It is a figure which shows the determination table of the scene determination in the imaging device which concerns on 2nd Example of this invention. 本発明の第3の実施例に係る撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which concerns on the 3rd Example of this invention. 従来の撮像装置におけるライブビューモードでのオートフォーカス撮像動作のタイミングを示す図である。It is a figure which shows the timing of the autofocus imaging operation in the live view mode in the conventional imaging device.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
図1は、本発明の第1の実施例に係る撮像装置の構成例を示すブロック図である。図示されている撮像装置は、例えば、動画機能付き電子スチルカメラ又はビデオカメラに適用される。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the first embodiment of the present invention. The illustrated imaging apparatus is applied to, for example, an electronic still camera with a moving image function or a video camera.

同図において、撮像装置100は、レンズ101、イメージセンサ102、画像信号処理部103、圧縮伸長部104、レンズ駆動制御部105、撮像信号評価値検出部106、シーン判別部107、システム制御部108を備える。また、撮像装置100はさらに、発光部109、操作部110、記憶部111、表示部112を備える。   In the figure, an imaging apparatus 100 includes a lens 101, an image sensor 102, an image signal processing unit 103, a compression / decompression unit 104, a lens drive control unit 105, an imaging signal evaluation value detection unit 106, a scene determination unit 107, and a system control unit 108. Is provided. In addition, the imaging apparatus 100 further includes a light emitting unit 109, an operation unit 110, a storage unit 111, and a display unit 112.

レンズ101は、撮影光学系を構成するレンズ群である。レンズ101内には、フォーカスレンズが含まれている。フォーカスレンズは、ピント調整用レンズである。フォーカスレンズは光軸方向に沿って位置を変更可能に構成されている。レンズ駆動制御部105、撮像評価値検出部106によって検出された値に基づいてフォーカスレンズを駆動制御し、焦点調節処理を実行する焦点調節手段としての機能を有する。レンズ101を通ってきた光は、CMOSイメージセンサ等で構成されたイメージセンサ102の結像面上に被写体の光学像として結像され、後述する画素201で画素信号に光電変換される。   The lens 101 is a lens group that constitutes a photographing optical system. The lens 101 includes a focus lens. The focus lens is a focus adjustment lens. The focus lens is configured to be able to change its position along the optical axis direction. Based on the values detected by the lens drive control unit 105 and the imaging evaluation value detection unit 106, the focus lens is driven and controlled, and functions as a focus adjustment unit that executes a focus adjustment process. The light that has passed through the lens 101 is formed as an optical image of a subject on an image forming surface of an image sensor 102 formed of a CMOS image sensor or the like, and is photoelectrically converted into a pixel signal by a pixel 201 described later.

イメージセンサ102は、画素201およびA/Dコンバータを有し、例えば、いわゆるXY読み出し方式のCMOS型イメージセンサである。イメージセンサ102は、システム制御部108による制御の下で、露光、信号読み出し、およびリセットなどの撮像動作を行って、撮像信号(画像信号ともいう)を出力する。   The image sensor 102 includes a pixel 201 and an A / D converter, and is, for example, a so-called XY readout type CMOS image sensor. The image sensor 102 performs an imaging operation such as exposure, signal readout, and reset under the control of the system control unit 108, and outputs an imaging signal (also referred to as an image signal).

撮像評価値検出部106は、イメージセンサ102から出力された画像信号から撮像評価値を検出する。その際、システム制御107から出力されるタイミングにおいて、撮像評価値の検出を行う。なお、詳細な動作については後述する。   The imaging evaluation value detection unit 106 detects an imaging evaluation value from the image signal output from the image sensor 102. At that time, the imaging evaluation value is detected at the timing output from the system control 107. Detailed operation will be described later.

ここで、撮像評価値とは、撮像装置の制御や、撮影された画像に対する補正等を行う際に必要なパラメータである。例えば、AF評価値や、WB(ホワイトバランス)評価値、AE(Automatic Exposure)評価値など、撮像装置の基本動作に必要な評価値である。AF評価値は、撮像時に被写体にピントを合わせるための評価値であり、主にフォーカスレンズを制御する際に必要である。WB評価値は、撮像時に色を補正するために必要な評価値であり、現像の際に必要なパラメータである。AE評価値は、撮影時に露出を適正に合わせるために必要な評価値であり、主に、絞りや、シャッタースピード、感度を設定する際に必要である。   Here, the imaging evaluation value is a parameter necessary for controlling the imaging apparatus, correcting the captured image, and the like. For example, it is an evaluation value necessary for the basic operation of the imaging apparatus, such as an AF evaluation value, a WB (white balance) evaluation value, an AE (Automatic Exposure) evaluation value. The AF evaluation value is an evaluation value for focusing on the subject at the time of imaging, and is mainly necessary when controlling the focus lens. The WB evaluation value is an evaluation value necessary for correcting a color at the time of imaging, and is a parameter necessary for development. The AE evaluation value is an evaluation value necessary for appropriately adjusting the exposure at the time of shooting, and is mainly required when setting the aperture, shutter speed, and sensitivity.

システム制御部108は、撮像評価値として得られるパラメータの1つであるAF評価値に基づいてレンズ101の制御量を決定し、この制御量をレンズ駆動制御部105に出力する。レンズ駆動制御部105は、システム制御108から得られた、AF評価値の制御量に基づいてレンズ101を光軸方向に駆動することで、被写体のピント調節を行う。   The system control unit 108 determines the control amount of the lens 101 based on the AF evaluation value that is one of the parameters obtained as the imaging evaluation value, and outputs this control amount to the lens drive control unit 105. The lens drive control unit 105 adjusts the subject focus by driving the lens 101 in the optical axis direction based on the control amount of the AF evaluation value obtained from the system control 108.

画像信号処理部103は、システム制御部108による制御の下で、イメージセンサ102の出力である画像信号に対して信号処理を行って画像データを生成する。具体的には、撮像評価値検出部で検出された撮像評価値に基づいて、ホワイトバランス調整処理、色補正処理、およびAE処理などの信号処理を施して画像データを生成する。   The image signal processing unit 103 performs image processing on the image signal that is the output of the image sensor 102 under the control of the system control unit 108 to generate image data. Specifically, image data is generated by performing signal processing such as white balance adjustment processing, color correction processing, and AE processing based on the imaging evaluation value detected by the imaging evaluation value detection unit.

圧縮伸長部104は、システム制御部108による制御の下で動作し、画像信号処理部103の出力である画像データに対して、所定の静止画像データフォーマットによって圧縮符号化処理を行う。例えば、所定の静止画像データフォーマットは、JPEG(Joint Photographic Coding Experts Group)方式などである。また、圧縮伸長部104はシステム制御部108から送られた符号化画像データに対して伸長復号化の処理を行う。なお、圧縮伸長部104は、MPEG(Moving Picture Experts Group)方式などによって動画像データに対して圧縮符号化/伸長復号化処理を行うようにしてもよい。   The compression / decompression unit 104 operates under the control of the system control unit 108 and performs compression encoding processing on the image data output from the image signal processing unit 103 in a predetermined still image data format. For example, the predetermined still image data format is a JPEG (Joint Photographic Coding Experts Group) system or the like. The compression / decompression unit 104 performs decompression / decoding processing on the encoded image data transmitted from the system control unit 108. Note that the compression / decompression unit 104 may perform compression encoding / decompression decoding processing on moving image data using an MPEG (Moving Picture Experts Group) method or the like.

シーン判別部107では、システム制御部から得られる撮影条件から撮影シーンを判別し、判別した撮影シーンに従って、撮影時の撮影パラメータや画像処理パラメータなどを変更するための情報をシステム制御部108へ送る。ここで、撮像評価値検出部106は、シーン判別の情報に基づいて、後述する、撮像評価値検出用画像信号および表示画像信号のどちらから撮像評価値を検出するかを決定する。   The scene determination unit 107 determines a shooting scene from shooting conditions obtained from the system control unit, and sends information for changing shooting parameters, image processing parameters, and the like at the time of shooting to the system control unit 108 according to the determined shooting scene. . Here, the imaging evaluation value detection unit 106 determines whether to detect the imaging evaluation value from an imaging evaluation value detection image signal or a display image signal, which will be described later, based on the scene determination information.

システム制御部108は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを備えるマイクロコントローラである。システム制御部108のCPUは、ROMに記憶されたプログラムを実行することによって、撮像装置100全体を統括的に制御する。   The system control unit 108 is a microcontroller including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU of the system control unit 108 performs overall control of the entire imaging apparatus 100 by executing a program stored in the ROM.

発光部109は、画像信号処理部103によるAE処理によって被写体の露光値が低いと判定されると、被写体に対して光を照射して照明を行う。発光部109としては、例えば、キセノン管を用いたストロボ装置又はLED発光装置が用いられる。操作部110は、例えば、シャッタレリーズボタンなどの各種操作キー、レバー、およびダイヤルを有し、ユーザーの入力操作に従った操作信号をシステム制御部108に与える。   When the light emitting unit 109 determines that the exposure value of the subject is low by the AE processing by the image signal processing unit 103, the light emitting unit 109 illuminates the subject with light. As the light emitting unit 109, for example, a strobe device using a xenon tube or an LED light emitting device is used. The operation unit 110 includes, for example, various operation keys such as a shutter release button, a lever, and a dial, and provides an operation signal according to a user input operation to the system control unit 108.

記録部111は、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、又は磁気テープなどの記録媒体であり、圧縮伸長部104により圧縮符号化された画像データを画像ファイルとして記憶する。また、記録部111は、システム制御部108によって指定された画像ファイルを読み出してシステム制御部108に出力する。   The recording unit 111 is, for example, a recording medium such as a portable semiconductor memory, an optical disk, an HDD (Hard Disk Drive), or a magnetic tape, and stores the image data compressed and encoded by the compression / decompression unit 104 as an image file. . Further, the recording unit 111 reads out the image file designated by the system control unit 108 and outputs it to the system control unit 108.

画像表示部112は、例えば、LCD(Liquid Crystal Display)などの表示デバイスおよびLCDに対するインタフェース回路を備え、システム制御部108から送られた画像データで表わされる画像を表示デバイスに表示する。   The image display unit 112 includes, for example, a display device such as an LCD (Liquid Crystal Display) and an interface circuit for the LCD, and displays an image represented by image data sent from the system control unit 108 on the display device.

図2は、図1に示すイメージセンサ102の構成を説明するための図である。図2(a)はイメージセンサの斜視図であり、図2(b)はその構成を示すブロック図である。   FIG. 2 is a diagram for explaining the configuration of the image sensor 102 shown in FIG. FIG. 2A is a perspective view of the image sensor, and FIG. 2B is a block diagram showing the configuration thereof.

図2(a)において、イメージセンサ102は第1チップ(第1の素子部)20び第2のチップ21(第2の素子部)を有し、第2のチップ21上に第1のチップ20が積層されている。第1のチップ20はマトリックス状に配列された複数の画素201を有し、第1のチップ20は画素配列を光入射側に向けて積層されている(つまり、光学像の受光する側に位置している)。第2のチップ21には、後述する列走査回路213−a及び213−bと行走査回路212などの画素駆動回路が形成されている。   In FIG. 2A, the image sensor 102 has a first chip (first element portion) 20 and a second chip 21 (second element portion), and the first chip is formed on the second chip 21. 20 are stacked. The first chip 20 includes a plurality of pixels 201 arranged in a matrix, and the first chip 20 is stacked with the pixel array facing the light incident side (that is, the optical chip is positioned on the light receiving side). doing). In the second chip 21, pixel drive circuits such as column scanning circuits 213-a and 213-b and a row scanning circuit 212 described later are formed.

このように、第1のチップ20に画素201を形成し、第2のチップ21に画素駆動回路を形成すれば、イメージセンサ102の周辺回路および画素部の製造プロセスを分けることができる。これにより、周辺回路における配線の細線化、高密度化による高速化、小型化、および高機能化を図ることができる。   In this manner, if the pixel 201 is formed on the first chip 20 and the pixel driving circuit is formed on the second chip 21, the manufacturing process of the peripheral circuit and the pixel portion of the image sensor 102 can be divided. As a result, it is possible to increase the speed, miniaturization, and functionality of the peripheral circuit by thinning the wiring and increasing the density.

図2(b)に示すように、第1のチップ20において、画素201はマトリクス状に配列されており、各画素201は水平方向(行方向)において転送信号線203、リセット信号線204、および行選択信号線205に接続されている。また、垂直方向(列方向)において列信号線202−aおよび202−bに接続されている。なお、列信号線202−aおよび202−bの各々は、行単位で、画素を異なる読み出し先に接続する。   As shown in FIG. 2B, in the first chip 20, the pixels 201 are arranged in a matrix, and each pixel 201 has a transfer signal line 203, a reset signal line 204, and a horizontal direction (row direction). It is connected to the row selection signal line 205. Further, it is connected to the column signal lines 202-a and 202-b in the vertical direction (column direction). Note that each of the column signal lines 202-a and 202-b connects pixels to different readout destinations in units of rows.

また、画素201の各々は、図示するように、光電変換素子であるフォトダイオードPD、転送トランジスタM1、リセットトランジスタM2、増幅トランジスタM3、選択トランジスタM、4、フローティングディフュージョンFDを有している。なお、図示の例では、トランジスタの各々はnチャネルMOSFET(MOS Field−Effect Transistor)である。   Each of the pixels 201 includes a photodiode PD, which is a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, selection transistors M4, and a floating diffusion FD, as illustrated. In the illustrated example, each of the transistors is an n-channel MOSFET (MOS Field-Effect Transistor).

転送トランジスタM1、リセットトランジスタM2、および選択トランジスタM4のゲートには、それぞれ転送信号線203、リセット信号線204、および行選択信号線205が接続されている。これら信号線203〜205は水平方向に延在し、同一行の画素を同時に駆動する。これによってライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を制御することができる。さらに、選択トランジスタM4のソースには列信号線202−a又は202−bが行単位で接続されている。   A transfer signal line 203, a reset signal line 204, and a row selection signal line 205 are connected to the gates of the transfer transistor M1, the reset transistor M2, and the selection transistor M4, respectively. These signal lines 203 to 205 extend in the horizontal direction and simultaneously drive pixels in the same row. As a result, the operation of the line-sequential operation type rolling shutter or the all-row simultaneous operation type global shutter can be controlled. Further, the column signal line 202-a or 202-b is connected to the source of the selection transistor M4 in units of rows.

フォトダイオードPDは、光電変換によって生成された電荷を蓄積する。フォトダイオードPDのP側は、接地され、N側は、転送トランジスタM1のソースに接続されている。転送トランジスタM1がオンすると、フォトダイオードPDの電荷がFDに転送され、FDには寄生容量が存在するので、FDに転送された電荷が蓄積される。   The photodiode PD accumulates electric charges generated by photoelectric conversion. The P side of the photodiode PD is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD, and since there is a parasitic capacitance in the FD, the charge transferred to the FD is accumulated.

増幅トランジスタM3のドレインには電源電圧Vddが印加され、そのゲートはFDに接続されている。増幅トランジスタM3は、FDの電荷(つまり、電圧)を増幅して電圧信号に変換する。選択トランジスタM4は、行選択信号線205によって、信号を読み出す画素を行単位で選択するためのものであり、そのドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは列信号線202に接続されている。   A power supply voltage Vdd is applied to the drain of the amplification transistor M3, and its gate is connected to the FD. The amplification transistor M3 amplifies the charge (that is, voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting a pixel from which a signal is read out by the row selection signal line 205 in units of rows, and the drain thereof is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 202.

行信号選択線205によって選択トランジスタM4がオンすると、FDの電圧に対応する電圧信号が列信号線202に出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、そのソースはFDに接続されている。リセット信号線204によるリセットトランジスタM2のオンによって、FDの電圧は電源電圧Vddにリセットされる。   When the selection transistor M4 is turned on by the row signal selection line 205, a voltage signal corresponding to the voltage of the FD is output to the column signal line 202. A power supply voltage Vdd is applied to the drain of the reset transistor M2, and its source is connected to the FD. When the reset transistor M2 is turned on by the reset signal line 204, the voltage of the FD is reset to the power supply voltage Vdd.

第2のチップ21には、カラムADCブロック211が配設されており、カラムADC211は列信号線202−a又は202−bに接続されている。さらに、第2のチップ21には、行走査回路212、列走査回路213−a、213−b、タイミング制御回路214、水平信号線(出力手段)215−a、215−bが設けられている。   The second chip 21 is provided with a column ADC block 211, and the column ADC 211 is connected to the column signal line 202-a or 202-b. Further, the second chip 21 is provided with a row scanning circuit 212, column scanning circuits 213-a and 213-b, a timing control circuit 214, and horizontal signal lines (output means) 215-a and 215-b. .

タイミング制御回路214はシステム制御部108の制御下で行走査回路212、列走査回路213−a及び213−b、およびカラムADCブロック211の動作タイミングを制御する。行走査回路212は各行の走査を行い、列走査回路213aおよび213bはそれぞれ各列の走査を行う。   The timing control circuit 214 controls the operation timing of the row scanning circuit 212, the column scanning circuits 213-a and 213-b, and the column ADC block 211 under the control of the system control unit 108. The row scanning circuit 212 scans each row, and the column scanning circuits 213a and 213b scan each column.

水平信号線215−a及び215−bは、それぞれ列走査回路213−aおよび213−bで制御されるタイミングに従ってカラムADCブロック211の出力信号(画像信号)を転送する。これによって、ライブビュー用の画像信号(第2の画像信号、つまり、画像表示信号)は列信号線202−aに出力され、撮像評価値検出用の画像信号(第1の画像信号)は列信号線202−bに出力される。   The horizontal signal lines 215-a and 215-b transfer the output signal (image signal) of the column ADC block 211 according to the timing controlled by the column scanning circuits 213-a and 213-b, respectively. Thereby, an image signal for live view (second image signal, that is, an image display signal) is output to the column signal line 202-a, and an image signal for detecting an imaging evaluation value (first image signal) is output to the column. The signal is output to the signal line 202-b.

図3において、行番号1および2は撮像評価値検出用画像の撮像のための行(第1の画素群)であり、行番号3〜8はライブビュー用画像の撮像のための行(第2の画素群)である。図示の例では、読み出し走査が行単位で順次行われて、8行単位で繰り返し読み出し走査が行われることになる。   In FIG. 3, row numbers 1 and 2 are rows (first pixel group) for capturing an image for evaluation evaluation value detection, and row numbers 3 to 8 are rows for capturing a live view image (first). 2 pixel group). In the illustrated example, readout scanning is sequentially performed in units of rows, and readout scanning is repeatedly performed in units of 8 rows.

撮像評価値検出用撮像では、フレームレート重視のため垂直同色4画素中3画素を間引き読み出しする。一方、ライブビュー用撮像では、画質重視のため垂直同色4画素中1画素を間引いて3画素を加算する。言い換えると、撮像評価値検出用撮像においては、第1の画素群を第1のフレームレートで読み出しを行う。そしてライブビュー用撮像では第2の画素群を第1のフレームレートよりも遅い第2のフレームレートで読み出しを行う。   In imaging evaluation value detection imaging, 3 pixels out of 4 pixels of the same vertical color are skipped and read out in order to emphasize the frame rate. On the other hand, in live view imaging, in order to emphasize image quality, 1 pixel is thinned out from 4 pixels of the same vertical color and 3 pixels are added. In other words, in imaging for imaging evaluation value detection, the first pixel group is read at the first frame rate. In live view imaging, the second pixel group is read out at a second frame rate that is slower than the first frame rate.

上述のように、選択行毎に撮像評価値検出用撮像とライブビュー用撮像とを分けることによって、異なる電荷蓄積時間でデータサイズの異なるフレームレートの画像信号を取得することが可能となる。   As described above, by dividing the imaging evaluation value detection imaging and the live view imaging for each selected row, it is possible to acquire image signals of different frame rates with different data sizes in different charge accumulation times.

列信号線202−a及び202−bに出力された電圧信号(アナログ信号)は、図2に示すカラムADCブロック211においてアナログ信号からデジタル信号(画像信号)に変換される。カラムADCブロック211の出力である画像信号は、列走査回路213−a又は213−bによってカラムADCブロック211から水平信号線215−a又は215−bに読み出され出力される(第1の読み出し手段、第2の読み出し手段)。   The voltage signals (analog signals) output to the column signal lines 202-a and 202-b are converted from analog signals to digital signals (image signals) in the column ADC block 211 shown in FIG. The image signal that is the output of the column ADC block 211 is read out from the column ADC block 211 to the horizontal signal line 215-a or 215-b by the column scanning circuit 213-a or 213-b and output (first reading). Means, second reading means).

次に、撮像評価値の例として、AF動作用の最適な撮像評価値(AF評価値)を検出する動作を、図4を用いて説明する。   Next, as an example of the imaging evaluation value, an operation for detecting an optimal imaging evaluation value (AF evaluation value) for the AF operation will be described with reference to FIG.

図4(a)は、後述するシーン判別の結果、撮像評価値検出用画像からAF評価値(オートフォーカス評価値)を検出する際のタイミングチャートを示す図である。図示のように、垂直同期信号によって撮像タイミングが規定されており、AF評価モードとなると、システム制御部108は時間T0の垂直同期信号の立下りでAF制御信号を立ち上げる(Hレベル)。続いて、垂直同期信号が立ち上がると、システム制御部108は垂直同期信号に同期して画像表示信号用と撮像評価値検出用の撮像動作を同時に開始して行っていく。   FIG. 4A is a timing chart when an AF evaluation value (autofocus evaluation value) is detected from an imaging evaluation value detection image as a result of scene determination described later. As shown in the figure, the imaging timing is defined by the vertical synchronization signal, and in the AF evaluation mode, the system control unit 108 raises the AF control signal at the falling edge of the vertical synchronization signal at time T0 (H level). Subsequently, when the vertical synchronization signal rises, the system control unit 108 simultaneously starts and performs imaging operations for image display signals and imaging evaluation value detection in synchronization with the vertical synchronization signal.

期間T0〜TF1で、水平信号線215−bを介して画素部20から読み出された撮像評価用画像信号は、撮像評価値検出部106に入力され、TF1〜TF2においてAF評価値が算出される。AF評価値は、イメージセンサ102から出力された、撮像評価値検出用画像信号から得られるコントラスト情報および位相差情報に基づいて、システム制御部108で制御されるタイミングで算出される。その後、期間TF2〜TF3において、撮像評価値検出部106はAF評価値をシステム制御部108に出力する。   The imaging evaluation image signal read out from the pixel unit 20 via the horizontal signal line 215-b in the period T0 to TF1 is input to the imaging evaluation value detection unit 106, and AF evaluation values are calculated in TF1 to TF2. The The AF evaluation value is calculated at a timing controlled by the system control unit 108 based on contrast information and phase difference information obtained from the imaging evaluation value detection image signal output from the image sensor 102. Thereafter, in the periods TF <b> 2 to TF <b> 3, the imaging evaluation value detection unit 106 outputs the AF evaluation value to the system control unit 108.

図示の例では、1垂直同期信号の期間中にライブビュー用画像の1フレームが撮像され、AF評価値検出用画像(AF走査)の3フレームが撮像される。そして、システム制御部108が垂直同期信号をLレベルとすると、ライブビュー用画像1フレーム期間内のAF評価が終了する。   In the illustrated example, one frame of the live view image is captured during the period of one vertical synchronization signal, and three frames of the AF evaluation value detection image (AF scanning) are captured. When the system control unit 108 sets the vertical synchronization signal to the L level, the AF evaluation within one frame period of the live view image ends.

システム制御部108はAF評価値と後述する所定のAF期待値とを比較する。AF評価値がAF期待値との所定の評価条件を満足すると、システム制御部108はAF制御信号を立ち下げる(時間T1)。AF制御信号が立ち下がると、AF評価用撮像のみが停止して、ライブビュー撮像が継続して行われることになる。   The system control unit 108 compares the AF evaluation value with a predetermined AF expected value described later. When the AF evaluation value satisfies a predetermined evaluation condition with the expected AF value, the system control unit 108 causes the AF control signal to fall (time T1). When the AF control signal falls, only the AF evaluation imaging is stopped and the live view imaging is continuously performed.

図4(b)は、後述するシーン判別の結果に従って、ライブビュー用画像からAF評価値を検出する際のタイミングチャートを示す図である。   FIG. 4B is a diagram illustrating a timing chart when an AF evaluation value is detected from a live view image in accordance with a result of scene determination described later.

図4(a)と同様に、垂直同期信号によって撮像タイミングが規定されており、AF評価モードが設定されていると、システム制御部108は時間T0の垂直同期信号の立下りでAF制御信号を立ち上げる(Hレベル)。続いて、垂直同期信号が立ち上がると、システム制御部108は垂直同期信号に同期して画像表示信号用のみ撮像動作を行っていく。   As in FIG. 4A, when the imaging timing is defined by the vertical synchronization signal and the AF evaluation mode is set, the system control unit 108 outputs the AF control signal at the falling edge of the vertical synchronization signal at time T0. Start up (H level). Subsequently, when the vertical synchronization signal rises, the system control unit 108 performs the imaging operation only for the image display signal in synchronization with the vertical synchronization signal.

期間T0〜TF4において、215−aを介して画素201から読み出されたライブビュー用画像信号は、撮像評価値検出部106と画像信号処理部103に入力され、期間TF4〜TF5においてAF評価値が算出される。撮像評価値検出部106は、イメージセンサ102から出力された、ライブビュー用画像の画像信号から得られるコントラスト情報および位相差情報に基づいて、システム制御部108で制御されるタイミングでAF評価値を算出する。その後、期間TF5〜TF6において、撮像評価値検出部106はAF評価値をシステム制御部108に出力する。   In the period T0 to TF4, the live view image signal read from the pixel 201 via 215-a is input to the imaging evaluation value detection unit 106 and the image signal processing unit 103, and in the periods TF4 to TF5, the AF evaluation value Is calculated. The imaging evaluation value detection unit 106 outputs the AF evaluation value at a timing controlled by the system control unit 108 based on contrast information and phase difference information obtained from the image signal of the live view image output from the image sensor 102. calculate. Thereafter, in the periods TF5 to TF6, the imaging evaluation value detection unit 106 outputs the AF evaluation value to the system control unit 108.

図示の例では、1垂直同期信号の期間中にライブビュー用画像の1フレームが撮像され、AF評価値検出用画像(AF走査)は撮像されない。システム制御部108が垂直同期信号をLレベルとすると、ライブビュー用画像1フレーム期間内のAF評価が終了する。   In the illustrated example, one frame of the live view image is captured during the period of one vertical synchronization signal, and the AF evaluation value detection image (AF scanning) is not captured. When the system control unit 108 sets the vertical synchronization signal to the L level, the AF evaluation within one frame period of the live view image ends.

システム制御部108はライブビュー用画像から検出されたAF評価値と後述する所定のAF期待値とを比較し、AF評価値がAF期待値との所定の評価条件を満足すると、AF制御信号を立ち下げる(時間T7)。AF制御信号が立ち下がると、表示画像からのAF評価用検出動作が停止して、ライブビュー撮像が継続して行われることになる。   The system control unit 108 compares the AF evaluation value detected from the live view image with a predetermined AF expected value described later, and if the AF evaluation value satisfies a predetermined evaluation condition with the AF expected value, an AF control signal is output. Fall down (time T7). When the AF control signal falls, the AF evaluation detection operation from the display image is stopped, and live view imaging is continuously performed.

図4(a)に示すように、本実施例では、撮像評価値検出用画像は、ライブビュー用画像の動作より速いフレームレートを設定可能なため、撮像装置への撮像評価値の反映を、従来よりも迅速に制御することが可能となる。   As shown in FIG. 4A, in the present embodiment, the imaging evaluation value detection image can set a frame rate faster than the operation of the live view image. It becomes possible to control more quickly than in the past.

しかしながら、撮像装置にはプログラム線図で決められた、露出制御によって暗時の追従限界が存在する。そのためフレームレートが速い撮像評価値検出用画像と、フレームレートの遅いライブビュー用画像では、露出制御による暗部の追従限界が異なってしまう。本実施例では、暗部の追従限界が3段分の差が発生してしまう。   However, the imaging apparatus has a dark tracking limit by exposure control determined by a program diagram. Therefore, the tracking limit of the dark part by exposure control differs between the imaging evaluation value detection image with a fast frame rate and the live view image with a slow frame rate. In the present embodiment, the difference in the tracking limit of the dark part is generated by three steps.

シーン判別部107は、ライブビュー用画像撮影時にシステム制御部108によって撮影(露出)条件として設定されている感度設定値や、シャッタースピードなどから算出される露光量から撮影シーンの特徴を判別する。撮像評価値検出部106は、シーン判別部107の判別結果に従って、撮像評価値検出用画像とライブビュー用画像のいずれかから撮像評価値を検出する。   The scene discriminating unit 107 discriminates the characteristics of the shooting scene from the sensitivity setting value set as the shooting (exposure) condition by the system control unit 108 at the time of shooting the live view image and the exposure amount calculated from the shutter speed. The imaging evaluation value detection unit 106 detects an imaging evaluation value from either the imaging evaluation value detection image or the live view image according to the determination result of the scene determination unit 107.

次に本実施形態1にかかわる撮像装置のAF評価モードでの動作を、図5のフローチャートを用いて詳細に説明する。   Next, the operation of the imaging apparatus according to the first embodiment in the AF evaluation mode will be described in detail with reference to the flowchart of FIG.

図示のフローチャートはシステム制御部108の制御下で行われる。説明のため、撮像評価値検出用画像で検出される撮像評価値をAF_Kα、ライブビュー用画像で検出される撮像評価値をAF_Kβとする。   The illustrated flowchart is performed under the control of the system control unit 108. For the sake of explanation, the imaging evaluation value detected in the imaging evaluation value detection image is AF_Kα, and the imaging evaluation value detected in the live view image is AF_Kβ.

ユーザーにより電源がONされ、各種初期設定を行った後(ステップS502)、ライブビューモードや動画記録などの動作モードに移行し、撮影が開始される(ステップS520)。   After the power is turned on by the user and various initial settings are made (step S502), the mode is shifted to an operation mode such as live view mode or moving image recording, and shooting is started (step S520).

システム制御部108はAF評価モードであるか否かを判定する(ステップS502)。つまり、システム制御部108はオートフォーカスモードが設定されているか否かを判定する。AF評価モードでないと(ステップS503において、No)、システム制御部108はライブビュー撮像のみを開始して(ステップS520)、後述のステップS521に進む。   The system control unit 108 determines whether or not the AF evaluation mode is set (step S502). That is, the system control unit 108 determines whether or not the autofocus mode is set. If it is not the AF evaluation mode (No in step S503), the system control unit 108 starts only live view imaging (step S520), and proceeds to step S521 described later.

一方、AF評価モードであると(ステップS503において、Yes)、システム制御部108はAF制御信号をオン(Hレベル)にする(ステップS504)。続いて、システム制御部108はAF評価用撮像の回数をカウントするための変数nに0を代入して初期化する(ステップS505)。次にステップS506では、システム制御部108によって、ライブビュー撮影を行う際の撮像条件の露光量Sを検出する。   On the other hand, in the AF evaluation mode (Yes in step S503), the system control unit 108 turns on the AF control signal (H level) (step S504). Subsequently, the system control unit 108 initializes by assigning 0 to a variable n for counting the number of AF evaluation imaging (step S505). In step S506, the system control unit 108 detects the exposure amount S of the imaging condition when performing live view shooting.

次に、シーン判別部107によって、ステップS506で検出された露光量Eと露光量期待値Evの比較を行う(撮像条件判定)。システム制御部108は、ライブビュー撮影の露光量が露光設定の期待値であるEvに対して次の式(1)、つまり、所定の感度条件を満たすか否かを判定する(ステップS507)
E<Ev ・・・(1)
ライブビューの露光量Evが、(1)式を満たす(Yes)場合、S508に進み、AF評価値検出用の撮像をスタートする。
Next, the scene determination unit 107 compares the exposure amount E detected in step S506 with the expected exposure amount Ev (imaging condition determination). The system control unit 108 determines whether or not the exposure amount of live view shooting satisfies the following equation (1), that is, a predetermined sensitivity condition with respect to Ev that is an expected value of exposure setting (step S507).
E <Ev (1)
If the exposure amount Ev of the live view satisfies the expression (1) (Yes), the process proceeds to S508, and imaging for AF evaluation value detection is started.

次に、図4(a)で説明したように、システム制御部108はAF評価用撮像を開始する。(ステップS508)AF評価用撮像を開始した後、システム制御部108は変数nを1だけインクリメントする(ステップS509)。その後、システム制御部108による制御の下で、撮像評価値検出部106はAF評価用撮像で得られたAF評価用画像信号からAF評価値AF_Kαを検出する(ステップS510)。   Next, as described in FIG. 4A, the system control unit 108 starts AF evaluation imaging. (Step S508) After starting the AF evaluation imaging, the system control unit 108 increments the variable n by 1 (step S509). Thereafter, under the control of the system control unit 108, the imaging evaluation value detection unit 106 detects the AF evaluation value AF_Kα from the AF evaluation image signal obtained by the AF evaluation imaging (step S510).

続いて、システム制御部108は、AF評価値AF_KαがAF期待値であるK_minαおよびK_maxαに対して次の式(2)、つまり所定の評価条件を満たすか否かを判定する(ステップS511)
K_minα<AF_Kα<K_maxα (2)
ここでAF評価値期待値K_minαおよびK_max αは期待されるAF評価値の最小値および最大値に設定されており、あらかじめ撮像装置の設計の際又は撮像装置の調整の際にシステム制御部108に記録される。
Subsequently, the system control unit 108 determines whether or not the AF evaluation value AF_Kα satisfies the following expression (2), that is, a predetermined evaluation condition with respect to K_minα and K_maxα, which are AF expected values (step S511).
K_minα <AF_Kα <K_maxα (2)
Here, the AF evaluation value expected values K_minα and K_max α are set to the minimum value and the maximum value of the expected AF evaluation value, and are previously set in the system control unit 108 when designing the imaging apparatus or adjusting the imaging apparatus. To be recorded.

AF評価値AF_Kαが式(2)を満たさないと(ステップS511において、No)、システム制御部108は上記のAF評価値AF_Kαに基づいてフィードバック制御量を求める。そして、システム制御部108は当該フィードバック制御量に従ってレンズ駆動制御部105を駆動制御してレンズ101に備えられたフォーカスレンズを駆動する(ステップS512)。   If the AF evaluation value AF_Kα does not satisfy Expression (2) (No in step S511), the system control unit 108 obtains a feedback control amount based on the AF evaluation value AF_Kα. Then, the system control unit 108 drives and controls the lens drive control unit 105 according to the feedback control amount to drive the focus lens provided in the lens 101 (step S512).

続いて、システム制御部108は変数(AF評価値撮像回数)nが所定の数(ここでは、3)であるか否かを番定する(ステップS513)。AF評価値撮像回数が3回未満であれば(ステップS511において、No)、システム制御部108はステップS510の処理に戻ってAF評価用撮像を行う。一方、AF評価値撮像回数が3回であれば(ステップS513において、Yes)、システム制御部108は、ステップS505の処理に戻ってAF評価値撮像回数nをゼロとする。   Subsequently, the system control unit 108 determines whether or not the variable (AF evaluation value imaging count) n is a predetermined number (here, 3) (step S513). If the number of AF evaluation value imaging is less than 3 (No in step S511), the system control unit 108 returns to the processing in step S510 and performs AF evaluation imaging. On the other hand, if the AF evaluation value imaging count is 3 (Yes in step S513), the system control unit 108 returns to the processing of step S505 and sets the AF evaluation value imaging count n to zero.

AF評価値AF_Kαが式(2)を満たすと(ステップS511において、Yes)、システム制御部108はAF制御信号をオフ(Lレベル)として(ステップS514)、撮像素子102におけるAF評価用撮像を停止する(ステップS515)。その後、システム制御部108は、動作をステップS522へ進める。   When the AF evaluation value AF_Kα satisfies Expression (2) (Yes in step S511), the system control unit 108 turns off the AF control signal (L level) (step S514), and stops the AF evaluation imaging in the image sensor 102. (Step S515). Thereafter, the system control unit 108 advances the operation to step S522.

ステップS507にてライブビュー用画像の露光量Eが、(1)式を満たさない(No)場合、S516に進み、ライブビュー用の撮像画像からAF評価値AF_Kβを検出する。続いて、システム制御部108は、AF評価値AF_KβがAF期待値であるK_minβおよびK_maxβに対して次の式(3)、つまり、所定の表価条件を満たすか否かを判定する(ステップS517)。
K_minβ<AF_K<K_maxβ (3)
ここでAF期待値K_minβおよびK_maxβは期待されるAF評価値の最小値および最大値として設定されており、予め撮像装置の設計の際又は撮像装置の調整の際にシステム制御部108に記録される。
If the exposure amount E of the live view image does not satisfy the expression (1) in step S507 (No), the process proceeds to S516, and the AF evaluation value AF_Kβ is detected from the live view captured image. Subsequently, the system control unit 108 determines whether or not the AF evaluation value AF_Kβ satisfies the following equation (3) with respect to K_minβ and K_maxβ, which are AF expected values, that is, a predetermined surface price condition is satisfied (step S517). ).
K_minβ <AF_K <K_maxβ (3)
Here, the expected AF values K_minβ and K_maxβ are set as minimum and maximum values of expected AF evaluation values, and are recorded in advance in the system control unit 108 at the time of designing the imaging device or adjusting the imaging device. .

AF評価値AF_Kβが式(3)を満たさない場合は(ステップS517に置いて、No)、システム制御部108は上記のAF評価値AF_Kβに応じてフィードバック制御量を求める。そして、システム制御部108は当該フィードバック制御量に応じてレンズ駆動制御部105を駆動制御してレンズ101に備えられたフォーカスレンズを駆動し(ステップS518)、ステップS522へ進む。   When the AF evaluation value AF_Kβ does not satisfy Expression (3) (No in step S517), the system control unit 108 obtains a feedback control amount according to the AF evaluation value AF_Kβ. Then, the system control unit 108 drives and controls the lens drive control unit 105 according to the feedback control amount to drive the focus lens provided in the lens 101 (step S518), and the process proceeds to step S522.

AF評価値AF_Kβが式(3)を満たす場合は(ステップS517において、Yes)、システム制御部108はAF制御信号をオフ(Lレベル)とし(ステップS519)、ステップS522へ進む。ステップS522では、ライブビュー動作の終了の指示があると(Yes)、ライブビュー動作が終了し、ひき続きライブビュー動画が行われる場合は(No)、ステップS503へ戻り、ライブビュー動作を行いながら、AF動作を行う。   When the AF evaluation value AF_Kβ satisfies Expression (3) (Yes in step S517), the system control unit 108 turns off the AF control signal (L level) (step S519), and proceeds to step S522. In step S522, if there is an instruction to end the live view operation (Yes), the live view operation ends, and if a live view video is continuously performed (No), the process returns to step S503, and the live view operation is performed. , AF operation is performed.

上述のように、本実施例は、ライブビュー用撮像と撮像評価値検出用撮像が1フレーム期間中に同時に可能な撮像素子を備えた撮像装置を前提としている。そして、ライブビュー撮像時の露出条件に基づいたシーン判別の結果に従って、AF評価値を検出する画像を、AF評価値用画像およびライブビュー画像から選択する。これによって、明るい被写体撮影時ではAF評価を行う際のタイムラグを短縮することができ、暗部に対してはAF評価値の精度を向上することが可能となる。また、本実施例では、AF評価値と比較するAF期待値を、AF評価値用画像およびライブビュー画像それぞれについて異なる期待値としたが、同じ期待値としてもよい。   As described above, the present embodiment is premised on an imaging apparatus including an imaging element capable of performing live view imaging and imaging evaluation value detection imaging simultaneously during one frame period. Then, an image for detecting the AF evaluation value is selected from the AF evaluation value image and the live view image according to the result of the scene discrimination based on the exposure condition at the time of live view imaging. As a result, the time lag at the time of AF evaluation can be shortened when shooting a bright subject, and the accuracy of the AF evaluation value can be improved for dark portions. In this embodiment, the expected AF value to be compared with the AF evaluation value is set to a different expected value for each of the AF evaluation value image and the live view image. However, the same expected value may be used.

また、本実施例では、撮像評価値の例として、AF評価値を用いて説明したが、その他の撮像評価値、例えば、WB評価値(ホワイトバランスデータ)や、AE評価値(露出制御データ)についても同様な構成で最適な評価値を検出することが可能である。WB評価値やAE評価値においても、ステップS507のシーン判別の結果に従って、撮像評価値検出用画像およびライビュー用画像のいずれかから評価値を検出するかを切り替える。これにより、WBやAE評価値検出のタイムラグと精度の最適化を行うことが可能となる。   In this embodiment, the AF evaluation value is used as an example of the imaging evaluation value. However, other imaging evaluation values such as a WB evaluation value (white balance data) and an AE evaluation value (exposure control data) are used. It is possible to detect an optimum evaluation value with a similar configuration. Also in the WB evaluation value and the AE evaluation value, whether the evaluation value is detected from either the imaging evaluation value detection image or the live image is switched according to the result of the scene discrimination in step S507. This makes it possible to optimize the time lag and accuracy of WB and AE evaluation value detection.

<第2の実施形態>
本発明の第1の実施例では、露出量の情報のみで撮影シーンを判別し、その結果に従って、AF評価値AF評価値画像またはライブビュー画像のいずれかから検出する構成を説明した。本実施例では、露出量の情報のみではなく、顔情報や、輝度情報、色情報などに基づいて撮影シーンを判別することでさらに精度よく撮像評価値を検出する構成をする。以下、本発明の第2の実施例に係る撮像装置について、図6乃至8を参照して説明する。なお、図において第1の実施例と同様の部分は、同じ符号を付して示し、その説明を省略する。
<Second Embodiment>
In the first embodiment of the present invention, a configuration has been described in which a shooting scene is determined based only on exposure amount information, and detection is performed from either an AF evaluation value AF evaluation value image or a live view image according to the result. In this embodiment, the imaging evaluation value is detected with higher accuracy by discriminating the shooting scene based on not only the exposure amount information but also face information, luminance information, color information, and the like. Hereinafter, an image pickup apparatus according to a second embodiment of the present invention will be described with reference to FIGS. In the figure, the same parts as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図6は、本実施例に係る撮像装置のブロック図である。第1の実施例と異なるのは、顔情報検出部601、輝度情報検出部602、色情報検出部603を備えることであり、その他の構成は同様である。   FIG. 6 is a block diagram of the imaging apparatus according to the present embodiment. The difference from the first embodiment is that a face information detection unit 601, a luminance information detection unit 602, and a color information detection unit 603 are provided, and the other configurations are the same.

顔情報検出部601は、イメージセンサ102から出力された画像信号に対して顔検出処理を行い、フレーム画像に映り込んだ人物や動物(ペットなど)の顔を検出し、検出した顔の領域を顔情報としてシーン判別部107に出力する。   The face information detection unit 601 performs face detection processing on the image signal output from the image sensor 102, detects the face of a person or animal (such as a pet) reflected in the frame image, and detects the detected face area. The face information is output to the scene determination unit 107.

輝度情報検出部602は、画像信号処部103か出力された画像データ画像に対して輝度検出処理を行い、画像フレーム画像を複数の領域に分割し、各領域における平均輝度を求める。輝度情報検出部602は、これらの平均輝度を用いて、例えば、フレーム画像の中心部とその周辺部との輝度差や中心輝度値などの輝度情報を求める。輝度情報検出部602で検出された輝度情報は、シーン判別部107に出力される。   The luminance information detection unit 602 performs luminance detection processing on the image data image output from the image signal processing unit 103, divides the image frame image into a plurality of regions, and obtains an average luminance in each region. The luminance information detecting unit 602 obtains luminance information such as a luminance difference between the central portion of the frame image and its peripheral portion, a central luminance value, and the like using these average luminances. The luminance information detected by the luminance information detection unit 602 is output to the scene determination unit 107.

色情報検出部603は、画像信号処理103から出力された画像データ画像に対して色検出処理を行い、平均彩度、高彩度領域の面積などの色情報を検出する。色情報検出部603で検出された色情報は、シーン判別部107に出力される。   The color information detection unit 603 performs color detection processing on the image data image output from the image signal processing 103, and detects color information such as the average saturation and the area of the high saturation area. The color information detected by the color information detection unit 603 is output to the scene determination unit 107.

シーン判別部107は、顔情報検出部601、輝度情報検出部602、及び色情報検出部603から入力された各情報に基づいて、信号処理部103で処理された画像データ画像から撮影シーンの背景や撮影シーンの被写体を判別する。なお、顔情報検出部601、輝度情報検出部602、及び色情報検出部603から送られてきた各情報は、シーン判別部107により一時的に保存され、随時更新される。   The scene discriminating unit 107 detects the background of the photographic scene from the image data image processed by the signal processing unit 103 based on the information input from the face information detecting unit 601, the luminance information detecting unit 602, and the color information detecting unit 603. And the subject of the shooting scene. Each information sent from the face information detection unit 601, the luminance information detection unit 602, and the color information detection unit 603 is temporarily stored by the scene determination unit 107 and updated as needed.

次に、本実施例に係る撮像装置における撮影シーンの判別動作について説明する。
シーン判別部107は、イメージセンサ102から出力されるライブビューの画像信号に対し、輝度検出部602にて検出された輝度情報と色検出部603にて検出された色情報を用いて、撮影シーンの背景を判別する。さらに、顔検出部601にて検出された顔情報を用いて、撮影シーンにおける被写体を判別する。
Next, a shooting scene discrimination operation in the imaging apparatus according to the present embodiment will be described.
The scene discriminating unit 107 uses the luminance information detected by the luminance detecting unit 602 and the color information detected by the color detecting unit 603 for the live view image signal output from the image sensor 102 to capture a shooting scene. Determine the background. Furthermore, using the face information detected by the face detection unit 601, a subject in the shooting scene is determined.

まず、撮影シーンの背景を判別する場合について説明する。
シーン判別部107は、輝度検出部602にて検出された輝度情報と色検出部603にて検出された色情報を解析し、画像上の青空色の領域の面積が閾値以上かどうかを判定する。シーン判別部107は、青空色の領域の面積が閾値以上ならば、撮影シーンの背景は青空であると判定する。また、シーン判別部107は、輝度検出部602からの輝度情報と色検出部603からの色情報を解析する。その結果、シーン判別部107は、画像上の輝度が所定のヒストグラム分布や分散の条件を満たすと判定した場合に、撮影シーンの背景は夜景であると判定する。例えば、夜景等の暗部の場合の画像上の輝度は、低輝度部が大部分を占め、且つ高輝度部が単発的に発生している状態である。また、シーン判別部107は、輝度検出部602からの輝度情報と色検出部603からの色情報を解析し、画像上の平均彩度、高彩度の領域の面積が共に閾値以上かどうかを判定し、閾値以上であれば、撮影シーンが鮮やかなシーンであると判定する。
First, the case of determining the background of the shooting scene will be described.
The scene determination unit 107 analyzes the luminance information detected by the luminance detection unit 602 and the color information detected by the color detection unit 603, and determines whether the area of the blue sky color region on the image is equal to or greater than a threshold value. . If the area of the blue sky area is equal to or greater than the threshold, the scene determination unit 107 determines that the background of the shooting scene is blue. In addition, the scene determination unit 107 analyzes the luminance information from the luminance detection unit 602 and the color information from the color detection unit 603. As a result, when the scene determination unit 107 determines that the luminance on the image satisfies a predetermined histogram distribution or dispersion condition, the scene determination unit 107 determines that the background of the shooting scene is a night scene. For example, in the case of a dark part such as a night view, the luminance on the image is a state in which the low luminance part occupies most and the high luminance part occurs only once. Further, the scene determination unit 107 analyzes the luminance information from the luminance detection unit 602 and the color information from the color detection unit 603, and determines whether both the average saturation area and the high saturation area on the image are equal to or greater than a threshold value. If it is equal to or greater than the threshold, it is determined that the shooting scene is a vivid scene.

次に、撮影シーンにおける被写体を判別する動作について説明する。
シーン判別部107は、顔検出部601からの顔情報を解析し、画像信号から顔が検出されていた場合には、撮影シーンにおける被写体が人物であると判定する。
シーン判別部107は、上述したようにシーンの背景と被写体の両方を判定し、これらの判定結果を組み合わせて、1つの判定結果をシステム制御部107に出力する。
Next, an operation for determining a subject in a shooting scene will be described.
The scene determination unit 107 analyzes the face information from the face detection unit 601, and determines that the subject in the shooting scene is a person when a face is detected from the image signal.
As described above, the scene determination unit 107 determines both the background of the scene and the subject, combines these determination results, and outputs one determination result to the system control unit 107.

次に、本実施例に係る撮像装置のAF評価モードでの動作を、図9のフローチャートを用いて詳細を説明する。なお、本実施例の詳細な動作を説明するために、ライビュー画像から検出される顔情報検出値をXl、輝度情報検出値をYl、色情報検出値をZlとし、第1の実施例と異なる動作についてのみ説明する。   Next, the operation of the imaging apparatus according to the present embodiment in the AF evaluation mode will be described in detail with reference to the flowchart of FIG. In order to explain the detailed operation of the present embodiment, the face information detection value detected from the live image is Xl, the luminance information detection value is Yl, and the color information detection value is Zl, which is different from the first embodiment. Only the operation will be described.

シーン判別部107は、検出された各情報の検出値とそれぞれの期待値、顔情報X、輝度情報Y、色情報Zを比較し、図8に示すように、AF評価値AF_Kα又はAF_Kβを選択する。この結果に従って、ステップS702での分岐を決定する。   The scene discriminating unit 107 compares the detected value of each detected information with each expected value, face information X, luminance information Y, and color information Z, and selects an AF evaluation value AF_Kα or AF_Kβ as shown in FIG. To do. According to this result, the branch in step S702 is determined.

ステップS701では、取得されたライブビュー用画像に対して顔検出部601、輝度検出部602、色検出部603によって、顔情報Xl、輝度情報Yl、色情報Zlの検出を行う。S702では、シーン判別部107によってS701で撮像評価値検出用画像およびライブビュー用画像から検出された各情報値から、図8の表に示すようにて次の撮影に反映するための撮像評価値を決定する。   In step S701, the face information Xl, the luminance information Yl, and the color information Zl are detected by the face detection unit 601, the luminance detection unit 602, and the color detection unit 603 with respect to the acquired live view image. In S702, the imaging evaluation value to be reflected in the next shooting as shown in the table of FIG. 8 from each information value detected from the imaging evaluation value detection image and the live view image in S701 by the scene determination unit 107. To decide.

例えば、一つの例として各情報値の関係が下記に示すような場合は、
顔情報値:Xl>X
輝度情報値:Yl>Y
色情報値:Zl>Z
ステップS702にて、AF評価値検出用撮像をスタートし(つまり、Yesで分岐)、ステップS508へ進み、システム制御部108は変数nを1インクリメントする(ステップS509)。その後は第1の実施例と同様である。
For example, if the relationship between each information value is as shown below,
Face information value: Xl> X
Luminance information value: Yl> Y
Color information value: Zl> Z
In step S702, imaging for AF evaluation value detection is started (that is, branching is Yes), the process proceeds to step S508, and the system control unit 108 increments the variable n by 1 (step S509). The subsequent steps are the same as in the first embodiment.

また、他の例として各情報値の関係が下記に示すような場合は、
顔情報値:Xl≦Xl
輝度情報値:Yl≦Y
色情報値:Zl≦Z
ステップS702にて、AF評価値検出用撮像スタートせず(つまり、Noで分岐)、S516へ進みライブビュー用撮像画像からAF評価値AF_Kβを検出する。その後は第1の実施例と同様である。その他のシーン判別の場合分けは、図8に示すような関係に従う。
As another example, if the relationship between information values is as shown below,
Face information value: Xl ≦ Xl
Luminance information value: Yl ≦ Y
Color information value: Zl ≦ Z
In step S702, the AF evaluation value detection imaging is not started (that is, the branch is NO), and the process proceeds to S516 to detect the AF evaluation value AF_Kβ from the live view captured image. The subsequent steps are the same as in the first embodiment. The other cases of scene discrimination follow the relationship shown in FIG.

以上、本実施例は、ライブビュー用撮像と撮像評価値検出用撮像が1フレーム期間中に同時に可能な撮像素子を備えた撮像装置を前提としている。そして、輝度/色/顔情報に基づいた撮影シーンを判別の結果に従って、AF評価値を検出する画像を、AF評価値用画像またはライブビュー画像から選択する。これにより、明るい被写体撮影時ではAF評価を行う際のタイムラグを短縮することができ、暗部に対してはAF評価値の精度を向上することが可能となる。   As described above, the present embodiment is premised on an imaging apparatus including an imaging device capable of performing live view imaging and imaging evaluation value detection imaging simultaneously during one frame period. Then, an image for detecting the AF evaluation value is selected from the AF evaluation value image or the live view image in accordance with the result of determining the shooting scene based on the luminance / color / face information. Thereby, the time lag at the time of performing AF evaluation can be shortened at the time of photographing a bright subject, and the accuracy of the AF evaluation value can be improved for a dark part.

また、本実施例では、シーン判別を行う際、撮像評価値検出用画像とライブビュー用画像それぞれから、顔情報、輝度情報、色情報を検出したが、それらに限定されるわけではない。第1の本実施例で記載した感度を検出し、その結果もシーン判別の一つの因子とすることで、さらなるAF評価値の検出タイムラグ、検出速度の最適化が可能となる。   In this embodiment, when scene determination is performed, face information, luminance information, and color information are detected from the imaging evaluation value detection image and the live view image, but the present invention is not limited thereto. By detecting the sensitivity described in the first embodiment and using the result as one factor for scene discrimination, it is possible to further optimize the AF evaluation value detection time lag and detection speed.

また、本実施例では、シーン判別を行う際に必要な情報である顔情報、輝度情報、色情報の少なくとも2つが大きな情報値である場合の撮像画像から撮像評価値を決定したが、これに限定するわけではない。撮像評価値によって各情報値に重みを付けて比較を行ってもよい。   In this embodiment, the imaging evaluation value is determined from the captured image when at least two of face information, luminance information, and color information, which are information necessary for scene discrimination, are large information values. It is not limited. Each information value may be weighted and compared by the imaging evaluation value.

<第3の実施形態>
次に、本発明の第3の実施例を説明する。本実施例は、撮像評価値検出部106を、イメージセンサ102の外部ではなく、内部、例えば図2(a)の第2のチップ21の画素駆動回路内に形成した構成である。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In this embodiment, the imaging evaluation value detection unit 106 is formed not inside the image sensor 102 but inside, for example, the pixel driving circuit of the second chip 21 shown in FIG.

図9は、撮像評価値検出部を組み込んだイメージセンサ102の構成図である。同図において、図2と同様の部分は同じ符号を付して示す。   FIG. 9 is a configuration diagram of the image sensor 102 incorporating the imaging evaluation value detection unit. In the figure, the same parts as those in FIG.

図において、901は、撮像評価値、例えばAF評価値(オートフォーカスデータ)を検出し、検出した評価値のみをシステム制御部106に出力する撮像評価値検出部である。撮像評価値検出部901は、システム制御部108が撮像素子102で得られる画像信号から得られるコントラスト情報および位相差情報に基づいて制御するタイミングに従って動作する。   In the figure, reference numeral 901 denotes an imaging evaluation value detection unit that detects an imaging evaluation value, for example, an AF evaluation value (autofocus data), and outputs only the detected evaluation value to the system control unit 106. The imaging evaluation value detection unit 901 operates in accordance with timing controlled by the system control unit 108 based on contrast information and phase difference information obtained from an image signal obtained by the imaging element 102.

スイッチ902、903はシステム制御部108によって制御され、撮像評価値を検出する際、シーン判別部107の判別結果に基づいて、撮像評価値検出用の画像信号とライブビュー用の画像信号のどちらを撮像評価値検出部901に選択的に入力するかを切り替える。スイッチ902は、図3で図示した、撮像評価値用に対応する画素の信号を、信号処理部103または、撮像評価値検出部901に出力するか選択するスイッチである。また、スイッチ903は、図3で図示した、ライブビュー用選択行に対応する画素信号を撮像評価値に使用する際にONするスイッチである。   The switches 902 and 903 are controlled by the system control unit 108, and when detecting the imaging evaluation value, based on the discrimination result of the scene discrimination unit 107, either the image signal for detecting the imaging evaluation value or the image signal for live view is selected. Whether to selectively input to the imaging evaluation value detection unit 901 is switched. The switch 902 is a switch for selecting whether to output the pixel signal corresponding to the imaging evaluation value illustrated in FIG. 3 to the signal processing unit 103 or the imaging evaluation value detection unit 901. The switch 903 is a switch that is turned on when the pixel signal corresponding to the selected row for live view illustrated in FIG. 3 is used for the imaging evaluation value.

図9のイメージセンサを第1の実施例に係る撮像装置で使用したときの、当該イメージセンサの動作を図5のフローチャートを用いて説明する。   The operation of the image sensor when the image sensor of FIG. 9 is used in the imaging apparatus according to the first embodiment will be described with reference to the flowchart of FIG.

ステップS503で、AF動作が開始される。第1の実施例で説明したように、ステップS507においてライブビューの露光量Evが、(1)式を満たす(YES)場合、ステップS508に進み、AF評価値検出用の撮像がスタートする。このとき、スイッチ902は撮像評価値検出部901側に接続され、スイッチ903はOFFにされる。   In step S503, the AF operation is started. As described in the first embodiment, when the live view exposure amount Ev satisfies the expression (1) (YES) in step S507, the process proceeds to step S508, and imaging for AF evaluation value detection starts. At this time, the switch 902 is connected to the imaging evaluation value detection unit 901 side, and the switch 903 is turned off.

AF評価用撮像を開始した後、システム制御部108は変数nを1だけインクリメントする(ステップS509)。そして、撮像評価値検出部901は、AF評価値用画像からAF評価値AF_Kαを検出する。   After starting the AF evaluation imaging, the system control unit 108 increments the variable n by 1 (step S509). The imaging evaluation value detection unit 901 detects the AF evaluation value AF_Kα from the AF evaluation value image.

ステップS507においてライブビューの露光量Evが、(1)式を満たさない(No)の場合、S516へ進む。S516では、スイッチ903がONにされ、撮像評価値検出部901は、ライブビュー用の画像信号からAF評価値AF_Kβを検出する。このとき、スイッチ902は、信号処理部104側へ接続されているが、AF評価値用の動作は行っていないため、信号処理部への画素信号は出力されない。また、撮像評価値検出部901は、システム制御部108へ、AF評価値のみを転送するため、第1の実施例と比較して外部への転送データ量を削減でき、消費電力の削減が可能となる。以後の動作は、第1の実施の動作と同様なため、説明は省略する。なお、第2の実施例に係る撮像装置に図9のイメージセンサを用いた場合も、同様の動作となる。   If the exposure value Ev of the live view does not satisfy the expression (1) (No) in step S507, the process proceeds to S516. In S516, the switch 903 is turned on, and the imaging evaluation value detection unit 901 detects the AF evaluation value AF_Kβ from the image signal for live view. At this time, the switch 902 is connected to the signal processing unit 104 side. However, since the operation for the AF evaluation value is not performed, the pixel signal is not output to the signal processing unit. Since the imaging evaluation value detection unit 901 transfers only the AF evaluation value to the system control unit 108, the amount of data transferred to the outside can be reduced compared to the first embodiment, and the power consumption can be reduced. It becomes. Since the subsequent operation is the same as that of the first embodiment, the description thereof is omitted. The same operation is performed when the image sensor of FIG. 9 is used in the image pickup apparatus according to the second embodiment.

上述した第3の実施例では、撮像評価値をイメージセンサ内に構成することで、第1および第2の実形例において撮像評価値検出時のデータの転送量を削減できるので、消費電力を低減させることが可能となる。   In the third embodiment described above, by configuring the imaging evaluation value in the image sensor, the amount of data transferred when the imaging evaluation value is detected in the first and second actual examples can be reduced. It can be reduced.

以上、本発明の実施の形態を第1乃至第3の実施例に基づいて説明したが、本発明は、これらの実施例に限定されるものではなく、この発明の要旨を逸脱しない範囲での様々な形態も本発明に含まれる。   The embodiments of the present invention have been described based on the first to third embodiments. However, the present invention is not limited to these embodiments, and the scope of the present invention is not deviated. Various forms are also included in the present invention.

例えば、上記の実施の形態の機能の制御方法として、撮像装置に制御部が当該装置の各部を制御してその機能を実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとし、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記憶媒体に記録される。上記の制御方法および制御プログラムの各々は、少なくとも制御ステップおよび表示制御ステップを有している。   For example, as a function control method of the above-described embodiment, the control unit may cause the imaging device to execute each function by controlling each unit of the device. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable storage medium, for example. Each of the above control method and control program has at least a control step and a display control step.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (18)

被写体の光学像を形成する撮影光学系を有し、前記光学像を撮像して画像信号を生成する撮像装置において、
前記光学像を光電変換して画像信号を生成する画素をマトリックス状に配列した画素部を有する第1の素子部と、前記画素部から画像信号を読み出す読み出し手段が配設された第2の素子部とを備え、前記読み出し手段が、前記画素部の第1の画素群から画像信号を読み出す第1の読み出し手段と、前記画素部の第2画素群から画像信号を読み出す第2の読み出し手段を有する撮像素子と、
前記撮像素子が出力する画像信号から、前記光学像の撮像条件に関する情報を取得して判定する撮像条件判定手段と、
前記判定の結果に従って、前記第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、前記光学像の撮像に関する撮像評価値を検出する撮像評価値検出手段と、
を備えることを特徴とする撮像装置。
In an imaging device that has a photographing optical system that forms an optical image of a subject and that captures the optical image to generate an image signal,
A second element provided with a first element part having a pixel part in which pixels for photoelectrically converting the optical image to generate an image signal are arranged in a matrix, and a reading means for reading out the image signal from the pixel part A first readout unit that reads out an image signal from the first pixel group of the pixel unit, and a second readout unit that reads out the image signal from the second pixel group of the pixel unit. An image sensor having
Imaging condition determining means for acquiring and determining information on the imaging condition of the optical image from the image signal output by the imaging element;
An imaging evaluation value detection unit that detects an imaging evaluation value related to imaging of the optical image from any one of the image signals read by the first reading unit and the second reading unit according to the determination result;
An imaging apparatus comprising:
前記撮像条件に関する情報は、前記光学像の撮像における露光量であり、前記撮像条件判定手段は、前記露光量を所定の露光量と比較して判定することを特徴とする請求項1に記載の撮像装置。   The information on the imaging condition is an exposure amount in imaging the optical image, and the imaging condition determination unit determines the exposure amount by comparing with a predetermined exposure amount. Imaging device. 前記撮像条件判定手段は、前記撮像素子から出力される画像信号に関する輝度情報を検出する輝度情報検出手段と、前記撮像素子から出力される画像信号に関する色情報を検出する色情報検出手段、前記撮像素子から出力される画像信号に基づいて、撮影された人物の顔情報を検出する顔情報検出手段を有し、前記輝度情報、色情報及び顔情報を判定した結果の組み合わせに従って、前記撮像条件に関する情報の判定を決定することを特徴とする請求項1又は2に記載の撮像装置。   The imaging condition determining means includes luminance information detecting means for detecting luminance information relating to an image signal output from the imaging element, color information detecting means for detecting color information relating to an image signal output from the imaging element, and the imaging A face information detecting unit that detects face information of a photographed person based on an image signal output from the element, and relates to the imaging condition according to a combination of the luminance information, the color information, and the face information; The imaging apparatus according to claim 1, wherein determination of information is determined. 前記読み出し手段を制御する制御手段をさらに備え、前記制御手段は、前記撮像条件に関する情報の判定の結果に従って、前記第1の読み出し手段および第2の読み出し手段の少なくとも一つを所定のフレームレートで駆動することを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。   Control means for controlling the reading means is further provided, and the control means controls at least one of the first reading means and the second reading means at a predetermined frame rate according to a result of determination of the information regarding the imaging condition. The imaging device according to claim 1, wherein the imaging device is driven. 前記2の画素群から読み出される画素信号のフレームレートは、前記第1の画素群から読み出され画素信号のフレームレートよりも遅いことを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein a frame rate of a pixel signal read from the second pixel group is slower than a frame rate of the pixel signal read from the first pixel group. 前記撮像評価値検出手段は、オートフォーカスデータ、露出制御データ、ホワイトバランスデータの少なくとも一つを検出することを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging evaluation value detection unit detects at least one of autofocus data, exposure control data, and white balance data. 前記制御手段はさらに、前記撮像評価値検出手段で検出された撮像評価値に従って、前記撮影光学系の駆動を制御することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the control unit further controls driving of the imaging optical system according to an imaging evaluation value detected by the imaging evaluation value detection unit. 前記制御手段はさらに、前記撮像評価値検出手段で検出された撮像評価値に従って、前記撮影光学系の露出を制御することを特徴とする請求項6又は7に記載の撮像装置。   The imaging apparatus according to claim 6 or 7, wherein the control unit further controls exposure of the photographing optical system according to an imaging evaluation value detected by the imaging evaluation value detection unit. 前記制御手段は、前記撮像評価値検出手段で検出された撮像評価値に従って、前記画像信号のホワイトバランスを制御することを特徴とする請求項6乃至8のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the control unit controls white balance of the image signal in accordance with the imaging evaluation value detected by the imaging evaluation value detection unit. 前記撮像評価値検出手段は前記第2の素子部に配設され、前記第2の素子部はさらに、前記第1の読み出し手段と第2の読み出し手段から読み出される画像信号を前記撮像評価値検出手段に選択的に入力するためのスイッチおよび前記画像信号をデジタル信号に変換する変換手段を有することを特徴とする請求項1乃至9のいずれか一項に記載の撮像装置。   The imaging evaluation value detection unit is disposed in the second element unit, and the second element unit further detects an image signal read from the first reading unit and the second reading unit. The imaging apparatus according to claim 1, further comprising a switch for selectively inputting to the means and a converting means for converting the image signal into a digital signal. 前記制御手段は、前記撮像条件に関する情報の判定結果に従って、前記スイッチを切り替えることを特徴とする請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the control unit switches the switch according to a determination result of information related to the imaging condition. 前記第1の画素群および第2の画素群は、前記画素部の異なる行の画素を含むことを特徴とする請求項1乃至11のいずれか一項に記載の撮像装置。   The imaging device according to claim 1, wherein the first pixel group and the second pixel group include pixels in different rows of the pixel unit. 前記第1の素子部と前記第2の素子部とは積層され、前記第1の素子部が前記光学像を受光する側に位置していることを特徴とする請求項1乃至12のいずれか一項に記載の撮像装置。   The first element portion and the second element portion are stacked, and the first element portion is positioned on the side that receives the optical image. The imaging device according to one item. 被写体の光学像を形成する撮影光学系と、前記光学像を撮像して画像信号を生成する撮像素子であり、前記撮像素子が、前記光学像を光電変換して画像信号を生成する画素をマトリックス状に配列した画素部を有する第1の素子部と、前記画素部から画像信号を読み出す読み出し手段が配設された第2の素子部とを備え、前記読み出し手段が、前記画素部の第1の画素群から画像信号を読み出す第1の読み出し手段と、前記画素部の第2の画素群から画像信号を読み出す第2の読み出し手段を有する撮像素子を備える撮像装置の制御方法において、
前記撮像素子が出力する画像信号から、前記光学像の撮像条件に関する情報を取得して判定する撮像条件判定ステップと
前記判定の結果に従って、前記第1の読み出し手段及び第2の読み出し手段で読み出される画像信号のいずれかから、前記光学像の撮像に関する撮像評価値を検出する撮像評価値検出ステップと、
を備えることを特徴とする制御方法。
An imaging optical system that forms an optical image of a subject, and an imaging device that captures the optical image and generates an image signal, and the imaging device matrixes pixels that photoelectrically convert the optical image to generate an image signal A first element portion having pixel portions arranged in a shape and a second element portion provided with a reading means for reading an image signal from the pixel portion, wherein the reading means is a first portion of the pixel portion. In a control method of an imaging apparatus including an imaging element having a first readout unit that reads out an image signal from the pixel group and a second readout unit that reads out an image signal from the second pixel group of the pixel unit,
An imaging condition determination step for acquiring and determining information related to an imaging condition of the optical image from an image signal output from the imaging element, and reading by the first reading unit and the second reading unit according to the determination result An imaging evaluation value detection step for detecting an imaging evaluation value related to imaging of the optical image from any of the image signals;
A control method comprising:
請求項14の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 14. 請求項15のプログラムを記録したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 15. コンピュータを、請求項1乃至13のいずれか一項に記載された撮像装置の各手段として機能させるプログラム。   A program that causes a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 13. コンピュータを、請求項1乃至13のいずれか一項に記載された撮像装置の各手段として機能させるプログラムを記録した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 13.
JP2013137031A 2012-12-28 2013-06-28 Imaging apparatus, control method thereof, and control program Active JP6346417B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2013137031A JP6346417B2 (en) 2013-06-28 2013-06-28 Imaging apparatus, control method thereof, and control program
GB1322878.8A GB2511405B (en) 2012-12-28 2013-12-23 Image pickup element, image pickup apparatus, and method and program for controlling the same
GB1519148.9A GB2529575B (en) 2012-12-28 2013-12-23 Image pickup element, image pickup apparatus, and method and program for controlling the same
KR1020130163663A KR101663947B1 (en) 2012-12-28 2013-12-26 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium
US14/141,732 US9609223B2 (en) 2012-12-28 2013-12-27 Image pickup element, image pickup apparatus, and method and program for controlling the same
DE102013227163.8A DE102013227163B4 (en) 2012-12-28 2013-12-27 PICTURE RECORDING DEVICE, PICTURE RECORDING DEVICE AND METHOD AND PROGRAM FOR CONTROLLING THEM
BR102013033787A BR102013033787A2 (en) 2012-12-28 2013-12-27 image capture element, image capture apparatus, and method and program for controlling the same
RU2013158771/07A RU2566735C2 (en) 2012-12-28 2013-12-27 Image capture element and device, method and programme for their control
CN201310745423.1A CN103916575B (en) 2012-12-28 2013-12-30 Photographing element, picture pick-up device and its control method
KR1020160126372A KR101757655B1 (en) 2012-12-28 2016-09-30 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013137031A JP6346417B2 (en) 2013-06-28 2013-06-28 Imaging apparatus, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2015011216A true JP2015011216A (en) 2015-01-19
JP6346417B2 JP6346417B2 (en) 2018-06-20

Family

ID=52304416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013137031A Active JP6346417B2 (en) 2012-12-28 2013-06-28 Imaging apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6346417B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066928A (en) * 2016-10-21 2018-04-26 キヤノン株式会社 Solid state image pickup element, control method thereof, and imaging apparatus
JP2019212240A (en) * 2018-06-08 2019-12-12 富士通株式会社 Simulation program, simulation method and simulation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128196A (en) * 2004-10-26 2006-05-18 Sony Corp Semiconductor image sensor module and manufacturing method thereof
JP2009089105A (en) * 2007-10-01 2009-04-23 Nikon Corp Solid-state imaging apparatus and electronic camera employing the same
JP2011253099A (en) * 2010-06-03 2011-12-15 Nikon Corp Focus detector
JP2012058439A (en) * 2010-09-08 2012-03-22 Olympus Imaging Corp Digital camera
JP2012058464A (en) * 2010-09-08 2012-03-22 Pentax Ricoh Imaging Co Ltd Imaging system and pixel signal reading method
JP2013113857A (en) * 2011-11-24 2013-06-10 Canon Inc Imaging device, and control method therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128196A (en) * 2004-10-26 2006-05-18 Sony Corp Semiconductor image sensor module and manufacturing method thereof
JP2009089105A (en) * 2007-10-01 2009-04-23 Nikon Corp Solid-state imaging apparatus and electronic camera employing the same
JP2011253099A (en) * 2010-06-03 2011-12-15 Nikon Corp Focus detector
JP2012058439A (en) * 2010-09-08 2012-03-22 Olympus Imaging Corp Digital camera
JP2012058464A (en) * 2010-09-08 2012-03-22 Pentax Ricoh Imaging Co Ltd Imaging system and pixel signal reading method
JP2013113857A (en) * 2011-11-24 2013-06-10 Canon Inc Imaging device, and control method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066928A (en) * 2016-10-21 2018-04-26 キヤノン株式会社 Solid state image pickup element, control method thereof, and imaging apparatus
JP2019212240A (en) * 2018-06-08 2019-12-12 富士通株式会社 Simulation program, simulation method and simulation device
JP7070121B2 (en) 2018-06-08 2022-05-18 富士通株式会社 Simulation program, simulation method and simulation equipment

Also Published As

Publication number Publication date
JP6346417B2 (en) 2018-06-20

Similar Documents

Publication Publication Date Title
US10349028B2 (en) Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium
US10368025B2 (en) Imaging element, imaging apparatus, its control method, and control program
JP6995806B2 (en) Image sensor and image sensor
US9609223B2 (en) Image pickup element, image pickup apparatus, and method and program for controlling the same
JP6159105B2 (en) Imaging apparatus and control method thereof
JP2008109485A (en) Imaging apparatus and imaging control method
JP6521731B2 (en) Imaging device, control method therefor, and control program
KR102368625B1 (en) Digital photographing apparatus and the method for the same
JP6346417B2 (en) Imaging apparatus, control method thereof, and control program
JP6632580B2 (en) Imaging device and imaging device
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP2011166515A (en) Imaging apparatus
JP2009272799A (en) Imaging device and program
KR101757655B1 (en) Image pickup element, image pickup apparatus, method for controlling the same, and storage medium
JP7051565B2 (en) Imaging device and its control method, imaging system
JP7037396B2 (en) Image sensor, image pickup device and image pickup method
JP2017192048A (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2015126386A (en) Image pickup device, and control method and program of the same
JP2012204938A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180525

R151 Written notification of patent or utility model registration

Ref document number: 6346417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151