JP2018152869A - Imaging element and imaging device - Google Patents

Imaging element and imaging device Download PDF

Info

Publication number
JP2018152869A
JP2018152869A JP2018086362A JP2018086362A JP2018152869A JP 2018152869 A JP2018152869 A JP 2018152869A JP 2018086362 A JP2018086362 A JP 2018086362A JP 2018086362 A JP2018086362 A JP 2018086362A JP 2018152869 A JP2018152869 A JP 2018152869A
Authority
JP
Japan
Prior art keywords
signal
unit
photoelectric conversion
imaging
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018086362A
Other languages
Japanese (ja)
Other versions
JP6852712B2 (en
Inventor
徹 宮越
Toru Miyakoshi
徹 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018086362A priority Critical patent/JP6852712B2/en
Publication of JP2018152869A publication Critical patent/JP2018152869A/en
Priority to JP2021038379A priority patent/JP7176583B2/en
Application granted granted Critical
Publication of JP6852712B2 publication Critical patent/JP6852712B2/en
Priority to JP2022180358A priority patent/JP2023010785A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly process photoelectric conversion data.SOLUTION: A signal processing apparatus 112 comprises: a data input unit 413 which inputs data from a plurality of pixels for performing photoelectric conversion; a memory 414 which stores the data inputted to the data input unit 413 by pixels; an addition unit 416 which adds the data stored in the memory 414 and the data input to the data input unit 413 by pixels; and a data output unit 415 which outputs the data input to the data input unit 413 or the data added by the addition unit 416.SELECTED DRAWING: Figure 4

Description

本発明は、撮像素子および撮像装置に関する。   The present invention relates to an imaging element and an imaging apparatus.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、積層型撮像素子という)を備えた電子機器が提案されている(特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、所定の領域ごとにマイクロバンプを介して接続されるように積層されている。   There has been proposed an electronic apparatus including an imaging element (hereinafter, referred to as a multilayer imaging element) in which a back-illuminated imaging chip and a signal processing chip are stacked (see Patent Document 1). The multilayer imaging element is laminated so that the back-illuminated imaging chip and the signal processing chip are connected to each other through micro bumps.

特開2006−49361号公報JP 2006-49361 A

従来の積層型撮像素子を備えた電子機器において、1または2以上の上記領域を有するブロックに画像を分けて、該ブロックごとに撮像画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分とはいえなかった。さらに、異なる露光条件で別々に撮像した複数枚の画像を合成する従来技術では、動いている被写体の撮影に不向きであった。   There are not many proposals to divide an image into blocks having one or more of the above-described areas and acquire a captured image for each block in an electronic apparatus including a conventional stacked image sensor, and the multilayer image sensor is provided. The usability of electronic devices was not sufficient. Furthermore, the conventional technology that combines a plurality of images captured separately under different exposure conditions is not suitable for shooting a moving subject.

発明の第1の態様による撮像素子は、光が入射される第1領域に配置され、光を電荷に変換する第1光電変換部と、光が入射される第2領域に配置され、光を電荷に変換する第2光電変換部と、前記第1光電変換部で変換された電荷により生成される第1信号と第1メモリ部に記憶された第2信号とにより第3信号を生成するための第1信号処理部と、前記第2光電変換部で変換された電荷により生成される第4信号と第2メモリ部に記憶された第5信号とにより第6信号を生成するための第2信号処理部と、を備える。
発明の第2の態様による撮像装置は、第1の態様による撮像素子を備える。
An imaging device according to a first aspect of the invention is disposed in a first region where light is incident, and is disposed in a first photoelectric conversion unit that converts light into electric charge, and a second region where light is incident, To generate a third signal from a second photoelectric conversion unit that converts the charge, a first signal generated by the charge converted by the first photoelectric conversion unit, and a second signal stored in the first memory unit. A second signal for generating a sixth signal by the first signal processing unit, the fourth signal generated by the charge converted by the second photoelectric conversion unit, and the fifth signal stored in the second memory unit. A signal processing unit.
An imaging device according to a second aspect of the invention includes the imaging device according to the first aspect.

本発明によれば、光電変換データを適切に処理できる。   According to the present invention, photoelectric conversion data can be appropriately processed.

積層型撮像素子の断面図である。It is sectional drawing of a multilayer type image pick-up element. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement | sequence and unit area | region of an imaging chip. 撮像チップの単位領域に対応する回路図である。It is a circuit diagram corresponding to the unit area | region of an imaging chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image pick-up element. 1画素当たりの画素信号の流れを説明する図である。It is a figure explaining the flow of the pixel signal per pixel. 撮像素子を有する撮像装置の構成を例示するブロック図である。It is a block diagram which illustrates the composition of the imaging device which has an image sensor. 撮像素子における注目領域および周辺領域を例示する図である。It is a figure which illustrates the attention field and peripheral field in an image sensor. 読み出しタイミング、蓄積信号、および演算回路を介して撮像素子から読み出される画素信号を説明する図である。It is a figure explaining the pixel signal read from an image sensor via a read timing, an accumulation signal, and an arithmetic circuit. 第一の実施形態の制御部が実行する撮影動作の流れを説明するフローチャートである。It is a flowchart explaining the flow of the imaging | photography operation | movement which the control part of 1st embodiment performs. 第二の実施形態の制御部が実行する撮影動作の流れを説明するフローチャートである。It is a flowchart explaining the flow of the imaging | photography operation | movement which the control part of 2nd embodiment performs.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<積層型撮像素子の説明>
始めに、本発明の第一の実施形態による電子機器(例えば撮像装置1)に搭載する積層型撮像素子100について説明する。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。図1は、積層型撮像素子100の断面図である。撮像素子100は、入射光に対応した画素信号を出力する裏面照射型撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
<Description of Laminated Image Sensor>
First, the multilayer imaging element 100 mounted on the electronic apparatus (for example, the imaging apparatus 1) according to the first embodiment of the present invention will be described. The multilayer image sensor 100 is described in Japanese Patent Application No. 2012-139026 filed earlier by the applicant of the present application. FIG. 1 is a cross-sectional view of the multilayer image sensor 100. The imaging device 100 includes a backside illumination type imaging chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and are electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, incident light is incident mainly in the positive direction of the Z-axis indicated by a white arrow. In the present embodiment, in the imaging chip 113, the surface on the side where incident light is incident is referred to as a back surface. Further, as shown in the coordinate axes, the left direction of the paper orthogonal to the Z axis is the X axis plus direction, and the front side of the paper orthogonal to the Z axis and the X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)104、および、PD104に対応して設けられたトランジスタ105を有する。   An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is disposed on the back side of the wiring layer 108. The PD layer 106 includes a plurality of PDs (photodiodes) 104 that are two-dimensionally arranged and store charges corresponding to incident light, and transistors 105 that are provided corresponding to the PDs 104.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104およびトランジスタ105の組が、一つの画素を形成する。   A color filter 102 is provided on the incident side of incident light in the PD layer 106 via a passivation film 103. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104. The arrangement of the color filter 102 will be described later. A set of the color filter 102, the PD 104, and the transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。   On the incident light incident side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。   The wiring layer 108 includes a wiring 107 that transmits the pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may be multilayer, and a passive element and an active element may be provided.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   A plurality of bumps 109 are disposed on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the opposing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are pressed and aligned. The bumps 109 are joined and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   Similarly, a plurality of bumps 109 are disposed on the mutually facing surfaces of the signal processing chip 111 and the memory chip 112. The bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized, so that the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位領域に対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。   The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be employed. Further, for example, about one bump 109 may be provided for one unit region described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. Further, a bump larger than the bump 109 corresponding to the pixel region may be provided in a peripheral region other than the pixel region where the pixels are arranged.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。   The signal processing chip 111 has a TSV (silicon through electrode) 110 that connects circuits provided on the front and back surfaces to each other. The TSV 110 is preferably provided in the peripheral area. The TSV 110 may also be provided in the peripheral area of the imaging chip 113 and the memory chip 112.

図2は、撮像チップ113の画素配列と単位領域131を説明する図である。特に、撮像チップ113を裏面側から観察した様子を示す。画素領域には例えば2000万個以上もの画素がマトリックス状に配列されている。本実施形態においては、例えば隣接する4画素×4画素の16画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。   FIG. 2 is a diagram for explaining the pixel array and the unit region 131 of the imaging chip 113. In particular, a state where the imaging chip 113 is observed from the back side is shown. For example, 20 million or more pixels are arranged in a matrix in the pixel region. In the present embodiment, for example, 16 pixels of adjacent 4 pixels × 4 pixels form one unit region 131. The grid lines in the figure indicate the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, or more or less.

画素領域の部分拡大図に示すように、単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region, the unit region 131 includes four so-called Bayer arrays, which are composed of four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R, vertically and horizontally. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band of incident light. Similarly, a blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band, and a red pixel is a pixel having a red filter as the color filter 102 and receiving light in the red wavelength band. Receive light.

本実施形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義され、各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数等である。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。   In the present embodiment, a plurality of blocks are defined so as to include at least one unit region 131 per block, and each block can control pixels included in each block with different control parameters. That is, it is possible to acquire imaging signals having different imaging conditions between a pixel group included in a certain block and a pixel group included in another block. Examples of the control parameters are a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which pixel signals are added, the charge accumulation time or accumulation count, the number of digitization bits, and the like. Furthermore, the control parameter may be a parameter in image processing after obtaining an image signal from a pixel.

図3は、撮像チップ113の単位領域131に対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。   FIG. 3 is a circuit diagram corresponding to the unit region 131 of the imaging chip 113. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. Note that at least some of the transistors described below correspond to the transistor 105 in FIG.

上述のように、単位領域131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続され、各転送トランジスタ302の各ゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。   As described above, the unit region 131 is formed of 16 pixels. The 16 PDs 104 corresponding to the respective pixels are respectively connected to the transfer transistors 302, and the gates of the transfer transistors 302 are connected to the TX wiring 307 to which transfer pulses are supplied. In the present embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されると共に、転送トランジスタ302のドレインとリセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFDが増幅トランジスタ304のゲートに接続される。リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続され、そのゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。   The drain of each transfer transistor 302 is connected to the source of the corresponding reset transistor 303, and a so-called floating diffusion FD between the drain of the transfer transistor 302 and the source of the reset transistor 303 is connected to the gate of the amplification transistor 304. The drain of the reset transistor 303 is connected to a Vdd wiring 310 to which a power supply voltage is supplied, and the gate thereof is connected to a reset wiring 306 to which a reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは、電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。選択トランジスタ305の各ゲートは、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。   The drain of each amplification transistor 304 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. The source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. Each gate of the selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In the present embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. The source of each selection transistor 305 is connected to a common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by a source follower. Note that the load current source 311 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加され、同時にTX配線307を通じて転送パルスが転送トランジスタ302に印加されると、PD104およびフローティングディフュージョンFDの電位がリセットされる。   Here, the flow from the start of charge accumulation to pixel output after the end of accumulation will be described. When a reset pulse is applied to the reset transistor 303 through the reset wiring 306 and simultaneously a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、蓄積された電荷はフローティングディフュージョンFDへ転送され、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304および選択トランジスタ305を介して出力配線309に伝わる。これにより、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。   When the application of the transfer pulse is canceled, the PD 104 converts the incident light to be received into electric charge and accumulates it. Thereafter, when the transfer pulse is applied again without the reset pulse being applied, the accumulated charge is transferred to the floating diffusion FD, and the potential of the floating diffusion FD changes from the reset potential to the signal potential after the charge accumulation. . When a selection pulse is applied to the selection transistor 305 through the decoder wiring 308, a change in the signal potential of the floating diffusion FD is transmitted to the output wiring 309 through the amplification transistor 304 and the selection transistor 305. Thereby, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位領域131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素全てに対して同時に印加される。したがって、単位領域131を形成する全ての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309から出力される。また、リセット配線306、TX配線307、出力配線309は、単位領域131毎に別個に設けられる。   As shown in FIG. 3, in this embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit region 131. That is, the reset pulse and the transfer pulse are simultaneously applied to all 16 pixels. Accordingly, all the pixels forming the unit region 131 start charge accumulation at the same timing and end charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output from the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. Further, the reset wiring 306, the TX wiring 307, and the output wiring 309 are provided separately for each unit region 131.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で、異なったフレームレートによる画素信号をそれぞれ出力させることができる。更に言えば、一方の単位領域131に1回の電荷蓄積を行わせている間に、他方の単位領域131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位領域131間で異なるフレームレートで動画用の各フレームを出力することもできる。   Thus, by configuring the circuit with the unit region 131 as a reference, the charge accumulation time can be controlled for each unit region 131. In other words, pixel signals having different frame rates can be output between the unit regions 131. Further, while one unit region 131 is caused to perform charge accumulation once, the other unit region 131 is caused to repeatedly accumulate charges several times and each time a pixel signal is output, so that Each frame for moving images can be output at a different frame rate between the unit areas 131.

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位領域131を形成する16個のPD104を順番に選択して、それぞれの画素信号を当該単位領域131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104と共に、撮像チップ113に形成される。   FIG. 4 is a block diagram illustrating a functional configuration of the image sensor 100. The analog multiplexer 411 sequentially selects the 16 PDs 104 forming the unit area 131 and outputs each pixel signal to the output wiring 309 provided corresponding to the unit area 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ413に引き渡される。デマルチプレクサ413から出力された画素信号は、それぞれの画素に対応する加算器416へ入力される。加算器416は、それぞれの画素に対応させて、デマルチプレクサ413から出力された画素信号と画素メモリ414から読み出された画素信号とを加算し、加算後の画素信号を再び画素メモリ414へ出力する。   The pixel signal output via the multiplexer 411 is supplied to the signal processing chip 111 by a signal processing circuit 412 that performs correlated double sampling (CDS) / analog / digital (A / D) conversion. D conversion is performed. The A / D converted pixel signal is delivered to the demultiplexer 413. The pixel signal output from the demultiplexer 413 is input to the adder 416 corresponding to each pixel. The adder 416 adds the pixel signal output from the demultiplexer 413 and the pixel signal read from the pixel memory 414 to correspond to each pixel, and outputs the pixel signal after the addition to the pixel memory 414 again. To do.

画素メモリ414は、加算器416からの画素信号を格納する。画素メモリ414のそれぞれは、加算後の画素信号を格納できる容量を有する。デマルチプレクサ413、加算器416および画素メモリ414は、メモリチップ112に形成される。   The pixel memory 414 stores the pixel signal from the adder 416. Each of the pixel memories 414 has a capacity capable of storing the pixel signal after addition. The demultiplexer 413, the adder 416, and the pixel memory 414 are formed in the memory chip 112.

図5は、1画素当たりの画素信号の流れを説明する図である。図5において、デマルチプレクサ413から出力された画素信号Sが、加算器416のうち対応する加算器nへ入力される。このとき、画素メモリ414の対応するメモリnに格納されている画素信号Pが、該メモリnから読み出されて加算器nへ入力される。   FIG. 5 is a diagram illustrating the flow of pixel signals per pixel. In FIG. 5, the pixel signal S output from the demultiplexer 413 is input to the corresponding adder n among the adders 416. At this time, the pixel signal P stored in the corresponding memory n of the pixel memory 414 is read from the memory n and input to the adder n.

加算器nは、入力された画素信号Sと画素信号Pとを加算し、加算後の画素信号S+Pを画素メモリnへ出力する。画素メモリnは、入力された画素信号S+Pを格納し、演算回路415へ読み出されるのを待つ。ここで、加算器nにより加算が行われる際に、画素メモリnに格納されている画素信号Pを読み出さないように画素メモリ414を制御することにより、加算器nに入力された画素信号Sのみをそのまま加算器nから画素メモリnへ出力させることができる。すなわち、加算器nで加算することなく、撮像チップ113からの画素信号Sをそのままメモリnから演算回路415へ読み出させることもできる。   The adder n adds the input pixel signal S and the pixel signal P, and outputs the pixel signal S + P after the addition to the pixel memory n. The pixel memory n stores the input pixel signal S + P and waits for reading to the arithmetic circuit 415. Here, when the addition is performed by the adder n, only the pixel signal S input to the adder n is controlled by controlling the pixel memory 414 so as not to read the pixel signal P stored in the pixel memory n. Can be directly output from the adder n to the pixel memory n. That is, the pixel signal S from the imaging chip 113 can be read from the memory n to the arithmetic circuit 415 without being added by the adder n.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。   The arithmetic circuit 415 processes the pixel signal stored in the pixel memory 414 and passes it to the subsequent image processing unit. The arithmetic circuit 415 may be provided in the signal processing chip 111 or may be provided in the memory chip 112.

駆動制御部417は、撮像チップ113から信号処理チップ111およびメモリチップ112へ画素信号が送られるタイミングと、画素メモリ414における画素信号の読み出しおよび格納タイミングと、加算器416における画素信号の加算タイミングと、演算回路415に対する画素信号の受け渡しタイミングとを同期させるため、タイミング制御信号を生成する。   The drive control unit 417 is configured to send pixel signals from the imaging chip 113 to the signal processing chip 111 and the memory chip 112, read and store timings of the pixel signals in the pixel memory 414, and addition timings of the pixel signals in the adder 416. In order to synchronize the pixel signal delivery timing to the arithmetic circuit 415, a timing control signal is generated.

なお、図4では1つの単位領域131の分の接続を示すが、実際にはこれらが単位領域131ごとに存在して、並列で動作する。ただし、演算回路415は単位領域131ごとに存在しなくても良く、例えば、一つの演算回路415がそれぞれの単位領域131に対応する画素メモリ414の値を順に参照しながらシーケンシャルに処理してもよい。   Note that FIG. 4 shows connections for one unit region 131, but actually these exist for each unit region 131 and operate in parallel. However, the arithmetic circuit 415 does not have to exist for each unit region 131. For example, one arithmetic circuit 415 may perform sequential processing while sequentially referring to the values of the pixel memory 414 corresponding to each unit region 131. Good.

上記の通り、単位領域131のそれぞれに対応して出力配線309が設けられている。撮像素子100は撮像チップ113、信号処理チップ111およびメモリチップ112を積層しているので、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。   As described above, the output wiring 309 is provided corresponding to each of the unit regions 131. Since the image pickup device 100 has the image pickup chip 113, the signal processing chip 111, and the memory chip 112 laminated, by using electrical connection between the chips using the bump 109 for the output wiring 309, each chip is arranged in the surface direction. Wiring can be routed without increasing the size.

<撮像装置の説明>
図6は、上述した撮像素子100を有する撮像装置1の構成を例示するブロック図である。図6において、撮像装置1は、撮像光学系10、撮像部20、画像処理部30、ワークメモリ40、表示部50、記録部60、および制御部70を有する。
<Description of imaging device>
FIG. 6 is a block diagram illustrating the configuration of the imaging apparatus 1 having the imaging element 100 described above. In FIG. 6, the imaging apparatus 1 includes an imaging optical system 10, an imaging unit 20, an image processing unit 30, a work memory 40, a display unit 50, a recording unit 60, and a control unit 70.

撮像光学系10は、複数のレンズから構成され、被写界からの光束を撮像部20へ導く。撮像光学系10は、撮像装置1と一体に構成されていても、撮像装置1に対して交換可能に構成されていてもよい。また、撮像光学系10には、フォーカスレンズを内蔵していても、ズームレンズを内蔵していてもよい。   The imaging optical system 10 includes a plurality of lenses, and guides a light beam from the object scene to the imaging unit 20. The imaging optical system 10 may be configured integrally with the imaging device 1 or may be configured to be replaceable with respect to the imaging device 1. Further, the imaging optical system 10 may include a focus lens or a zoom lens.

撮像部20は、上述した撮像素子100と、撮像素子100を駆動する駆動部21とを有する。撮像素子100は、駆動部21から出力される制御信号によって駆動制御されることにより、上述したブロック単位で独立した蓄積制御が可能である。駆動部21に対する上記ブロックの位置や形状、その範囲などの指示は、制御部70が行う。   The imaging unit 20 includes the above-described imaging device 100 and a driving unit 21 that drives the imaging device 100. The image sensor 100 is driven and controlled by a control signal output from the drive unit 21, so that independent storage control can be performed in units of blocks as described above. The control unit 70 instructs the drive unit 21 on the position, shape, and range of the block.

画像処理部30は、ワークメモリ40と協働して、撮像部20で撮像された画像データに対する画像処理を行う。本実施形態において、画像処理部30は、通常の画像処理(色信号処理、ガンマ補正など)に加えて、画像に含まれる主要被写体の検出処理も行う。画像処理部30による主要被写体の検出は、公知の顔検出機能を用いて行うことができる。また、顔検出に加えて、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、画像に含まれる人体を主要被写体として検出するようにしてもよい。   The image processing unit 30 performs image processing on the image data imaged by the imaging unit 20 in cooperation with the work memory 40. In the present embodiment, the image processing unit 30 performs detection processing of a main subject included in an image in addition to normal image processing (color signal processing, gamma correction, etc.). Detection of the main subject by the image processing unit 30 can be performed using a known face detection function. In addition to face detection, a human body included in an image may be detected as a main subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940).

ワークメモリ40は、JPEG圧縮前後やMPEG圧縮前後の画像データなどを一時的に記憶する。表示部50は、例えば液晶表示パネル51によって構成され、撮像部20で撮像された画像(静止画や動画)や各種情報を表示したり、操作入力用画面を表示したりする。表示部50は、液晶表示パネル51の表示面にタッチパネル52が積層された構成を有する。タッチパネル52は、液晶表示パネル51にユーザが触れた位置を示す信号を出力する。   The work memory 40 temporarily stores image data before and after JPEG compression and before and after MPEG compression. The display unit 50 includes, for example, a liquid crystal display panel 51, and displays images (still images and moving images) and various information captured by the imaging unit 20, and displays an operation input screen. The display unit 50 has a configuration in which a touch panel 52 is laminated on the display surface of the liquid crystal display panel 51. The touch panel 52 outputs a signal indicating a position where the user touches the liquid crystal display panel 51.

記録部60は、メモリカードなどの記憶媒体に画像データなどの各種データを記憶させる。制御部70はCPUを有し、撮像装置1による全体の動作を制御する。本実施形態において制御部70は、撮像素子100(撮像チップ113)の撮像面を複数のブロックに分け、ブロック間において異なるフレームレート(蓄積時間)、ゲインで画像を取得させる。このために制御部70は、ブロックの位置、形状、範囲、および各ブロック用の制御パラメータを駆動部21へ指示する。   The recording unit 60 stores various data such as image data in a storage medium such as a memory card. The control unit 70 has a CPU and controls the overall operation of the imaging apparatus 1. In the present embodiment, the control unit 70 divides the imaging surface of the imaging device 100 (imaging chip 113) into a plurality of blocks, and acquires images with different frame rates (accumulation times) and gains between the blocks. For this purpose, the control unit 70 instructs the drive unit 21 of the block position, shape, range, and control parameters for each block.

また、制御部70は、撮像光学系10による焦点調節状態をAF演算部71により算出する。制御部70はさらに、適正露出が得られるようにAE、AWB演算部72で露出演算を行う。   In addition, the control unit 70 calculates the focus adjustment state by the imaging optical system 10 by the AF calculation unit 71. The control unit 70 further performs exposure calculation by the AE and AWB calculation unit 72 so that proper exposure can be obtained.

<注目領域と周辺領域>
本実施形態では、画面内に注目領域と周辺領域という概念を導入し、上記複数のブロックに対応させる。図7は、撮像素子100(撮像チップ113)における注目領域80および周辺領域90を例示する図である。制御部70は、撮像素子100(撮像チップ113)における注目領域80と周辺領域90の位置を、ライブビュー画像に基づくシーン認識を経て決定する。
<Attention area and surrounding area>
In the present embodiment, the concept of a region of interest and a peripheral region is introduced in the screen to correspond to the plurality of blocks. FIG. 7 is a diagram illustrating a region of interest 80 and a peripheral region 90 in the image sensor 100 (imaging chip 113). The control unit 70 determines the positions of the attention area 80 and the peripheral area 90 in the image sensor 100 (imaging chip 113) through scene recognition based on the live view image.

ここで、ライブビュー画像は本撮像が行われる前のプレビュー画像とも呼ばれ、撮像素子100によって所定のフレームレート(例えば30fps)で取得されるモニタ用の画像をいう。図7において、ライブビュー画像の画面右寄りに人物が含まれ、ライブビュー画像の画面左側に樹木が含まれている。制御部70は画像処理部30へ指示を送り、ライブビュー画像データに対して公知のシーン認識処理を行わせる。画像処理部30は、シーン認識処理を行うことにより、ライブビュー画像を解析して主要被写体領域を抽出する。   Here, the live view image is also called a preview image before the main imaging is performed, and refers to a monitor image acquired by the imaging device 100 at a predetermined frame rate (for example, 30 fps). In FIG. 7, a person is included on the right side of the screen of the live view image, and a tree is included on the left side of the screen of the live view image. The control unit 70 sends an instruction to the image processing unit 30 to perform a known scene recognition process on the live view image data. The image processing unit 30 performs a scene recognition process to analyze the live view image and extract a main subject area.

画像処理部30は、上述したように検出した人体を含む範囲を主要被写体領域とする。なお、人物に限らずペットなどの動物を検出し、この動物を含む範囲を主要被写体領域としてもよい。そして、制御部70は、主要被写体領域を注目領域80とし、注目領域80以外の領域を周辺領域90とする。   The image processing unit 30 sets a range including the human body detected as described above as a main subject area. Note that not only a person but also an animal such as a pet may be detected, and a range including the animal may be set as a main subject area. Then, the control unit 70 sets the main subject area as the attention area 80 and sets the area other than the attention area 80 as the peripheral area 90.

なお、表示部50のうち液晶表示パネル51にライブビュー画像を表示した状態で、このライブビュー画像を視認するユーザがタッチパネル52に触れた位置に対応する(表示されている)主要被写体の領域を注目領域80としてもよい。   In the state where the live view image is displayed on the liquid crystal display panel 51 in the display unit 50, the region of the main subject corresponding (displayed) corresponding to the position where the user viewing the live view image touches the touch panel 52 is displayed. The attention area 80 may be used.

制御部70は、例えばライブビュー画像取得時において、注目領域80および周辺領域90から第1蓄積時間の蓄積後に出力される画素信号に基づいて、自動露出演算およびホワイトバランス調整値の決定をAE、AWB演算部72により行わせる。AE、AWB演算部72は、例えば画素信号の平均的なレベルを所定のレベルへ近づけるように、露出(露光時間、ゲイン等)を演算する。また、AE、AWB演算部72は、白い色を白く表現するためのホワイトバランス調整値を決定する。   For example, when the live view image is acquired, the control unit 70 determines whether the automatic exposure calculation and the white balance adjustment value are determined based on the pixel signal output from the attention area 80 and the peripheral area 90 after the accumulation of the first accumulation time. This is performed by the AWB calculation unit 72. The AE and AWB calculation unit 72 calculates exposure (exposure time, gain, etc.) so that, for example, the average level of the pixel signal approaches a predetermined level. In addition, the AE / AWB calculation unit 72 determines a white balance adjustment value for expressing a white color white.

さらにまた、制御部70は、注目領域80および周辺領域90から上記第1蓄積時間の蓄積後に出力される画素信号に基づいてモニタ用の画像を生成し、上記ライブビュー画像として表示部50に表示させる。   Furthermore, the control unit 70 generates a monitor image based on the pixel signal output after accumulation of the first accumulation time from the attention area 80 and the peripheral area 90, and displays it on the display unit 50 as the live view image. Let

制御部70はさらに、例えばライブビュー画像取得時において、注目領域80から第2蓄積時間の蓄積後に出力される画素信号に基づいて、撮像光学系10による焦点調節状態をAF(オートフォーカス)演算部71により算出させる。本実施形態では、第2蓄積時間を第1蓄積時間より長く制御する。   For example, when the live view image is acquired, the control unit 70 further changes the focus adjustment state by the imaging optical system 10 based on the pixel signal output from the attention area 80 after accumulation of the second accumulation time, and an AF (autofocus) calculation unit. 71 to calculate. In the present embodiment, the second accumulation time is controlled to be longer than the first accumulation time.

AF演算部71は、例えばコントラスト検出方式によって焦点調節状態を検出する。具体的には、撮像光学系10のフォーカスレンズの位置を移動させながら、注目領域80から出力される画素信号で構成される画像のコントラストを高めるように撮像光学系10のフォーカスレンズの位置を調節する。   The AF calculation unit 71 detects the focus adjustment state by, for example, a contrast detection method. Specifically, the position of the focus lens of the imaging optical system 10 is adjusted so as to increase the contrast of an image composed of pixel signals output from the attention area 80 while moving the position of the focus lens of the imaging optical system 10. To do.

なお、焦点検出処理を、位相差検出方式によって行う構成にしてもよい。この場合には、撮像素子100(撮像チップ113)において、あらかじめ焦点検出用の画素を設けておく。そして、注目領域80に含まれる焦点検出用の画素からの出力信号を用いて位相差検出演算を行うことにより、撮像光学系10による焦点調節状態(具体的にはデフォーカス量)を検出する。焦点検出用の画素および位相差検出演算は、例えば特開2009−94881号公報に記載されるように公知であるため、詳細な説明を省略する。   Note that the focus detection process may be performed by a phase difference detection method. In this case, focus detection pixels are provided in advance in the imaging device 100 (imaging chip 113). The focus adjustment state (specifically, the defocus amount) by the imaging optical system 10 is detected by performing a phase difference detection calculation using an output signal from a focus detection pixel included in the attention area 80. The focus detection pixel and the phase difference detection calculation are well known as described in, for example, Japanese Patent Application Laid-Open No. 2009-94881, and thus detailed description thereof is omitted.

制御部70は、ライブビュー画像を取得する際に駆動部21へ指示を送り、撮像素子100(撮像チップ113)の注目領域80から、上述したように蓄積時間が異なる画素信号(すなわち第1蓄積時間経過後の画素信号と、第2蓄積時間経過後の画素信号)を複数回に分けて読み出す。ここで、注目領域80および周辺領域90に分けて蓄積制御するのは、不図示のレリーズスイッチが操作されることによる本撮像(静止画記録や動画記録)の指示が行われる前とする。   The control unit 70 sends an instruction to the drive unit 21 when acquiring the live view image, and the pixel signals (that is, the first accumulation) having different accumulation times as described above from the attention area 80 of the imaging element 100 (imaging chip 113). The pixel signal after the elapse of time and the pixel signal after the elapse of the second accumulation time are read out in a plurality of times. Here, the accumulation control is performed separately for the attention area 80 and the peripheral area 90 before an instruction for main imaging (still image recording or moving image recording) is performed by operating a release switch (not shown).

すなわち、本撮像指示が行われるまでは、注目領域80および周辺領域90で取得された画像に基づいて露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示を行うとともに、注目領域80で取得された画像に基づいて焦点検出処理を行う。   That is, until the main imaging instruction is performed, exposure calculation, determination of the white balance adjustment value, and display of the live view image are performed based on the images acquired in the attention area 80 and the peripheral area 90, and the attention area 80 is displayed. A focus detection process is performed based on the acquired image.

<蓄積時間が異なる画素信号の読み出し>
画素信号の読み出しタイミングと、撮像チップ113における蓄積信号と、演算回路415を介して撮像素子100から読み出される画素信号とを説明する図8を参照して、蓄積時間が異なる画素信号の読み出しを説明する。
<Reading out pixel signals with different accumulation times>
With reference to FIG. 8 illustrating pixel signal readout timing, an accumulation signal in the imaging chip 113, and a pixel signal read out from the image sensor 100 via the arithmetic circuit 415, readout of pixel signals having different accumulation times will be described. To do.

駆動部21は、以下のように撮像素子100を制御する。すなわち、ライブビュー画像の各フレームにおいて蓄積開始時刻t0から時刻t1までを上記第1蓄積時間とし、時刻t0から時刻t2までを上記第2蓄積時間とする。駆動部21は、時刻t0において、上記注目領域80および周辺領域90に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t1において、図5に例示した画素メモリnに格納されている画素信号を読み出さないように画素メモリ414を制御しながら、上記注目領域80および周辺領域90から画素信号を出力させる。これにより、第1蓄積時間(時刻t0から時刻t1)の間に蓄積された画素信号aがデマルチプレクサ413から出力され、そのまま信号Aとして演算回路415を介して出力される。この画素信号A(=a)は、画素メモリnにも格納される。   The drive unit 21 controls the image sensor 100 as follows. That is, in each frame of the live view image, the accumulation start time t0 to time t1 is defined as the first accumulation time, and the period from time t0 to time t2 is defined as the second accumulation time. The drive unit 21 starts charge accumulation for the pixels included in the region of interest 80 and the peripheral region 90 at time t0. At time t1, pixel signals are output from the region of interest 80 and the peripheral region 90 while controlling the pixel memory 414 so as not to read out the pixel signals stored in the pixel memory n illustrated in FIG. As a result, the pixel signal a accumulated during the first accumulation time (from time t0 to time t1) is output from the demultiplexer 413, and is directly output as the signal A via the arithmetic circuit 415. This pixel signal A (= a) is also stored in the pixel memory n.

駆動部21はさらに、時刻t1において上記画素信号の読み出しを行うと、ただちに上記注目領域80に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t2において、図5に例示した画素メモリnに格納されている画素信号aを読み出すように画素メモリ414を制御しながら、上記注目領域80から画素信号を出力させる。これにより、時刻t1から時刻t2までの間に蓄積された画素信号bがデマルチプレクサ413から出力され、この画素信号bと、画素メモリnから読み出された画素信号aとが加算器nで加算される。加算後の画素信号a+bは、信号Bとして演算回路415を介して出力される。画素信号B(=a+b)は、時刻t0から時刻t1までと、時刻t1から時刻t2までに蓄積された画素信号の和であるため、第2蓄積時間(時刻t0から時刻t2)の間に蓄積される画素信号に相当する。   Further, when the driving unit 21 reads out the pixel signal at time t1, the driving unit 21 immediately starts charge accumulation for the pixels included in the attention area 80. At time t2, the pixel signal is output from the region of interest 80 while controlling the pixel memory 414 so as to read out the pixel signal a stored in the pixel memory n illustrated in FIG. As a result, the pixel signal b accumulated from time t1 to time t2 is output from the demultiplexer 413, and this pixel signal b and the pixel signal a read from the pixel memory n are added by the adder n. Is done. The pixel signal a + b after the addition is output as the signal B through the arithmetic circuit 415. Since the pixel signal B (= a + b) is the sum of the pixel signals accumulated from the time t0 to the time t1 and from the time t1 to the time t2, it is accumulated during the second accumulation time (time t0 to time t2). This corresponds to the pixel signal to be processed.

上述したように、第一の実施形態では、第1蓄積時間より長い第2蓄積時間で蓄積された高い信号レベルの画素信号Bを焦点検出処理に用いるので、信号レベルが低い画素信号Aを焦点検出処理に用いる場合に比べて、高い焦点検出精度が得られる。また、第2蓄積時間より短い第1蓄積時間で蓄積された画素信号Aを露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示に用いるので、ノイズの影響を避けて精度よく演算でき、明るすぎることなく見やすいライブビュー画像が得られる。   As described above, in the first embodiment, since the pixel signal B having a high signal level accumulated in the second accumulation time longer than the first accumulation time is used for the focus detection process, the pixel signal A having a low signal level is focused. Compared with the case where it is used for detection processing, high focus detection accuracy can be obtained. In addition, since the pixel signal A accumulated in the first accumulation time shorter than the second accumulation time is used for exposure calculation, white balance adjustment value determination, and live view image display, it is possible to calculate with high accuracy while avoiding the influence of noise. A live view image that is easy to view without being too bright can be obtained.

<フローチャートの説明>
図9は、第一の実施形態において撮像装置1の制御部70が実行する撮影動作の流れを説明するフローチャートである。制御部70は、不図示のON-OFFスイッチが電源オン操作され、撮像装置1の各部に対して通電が行われている場合に、図9による処理を繰り返し起動させる。図9のステップS101において、制御部70は、注目領域80および周辺領域90用のフレームレート、ゲインなどの制御パラメータをそれぞれ決定してステップS102へ進む。例えば、後述するステップS102、S110において適用する値を、プログラムデータから読み出して用意しておく。
<Description of flowchart>
FIG. 9 is a flowchart for describing the flow of the photographing operation executed by the control unit 70 of the imaging device 1 in the first embodiment. The control unit 70 repeatedly activates the processing of FIG. 9 when an unillustrated ON-OFF switch is turned on and energization is performed for each unit of the imaging apparatus 1. In step S101 of FIG. 9, the control unit 70 determines control parameters such as a frame rate and a gain for the attention area 80 and the peripheral area 90, and proceeds to step S102. For example, values to be applied in steps S102 and S110, which will be described later, are read out from the program data and prepared.

ステップS102において、制御部70は駆動部21へ指示を送り、撮像部20によるライブビュー撮像を開始させる。ステップS102で開始するライブビュー画像の取得は、例えば撮像素子100の撮像面の略全域を対象に周辺領域90用の制御パラメータを設定して行う。   In step S <b> 102, the control unit 70 sends an instruction to the drive unit 21 to start live view imaging by the imaging unit 20. Acquisition of the live view image starting in step S102 is performed, for example, by setting control parameters for the peripheral region 90 for substantially the entire imaging surface of the imaging device 100.

ステップS103において、制御部70は駆動部21へ指示を送り、撮像部20から第1データの転送を行わせる。第1データは、上記時刻t1において読み出す画素信号A(=a)に対応する。ステップS104において、制御部70は、撮像部20から出力される画素信号Aに基づくライブビュー画像データを画像処理部30により画像処理させた後、表示部50に表示させる。   In step S <b> 103, the control unit 70 sends an instruction to the drive unit 21 to transfer the first data from the imaging unit 20. The first data corresponds to the pixel signal A (= a) read out at the time t1. In step S <b> 104, the control unit 70 causes the image processing unit 30 to perform image processing on live view image data based on the pixel signal A output from the imaging unit 20, and then causes the display unit 50 to display the live view image data.

ステップS105において、制御部70は駆動部21へ指示を送り、撮像部20から第2データの転送を行わせる。第2データは、上記時刻t2において読み出す画素信号B(=a+b)に対応する。ステップS106において、制御部70は、AF演算領域を対象に、画素信号Bに基づくAF演算(焦点調節状態の検出)をAF演算部71に行わせる。これにより、撮像光学系10の焦点調節を行える。なお、電源オン操作後最初のフレームにおいてはAF演算領域が未決定であるので、撮像素子100の撮像面の略全域を対象にAF演算を行うものとする。   In step S <b> 105, the control unit 70 sends an instruction to the drive unit 21 to transfer the second data from the imaging unit 20. The second data corresponds to the pixel signal B (= a + b) read out at the time t2. In step S <b> 106, the control unit 70 causes the AF calculation unit 71 to perform AF calculation (detection of a focus adjustment state) based on the pixel signal B for the AF calculation region. Thereby, the focus of the imaging optical system 10 can be adjusted. Note that since the AF calculation area is not determined in the first frame after the power-on operation, the AF calculation is performed on substantially the entire imaging surface of the image sensor 100.

ステップS107において、制御部70は画像処理部30へ指示を送り、ライブビュー画像から主要被写体領域を抽出させる。ステップS108において、制御部70は、主要被写体を含む領域を注目領域80とし、この注目領域80をAF演算領域に決定してステップS109へ進む。AF演算領域は、次フレームで取得されるライブビュー画像に対して適用する。   In step S107, the control unit 70 sends an instruction to the image processing unit 30 to extract the main subject region from the live view image. In step S108, the control unit 70 sets an area including the main subject as the attention area 80, determines the attention area 80 as an AF calculation area, and proceeds to step S109. The AF calculation area is applied to the live view image acquired in the next frame.

ステップS109において、制御部70は、レリーズ操作されたか否かを判定する。レリーズ操作は、撮像装置1に対する本撮像指示として用いられる。制御部70は、不図示のレリーズボタンが押下操作された場合に、ステップS109を肯定判定してステップS110へ進み、押下操作が行われない場合には、ステップS109を否定判定してステップS112へ進む。   In step S109, the control unit 70 determines whether a release operation has been performed. The release operation is used as a main imaging instruction for the imaging apparatus 1. When a release button (not shown) is pressed down, the control unit 70 makes a positive determination in step S109 and proceeds to step S110. When the release operation is not performed, the control unit 70 makes a negative determination in step S109 and proceeds to step S112. move on.

なお、液晶表示パネル51に表示させたレリーズアイコンに対するタップ操作を検出して本撮像指示を判断する場合には、表示中のレリーズアイコンがタップ操作された場合にステップS109を肯定判定すればよい。   Note that when a tap operation on the release icon displayed on the liquid crystal display panel 51 is detected to determine the main imaging instruction, an affirmative determination may be made in step S109 when the displayed release icon is tapped.

ステップS110において、制御部70は駆動部21へ指示を送り、第1データ(画素信号A(=a))に基づいて決定した撮影用の露出条件に必要な制御パラメータ(露光時間、ゲインなど)を設定してステップS111へ進む。   In step S110, the control unit 70 sends an instruction to the drive unit 21, and control parameters (exposure time, gain, etc.) necessary for the exposure conditions for photographing determined based on the first data (pixel signal A (= a)). Is set and the process proceeds to step S111.

ステップS111において、制御部70は撮影処理を実行し、取得された画像のデータを記録部60によってメモリカードなどに記憶させて、ステップS102へ戻る。撮影処理では、撮像素子100の全領域で共通(同じ)に設定した撮影用の制御パラメータを適用して、1コマの静止画像を取得(本撮像)、記録するとともに、静止画像を取得した後も複数フレームの画像を取得する。そして、レリーズ操作の前後所定時間の間に取得した複数フレームの画像に基づいて、スロー再生動画データを生成、記録する。スロー再生動画データは、撮像素子100で取得した際のフレームレート(例えば30fps)より遅いフレームレート(例えば15fps)で再生する動画像のデータをいう。   In step S111, the control unit 70 performs a photographing process, stores the acquired image data in a memory card or the like by the recording unit 60, and returns to step S102. In the shooting process, after applying a shooting control parameter set in common (same) to all areas of the image sensor 100 to acquire (main image) and record a single frame, and after acquiring a still image Also get multi-frame images. Then, based on the images of a plurality of frames acquired during a predetermined time before and after the release operation, slow reproduction moving image data is generated and recorded. Slow playback moving image data refers to moving image data that is played back at a frame rate (for example, 15 fps) slower than the frame rate (for example, 30 fps) obtained by the image sensor 100.

制御部70は、以下のようにスロー再生動画データを生成する。すなわち、レリーズ操作時刻(txとする)より先撮り時間前(例えば0.6秒前)から時刻txまでに、上述したライブビュー画像の表示のためにワークメモリ40に一時的に記憶された第1データ(画素信号A(=a))に基づく複数のフレーム画像(例えばフレームレートが30fpsで取得された場合の0.6秒分は18フレームである)、および時刻txから時刻txより後撮り時間後(例えば0.4秒後)までにワークメモリ40に記憶された第1データ(画素信号A(=a))に基づく複数のフレーム画像(例えばフレームレートが30fpsで取得された場合の0.4秒分は12フレームである)に基づいて、スロー再生動画データを生成する。これにより、時刻txを挟む1秒間(時刻txの0.6秒前から時刻txの0.4秒後)にワークメモリ40に記憶された複数のフレーム画像(計30枚)に基づいて、再生時間が約2秒間のスロー再生動画データを生成する。このように、レリーズ操作前後に取得したフレーム画像に基づくスロー再生動画データが得られる。なお、スロー再生動画データは、画像処理部30によりMPEGデータまたはJPEGデータとして生成される。   The control unit 70 generates slow playback moving image data as follows. That is, the first time temporarily stored in the work memory 40 for displaying the above-described live view image from the release operation time (tx) before the pre-shooting time (for example, 0.6 seconds before) to the time tx. A plurality of frame images based on one data (pixel signal A (= a)) (for example, 0.6 frames when the frame rate is acquired at 30 fps is 18 frames), and later shots from time tx to time tx 0 when a plurality of frame images (for example, the frame rate is acquired at 30 fps) based on the first data (pixel signal A (= a)) stored in the work memory 40 by the time (for example, after 0.4 seconds) Slow playback moving image data is generated on the basis of 12 frames for 4 seconds). As a result, playback is performed based on a plurality of frame images (a total of 30 images) stored in the work memory 40 for one second (0.6 seconds before time tx to 0.4 seconds after time tx) with time tx interposed therebetween. Slow playback moving image data having a time of about 2 seconds is generated. In this way, slow playback moving image data based on frame images acquired before and after the release operation is obtained. The slow playback moving image data is generated by the image processing unit 30 as MPEG data or JPEG data.

上述したステップS109を否定判定して進むステップS112において、制御部70は、電源オフ操作されたか否かを判定する。制御部70は、不図示のON-OFFスイッチが電源オフ操作された場合にステップS112を肯定判定し、所定の電源オフ処理を行って図9による処理を終了する。制御部70は、不図示のON-OFFスイッチが電源オフ操作されない場合には、ステップS112を否定判定してステップS102へ戻る。ステップS102へ戻る場合は、上述した処理を繰り返す。   In step S112, which proceeds after making a negative determination in step S109 described above, the control unit 70 determines whether or not a power-off operation has been performed. The controller 70 makes an affirmative determination in step S112 when an unillustrated ON-OFF switch is turned off, performs a predetermined power-off process, and ends the process of FIG. If the unillustrated ON-OFF switch is not operated to turn off the power, the controller 70 makes a negative determination in step S112 and returns to step S102. When returning to step S102, the above-described processing is repeated.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)撮像素子100は、光電変換を行う複数の画素からのデータを入力するデマルチプレクサ413と、上記入力データを画素別に格納する画素メモリ414と、画素メモリ414に格納されているデータおよび上記入力データを画素別に加算する加算器416と、上記入力データまたは加算器416により加算されたデータを出力する演算回路415と、を備えるようにした。これにより、光電変換データを適切に処理できるから、撮像素子100の使い勝手をよくすることができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The image sensor 100 includes a demultiplexer 413 that inputs data from a plurality of pixels that perform photoelectric conversion, a pixel memory 414 that stores the input data for each pixel, data stored in the pixel memory 414, and the above An adder 416 for adding the input data for each pixel and an arithmetic circuit 415 for outputting the input data or the data added by the adder 416 are provided. Thereby, since photoelectric conversion data can be processed appropriately, the usability of the image sensor 100 can be improved.

(2)画素メモリ414は、加算器416により加算されたデータを画素別に格納するようにしたので、入力データを積算することが可能になる。これにより、光電変換データを積算して出力させたり、積算しないで出力させたりすることができる。 (2) Since the pixel memory 414 stores the data added by the adder 416 for each pixel, the input data can be integrated. Thereby, photoelectric conversion data can be integrated and output, or can be output without integration.

(3)加算器416は、光電変換時間が異なるデータを画素別に加算するようにしたので、光電変換時間を長く変更した場合に相当するデータが得られる。 (3) Since the adder 416 adds data with different photoelectric conversion times for each pixel, data corresponding to a case where the photoelectric conversion time is changed to be longer can be obtained.

(4)画素からのデータが入力されるタイミングで、画素メモリ414に格納されているデータを読み出させるとともに加算器416に加算をさせる駆動制御部417を備えるようにしたので、適切なタイミングで制御できる。 (4) Since the drive control unit 417 that reads the data stored in the pixel memory 414 and adds the adder 416 to the data at the timing when the data from the pixel is input is provided. Can be controlled.

(5)演算回路415から出力されるデータが上記入力データである場合に露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示を行い、演算回路415から出力されるデータが加算データである場合に焦点検出処理を行うようにしたので、光電変換データと、これを用いる処理とを適切に組み合わせできる。 (5) When the data output from the arithmetic circuit 415 is the input data, exposure calculation, determination of the white balance adjustment value, and display of the live view image are performed, and the data output from the arithmetic circuit 415 is addition data. Since focus detection processing is performed in some cases, photoelectric conversion data and processing using the data can be appropriately combined.

(6)演算回路415から上記入力データを出力させるか、または加算データを出力させるかを、入力データによって構成される画像を解析して決定するようにしたので、画像に応じて適切な光電変換データを出力させることができる。 (6) Since it is determined by analyzing the image constituted by the input data whether to output the input data or the addition data from the arithmetic circuit 415, appropriate photoelectric conversion according to the image Data can be output.

(7)上記決定では、画像の主要被写体領域に対応する画素については加算データを出力させ、画像の主要被写体領域以外の領域に対応する画素について入力データを出力させるようにしたので、適切な光電変換データを出力させることができる。 (7) In the above determination, addition data is output for pixels corresponding to the main subject area of the image, and input data is output for pixels corresponding to areas other than the main subject area of the image. Conversion data can be output.

(8)複数の画素を有する撮像チップ113と、光電変換データを処理するメモリチップ112とを積層したので、各チップを面方向に大きくすることなく、撮像素子100をコンパクトに構成できる。 (8) Since the imaging chip 113 having a plurality of pixels and the memory chip 112 for processing photoelectric conversion data are stacked, the imaging element 100 can be configured compactly without increasing the size of each chip in the surface direction.

(9)電子機器の一例である撮像装置1は、光電変換データを処理するメモリチップ112と、複数の画素を有する撮像チップ113とを備えたので、光電変換データを適切に処理して使い勝手のよい撮像装置1を提供できる。 (9) Since the imaging device 1 as an example of the electronic device includes the memory chip 112 that processes the photoelectric conversion data and the imaging chip 113 having a plurality of pixels, the photoelectric conversion data is appropriately processed and is easy to use. A good imaging device 1 can be provided.

(第二の実施形態)
第一の実施形態では、画面を注目領域80と周辺領域90とに分け、本撮像の指示前において、注目領域80と周辺領域90とで異なる蓄積時間の画像を得る例を説明したが、第二の実施形態では、画面を明部領域85と暗部領域95とに分け、本撮像の指示後において、明部領域85と暗部領域95とで異なる蓄積時間の画像を得る。ここで、明部領域85は、例えばライブビュー画像を解析して所定の画素信号値より高い値(所定の輝度値より高い)の画素信号で構成される領域とする。暗部領域95は、明部領域85以外の領域とする。
(Second embodiment)
In the first embodiment, an example in which the screen is divided into the attention area 80 and the peripheral area 90 and images having different accumulation times are obtained in the attention area 80 and the peripheral area 90 before the instruction for the main imaging has been described. In the second embodiment, the screen is divided into a bright area 85 and a dark area 95, and images having different accumulation times are obtained in the bright area 85 and the dark area 95 after an instruction for the main imaging. Here, for example, the bright area 85 is an area constituted by pixel signals having a value higher than a predetermined pixel signal value (higher than a predetermined luminance value) by analyzing a live view image. The dark area 95 is an area other than the bright area 85.

第二の実施形態による撮像装置1は、明部領域85において第1蓄積時間で蓄積された画素信号による画像と、暗部領域95において第2蓄積時間で蓄積された画素信号による画像とを取得し、両画像を合成してダイナミックレンジが広い画像を得る。このため、制御部70は、記録用画像を取得する際に駆動部21へ指示を送り、撮像素子100(撮像チップ113)の暗部領域95から、第1蓄積時間経過後の画素信号と第2蓄積時間経過後の画素信号とを複数回に分けて読み出す。   The imaging device 1 according to the second embodiment acquires an image based on pixel signals accumulated in the bright area 85 during the first accumulation time and an image based on pixel signals accumulated in the dark area 95 during the second accumulation time. The two images are combined to obtain an image with a wide dynamic range. For this reason, the control unit 70 sends an instruction to the driving unit 21 when acquiring the recording image, and the pixel signal after the first accumulation time has passed from the dark region 95 of the imaging device 100 (imaging chip 113) and the second. The pixel signal after the accumulation time has elapsed is read out in a plurality of times.

<蓄積時間が異なる画素信号の読み出し>
画素信号の読み出しタイミングと、撮像チップ113における蓄積信号と、演算回路415を介して撮像素子100から読み出される画素信号とを、図8を参照して説明する。
<Reading out pixel signals with different accumulation times>
The pixel signal readout timing, the accumulation signal in the imaging chip 113, and the pixel signal read out from the imaging device 100 via the arithmetic circuit 415 will be described with reference to FIG.

駆動部21は、以下のように撮像素子100を制御する。すなわち、本撮像指示後の記録用画像の蓄積開始時刻t0から時刻t1までを上記第1蓄積時間とし、時刻t0から時刻t2までを上記第2蓄積時間とする。駆動部21は、時刻t0において、上記明部領域85および暗部領域95に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t1において、図5に例示した画素メモリnに格納されている画素信号を読み出さないように画素メモリ414を制御しながら、上記明部領域85および暗部領域95から画素信号を出力させる。これにより、第1蓄積時間(時刻t0から時刻t1)の間に蓄積された画素信号aがデマルチプレクサ413から出力され、そのまま信号Aとして演算回路415を介して出力される。この画素信号A(=a)は、画素メモリnにも格納される。   The drive unit 21 controls the image sensor 100 as follows. That is, the recording image storage start time t0 to t1 after the main imaging instruction is set as the first storage time, and the time t0 to time t2 is set as the second storage time. The drive unit 21 starts charge accumulation for the pixels included in the bright region 85 and the dark region 95 at time t0. At time t1, pixel signals are output from the bright area 85 and the dark area 95 while controlling the pixel memory 414 so as not to read out the pixel signals stored in the pixel memory n illustrated in FIG. As a result, the pixel signal a accumulated during the first accumulation time (from time t0 to time t1) is output from the demultiplexer 413, and is directly output as the signal A via the arithmetic circuit 415. This pixel signal A (= a) is also stored in the pixel memory n.

駆動部21はさらに、時刻t1において上記画素信号の読み出しを行うと、ただちに上記暗部領域95に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t2において、図5に例示した画素メモリnに格納されている画素信号aを読み出すように画素メモリ414を制御しながら、上記暗部領域95から画素信号を出力させる。これにより、時刻t1から時刻t2までの間に蓄積された画素信号bがデマルチプレクサ413から出力され、この画素信号bと、画素メモリnから読み出された画素信号aとが加算器nで加算される。加算後の画素信号a+bは、信号Bとして演算回路415を介して出力される。画素信号B(=a+b)は、時刻t0から時刻t1までと、時刻t1から時刻t2までに蓄積された画素信号の和であるため、第2蓄積時間(時刻t0から時刻t2)の間に蓄積される画素信号に相当する。   Furthermore, when the driving unit 21 reads out the pixel signal at time t1, the driving unit 21 immediately starts charge accumulation for the pixels included in the dark region 95. At time t2, the pixel signal is output from the dark area 95 while controlling the pixel memory 414 so as to read out the pixel signal a stored in the pixel memory n illustrated in FIG. As a result, the pixel signal b accumulated from time t1 to time t2 is output from the demultiplexer 413, and this pixel signal b and the pixel signal a read from the pixel memory n are added by the adder n. Is done. The pixel signal a + b after the addition is output as the signal B through the arithmetic circuit 415. Since the pixel signal B (= a + b) is the sum of the pixel signals accumulated from the time t0 to the time t1 and from the time t1 to the time t2, it is accumulated during the second accumulation time (time t0 to time t2). This corresponds to the pixel signal to be processed.

上述したように、第二の実施形態では、第1蓄積時間より長い第2蓄積時間で蓄積された画素信号Bで暗部領域95の画像を形成するので、蓄積時間が短く信号レベルが低い画素信号Aで暗部領域95の画像を形成する場合に比べて、画像の黒潰れを生じにくい。また、第2蓄積時間より短い第1蓄積時間で蓄積された画素信号Aで明部領域85の画像を形成するので、蓄積時間が長く信号レベルが高い画素信号Bで明部領域85の画像を形成する場合に比べて、画像の白飛びが生じにくい。この結果、明部から暗部までのダイナミックレンジの広い画像が、時刻t0から時刻t2までの蓄積処理を1回行うだけで得られる。また、第1蓄積時間と第2蓄積時間とで蓄積開始時刻が同じ(ともに時刻t0)であるので、開示蓄積開始時刻が異なる複数枚の画像を合成する従来技術と違って、動いている被写体を撮影する場合にも好適である。   As described above, in the second embodiment, since the image of the dark area 95 is formed by the pixel signal B accumulated in the second accumulation time longer than the first accumulation time, the pixel signal having a short accumulation time and a low signal level is formed. Compared with the case where an image of the dark area 95 is formed with A, the image is less likely to be black. Further, since the image of the bright area 85 is formed by the pixel signal A accumulated in the first accumulation time shorter than the second accumulation time, the image of the bright area 85 is formed by the pixel signal B having a long accumulation time and a high signal level. As compared with the case of forming, whiteout of an image is less likely to occur. As a result, an image having a wide dynamic range from the bright part to the dark part can be obtained by performing the accumulation process from time t0 to time t2 only once. In addition, since the first accumulation time and the second accumulation time have the same accumulation start time (both are time t0), the moving subject differs from the conventional technique in which a plurality of images having different disclosure accumulation start times are combined. It is also suitable for shooting.

<フローチャートの説明>
図10は、第二の実施形態において撮像装置1の制御部70が実行する撮影動作の流れを説明するフローチャートである。制御部70は、不図示のON-OFFスイッチが電源オン操作され、撮像装置1の各部に対して通電が行われている場合に、図10による処理を繰り返し起動させる。図10のステップS201において、制御部70は、明部領域85および暗部領域95用のフレームレート、ゲインなどの制御パラメータをそれぞれ決定してステップS202へ進む。例えば、後述するステップS202、S205、S208において適用する値を、プログラムデータから読み出して用意しておく。
<Description of flowchart>
FIG. 10 is a flowchart for describing the flow of the photographing operation executed by the control unit 70 of the imaging device 1 in the second embodiment. The control unit 70 repeatedly activates the process of FIG. 10 when an unillustrated ON-OFF switch is turned on and energization is performed for each unit of the imaging apparatus 1. In step S201 in FIG. 10, the control unit 70 determines control parameters such as a frame rate and a gain for the bright region 85 and the dark region 95, and proceeds to step S202. For example, values to be applied in steps S202, S205, and S208 described later are read out from the program data and prepared.

ステップS202において、制御部70は駆動部21へ指示を送り、撮像部20によるライブビュー撮像を開始させる。ステップS202で開始するライブビュー画像の取得は、例えば撮像素子100の撮像面の略全域を対象に暗部領域95用の制御パラメータを設定して行う。   In step S <b> 202, the control unit 70 sends an instruction to the drive unit 21 to start live view imaging by the imaging unit 20. The acquisition of the live view image starting in step S202 is performed by setting control parameters for the dark region 95, for example, over substantially the entire imaging surface of the imaging device 100.

ステップS203において、制御部70は、ライブビュー画像に基づいて明部領域85および暗部領域95を判定してステップS204へ進む。ステップS204において、制御部70は、レリーズ操作されたか否かを判定する。レリーズ操作は、撮像装置1に対する本撮像指示として用いられる。制御部70は、不図示のレリーズボタンが押下操作された場合に、ステップS204を肯定判定してステップS205へ進み、押下操作が行われない場合には、ステップS204を否定判定してステップS211へ進む。   In step S203, the control unit 70 determines the bright area 85 and the dark area 95 based on the live view image, and proceeds to step S204. In step S204, the control unit 70 determines whether a release operation has been performed. The release operation is used as a main imaging instruction for the imaging apparatus 1. If a release button (not shown) is pressed, the control unit 70 makes a positive determination in step S204 and proceeds to step S205. If no release operation is performed, the control unit 70 makes a negative determination in step S204 and proceeds to step S211. move on.

なお、液晶表示パネル51に表示させたレリーズアイコンに対するタップ操作を検出して本撮像指示を判断する場合には、表示中のレリーズアイコンがタップ操作された場合にステップS204を肯定判定すればよい。   When a tap operation on the release icon displayed on the liquid crystal display panel 51 is detected to determine the main imaging instruction, an affirmative determination may be made in step S204 when the currently displayed release icon is tapped.

ステップS205において、制御部70は駆動部21へ指示を送り、撮像部20による記録用撮像を開始させる。ステップS205で開始する記録用画像の取得は、例えば撮像素子100の撮像面の略全域を対象に明部領域85用の制御パラメータを設定して行う。   In step S <b> 205, the control unit 70 sends an instruction to the driving unit 21 to start recording imaging by the imaging unit 20. Acquisition of the recording image starting in step S205 is performed by setting control parameters for the bright area 85, for example, over substantially the entire imaging surface of the imaging device 100.

ステップS206において、制御部70は駆動部21へ指示を送り、撮像部20から第1データの転送を行わせる。第1データは、上記時刻t1において読み出す画素信号A(=a)に対応する。ステップS207において、制御部70は、画像処理部30へ指示を送り、第1データのうち明部領域85に対応するデータをワークメモリ40に一時格納してステップS208へ進む。   In step S <b> 206, the control unit 70 sends an instruction to the driving unit 21 to transfer the first data from the imaging unit 20. The first data corresponds to the pixel signal A (= a) read out at the time t1. In step S207, the control unit 70 sends an instruction to the image processing unit 30, temporarily stores the data corresponding to the bright area 85 in the first data in the work memory 40, and proceeds to step S208.

ステップS208において、制御部70は駆動部21へ指示を送り、撮像部20から第2データの転送を行わせる。第2データは、上記時刻t2において読み出す画素信号B(=a+b)に対応する。ステップS209において、制御部70は、画像処理部30へ指示を送り、第2データ(すなわち暗部領域95に対応するデータ)をワークメモリ40に一時格納してステップS210へ進む。   In step S <b> 208, the control unit 70 sends an instruction to the drive unit 21 to transfer the second data from the imaging unit 20. The second data corresponds to the pixel signal B (= a + b) read out at the time t2. In step S209, the control unit 70 sends an instruction to the image processing unit 30, temporarily stores the second data (that is, data corresponding to the dark area 95) in the work memory 40, and proceeds to step S210.

ステップS210において、制御部70は画像処理部30へ指示を送り、ワークメモリ40に一時格納されている第1データおよび第2データを画像合成する。具体的には、第1データによる画像のうち、暗部領域95に対応する領域を第2データによる画像で置換する。これにより、暗部領域95は画素信号B(=a+b)で構成され、明部領域は画素信号A(=a)で構成される合成画像が得られる。制御部70は、画像合成が終了するとステップS202へ戻る。ステップS202へ戻る場合は、上述した処理を繰り返す。   In step S210, the control unit 70 sends an instruction to the image processing unit 30, and synthesizes the first data and the second data temporarily stored in the work memory 40. Specifically, the area corresponding to the dark area 95 in the image based on the first data is replaced with the image based on the second data. Thereby, the dark part area | region 95 is comprised by the pixel signal B (= a + b), and the synthetic | combination image comprised by the bright part area | region is comprised by the pixel signal A (= a) is obtained. When the image composition is completed, the control unit 70 returns to step S202. When returning to step S202, the above-described processing is repeated.

上述したステップS204を否定判定して進むステップS211において、制御部70は、電源オフ操作されたか否かを判定する。制御部70は、不図示のON-OFFスイッチが電源オフ操作された場合にステップS211を肯定判定し、所定の電源オフ処理を行って図10による処理を終了する。制御部70は、不図示のON-OFFスイッチが電源オフ操作されない場合には、ステップS211を否定判定してステップS202へ戻る。   In step S211, which proceeds after making a negative determination in step S204 described above, the control unit 70 determines whether or not a power-off operation has been performed. The controller 70 makes an affirmative determination in step S211 when an unillustrated ON-OFF switch is turned off, performs a predetermined power-off process, and ends the process of FIG. When the unillustrated ON-OFF switch is not operated to turn off the power, the control unit 70 makes a negative determination in step S211 and returns to step S202.

以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)撮像素子100は、演算回路415から出力されるデータがデマルチプレクサ413に入力されたデータである場合に画像の明部領域85を形成し、演算回路415から出力されるデータが加算器416により加算されたデータである場合に画像の暗部領域95を形成するようにしたので、光電変換データと、これを用いる処理とを適切に組み合わせて広いダイナミックレンジの画像を得ることができる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) When the data output from the arithmetic circuit 415 is the data input to the demultiplexer 413, the image sensor 100 forms the bright area 85 of the image, and the data output from the arithmetic circuit 415 is the adder. Since the dark area 95 of the image is formed in the case of the data added by 416, an image with a wide dynamic range can be obtained by appropriately combining the photoelectric conversion data and the processing using the data.

(2)演算回路415から上記入力データを出力させるか、または加算データを出力させるかを、入力データによって構成される画像を解析して決定するようにしたので、画像に応じて適切な光電変換データを出力させることができる。 (2) Since the operation circuit 415 determines whether to output the input data or the addition data by analyzing the image constituted by the input data, appropriate photoelectric conversion according to the image Data can be output.

(3)上記決定では、画像の輝度が所定値より高い領域に対応する画素については上記入力データを出力させ、画像の輝度が所定値より低い領域に対応する画素について上記加算されたデータを出力させるようにしたので、適切な光電変換データを出力させることができる。 (3) In the determination, the input data is output for the pixels corresponding to the region where the luminance of the image is higher than the predetermined value, and the added data is output for the pixels corresponding to the region where the luminance of the image is lower than the predetermined value. Therefore, appropriate photoelectric conversion data can be output.

(変形例1)
上述した第一の実施形態および第二の実施形態に係る撮像装置1を、高機能携帯電話機、またはタブレット端末によって構成してもよい。この場合、高機能携帯電話機(またはタブレット端末)に搭載されるカメラユニットを、上記積層型撮像素子100を用いて構成する。
(Modification 1)
You may comprise the imaging device 1 which concerns on 1st embodiment mentioned above and 2nd embodiment with a highly functional mobile telephone or a tablet terminal. In this case, a camera unit mounted on a high-function mobile phone (or tablet terminal) is configured using the multilayer image sensor 100.

(変形例2)
上述した第二の実施形態では、画像処理部30が、ワークメモリ40に一時格納されている第1データおよび第2データを用いて画像合成する例を説明した。この代わりに、図4および図5に例示した画素メモリ414および加算器416を用いて画像合成を行うように構成してもよい。例えば、時刻t1における画素信号の読み出しの際、撮像素子100から明部領域85に対応する画素信号Aのみを選択的に読み出すように制御する。また、時刻t2における画素信号の読み出しの際、撮像素子100から暗部領域95に対応する画素信号Bのみを選択的に読み出すように制御する。
(Modification 2)
In the second embodiment described above, the example in which the image processing unit 30 performs image synthesis using the first data and the second data temporarily stored in the work memory 40 has been described. Instead of this, image composition may be performed using the pixel memory 414 and the adder 416 illustrated in FIGS. 4 and 5. For example, when reading the pixel signal at time t1, control is performed so that only the pixel signal A corresponding to the bright area 85 is selectively read from the image sensor 100. Further, when reading the pixel signal at time t2, control is performed so that only the pixel signal B corresponding to the dark area 95 is selectively read from the image sensor 100.

(変形例3)
上述した第一の実施形態、および第二の実施形態では、撮像素子100(撮像チップ113)の所定の領域から、第1蓄積時間経過後の画素信号と、第2蓄積時間経過後の画素信号とを2回に分けて読み出す例を説明した。複数回の読み出し回数は、上述した2回だけでなく、3回でも4回でもそれ以上であってもよい。
(Modification 3)
In the first embodiment and the second embodiment described above, the pixel signal after the first accumulation time and the pixel signal after the second accumulation time have elapsed from the predetermined region of the image sensor 100 (image pickup chip 113). The example in which and are read in two steps has been described. The number of times of reading a plurality of times is not limited to two times as described above, but may be three times, four times, or more.

また、本撮像の指示前に複数回に分けて読み出した画像については、それぞれAF演算に用いる画像、露出演算、ホワイトバランス調整値の決定に用いる画像、主要被写体の抽出に用いる画像、ライブビュー表示に用いる画像などとして、その用途を分けてもよい。また、本撮像の指示後に複数回に分けて読み出した画像については、それぞれ、きわめて明部領域、明部領域、暗部領域、きわめて暗部領域などとして、その用途を画像の明るさ別に分けてもよい。   In addition, for images read out multiple times before the main imaging instruction, an image used for AF calculation, an exposure calculation, an image used for determining a white balance adjustment value, an image used for extracting a main subject, a live view display, respectively The application may be divided as an image used for the image. In addition, for images read out in a plurality of times after the instruction for the main imaging, the usage may be divided according to the brightness of the image as a very bright region, a bright region, a dark region, a very dark region, etc. .

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。上記各実施形態および各変形例の構成は、適宜組合せて構わない。   The above description is merely an example, and is not limited to the configuration of the above embodiment. The configurations of the above embodiments and modifications may be combined as appropriate.

1…撮像装置
10…撮像光学系
20…撮像部
30…画像処理部
40…ワークメモリ
50…表示部
51…液晶表示パネル
52…タッチパネル
60…記録部
70…制御部
71…AF演算部
72…AE、AWB演算部
100…撮像素子
109…バンプ
111…信号処理チップ
112…メモリチップ
113…撮像チップ
131…単位領域
413…デマルチプレクサ
414…画素メモリ
415…演算回路
416…加算器
417…駆動制御部
DESCRIPTION OF SYMBOLS 1 ... Imaging device 10 ... Imaging optical system 20 ... Imaging part 30 ... Image processing part 40 ... Work memory 50 ... Display part 51 ... Liquid crystal display panel 52 ... Touch panel 60 ... Recording part 70 ... Control part 71 ... AF calculating part 72 ... AE , AWB arithmetic unit 100 ... imaging element 109 ... bump 111 ... signal processing chip 112 ... memory chip 113 ... imaging chip 131 ... unit area 413 ... demultiplexer 414 ... pixel memory 415 ... arithmetic circuit 416 ... adder 417 ... drive control part

Claims (12)

光が入射される第1領域に配置され、光を電荷に変換する第1光電変換部と、
光が入射される第2領域に配置され、光を電荷に変換する第2光電変換部と、
前記第1光電変換部で変換された電荷により生成される第1信号と第1メモリ部に記憶された第2信号とにより第3信号を生成するための第1信号処理部と、
前記第2光電変換部で変換された電荷により生成される第4信号と第2メモリ部に記憶された第5信号とにより第6信号を生成するための第2信号処理部と、
を備える撮像素子。
A first photoelectric conversion unit that is disposed in a first region where light is incident and converts the light into an electric charge;
A second photoelectric conversion unit that is disposed in the second region where the light is incident and converts the light into an electric charge;
A first signal processing unit for generating a third signal from a first signal generated by the electric charge converted by the first photoelectric conversion unit and a second signal stored in the first memory unit;
A second signal processing unit for generating a sixth signal from the fourth signal generated by the electric charge converted by the second photoelectric conversion unit and the fifth signal stored in the second memory unit;
An imaging device comprising:
前記第1光電変換部は、前記第1領域において第1方向と前記第1方向に交差する第2方向とに複数配置され、
前記第2光電変換部は、前記第2領域において前記第1方向と前記第2方向とに複数配置される請求項1に記載の撮像素子。
A plurality of the first photoelectric conversion units are arranged in a first direction and a second direction intersecting the first direction in the first region,
The imaging device according to claim 1, wherein a plurality of the second photoelectric conversion units are arranged in the first direction and the second direction in the second region.
前記第1光電変換部の電荷を転送するための第1制御信号が出力される第1制御線と、
前記第2光電変換部の電荷を転送するための第2制御信号が出力される第2制御線と、を備え、
前記第1制御信号が前記第1制御線に出力されるタイミングは、前記第2制御信号が前記第2制御線に出力されるタイミングとは異なる請求項1又は請求項2に記載の撮像素子。
A first control line for outputting a first control signal for transferring the charge of the first photoelectric conversion unit;
A second control line for outputting a second control signal for transferring the charge of the second photoelectric conversion unit,
The imaging device according to claim 1, wherein a timing at which the first control signal is output to the first control line is different from a timing at which the second control signal is output to the second control line.
前記第1制御線に接続され、前記第1制御信号により前記第1光電変換部の電荷を転送する第1転送部と、
前記第2制御線に接続され、前記第2制御信号により前記第2光電変換部の電荷を転送する第2転送部と、を備える請求項3に記載の撮像素子。
A first transfer unit connected to the first control line and transferring a charge of the first photoelectric conversion unit according to the first control signal;
The imaging device according to claim 3, further comprising: a second transfer unit that is connected to the second control line and transfers a charge of the second photoelectric conversion unit according to the second control signal.
前記第1転送部は、前記第1光電変換部ごとに配置され、
前記第2転送部は、前記第2光電変換部ごとに配置される請求項4に記載の撮像素子。
The first transfer unit is arranged for each first photoelectric conversion unit,
The imaging device according to claim 4, wherein the second transfer unit is arranged for each of the second photoelectric conversion units.
前記第1信号処理部は、前記第3信号を生成するための第1信号処理回路を有し、
前記第2信号処理部は、前記第6信号を生成するための第2信号処理回路を有する請求項1から請求項5のいずれか一項に記載の撮像素子。
The first signal processing unit includes a first signal processing circuit for generating the third signal,
The image sensor according to claim 1, wherein the second signal processing unit includes a second signal processing circuit for generating the sixth signal.
前記第1光電変換部及び前記第2光電変換部は、第1チップに配置され、
前記第1信号処理部及び前記第2信号処理部は、前記第1チップとは異なる第2チップに配置される請求項1から請求項6のいずれか一項に記載の撮像素子。
The first photoelectric conversion unit and the second photoelectric conversion unit are disposed on a first chip,
The imaging device according to any one of claims 1 to 6, wherein the first signal processing unit and the second signal processing unit are arranged on a second chip different from the first chip.
前記第1チップは、前記第2チップに積層されている請求項7に記載の撮像素子。   The imaging device according to claim 7, wherein the first chip is stacked on the second chip. 請求項1から請求項8のいずれか一項に記載の撮像素子を備える撮像装置。   An imaging device comprising the imaging device according to any one of claims 1 to 8. 前記第3信号及び前記第6信号により生成された画像を表示部に表示させる制御部を備える請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, further comprising a control unit that causes a display unit to display an image generated by the third signal and the sixth signal. 前記撮像素子は、フォーカスレンズを含む光学系からの光が入射され、
前記制御部は、前記第3信号及び前記第6信号のうち少なくとも一方の信号を用いて前記フォーカスレンズを駆動させる請求項10に記載の撮像装置。
The imaging element receives light from an optical system including a focus lens,
The imaging device according to claim 10, wherein the control unit drives the focus lens using at least one of the third signal and the sixth signal.
前記制御部は、前記第3信号及び前記第6信号により生成された画像データを記録部に記録させる請求項10または請求項11に記載の撮像装置。   The imaging device according to claim 10 or 11, wherein the control unit causes the recording unit to record image data generated by the third signal and the sixth signal.
JP2018086362A 2018-04-27 2018-04-27 Image sensor and image sensor Active JP6852712B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018086362A JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor
JP2021038379A JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device
JP2022180358A JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018086362A JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013052160A Division JP2014179778A (en) 2013-03-14 2013-03-14 Signal processing apparatus, imaging device, imaging apparatus, and electronic apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021038379A Division JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device

Publications (2)

Publication Number Publication Date
JP2018152869A true JP2018152869A (en) 2018-09-27
JP6852712B2 JP6852712B2 (en) 2021-03-31

Family

ID=63680635

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018086362A Active JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor
JP2021038379A Active JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device
JP2022180358A Pending JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021038379A Active JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device
JP2022180358A Pending JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Country Status (1)

Country Link
JP (3) JP6852712B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048313A (en) * 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2010021697A (en) * 2008-07-09 2010-01-28 Sony Corp Image sensor, camera, method of controlling image sensor and program
JP2013038597A (en) * 2011-08-08 2013-02-21 Olympus Imaging Corp Imaging device

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3408045B2 (en) * 1996-01-19 2003-05-19 キヤノン株式会社 Photoelectric conversion device
JP4232755B2 (en) 2005-04-05 2009-03-04 株式会社デンソー Image sensor and image sensor control method
TW201101476A (en) 2005-06-02 2011-01-01 Sony Corp Semiconductor image sensor module and method of manufacturing the same
JP4370407B2 (en) 2006-03-16 2009-11-25 国立大学法人静岡大学 Image sensor
JP2008141610A (en) 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd Solid-state imaging apparatus, and imaging system
JP4941131B2 (en) * 2007-06-30 2012-05-30 株式会社ニコン Solid-state imaging device and electronic camera
JP5104812B2 (en) * 2009-05-07 2012-12-19 ソニー株式会社 Semiconductor module
JP5168319B2 (en) * 2010-05-26 2013-03-21 ソニー株式会社 Solid-state imaging device and driving method of solid-state imaging device
JP6045156B2 (en) * 2011-05-25 2016-12-14 オリンパス株式会社 Solid-state imaging device
US9013615B2 (en) 2011-09-21 2015-04-21 Semiconductor Components Industries, Llc Image sensor with flexible interconnect capabilities
CN104704812B (en) 2012-10-05 2018-05-25 拉姆伯斯公司 Image sensor integrated circuit and the method operated wherein

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048313A (en) * 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2010021697A (en) * 2008-07-09 2010-01-28 Sony Corp Image sensor, camera, method of controlling image sensor and program
JP2013038597A (en) * 2011-08-08 2013-02-21 Olympus Imaging Corp Imaging device

Also Published As

Publication number Publication date
JP7176583B2 (en) 2022-11-22
JP2021097413A (en) 2021-06-24
JP2023010785A (en) 2023-01-20
JP6852712B2 (en) 2021-03-31

Similar Documents

Publication Publication Date Title
JP7264189B2 (en) Imaging element and imaging device
US11196923B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program
CN110086980B (en) Electronic device
JP6413233B2 (en) Imaging device and imaging device
US11785345B2 (en) Electronic device, imaging device, and imaging element for obtaining exposure of each area of image
JP2014179892A (en) Image pickup device
JP2014179778A (en) Signal processing apparatus, imaging device, imaging apparatus, and electronic apparatus
JP2015138994A (en) Electronic apparatus
JP7176583B2 (en) Imaging element and imaging device
JP2015111761A (en) Electronic apparatus
JP6349659B2 (en) Electronic device, electronic device control method, and control program
JP7247975B2 (en) Imaging element and imaging device
JP7176591B2 (en) Electronics
US20230156367A1 (en) Imaging element and imaging device
JP2018207544A (en) Imaging apparatus and imaging device
JP2021193811A (en) Image sensor and imaging device
JP2018174543A (en) Electronic apparatus
JP2018042286A (en) Electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6852712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250