JP2021097413A - Imaging element and imaging device - Google Patents

Imaging element and imaging device Download PDF

Info

Publication number
JP2021097413A
JP2021097413A JP2021038379A JP2021038379A JP2021097413A JP 2021097413 A JP2021097413 A JP 2021097413A JP 2021038379 A JP2021038379 A JP 2021038379A JP 2021038379 A JP2021038379 A JP 2021038379A JP 2021097413 A JP2021097413 A JP 2021097413A
Authority
JP
Japan
Prior art keywords
signal
pixel
image
image pickup
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021038379A
Other languages
Japanese (ja)
Other versions
JP7176583B2 (en
Inventor
徹 宮越
Toru Miyakoshi
徹 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021038379A priority Critical patent/JP7176583B2/en
Publication of JP2021097413A publication Critical patent/JP2021097413A/en
Priority to JP2022180358A priority patent/JP2023010785A/en
Application granted granted Critical
Publication of JP7176583B2 publication Critical patent/JP7176583B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To properly process photoelectric conversion data.SOLUTION: A signal processing apparatus 112 comprises: a data input unit 413 which inputs data from a plurality of pixels for performing photoelectric conversion; a memory 414 which stores the data inputted to the data input unit 413 by pixels; an addition unit 416 which adds the data stored in the memory 414 and the data input to the data input unit 413 by pixels; and a data output unit 415 which outputs the data input to the data input unit 413 or the data added by the addition unit 416.SELECTED DRAWING: Figure 4

Description

本発明は、撮像素子および撮像装置に関する。 The present invention relates to an image pickup device and an image pickup apparatus.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、積層型撮像素子という)を備えた電子機器が提案されている(特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、所定の領域ごとにマイクロバンプを介して接続されるように積層されている。 An electronic device including an image pickup device in which a back-illuminated image pickup chip and a signal processing chip are laminated (hereinafter, referred to as a stacked image pickup device) has been proposed (see Patent Document 1). In the stacked image sensor, the back-illuminated image sensor and the signal processing chip are laminated so as to be connected to each predetermined region via micro bumps.

特開2006−49361号公報Japanese Unexamined Patent Publication No. 2006-49361

従来の積層型撮像素子を備えた電子機器において、1または2以上の上記領域を有するブロックに画像を分けて、該ブロックごとに撮像画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分とはいえなかった。さらに、異なる露光条件で別々に撮像した複数枚の画像を合成する従来技術では、動いている被写体の撮影に不向きであった。 In a conventional electronic device equipped with a stacked image sensor, there are not many proposals to divide an image into blocks having one or more of the above regions and acquire an image captured for each block, and the electronic device provided with a stacked image sensor is provided. The usability of the electronic device was not sufficient. Further, the conventional technique of synthesizing a plurality of images separately captured under different exposure conditions is not suitable for photographing a moving subject.

発明の第1の態様による撮像素子は、行方向と列方向とにおいて並んで配置される複数の画素と、前記複数の画素のうち第1画素から第1出力配線に出力された第1信号をデジタル信号に変換する第1変換部と、前記複数の画素のうち、前記第1画素から前記列方向側の位置に配置される第2画素から第2出力配線に出力された第2信号をデジタル信号に変換する第2変換部と、前記第1変換部でデジタル信号に変換された前記第1信号に加算処理を行う第1加算器と、前記第2変換部でデジタル信号に変換された前記第2信号に加算処理を行う第2加算器と、を備える。
発明の第2の態様による撮像装置は、第1の態様による撮像素子を備える。
The image pickup device according to the first aspect of the present invention comprises a plurality of pixels arranged side by side in the row direction and the column direction, and a first signal output from the first pixel to the first output wiring among the plurality of pixels. The first conversion unit that converts a digital signal and the second signal output from the second pixel arranged at a position on the column direction side from the first pixel among the plurality of pixels to the second output wiring are digitally output. A second conversion unit that converts a signal, a first adder that performs addition processing on the first signal converted into a digital signal by the first conversion unit, and the digital signal converted by the second conversion unit. A second adder that performs addition processing on the second signal is provided.
The image pickup device according to the second aspect of the invention includes an image pickup device according to the first aspect.

本発明によれば、光電変換データを適切に処理できる。 According to the present invention, photoelectric conversion data can be appropriately processed.

積層型撮像素子の断面図である。It is sectional drawing of the laminated type image sensor. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement and the unit area of an image pickup chip. 撮像チップの単位領域に対応する回路図である。It is a circuit diagram corresponding to the unit area of an image pickup chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image sensor. 1画素当たりの画素信号の流れを説明する図である。It is a figure explaining the flow of the pixel signal per pixel. 撮像素子を有する撮像装置の構成を例示するブロック図である。It is a block diagram which illustrates the structure of the image pickup apparatus which has an image pickup element. 撮像素子における注目領域および周辺領域を例示する図である。It is a figure which illustrates the region of interest and the peripheral region in an image sensor. 読み出しタイミング、蓄積信号、および演算回路を介して撮像素子から読み出される画素信号を説明する図である。It is a figure explaining the reading timing, the storage signal, and the pixel signal read from an image sensor via an arithmetic circuit. 第一の実施形態の制御部が実行する撮影動作の流れを説明するフローチャートである。It is a flowchart explaining the flow of the photographing operation executed by the control unit of 1st Embodiment. 第二の実施形態の制御部が実行する撮影動作の流れを説明するフローチャートである。It is a flowchart explaining the flow of the photographing operation executed by the control unit of the 2nd Embodiment.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<積層型撮像素子の説明>
始めに、本発明の第一の実施形態による電子機器(例えば撮像装置1)に搭載する積層型撮像素子100について説明する。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。図1は、積層型撮像素子100の断面図である。撮像素子100は、入射光に対応した画素信号を出力する裏面照射型撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First Embodiment)
<Explanation of stacked image sensor>
First, the stacked image sensor 100 mounted on an electronic device (for example, an image pickup device 1) according to the first embodiment of the present invention will be described. The stacked image sensor 100 is described in Japanese Patent Application No. 2012-139026 previously filed by the applicant of the present application. FIG. 1 is a cross-sectional view of the stacked image sensor 100. The image sensor 100 includes a back-illuminated image pickup chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are laminated and electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 As shown in the figure, the incident light is mainly incident in the Z-axis plus direction indicated by the white arrow. In the present embodiment, in the image pickup chip 113, the surface on the side where the incident light is incident is referred to as the back surface. Further, as shown in the coordinate axes, the left direction of the paper surface orthogonal to the Z axis is defined as the X-axis plus direction, and the Z-axis and the front direction of the paper surface orthogonal to the X-axis are defined as the Y-axis plus direction. In some subsequent figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)104、および、PD104に対応して設けられたトランジスタ105を有する。 An example of the image pickup chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back surface side of the wiring layer 108. The PD layer 106 has a plurality of PDs (photodiodes) 104 arranged two-dimensionally and accumulating charges according to incident light, and a transistor 105 provided corresponding to the PD 104.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104およびトランジスタ105の組が、一つの画素を形成する。 A color filter 102 is provided on the incident side of the incident light in the PD layer 106 via the passivation film 103. The color filter 102 has a plurality of types that transmit different wavelength regions from each other, and has a specific arrangement corresponding to each of the PD 104. The arrangement of the color filters 102 will be described later. A set of a color filter 102, a PD 104, and a transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 A microlens 101 is provided on the incident side of the incident light in the color filter 102 corresponding to each pixel. The microlens 101 collects incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。 The wiring layer 108 has a wiring 107 that transmits a pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may have multiple layers, and may be provided with passive elements and active elements.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 A plurality of bumps 109 are arranged on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the facing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are aligned by pressurization or the like. The bumps 109 are joined together and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on the surfaces of the signal processing chip 111 and the memory chip 112 facing each other. These bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized, so that the aligned bumps 109 are joined to each other and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位領域に対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be adopted. Further, for example, about one bump 109 may be provided for one unit area described later. Therefore, the size of the bumps 109 may be larger than the pitch of the PD 104. Further, in the peripheral region other than the pixel region in which the pixels are arranged, a bump larger than the bump 109 corresponding to the pixel region may be provided together.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。 The signal processing chip 111 has TSVs (Through Silicon Vias) 110 that connect circuits provided on the front and back surfaces to each other. The TSV 110 is preferably provided in the peripheral region. Further, the TSV 110 may also be provided in the peripheral area of the image pickup chip 113 and the memory chip 112.

図2は、撮像チップ113の画素配列と単位領域131を説明する図である。特に、撮像チップ113を裏面側から観察した様子を示す。画素領域には例えば2000万個以上もの画素がマトリックス状に配列されている。本実施形態においては、例えば隣接する4画素×4画素の16画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。 FIG. 2 is a diagram illustrating a pixel arrangement and a unit area 131 of the image pickup chip 113. In particular, the state in which the image pickup chip 113 is observed from the back surface side is shown. For example, 20 million or more pixels are arranged in a matrix in the pixel area. In the present embodiment, for example, 16 pixels of adjacent 4 pixels × 4 pixels form one unit region 131. The grid lines in the figure show the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, more or less.

画素領域の部分拡大図に示すように、単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region, the unit region 131 includes four so-called Bayer arrays including four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R in the vertical and horizontal directions. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band among the incident light. Similarly, a blue pixel is a pixel having a blue filter as a color filter 102 and receives light in a blue wavelength band, and a red pixel is a pixel having a red filter as a color filter 102 and receives light in a red wavelength band. Receive light.

本実施形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義され、各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数等である。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 In the present embodiment, a plurality of blocks are defined so that each block includes at least one unit area 131, and each block can control the pixels included in each block with different control parameters. That is, it is possible to acquire an imaging signal having different imaging conditions between the pixel group included in a certain block and the pixel group included in another block. Examples of control parameters are frame rate, gain, thinning rate, number of rows or columns to be added to add pixel signals, charge accumulation time or number of times, digitization bits, and the like. Further, the control parameter may be a parameter in image processing after acquiring an image signal from a pixel.

図3は、撮像チップ113の単位領域131に対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。 FIG. 3 is a circuit diagram corresponding to the unit region 131 of the image pickup chip 113. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. At least a part of each transistor described below corresponds to the transistor 105 of FIG.

上述のように、単位領域131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続され、各転送トランジスタ302の各ゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。 As described above, the unit region 131 is formed from 16 pixels. The 16 PD 104s corresponding to the respective pixels are connected to the transfer transistor 302, and each gate of each transfer transistor 302 is connected to the TX wiring 307 to which the transfer pulse is supplied. In this embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されると共に、転送トランジスタ302のドレインとリセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFDが増幅トランジスタ304のゲートに接続される。リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続され、そのゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。 The drain of each transfer transistor 302 is connected to the source of each corresponding reset transistor 303, and the so-called floating diffusion FD between the drain of the transfer transistor 302 and the source of the reset transistor 303 is connected to the gate of the amplification transistor 304. The drain of the reset transistor 303 is connected to the Vdd wiring 310 to which the power supply voltage is supplied, and its gate is connected to the reset wiring 306 to which the reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは、電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。選択トランジスタ305の各ゲートは、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 The drain of each amplification transistor 304 is connected to the Vdd wiring 310 to which the power supply voltage is supplied. Also, the source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. Each gate of the selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In this embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. Then, the source of each selection transistor 305 is connected to the common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by the source follower. The load current source 311 may be provided on the imaging chip 113 side or the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加され、同時にTX配線307を通じて転送パルスが転送トランジスタ302に印加されると、PD104およびフローティングディフュージョンFDの電位がリセットされる。 Here, the flow from the start of charge accumulation to the pixel output after the end of accumulation will be described. When a reset pulse is applied to the reset transistor 303 through the reset wiring 306 and at the same time a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、蓄積された電荷はフローティングディフュージョンFDへ転送され、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304および選択トランジスタ305を介して出力配線309に伝わる。これにより、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。 When the application of the transfer pulse is released, the PD 104 converts the received incident light into an electric charge and accumulates it. After that, when the transfer pulse is applied again without the reset pulse being applied, the accumulated charge is transferred to the floating diffusion FD, and the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. .. Then, when the selection pulse is applied to the selection transistor 305 through the decoder wiring 308, the fluctuation of the signal potential of the floating diffusion FD is transmitted to the output wiring 309 via the amplification transistor 304 and the selection transistor 305. As a result, the pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位領域131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素全てに対して同時に印加される。したがって、単位領域131を形成する全ての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309から出力される。また、リセット配線306、TX配線307、出力配線309は、単位領域131毎に別個に設けられる。 As shown in FIG. 3, in the present embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit region 131. That is, the reset pulse and the transfer pulse are applied to all 16 pixels at the same time. Therefore, all the pixels forming the unit region 131 start the charge accumulation at the same timing and end the charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output from the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. Further, the reset wiring 306, the TX wiring 307, and the output wiring 309 are separately provided for each unit area 131.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で、異なったフレームレートによる画素信号をそれぞれ出力させることができる。更に言えば、一方の単位領域131に1回の電荷蓄積を行わせている間に、他方の単位領域131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位領域131間で異なるフレームレートで動画用の各フレームを出力することもできる。 By configuring the circuit with the unit region 131 as a reference in this way, the charge accumulation time can be controlled for each unit region 131. In other words, pixel signals with different frame rates can be output between the unit regions 131. Furthermore, while one unit region 131 is made to perform one charge accumulation, the other unit region 131 is made to repeat charge accumulation many times to output a pixel signal each time. It is also possible to output each frame for moving images at different frame rates between the unit areas 131.

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位領域131を形成する16個のPD104を順番に選択して、それぞれの画素信号を当該単位領域131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104と共に、撮像チップ113に形成される。 FIG. 4 is a block diagram showing a functional configuration of the image sensor 100. The analog multiplexer 411 sequentially selects 16 PD 104s forming the unit area 131, and outputs each pixel signal to the output wiring 309 provided corresponding to the unit area 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ413に引き渡される。デマルチプレクサ413から出力された画素信号は、それぞれの画素に対応する加算器416へ入力される。加算器416は、それぞれの画素に対応させて、デマルチプレクサ413から出力された画素信号と画素メモリ414から読み出された画素信号とを加算し、加算後の画素信号を再び画素メモリ414へ出力する。 The pixel signal output via the multiplexer 411 is CDS and A / by a signal processing circuit 412 formed on the signal processing chip 111 that performs correlated double sampling (CDS) analog / digital (A / D) conversion. D conversion is performed. The A / D converted pixel signal is passed to the demultiplexer 413. The pixel signal output from the demultiplexer 413 is input to the adder 416 corresponding to each pixel. The adder 416 adds the pixel signal output from the demultiplexer 413 and the pixel signal read from the pixel memory 414 in correspondence with each pixel, and outputs the added pixel signal to the pixel memory 414 again. To do.

画素メモリ414は、加算器416からの画素信号を格納する。画素メモリ414のそれぞれは、加算後の画素信号を格納できる容量を有する。デマルチプレクサ413、加算器416および画素メモリ414は、メモリチップ112に形成される。 The pixel memory 414 stores the pixel signal from the adder 416. Each of the pixel memories 414 has a capacity capable of storing the pixel signal after addition. The demultiplexer 413, the adder 416, and the pixel memory 414 are formed on the memory chip 112.

図5は、1画素当たりの画素信号の流れを説明する図である。図5において、デマルチプレクサ413から出力された画素信号Sが、加算器416のうち対応する加算器nへ入力される。このとき、画素メモリ414の対応するメモリnに格納されている画素信号Pが、該メモリnから読み出されて加算器nへ入力される。 FIG. 5 is a diagram illustrating a flow of pixel signals per pixel. In FIG. 5, the pixel signal S output from the demultiplexer 413 is input to the corresponding adder n in the adder 416. At this time, the pixel signal P stored in the corresponding memory n of the pixel memory 414 is read from the memory n and input to the adder n.

加算器nは、入力された画素信号Sと画素信号Pとを加算し、加算後の画素信号S+Pを画素メモリnへ出力する。画素メモリnは、入力された画素信号S+Pを格納し、演算回路415へ読み出されるのを待つ。ここで、加算器nにより加算が行われる際に、画素メモリnに格納されている画素信号Pを読み出さないように画素メモリ414を制御することにより、加算器nに入力された画素信号Sのみをそのまま加算器nから画素メモリnへ出力させることができる。すなわち、加算器nで加算することなく、撮像チップ113からの画素信号Sをそのままメモリnから演算回路415へ読み出させることもできる。 The adder n adds the input pixel signal S and the pixel signal P, and outputs the added pixel signal S + P to the pixel memory n. The pixel memory n stores the input pixel signal S + P and waits for it to be read out to the arithmetic circuit 415. Here, only the pixel signal S input to the adder n is obtained by controlling the pixel memory 414 so that the pixel signal P stored in the pixel memory n is not read when the addition is performed by the adder n. Can be output from the adder n to the pixel memory n as it is. That is, the pixel signal S from the image pickup chip 113 can be directly read from the memory n to the arithmetic circuit 415 without being added by the adder n.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。 The arithmetic circuit 415 processes the pixel signal stored in the pixel memory 414 and hands it over to the image processing unit in the subsequent stage. The arithmetic circuit 415 may be provided on the signal processing chip 111 or the memory chip 112.

駆動制御部417は、撮像チップ113から信号処理チップ111およびメモリチップ112へ画素信号が送られるタイミングと、画素メモリ414における画素信号の読み出しおよび格納タイミングと、加算器416における画素信号の加算タイミングと、演算回路415に対する画素信号の受け渡しタイミングとを同期させるため、タイミング制御信号を生成する。 The drive control unit 417 determines the timing at which the pixel signal is sent from the image pickup chip 113 to the signal processing chip 111 and the memory chip 112, the read / store timing of the pixel signal in the pixel memory 414, and the addition timing of the pixel signal in the adder 416. , A timing control signal is generated in order to synchronize with the transfer timing of the pixel signal to the arithmetic circuit 415.

なお、図4では1つの単位領域131の分の接続を示すが、実際にはこれらが単位領域131ごとに存在して、並列で動作する。ただし、演算回路415は単位領域131ごとに存在しなくても良く、例えば、一つの演算回路415がそれぞれの単位領域131に対応する画素メモリ414の値を順に参照しながらシーケンシャルに処理してもよい。 In addition, although FIG. 4 shows the connection for one unit area 131, in reality, these exist for each unit area 131 and operate in parallel. However, the arithmetic circuit 415 does not have to exist for each unit area 131. For example, even if one arithmetic circuit 415 processes sequentially while referring to the values of the pixel memory 414 corresponding to each unit area 131 in order. Good.

上記の通り、単位領域131のそれぞれに対応して出力配線309が設けられている。撮像素子100は撮像チップ113、信号処理チップ111およびメモリチップ112を積層しているので、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 309 is provided corresponding to each of the unit regions 131. Since the image sensor 100 has an image pickup chip 113, a signal processing chip 111, and a memory chip 112 stacked on top of each other, by using an electrical connection between the chips using bumps 109 for these output wirings 309, each chip is placed in the plane direction. Wiring can be routed without making it large.

<撮像装置の説明>
図6は、上述した撮像素子100を有する撮像装置1の構成を例示するブロック図である。図6において、撮像装置1は、撮像光学系10、撮像部20、画像処理部30、ワークメモリ40、表示部50、記録部60、および制御部70を有する。
<Explanation of imaging device>
FIG. 6 is a block diagram illustrating the configuration of the image pickup apparatus 1 having the image pickup device 100 described above. In FIG. 6, the image pickup apparatus 1 includes an image pickup optical system 10, an image pickup unit 20, an image processing unit 30, a work memory 40, a display unit 50, a recording unit 60, and a control unit 70.

撮像光学系10は、複数のレンズから構成され、被写界からの光束を撮像部20へ導く。撮像光学系10は、撮像装置1と一体に構成されていても、撮像装置1に対して交換可能に構成されていてもよい。また、撮像光学系10には、フォーカスレンズを内蔵していても、ズームレンズを内蔵していてもよい。 The imaging optical system 10 is composed of a plurality of lenses, and guides a light flux from the field of view to the imaging unit 20. The image pickup optical system 10 may be integrally configured with the image pickup device 1 or may be interchangeably configured with respect to the image pickup device 1. Further, the imaging optical system 10 may have a built-in focus lens or a built-in zoom lens.

撮像部20は、上述した撮像素子100と、撮像素子100を駆動する駆動部21とを有する。撮像素子100は、駆動部21から出力される制御信号によって駆動制御されることにより、上述したブロック単位で独立した蓄積制御が可能である。駆動部21に対する上記ブロックの位置や形状、その範囲などの指示は、制御部70が行う。 The image pickup unit 20 includes the above-mentioned image pickup element 100 and a drive unit 21 that drives the image pickup element 100. By driving and controlling the image sensor 100 by the control signal output from the driving unit 21, the above-mentioned block unit can be independently accumulated and controlled. The control unit 70 gives instructions such as the position, shape, and range of the block to the drive unit 21.

画像処理部30は、ワークメモリ40と協働して、撮像部20で撮像された画像データに対する画像処理を行う。本実施形態において、画像処理部30は、通常の画像処理(色信号処理、ガンマ補正など)に加えて、画像に含まれる主要被写体の検出処理も行う。画像処理部30による主要被写体の検出は、公知の顔検出機能を用いて行うことができる。また、顔検出に加えて、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、画像に含まれる人体を主要被写体として検出するようにしてもよい。 The image processing unit 30 cooperates with the work memory 40 to perform image processing on the image data captured by the image capturing unit 20. In the present embodiment, the image processing unit 30 also performs detection processing of a main subject included in the image in addition to normal image processing (color signal processing, gamma correction, etc.). The main subject can be detected by the image processing unit 30 by using a known face detection function. Further, in addition to face detection, for example, as described in Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940), the human body included in the image may be detected as the main subject.

ワークメモリ40は、JPEG圧縮前後やMPEG圧縮前後の画像データなどを一時的に記憶する。表示部50は、例えば液晶表示パネル51によって構成され、撮像部20で撮像された画像(静止画や動画)や各種情報を表示したり、操作入力用画面を表示したりする。表示部50は、液晶表示パネル51の表示面にタッチパネル52が積層された構成を有する。タッチパネル52は、液晶表示パネル51にユーザが触れた位置を示す信号を出力する。 The work memory 40 temporarily stores image data before and after JPEG compression and before and after MPEG compression. The display unit 50 is composed of, for example, a liquid crystal display panel 51, and displays images (still images and moving images) captured by the image pickup unit 20 and various information, and displays an operation input screen. The display unit 50 has a configuration in which the touch panel 52 is laminated on the display surface of the liquid crystal display panel 51. The touch panel 52 outputs a signal indicating a position where the user touches the liquid crystal display panel 51.

記録部60は、メモリカードなどの記憶媒体に画像データなどの各種データを記憶させる。制御部70はCPUを有し、撮像装置1による全体の動作を制御する。本実施形態において制御部70は、撮像素子100(撮像チップ113)の撮像面を複数のブロックに分け、ブロック間において異なるフレームレート(蓄積時間)、ゲインで画像を取得させる。このために制御部70は、ブロックの位置、形状、範囲、および各ブロック用の制御パラメータを駆動部21へ指示する。 The recording unit 60 stores various data such as image data in a storage medium such as a memory card. The control unit 70 has a CPU and controls the entire operation by the image pickup device 1. In the present embodiment, the control unit 70 divides the imaging surface of the image sensor 100 (imaging chip 113) into a plurality of blocks, and acquires images at different frame rates (accumulation time) and gains between the blocks. For this purpose, the control unit 70 instructs the drive unit 21 of the position, shape, range, and control parameters for each block.

また、制御部70は、撮像光学系10による焦点調節状態をAF演算部71により算出する。制御部70はさらに、適正露出が得られるようにAE、AWB演算部72で露出演算を行う。 Further, the control unit 70 calculates the focus adjustment state by the imaging optical system 10 by the AF calculation unit 71. The control unit 70 further performs an exposure calculation by the AE and AWB calculation units 72 so that an appropriate exposure can be obtained.

<注目領域と周辺領域>
本実施形態では、画面内に注目領域と周辺領域という概念を導入し、上記複数のブロックに対応させる。図7は、撮像素子100(撮像チップ113)における注目領域80および周辺領域90を例示する図である。制御部70は、撮像素子100(撮像チップ113)における注目領域80と周辺領域90の位置を、ライブビュー画像に基づくシーン認識を経て決定する。
<Area of interest and surrounding area>
In the present embodiment, the concept of the area of interest and the peripheral area is introduced in the screen to correspond to the above-mentioned plurality of blocks. FIG. 7 is a diagram illustrating a region of interest 80 and a peripheral region 90 in the image sensor 100 (imaging chip 113). The control unit 70 determines the positions of the region of interest 80 and the peripheral region 90 on the image sensor 100 (imaging chip 113) through scene recognition based on the live view image.

ここで、ライブビュー画像は本撮像が行われる前のプレビュー画像とも呼ばれ、撮像素子100によって所定のフレームレート(例えば30fps)で取得されるモニタ用の画像をいう。図7において、ライブビュー画像の画面右寄りに人物が含まれ、ライブビュー画像の画面左側に樹木が含まれている。制御部70は画像処理部30へ指示を送り、ライブビュー画像データに対して公知のシーン認識処理を行わせる。画像処理部30は、シーン認識処理を行うことにより、ライブビュー画像を解析して主要被写体領域を抽出する。 Here, the live view image is also called a preview image before the main imaging is performed, and refers to a monitor image acquired by the image sensor 100 at a predetermined frame rate (for example, 30 fps). In FIG. 7, a person is included on the right side of the screen of the live view image, and a tree is included on the left side of the screen of the live view image. The control unit 70 sends an instruction to the image processing unit 30 to perform a known scene recognition process on the live view image data. The image processing unit 30 analyzes the live view image and extracts the main subject area by performing the scene recognition process.

画像処理部30は、上述したように検出した人体を含む範囲を主要被写体領域とする。なお、人物に限らずペットなどの動物を検出し、この動物を含む範囲を主要被写体領域としてもよい。そして、制御部70は、主要被写体領域を注目領域80とし、注目領域80以外の領域を周辺領域90とする。 The image processing unit 30 sets the range including the detected human body as the main subject area as described above. In addition, not only a person but also an animal such as a pet may be detected, and a range including this animal may be set as a main subject area. Then, the control unit 70 sets the main subject area as the attention area 80 and the area other than the attention area 80 as the peripheral area 90.

なお、表示部50のうち液晶表示パネル51にライブビュー画像を表示した状態で、このライブビュー画像を視認するユーザがタッチパネル52に触れた位置に対応する(表示されている)主要被写体の領域を注目領域80としてもよい。 In addition, in the state where the live view image is displayed on the liquid crystal display panel 51 of the display unit 50, the area of the main subject corresponding to the position where the user who visually recognizes the live view image touches the touch panel 52 is (displayed). It may be the area of interest 80.

制御部70は、例えばライブビュー画像取得時において、注目領域80および周辺領域90から第1蓄積時間の蓄積後に出力される画素信号に基づいて、自動露出演算およびホワイトバランス調整値の決定をAE、AWB演算部72により行わせる。AE、AWB演算部72は、例えば画素信号の平均的なレベルを所定のレベルへ近づけるように、露出(露光時間、ゲイン等)を演算する。また、AE、AWB演算部72は、白い色を白く表現するためのホワイトバランス調整値を決定する。 For example, when a live view image is acquired, the control unit 70 determines the automatic exposure calculation and the white balance adjustment value based on the pixel signals output from the attention area 80 and the peripheral area 90 after the first accumulation time is accumulated. It is performed by the AWB calculation unit 72. The AE and AWB calculation units 72 calculate the exposure (exposure time, gain, etc.) so that, for example, the average level of the pixel signal approaches a predetermined level. Further, the AE and AWB calculation units 72 determine a white balance adjustment value for expressing a white color in white.

さらにまた、制御部70は、注目領域80および周辺領域90から上記第1蓄積時間の蓄積後に出力される画素信号に基づいてモニタ用の画像を生成し、上記ライブビュー画像として表示部50に表示させる。 Furthermore, the control unit 70 generates a monitor image based on the pixel signals output from the attention area 80 and the peripheral area 90 after the accumulation of the first storage time, and displays the live view image on the display unit 50. Let me.

制御部70はさらに、例えばライブビュー画像取得時において、注目領域80から第2蓄積時間の蓄積後に出力される画素信号に基づいて、撮像光学系10による焦点調節状態をAF(オートフォーカス)演算部71により算出させる。本実施形態では、第2蓄積時間を第1蓄積時間より長く制御する。 The control unit 70 further determines the focus adjustment state by the imaging optical system 10 based on the pixel signal output from the area of interest 80 after the accumulation of the second storage time at the time of acquiring a live view image, for example, by an AF (autofocus) calculation unit. It is calculated by 71. In the present embodiment, the second storage time is controlled to be longer than the first storage time.

AF演算部71は、例えばコントラスト検出方式によって焦点調節状態を検出する。具体的には、撮像光学系10のフォーカスレンズの位置を移動させながら、注目領域80から出力される画素信号で構成される画像のコントラストを高めるように撮像光学系10のフォーカスレンズの位置を調節する。 The AF calculation unit 71 detects the focus adjustment state by, for example, a contrast detection method. Specifically, while moving the position of the focus lens of the imaging optical system 10, the position of the focus lens of the imaging optical system 10 is adjusted so as to increase the contrast of the image composed of the pixel signals output from the region of interest 80. To do.

なお、焦点検出処理を、位相差検出方式によって行う構成にしてもよい。この場合には、撮像素子100(撮像チップ113)において、あらかじめ焦点検出用の画素を設けておく。そして、注目領域80に含まれる焦点検出用の画素からの出力信号を用いて位相差検出演算を行うことにより、撮像光学系10による焦点調節状態(具体的にはデフォーカス量)を検出する。焦点検出用の画素および位相差検出演算は、例えば特開2009−94881号公報に記載されるように公知であるため、詳細な説明を省略する。 The focus detection process may be performed by the phase difference detection method. In this case, the image sensor 100 (imaging chip 113) is provided with pixels for focus detection in advance. Then, the focus adjustment state (specifically, the defocus amount) by the imaging optical system 10 is detected by performing the phase difference detection calculation using the output signal from the focus detection pixel included in the focus region 80. Since the pixel and phase difference detection calculation for focus detection are known as described in, for example, Japanese Patent Application Laid-Open No. 2009-94881, detailed description thereof will be omitted.

制御部70は、ライブビュー画像を取得する際に駆動部21へ指示を送り、撮像素子100(撮像チップ113)の注目領域80から、上述したように蓄積時間が異なる画素信号(すなわち第1蓄積時間経過後の画素信号と、第2蓄積時間経過後の画素信号)を複数回に分けて読み出す。ここで、注目領域80および周辺領域90に分けて蓄積制御するのは、不図示のレリーズスイッチが操作されることによる本撮像(静止画記録や動画記録)の指示が行われる前とする。 The control unit 70 sends an instruction to the drive unit 21 when acquiring the live view image, and from the attention region 80 of the image sensor 100 (imaging chip 113), as described above, the pixel signals having different storage times (that is, the first storage). The pixel signal after the lapse of time and the pixel signal after the lapse of the second storage time) are read out in a plurality of times. Here, the accumulation control is performed separately for the region of interest 80 and the peripheral region 90 before the instruction for main imaging (still image recording or moving image recording) is performed by operating the release switch (not shown).

すなわち、本撮像指示が行われるまでは、注目領域80および周辺領域90で取得された画像に基づいて露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示を行うとともに、注目領域80で取得された画像に基づいて焦点検出処理を行う。 That is, until this imaging instruction is given, exposure calculation, white balance adjustment value determination, and live view image display are performed based on the images acquired in the attention region 80 and the peripheral region 90, and the attention region 80 is used. Focus detection processing is performed based on the acquired image.

<蓄積時間が異なる画素信号の読み出し>
画素信号の読み出しタイミングと、撮像チップ113における蓄積信号と、演算回路415を介して撮像素子100から読み出される画素信号とを説明する図8を参照して、蓄積時間が異なる画素信号の読み出しを説明する。
<Reading pixel signals with different storage times>
The reading of pixel signals having different storage times will be described with reference to FIG. 8 for explaining the read timing of the pixel signal, the stored signal in the image pickup chip 113, and the pixel signal read from the image sensor 100 via the arithmetic circuit 415. To do.

駆動部21は、以下のように撮像素子100を制御する。すなわち、ライブビュー画像の各フレームにおいて蓄積開始時刻t0から時刻t1までを上記第1蓄積時間とし、時刻t0から時刻t2までを上記第2蓄積時間とする。駆動部21は、時刻t0において、上記注目領域80および周辺領域90に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t1において、図5に例示した画素メモリnに格納されている画素信号を読み出さないように画素メモリ414を制御しながら、上記注目領域80および周辺領域90から画素信号を出力させる。これにより、第1蓄積時間(時刻t0から時刻t1)の間に蓄積された画素信号aがデマルチプレクサ413から出力され、そのまま信号Aとして演算回路415を介して出力される。この画素信号A(=a)は、画素メモリnにも格納される。 The drive unit 21 controls the image sensor 100 as follows. That is, in each frame of the live view image, the accumulation start time t0 to the time t1 is defined as the first accumulation time, and the time t0 to the time t2 is defined as the second accumulation time. At time t0, the drive unit 21 starts charge accumulation for the pixels included in the attention region 80 and the peripheral region 90. Then, at time t1, the pixel signal is output from the attention area 80 and the peripheral area 90 while controlling the pixel memory 414 so as not to read the pixel signal stored in the pixel memory n illustrated in FIG. As a result, the pixel signal a accumulated during the first storage time (time t0 to time t1) is output from the demultiplexer 413 and is output as it is as the signal A via the arithmetic circuit 415. This pixel signal A (= a) is also stored in the pixel memory n.

駆動部21はさらに、時刻t1において上記画素信号の読み出しを行うと、ただちに上記注目領域80に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t2において、図5に例示した画素メモリnに格納されている画素信号aを読み出すように画素メモリ414を制御しながら、上記注目領域80から画素信号を出力させる。これにより、時刻t1から時刻t2までの間に蓄積された画素信号bがデマルチプレクサ413から出力され、この画素信号bと、画素メモリnから読み出された画素信号aとが加算器nで加算される。加算後の画素信号a+bは、信号Bとして演算回路415を介して出力される。画素信号B(=a+b)は、時刻t0から時刻t1までと、時刻t1から時刻t2までに蓄積された画素信号の和であるため、第2蓄積時間(時刻t0から時刻t2)の間に蓄積される画素信号に相当する。 Further, when the drive unit 21 reads out the pixel signal at time t1, the drive unit 21 immediately starts charge accumulation for the pixels included in the attention region 80. Then, at time t2, the pixel signal is output from the area of interest 80 while controlling the pixel memory 414 so as to read the pixel signal a stored in the pixel memory n illustrated in FIG. As a result, the pixel signal b accumulated between the time t1 and the time t2 is output from the demultiplexer 413, and the pixel signal b and the pixel signal a read from the pixel memory n are added by the adder n. Will be done. The added pixel signals a + b are output as signal B via the arithmetic circuit 415. Since the pixel signal B (= a + b) is the sum of the pixel signals accumulated from time t0 to time t1 and from time t1 to time t2, it is accumulated during the second accumulation time (time t0 to time t2). Corresponds to the pixel signal to be generated.

上述したように、第一の実施形態では、第1蓄積時間より長い第2蓄積時間で蓄積された高い信号レベルの画素信号Bを焦点検出処理に用いるので、信号レベルが低い画素信号Aを焦点検出処理に用いる場合に比べて、高い焦点検出精度が得られる。また、第2蓄積時間より短い第1蓄積時間で蓄積された画素信号Aを露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示に用いるので、ノイズの影響を避けて精度よく演算でき、明るすぎることなく見やすいライブビュー画像が得られる。 As described above, in the first embodiment, since the pixel signal B having a high signal level accumulated in the second storage time longer than the first storage time is used for the focus detection process, the pixel signal A having a low signal level is focused. Higher focus detection accuracy can be obtained as compared with the case of using it for the detection process. Further, since the pixel signal A accumulated in the first accumulation time shorter than the second accumulation time is used for the exposure calculation, the determination of the white balance adjustment value, and the display of the live view image, the calculation can be performed accurately while avoiding the influence of noise. , You can get a live view image that is easy to see without being too bright.

<フローチャートの説明>
図9は、第一の実施形態において撮像装置1の制御部70が実行する撮影動作の流れを説明するフローチャートである。制御部70は、不図示のON-OFFスイッチが電源オン操作され、撮像装置1の各部に対して通電が行われている場合に、図9による処理を繰り返し起動させる。図9のステップS101において、制御部70は、注目領域80および周辺領域90用のフレームレート、ゲインなどの制御パラメータをそれぞれ決定してステップS102へ進む。例えば、後述するステップS102、S110において適用する値を、プログラムデータから読み出して用意しておく。
<Explanation of flowchart>
FIG. 9 is a flowchart illustrating a flow of a shooting operation executed by the control unit 70 of the imaging device 1 in the first embodiment. The control unit 70 repeatedly activates the process according to FIG. 9 when the power-on operation of the ON-OFF switch (not shown) is performed and each unit of the image pickup apparatus 1 is energized. In step S101 of FIG. 9, the control unit 70 determines control parameters such as the frame rate and gain for the region of interest 80 and the peripheral region 90, and proceeds to step S102. For example, the values to be applied in steps S102 and S110, which will be described later, are read from the program data and prepared.

ステップS102において、制御部70は駆動部21へ指示を送り、撮像部20によるライブビュー撮像を開始させる。ステップS102で開始するライブビュー画像の取得は、例えば撮像素子100の撮像面の略全域を対象に周辺領域90用の制御パラメータを設定して行う。 In step S102, the control unit 70 sends an instruction to the drive unit 21 to start live view imaging by the image pickup unit 20. The acquisition of the live view image started in step S102 is performed by setting the control parameters for the peripheral region 90, for example, for substantially the entire area of the imaging surface of the image sensor 100.

ステップS103において、制御部70は駆動部21へ指示を送り、撮像部20から第1データの転送を行わせる。第1データは、上記時刻t1において読み出す画素信号A(=a)に対応する。ステップS104において、制御部70は、撮像部20から出力される画素信号Aに基づくライブビュー画像データを画像処理部30により画像処理させた後、表示部50に表示させる。 In step S103, the control unit 70 sends an instruction to the drive unit 21 to transfer the first data from the image pickup unit 20. The first data corresponds to the pixel signal A (= a) read out at the time t1. In step S104, the control unit 70 causes the image processing unit 30 to process the live view image data based on the pixel signal A output from the imaging unit 20, and then displays the live view image data on the display unit 50.

ステップS105において、制御部70は駆動部21へ指示を送り、撮像部20から第2データの転送を行わせる。第2データは、上記時刻t2において読み出す画素信号B(=a+b)に対応する。ステップS106において、制御部70は、AF演算領域を対象に、画素信号Bに基づくAF演算(焦点調節状態の検出)をAF演算部71に行わせる。これにより、撮像光学系10の焦点調節を行える。なお、電源オン操作後最初のフレームにおいてはAF演算領域が未決定であるので、撮像素子100の撮像面の略全域を対象にAF演算を行うものとする。 In step S105, the control unit 70 sends an instruction to the drive unit 21 to transfer the second data from the image pickup unit 20. The second data corresponds to the pixel signal B (= a + b) read out at the time t2. In step S106, the control unit 70 causes the AF calculation unit 71 to perform an AF calculation (detection of the focus adjustment state) based on the pixel signal B for the AF calculation area. As a result, the focus of the imaging optical system 10 can be adjusted. Since the AF calculation area is undecided in the first frame after the power-on operation, the AF calculation is performed on substantially the entire image pickup surface of the image pickup device 100.

ステップS107において、制御部70は画像処理部30へ指示を送り、ライブビュー画像から主要被写体領域を抽出させる。ステップS108において、制御部70は、主要被写体を含む領域を注目領域80とし、この注目領域80をAF演算領域に決定してステップS109へ進む。AF演算領域は、次フレームで取得されるライブビュー画像に対して適用する。 In step S107, the control unit 70 sends an instruction to the image processing unit 30 to extract the main subject area from the live view image. In step S108, the control unit 70 sets the area including the main subject as the area of interest 80, determines the area of interest 80 as the AF calculation area, and proceeds to step S109. The AF calculation area is applied to the live view image acquired in the next frame.

ステップS109において、制御部70は、レリーズ操作されたか否かを判定する。レリーズ操作は、撮像装置1に対する本撮像指示として用いられる。制御部70は、不図示のレリーズボタンが押下操作された場合に、ステップS109を肯定判定してステップS110へ進み、押下操作が行われない場合には、ステップS109を否定判定してステップS112へ進む。 In step S109, the control unit 70 determines whether or not the release operation has been performed. The release operation is used as the main imaging instruction for the imaging device 1. When the release button (not shown) is pressed, the control unit 70 positively determines step S109 and proceeds to step S110. If the pressing operation is not performed, the control unit 70 negatively determines step S109 and proceeds to step S112. move on.

なお、液晶表示パネル51に表示させたレリーズアイコンに対するタップ操作を検出して本撮像指示を判断する場合には、表示中のレリーズアイコンがタップ操作された場合にステップS109を肯定判定すればよい。 When the tap operation on the release icon displayed on the liquid crystal display panel 51 is detected to determine the main imaging instruction, step S109 may be positively determined when the released release icon being displayed is tapped.

ステップS110において、制御部70は駆動部21へ指示を送り、第1データ(画素信号A(=a))に基づいて決定した撮影用の露出条件に必要な制御パラメータ(露光時間、ゲインなど)を設定してステップS111へ進む。 In step S110, the control unit 70 sends an instruction to the drive unit 21 and controls parameters (exposure time, gain, etc.) required for the exposure conditions for shooting determined based on the first data (pixel signal A (= a)). Is set and the process proceeds to step S111.

ステップS111において、制御部70は撮影処理を実行し、取得された画像のデータを記録部60によってメモリカードなどに記憶させて、ステップS102へ戻る。撮影処理では、撮像素子100の全領域で共通(同じ)に設定した撮影用の制御パラメータを適用して、1コマの静止画像を取得(本撮像)、記録するとともに、静止画像を取得した後も複数フレームの画像を取得する。そして、レリーズ操作の前後所定時間の間に取得した複数フレームの画像に基づいて、スロー再生動画データを生成、記録する。スロー再生動画データは、撮像素子100で取得した際のフレームレート(例えば30fps)より遅いフレームレート(例えば15fps)で再生する動画像のデータをいう。 In step S111, the control unit 70 executes a shooting process, stores the acquired image data in a memory card or the like by the recording unit 60, and returns to step S102. In the shooting process, a control parameter for shooting that is set to be common (same) in all areas of the image sensor 100 is applied to acquire and record a still image of one frame (main imaging), and after acquiring the still image. Also gets a multi-frame image. Then, slow playback moving image data is generated and recorded based on the images of a plurality of frames acquired during a predetermined time before and after the release operation. The slow reproduction moving image data refers to moving image data reproduced at a frame rate (for example, 15 fps) slower than the frame rate (for example, 30 fps) acquired by the image sensor 100.

制御部70は、以下のようにスロー再生動画データを生成する。すなわち、レリーズ操作時刻(txとする)より先撮り時間前(例えば0.6秒前)から時刻txまでに、上述したライブビュー画像の表示のためにワークメモリ40に一時的に記憶された第1データ(画素信号A(=a))に基づく複数のフレーム画像(例えばフレームレートが30fpsで取得された場合の0.6秒分は18フレームである)、および時刻txから時刻txより後撮り時間後(例えば0.4秒後)までにワークメモリ40に記憶された第1データ(画素信号A(=a))に基づく複数のフレーム画像(例えばフレームレートが30fpsで取得された場合の0.4秒分は12フレームである)に基づいて、スロー再生動画データを生成する。これにより、時刻txを挟む1秒間(時刻txの0.6秒前から時刻txの0.4秒後)にワークメモリ40に記憶された複数のフレーム画像(計30枚)に基づいて、再生時間が約2秒間のスロー再生動画データを生成する。このように、レリーズ操作前後に取得したフレーム画像に基づくスロー再生動画データが得られる。なお、スロー再生動画データは、画像処理部30によりMPEGデータまたはJPEGデータとして生成される。 The control unit 70 generates slow playback moving image data as follows. That is, from before the shooting time (for example, 0.6 seconds before) before the release operation time (referred to as tx) to the time tx, the first is temporarily stored in the work memory 40 for displaying the above-mentioned live view image. Multiple frame images based on one data (pixel signal A (= a)) (for example, when the frame rate is acquired at 30 fps, 0.6 seconds is 18 frames), and the time tx is taken after the time tx. A plurality of frame images (for example, 0 when the frame rate is acquired at 30 fps) based on the first data (pixel signal A (= a)) stored in the work memory 40 by a time (for example, 0.4 seconds later). .Slow playback moving image data is generated based on (4 seconds is 12 frames). As a result, playback is performed based on a plurality of frame images (30 images in total) stored in the work memory 40 for 1 second (0.6 seconds before the time tx to 0.4 seconds after the time tx) sandwiching the time tx. Generates slow playback video data with a time of about 2 seconds. In this way, slow playback moving image data based on the frame images acquired before and after the release operation can be obtained. The slow playback moving image data is generated as MPEG data or JPEG data by the image processing unit 30.

上述したステップS109を否定判定して進むステップS112において、制御部70は、電源オフ操作されたか否かを判定する。制御部70は、不図示のON-OFFスイッチが電源オフ操作された場合にステップS112を肯定判定し、所定の電源オフ処理を行って図9による処理を終了する。制御部70は、不図示のON-OFFスイッチが電源オフ操作されない場合には、ステップS112を否定判定してステップS102へ戻る。ステップS102へ戻る場合は、上述した処理を繰り返す。 In step S112 in which the above-mentioned step S109 is negatively determined and the process proceeds, the control unit 70 determines whether or not the power-off operation has been performed. The control unit 70 positively determines step S112 when the power-off operation of the ON-OFF switch (not shown) is performed, performs a predetermined power-off process, and ends the process according to FIG. If the ON-OFF switch (not shown) is not operated to turn off the power, the control unit 70 makes a negative determination in step S112 and returns to step S102. When returning to step S102, the above-described processing is repeated.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)撮像素子100は、光電変換を行う複数の画素からのデータを入力するデマルチプレクサ413と、上記入力データを画素別に格納する画素メモリ414と、画素メモリ414に格納されているデータおよび上記入力データを画素別に加算する加算器416と、上記入力データまたは加算器416により加算されたデータを出力する演算回路415と、を備えるようにした。これにより、光電変換データを適切に処理できるから、撮像素子100の使い勝手をよくすることができる。
According to the first embodiment described above, the following effects can be obtained.
(1) The image pickup element 100 includes a demultiplexer 413 that inputs data from a plurality of pixels that perform photoelectric conversion, a pixel memory 414 that stores the input data for each pixel, data stored in the pixel memory 414, and the above. An adder 416 that adds input data for each pixel and an arithmetic circuit 415 that outputs the input data or the data added by the adder 416 are provided. As a result, the photoelectric conversion data can be appropriately processed, so that the usability of the image sensor 100 can be improved.

(2)画素メモリ414は、加算器416により加算されたデータを画素別に格納するようにしたので、入力データを積算することが可能になる。これにより、光電変換データを積算して出力させたり、積算しないで出力させたりすることができる。 (2) Since the pixel memory 414 stores the data added by the adder 416 for each pixel, the input data can be integrated. As a result, the photoelectric conversion data can be integrated and output, or can be output without integration.

(3)加算器416は、光電変換時間が異なるデータを画素別に加算するようにしたので、光電変換時間を長く変更した場合に相当するデータが得られる。 (3) Since the adder 416 adds data having different photoelectric conversion times for each pixel, data corresponding to a case where the photoelectric conversion time is changed for a long time can be obtained.

(4)画素からのデータが入力されるタイミングで、画素メモリ414に格納されているデータを読み出させるとともに加算器416に加算をさせる駆動制御部417を備えるようにしたので、適切なタイミングで制御できる。 (4) Since the drive control unit 417 for reading the data stored in the pixel memory 414 and adding the data to the adder 416 at the timing when the data from the pixels is input is provided, the drive control unit 417 is provided at an appropriate timing. Can be controlled.

(5)演算回路415から出力されるデータが上記入力データである場合に露出演算、ホワイトバランス調整値の決定、およびライブビュー画像の表示を行い、演算回路415から出力されるデータが加算データである場合に焦点検出処理を行うようにしたので、光電変換データと、これを用いる処理とを適切に組み合わせできる。 (5) When the data output from the arithmetic circuit 415 is the above input data, the exposure calculation, the determination of the white balance adjustment value, and the display of the live view image are performed, and the data output from the arithmetic circuit 415 is the addition data. Since the focus detection process is performed in a certain case, the photoelectric conversion data and the process using the photoelectric conversion data can be appropriately combined.

(6)演算回路415から上記入力データを出力させるか、または加算データを出力させるかを、入力データによって構成される画像を解析して決定するようにしたので、画像に応じて適切な光電変換データを出力させることができる。 (6) Since the image composed of the input data is analyzed to determine whether to output the input data or the addition data from the arithmetic circuit 415, an appropriate photoelectric conversion is determined according to the image. Data can be output.

(7)上記決定では、画像の主要被写体領域に対応する画素については加算データを出力させ、画像の主要被写体領域以外の領域に対応する画素について入力データを出力させるようにしたので、適切な光電変換データを出力させることができる。 (7) In the above determination, the addition data is output for the pixels corresponding to the main subject area of the image, and the input data is output for the pixels corresponding to the area other than the main subject area of the image. The converted data can be output.

(8)複数の画素を有する撮像チップ113と、光電変換データを処理するメモリチップ112とを積層したので、各チップを面方向に大きくすることなく、撮像素子100をコンパクトに構成できる。 (8) Since the image pickup chip 113 having a plurality of pixels and the memory chip 112 for processing photoelectric conversion data are laminated, the image pickup element 100 can be compactly configured without enlarging each chip in the plane direction.

(9)電子機器の一例である撮像装置1は、光電変換データを処理するメモリチップ112と、複数の画素を有する撮像チップ113とを備えたので、光電変換データを適切に処理して使い勝手のよい撮像装置1を提供できる。 (9) Since the image pickup device 1 which is an example of an electronic device includes a memory chip 112 for processing photoelectric conversion data and an image pickup chip 113 having a plurality of pixels, it is easy to use by appropriately processing the photoelectric conversion data. A good imaging device 1 can be provided.

(第二の実施形態)
第一の実施形態では、画面を注目領域80と周辺領域90とに分け、本撮像の指示前において、注目領域80と周辺領域90とで異なる蓄積時間の画像を得る例を説明したが、第二の実施形態では、画面を明部領域85と暗部領域95とに分け、本撮像の指示後において、明部領域85と暗部領域95とで異なる蓄積時間の画像を得る。ここで、明部領域85は、例えばライブビュー画像を解析して所定の画素信号値より高い値(所定の輝度値より高い)の画素信号で構成される領域とする。暗部領域95は、明部領域85以外の領域とする。
(Second embodiment)
In the first embodiment, an example has been described in which the screen is divided into a region of interest 80 and a peripheral region 90, and images having different accumulation times in the region of interest 80 and the peripheral region 90 are obtained before the instruction of the main imaging. In the second embodiment, the screen is divided into a bright region 85 and a dark region 95, and after the instruction of the main imaging, images having different accumulation times are obtained in the bright region 85 and the dark region 95. Here, the bright region 85 is, for example, a region composed of pixel signals having a value higher than a predetermined pixel signal value (higher than a predetermined luminance value) by analyzing a live view image. The dark region 95 is a region other than the bright region 85.

第二の実施形態による撮像装置1は、明部領域85において第1蓄積時間で蓄積された画素信号による画像と、暗部領域95において第2蓄積時間で蓄積された画素信号による画像とを取得し、両画像を合成してダイナミックレンジが広い画像を得る。このため、制御部70は、記録用画像を取得する際に駆動部21へ指示を送り、撮像素子100(撮像チップ113)の暗部領域95から、第1蓄積時間経過後の画素信号と第2蓄積時間経過後の画素信号とを複数回に分けて読み出す。 The image pickup apparatus 1 according to the second embodiment acquires an image based on the pixel signal accumulated in the first storage time in the bright region 85 and an image based on the pixel signal stored in the dark region 95 in the second storage time. , Both images are combined to obtain an image with a wide dynamic range. Therefore, the control unit 70 sends an instruction to the drive unit 21 when acquiring the image for recording, and the pixel signal after the lapse of the first accumulation time and the second from the dark area 95 of the image sensor 100 (image sensor 113). The pixel signal after the accumulation time has elapsed is read out in a plurality of times.

<蓄積時間が異なる画素信号の読み出し>
画素信号の読み出しタイミングと、撮像チップ113における蓄積信号と、演算回路415を介して撮像素子100から読み出される画素信号とを、図8を参照して説明する。
<Reading pixel signals with different storage times>
The read timing of the pixel signal, the stored signal in the image pickup chip 113, and the pixel signal read out from the image pickup device 100 via the arithmetic circuit 415 will be described with reference to FIG.

駆動部21は、以下のように撮像素子100を制御する。すなわち、本撮像指示後の記録用画像の蓄積開始時刻t0から時刻t1までを上記第1蓄積時間とし、時刻t0から時刻t2までを上記第2蓄積時間とする。駆動部21は、時刻t0において、上記明部領域85および暗部領域95に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t1において、図5に例示した画素メモリnに格納されている画素信号を読み出さないように画素メモリ414を制御しながら、上記明部領域85および暗部領域95から画素信号を出力させる。これにより、第1蓄積時間(時刻t0から時刻t1)の間に蓄積された画素信号aがデマルチプレクサ413から出力され、そのまま信号Aとして演算回路415を介して出力される。この画素信号A(=a)は、画素メモリnにも格納される。 The drive unit 21 controls the image sensor 100 as follows. That is, the accumulation start time t0 to the time t1 of the recording image after the main imaging instruction is defined as the first accumulation time, and the time t0 to the time t2 is defined as the second accumulation time. At time t0, the drive unit 21 starts charge accumulation for the pixels included in the bright region 85 and the dark region 95. Then, at time t1, the pixel signal is output from the bright region 85 and the dark region 95 while controlling the pixel memory 414 so as not to read the pixel signal stored in the pixel memory n illustrated in FIG. As a result, the pixel signal a accumulated during the first storage time (time t0 to time t1) is output from the demultiplexer 413 and is output as it is as the signal A via the arithmetic circuit 415. This pixel signal A (= a) is also stored in the pixel memory n.

駆動部21はさらに、時刻t1において上記画素信号の読み出しを行うと、ただちに上記暗部領域95に含まれる画素に対して電荷蓄積を開始させる。そして、時刻t2において、図5に例示した画素メモリnに格納されている画素信号aを読み出すように画素メモリ414を制御しながら、上記暗部領域95から画素信号を出力させる。これにより、時刻t1から時刻t2までの間に蓄積された画素信号bがデマルチプレクサ413から出力され、この画素信号bと、画素メモリnから読み出された画素信号aとが加算器nで加算される。加算後の画素信号a+bは、信号Bとして演算回路415を介して出力される。画素信号B(=a+b)は、時刻t0から時刻t1までと、時刻t1から時刻t2までに蓄積された画素信号の和であるため、第2蓄積時間(時刻t0から時刻t2)の間に蓄積される画素信号に相当する。 Further, when the drive unit 21 reads out the pixel signal at time t1, the drive unit 21 immediately starts charge accumulation for the pixels included in the dark area 95. Then, at time t2, the pixel signal is output from the dark area 95 while controlling the pixel memory 414 so as to read the pixel signal a stored in the pixel memory n illustrated in FIG. As a result, the pixel signal b accumulated between the time t1 and the time t2 is output from the demultiplexer 413, and the pixel signal b and the pixel signal a read from the pixel memory n are added by the adder n. Will be done. The added pixel signals a + b are output as signal B via the arithmetic circuit 415. Since the pixel signal B (= a + b) is the sum of the pixel signals accumulated from time t0 to time t1 and from time t1 to time t2, it is accumulated during the second accumulation time (time t0 to time t2). Corresponds to the pixel signal to be generated.

上述したように、第二の実施形態では、第1蓄積時間より長い第2蓄積時間で蓄積された画素信号Bで暗部領域95の画像を形成するので、蓄積時間が短く信号レベルが低い画素信号Aで暗部領域95の画像を形成する場合に比べて、画像の黒潰れを生じにくい。また、第2蓄積時間より短い第1蓄積時間で蓄積された画素信号Aで明部領域85の画像を形成するので、蓄積時間が長く信号レベルが高い画素信号Bで明部領域85の画像を形成する場合に比べて、画像の白飛びが生じにくい。この結果、明部から暗部までのダイナミックレンジの広い画像が、時刻t0から時刻t2までの蓄積処理を1回行うだけで得られる。また、第1蓄積時間と第2蓄積時間とで蓄積開始時刻が同じ(ともに時刻t0)であるので、開示蓄積開始時刻が異なる複数枚の画像を合成する従来技術と違って、動いている被写体を撮影する場合にも好適である。 As described above, in the second embodiment, since the image of the dark area 95 is formed by the pixel signal B accumulated in the second accumulation time longer than the first accumulation time, the accumulation time is short and the signal level is low. Compared with the case where the image of the dark area 95 is formed in A, blackout of the image is less likely to occur. Further, since the image of the bright region 85 is formed by the pixel signal A accumulated in the first accumulation time shorter than the second accumulation time, the image of the bright region 85 is formed by the pixel signal B having a long accumulation time and a high signal level. Overexposure of the image is less likely to occur as compared with the case of forming. As a result, an image having a wide dynamic range from the bright part to the dark part can be obtained by performing the accumulation process from the time t0 to the time t2 only once. Further, since the accumulation start time is the same for the first accumulation time and the second accumulation time (both time t0), a moving subject is different from the conventional technique of synthesizing a plurality of images having different disclosure accumulation start times. It is also suitable for taking pictures of.

<フローチャートの説明>
図10は、第二の実施形態において撮像装置1の制御部70が実行する撮影動作の流れを説明するフローチャートである。制御部70は、不図示のON-OFFスイッチが電源オン操作され、撮像装置1の各部に対して通電が行われている場合に、図10による処理を繰り返し起動させる。図10のステップS201において、制御部70は、明部領域85および暗部領域95用のフレームレート、ゲインなどの制御パラメータをそれぞれ決定してステップS202へ進む。例えば、後述するステップS202、S205、S208において適用する値を、プログラムデータから読み出して用意しておく。
<Explanation of flowchart>
FIG. 10 is a flowchart illustrating a flow of a shooting operation executed by the control unit 70 of the imaging device 1 in the second embodiment. The control unit 70 repeatedly activates the process according to FIG. 10 when an ON-OFF switch (not shown) is turned on and each part of the image pickup apparatus 1 is energized. In step S201 of FIG. 10, the control unit 70 determines control parameters such as the frame rate and gain for the bright region 85 and the dark region 95, and proceeds to step S202. For example, the values to be applied in steps S202, S205, and S208, which will be described later, are read from the program data and prepared.

ステップS202において、制御部70は駆動部21へ指示を送り、撮像部20によるライブビュー撮像を開始させる。ステップS202で開始するライブビュー画像の取得は、例えば撮像素子100の撮像面の略全域を対象に暗部領域95用の制御パラメータを設定して行う。 In step S202, the control unit 70 sends an instruction to the drive unit 21 to start live view imaging by the image pickup unit 20. The acquisition of the live view image started in step S202 is performed by setting the control parameters for the dark area 95 for substantially the entire area of the image pickup surface of the image pickup device 100, for example.

ステップS203において、制御部70は、ライブビュー画像に基づいて明部領域85および暗部領域95を判定してステップS204へ進む。ステップS204において、制御部70は、レリーズ操作されたか否かを判定する。レリーズ操作は、撮像装置1に対する本撮像指示として用いられる。制御部70は、不図示のレリーズボタンが押下操作された場合に、ステップS204を肯定判定してステップS205へ進み、押下操作が行われない場合には、ステップS204を否定判定してステップS211へ進む。 In step S203, the control unit 70 determines the bright region 85 and the dark region 95 based on the live view image, and proceeds to step S204. In step S204, the control unit 70 determines whether or not the release operation has been performed. The release operation is used as the main imaging instruction for the imaging device 1. When the release button (not shown) is pressed, the control unit 70 positively determines step S204 and proceeds to step S205. If the pressing operation is not performed, the control unit 70 negatively determines step S204 and proceeds to step S211. move on.

なお、液晶表示パネル51に表示させたレリーズアイコンに対するタップ操作を検出して本撮像指示を判断する場合には、表示中のレリーズアイコンがタップ操作された場合にステップS204を肯定判定すればよい。 When the tap operation on the release icon displayed on the liquid crystal display panel 51 is detected to determine the main imaging instruction, step S204 may be positively determined when the released release icon being displayed is tapped.

ステップS205において、制御部70は駆動部21へ指示を送り、撮像部20による記録用撮像を開始させる。ステップS205で開始する記録用画像の取得は、例えば撮像素子100の撮像面の略全域を対象に明部領域85用の制御パラメータを設定して行う。 In step S205, the control unit 70 sends an instruction to the drive unit 21 to start recording imaging by the image pickup unit 20. The acquisition of the recording image started in step S205 is performed, for example, by setting the control parameters for the bright region 85 for substantially the entire area of the imaging surface of the image sensor 100.

ステップS206において、制御部70は駆動部21へ指示を送り、撮像部20から第1データの転送を行わせる。第1データは、上記時刻t1において読み出す画素信号A(=a)に対応する。ステップS207において、制御部70は、画像処理部30へ指示を送り、第1データのうち明部領域85に対応するデータをワークメモリ40に一時格納してステップS208へ進む。 In step S206, the control unit 70 sends an instruction to the drive unit 21 to transfer the first data from the image pickup unit 20. The first data corresponds to the pixel signal A (= a) read out at the time t1. In step S207, the control unit 70 sends an instruction to the image processing unit 30, temporarily stores the data corresponding to the bright region 85 in the first data in the work memory 40, and proceeds to step S208.

ステップS208において、制御部70は駆動部21へ指示を送り、撮像部20から第2データの転送を行わせる。第2データは、上記時刻t2において読み出す画素信号B(=a+b)に対応する。ステップS209において、制御部70は、画像処理部30へ指示を送り、第2データ(すなわち暗部領域95に対応するデータ)をワークメモリ40に一時格納してステップS210へ進む。 In step S208, the control unit 70 sends an instruction to the drive unit 21 to transfer the second data from the image pickup unit 20. The second data corresponds to the pixel signal B (= a + b) read out at the time t2. In step S209, the control unit 70 sends an instruction to the image processing unit 30, temporarily stores the second data (that is, the data corresponding to the dark area 95) in the work memory 40, and proceeds to step S210.

ステップS210において、制御部70は画像処理部30へ指示を送り、ワークメモリ40に一時格納されている第1データおよび第2データを画像合成する。具体的には、第1データによる画像のうち、暗部領域95に対応する領域を第2データによる画像で置換する。これにより、暗部領域95は画素信号B(=a+b)で構成され、明部領域は画素信号A(=a)で構成される合成画像が得られる。制御部70は、画像合成が終了するとステップS202へ戻る。ステップS202へ戻る場合は、上述した処理を繰り返す。 In step S210, the control unit 70 sends an instruction to the image processing unit 30, and image-synthesizes the first data and the second data temporarily stored in the work memory 40. Specifically, in the image based on the first data, the region corresponding to the dark area 95 is replaced with the image based on the second data. As a result, a composite image is obtained in which the dark region 95 is composed of the pixel signal B (= a + b) and the bright region is composed of the pixel signal A (= a). The control unit 70 returns to step S202 when the image composition is completed. When returning to step S202, the above-described processing is repeated.

上述したステップS204を否定判定して進むステップS211において、制御部70は、電源オフ操作されたか否かを判定する。制御部70は、不図示のON-OFFスイッチが電源オフ操作された場合にステップS211を肯定判定し、所定の電源オフ処理を行って図10による処理を終了する。制御部70は、不図示のON-OFFスイッチが電源オフ操作されない場合には、ステップS211を否定判定してステップS202へ戻る。 In step S211 in which the above-mentioned step S204 is negatively determined and the process proceeds, the control unit 70 determines whether or not the power-off operation has been performed. The control unit 70 positively determines step S211 when the power-off operation of the ON-OFF switch (not shown) is performed, performs a predetermined power-off process, and ends the process according to FIG. If the ON-OFF switch (not shown) is not operated to turn off the power, the control unit 70 makes a negative determination in step S211 and returns to step S202.

以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)撮像素子100は、演算回路415から出力されるデータがデマルチプレクサ413に入力されたデータである場合に画像の明部領域85を形成し、演算回路415から出力されるデータが加算器416により加算されたデータである場合に画像の暗部領域95を形成するようにしたので、光電変換データと、これを用いる処理とを適切に組み合わせて広いダイナミックレンジの画像を得ることができる。
According to the second embodiment described above, the following effects can be obtained.
(1) The image pickup element 100 forms a bright region 85 of the image when the data output from the arithmetic circuit 415 is the data input to the demultiplexer 413, and the data output from the arithmetic circuit 415 is an adder. Since the dark region 95 of the image is formed when the data is added by 416, the photoelectric conversion data and the processing using the photoelectric conversion data can be appropriately combined to obtain an image having a wide dynamic range.

(2)演算回路415から上記入力データを出力させるか、または加算データを出力させるかを、入力データによって構成される画像を解析して決定するようにしたので、画像に応じて適切な光電変換データを出力させることができる。 (2) Since the image composed of the input data is analyzed to determine whether to output the input data or the addition data from the arithmetic circuit 415, an appropriate photoelectric conversion is determined according to the image. Data can be output.

(3)上記決定では、画像の輝度が所定値より高い領域に対応する画素については上記入力データを出力させ、画像の輝度が所定値より低い領域に対応する画素について上記加算されたデータを出力させるようにしたので、適切な光電変換データを出力させることができる。 (3) In the above determination, the input data is output for the pixels corresponding to the region where the brightness of the image is higher than the predetermined value, and the added data is output for the pixels corresponding to the region where the brightness of the image is lower than the predetermined value. Therefore, it is possible to output appropriate photoelectric conversion data.

(変形例1)
上述した第一の実施形態および第二の実施形態に係る撮像装置1を、高機能携帯電話機、またはタブレット端末によって構成してもよい。この場合、高機能携帯電話機(またはタブレット端末)に搭載されるカメラユニットを、上記積層型撮像素子100を用いて構成する。
(Modification example 1)
The image pickup apparatus 1 according to the first embodiment and the second embodiment described above may be configured by a high-performance mobile phone or a tablet terminal. In this case, the camera unit mounted on the high-performance mobile phone (or tablet terminal) is configured by using the stacked image sensor 100.

(変形例2)
上述した第二の実施形態では、画像処理部30が、ワークメモリ40に一時格納されている第1データおよび第2データを用いて画像合成する例を説明した。この代わりに、図4および図5に例示した画素メモリ414および加算器416を用いて画像合成を行うように構成してもよい。例えば、時刻t1における画素信号の読み出しの際、撮像素子100から明部領域85に対応する画素信号Aのみを選択的に読み出すように制御する。また、時刻t2における画素信号の読み出しの際、撮像素子100から暗部領域95に対応する画素信号Bのみを選択的に読み出すように制御する。
(Modification 2)
In the second embodiment described above, an example in which the image processing unit 30 synthesizes an image using the first data and the second data temporarily stored in the work memory 40 has been described. Instead, the pixel memory 414 and the adder 416 illustrated in FIGS. 4 and 5 may be used to perform image composition. For example, when the pixel signal is read out at time t1, only the pixel signal A corresponding to the bright region 85 is selectively read out from the image sensor 100. Further, when reading out the pixel signal at time t2, control is performed so that only the pixel signal B corresponding to the dark region 95 is selectively read out from the image sensor 100.

(変形例3)
上述した第一の実施形態、および第二の実施形態では、撮像素子100(撮像チップ113)の所定の領域から、第1蓄積時間経過後の画素信号と、第2蓄積時間経過後の画素信号とを2回に分けて読み出す例を説明した。複数回の読み出し回数は、上述した2回だけでなく、3回でも4回でもそれ以上であってもよい。
(Modification example 3)
In the first embodiment and the second embodiment described above, the pixel signal after the lapse of the first storage time and the pixel signal after the lapse of the second storage time have passed from a predetermined region of the image sensor 100 (imaging chip 113). An example of reading out in two steps has been described. The number of times of reading a plurality of times may be not only the above-mentioned two times but also three times, four times, or more.

また、本撮像の指示前に複数回に分けて読み出した画像については、それぞれAF演算に用いる画像、露出演算、ホワイトバランス調整値の決定に用いる画像、主要被写体の抽出に用いる画像、ライブビュー表示に用いる画像などとして、その用途を分けてもよい。また、本撮像の指示後に複数回に分けて読み出した画像については、それぞれ、きわめて明部領域、明部領域、暗部領域、きわめて暗部領域などとして、その用途を画像の明るさ別に分けてもよい。 In addition, for the images read out in multiple times before the instruction of the main imaging, the image used for AF calculation, the exposure calculation, the image used for determining the white balance adjustment value, the image used for extracting the main subject, and the live view display are displayed. The use may be divided as an image to be used for. Further, the images read out in a plurality of times after the instruction of the main imaging may be classified into an extremely bright region, a bright region, a dark region, an extremely dark region, and the like, respectively, and their uses may be divided according to the brightness of the image. ..

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。上記各実施形態および各変形例の構成は、適宜組合せて構わない。 The above description is merely an example, and is not limited to the configuration of the above embodiment. The configurations of the above embodiments and the modifications may be combined as appropriate.

1…撮像装置
10…撮像光学系
20…撮像部
30…画像処理部
40…ワークメモリ
50…表示部
51…液晶表示パネル
52…タッチパネル
60…記録部
70…制御部
71…AF演算部
72…AE、AWB演算部
100…撮像素子
109…バンプ
111…信号処理チップ
112…メモリチップ
113…撮像チップ
131…単位領域
413…デマルチプレクサ
414…画素メモリ
415…演算回路
416…加算器
417…駆動制御部
1 ... Image sensor 10 ... Imaging optical system 20 ... Imaging unit 30 ... Image processing unit 40 ... Work memory 50 ... Display unit 51 ... Liquid crystal display panel 52 ... Touch panel 60 ... Recording unit 70 ... Control unit 71 ... AF calculation unit 72 ... AE , AWB arithmetic unit 100 ... image sensor 109 ... bump 111 ... signal processing chip 112 ... memory chip 113 ... imaging chip 131 ... unit area 413 ... demultiplexer 414 ... pixel memory 415 ... arithmetic circuit 416 ... adder 417 ... drive control unit

Claims (13)

行方向と列方向とにおいて並んで配置される複数の画素と、
前記複数の画素のうち第1画素から第1出力配線に出力された第1信号をデジタル信号に変換する第1変換部と、
前記複数の画素のうち、前記第1画素から前記列方向側の位置に配置される第2画素から第2出力配線に出力された第2信号をデジタル信号に変換する第2変換部と、
前記第1変換部でデジタル信号に変換された前記第1信号に加算処理を行う第1加算器と、
前記第2変換部でデジタル信号に変換された前記第2信号に加算処理を行う第2加算器と、
を備える撮像素子。
Multiple pixels arranged side by side in the row and column directions,
A first conversion unit that converts a first signal output from the first pixel to the first output wiring among the plurality of pixels into a digital signal, and a first conversion unit.
Among the plurality of pixels, a second conversion unit that converts a second signal output from the second pixel arranged at a position on the column direction side from the first pixel to the second output wiring into a digital signal, and a second conversion unit.
A first adder that performs addition processing on the first signal converted into a digital signal by the first conversion unit, and
A second adder that performs addition processing on the second signal converted into a digital signal by the second conversion unit, and
An image sensor comprising.
請求項1に記載の撮像素子において、
前記第1加算器で加算処理が行われた前記第1信号を記憶する第1記憶部と、
前記第2加算器で加算処理が行われた前記第2信号を記憶する第2記憶部と、
を備える撮像素子。
In the image pickup device according to claim 1,
A first storage unit that stores the first signal that has been subjected to addition processing by the first adder, and a first storage unit.
A second storage unit that stores the second signal that has been subjected to addition processing by the second adder, and a second storage unit.
An image sensor comprising.
請求項1または請求項2に記載の撮像素子において、
前記第1加算器は、前記第1画素において前記第1信号を前記第1出力配線に出力する前に生成された信号を用いて前記第1信号に加算処理を行い、
前記第2加算器は、前記第2画素において前記第2信号を前記第2出力配線に出力する前に生成された信号を用いて前記第2信号に加算処理を行う撮像素子。
In the image pickup device according to claim 1 or 2.
The first adder performs an addition process on the first signal using a signal generated before the first signal is output to the first output wiring in the first pixel.
The second adder is an image pickup device that performs addition processing on the second signal using a signal generated before the second signal is output to the second output wiring in the second pixel.
請求項1から請求項3のいずれか一項に記載の撮像素子において、
前記第1加算器は、前記複数の画素のうち、前記第1画素から前記行方向側の位置に配置される第3画素から出力された第3信号に加算処理を行い、
前記第2加算器は、前記複数の画素のうち、前記第2画素から前記行方向側の位置に配置される第4画素から出力された第4信号に加算処理を行う撮像素子。
In the image pickup device according to any one of claims 1 to 3.
The first adder performs addition processing on a third signal output from a third pixel arranged at a position on the row direction side from the first pixel among the plurality of pixels.
The second adder is an image pickup device that performs addition processing on a fourth signal output from a fourth pixel arranged at a position on the row direction side from the second pixel among the plurality of pixels.
請求項4に記載の撮像素子において、
前記第1出力配線は、前記第3信号が出力され、
前記第2出力配線は、前記第4信号が出力される撮像素子。
In the image pickup device according to claim 4,
The third signal is output from the first output wiring.
The second output wiring is an image sensor that outputs the fourth signal.
請求項4または請求項5に記載の撮像素子において、
前記第1加算器で加算処理が行われた前記第3信号を記憶する第3記憶部と、
前記第2加算器で加算処理が行われた前記第4信号を記憶する第4記憶部と、
を備える撮像素子。
In the image pickup device according to claim 4 or 5.
A third storage unit that stores the third signal that has been subjected to addition processing by the first adder, and a third storage unit.
A fourth storage unit that stores the fourth signal that has been subjected to addition processing by the second adder, and a fourth storage unit.
An image sensor comprising.
請求項4から請求項6のいずれか一項に記載の撮像素子において、
前記第1加算器は、前記第3画素において前記第3信号を前記第1出力配線に出力する前に生成された信号を用いて前記第3信号に加算処理を行い、
前記第2加算器は、前記第4画素において前記第4信号を前記第2出力配線に出力する前に生成された信号を用いて前記第4信号に加算処理を行う撮像素子。
The image sensor according to any one of claims 4 to 6.
The first adder performs addition processing on the third signal using the signal generated before outputting the third signal to the first output wiring in the third pixel.
The second adder is an image sensor that performs addition processing on the fourth signal using a signal generated before the fourth signal is output to the second output wiring in the fourth pixel.
請求項1から請求項7のいずれか一項に記載の撮像素子において、
前記複数の画素は、光が入射される撮像チップに配置され、
前記第1変換部および前記第2変換部は、前記撮像チップに接続される信号処理チップに配置される撮像素子。
In the image pickup device according to any one of claims 1 to 7.
The plurality of pixels are arranged on an imaging chip on which light is incident, and the plurality of pixels are arranged on an imaging chip.
The first conversion unit and the second conversion unit are image pickup devices arranged on a signal processing chip connected to the image pickup chip.
請求項8に記載の撮像素子において、
前記第1加算器および前記第2加算器は、前記信号処理チップに接続されるメモリチップに配置される撮像素子。
In the image pickup device according to claim 8,
The first adder and the second adder are image pickup devices arranged on a memory chip connected to the signal processing chip.
請求項1から請求項9のいずれか一項に記載の撮像素子を備える撮像装置。 An image pickup apparatus comprising the image pickup device according to any one of claims 1 to 9. 請求項10に記載の撮像装置において、
前記第1記憶部に記憶された前記第1信号と前記第2記憶部に記憶された前記第2信号とに基づく画像を表示部に表示させる制御部を備える撮像装置。
In the imaging device according to claim 10,
An imaging device including a control unit that displays an image based on the first signal stored in the first storage unit and the second signal stored in the second storage unit on the display unit.
請求項11に記載の撮像装置において、
前記撮像素子は、フォーカスレンズを含む光学系からの光が入射され、
前記制御部は、前記第1記憶部に記憶された前記第1信号と前記第2記憶部に記憶された前記第2信号とのうち少なくとも一方の信号を用いて前記フォーカスレンズを駆動させる撮像装置。
In the imaging device according to claim 11,
Light from an optical system including a focus lens is incident on the image sensor.
The control unit is an imaging device that drives the focus lens using at least one signal of the first signal stored in the first storage unit and the second signal stored in the second storage unit. ..
請求項11または請求項12に記載の撮像装置において、
前記制御部は、前記第1記憶部に記憶された前記第1信号と前記第2記憶部に記憶された前記第2信号とに基づいて生成された画像データを記録部に記録させる撮像装置。
In the imaging apparatus according to claim 11 or 12.
The control unit is an imaging device that causes a recording unit to record image data generated based on the first signal stored in the first storage unit and the second signal stored in the second storage unit.
JP2021038379A 2018-04-27 2021-03-10 Imaging element and imaging device Active JP7176583B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021038379A JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device
JP2022180358A JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018086362A JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor
JP2021038379A JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018086362A Division JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022180358A Division JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Publications (2)

Publication Number Publication Date
JP2021097413A true JP2021097413A (en) 2021-06-24
JP7176583B2 JP7176583B2 (en) 2022-11-22

Family

ID=63680635

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018086362A Active JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor
JP2021038379A Active JP7176583B2 (en) 2018-04-27 2021-03-10 Imaging element and imaging device
JP2022180358A Pending JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018086362A Active JP6852712B2 (en) 2018-04-27 2018-04-27 Image sensor and image sensor

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022180358A Pending JP2023010785A (en) 2018-04-27 2022-11-10 Imaging element and imaging device

Country Status (1)

Country Link
JP (3) JP6852712B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287879A (en) * 2005-04-05 2006-10-19 Denso Corp Image sensor and method for controlling same
WO2006129762A1 (en) * 2005-06-02 2006-12-07 Sony Corporation Semiconductor image sensor module and method for manufacturing same
JP2007251680A (en) * 2006-03-16 2007-09-27 National Univ Corp Shizuoka Univ Image sensor
JP2008141610A (en) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd Solid-state imaging apparatus, and imaging system
JP2013070364A (en) * 2011-09-21 2013-04-18 Aptina Imaging Corp Image sensor with flexible interconnect capabilities
JP2015530855A (en) * 2012-10-05 2015-10-15 ラムバス・インコーポレーテッド Multi-bit readout image sensor with conditional reset

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3408045B2 (en) * 1996-01-19 2003-05-19 キヤノン株式会社 Photoelectric conversion device
JP4289377B2 (en) * 2006-08-21 2009-07-01 ソニー株式会社 Physical quantity detection device and imaging device
JP4941131B2 (en) * 2007-06-30 2012-05-30 株式会社ニコン Solid-state imaging device and electronic camera
JP5266916B2 (en) * 2008-07-09 2013-08-21 ソニー株式会社 Image sensor, camera, image sensor control method, and program
JP5104812B2 (en) * 2009-05-07 2012-12-19 ソニー株式会社 Semiconductor module
JP5168319B2 (en) * 2010-05-26 2013-03-21 ソニー株式会社 Solid-state imaging device and driving method of solid-state imaging device
JP6045156B2 (en) * 2011-05-25 2016-12-14 オリンパス株式会社 Solid-state imaging device
JP5835996B2 (en) * 2011-08-08 2015-12-24 オリンパス株式会社 Imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287879A (en) * 2005-04-05 2006-10-19 Denso Corp Image sensor and method for controlling same
WO2006129762A1 (en) * 2005-06-02 2006-12-07 Sony Corporation Semiconductor image sensor module and method for manufacturing same
JP2007251680A (en) * 2006-03-16 2007-09-27 National Univ Corp Shizuoka Univ Image sensor
JP2008141610A (en) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd Solid-state imaging apparatus, and imaging system
JP2013070364A (en) * 2011-09-21 2013-04-18 Aptina Imaging Corp Image sensor with flexible interconnect capabilities
JP2015530855A (en) * 2012-10-05 2015-10-15 ラムバス・インコーポレーテッド Multi-bit readout image sensor with conditional reset

Also Published As

Publication number Publication date
JP7176583B2 (en) 2022-11-22
JP6852712B2 (en) 2021-03-31
JP2023010785A (en) 2023-01-20
JP2018152869A (en) 2018-09-27

Similar Documents

Publication Publication Date Title
JP7264189B2 (en) Imaging element and imaging device
US11196923B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program
CN110086980B (en) Electronic device
US11785345B2 (en) Electronic device, imaging device, and imaging element for obtaining exposure of each area of image
JP6413233B2 (en) Imaging device and imaging device
JP2014179778A (en) Signal processing apparatus, imaging device, imaging apparatus, and electronic apparatus
JP6852712B2 (en) Image sensor and image sensor
JP6916418B2 (en) Imaging device
JP7176591B2 (en) Electronics
JP2021193811A (en) Image sensor and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220325

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7176583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150