JP2020031257A - Imaging apparatus, camera, and imaging method - Google Patents

Imaging apparatus, camera, and imaging method Download PDF

Info

Publication number
JP2020031257A
JP2020031257A JP2016254492A JP2016254492A JP2020031257A JP 2020031257 A JP2020031257 A JP 2020031257A JP 2016254492 A JP2016254492 A JP 2016254492A JP 2016254492 A JP2016254492 A JP 2016254492A JP 2020031257 A JP2020031257 A JP 2020031257A
Authority
JP
Japan
Prior art keywords
image
correction
imaging device
pixel signal
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016254492A
Other languages
Japanese (ja)
Inventor
寿人 吉松
Hisato Yoshimatsu
寿人 吉松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016254492A priority Critical patent/JP2020031257A/en
Priority to PCT/JP2017/046594 priority patent/WO2018124050A1/en
Publication of JP2020031257A publication Critical patent/JP2020031257A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Abstract

To provide an imaging apparatus capable of increasing higher image processing speed than the prior art.SOLUTION: An imaging apparatus 10 includes: a solid-state image pickup device 100 having a plurality of pixels 210 arranged in a matrix and capable of nondestructive reading; and an image processing part 320 that generates a captured image P13 by correcting a first-pixel signal obtained from the solid-state image pickup device 100 after exposure is completed. The image processing part 320 performs the correction on the basis of a second-pixel signal obtained from the solid-state image pickup device 100 by nondestructive reading during exposure.SELECTED DRAWING: Figure 1

Description

本開示は、撮像装置、当該撮像装置を備えるカメラ及びその撮像方法に関する。   The present disclosure relates to an imaging device, a camera including the imaging device, and an imaging method thereof.

従来、イメージセンサを用いて画像を撮像する撮像装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an imaging device that captures an image using an image sensor is known (for example, see Patent Document 1).

特開2008―042180号公報JP 2008-042180 A

撮像装置では種々の画像処理が行われるが、撮像装置としては当該画像処理の速度が高速であることが望まれる。   Various kinds of image processing are performed in the imaging apparatus, and it is desired that the imaging apparatus has a high speed of the image processing.

そこで、本開示は、従来よりも画像処理の速度が高速化された撮像装置、カメラ及び撮像方法を提供する。   Therefore, the present disclosure provides an imaging device, a camera, and an imaging method in which the speed of image processing is higher than in the related art.

上記目的を達成するために、本開示の一態様に係る撮像装置は、行列状に配列され、非破壊読み出しが可能な複数の画素を有する固体撮像装置と、露光の終了後に前記固体撮像装置から取得した第1の画素信号に補正を行うことで撮像画像を生成する画像処理部と、を備え、前記画像処理部は、前記露光中の前記非破壊読み出しにより前記固体撮像装置から取得した第2の画素信号に基づいて前記補正を行う。   In order to achieve the above object, an imaging device according to an embodiment of the present disclosure is arranged in a matrix, a solid-state imaging device having a plurality of pixels capable of nondestructive readout, and from the solid-state imaging device after the end of exposure. An image processing unit that generates a captured image by performing correction on the obtained first pixel signal, wherein the image processing unit obtains a second image obtained from the solid-state imaging device by the nondestructive readout during the exposure. The above correction is performed based on the pixel signal.

また、本開示の一態様に係るカメラは、上記に記載の撮像装置を備える。   Further, a camera according to an aspect of the present disclosure includes the imaging device described above.

また、本開示の一態様に係る撮像方法は、行列状に配列され、非破壊読み出しが可能な複数の画素を有する固体撮像装置から、露光の終了後に第1の画素信号を取得し、前記露光中の非破壊読み出しにより前記固体撮像装置から取得した第2の画素信号に基づいて前記第1の画素信号に補正を行うことで撮像画像を生成する。   In addition, the imaging method according to an aspect of the present disclosure includes acquiring a first pixel signal from a solid-state imaging device having a plurality of pixels arranged in a matrix and capable of nondestructive readout after the end of exposure, A captured image is generated by performing correction on the first pixel signal based on the second pixel signal acquired from the solid-state imaging device by non-destructive readout.

上記本開示に係る撮像装置、カメラ、及び撮像方法によれば、画像処理の速度が高速化される。   According to the imaging device, the camera, and the imaging method according to the present disclosure, the speed of image processing is increased.

実施の形態に係る撮像装置の全体構成を示すブロック図である。FIG. 1 is a block diagram illustrating an overall configuration of an imaging device according to an embodiment. 実施の形態に係る画素の回路構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a circuit configuration of a pixel according to an embodiment. 実施の形態に係る撮像装置が内蔵されたカメラの機能ブロック図である。FIG. 2 is a functional block diagram of a camera including the imaging device according to the embodiment; 実施の形態に係る撮像装置の動作を示すフローチャートである。5 is a flowchart illustrating an operation of the imaging device according to the embodiment. 従来例に係る撮像装置の動作を示すフローチャートである。9 is a flowchart illustrating an operation of the imaging apparatus according to the conventional example. 実施の形態に係る画像処理の流れを説明するための図である。FIG. 4 is a diagram for describing a flow of image processing according to the embodiment. 実施の形態に係る画像処理で生成される画像を示す図である。FIG. 4 is a diagram illustrating an image generated by the image processing according to the embodiment. 実施の形態に係る撮像装置が内蔵されたカメラの外観図である。FIG. 1 is an external view of a camera including an imaging device according to an embodiment.

以下では、本開示の撮像装置、カメラ及び撮像方法について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本開示の好ましい一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。よって、以下の実施の形態における構成要素のうち、本開示の最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Hereinafter, an imaging device, a camera, and an imaging method according to the present disclosure will be described in detail with reference to the drawings. Each of the embodiments described below shows a preferred specific example of the present disclosure. Therefore, the numerical values, shapes, materials, constituent elements, arrangement and connection forms of the constituent elements, steps, order of steps, and the like shown in the following embodiments are merely examples, and do not limit the present disclosure. Therefore, among the components in the following embodiments, components that are not described in the independent claims that indicate the highest concept of the present disclosure are described as arbitrary components.

なお、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。   It is noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter. In addition, each drawing is a schematic diagram, and is not necessarily strictly illustrated.

(実施の形態)
以下、図1〜図7を用いて、実施の形態を説明する。
(Embodiment)
An embodiment will be described below with reference to FIGS.

[1.撮像装置の全体構成]
まず、本実施の形態に係る撮像装置の全体構成について、図1を用いて説明する。図1は、本実施の形態に係る撮像装置10の全体構成を示すブロック図である。同図に示された撮像装置10は、固体撮像装置100と、信号処理部300とを備える。さらに、固体撮像装置100は、画素アレイ部110と、列AD変換部120と、行走査部130と、列走査部140と、駆動制御部150とを有する。また、画素アレイ部110及びその周辺領域には、画素列ごとに列信号線160が配置され、画素行ごとに走査線170が配置されている。
[1. Overall configuration of imaging apparatus]
First, the overall configuration of the imaging device according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating an overall configuration of an imaging device 10 according to the present embodiment. The imaging device 10 illustrated in FIG. 1 includes a solid-state imaging device 100 and a signal processing unit 300. Further, the solid-state imaging device 100 includes a pixel array unit 110, a column AD conversion unit 120, a row scanning unit 130, a column scanning unit 140, and a drive control unit 150. In the pixel array section 110 and its peripheral area, a column signal line 160 is arranged for each pixel column, and a scanning line 170 is arranged for each pixel row.

画素アレイ部110は、複数の画素210が行列状に配置された撮像部である。   The pixel array unit 110 is an imaging unit in which a plurality of pixels 210 are arranged in a matrix.

列AD変換(アナログ/デジタルコンバータ)部120は、各列信号線160から入力された信号(アナログ信号)をデジタル変換することで、画素210の受光量に対応するデジタル値を取得、保持及び出力する変換部である。   The column AD conversion (analog / digital converter) unit 120 obtains, holds, and outputs a digital value corresponding to the amount of light received by the pixel 210 by digitally converting a signal (analog signal) input from each column signal line 160. This is a conversion unit.

行走査部130は、行単位で画素210のリセット動作、電荷の蓄積動作、及び読み出し動作を制御する機能を有する。   The row scanning unit 130 has a function of controlling the reset operation, the charge accumulation operation, and the read operation of the pixel 210 on a row-by-row basis.

列走査部140は、列AD変換部120に保持された一行分のデジタル値を行信号線180へ順次出力させることで、信号処理部300に出力させる。   The column scanning unit 140 causes the signal processing unit 300 to output the digital values for one row held in the column AD conversion unit 120 sequentially to the row signal line 180.

駆動制御部150は、行走査部130及び列走査部140に対して各種制御信号を供給することにより、各部を制御する。駆動制御部150は、例えば、信号処理部300からの制御信号に基づいて、行走査部130及び列走査部140に対して各種制御信号を供給する。   The drive control unit 150 controls each unit by supplying various control signals to the row scanning unit 130 and the column scanning unit 140. The drive control unit 150 supplies various control signals to the row scanning unit 130 and the column scanning unit 140 based on a control signal from the signal processing unit 300, for example.

[2.固体撮像装置の構成]
続いて、固体撮像装置100の構成について、図1を参照しながら、図2を用いて詳細に説明する。
[2. Configuration of solid-state imaging device]
Next, the configuration of the solid-state imaging device 100 will be described in detail with reference to FIG.

[2−1.画素]
まずは、画素210について、図2を用いて説明する。図2は、本実施の形態に係る画素210の回路構成の一例を示す図である。
[2-1. Pixel]
First, the pixel 210 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a circuit configuration of the pixel 210 according to the present embodiment.

画素210は、光電変換素子211と、リセットトランジスタ212と、増幅トランジスタ213と、選択トランジスタ214と、電荷蓄積部215とを有する。   The pixel 210 includes a photoelectric conversion element 211, a reset transistor 212, an amplification transistor 213, a selection transistor 214, and a charge storage unit 215.

光電変換素子211は、受光した光を信号電荷(画素電荷)に光電変換する光電変換部である。具体的には、光電変換素子211は、上部電極211aと、下部電極211bと、両電極に挟まれた光電変換膜211cとで構成されている。光電変換膜211cは、受光した光に応じて電荷を発生する光電変換材料で構成された膜であり、本実施の形態では、高い光吸収機能を有する有機分子を含む有機光電変換膜で構成されている。言い換えると、本実施の形態に係る光電変換素子211は有機光電変換膜を有する有機光電変換素子であり、固体撮像装置100は有機光電変換素子を用いた有機センサである。なお、有機光電変換膜は、複数の画素210に跨って形成されている。複数の画素210のそれぞれは、有機光電変換膜を有する。   The photoelectric conversion element 211 is a photoelectric conversion unit that performs photoelectric conversion of received light into signal charges (pixel charges). Specifically, the photoelectric conversion element 211 includes an upper electrode 211a, a lower electrode 211b, and a photoelectric conversion film 211c sandwiched between both electrodes. The photoelectric conversion film 211c is a film formed of a photoelectric conversion material that generates electric charge in accordance with received light, and in this embodiment, is formed of an organic photoelectric conversion film including an organic molecule having a high light absorption function. ing. In other words, the photoelectric conversion element 211 according to the present embodiment is an organic photoelectric conversion element having an organic photoelectric conversion film, and the solid-state imaging device 100 is an organic sensor using the organic photoelectric conversion element. Note that the organic photoelectric conversion film is formed over a plurality of pixels 210. Each of the plurality of pixels 210 has an organic photoelectric conversion film.

光電変換膜211cの厚さは、例えば、約500nmである。また、光電変換膜211cは、例えば、真空蒸着法を用いて形成される。上記有機分子は、波長約400nmから約700nmの可視光全域にわたって高い光吸収機能を有する。   The thickness of the photoelectric conversion film 211c is, for example, about 500 nm. The photoelectric conversion film 211c is formed by using, for example, a vacuum evaporation method. The organic molecule has a high light absorption function over the entire range of visible light having a wavelength of about 400 nm to about 700 nm.

なお、本実施の形態に係る画素210が備える光電変換素子211は、上述した有機光電変換膜で構成されていることに限定されず、例えば、無機材料で構成されたフォトダイオードであってもよい。   Note that the photoelectric conversion element 211 included in the pixel 210 according to the present embodiment is not limited to the above-described organic photoelectric conversion film, and may be, for example, a photodiode including an inorganic material. .

上部電極211aは、下部電極211bと対向する電極であり、光電変換膜211c上に光電変換膜211cを覆うように形成されている。つまり、上部電極211aは、複数の画素210に跨がって形成されている。上部電極211aは、光電変換膜211cに光を入射させるため、透明な導電性材料(例えば、ITO:インジウム・チタン・スズ)で構成されている。   The upper electrode 211a is an electrode facing the lower electrode 211b, and is formed on the photoelectric conversion film 211c so as to cover the photoelectric conversion film 211c. That is, the upper electrode 211a is formed over the plurality of pixels 210. The upper electrode 211a is made of a transparent conductive material (for example, ITO: indium / titanium / tin) to make light incident on the photoelectric conversion film 211c.

下部電極211bは、対向する上部電極211aとの間にある光電変換膜211cで発生した電子又は正孔を取り出すための電極である。下部電極211bは、画素210ごとに形成されている。下部電極211bは、例えば、Ti、TiN、Ta、Moなどで構成されている。   The lower electrode 211b is an electrode for extracting electrons or holes generated in the photoelectric conversion film 211c between the lower electrode 211b and the upper electrode 211a. The lower electrode 211b is formed for each pixel 210. The lower electrode 211b is made of, for example, Ti, TiN, Ta, Mo, or the like.

電荷蓄積部215は、光電変換素子211に接続され、下部電極211bを介して取り出された信号電荷を蓄積する。   The charge storage unit 215 is connected to the photoelectric conversion element 211, and stores the signal charge extracted via the lower electrode 211b.

リセットトランジスタ212は、ドレインにリセット電圧VRSTが供給され、ソースが電荷蓄積部215に接続され、電荷蓄積部215の電位をリセット(初期化)する。具体的には、リセットトランジスタ212のゲートに、リセット用走査線170Aを介して行走査部130から所定の電圧が供給される(オンされる)ことで、リセットトランジスタ212は電荷蓄積部215の電位をリセットする。また、所定の電圧の供給を停止することで、電荷蓄積部215に信号電荷が蓄積される(露光が開始される)。 The reset transistor 212 has a drain supplied with the reset voltage V RST , a source connected to the charge storage unit 215, and resets (initializes) the potential of the charge storage unit 215. Specifically, when a predetermined voltage is supplied (turned on) from the row scanning unit 130 to the gate of the reset transistor 212 via the reset scanning line 170A, the reset transistor 212 causes the potential of the charge storage unit 215 to change. Reset. By stopping the supply of the predetermined voltage, signal charges are stored in the charge storage unit 215 (exposure is started).

増幅トランジスタ213は、ゲートが電荷蓄積部215に接続され、ドレインに電源電圧VDDが供給され、電荷蓄積部215に蓄積された信号電荷の電荷量に応じた画素信号を出力する。 The amplification transistor 213 has a gate connected to the charge storage unit 215, a power supply voltage VDD supplied to the drain, and outputs a pixel signal corresponding to the amount of signal charge stored in the charge storage unit 215.

選択トランジスタ214は、ドレインが増幅トランジスタ213のソースに接続され、ソースに列信号線160に接続され、増幅トランジスタ213から画素信号を出力するタイミングを決定する。具体的には、選択トランジスタ214のゲートに、選択用走査線170Bを介して行走査部130から所定の電圧が供給されることで、増幅トランジスタ213から画素信号が出力される。   The selection transistor 214 has a drain connected to the source of the amplification transistor 213, a source connected to the column signal line 160, and determines a timing at which a pixel signal is output from the amplification transistor 213. Specifically, when a predetermined voltage is supplied to the gate of the selection transistor 214 from the row scanning unit 130 via the selection scanning line 170B, a pixel signal is output from the amplification transistor 213.

上記の構成を有する画素210は、非破壊読み出しが可能である。ここで、非破壊読み出しとは、露光中に、電荷蓄積部215に蓄積した電荷(信号電荷)を破壊せずに、その電荷量に応じた画素信号を読み出すことを意味する。なお、露光中とは、露光時間内の任意のタイミングを意味するものとして使用している。   The pixel 210 having the above structure can perform nondestructive readout. Here, the non-destructive readout means reading out a pixel signal corresponding to the amount of charge (signal charge) stored in the charge storage unit 215 during exposure without destroying the charge (signal charge). The term “during exposure” is used to mean an arbitrary timing within the exposure time.

[2−2.その他の構成]
列AD変換部は、列信号線160ごとに設けられたAD変換器121で構成されている。AD変換器121は、例えば、14bitのAD変換器である。AD変換器121は、例えば、画素210から出力されたアナログの画素信号をランプ方式でデジタル変換することで、画素210での受光量に対応するデジタル値を出力する。AD変換器121は、コンパレータ及びアップダウンカウンタ(図示しない)を有する。
[2-2. Other Configurations]
The column AD converter is configured by AD converters 121 provided for each column signal line 160. The AD converter 121 is, for example, a 14-bit AD converter. The AD converter 121 outputs a digital value corresponding to the amount of light received by the pixel 210 by, for example, converting the analog pixel signal output from the pixel 210 into a digital signal by a ramp method. The AD converter 121 has a comparator and an up / down counter (not shown).

ここで、ランプ方式によるAD変換とは、ランプ波を用いたAD変換であり、アナログの入力信号が入力されると、一定の傾斜で電圧が上昇するランプ波を立ち上げ、その立ち上げ時点から、両信号(入力信号とランプ波)の電圧が一致するまでの時間を計測し、その計測時間をデジタル値で出力する方式である。コンパレータは、列信号の電圧と、ランプ波として入力される参照信号の電圧とを比較し、参照信号の電圧が列信号の電圧と一致するタイミングを示す信号を出力する。   Here, the A / D conversion by the ramp method is an A / D conversion using a ramp wave. When an analog input signal is input, a ramp wave whose voltage rises at a constant slope is started, and from the time of the start. This method measures the time until the voltages of both signals (input signal and ramp wave) match, and outputs the measured time as a digital value. The comparator compares the voltage of the column signal with the voltage of the reference signal input as a ramp wave, and outputs a signal indicating the timing at which the voltage of the reference signal matches the voltage of the column signal.

アップダウンカウンタは、コンパレータに参照信号が入力されてからその参照信号が基準成分を示す列信号の電圧に達するまでの期間においてダウンカウント(あるいは、アップカウント)し、続いて、コンパレータに参照電圧が入力されてからその参照信号が信号成分を示す列信号の電圧に達するまでの期間においてアップカウント(あるいは、ダウンカウント)することで、列信号の信号成分から基準成分を差し引いた差分に相当するデジタル値を最終的に保持する。   The up-down counter counts down (or up-counts) during the period from when the reference signal is input to the comparator until the reference signal reaches the voltage of the column signal indicating the reference component, and then the reference voltage is input to the comparator. Up-counting (or down-counting) in the period from when the reference signal reaches the voltage of the column signal indicating the signal component, to obtain a digital signal corresponding to the difference obtained by subtracting the reference component from the signal component of the column signal. Lastly retain the value.

各アップダウンカウンタに保持されたデジタル値は、順次、行信号線180に出力され、出力回路(図示しないが、出力バッファなど)を介して、信号処理部300に出力される。   The digital value held in each up / down counter is sequentially output to the row signal line 180 and output to the signal processing unit 300 via an output circuit (not shown, such as an output buffer).

駆動制御部150は、行走査部130及び列走査部140を制御することにより、画素210におけるリセット動作、電荷の蓄積動作、及び読み出し動作、又はAD変換器121から信号処理部300へのデジタル信号の出力動作を制御する。   The drive control unit 150 controls the row scanning unit 130 and the column scanning unit 140 to perform a reset operation, a charge accumulation operation, and a read operation in the pixel 210, or a digital signal from the AD converter 121 to the signal processing unit 300. Control the output operation.

例えば、信号処理部300から読み出しの指示を受け付けると、駆動制御部150は、行走査部130を制御し、順次選択用走査線170Bに所定の電圧を印加させ、画素信号(アナログ)を出力させる。また、駆動制御部150は、列走査部140を制御し、AD変換器121に保持されている画素信号(デジタル値)を順次信号処理部300へ出力させる。   For example, upon receiving a read instruction from the signal processing unit 300, the drive control unit 150 controls the row scanning unit 130 to sequentially apply a predetermined voltage to the selection scanning line 170B and output a pixel signal (analog). . Further, the drive control unit 150 controls the column scanning unit 140 to sequentially output the pixel signals (digital values) held in the AD converter 121 to the signal processing unit 300.

[3.信号処理部の構成]
続いて、信号処理部300について、図3を用いて説明する。図3は、本実施の形態に係る撮像装置10が内蔵されたカメラ1の機能ブロック図である。同図に示されたカメラ1は、固体撮像装置100と、信号処理部300と、レンズ400と、表示部500と、操作部600とを備える。そして、信号処理部300は、制御部310、画像処理部320及びメモリ330を有する。
[3. Configuration of Signal Processing Unit]
Next, the signal processing unit 300 will be described with reference to FIG. FIG. 3 is a functional block diagram of the camera 1 including the imaging device 10 according to the present embodiment. The camera 1 shown in FIG. 1 includes a solid-state imaging device 100, a signal processing unit 300, a lens 400, a display unit 500, and an operation unit 600. The signal processing unit 300 includes a control unit 310, an image processing unit 320, and a memory 330.

レンズ400を通過した光は、固体撮像装置100に入射する。信号処理部300は、固体撮像装置100を駆動し、固体撮像装置100からの画素信号(デジタル値)を取り込む。例えば、制御部310が駆動制御部150を制御することで、画像処理部320は固体撮像装置100からの画素信号を取り込む。画像処理部320は、固体撮像装置100から取得した画素信号に所定の信号処理を施して、撮像画像を生成する。生成された撮像画像は、メモリ330に格納される。また、生成された撮像画像は表示部500に出力される。なお、画素信号(デジタル値)は、第1の画素信号の一例である。ここで、撮像画像とは、例えば、カメラなどの場合であれば、ユーザに表示される又は記録される画像のことである。   The light that has passed through the lens 400 enters the solid-state imaging device 100. The signal processing unit 300 drives the solid-state imaging device 100 and captures a pixel signal (digital value) from the solid-state imaging device 100. For example, when the control unit 310 controls the drive control unit 150, the image processing unit 320 captures a pixel signal from the solid-state imaging device 100. The image processing unit 320 performs a predetermined signal processing on the pixel signal acquired from the solid-state imaging device 100 to generate a captured image. The generated captured image is stored in the memory 330. The generated captured image is output to the display unit 500. Note that the pixel signal (digital value) is an example of a first pixel signal. Here, the captured image is, for example, an image displayed or recorded by a user in the case of a camera or the like.

制御部310は、例えば、メモリ330からプログラムを読み出し、読み出したプログラムを実行する。上記では制御部310は駆動制御部150を制御することについて説明したが、その他の各部を制御してもよい。例えば、操作部600がユーザからの入力を受け付けると、制御部310は入力に応じた制御を行ってもよい。操作部600がユーザから撮像の指示を受け付けると、制御部310は、レンズ400(具体的には、レンズ400の位置を制御するモータ)を制御し、被写体のピントなどを調整してもよい。   The control unit 310 reads a program from the memory 330, for example, and executes the read program. In the above description, the control unit 310 controls the drive control unit 150. However, the control unit 310 may control other units. For example, when the operation unit 600 receives an input from a user, the control unit 310 may perform control according to the input. When the operation unit 600 receives an instruction to capture an image from a user, the control unit 310 may control the lens 400 (specifically, a motor that controls the position of the lens 400) to adjust the focus of the subject and the like.

画像処理部320は、露光の終了後に固体撮像装置100から取得した第1の画素信号に所定の補正を行うことで撮像画像を生成する。具体的には、露光中に非破壊読み出しにより固体撮像装置100から取得した第2の画素信号に基づいて第1の画素信号に所定の補正を行うことで、撮像画像を生成する。所定の補正とは、1フレーム分の画像データ(1フレーム分の第2の画素信号)を用いないと補正のための情報(例えば、第1の画素信号に施す補正の補正値)を得ることができない補正であり、例えば、階調の補正、手ぶれの補正又はホワイトバランスの補正などである。本実施の形態では、第2の画素信号の解析結果に基づいて、第1の画素信号に上記の補正を行うことに特徴を有する。   The image processing section 320 generates a captured image by performing a predetermined correction on the first pixel signal acquired from the solid-state imaging device 100 after the end of the exposure. Specifically, a captured image is generated by performing a predetermined correction on the first pixel signal based on the second pixel signal acquired from the solid-state imaging device 100 by non-destructive reading during exposure. The predetermined correction is to obtain information for correction (for example, a correction value to be applied to the first pixel signal) unless image data for one frame (second pixel signal for one frame) is used. For example, correction of gradation, correction of camera shake, or correction of white balance is performed. The present embodiment is characterized in that the above-described correction is performed on the first pixel signal based on the analysis result of the second pixel signal.

階調補正では、例えば、逆光などの明暗差の大きなシーンの撮像において、白飛びや黒つぶれなどが生じにくいように第1の画素信号を補正する。具体的には、白飛びの画素を暗く、又は黒つぶれの画素を明るく補正する。このような補正を行うために、画像処理部320は、非破壊読み出しで取得した第2の画素信号(第2の画素信号により生成される画像データ)を用いる。具体的には、1フレーム分の第2の画素信号からボケ画像を生成し、生成したボケ画像と第1の画素信号とを演算することにより、第1の画素信号の補正を行う。第1の画素信号の補正は、画素210ごとに行われる。1つの画素210の第1の画素信号の明るさと、当該第1の画素信号に対応するボケ画像の画素の明るさとを演算することで、当該第1の画素信号の補正値を取得する。画素210ごとに、当該補正値により第1の画素信号を補正することで、撮像画像が生成される。なお、ボケ画像は、補正用画像の一例である。   In the gradation correction, for example, the first pixel signal is corrected so that overexposure and underexposure of black are unlikely to occur in imaging of a scene with a large difference in brightness such as backlight. Specifically, the overexposed pixels are corrected to be dark or the underexposed pixels are corrected to be bright. In order to perform such a correction, the image processing unit 320 uses a second pixel signal (image data generated by the second pixel signal) acquired by nondestructive reading. Specifically, the first pixel signal is corrected by generating a blurred image from the second pixel signal for one frame and calculating the generated blurred image and the first pixel signal. The correction of the first pixel signal is performed for each pixel 210. The correction value of the first pixel signal is obtained by calculating the brightness of the first pixel signal of one pixel 210 and the brightness of the pixel of the blurred image corresponding to the first pixel signal. By correcting the first pixel signal with the correction value for each pixel 210, a captured image is generated. Note that the blurred image is an example of a correction image.

また、明暗差の小さなシーンにおいても同様に、ボケ画像と第1の画素信号とを演算し、その演算結果から第1の画素信号を補正することで、撮像画像を生成する。 手ぶれ補正では、非破壊読み出しで取得した第2の画素信号により生成された画像(補正用画像の一例)と、例えば1つ前のフレームにおける第1又は第2の画素信号により生成された画像とから動きベクトルを取得し、取得した動きベクトルに応じて第1の画素信号を補正する。信号処理部300は、1フレームの画像に対し、1つの動きベクトルを算出する。例えば、1フレームの画像を複数のウィンドウ(1フレームの画像より小さい小領域)に分け、ウィンドウ単位で動きベクトルを取得し、それぞれのウィンドウでの動きベクトルから1フレームの画像における動きベクトルを取得する。なお、補正用画像を用いて動きベクトルを取得することは、画像解析の一例である。   Similarly, in a scene having a small difference in brightness, a captured image is generated by calculating a blurred image and a first pixel signal and correcting the first pixel signal from the calculation result. In the camera shake correction, an image generated by the second pixel signal acquired by the non-destructive readout (an example of an image for correction) and, for example, an image generated by the first or second pixel signal in the immediately preceding frame are used. , And corrects the first pixel signal according to the obtained motion vector. The signal processing unit 300 calculates one motion vector for one frame image. For example, an image of one frame is divided into a plurality of windows (small areas smaller than the image of one frame), a motion vector is obtained in units of windows, and a motion vector in an image of one frame is obtained from the motion vector in each window. . Obtaining a motion vector using the correction image is an example of image analysis.

ホワイトバランスの補正でも、上記と同様に第2の画素信号の解析結果から第1の画素信号のホワイトバランスを補正する。例えば、オフセットの補正(アナログ信号をデジタル信号に変換する際のOB段差の補正)を行ったのち、ホワイトバランスの補正を行う場合、オフセットの補正においても、非破壊読み出しで取得した第2の画素信号を用いてもよい。なお、手ぶれ補正やホワイトバランスの補正などは、ボケ画像を用いなくてもよく、非破壊読み出しにより取得した1フレーム分の画像を用いることで補正が実施できる。   In the white balance correction as well, the white balance of the first pixel signal is corrected from the analysis result of the second pixel signal in the same manner as described above. For example, when white balance is corrected after performing offset correction (correction of an OB step when converting an analog signal into a digital signal), the second pixel acquired by non-destructive reading is also used in offset correction. A signal may be used. It should be noted that camera shake correction, white balance correction, and the like do not need to use a blurred image, and can be performed using an image for one frame acquired by nondestructive reading.

なお、補正用画像の生成、又は生成した補正用画像を用いて画像解析することは、画像処理の一例である。   Note that generation of a correction image or image analysis using the generated correction image is an example of image processing.

露光中の非破壊読み出しで取得した第2の画素信号で生成される画像データ(画像)は、露光が終了した後に取得した第1の画素信号で生成される撮像画像に比べ全体的に暗い画像となる。そのため、第2の画素信号を用いて補正用画像を生成する前に、第2の画素信号を増幅する(明るさに対するゲインの補正をする)ことにより、画像データの明るさを調整してもよい。具体的には、明るさを高くする調整を行ってもよい。   The image data (image) generated by the second pixel signal acquired by the nondestructive readout during the exposure is an image that is overall darker than the captured image generated by the first pixel signal acquired after the exposure is completed. Becomes Therefore, the brightness of the image data is adjusted by amplifying the second pixel signal (correcting the gain with respect to the brightness) before generating the correction image using the second pixel signal. Good. Specifically, adjustment for increasing the brightness may be performed.

メモリ330は、画像処理部320のワークメモリとして機能する。メモリ330は、画像処理部320で処理された画像データや、画像処理部320で処理される前の固体撮像装置100から入力される画像データ(第1の画素信号)などを一時的に格納する。   The memory 330 functions as a work memory of the image processing unit 320. The memory 330 temporarily stores image data processed by the image processing unit 320, image data (first pixel signal) input from the solid-state imaging device 100 before being processed by the image processing unit 320, and the like. .

メモリ330は、例えば、DRAM(Dynamic Random Access Memory)、又は、強誘電体メモリなどで実現できる。なお、メモリ330は、撮像装置10が有していればよく、信号処理部300が有していなくてもよい。   The memory 330 can be realized by, for example, a dynamic random access memory (DRAM) or a ferroelectric memory. Note that the memory 330 only needs to be included in the imaging device 10 and does not need to be included in the signal processing unit 300.

表示部500は、信号処理部300で生成した撮像画像を表示する表示デバイスであり、例えば、液晶モニタなどである。また、表示部500は、各種の設定情報が表示可能である。例えば、表示部500は、撮影時の撮影条件(絞りやISO感度など)を表示可能である。   The display unit 500 is a display device that displays a captured image generated by the signal processing unit 300, and is, for example, a liquid crystal monitor. The display unit 500 can display various setting information. For example, the display unit 500 can display shooting conditions (aperture, ISO sensitivity, and the like) at the time of shooting.

操作部600は、ユーザからの入力を受け付ける入力部であり、例えば、レリーズボタン又はタッチパネルなどである。例えば、タッチパネルは液晶モニタに接着されている。ユーザからの撮像の指示や撮影条件の変更などを受け付ける。   The operation unit 600 is an input unit that receives an input from a user, and is, for example, a release button or a touch panel. For example, a touch panel is adhered to a liquid crystal monitor. It accepts imaging instructions from the user, changes in imaging conditions, and the like.

なお、撮像装置10は、外部の回路と、固体撮像装置100又は信号処理部300との間で通信を行うためのインターフェース(図示しない)を備えていてもよい。インターフェースは、一例として、半導体集積回路からなる通信ポートなどである。   Note that the imaging device 10 may include an interface (not shown) for performing communication between an external circuit and the solid-state imaging device 100 or the signal processing unit 300. The interface is, for example, a communication port including a semiconductor integrated circuit.

[4.撮像装置の処理]
次に、撮像装置10の処理について説明する。
[4. Processing of imaging device]
Next, the processing of the imaging device 10 will be described.

[4−1.撮像装置の処理の流れ]
撮像装置10の処理の流れについて、図4A及び図4Bを用いて、従来例と比較しながら説明する。図4Aは、本実施の形態に係る撮像装置10の動作を示すフローチャートである。図4Bは、従来例に係る撮像装置の動作を示すフローチャートである。なお、従来例は、露光の終了後に取得した画素信号(第1の画素信号)を用いて補正を行っている例を示している。つまり、従来例は、非破壊読み出しを行わずに補正を行っている。また、図4A及び図4Bは、階調の補正を行う場合の動作を示すフローチャートの一例である。
[4-1. Processing flow of imaging apparatus]
The processing flow of the imaging device 10 will be described with reference to FIGS. 4A and 4B in comparison with a conventional example. FIG. 4A is a flowchart illustrating the operation of the imaging device 10 according to the present embodiment. FIG. 4B is a flowchart showing the operation of the imaging apparatus according to the conventional example. The conventional example shows an example in which correction is performed using a pixel signal (first pixel signal) acquired after the end of exposure. That is, in the conventional example, the correction is performed without performing the nondestructive reading. FIGS. 4A and 4B are examples of a flowchart showing the operation when performing gradation correction.

まず、固体撮像装置100は、例えば、制御部310の制御により露光を開始する(S1)。これにより、複数の画素210のそれぞれには、受光量に応じた電荷が蓄積される。具体的には、光電変換素子211の受光量に応じた電荷が、電荷蓄積部215に蓄積される。   First, the solid-state imaging device 100 starts exposure under the control of the control unit 310, for example (S1). As a result, charges corresponding to the amount of received light are accumulated in each of the plurality of pixels 210. Specifically, a charge corresponding to the amount of light received by the photoelectric conversion element 211 is stored in the charge storage unit 215.

そして、制御部310は、露光中にそれぞれの画素210の電荷蓄積部215に蓄積された電荷を破壊せずに読み出す非破壊読み出しを実行する制御を行う。より具体的には、制御部310が駆動制御部150を制御し、画素行ごとに列AD変換部120でAD変換を行うことで蓄積電荷(画素信号)を当該蓄積電荷に応じたデジタル値(第2の画素信号)に変換し、変換されたデジタル値は列走査部140によって順次信号処理部300へ出力される。つまり、信号処理部300は、非破壊読み出しにより、第2の画素信号を取得する(S2)。なお、非破壊読み出しを行った後、リセットトランジスタ212による電荷蓄積部215の電位のリセットは、行われない。   Then, the control unit 310 performs a nondestructive readout control for reading out the charges accumulated in the charge accumulation units 215 of the respective pixels 210 during the exposure without destroying the charges. More specifically, the control unit 310 controls the drive control unit 150 and performs AD conversion in the column AD conversion unit 120 for each pixel row, thereby converting the accumulated charge (pixel signal) into a digital value (pixel signal) corresponding to the accumulated charge. The second digital signal is converted into a second pixel signal, and the converted digital value is sequentially output to the signal processing unit 300 by the column scanning unit 140. That is, the signal processing unit 300 acquires the second pixel signal by non-destructive reading (S2). Note that after performing the nondestructive read, the reset of the potential of the charge accumulation unit 215 by the reset transistor 212 is not performed.

画像処理部320は、取得した第2の画素信号からボケ画像(補正用画像の一例)を生成する(S3)。例えば、画像処理部320は、第2の画素信号から生成される画像又は撮像画像より解像度が低いボケ画像を生成してもよい。例えば、第2の画素信号から生成される画像又は撮像画像の解像度が5000×4000である場合、ボケ画像の解像度は50×40などである。ボケ画像は、1フレーム分の第2の画素信号を積算して縮小し、さらにその画像を拡大することで生成される。これにより、一時的にボケ画像を保持するためのメモリ330の容量を削減することができる。階調の補正を行う上では、ボケ画像の解像度は50×40程度であっても補正が可能である。生成したボケ画像は、例えば、画像処理部320が保持していてもよいし、メモリ330に格納してもよい。なお、ボケ画像は取得した第2の画素信号により生成される画像に対してローパスフィルタ処理を行うことで生成されてもよい。   The image processing unit 320 generates a blurred image (an example of a correction image) from the acquired second pixel signal (S3). For example, the image processing unit 320 may generate an image generated from the second pixel signal or a blurred image having a lower resolution than the captured image. For example, when the resolution of the image or the captured image generated from the second pixel signal is 5000 × 4000, the resolution of the blurred image is 50 × 40 or the like. The blurred image is generated by accumulating and reducing the second pixel signal for one frame and further enlarging the image. Thus, the capacity of the memory 330 for temporarily holding the blurred image can be reduced. In performing the gradation correction, the correction can be performed even if the resolution of the blurred image is about 50 × 40. The generated blurred image may be held by the image processing unit 320 or may be stored in the memory 330, for example. Note that the blurred image may be generated by performing a low-pass filter process on an image generated by the acquired second pixel signal.

ここで、固体撮像装置100における露光が終了する(S4)。つまり、本実施の形態に係る撮像装置10は、固体撮像装置100の露光が終了する前に、画像処理部320のボケ画像の生成が完了する。言い換えると、制御部310は、露光時間と、第2の画素信号の取得からボケ画像の生成が完了する(S2及びS3)までに要する時間(第1の時間)とから、非破壊読み出しを実行するタイミングを制御してもよい。例えば、制御部310は、露光が終了する時刻から、第1の時間遡った時刻に、固体撮像装置100に非破壊読み出しを実行させてもよい。これにより、非破壊読み出しにより取得される第2の画素信号の明るさをより明るくし、かつ露光の終了までにボケ画像を生成することができる。これにより、露光の終了後に画素210ごとに順次取得した第1の画素信号に、当該第1の画素信号を取得した時点で、補正を行うことができる。また、第2の画素信号の明るさ(第2の画素信号が示す明るさの情報)が明るいことで、第2の画素信号にゲインをかける際のノイズの影響を低減することができる。なお、第1の時間は、信号処理部300の処理能力及び画素アレイ部110の画素数などから、露光を開始する前に特定可能である。   Here, the exposure in the solid-state imaging device 100 ends (S4). That is, in the imaging device 10 according to the present embodiment, the generation of the blurred image by the image processing unit 320 is completed before the exposure of the solid-state imaging device 100 ends. In other words, the control unit 310 executes non-destructive reading from the exposure time and the time (first time) required from the acquisition of the second pixel signal to the completion of generation of the blurred image (S2 and S3). May be controlled. For example, the control unit 310 may cause the solid-state imaging device 100 to execute non-destructive reading at a time that is a first time earlier than the time at which the exposure ends. This makes it possible to further increase the brightness of the second pixel signal acquired by the nondestructive readout and generate a blurred image by the end of the exposure. Accordingly, it is possible to perform correction on the first pixel signals sequentially acquired for each pixel 210 after the end of the exposure at the time when the first pixel signals are acquired. Further, since the brightness of the second pixel signal (information on the brightness indicated by the second pixel signal) is bright, the influence of noise when applying a gain to the second pixel signal can be reduced. Note that the first time can be specified before the exposure is started, based on the processing capability of the signal processing unit 300, the number of pixels of the pixel array unit 110, and the like.

なお、補正が手ぶれの補正である場合、ステップS3では、補正用画像の生成と、補正用画像の画像解析とが行われる。その場合、制御部310は、露光時間と、第2の画素信号の取得から補正用画像の生成及び解析が完了する(S2及びS3)までに要する時間(第2の時間)とから、非破壊読み出しを実行するタイミングを制御してもよい。例えば、制御部310は、露光が終了する時刻から第2の時間遡った時刻に、固体撮像装置100に非破壊読み出しを実行させてもよい。   If the correction is a camera shake correction, in step S3, generation of a correction image and image analysis of the correction image are performed. In this case, the control unit 310 determines the non-destructive time from the exposure time and the time (second time) required from the acquisition of the second pixel signal to the completion of generation and analysis of the correction image (S2 and S3). The timing at which reading is performed may be controlled. For example, the control unit 310 may cause the solid-state imaging device 100 to execute the nondestructive readout at a time that is a second time earlier than the time at which the exposure ends.

次に、制御部310が露光の終了後に駆動制御部150を制御することで、画素列ごとに列AD変換部120でAD変換を行い、蓄積電荷を当該蓄積電荷に応じたデジタル値に変換する。そして、変換されたデジタル値は列走査部140によって順次信号処理部300へ出力される。つまり、信号処理部300は、第1の画素信号を取得する(S5)。より具体的には、信号処理部300は、複数の画素210ごとの第1の画素信号を、順次取得する。なお、第1の画素信号の読み出しは、例えば、通常読み出しで行う。通常読み出しとは、破壊読み出しのことであり、画素信号を読み出した後、蓄積した電荷を破壊する(リセットトランジスタ212がオンされることで電荷蓄積部215の電位をリセットする)読み出しである。   Next, the control unit 310 controls the drive control unit 150 after the end of the exposure, so that the column AD conversion unit 120 performs AD conversion for each pixel column, and converts the accumulated charge into a digital value corresponding to the accumulated charge. . The converted digital values are sequentially output to the signal processing unit 300 by the column scanning unit 140. That is, the signal processing unit 300 acquires the first pixel signal (S5). More specifically, the signal processing unit 300 sequentially acquires the first pixel signals for each of the plurality of pixels 210. Note that reading of the first pixel signal is performed, for example, by normal reading. The normal readout is a destructive readout in which the stored charge is destroyed after the pixel signal is read (the potential of the charge storage unit 215 is reset by turning on the reset transistor 212).

画像処理部320は、メモリ330に格納したボケ画像を用いて、当該ボケ画像と第1の画素信号とから、第1の画素信号に補正を行うことで撮像画像を生成する(S6)。なお、第1の画素信号に補正を行う際、固体撮像装置100で発生するノイズ(画像としてスジが入るなど)に対する補正、及びレンズ400の周辺の画素210に対する光量調整などを合わせて行ってもよい。これにより、それぞれの補正を別々に行う場合に比べ、補正に要する時間を短縮することができる。   Using the blurred image stored in the memory 330, the image processing unit 320 corrects the first pixel signal from the blurred image and the first pixel signal to generate a captured image (S6). Note that when correcting the first pixel signal, it is possible to perform correction for noise (such as a streak as an image) generated in the solid-state imaging device 100, light amount adjustment for the pixels 210 around the lens 400, and the like. Good. As a result, the time required for the correction can be reduced as compared with the case where each correction is performed separately.

そして、画像処理部320は、例えば、カメラ1が備える表示部500に撮像画像を表示させる、またはカメラ1が備える記憶部(図示しない)若しくはインターフェース(図示しない)を介して外部の記憶媒体に撮像画像を格納する。   The image processing unit 320 displays the captured image on the display unit 500 included in the camera 1 or captures the image on an external storage medium via a storage unit (not illustrated) or an interface (not illustrated) included in the camera 1, for example. Store the image.

続いて、図4Bを用いて、従来例に係る撮像装置の動作について説明する。なお、本実施の形態に係る撮像装置10と同一の動作については、図4Aと同一の符号を付し、説明を省略する場合がある。   Subsequently, an operation of the imaging apparatus according to the conventional example will be described with reference to FIG. 4B. Note that the same operations as those of the imaging device 10 according to the present embodiment are denoted by the same reference numerals as in FIG. 4A, and description thereof may be omitted.

まず、固体撮像装置は、露光を開始(S1)する。信号処理部は、露光中に画像処理は行わず(読み出し等を行わず)、露光が終了する(S4)。この時点で、ボケ画像は生成されていない。   First, the solid-state imaging device starts exposure (S1). The signal processing unit does not perform image processing (does not perform reading or the like) during the exposure, and the exposure ends (S4). At this point, no blurred image has been generated.

信号処理部は、露光の終了後に第1の画素信号を取得する(S5)。信号処理部は、第1の画素信号に、固体撮像装置で発生するノイズに対する補正、及びレンズの周辺の画素に対する光量調整などを行うことで、中間画像を生成する(S11)。これらの処理は、メモリに格納する前に実施される。そして、中間画像はメモリに格納される(S12)。つまり、従来の方法では、中間画像をメモリに格納するための時間を要する。さらに、中間画像を格納するためのメモリが必要となり、そのためメモリの容量を増やす必要がある。例えば、中間画像を格納するために、1フレーム分の画像データを格納できるメモリが余分に必要となる。   The signal processing unit acquires the first pixel signal after the end of the exposure (S5). The signal processing unit generates an intermediate image by performing, on the first pixel signal, correction for noise generated in the solid-state imaging device, light amount adjustment for pixels around the lens, and the like (S11). These processes are performed before storing in the memory. Then, the intermediate image is stored in the memory (S12). That is, the conventional method requires time for storing the intermediate image in the memory. Further, a memory for storing the intermediate image is required, and therefore, the capacity of the memory needs to be increased. For example, in order to store an intermediate image, an extra memory capable of storing one frame of image data is required.

次に、中間画像を用いてボケ画像を生成する(S13)。ボケ画像を生成するための画像に中間画像を用いている。ボケ画像の生成方法は本実施の形態に係るボケ画像の生成方法(S3を参照)と同じである。なお、例えば、第1の画素信号に対してゲイン補正は行われない。そして、ステップS13が露光の終了後に行われるので、従来の方法では露光が終了した後の処理に時間を要する。   Next, a blurred image is generated using the intermediate image (S13). An intermediate image is used as an image for generating a blurred image. The method of generating a blurred image is the same as the method of generating a blurred image according to the present embodiment (see S3). Note that, for example, gain correction is not performed on the first pixel signal. Since step S13 is performed after the end of the exposure, the conventional method requires time for the process after the end of the exposure.

さらに、メモリから中間画像を読み出し(S14)、ステップS13で生成したボケ画像を用いて中間画像に補正を行うことで撮像画像を生成する(S15)。つまり、従来の方法では、メモリから中間画像を読み出すための時間を要する。   Further, an intermediate image is read from the memory (S14), and a corrected image is generated using the blurred image generated in step S13 to generate a captured image (S15). That is, the conventional method requires time for reading the intermediate image from the memory.

上述したように、従来の方法であれば、露光の終了後に画像処理を開始するため、画像処理に要する時間が長い。具体的には、ステップS11〜S14の処理に要する時間だけ、本実施の形態に係る撮像装置10に比べ、露光の終了後の画像処理に時間を要する。一方、本実施の形態に係る撮像装置10は、露光中の非破壊読み出しにより取得した画像を用いて画像処理を行うことができるので、従来の撮像装置に比べ画像処理に要する時間を短縮することができる。   As described above, according to the conventional method, since the image processing is started after the exposure is completed, the time required for the image processing is long. Specifically, compared to the imaging device 10 according to the present embodiment, image processing after the end of exposure requires more time than the imaging device 10 according to the present embodiment for the time required for the processing in steps S11 to S14. On the other hand, the imaging device 10 according to the present embodiment can perform image processing using an image acquired by non-destructive reading during exposure, so that the time required for image processing can be reduced as compared with a conventional imaging device. Can be.

[4−2.信号処理部の処理の比較]
続いて、撮像装置の信号処理部が行う画像処理について、図5及び図6を用いてさらに詳細に説明する。
[4-2. Comparison of signal processing unit processing]
Next, the image processing performed by the signal processing unit of the imaging device will be described in more detail with reference to FIGS.

最初に、信号処理部300が行う画像処理について、図5を用いて説明する。図5は、画像処理の流れを比較するための図である。図5の(a)は、従来例に係る撮像装置の画像処理の流れを説明するための図である。図5の(b)は、本実施の形態に係る撮像装置10の画像処理の流れを説明するための図である。   First, the image processing performed by the signal processing unit 300 will be described with reference to FIG. FIG. 5 is a diagram for comparing the flow of image processing. FIG. 5A is a diagram for explaining the flow of image processing of the imaging apparatus according to the conventional example. FIG. 5B is a diagram for explaining the flow of image processing of the imaging device 10 according to the present embodiment.

まずは、露光の開始(S1)から露光の終了(S4)までの信号処理部の処理について説明する。   First, the processing of the signal processing unit from the start of exposure (S1) to the end of exposure (S4) will be described.

図5の(a)に示すように、従来の方法では、露光の開始から露光の終了まで、信号処理部は画像処理を行っていない。   As shown in FIG. 5A, in the conventional method, the signal processing unit does not perform image processing from the start of exposure to the end of exposure.

図5の(b)に示すように、本実施の形態では、露光中に非破壊読み出しを行うことにより、信号処理部300は第2の画素信号を取得する(S2)。そして、第2の画素信号を用いてボケ画像を生成する(S3)。図5(b)では、露光の終了(S4)までに、ボケ画像の生成が完了するように、信号処理部300が非破壊読み出し及び画像処理を行っている例を示している。信号処理部300は、非破壊読み出しを行うことで、従来の方法におけるステップS13の画像処理を、露光中に完了することができる。   As shown in FIG. 5B, in the present embodiment, the signal processing unit 300 acquires a second pixel signal by performing non-destructive reading during exposure (S2). Then, a blurred image is generated using the second pixel signal (S3). FIG. 5B shows an example in which the signal processing unit 300 performs non-destructive reading and image processing so that the generation of the blurred image is completed by the end of the exposure (S4). By performing the nondestructive reading, the signal processing unit 300 can complete the image processing in step S13 in the conventional method during the exposure.

なお、露光時間が短くステップS3の処理が露光の終了までに完了しない場合であっても、露光中にステップS3のうちの一部の処理を行うことができるので、従来の方法に比べ露光の終了から画像処理の終了までの時間を短縮することが可能である。言い換えると、非破壊読み出しは、露光が終了するまでに行われればよい。   Even if the exposure time is short and the processing in step S3 is not completed before the end of the exposure, part of the processing in step S3 can be performed during the exposure. It is possible to shorten the time from the end to the end of the image processing. In other words, the non-destructive readout may be performed before the end of the exposure.

次に、露光の終了後の処理について説明する。   Next, processing after the end of exposure will be described.

従来の方法では、露光の終了後に画像処理を開始する。まず、露光の終了後に取得した第1の画素信号から、中間画像を生成する(S11)。これは、メモリに格納する前に行う処理であり、上述したようにノイズに対する補正、及びレンズの周辺の画素に対する光量調整などである。なお、メモリに格納する前に行う処理は、上記以外であってもよい。   In the conventional method, image processing is started after the end of exposure. First, an intermediate image is generated from the first pixel signal acquired after the end of the exposure (S11). This is a process performed before storing the data in the memory, and includes, as described above, correction for noise and light amount adjustment for pixels around the lens. Note that the processing performed before storing in the memory may be other than the above.

生成された中間画像は、メモリに格納される(S12)。中間画像は、1フレーム分の画像である。また、画像処理部は、中間画像を用いてボケ画像を生成する(S13)。つまり、画像処理部は、1フレーム分のボケ画像を生成する。   The generated intermediate image is stored in the memory (S12). The intermediate image is an image for one frame. The image processing unit generates a blurred image using the intermediate image (S13). That is, the image processing unit generates a blur image for one frame.

そして、画像処理部は、メモリに格納されている中間画像と、ステップS13で生成したボケ画像とから、撮像画像を生成する(S15)。   Then, the image processing unit generates a captured image from the intermediate image stored in the memory and the blurred image generated in step S13 (S15).

従来の方法では、信号処理部は、露光の終了後から画像処理を開始するので、露光の終了から画像処理の終了までに、時間を要する。具体的には、ステップS11〜ステップS15までを行う時間を要する。そのため、露光の開始から画像処理の終了までの要する時間(撮像時間Ta)も、時間を要する。さらに、中間画像を格納するためのメモリが必要となる。   In the conventional method, the signal processing unit starts the image processing after the end of the exposure, so that it takes time from the end of the exposure to the end of the image processing. Specifically, it takes time to perform steps S11 to S15. Therefore, the time required from the start of exposure to the end of image processing (imaging time Ta) also requires time. Further, a memory for storing the intermediate image is required.

続いて、本実施の形態に係る信号処理部300の画像処理について説明する。   Subsequently, image processing of the signal processing unit 300 according to the present embodiment will be described.

上述したように、本実施の形態では、露光の終了までにボケ画像の生成が完了している。そのため、露光の終了後に行う画像処理は、撮像画像の生成である。具体的には、画像処理部320は、露光の終了後に取得した第1の画素信号と、ステップS3で生成したボケ画像とから、撮像画像を生成する(S6)。   As described above, in the present embodiment, the generation of the blurred image is completed by the end of the exposure. Therefore, the image processing performed after the end of the exposure is generation of a captured image. Specifically, the image processing unit 320 generates a captured image from the first pixel signal obtained after the end of the exposure and the blurred image generated in step S3 (S6).

これにより、図5に示すように、露光の終了後から画像処理が終了するまでの時間短縮することができる。つまり、本実施の形態に係る撮像装置10の撮像時間Tbも短縮することができる(Tb<Ta)。具体的には、図中に示す短縮された時間T(Tb−Ta)だけ、撮像時間を短縮することができる。   Thereby, as shown in FIG. 5, the time from the end of exposure to the end of image processing can be reduced. That is, the imaging time Tb of the imaging device 10 according to the present embodiment can also be reduced (Tb <Ta). Specifically, the imaging time can be reduced by the shortened time T (Tb-Ta) shown in the figure.

画像処理部320は、露光の終了後に、画素210ごとに第1の画素信号を順次取得する。例えば、順次取得した画素210ごとの第1の画素信号と、当該画素210に対応するボケ画像の画素とを演算し、その演算結果に応じて第1の画素信号に補正を行う。つまり、画素210ごとの第1の画素信号を順次取得するとともに、順次補正を行うことができる。順次補正された第1の画素信号は、例えば、順次メモリ330に格納される。これにより、補正する前の第1の画素信号をメモリ330に格納する、又は、補正を行うために格納した第1の画素信号を読み出す時間などを省くことができるので、さらに撮像時間Tbを短縮することができる。また、第1の画素信号を格納するための容量が不要となるため、メモリ330の容量を減らすことができる。   The image processing unit 320 sequentially obtains the first pixel signal for each pixel 210 after the end of the exposure. For example, a first pixel signal for each pixel 210 sequentially acquired and a pixel of a blurred image corresponding to the pixel 210 are calculated, and the first pixel signal is corrected according to the calculation result. That is, it is possible to sequentially acquire the first pixel signal for each pixel 210 and perform the sequential correction. The sequentially corrected first pixel signals are stored in, for example, the memory 330 sequentially. As a result, the time for storing the first pixel signal before correction in the memory 330 or the time for reading out the first pixel signal stored for correction can be omitted, so that the imaging time Tb is further reduced. can do. Further, since the capacity for storing the first pixel signal is unnecessary, the capacity of the memory 330 can be reduced.

また、例えば、読み出し方式がローリングシャッタである場合、従来の方法で取得する第1の画素信号と、本実施の形態の方法で取得する第1の画素信号とは、同一の信号である。なお、読み出し方式は、ローリングシャッタに限定されない。例えば、グローバルシャッタであってもよい。固体撮像装置100が有機光電変換膜を有している場合、有機光電変換膜に印加する電圧を調整することでシャッタ機能が実現できるため、メモリなどの素子を追加することなく、グローバルシャッタを実現することができる。また、グローバルシャッタで読み出している期間、全ての有機光電変換膜をシャッタとして機能させることで、その期間中に電荷蓄積部215に電荷が蓄積されることを抑制することができる。つまり、有機光電変換膜を用いることで、素子を追加することなくグローバルシャッタで発生するローリング歪を低減することができる。なお、非破壊読み出しでの読み出しと、露光の終了後での読み出しとは、同一の方式で読み出しが行われる。   Further, for example, when the reading method is a rolling shutter, the first pixel signal obtained by the conventional method and the first pixel signal obtained by the method of the present embodiment are the same signal. Note that the reading method is not limited to the rolling shutter. For example, a global shutter may be used. When the solid-state imaging device 100 has an organic photoelectric conversion film, a shutter function can be realized by adjusting a voltage applied to the organic photoelectric conversion film, so that a global shutter can be realized without adding an element such as a memory. can do. In addition, by allowing all the organic photoelectric conversion films to function as shutters during a period in which reading is performed by the global shutter, accumulation of charges in the charge accumulation unit 215 during that period can be suppressed. That is, by using the organic photoelectric conversion film, rolling distortion generated in the global shutter can be reduced without adding an element. Note that the non-destructive read and the read after the end of the exposure are performed by the same method.

続いて、生成される画像について図6を用いて説明する。図6は、画像処理で生成される画像を比較するための図である。図6の(a)は、従来例に係る撮像装置の画像処理で生成される画像を説明するための図である。図6の(b)は、本実施の形態に係る撮像装置10の画像処理で生成される画像を説明するための図である。図6の(b)では、露光中にボケ画像の生成が終了する例について示している。   Next, the generated image will be described with reference to FIG. FIG. 6 is a diagram for comparing images generated by the image processing. FIG. 6A is a diagram for explaining an image generated by image processing of an imaging device according to a conventional example. FIG. 6B is a diagram for explaining an image generated by the image processing of the imaging device 10 according to the present embodiment. FIG. 6B shows an example in which the generation of the blurred image is completed during the exposure.

図6の(a)に示すように、従来の方法では、露光中に画像処理が行われないので、画像は生成されない。露光の終了(S4)後に、信号処理部は第1の画素信号から上記補正を施した中間画像P1を生成する。中間画像P1は、1フレーム分の画像である。なお、中間画像P1は、全体的に暗めの(実際の被写体により暗い)画像が撮像された場合を示しており、ドット状のハッチングでそれを表している。   As shown in FIG. 6A, in the conventional method, since no image processing is performed during exposure, no image is generated. After the end of the exposure (S4), the signal processing unit generates the corrected intermediate image P1 from the first pixel signal. The intermediate image P1 is an image for one frame. The intermediate image P1 shows a case where an image that is entirely dark (dark due to an actual subject) is captured, and is indicated by dot-shaped hatching.

次に、生成したが中間画像P1からボケ画像P2を生成する。ボケ画像も、1フレーム分の画像である。   Next, a blurred image P2 is generated from the generated intermediate image P1. The blurred image is also an image for one frame.

続いて、中間画像P1とボケ画像P2とから、撮像画像P3を生成する。つまり、従来の方法では、3つの画像を生成する必要があった。なお、図6の(a)では、撮像画像P3は、中間画像P1を若干明るくする補正を行っている例について示している。なお、補正はこれに限定されない。   Subsequently, a captured image P3 is generated from the intermediate image P1 and the blurred image P2. That is, in the conventional method, it was necessary to generate three images. FIG. 6A shows an example in which the captured image P3 is corrected to slightly brighten the intermediate image P1. Note that the correction is not limited to this.

図6の(b)に示すように、本実施の形態では、露光中に画像処理が行われる。具体的には、信号処理部300は、露光中の非破壊読み出し(S2)により、ボケ画像P12を生成する。露光中に非破壊読み出しを行うので、そこで取得した第2の画素信号を用いて生成したボケ画像P12は、全体的に暗い画像となる。そこで、画像処理部320は、第2の画素信号のゲインを調整し、ゲインを調整した第2の画素信号を用いてボケ画像P12を生成してもよい。これにより、従来例におけるボケ画像P2と略同一のボケ画像P12を得ることができる。   As shown in FIG. 6B, in the present embodiment, image processing is performed during exposure. Specifically, the signal processing unit 300 generates the blurred image P12 by non-destructive reading during exposure (S2). Since non-destructive readout is performed during exposure, the blurred image P12 generated using the second pixel signal obtained therefrom becomes a dark image as a whole. Thus, the image processing unit 320 may adjust the gain of the second pixel signal, and generate the blurred image P12 using the adjusted second pixel signal. As a result, it is possible to obtain a blurred image P12 substantially the same as the blurred image P2 in the conventional example.

次に、ゲインを調整して生成したボケ画像P12と、露光の終了後に取得した第1の画素信号とから、撮像画像P13を生成する。これにより、生成される撮像画像P13と、従来の方法で生成された撮像画像P3とは、略同一の画像となる。第2の画素信号のゲインを調整することで、撮像画像P13の精度を向上させることができる。   Next, a captured image P13 is generated from the blurred image P12 generated by adjusting the gain and the first pixel signal acquired after the end of the exposure. Thereby, the captured image P13 generated and the captured image P3 generated by the conventional method are substantially the same image. By adjusting the gain of the second pixel signal, the accuracy of the captured image P13 can be improved.

[5.カメラ]
上記の撮像装置10が内蔵されたカメラ1の例として、例えば、図7の(a)に示されるデジタルスチルカメラ1Aや図7の(b)に示されるデジタルビデオカメラ1Bなどが挙げられる。例えば、図7の(a)又は図7の(b)などのカメラに本実施の形態に係る撮像装置10が内蔵されることで、上記に説明したようにユーザが操作部600を介して撮像の指示を行ってから(シャッタを切ってから)、表示部500に撮像画像が表示されるまでの時間を短縮することができる。また、連続して撮像する際、シャッタを切ってから、次にシャッタを切るまでの時間を短縮することができる。
[5. camera]
Examples of the camera 1 in which the above-described imaging device 10 is built include, for example, a digital still camera 1A shown in FIG. 7A and a digital video camera 1B shown in FIG. 7B. For example, by incorporating the imaging device 10 according to the present embodiment in a camera such as that shown in FIG. 7A or FIG. 7B, the user can take an image via the operation unit 600 as described above. Is issued (after the shutter is released) and the time until the captured image is displayed on the display unit 500 can be reduced. In addition, when imaging continuously, it is possible to reduce the time from when the shutter is released to when the next shutter is released.

[6.効果等]
以上のように、本実施の形態に係る撮像装置10は、行列状に配列され、非破壊読み出しが可能な複数の画素を有する固体撮像装置100と、露光の終了後に固体撮像装置100から取得した第1の画素信号に補正を行うことで撮像画像P13を生成する画像処理部320とを備える。画像処理部320は、露光中の非破壊読み出しにより固体撮像装置100から取得した第2の画素信号に基づいて補正を行う。
[6. Effects]
As described above, the imaging device 10 according to the present embodiment is obtained from the solid-state imaging device 100 having a plurality of pixels arranged in a matrix and capable of nondestructive readout and from the solid-state imaging device 100 after the end of the exposure. An image processing unit 320 that generates a captured image P13 by performing correction on the first pixel signal. The image processing unit 320 performs correction based on the second pixel signal acquired from the solid-state imaging device 100 by non-destructive reading during exposure.

従来の方法では、露光の終了後に取得した第1の画素信号に基づいて補正を行っていた。そのため、露光が終了しないと、画像処理が開始できなかった。   In the conventional method, the correction is performed based on the first pixel signal acquired after the end of the exposure. Therefore, the image processing cannot be started until the exposure is completed.

本実施の形態に係る撮像装置10は、非破壊読み出しにより露光中に第2の画素信号を取得する。そのため、露光中に第2の画素信号を用いて、第1の画素信号の補正を行うための処理(例えば、第1の画素信号を補正するための補正用画像の生成又は補正用画像の解析)を行うことできる。これにより、従来の方法に比べ、露光の終了後から画像処理の終了までの時間を短縮することができる。言い換えると、露光を開始してから、画像処理が終了するまでの時間(撮像時間Tb)を短縮することができる。つまり、画像処理の速度が高速化される。   The imaging device 10 according to the present embodiment acquires a second pixel signal during exposure by nondestructive readout. Therefore, processing for correcting the first pixel signal using the second pixel signal during exposure (for example, generation of a correction image for correcting the first pixel signal or analysis of the correction image) ) Can be done. As a result, the time from the end of exposure to the end of image processing can be reduced as compared with the conventional method. In other words, the time from the start of exposure to the end of image processing (imaging time Tb) can be reduced. That is, the speed of image processing is increased.

また、さらに、制御部310を備える。画像処理部320は、第2の画素信号から補正に用いる補正用画像を生成する、又は補正用画像を生成し、生成した補正用画像を用いて画像解析する画像処理を行う。そして、制御部310は、露光が終了する前に、画像処理部320での画像処理が終了するように、固体撮像装置100が非破壊読み出しを行うタイミングを制御する。   Further, a control unit 310 is provided. The image processing unit 320 generates an image for correction to be used for correction from the second pixel signal, or generates an image for correction, and performs image processing of performing image analysis using the generated image for correction. Then, the control unit 310 controls the timing at which the solid-state imaging device 100 performs non-destructive reading so that the image processing in the image processing unit 320 ends before the exposure ends.

これにより、例えば、補正が階調の補正である場合、露光が終了するまでに、非破壊読み出しで取得した第2の画素信号を用いてボケ画像(補正用画像の一例)P12を生成することができる。つまり、露光の終了後に取得する第1の画素信号に対し、画素210ごとの信号を取得した時点で、順次当該画素210の信号に補正を行うことができる。また、補正が手ぶれの補正又はホワイトバランスの補正などである場合、露光が終了するまでに、非破壊読み出しで取得した第2の画素信号を用いて補正用画像を生成し、かつ当該補正用画像の画像解析を行うことができる。つまり、露光が終了するまでに画像解析の結果を取得することができるので、露光の終了後に取得する第1の画素信号に対し、画素210ごとの信号を取得した時点で、順次当該画素210の信号に補正を行うことができる。よって、撮像時間Tbをより短縮することができる。   Accordingly, for example, when the correction is a gradation correction, a blurred image (an example of a correction image) P12 is generated by using the second pixel signal acquired by the nondestructive readout before the exposure is completed. Can be. That is, the signal of the pixel 210 can be sequentially corrected when the signal for each pixel 210 is obtained for the first pixel signal obtained after the end of the exposure. If the correction is a correction of camera shake or a correction of white balance, a correction image is generated by using the second pixel signal acquired by the nondestructive readout before the exposure is completed, and the correction image is generated. Image analysis can be performed. That is, since the result of the image analysis can be obtained before the end of the exposure, when the signal for each pixel 210 is obtained with respect to the first pixel signal obtained after the end of the exposure, Corrections can be made to the signal. Therefore, the imaging time Tb can be further reduced.

また、さらに、メモリ330を備える。そして、画像処理部320は、画素210ごとに順次取得した第1の画素信号に、当該画素210に対応した補正を行い、当該補正を行った第1の画素信号をメモリ330に格納する。   Further, a memory 330 is provided. Then, the image processing unit 320 performs a correction corresponding to the pixel 210 on the first pixel signal sequentially obtained for each pixel 210, and stores the corrected first pixel signal in the memory 330.

これにより、第1の画素信号を一旦メモリ330に格納することなく補正を行えるので、補正する前の第1の画素信号をメモリ330に格納する及び読み出す時間を省くことができる。また、補正する前の第1の画素信号を格納するためのメモリが不要となるので、メモリ330の容量を低減することができる。   Thus, since the correction can be performed without temporarily storing the first pixel signal in the memory 330, the time for storing and reading out the first pixel signal before correction in the memory 330 can be omitted. Further, since a memory for storing the first pixel signal before correction is not required, the capacity of the memory 330 can be reduced.

また、補正用画像とは、撮像画像P13より解像度が低いボケ画像P12である。そして、画像処理部320は、明るさに対するゲインの補正を加えた第2の画素信号からボケ画像P12を生成する。   The correction image is a blurred image P12 having a lower resolution than the captured image P13. Then, the image processing unit 320 generates the blurred image P12 from the second pixel signal to which the gain correction for the brightness has been added.

ボケ画像P12を用いることにより、信号処理部300での処理量を減らすことができるので、信号処理部300における処理時間の短縮が可能となる。さらに、第2の画素信号にゲイン補正を加えることで生成されたボケ画像P12は、従来例において生成されるボケ画像P2と略同一の明るさの画像となる。これにより、より精度良く第1の画素信号の補正が行える。   By using the blurred image P12, the processing amount in the signal processing unit 300 can be reduced, so that the processing time in the signal processing unit 300 can be reduced. Further, the blurred image P12 generated by adding the gain correction to the second pixel signal is an image having substantially the same brightness as the blurred image P2 generated in the conventional example. As a result, the first pixel signal can be corrected more accurately.

また、補正とは、階調の補正、手ぶれの補正、又はホワイトバランスの補正である。   The correction is correction of gradation, correction of camera shake, or correction of white balance.

これにより、階調の補正、手ぶれの補正、又はホワイトバランスの補正を行う場合に、撮像時間Tbを短縮することができる。   This makes it possible to reduce the imaging time Tb when performing gradation correction, camera shake correction, or white balance correction.

また、複数の画素210のそれぞれは、有機光電変換膜を有する。   Further, each of the plurality of pixels 210 has an organic photoelectric conversion film.

これにより、有機光電変換膜に印加する電圧を調整することでシャッタ機能が実現できるため、メモリなどの素子を追加することなく、グローバルシャッタを実現することができる。そのため、被写体が動いている場合でも、より歪みの少ない画像データを取得することができる。   Thus, the shutter function can be realized by adjusting the voltage applied to the organic photoelectric conversion film, so that a global shutter can be realized without adding an element such as a memory. Therefore, even when the subject is moving, image data with less distortion can be obtained.

また、本実施の形態に係るカメラ1は、上記の撮像装置10を備える。   Further, the camera 1 according to the present embodiment includes the imaging device 10 described above.

これにより、ユーザが操作部600を介して撮像の指示を行ってから(シャッタを切ってから)、表示部500に撮像画像が表示されるまでの時間を短縮することができる。また、連続して撮像する際、シャッタを切ってから、次にシャッタを切るまでの時間を短縮することができる。   Accordingly, it is possible to reduce the time from when the user gives an imaging instruction via the operation unit 600 (after the shutter is released) to when the captured image is displayed on the display unit 500. In addition, when imaging continuously, it is possible to reduce the time from when the shutter is released to when the next shutter is released.

また、本実施の形態に係る撮像方法は、露光の終了後に、非破壊読み出しが可能な複数の画素210を有する固体撮像装置100から第1の画素信号を取得し、露光中の非破壊読み出しにより固体撮像装置100から取得した第2の画素信号に基づいて第1の画素信号に補正を施すことで撮像画像P13を生成する。   Further, the imaging method according to the present embodiment obtains the first pixel signal from the solid-state imaging device 100 having the plurality of pixels 210 capable of nondestructive readout after the end of the exposure, and performs the nondestructive readout during the exposure. The captured image P13 is generated by correcting the first pixel signal based on the second pixel signal acquired from the solid-state imaging device 100.

これにより、非破壊読み出しにより露光中に第2の画素信号を取得できるので、露光中に第2の画素信号を用いて、ボケ画像の生成を行うことできる。これにより、従来の方法に比べ、露光の終了後から画像処理の終了までの時間を短縮することができる。言い換えると、露光を開始してから、画像処理が終了するまでの時間(撮像時間)を短縮することができる。   Thus, the second pixel signal can be obtained during the exposure by the non-destructive readout, so that the blurred image can be generated using the second pixel signal during the exposure. As a result, the time from the end of exposure to the end of image processing can be reduced as compared with the conventional method. In other words, the time (imaging time) from the start of exposure to the end of image processing can be reduced.

(他の実施の形態)
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
(Other embodiments)
As described above, the embodiments have been described as examples of the technology in the present disclosure. For that purpose, the accompanying drawings and the detailed description have been provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Therefore, among the components described in the accompanying drawings and the detailed description, not only components that are essential for solving the problem, but also components that are not essential for solving the problem, in order to illustrate the above technology. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential based on the fact that the non-essential components are described in the accompanying drawings and the detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Further, since the above-described embodiments are for exemplifying the technology according to the present disclosure, various changes, replacements, additions, omissions, and the like can be made within the scope of the claims or the equivalents thereof.

例えば、上記実施の形態では、画像処理部320がボケ画像P12を生成する例について説明したが、これに限定されない。例えば、画素混合ができる固体撮像装置100を用いている場合、画像処理部320は固体撮像装置100から取得した画素混合された信号をボケ画像として用いてもよい。   For example, in the above embodiment, an example in which the image processing unit 320 generates the blurred image P12 has been described, but the present invention is not limited to this. For example, when the solid-state imaging device 100 that can perform pixel mixing is used, the image processing unit 320 may use a pixel-mixed signal acquired from the solid-state imaging device 100 as a blurred image.

これにより、実施の形態と同様の効果を奏する。   Thereby, the same effect as that of the embodiment can be obtained.

また、上記では、画像処理部320は、ボケ画像P12を用いて階調の補正を行う例について説明したが、これに限定されない。例えば、画像処理部320は、第2の画素信号から画像の明るさに対するヒストグラムを取得し、その結果を補正用信号として用いて第1の画素信号に階調の補正を行ってもよい。なお、固体撮像装置100から取得した第2の画素信号により生成された明るさに対するヒストグラムに応じて第1の画素信号に階調の補正を行うことは、信号処理部320が行う画像処理の一例である。   In the above description, the example in which the image processing unit 320 corrects the gradation using the blurred image P12 has been described, but the present invention is not limited to this. For example, the image processing unit 320 may obtain a histogram for the brightness of the image from the second pixel signal, and perform gradation correction on the first pixel signal using the result as a correction signal. Note that performing gradation correction on the first pixel signal in accordance with the histogram for brightness generated from the second pixel signal acquired from the solid-state imaging device 100 is an example of image processing performed by the signal processing unit 320. It is.

これにより、ボケ画像P12を用いて階調の補正を行う場合と同様の効果を奏する。   Thereby, the same effect as in the case where the gradation is corrected using the blurred image P12 is obtained.

また、上記では、第1の画素信号はメモリ330に格納されず、画像処理部320により補正され撮像画像が生成される例について説明したが、これに限定されない。例えば、1フレーム分の第1の画素信号は一旦メモリ330に格納され、画像処理部320はメモリ330から第1の画素信号を画素210ごとに読み出し、読み出した第1の画素信号とボケ画像とから当該第1の画素信号に補正を行うことで撮像画像を生成してもよい。   Further, in the above description, an example has been described in which the first pixel signal is not stored in the memory 330 but is corrected by the image processing unit 320 to generate a captured image. However, the present invention is not limited to this. For example, the first pixel signal for one frame is temporarily stored in the memory 330, the image processing unit 320 reads the first pixel signal from the memory 330 for each pixel 210, and outputs the read first pixel signal and the blurred image. Thus, the captured image may be generated by performing correction on the first pixel signal.

これにより、従来の方法と比べ、非破壊読み出しによりボケ画像を生成している分、画像処理の高速化が可能となる。   As a result, compared to the conventional method, the speed of image processing can be increased because the blurred image is generated by non-destructive reading.

また、上記では、露光中に非破壊読み出しを1回行う例について説明したが、非破壊読み出しを行う回数はこれに限定されない。露光中に非破壊読み出しを複数回行ってもよい。例えば、手ぶれ補正を行う場合、露光中に2回の非破壊読み出しを行い、それぞれの画素信号に基づく画像データから動きベクトルを取得し、第1の画素信号に補正を行ってもよい。また、露光期間中の被写体のブレやフラッシュ光などの影響を低減するために、例えば画像処理部320は、非破壊読み出しで取得した複数の画像の中から被写体のブレやフラッシュ光の影響がより少ない画像を補正用画像として選択してもよい。   In the above description, an example in which nondestructive reading is performed once during exposure has been described, but the number of times of performing nondestructive reading is not limited to this. Non-destructive readout may be performed a plurality of times during exposure. For example, when performing camera shake correction, non-destructive readout may be performed twice during exposure, a motion vector may be obtained from image data based on each pixel signal, and correction may be performed on the first pixel signal. Further, in order to reduce the influence of the subject blur and the flash light during the exposure period, for example, the image processing unit 320 reduces the influence of the subject blur and the flash light from a plurality of images acquired by the non-destructive readout. A small number of images may be selected as correction images.

また、上記では、本開示に係る撮像装置10が内蔵されたカメラ1について説明したが、用途はこれに限定されない。本開示に係る撮像装置10が内蔵された各種電子機器も本開示に含まれる。   Further, in the above, the camera 1 in which the imaging device 10 according to the present disclosure is built has been described, but the application is not limited thereto. Various electronic devices incorporating the imaging device 10 according to the present disclosure are also included in the present disclosure.

また、撮像装置10における各構成要素(機能ブロック)は、IC(Integrated Circuit)、LSI(Large Scale Integration)等の半導体装置により個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。   In addition, each component (functional block) in the imaging device 10 may be individually formed into one chip by a semiconductor device such as an IC (Integrated Circuit) and an LSI (Large Scale Integration), or may include a part or the whole. May be integrated into one chip. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. After manufacturing the LSI, an FPGA (Field Programmable Gate Array) that can be programmed or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used. Furthermore, if an integrated circuit technology that replaces the LSI appears due to the progress of the semiconductor technology or another derived technology, the functional blocks may be integrated using the technology. The application of biotechnology and the like is possible.

また、上記各種処理の全部又は一部は、電子回路等のハードウェアにより実現されても、ソフトウェアを用いて実現されてもよい。なお、ソフトウェアによる処理は、撮像装置10に含まれるプロセッサがメモリに記憶されたプログラムを実行することにより実現されるものである。また、そのプログラムを記録媒体に記録して頒布や流通させてもよい。例えば、頒布されたプログラムを、他のプロセッサを有する装置にインストールして、そのプログラムをそのプロセッサに実行させることで、その装置に、上記各処理を行わせることが可能となる。   In addition, all or a part of the above various processes may be realized by hardware such as an electronic circuit, or may be realized by using software. Note that the processing by software is realized by a processor included in the imaging device 10 executing a program stored in a memory. Further, the program may be recorded on a recording medium and distributed or distributed. For example, by installing a distributed program on a device having another processor and causing the processor to execute the program, the device can perform the above-described processing.

また、上述した実施の形態で示した構成要素及び機能を任意に組み合わせることで実現される形態も本開示の範囲に含まれる。   Further, a mode realized by arbitrarily combining the components and functions described in the above-described embodiments is also included in the scope of the present disclosure.

本開示は、画像を撮像する撮像装置に広く利用可能である。   INDUSTRIAL APPLICATION This indication is widely applicable to the imaging device which images an image.

1 カメラ
1A デジタルスチルカメラ
1B デジタルビデオカメラ
10 撮像装置
100 固体撮像装置
110 画素アレイ部
120 列AD変換部
121 AD変換器
130 行走査部
140 列走査部
150 駆動制御部
160 列信号線
170 走査線
170A リセット用走査線
170B 選択用走査線
180 行信号線
210 画素
211 光電変換素子
211a 上部電極
211b 下部電極
211c 光電変換膜
212 リセットトランジスタ
213 増幅トランジスタ
214 選択トランジスタ
215 電荷蓄積部
300 信号処理部
310 制御部
320 画像処理部
330 メモリ
400 レンズ
500 表示部
600 操作部
P1 中間画像
P2、P12 ボケ画像
P3、P13 撮像画像
Ta、Tb 撮像時間
Reference Signs List 1 camera 1A digital still camera 1B digital video camera 10 imaging device 100 solid-state imaging device 110 pixel array unit 120 column AD conversion unit 121 AD converter 130 row scanning unit 140 column scanning unit 150 drive control unit 160 column signal line 170 scanning line 170A Reset scanning line 170B Selection scanning line 180 Row signal line 210 Pixel 211 Photoelectric conversion element 211a Upper electrode 211b Lower electrode 211c Photoelectric conversion film 212 Reset transistor 213 Amplification transistor 214 Selection transistor 215 Charge storage unit 300 Signal processing unit 310 Control unit 320 Image processing unit 330 Memory 400 Lens 500 Display unit 600 Operation unit P1 Intermediate image P2, P12 Blurred image P3, P13 Captured image Ta, Tb Captured time

Claims (8)

行列状に配列され、非破壊読み出しが可能な複数の画素を有する固体撮像装置と、
露光の終了後に前記固体撮像装置から取得した第1の画素信号に補正を行うことで撮像画像を生成する画像処理部と、を備え、
前記画像処理部は、
前記露光中の前記非破壊読み出しにより前記固体撮像装置から取得した第2の画素信号に基づいて前記補正を行う
撮像装置。
A solid-state imaging device having a plurality of pixels arranged in a matrix and capable of nondestructive readout,
An image processing unit that generates a captured image by performing correction on the first pixel signal acquired from the solid-state imaging device after the end of the exposure,
The image processing unit,
An imaging device that performs the correction based on a second pixel signal acquired from the solid-state imaging device by the nondestructive readout during the exposure.
さらに、制御部を備え、
前記画像処理部は、前記第2の画素信号から前記補正に用いる補正用画像を生成する、又は前記補正用画像を生成し、生成した前記補正用画像を用いて画像解析する画像処理を行い、
前記制御部は、前記露光が終了する前に、前記画像処理部での前記画像処理が終了するように、前記固体撮像装置が前記非破壊読み出しを行うタイミングを制御する
請求項1に記載の撮像装置。
Furthermore, a control unit is provided,
The image processing unit generates a correction image to be used for the correction from the second pixel signal, or generates the correction image, performs image processing to perform image analysis using the generated correction image,
The imaging device according to claim 1, wherein the control unit controls the timing at which the solid-state imaging device performs the nondestructive readout such that the image processing in the image processing unit ends before the exposure ends. apparatus.
さらに、メモリを備え、
前記画像処理部は、前記画素ごとに順次取得した前記第1の画素信号に、当該画素に対応した前記補正を行い、当該補正を行った前記第1の画素信号を前記メモリに格納する
請求項2に記載の撮像装置。
In addition, it has memory,
The image processing unit performs the correction corresponding to the pixel on the first pixel signal sequentially acquired for each pixel, and stores the corrected first pixel signal in the memory. 3. The imaging device according to 2.
前記補正用画像とは、前記撮像画像より解像度が低いボケ画像であり、
前記画像処理部は、明るさに対するゲインの補正を加えた前記第2の画素信号から前記ボケ画像を生成する
請求項2又は3に記載の撮像装置。
The correction image is a blurred image having a lower resolution than the captured image,
The imaging device according to claim 2, wherein the image processing unit generates the blurred image from the second pixel signal to which a gain correction for brightness has been added.
前記補正は、階調の補正、手ぶれの補正、又はホワイトバランスの補正である
請求項1〜4のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 4, wherein the correction is correction of gradation, correction of camera shake, or correction of white balance.
前記複数の画素のそれぞれは、有機光電変換膜を有する
請求項1〜5のいずれか1項に記載の撮像装置。
The imaging device according to claim 1, wherein each of the plurality of pixels has an organic photoelectric conversion film.
請求項1〜6のいずれか1項に記載の撮像装置を備える
カメラ。
A camera comprising the imaging device according to claim 1.
行列状に配列され、非破壊読み出しが可能な複数の画素を有する固体撮像装置から、露光の終了後に第1の画素信号を取得し、
前記露光中の非破壊読み出しにより前記固体撮像装置から取得した第2の画素信号に基づいて前記第1の画素信号に補正を行うことで撮像画像を生成する
撮像方法。
From a solid-state imaging device having a plurality of pixels arranged in a matrix and capable of non-destructive readout, obtain a first pixel signal after the end of exposure,
An imaging method for generating a captured image by correcting the first pixel signal based on a second pixel signal obtained from the solid-state imaging device by non-destructive readout during the exposure.
JP2016254492A 2016-12-27 2016-12-27 Imaging apparatus, camera, and imaging method Pending JP2020031257A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016254492A JP2020031257A (en) 2016-12-27 2016-12-27 Imaging apparatus, camera, and imaging method
PCT/JP2017/046594 WO2018124050A1 (en) 2016-12-27 2017-12-26 Imaging device, camera, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016254492A JP2020031257A (en) 2016-12-27 2016-12-27 Imaging apparatus, camera, and imaging method

Publications (1)

Publication Number Publication Date
JP2020031257A true JP2020031257A (en) 2020-02-27

Family

ID=62709362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016254492A Pending JP2020031257A (en) 2016-12-27 2016-12-27 Imaging apparatus, camera, and imaging method

Country Status (2)

Country Link
JP (1) JP2020031257A (en)
WO (1) WO2018124050A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004344249A (en) * 2003-05-20 2004-12-09 Canon Inc Radiographic apparatus, radiographic method, and program and recording medium for radiography
JP2007281555A (en) * 2006-04-03 2007-10-25 Seiko Epson Corp Imaging apparatus
JP5699482B2 (en) * 2010-08-24 2015-04-08 セイコーエプソン株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP6459025B2 (en) * 2014-07-07 2019-01-30 パナソニックIpマネジメント株式会社 Solid-state imaging device

Also Published As

Publication number Publication date
WO2018124050A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
TWI373964B (en)
CN109997352B (en) Imaging device, camera, and imaging method
JP2008141595A (en) Imaging apparatus and imaging method
TWI459807B (en) Image pickup device and defect detecting method
US20100045830A1 (en) Image capturing device, smear reduction method, and computer readable storage medium
JP5222068B2 (en) Imaging device
JP6643658B2 (en) Imaging device, camera, and imaging method
WO2018124051A1 (en) Image selection device, camera and image selection method
US11546490B2 (en) Image generation method, imaging apparatus, and recording medium
JP2006239117A (en) Radiographic device
WO2018124049A1 (en) Image capturing device, camera and image capturing method
JP2020031257A (en) Imaging apparatus, camera, and imaging method
JP5219775B2 (en) Imaging device and imaging apparatus
JP6704611B2 (en) Imaging device and imaging method
JP2008053812A (en) Imaging apparatus
WO2018124054A1 (en) Imaging device and method for controlling same
JP6706850B2 (en) Imaging device, camera, and imaging method
JP2018093301A (en) Image pick-up device and control method of the same
US20230386000A1 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium
JP7034792B2 (en) Imaging device and its control method and program
JP2010062975A (en) Image processing apparatus, electronic camera and image processing program
JP6470589B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
WO2018124057A1 (en) Imaging device and control method therefor
WO2018124045A1 (en) Image capturing device and control method for same
WO2018124044A1 (en) Imaging element, imaging device, camera, and imaging method