WO2013008596A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2013008596A1
WO2013008596A1 PCT/JP2012/065825 JP2012065825W WO2013008596A1 WO 2013008596 A1 WO2013008596 A1 WO 2013008596A1 JP 2012065825 W JP2012065825 W JP 2012065825W WO 2013008596 A1 WO2013008596 A1 WO 2013008596A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
sensitivity
pixel information
pixels
low
Prior art date
Application number
PCT/JP2012/065825
Other languages
English (en)
French (fr)
Inventor
笠井 政範
豪 浅山
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201280033811.0A priority Critical patent/CN103650480A/zh
Priority to US14/131,221 priority patent/US9344637B2/en
Priority to RU2013157361/07A priority patent/RU2013157361A/ru
Priority to BR112014000337A priority patent/BR112014000337A2/pt
Priority to EP12812077.1A priority patent/EP2733927A1/en
Publication of WO2013008596A1 publication Critical patent/WO2013008596A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself

Definitions

  • the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program. More specifically, the present invention relates to an image processing device, an imaging device, an image processing method, and a program that generate an image with a wide dynamic range.
  • Solid-state imaging devices such as CCD image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors used in video cameras and digital still cameras accumulate charges according to the amount of incident light and output electrical signals corresponding to the accumulated charges. Perform photoelectric conversion.
  • CMOS Complementary Metal Oxide Semiconductor
  • the amount of stored charge reaches a saturation level when the amount of light exceeds a certain level, and the subject area with a certain level of brightness is set to a saturated luminance level. So-called overexposure occurs.
  • processing is performed in which the exposure time is adjusted by controlling the charge accumulation period in the photoelectric conversion element and the sensitivity is controlled to the optimum value in accordance with changes in external light or the like. For example, for a bright subject, the exposure time is shortened by turning the shutter at a high speed, the charge accumulation period in the photoelectric conversion element is shortened, and an electric signal is output before the accumulated charge amount reaches the saturation level.
  • the exposure time is shortened by turning the shutter at a high speed
  • the charge accumulation period in the photoelectric conversion element is shortened, and an electric signal is output before the accumulated charge amount reaches the saturation level.
  • a technique for realizing such processing a technique is known in which a plurality of images having different exposure times are continuously photographed and combined. That is, a long-exposure image and a short-exposure image are taken individually and continuously, a long-exposure image is used for dark image areas, and a bright image area that is overexposed for long-exposure images.
  • This is a technique for generating one image by a synthesis process using a short-time exposure image. In this way, by combining a plurality of different exposure images, an image having a wide dynamic range without overexposure, that is, a wide dynamic range image (HDR image) can be obtained.
  • HDR image wide dynamic range image
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-50151 discloses a configuration in which two images set with a plurality of different exposure times are photographed and these images are combined to obtain a wide dynamic range image. Yes. This process will be described with reference to FIG.
  • the imaging device outputs image data of two different exposure times within a video rate (30-60 fps).
  • image data with two different exposure times are generated and output.
  • FIG. 1 is a diagram illustrating the characteristics of an image (long exposure image and short exposure image) having two different exposure times generated by the imaging device.
  • the horizontal axis represents time (t)
  • the vertical axis represents the accumulated charge amount (e) in the light receiving photodiode (PD) constituting the photoelectric conversion element corresponding to one pixel of the solid-state imaging element.
  • the amount of light received by the light-receiving photodiode (PD) when the amount of light received by the light-receiving photodiode (PD) is large, that is, when the subject corresponds to a bright subject, as shown in the high luminance region 11 shown in FIG.
  • the amount of light received by the light-receiving photodiode (PD) when the amount of light received by the light-receiving photodiode (PD) is small, that is, when the object corresponds to a dark subject, the charge accumulation amount gradually increases as time passes, as shown in the low luminance region 12 shown in FIG.
  • the time t0 to t3 corresponds to the exposure time TL for acquiring the long-time exposure image. Even when the long exposure time TL is shown, the line shown in the low luminance region 12 is obtained based on the charge accumulation amount (Sa) without the charge accumulation amount reaching the saturation level at the time t3 (unsaturated point Py). An accurate gradation expression can be obtained by the gradation level of the pixel determined using the electric signal.
  • the accumulated charge of the light receiving photodiode (PD) is once swept out at a time before reaching the time t3, for example, at a time t1 (charge sweep start point P1) shown in the figure.
  • the charge sweeping is performed not to all charges accumulated in the light receiving photodiode (PD) but to an intermediate voltage holding level controlled in the photodiode (PD).
  • short-time exposure with exposure time TS (t2 to t3) is performed again. That is, short-time exposure is performed for a period from the short-time exposure start point P2 to the short-time exposure end point P3 shown in the figure.
  • a charge accumulation amount (Sb) is obtained by this short-time exposure, and a gradation level of the pixel is determined based on an electric signal obtained based on the charge accumulation amount (Sb).
  • Patent Document 1 needs to perform a process of individually capturing and combining the long exposure image and the short exposure image.
  • HDR image wide dynamic range image
  • processing based on the plurality of images has the following problems, for example.
  • Problem 1 It is necessary to shoot a plurality of times, and further, a memory for storing these images is required.
  • Problem 2 Since a plurality of images having different shooting timings are combined or long-time exposure shooting data is used, it is vulnerable to camera shake.
  • An image processing device an imaging device, an image processing method, and a program that can generate a wide dynamic range image based on a single captured image.
  • the purpose is to provide.
  • the first aspect of the present disclosure is: A control unit that performs exposure time control in units of pixels or pixel areas; A pixel unit that outputs pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; A pixel information combining unit that inputs pixel information of a plurality of different exposure times output by the pixel unit, calculates a pixel value of an output image by executing arithmetic processing using the plurality of pixel information,
  • the pixel portion is High sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels set based on exposure control of the control unit, and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels, and
  • the pixel information combining unit In the image processing apparatus, a weighted addition process between the high-sensitivity pixel information and the low-sensitivity pixel information is executed to calculate a pixel value of an output image.
  • control unit performs exposure time control in units of columns of the pixel units, and the pixel units differ in high-sensitivity pixel columns that are subjected to long-time exposure.
  • High-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels in different low-sensitivity pixel columns subjected to short-time exposure are output.
  • the pixel information combining unit is configured to calculate high-sensitivity pixel information input from a long-time exposure region and a short-time exposure region in a calculation process of a pixel value of the output image. Addition processing in which a weight corresponding to subject brightness is set for the low-sensitivity pixel information to be input is executed.
  • the pixel information combining unit sets the weight of the high-sensitivity pixel information to zero when the high-sensitivity pixel information input from the long-time exposure region is equal to or greater than a predetermined threshold.
  • the pixel value of the output image is calculated by an arithmetic process that is set to a small value and uses only low-sensitivity pixel information input from the short-time exposure area or sets a large weight.
  • the pixel information combining unit sets the weight of the low-sensitivity pixel information to zero when the low-sensitivity pixel information input from the short-time exposure region is less than a predetermined threshold.
  • the pixel value of the output image is calculated by an arithmetic process that is set to a small value and uses only high-sensitivity pixel information input from the long-time exposure region or sets a large weight.
  • control unit executes exposure time control in units of columns by shutter control in units of columns of the pixel units.
  • control unit performs exposure time control in which a long exposure region and a short exposure region are alternately set in units of two columns of the pixel unit, and the pixel The unit outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the long-time exposure region and low-sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region.
  • the image processing device further includes a tone conversion unit that performs a bit reduction process of the pixel value of each pixel of the output image generated by the pixel information synthesis unit. .
  • the image processing device further includes a signal processing unit that executes signal processing on the output image generated by the pixel information combining unit.
  • the image processing device further includes a codec that performs an encoding process on the output image generated by the pixel information synthesis unit.
  • control unit performs exposure time control in units of pixels of the pixel unit, and the pixel unit includes a plurality of different high-sensitivity pixels that are exposed for a long time.
  • the high-sensitivity pixel information obtained by adding the pixel values and the low-sensitivity pixel information obtained by adding the pixel values of different low-sensitivity pixels that are subjected to short-time exposure are output.
  • the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels that are included in a 2 ⁇ 2 pixel region and are subjected to long-time exposure; Low-sensitivity pixel information obtained by adding pixel values of two low-sensitivity pixels that are subjected to short-time exposure included in the 2 ⁇ 2 pixel region is output.
  • the pixel unit has a Bayer array.
  • the second aspect of the present disclosure is: An imaging unit; It exists in an imaging device which has an image process part which performs the process in any one of Claim 1 to 11.
  • the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus, A control step in which the control unit executes exposure time control in units of pixels or pixel areas; and A pixel unit that outputs pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; and A pixel information combining step in which a pixel information combining unit inputs pixel information of a plurality of different exposure times output from the pixel unit, executes a calculation process using the plurality of pixel information, and calculates a pixel value of an output image Run
  • the pixel information output step includes Outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels set based on exposure time control executed by the control unit, and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels.
  • Is a step to The pixel information synthesis step includes: The image processing method is a step of calculating a pixel value of an output image by executing a
  • the fourth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; A control step for causing the control unit to perform exposure time control in units of pixels or pixel areas; and A pixel information output step for causing the pixel unit to output pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; A pixel information combining step for inputting pixel information of a plurality of different exposure times output from the pixel unit to the pixel information combining unit and calculating a pixel value of an output image by executing arithmetic processing using the plurality of pixel information And execute In the pixel information output step, Outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels set based on exposure time control executed by the control unit, and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels.
  • the program of the present disclosure is a program provided by, for example, a storage medium to an information processing apparatus or a computer system that can execute various program codes. By executing such a program by the program execution unit on the information processing apparatus or the computer system, processing according to the program is realized.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method capable of efficiently generating a wide dynamic range image using pixel information of high sensitivity pixels and low sensitivity pixels are realized. Specifically, as output pixel signals from pixels having different sensitivities, high sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels are pixelated. The pixel information is synthesized by the pixel information synthesis unit to determine an output pixel value, and an output image having a wide dynamic range is output.
  • the weight for high-sensitivity pixel information or low-sensitivity pixel information is changed according to the luminance of the subject, and weighted addition between the high-sensitivity pixel information and the low-sensitivity pixel information is performed, and the pixel of the output image Determine the value and output it.
  • a frame memory is necessary by arranging pixels with different sensitivities in the pixel unit and generating pixel information with reduced resolution from a plurality of pixels with different sensitivities. It is possible to generate a wide dynamic range image without doing so.
  • the analog addition of the same sensitivity is possible, the frame rate can be increased.
  • FIG. 3 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in the image processing apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the first embodiment.
  • FIG. 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 2.
  • FIG. FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the second embodiment.
  • 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 2.
  • FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the second embodiment.
  • 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 3.
  • FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the third embodiment.
  • 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 3.
  • FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the third embodiment.
  • FIG. 10 is a diagram illustrating the configuration and processing of an imaging device in an image processing apparatus according to a fourth embodiment.
  • FIG. 10 is a diagram illustrating a specific example of processing executed by a tone conversion unit set in an imaging device of an image processing apparatus according to a fourth embodiment.
  • FIG. 10 is a diagram illustrating the configuration and processing of an imaging device in an image processing apparatus according to a fifth embodiment.
  • FIG. 10 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to a sixth embodiment.
  • FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in an image processing apparatus according to Embodiment 6; It is a figure explaining the pixel arrangement
  • FIG. 2 is a block diagram illustrating a configuration example of the imaging apparatus.
  • the light incident through the optical lens 101 is incident on an imaging device 102 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion.
  • the output image data is input to the signal processing unit 103.
  • the signal processing unit 103 performs signal processing in a general camera, such as white balance (WB) adjustment and gamma correction, and generates an output image 120.
  • the output image 120 is stored in a storage unit (not shown). Or it outputs to a display part.
  • WB white balance
  • the control unit 105 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.
  • FIG. 3 is a diagram illustrating a configuration of the imaging device 102 according to an embodiment of the present disclosure.
  • the imaging device 102 includes a pixel unit 151 and a calculation unit 160.
  • the calculation unit 160 includes an AD conversion unit 161, a pixel information synthesis unit 162, and an output unit 163.
  • the arithmetic unit 160 may be configured on the same chip as the pixel unit 151, that is, on-chip, or may be configured in a different chip or device from the pixel unit 151.
  • the pixel unit 151 accumulates electric charges based on subject light in each of a large number of pixels, and outputs image data having a high pixel number that is a high-resolution image. Note that the pixel unit 151 includes a high-sensitivity pixel that performs long-time exposure and a low-sensitivity pixel that performs short-time exposure.
  • a configuration example of the pixel unit 151 and a configuration example of an output image generated by the processing of the calculation unit 160 in the imaging device 102 will be described with reference to FIG.
  • the pixel unit 151 is, for example, a Bayer array including an RGbGrB array.
  • the exposure time is controlled in units of pixels under the control of the control unit 105. High-sensitivity pixels with a long exposure time setting, Low-sensitivity pixels with a short exposure time, It is divided into these two types of pixels.
  • High-sensitivity pixels and low-sensitivity pixels are alternately set in units of two columns.
  • the horizontal direction is (x)
  • the vertical direction is (y)
  • the column number is represented by the x coordinate
  • the row number is represented by the y coordinate.
  • the calculation unit 160 of the imaging device 102 inputs the high-sensitivity pixel information and the low-sensitivity pixel information, synthesizes pixel information with different sensitivities, and sets one pixel value of the output image.
  • one pixel information is output from four pixels having two types of sensitivity. That is, the imaging device 102 generates and outputs an image obtained by reducing the original number of pixels of the pixel unit 151 to 1 ⁇ 4, that is, the pixel number reduced image 220 illustrated in FIG.
  • the high-sensitivity pixel information 181 and the low-sensitivity pixel information 182 are input from the pixel unit 151 to the calculation unit 160 of the imaging device 102 illustrated in FIG.
  • the A / D converter 161 of the arithmetic unit 160 executes A / D conversion of these input signals, that is, a process of converting an analog signal into a digital signal, and inputs the converted digital value to the information synthesizer 162. To do.
  • the pixel information combining unit 162 outputs from the 3 ⁇ 3 pixel region 211 of the pixel unit illustrated in FIG. 4A based on four pixel signals of the same color (Gb in this example).
  • One pixel value (Gb) of the image is calculated.
  • Such pixel value synthesis processing is executed to generate a pixel number reduced image 220 and output it via the output unit 163.
  • the four pixels to be combined are Two are high sensitivity pixels and two are selected from low sensitivity pixels.
  • a specific processing example in the pixel information combining unit 162 will be described with reference to FIG. With reference to FIG. 4, an example of a pixel value calculation process for Gb pixels will be described.
  • the pixel information combining unit 162 When the pixel information combining unit 162 generates one piece of pixel information from four pieces of pixel information, as shown in FIG. High-sensitivity post-analog signal ⁇ Gb (1,1) + Gb (1,3) ⁇ , Low-sensitivity post-analog signal ⁇ Gb (3,1) + Gb (3,3) ⁇ The weighted average of is calculated.
  • the pixel value Gb (out) of Gb of the pixel number reduced image is calculated according to the following formula (Formula 1).
  • Gb (out) ⁇ Gb (1,1) + Gb (1,3) ⁇ ⁇ ⁇ + ⁇ Gb (3,1) + Gb (3,3) ⁇ ⁇ (Gain) ⁇ ⁇ (Expression 1)
  • Gain a gain value that compensates for the sensitivity ratio between the high sensitivity pixel and the low sensitivity pixel
  • ⁇ and ⁇ may use different values for each color, R, Gb, Gr, and B. Further, it may be changed according to the brightness of the subject.
  • the sensitivity-compensated value of the analog addition value of the two low-sensitivity pixels is Calculation is performed by performing addition processing of multiplication results by preset multiplication parameters ⁇ and ⁇ . That is, the weighted average of the analog addition value of the two high-sensitivity pixels and the sensitivity-compensated value of the analog addition value of the two low-sensitivity pixels is calculated, and the calculated value is reduced in the number of pixels shown in FIG.
  • the output pixel value of the image for example, the pixel value of Gb (out) 221 shown in FIG. 4 is set.
  • Gain in (Equation 1) is a coefficient for compensating the sensitivity difference as described above. For example, when the sensitivity ratio of the low-sensitivity pixel to the high-sensitivity pixel is 1: 4, as shown in FIG. 5, when the subject brightness is the same, the pixel value (output) of the low-sensitivity pixel is 1 of the high-sensitivity pixel. / 4. In order to calculate an estimated pixel value when this low-sensitivity pixel is a high-sensitivity pixel, a fourfold gain is given to the output from the low-sensitivity pixel.
  • the high-sensitivity pixels are saturated, and all subjects having a brightness of a or higher are output as saturated pixel values.
  • the pixel value does not saturate even in a subject having a brightness of a or more, and a pixel value output corresponding to the brightness of the subject can be generated.
  • pixel values of high-sensitivity pixels with low noise select and output pixel values of high-sensitivity pixels with low noise, or combine high-sensitivity pixel weights when combining pixel values of high-sensitivity pixels and pixel values of low-sensitivity pixels.
  • the pixel value calculated by the processing is output.
  • the pixel value of the low-sensitivity pixel that is not saturated is selected and output, or the weight of the low-sensitivity pixel is increased when combining the pixel value of the high-sensitivity pixel and the pixel value of the low-sensitivity pixel.
  • the pixel value calculated by the synthesis process is output. By executing such processing, it is possible to output pixel values that maintain linearity with respect to brightness, and output a wide dynamic range image that accurately represents the brightness from a dark subject to a bright subject. it can.
  • the pixel information combining unit 162 in the calculation unit 160 of the imaging device 192 illustrated in FIG. 3 uses pixel values of two high sensitivity pixels and two low sensitivity pixels included in the 3 ⁇ 3 pixel region 211 illustrated in FIG. 4, for example. By performing such processing, a wide dynamic range image is output.
  • FIG. 6 shows details of the pixel portion 151.
  • the pixel unit 151 is configured by, for example, a MOS image sensor (CMOS sensor).
  • the upper left Gb (1, 1) pixel 251 shown in the drawing corresponds to the upper left pixel Gb (1, 1) shown in FIG. 4
  • These correspond to the four Gb pixels included in the 3 ⁇ 3 pixel region 211 at the upper left end shown in FIG.
  • the pixel unit 151 controls the exposure time in units of pixels under the control of the control unit 105.
  • High-sensitivity pixels with a long exposure time setting Low-sensitivity pixels with a short exposure time, These two types of pixels are alternately set in units of two columns according to the vertical line.
  • the two pixels Gb (1,1) 251 and Gb (1,3) 252 are high-sensitivity pixels that are exposed for a long time.
  • Two pixels of Gb (3, 1) 253 and Gb (3, 3) 254 are low-sensitivity pixels that are exposed for a short time.
  • two signal lines L1 and H1 are wired per row to be connected to the control transistor T1 of each pixel.
  • the signal lines L1 and H1 are signal lines that transmit a control signal for the exposure start time of each pixel to each pixel.
  • FIG. 7 is a timing chart for explaining the control signal transfer timing to the pixel portion shown in FIG. 6 and the exposure time control processing of each pixel.
  • a CMOS sensor performs an operation roughly divided into a shutter operation and a read operation.
  • the shutter operation is an operation at the start of photographing (exposure), and as a physical state of the photodiode, at the same time as setting the electrons by reset processing (RST signal ON, L1 or H1 signal ON) to be empty, A process for starting the accumulation of the corresponding electrons (after that, the RST signal OFF, the L1 signal, or the H1 signal OFF) is performed. Exposure starts by this shutter operation.
  • a selection signal (SEL) which is a selection signal of a pixel from which a pixel value is to be read, is turned on, and (RST) for resetting the floating diffusion (FD) is turned on at this timing. Selection is made by removing the FD accumulated charge based on noise before the start and turning on the signal lines (L1 and H1) for operating the control transistor (T1) of each pixel during the ON period of the selection signal (SEL). Reading of the pixel value of the pixel in which both the signal (SEL) and the signal lines (L1, H1) are turned on is executed.
  • the pixel unit 151 of the imaging device 102 alternately sets the high-sensitivity pixels and the low-sensitivity pixels in a vertical stripe pattern, for example, in units of two columns. Have a configuration to do.
  • the pixel value reading process from the pixel unit 151 is executed in the following sequence.
  • S1 The first row and the third row are read simultaneously, and two pixel values in the same column are added and output
  • S2 Read out the second row and the fourth row at the same time, add two pixel values in the same column and output
  • S3 The fifth row and the seventh row are read simultaneously, and two pixel values in the same column are added and output
  • S4 The sixth row and the eighth row are read simultaneously, and two pixel values in the same column are added and output, ::
  • pixel values of pixels of the same color in the same column in two rows every other row are simultaneously read out, added, and output.
  • high sensitivity pixels and low sensitivity pixels are set in units of two columns, and in each of the above steps (S1), (S2), (S3),. Pixel value addition of two high sensitivity pixels, The pixel value addition of two low sensitivity pixels is performed, These high-sensitivity pixel addition value and low-sensitivity pixel addition value are output.
  • the timing chart shown in FIG. 7 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
  • First at time (t1), First row reset signal (RST1), Reset signal (RST3) in the third row, A control signal (H1) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row; A control signal (H3) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row; These are set to High (ON).
  • control transistors (T1) of the high-sensitivity pixels in the first row and the third row connected to the signal lines H1 and H3 are turned ON, and the high-sensitivity pixel columns in the first row and the third row are set.
  • the electrons in the photodiode are emptied, and new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
  • the pixel values of the first row and the third row are output by adding the pixel values of the same column through one output line. That is, From the first column, which is the high-sensitivity pixel column shown in FIG. 6, the Gb pixel 251 [Gb (1, 1)] and the third row, the first row, the first row and the first column via the output line (Out1). An added pixel value of two high-sensitivity pixels with one column of Gb pixels 252 [Gb (1, 3)] is output. Further, from the third column, which is the low-sensitivity pixel column shown in FIG. 6, the Gb pixel 261 [Gb (3, 1)] and the third row in the first row and the third column are connected via the output line (Out3). , The added pixel value of the two low-sensitivity pixels with the Gb pixel 262 [Gb (3, 3)] in the third column is output.
  • FIG. 8 shows two pixels in the first column, which is the high sensitivity pixel column shown in FIG. Gb pixel 251 [Gb (1, 1)] in the first row and first column, Gb pixel 252 [Gb (1,3)] in the third row, first column, These pixels are shown.
  • the signal at time (t4) shown in FIG. 7 the two pixels in the vertical direction become active as shown in FIG.
  • the currents of the AMP transistors are added, and pixel addition at an analog level is executed.
  • the pixel value a is output on the output line (Out1) from the Gb pixel 251 [Gb (1, 1)] in the first row and first column.
  • the pixel value b is output on the output line (Out1) from the Gb pixel 252 [Gb (1, 3)] in the third row and the first column.
  • the output line (Out1) the added value of these two pixels, a + b Is output.
  • the pixel addition output processing example shown in FIG. 8 is an example of the addition output processing of the high-sensitivity pixels in the first column. However, the pixel value addition between the low-sensitivity pixels is also performed in the third column and the output line (Out3) is used. Outputs the pixel value addition result of two low-sensitivity pixels.
  • High-sensitivity pixel information 181 shown in FIG. 3 is such an addition signal for a plurality of high-sensitivity pixels, and low-sensitivity pixel information 182 is also an addition signal for a plurality of low-sensitivity pixels.
  • the point in the timing chart shown in FIG. 7 is that the shutter timing, that is, the exposure start time can be set to different times in the same row.
  • the exposure time can be made different, and the sensitivity can be changed in the same row.
  • the sensitivity is the same in the vertical direction, it is possible to add analog levels as described above.
  • the addition of the analog level can contribute to the improvement of the frame rate of the CMOS sensor.
  • the example of 2 pixel addition was shown here, addition of 3 pixels or more is also possible.
  • FIG. 9 is a diagram illustrating a processing example for generating one piece of pixel information from four pixels. From the pixel portion 151 shown in FIG. High sensitivity post-analog signal ⁇ Gb (1,1) + Gb (1,3) ⁇ , Low-sensitivity post-analog signal ⁇ Gb (3,1) + Gb (3,3) ⁇ , These are output.
  • Gb (1) Gb (1,1) + Gb (1,3)
  • Low sensitivity pixel information: Gb (3) Gb (3,1) + Gb (3,3) It becomes.
  • the AD conversion unit 161 of the calculation unit 160 shown in FIG. 3 converts these addition signals: Gb (1) and Gb (3) into digital values and inputs them to the pixel information synthesis unit 162.
  • the pixel information synthesis unit 162 generates one output pixel value: Gb (Out) from these addition pixel information: Gb (1) and Gb (3).
  • the output pixel value: Gb (Out) is calculated according to the above equation 2 and output via the output unit 163.
  • Gain a gain value that compensates for the sensitivity ratio between the high sensitivity pixel and the low sensitivity pixel
  • the pixel unit 151 performs analog addition in the vertical direction, and then the pixel information synthesis unit 162 of the calculation unit 160 performs digital addition in the horizontal direction.
  • FIG. 10 is also a diagram for explaining a processing example for generating one piece of pixel information of an output image from four pixels of the pixel unit, as in FIG. 9.
  • S11 Two pixel analog value addition processing of the same sensitivity executed in the pixel unit
  • S12 The addition result [G (1)] of the high-sensitivity pixel and the addition result [G (3)] of the low-sensitivity pixel, which are executed in the pixel information synthesis unit, are added by performing weighting coefficient multiplication and gain adjustment.
  • a process of calculating a pixel value [G (Out)] of the output pixel It is described that the pixel value calculation of the output image is executed by these processes.
  • FIG. 11 is a diagram for describing an example of a generation process of a composite image generated by the pixel information combining unit 162 of the calculation unit 160 illustrated in FIG. 3, that is, a pixel information composite image.
  • the pixel information combining unit 162 of the calculation unit 160 illustrated in FIG. 3 applies the pixel values of a plurality of pixels to determine the pixel value of one pixel of the output image.
  • the coefficients ⁇ and ⁇ in the above formula may be changed according to the brightness of the subject, for example.
  • the pixel value of a high-sensitivity pixel may be saturated, that is, the maximum pixel value, and an accurate pixel value may not be reflected.
  • Gb (3, 3) only are applied to calculate the output pixel value.
  • FIG. 11 shows three processing modes for such a processing mode. That is, (1) Bright subject (high sensitivity pixels are saturated) (2) Medium subject (high-sensitivity pixel is less than saturation value, both high-sensitivity pixel and low-sensitivity pixel are above the preset allowable SN ratio) (3) Dark subject (high-sensitivity pixel is less than saturation value and low-sensitivity pixel is less than the predetermined allowable SN ratio) It is a figure explaining the aspect of the synthetic
  • the pixel value of the high sensitivity pixel is not applied to the pixel value calculation of the output pixel of the pixel information composite image.
  • Weighting factor: W H ( ⁇ ), which is a multiplication parameter for highly sensitive pixel information
  • Gb (Out) (high sensitivity pixel information (Gb (1)) ⁇ W H + (low sensitivity pixel information (Gb (3)) ⁇ (gain) ⁇ W L It becomes.
  • the high sensitivity pixel information (Gb (1)) is a pixel value addition result of two high sensitivity pixels in the same column.
  • the low sensitivity pixel information (Gb (3)) is a pixel value addition result of two low sensitivity pixels in the same column.
  • the multiplication factor for the pixel values of the low-sensitivity pixels the W L
  • the multiplication factor for the pixel values of the high-sensitivity pixel W H as 1, combined pixel dependent only on the pixel values of the high-sensitivity pixels
  • the pixel value [Gb (Out)] is calculated.
  • the multiplication factor for the pixel values of the low-sensitivity pixels the W L as 0.5
  • the multiplication factor for the pixel values of the high-sensitivity pixel W H as 0.5
  • high-sensitivity pixels and low-sensitivity two pixel values of the pixels The pixel value [Gb (Out)] of the combined pixel is calculated by the average of.
  • the multiplication factor for the pixel values of the high-sensitivity pixel the W H
  • the multiplication factor for the pixel values of the low-sensitivity pixel W L as a 1
  • the composite pixel dependent only on the pixel values of the low-sensitivity pixels The pixel value [Gb (Out)] is calculated.
  • the coefficient can be set using the low sensitivity pixel information.
  • three types are used for simplification, but a function for calculating a weight based on low-sensitivity pixel information is set in advance, and the low-sensitivity input from the pixel unit 151 by the pixel information combining unit 162 shown in FIG.
  • a configuration may be adopted in which the coefficients W H and W L are calculated by executing an operation to which a predetermined function is applied based on the pixel information 182.
  • FIG. 12 (2) shows a processing example in which the weighting factor applied to the calculation of the output pixel value of a certain pixel is used as the weighting factor applied to the calculation of the output pixel value of the adjacent pixel.
  • the luminance of a pixel often changes gently in a certain range of pixel regions.
  • the same weighting factor is used for the calculation of the B pixel adjacent to the Gb pixel or the calculation of the R pixel by using the number of weight examples applied to the calculation of the output pixel value of the Gb pixel. It is good also as a setting.
  • Stabilization without changing the weighting factor according to color unifies which pixel information is mainly used, that is, high sensitivity or low sensitivity, without a predetermined area. This leads to stabilization of the exposure time for each region of the output image, and it is possible to prevent the occurrence of false colors due to a shift in the exposure period when the object being photographed moves.
  • pixel addition exceeding the number of two pixels is possible.
  • the synthesis is first performed by two pixels, and then the aspect ratio of the vertical and horizontal directions is set.
  • the digital resampling process may be performed in the horizontal direction so as to align them.
  • each pixel has the same circuit configuration as described with reference to FIG.
  • Control transistor (T1) Amplifier transistor (AMP), Reset transistor (RST), Select transistor (SEL),
  • T1 Control transistor
  • AMP Amplifier transistor
  • RST Reset transistor
  • SEL Select transistor
  • the circuit configuration is such that each of these transistors is set for each pixel.
  • FIG. 13 is a configuration in which an AMP transistor, an RST transistor, and a SEL transistor are set as one setting for four vertically arranged pixels, and these transistors are shared.
  • FIG. 13 is a diagram illustrating an example of a pixel array having a shared pixel structure.
  • the circuit configuration of the four pixel blocks 301 adjacent to the column of the pixel portion illustrated in FIG. 13A is the circuit illustrated in FIG.
  • One AMP transistor, one RST transistor, and one SEL transistor are associated with these four pixels Gb (1, 1), R1, Gb (1, 3), and R2.
  • the control transistor T3 of T1 and the Gb (1, 3) pixel may be simultaneously set to “H” (ON) at time (t2).
  • the electrons of the photodiodes of the Gb (1,1) pixel and the Gb (1,3) pixel are added to the FD 311 in FIG. 13B, and this addition signal is read out through the SEL transistor. It will be.
  • FIG. 15 shows a pixel array in the shared configuration of the transistors described with reference to FIG. 13, that is, a configuration in which the transistors are shared as one setting in four vertically arranged pixel blocks of AMP transistors, RST transistors, and SEL transistors. Show.
  • the pixel block is indicated by a dotted frame like the pixel block 321.
  • two signal lines LT1 and HT1 are connected to one row of the control transistor Tn of the pixel.
  • the reset signal line (RST) and the selection signal line (SEL) are set to one for a pixel block including four pixels in each column.
  • the pixel block 321 includes four pixels included in the first column, and one reset signal line (RST) and a selection signal line (SEL) are provided for the pixel block 321 including the four pixels. It is a connected configuration.
  • this corresponds to the transistor sharing configuration in which the AMP transistor, the RST transistor, and the SEL transistor are set as one in a pixel block unit including four pixels in one column. Is. With such a configuration, a transistor and a wiring configuration are simplified.
  • FIG. 16 is a timing chart for explaining the control signal transfer timing and the exposure time control processing for each pixel for the transistor-sharing pixel portion shown in FIG. 13 or FIG.
  • the shutter operation is an operation at the start of photographing (exposure), and as a physical state of the photodiode, at the same time as setting the electrons by reset processing (RST signal ON, LT1 or HT1 signal ON) to be empty, A process for starting the accumulation of the corresponding electrons (after that, the RST signal OFF, the LT1 or the HT1 signal OFF) is performed. Exposure starts by this shutter operation.
  • a selection signal (SEL) which is a selection signal of a pixel from which a pixel value is to be read, is turned on, and (RST) for resetting the floating diffusion (FD) is turned on at this timing. Selection is made by removing the FD accumulated charge based on noise before the start and turning on the signal lines (L1 and H1) for operating the control transistor (T1) of each pixel during the ON period of the selection signal (SEL). Reading of the pixel value of the pixel in which both the signal (SEL) and the signal lines (L1, H1) are turned on is executed.
  • the pixel unit 151 of the imaging device 102 of the present disclosure has a configuration in which high-sensitivity pixels and low-sensitivity pixels are alternately set, for example, in units of two columns in a vertical stripe shape.
  • the pixel value reading process from the pixel unit 151 is executed in the following sequence.
  • the timing chart shown in FIG. 16 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
  • a reset signal (RST1) common to the first and third rows
  • a control signal (HT1) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
  • a control signal (HT3) for operating the control transistor T3 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row;
  • These are set to High (ON).
  • control transistors (T1, T3) of the high-sensitivity pixels in the first row and the third row connected to the signal lines HT1 and HT3 are turned on, and the high-sensitivity pixel columns in the first row and the third row are turned on.
  • the electrons in the photodiode set to emptied, and new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
  • a reset signal (RST1) common to the first and third rows A control signal (LT1) for operating the control transistor T1 of the low sensitivity pixel as an exposure start signal for only the low sensitivity pixel column of the first row;
  • These are set to High (ON).
  • the control transistors (T1, T3) of the low-sensitivity pixels in the first row and the third row connected to the signal lines LT1 and LT3 are turned on, and the low-sensitivity pixel columns in the first row and the third row are turned on.
  • the electrons in the photodiode set to emptied, and new charge accumulation corresponding to the subject light is started (low-sensitivity pixel shutter operation).
  • a control signal (LT1) for operating the transistor T1 of the low sensitivity pixel only for the low sensitivity pixel column of the first row A control signal (HT1) for operating the transistor T1 of the high sensitivity pixel only for the high sensitivity pixel column of the first row, A control signal (LT3) for operating the transistor T1 of the low sensitivity pixel only for the low sensitivity pixel column of the third row, A control signal (HT3) for operating the transistor T1 of the high-sensitivity pixel only for the high-sensitivity pixel column of the third row, All of these are set to High (ON).
  • the pixel values of the first row and the third row are output by adding the pixel values of the same column through one output line. That is, From the high-sensitivity pixel column including the pixel block 321 and the like of the first column shown in FIG. 15, two output lines (Out1, Out2, Out5, Out6...) The added pixel value of the high sensitivity pixel is output. Further, the low-sensitivity pixel column shown in FIG. 15 outputs the added pixel values of the two low-sensitivity pixels in the first row and the third row via the output lines (Out3, Out4, Out7, Out8). Is done.
  • AMP Amplifier transistor
  • RST Reset transistor
  • SEL Select transistor
  • a pixel block 351 shown in FIG. Four high-sensitivity pixels in the high-sensitivity pixel row; 4 low-sensitivity pixels in the low-sensitivity pixel row, The pixel block is composed of these eight pixels, and the circuit configuration of the pixel block is as shown in FIG.
  • the high sensitivity pixel column 361 includes four high sensitivity pixels, and the low sensitivity pixel column 362 includes four low sensitivity pixels.
  • a timing chart of the read operation is shown in FIG. As shown in FIG. At time t1, A reset signal (RST) common to a pixel block of eight pixels, A selection signal (SEL) common to a pixel block of eight pixels, These are simultaneously set to High (ON), and the floating diffusion (FD) 371 shown in FIG. 17B is reset (RST). By this process, electric charges caused by noise accumulated in the FD 371 are eliminated.
  • RST reset signal
  • SEL selection signal
  • the control transistors T1A and T3A of the two pixels to be added in the high-sensitivity pixel column are set to High, and the added pixel value of these pixels is output via the output signal line (Out).
  • the reset signal (RST) common to the pixel block composed of eight pixels is set to High (ON), and the floating diffusion (FD) 371 shown in FIG. 17B is reset (RST).
  • RST reset signal
  • the output of the added pixel value of the high-sensitivity pixel row and the output of the added pixel value of the low-sensitivity pixel row are executed alternately via one output line.
  • FIG. 19 shows a pixel array in the transistor shared configuration described with reference to FIG. 17, that is, a configuration in which transistors are shared by setting one AMP transistor, RST transistor, and SEL transistor in eight pixel blocks.
  • the pixel block is indicated by a dotted frame like the pixel block 381.
  • the reset signal line (RST) and the selection signal line (SEL) are 1 for a total of 8 pixel blocks including 4 high-sensitivity pixels and 4 low-sensitivity pixels. It is the point which is set as one.
  • the pixel block 371 is composed of a total of 8 pixels including four high-sensitivity pixels included in the first column and four low-sensitivity pixels included in the second column.
  • the reset signal line (RST) and the selection signal line (SEL) are connected.
  • one AMP transistor, RST transistor, and SEL transistor are set for each pixel block unit consisting of a total of 8 pixels of 4 high-sensitivity pixels and 4 low-sensitivity pixels. This corresponds to the transistor sharing configuration described above. With such a configuration, a transistor and a wiring configuration are simplified.
  • FIG. 20 is a timing chart for explaining the control signal transfer timing and the exposure time control processing of each pixel for the transistor-sharing pixel portion shown in FIG. 17 and FIG.
  • the read sequence is (S1) The high-sensitivity pixels in the first row and the third row are read simultaneously, and the pixel values of two high-sensitivity pixels in the same column are added and output. (S2) The low-sensitivity pixels in the first row and the third row are read simultaneously, and the pixel values of two low-sensitivity pixels in the same column are added and output, (S3) The high-sensitivity pixels in the second row and the fourth row are read simultaneously, and the pixel values of two high-sensitivity pixels in the same column are added and output.
  • the timing chart shown in FIG. 20 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
  • a reset signal (RST1) set in units of 8 pixels common to the first row and the third row
  • a control signal (HT1) for operating the control transistor T1A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
  • a control signal (HT3) for operating the control transistor T3A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row;
  • These are set to High (ON).
  • control transistors (T1A, T3A) of the high-sensitivity pixels in the first row and the third row connected to the signal lines HT1 and HT3 are turned on, and the high-sensitivity pixel columns in the first row and the third row are turned on. Then, the electrons in the photodiode set to become empty, and then, by turning off these signals, new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
  • the control transistors (T1B, T3B) of the low-sensitivity pixels in the first row and the third row connected to the signal lines LT1 and LT3 are turned on, and the low-sensitivity pixel columns in the first row and the third row are turned on.
  • the added value of the high-sensitivity pixel and the added value of the low-sensitivity pixel are output with a time difference through one output line.
  • the vertical two-pixel addition has been described.
  • two pixels sharing the pixel are first added in the FD unit, and then the AMP transistor as in the first embodiment.
  • the two By simultaneously operating the two, it is possible to add a total of four pixels.
  • addition of 6 pixels, 8 pixels,... is also possible.
  • FIG. 21 is a diagram illustrating a configuration of the imaging device 102 according to the fourth embodiment.
  • the configuration illustrated in FIG. 21 is a configuration in which a gradation conversion unit 402 is provided after the pixel information combining unit 162 of the calculation unit 160 of the imaging device 102 illustrated in FIG.
  • Other configurations are the same as those of the first embodiment shown in FIG.
  • the overall configuration of the image processing apparatus has the configuration described above with reference to FIG.
  • the pixel unit 151 has a Bayer array composed of RGbGrB pixels similar to that in the above-described embodiment. Under the control of the control unit 105, for example, long exposure and short time are performed in units of two columns. Exposure is performed.
  • the pixel unit 151 is set to a different exposure time for each pixel region (for example, column unit) under the control of the control unit 105 (shutter control). From the long-time exposure pixel, a high-sensitivity pixel that is a storage electrification based on long-time exposure. Information 181 is output. In addition, low-sensitivity image information 182 that is stored electrification based on short-time exposure is output from the short-time exposure pixels.
  • the calculation unit 160 receives the high-sensitivity pixel information 181 and the low-sensitivity image information 182 output from the pixel unit 151, and generates one pixel information composite image in the pixel information combination unit 162 based on the input information. .
  • This combining process is performed as the same process as the combining process described in the previous embodiment. That is, the high-sensitivity pixel information and the low-sensitivity pixel information of the same color are input, and the pixel value calculation of the pixel information composite image is executed by applying the above-described (Equation 1) and the like to generate the pixel information composite image .
  • a gradation conversion unit 401 is provided after the pixel information combining unit 162.
  • the gradation converting unit 401 converts the gradation of the pixel value of each pixel of the pixel information combined image (for example, FIG. 4B) generated by the pixel information combining unit 162. Specifically, for example, when the pixel value of each pixel of the pixel information combined image generated by the pixel information combining unit 162 has a gradation of 14 bits (0 to 16383), the pixel value of each pixel is set to 10 bits (0 to 1023). Performs processing to convert to gradation and output. That is, an image in which the number of bits of each pixel is reduced is generated and output.
  • a wide dynamic range image generated by combining a long-exposure image and a short-exposure image tends to increase the number of bits as information of each pixel.
  • the number of bits is 14 bits.
  • Such an image with an increased number of bits may not be processed by a DSP, which is a subsequent signal processing unit.
  • the gradation conversion unit 401 performs gradation conversion processing that compresses the number of bits of each pixel to a bit level that can be processed by a DSP that is a subsequent signal processing unit.
  • bit number compression processing executed by the gradation conversion unit 401 will be described with reference to FIG.
  • the horizontal axis indicates the gradation [14 bits (0 to 16383) of each pixel of the input image of the gradation conversion unit 401
  • the vertical axis indicates the gradation [10 bits (0 to 1023) of each pixel in the output image after gradation conversion. ]].
  • the gradation conversion unit 401 performs a process of reducing the multi-tone pixel value output from the pixel information synthesis unit 162 to a smaller number of bits.
  • the signal processing unit 103 can perform processing without any problem.
  • the bit number compression processing performed by the gradation conversion unit 401 reduces the number of bits using, for example, a function. This function may be determined from the beginning, or a function corresponding to an image may be input from the outside or calculated internally.
  • FIG. 23 is a diagram illustrating the configuration of the imaging device 102 according to the fifth embodiment.
  • the configuration shown in FIG. 23 is after the pixel information combining unit 162 of the calculation unit 160 of the imaging device shown in FIG. Tone conversion unit 401, A signal processing unit 402 for performing camera signal processing such as demosaicing and noise reduction (NR); A codec 403 that executes image compression (JPEG, etc.) processing; It is the structure which added each of these component parts.
  • the overall configuration of the image processing apparatus (imaging apparatus) is the same as that of the first embodiment, the configuration described above with reference to FIG. 2, or the configuration in which the signal processing unit 103 is omitted from the configuration in FIG.
  • the subsequent signal processing unit 103 can be omitted.
  • a configuration including two signal processing units may be employed.
  • the processing from the pixel unit 151 to the pixel information synthesis unit 162 is the same as that in the above-described embodiment.
  • the processing of the tone conversion unit 401 is the same as that of the fourth embodiment described above.
  • the fifth embodiment further includes a signal processing unit 402 that executes camera signal processing such as demosaic or noise reduction (NR), and a codec 403 that executes image compression (JPEG or the like) processing.
  • a signal processing unit 402 that executes camera signal processing such as demosaic or noise reduction (NR)
  • a codec 403 that executes image compression (JPEG or the like) processing.
  • FIG. 24 illustrates a pixel array (color filter array) of the pixel unit 151 of the imaging device 102 according to the sixth embodiment.
  • the total unit is 4 ⁇ 4 pixels, and the minimum unit is repeatedly arranged.
  • the same color is arranged in 2 ⁇ 2.
  • high sensitivity pixels and low sensitivity pixels are set in a zigzag pattern in the column direction.
  • the white pixel region shown in the figure is a high sensitivity pixel, and the gray pixel region is a low sensitivity pixel.
  • high-sensitivity pixels and low-sensitivity pixels are alternately set in each column, and high-sensitivity pixels and low-sensitivity pixels are alternately set in each row.
  • the first row the first column is a high sensitivity pixel
  • the second row the second column is a high sensitivity pixel
  • the third row the first column is a high sensitivity pixel
  • the fourth row the second column is a high sensitivity pixel
  • high-sensitivity pixels are arranged in a zigzag shape.
  • the second column is a low sensitivity pixel
  • the first column is a low sensitivity pixel
  • the second row is a low sensitivity pixel
  • the third row is a low sensitivity pixel
  • the fourth row the first column is a low sensitivity pixel, : In this way, the low-sensitivity pixels are arranged in a zigzag shape.
  • pixels of the same color are set in units of 2 ⁇ 2 pixels, and these four pixels include two high sensitivity pixels and two low sensitivity pixels.
  • the calculation unit 160 of the imaging device 102 inputs high-sensitivity pixel information generated by the pixel values of these high-sensitivity pixels and low-sensitivity pixel information generated by the pixel values of the low-sensitivity pixels, and these pixels having different sensitivities. The information is combined to calculate one pixel value of the output image. Specifically, two high-sensitivity Gb pixels and two low-sensitivity Gb pixels included in the 2 ⁇ 2 pixel region of the same color, for example, the 2 ⁇ 2 pixel region 511 that is the Gb pixel region at the upper left end shown in FIG.
  • One Gb pixel value is calculated, and the pixel value of one pixel 521 of the output image 520 shown in FIG. 25B is calculated.
  • the imaging device 102 generates and outputs an image obtained by reducing the original number of pixels of the pixel unit 151 to 1 ⁇ 4, that is, a pixel number reduced image 520 illustrated in FIG. Therefore,
  • the output pixel value is determined using two high-sensitivity pixels and two low-sensitivity pixels of the same color included in the 3 ⁇ 3 pixel region 211.
  • the unit of calculation for calculating the output pixel value may be a 2 ⁇ 2 pixel region.
  • FIG. 26 is a diagram illustrating the circuit configuration of the pixel portion of the imaging device according to the present embodiment. Similar to the shared transistor configuration described above with reference to FIG. 17, the AMP transistor, the RST transistor, and the SEL transistor are shared by eight pixel blocks.
  • a pixel block serving as a shared unit of transistors is indicated by a dotted frame like a pixel block 581.
  • Two signal lines LT1 and HT1 are wired per row to be connected to the control transistor Tn of the pixel.
  • FIG. 27 is a timing chart for explaining the control signal transfer timing and the exposure time control processing for each pixel for the transistor-sharing pixel section shown in FIG. 17 and FIG. Since this configuration has the transistor sharing configuration described with reference to 17 as in the third embodiment described above, the readout process is executed according to the timing chart shown in FIG. The two-pixel addition value of the pixel and the two-pixel addition value of the low sensitivity pixel cannot be read simultaneously.
  • the read sequence in the present embodiment is executed with the following settings.
  • S1 The high-sensitivity pixels in the first row and the second row are read simultaneously, and the pixel values of two high-sensitivity pixels located diagonally are added and output.
  • S2 Simultaneously reading out the low-sensitivity pixels in the first row and the second row, adding the pixel values of two low-sensitivity pixels located diagonally, and outputting them,
  • S3 The high-sensitivity pixels in the third row and the fourth row are simultaneously read out, and the pixel values of two high-sensitivity pixels located obliquely are added and output.
  • S4 The low-sensitivity pixels in the third row and the fourth row are simultaneously read out, and the pixel values of two low-sensitivity pixels located diagonally are added and output. :: Hereinafter, in such processing, high-sensitivity pixel readout and low-sensitivity pixel readout are alternately performed in units of two rows.
  • the control unit 105 performs exposure time control for each pixel of the pixel unit 151, and the pixel unit 151 adds the pixel values of a plurality of different high-sensitivity pixels that are exposed for a long time.
  • Low-sensitivity pixel information obtained by adding the information and pixel values of a plurality of different low-sensitivity pixels that are exposed for a short time is output.
  • the pixel unit 151 includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels that are subjected to long-time exposure included in the 2 ⁇ 2 pixel region, and a short portion included in the 2 ⁇ 2 pixel region.
  • Low-sensitivity pixel information obtained by adding pixel values of two low-sensitivity pixels that are subjected to time exposure is output.
  • the timing chart shown in FIG. 27 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the second row.
  • a reset signal (RST1) set in units of 8 pixels common to the first row and the second row
  • a control signal (HT1) for operating the control transistor T1A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
  • a control signal (HT2) for operating the control transistor T2B of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the second row;
  • These are set to High (ON).
  • control transistors (T1A, T2B) of the high-sensitivity pixels in the first and second rows connected to the signal lines HT1 and HT2 are turned on, and the high-sensitivity pixel columns in the first and second rows are turned on. Then, the electrons in the photodiode set to become empty, and then, by turning off these signals, new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
  • the control transistors (T1B, T2A) of the low-sensitivity pixels in the first row and the second row connected to the signal lines LT1 and LT2 are turned on, and the low-sensitivity pixel columns in the first row and the second row are turned on.
  • the pixel values of the first row and the second row are output with a time difference through the single output line as the addition value of the high sensitivity pixel and the addition value of the low sensitivity pixel.
  • FIG. 28 shows a modification of the sixth embodiment.
  • a zigzag sensitivity array in the column direction as shown in FIG. 28 can be provided.
  • the same color pixels are set in units of 2 ⁇ 2 pixels as described with reference to FIGS.
  • the setting modes of the high sensitivity pixel and the low sensitivity pixel are different.
  • the high sensitivity pixels and the low sensitivity pixels are arranged in a zigzag manner in units of the second and subsequent rows.
  • the first column is a high sensitivity pixel
  • the second row is a high sensitivity pixel
  • the third row is a high sensitivity pixel
  • the fourth row the first column is a high sensitivity pixel
  • the high-sensitivity pixels are arranged in a zigzag manner in units of two rows from the second row.
  • the second column is a low sensitivity pixel
  • the first column is a low sensitivity pixel
  • the first column is a low sensitivity pixel
  • the second column is a low sensitivity pixel
  • the low-sensitivity pixels are arranged in a zigzag manner in units of two rows from the second row.
  • pixels of the same color are set in units of 2 ⁇ 2 pixels, and these four pixels include two high sensitivity pixels and two low sensitivity pixels.
  • the calculation unit 160 of the imaging device 102 inputs the high-sensitivity pixel information and the low-sensitivity pixel information, synthesizes pixel information with different sensitivities, and sets one pixel value of the output image. Specifically, two high-sensitivity Gb pixels and two low-sensitivity Gb pixels included in the 2 ⁇ 2 pixel region of the same color, for example, the 2 ⁇ 2 pixel region 611 that is the Gb pixel region at the upper left end shown in FIG. One Gb pixel value is calculated, and the pixel value of one pixel 621 of the output image 620 shown in FIG. 28B is calculated.
  • the arithmetic processing in the modified example of the sixth embodiment is the same as the processing of the sixth embodiment described above, and is separated from the pixel values of the high-sensitivity pixels and low-sensitivity pixels of the same color included in the 2 ⁇ 2 pixels. This is executed as a process for calculating a pixel value.
  • the technology disclosed in this specification can take the following configurations.
  • a pixel information combining unit that inputs pixel information of a plurality of different exposure times output by the pixel unit, calculates a pixel value of an output image by executing arithmetic processing using the plurality of pixel information,
  • the pixel portion is High sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels set based on exposure control of the control unit, and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels, and
  • the pixel information combining unit An image processing apparatus that calculates a pixel value of an output image by executing a weighted addition process between the high-sensitivity pixel information and the low-sensitivity pixel information.
  • the control unit performs exposure time control in units of columns of the pixel unit, and the pixel unit adds pixel values of a plurality of high sensitivity pixels in different high sensitivity pixel columns that are exposed for a long time.
  • the image processing apparatus wherein the low-sensitivity pixel information obtained by adding the high-sensitivity pixel information and the pixel values of a plurality of low-sensitivity pixels different in a low-sensitivity pixel row subjected to short-time exposure is output.
  • the pixel information combining unit subjects the high-sensitivity pixel information input from the long-time exposure region and the low-sensitivity pixel information input from the short-time exposure region.
  • the pixel information combining unit sets the weight of the high-sensitivity pixel information to zero or small and inputs from the short-time exposure area.
  • the pixel information combining unit sets the weight of the low-sensitivity pixel information to zero or small and inputs from the long-time exposure area.
  • the image processing apparatus according to any one of (1) to (5), wherein the control unit executes exposure time control in units of columns by shutter control in units of columns of the pixel units. (7) The control unit executes exposure time control in which a long-time exposure region and a short-time exposure region are alternately set in units of two columns of the pixel unit, and the pixel unit is included in the long-time exposure region.
  • the high sensitivity pixel information obtained by adding pixel values of a plurality of pixels and the low sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region are output in any one of (1) to (6).
  • Image processing apparatus The high sensitivity pixel information obtained by adding pixel values of a plurality of pixels and the low sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region are output in any one of (1) to (6).
  • the image processing apparatus further includes a gradation conversion unit that performs a bit reduction process of a pixel value of each pixel of the output image generated by the pixel information synthesis unit.
  • the image processing apparatus described.
  • the image processing apparatus according to any one of (1) to (9), wherein the image processing apparatus further includes a codec that performs an encoding process on an output image generated by the pixel information synthesis unit.
  • the control unit performs exposure time control in units of pixels of the pixel unit, and the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of a plurality of different high-sensitivity pixels that are exposed for a long time.
  • the image processing apparatus according to any one of (1) to (10), wherein low-sensitivity pixel information obtained by adding pixel values of a plurality of different low-sensitivity pixels subjected to short-time exposure is output.
  • the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels included in the 2 ⁇ 2 pixel region and subjected to long-time exposure, and short-time exposure included in the 2 ⁇ 2 pixel region.
  • the image processing apparatus according to any one of (1) to (11), wherein low-sensitivity pixel information obtained by adding the pixel values of two low-sensitivity pixels to be output is output.
  • the image processing device according to any one of (1) to (12), wherein the pixel section has a Bayer array.
  • the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and the like, and a program for executing processing.
  • the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method that can efficiently generate a wide dynamic range image using pixel information of high-sensitivity pixels and low-sensitivity pixels are realized. Specifically, as output pixel signals from pixels having different sensitivities, high sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels are pixelated. The pixel information is synthesized by the pixel information synthesis unit to determine an output pixel value, and an output image having a wide dynamic range is output.
  • the weight for high-sensitivity pixel information or low-sensitivity pixel information is changed according to the luminance of the subject, and weighted addition between the high-sensitivity pixel information and the low-sensitivity pixel information is performed, and the pixel of the output image Determine the value and output it.
  • a frame memory is necessary by arranging pixels with different sensitivities in the pixel unit and generating pixel information with reduced resolution from a plurality of pixels with different sensitivities. It is possible to generate a wide dynamic range image without doing so.
  • the analog addition of the same sensitivity is possible, the frame rate can be increased.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

高感度画素と低感度画素の各画素情報を適用したワイドダイナミックレンジ画像を効率的に生成可能とした装置、方法を実現する。異なる感度の画素からの出力画素信号として、複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報を画素部から出力し、これらの画素情報を画素情報合成部において合成して出力画素値を決定してダイナミックレンジの広い出力画像を出力する。画素情報合成部では、例えば被写体の輝度に応じて高感度画素情報または低感度画素情報に対する重みを変更して、高感度画素情報と低感度画素情報との重み付き加算を行い、出力画像の画素値を決定して出力する。

Description

画像処理装置、撮像装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、ダイナミックレンジの広い画像を生成する画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
 ビデオカメラやデジタルスチルカメラなどに用いられるCCDイメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサのような固体撮像デバイスは入射光量に応じた電荷を蓄積し、蓄積した電荷に対応する電気信号を出力する光電変換を行う。しかし、光電変換素子における電荷蓄積量には上限があり、一定以上の光量を受けると蓄積電荷量が飽和レベルに達してしまい、一定以上の明るさの被写体領域は飽和した輝度レベルに設定されるいわゆる白とびが発生してしまう。
 このような現象を防止するため、外光の変化等に応じて、光電変換素子における電荷蓄積期間を制御して露光時間を調整し、感度を最適値に制御するといった処理が行なわれる。例えば、明るい被写体に対しては、シャッタを高速に切ることで露光時間を短縮し光電変換素子における電荷蓄積期間を短くして蓄積電荷量が飽和レベルに達する以前に電気信号を出力させる。このような処理により被写体に応じた階調を正確に再現した画像の出力が可能となる。
 しかし、明るいところと暗いところが混在するような被写体の撮影においては、シャッタを高速に切ると、暗い部分で十分な露光時間がとれないためにS/Nが劣化し画質が落ちることになる。このように明るいところと暗いところが混在する被写体の撮影画像において、明るい部分、暗い部分の輝度レベルを正確に再現するためには、イメージセンサ上での入射光が少ない画素では長い露光時間として高いS/Nを実現し、入射光が多い画素では飽和を回避する処理が必要となる。
 このような処理を実現する手法として、露光時間の異なる複数の画像を連続的に撮影して合成する手法が知られている。すなわち、長時間露光画像と短時間露光画像を連続的に個別に撮影し、暗い画像領域については長時間露光画像を利用し、長時間露光画像では白とびとなってしまうような明るい画像領域では短時間露光画像を利用する合成処理によって、1つの画像を生成する手法である。このように、複数の異なる露光画像を合成することで、白とびのないダイナミックレンジの広い画像、すなわち広ダイナミックレンジ画像(HDR画像)を得ることができる。
 例えば特許文献1(特開2000-50151号公報)は、複数の異なる露光時間を設定した2枚の画像を撮影し、これらの画像を合成して広いダイナミックレンジの画像を得る構成を開示している。図1を参照して、この処理について説明する。撮像デバイスは、例えば、動画撮影においては、ビデオレート(30-60fps)内に2つの異なる露光時間の画像データを出力する。また、静止画撮影においても、2つの異なる露光時間の画像データを生成して出力する。図1は、撮像デバイスが生成する2つの異なる露光時間を持つ画像(長時間露光画像と、短時間露光画像)の特性について説明する図である。横軸は時間(t)であり、縦軸は固体撮像素子の1つの画素に対応する光電変換素子を構成する受光フォトダイオード(PD)における蓄積電荷量(e)である。
 例えば、受光フォトダイオード(PD)の受光量が多い、すなわち明るい被写体に対応する場合、図1に示す高輝度領域11に示すように、時間経過に伴う電荷蓄積量は急激に上昇する。一方、受光フォトダイオード(PD)の受光量が少ない、すなわち暗い被写体に対応する場合、図1に示す低輝度領域12に示すように、時間経過に伴う電荷蓄積量は緩やかに上昇する。
 時間t0~t3が長時間露光画像を取得するための露光時間TLに相当する。この長時間の露光時間TLとしても低輝度領域12に示すラインは、時間t3において電荷蓄積量は飽和レベルに達することなく(非飽和点Py)、この電荷蓄積量(Sa)に基づいて得られる電気信号を利用して決定する画素の階調レベルにより、正確な階調表現を得ることができる。
 しかし、高輝度領域11に示すラインは、時間t3に至る以前に、すでに電荷蓄積量は飽和レベル(飽和点Px)に達することが明らかである。従って、このような高輝度領域11は、長時間露光画像からは飽和レベルの電気信号に対応する画素値しか得られず、結果として白とび画素になってしまう。
 そこで、このような高輝度領域11では、時間t3に至る前の時間、例えば図に示す時間t1(電荷掃き出し開始点P1)において、一旦、受光フォトダイオード(PD)の蓄積電荷を掃き出す。電荷掃き出しは、受光フォトダイオード(PD)に蓄積された全ての電荷ではなく、フォトダイオード(PD)において制御される中間電圧保持レベルまでとする。この電荷掃き出し処理の後、再度、露光時間TS(t2~t3)とした短時間露光を実行する。すなわち、図に示す短時間露光開始点P2~短時間露光終了点P3までの期間の短時間露光を行なう。この短時間露光によって電荷蓄積量(Sb)が得られ、この電荷蓄積量(Sb)に基づいて得られる電気信号に基づいて、画素の階調レベルを決定する。
 なお、低輝度領域12における長時間露光によって得られる電荷蓄積量(Sa)に基づく電気信号と、高輝度領域251における短時間露光によって得られる電荷蓄積量(Sb)に基づく電気信号とに基づいて画素値を決定する際は、同一時間露光を行なった場合の推定電荷蓄積量またはその推定電荷蓄積量に対応する電気信号出力値を算出して、算出した結果に基づいて画素値レベルを決定する。
 このように、短時間露光画像と長時間露光画像を組み合わせることで、白とびのないダイナミックレンジの広い画像を得ることができる。
 しかしながら、上記の特許文献1に記載された構成は、いずれも長時間露光画像と短時間露光画像を個別に撮影して合成するという処理を行うことが必要となる。
 このように、露光時間を変えた複数枚の画像を利用することで、広ダイナミックレンジ画像(HDR画像)を生成可能であるが、この複数画像に基づく処理には、例えば以下の課題がある。
 課題1:複数回の撮影を行うことが必要であり、さらに、これらの画像を格納するメモリを必要とする点。
 課題2:撮影タイミングが異なる複数の画像を合成したり、長時間露光の撮影データを用いるため、カメラのブレに弱い点。
特開2000-50151号公報
 本開示は例えば、このような状況に鑑みてなされたものであり、1回の撮影画像に基づいて広ダイナミックレンジ画像を生成可能とした画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 画素または画素領域単位の露光時間制御を実行する制御部と、
 前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
 前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
 前記画素部は、
 前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
 前記画素情報合成部は、
 前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置にある。
 さらに、本開示の画像処理装置の一実施態様において、前記制御部は、前記画素部の列単位で露光時間制御を実行し、前記画素部は、長時間露光のなされる高感度画素列の異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる低感度画素列の異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素情報合成部は、前記出力画像の画素値の算出処理において、長時間露光領域から入力する高感度画素情報と、短時間露光領域から入力する低感度画素情報とに対して被写体明るさに応じた重みを設定した加算処理を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素情報合成部は、長時間露光領域から入力する高感度画素情報が既定の閾値以上である場合、前記高感度画素情報の重みをゼロまたは小さく設定し、短時間露光領域から入力する低感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素情報合成部は、短時間露光領域から入力する低感度画素情報が既定の閾値未満である場合、前記低感度画素情報の重みをゼロまたは小さく設定し、長時間露光領域から入力する高感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する。
 さらに、本開示の画像処理装置の一実施態様において、前記制御部は、前記画素部の列単位のシャッタ制御により、列単位の露光時間制御を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記制御部は、前記画素部の2列単位で長時間露光領域と短時間露光領域とを交互設定した露光時間制御を実行し、前記画素部は、前記長時間露光領域に含まれる複数画素の画素値を加算した高感度画素情報と、前記短時間露光領域に含まれる複数画素の画素値を加算した低感度画素情報とを出力する。
 さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像の各画素の画素値のビット削減処理を実行する諧調変換部を有する。
 さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像に対する信号処理を実行する信号処理部を有する。
 さらに、本開示の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像に対する符号化処理を実行するコーデックを有する。
 さらに、本開示の画像処理装置の一実施態様において、前記制御部は、前記画素部の画素単位で露光時間制御を実行し、前記画素部は、長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素部は、2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する。
 さらに、本開示の画像処理装置の一実施態様において、前記画素部は、ベイヤー配列を有する。
 さらに、本開示の第2の側面は、
 撮像部と、
 請求項1から11いずれかに記載の処理を実行する画像処理部を有する撮像装置にある。
 さらに、本開示の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 制御部が、画素または画素領域単位の露光時間制御を実行する制御ステップと、
 画素部が、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素情報出力ステップと、
 画素情報合成部が、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成ステップを実行し、
 前記画素情報出力ステップは、
 前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力するステップであり、
 前記画素情報合成ステップは、
 前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出するステップである画像処理方法にある。
 さらに、本開示の第4の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 制御部に、画素または画素領域単位の露光時間制御を実行させる制御ステップと、
 画素部に、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力させる画素情報出力ステップと、
 画素情報合成部に、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出させる画素情報合成ステップを実行させ、
 前記画素情報出力ステップにおいては、
 前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力させ、
 前記画素情報合成ステップにおいては、
 前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して例えば記憶媒体によって提供されるプログラムである。このようなプログラムを情報処理装置やコンピュータ・システム上のプログラム実行部で実行することでプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例によれば、高感度画素と低感度画素の各画素情報を適用したワイドダイナミックレンジ画像を効率的に生成可能とした装置、方法が実現される。
 具体的には、異なる感度の画素からの出力画素信号として、複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報を画素部から出力し、これらの画素情報を画素情報合成部において合成して出力画素値を決定してダイナミックレンジの広い出力画像を出力する。画素情報合成部では、例えば被写体の輝度に応じて高感度画素情報または低感度画素情報に対する重みを変更して、高感度画素情報と低感度画素情報との重み付き加算を行い、出力画像の画素値を決定して出力する。
 本開示の一実施例によれば、画素部に感度の異なる画素が配置され、更に感度の異なる複数の画素から、解像度を低下させた画素情報を生成する構成とすることで、フレームメモリを必要とせずにワイドダイナミックレンジ画像を生成することができる。また、同一感度同士のアナログ加算が可能であることから、フレームレートの上昇も可能となる。
複数の画像撮影による広ダイナミックレンジ画像の撮影処理例について説明する図である。 撮像装置の構成例について説明する図である。 撮像デバイスの構成と処理例について説明する図である。 画素情報合成処理の具体例について説明する図である。 高感度画素と低感度画素の明るさと出力との対応関係と、低感度画素の出力の調整処理としてのゲイン制御について説明する図である。 実施例1に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例1に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 複数画素の画素値加算出力処理について説明する図である。 画像処理装置における撮像デバイスの画素情報合成部における出力画素の決定アルゴリズムの一例について説明する図である。 画像処理装置における撮像デバイスの画素情報合成部における出力画素の決定アルゴリズムの一例について説明する図である。 画像処理装置における撮像デバイスの画素情報合成部における出力画素の決定アルゴリズムの一例について説明する図である。 画像処理装置における撮像デバイスの画素情報合成部における出力画素の決定アルゴリズムの一例について説明する図である。 実施例2に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例2に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 実施例2に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例2に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 実施例3に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例3に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 実施例3に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例3に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 実施例4に係る画像処理装置における撮像デバイスの構成と処理について説明する図である。 実施例4に係る画像処理装置の撮像デバイスに設定された諧調変換部の実行する処理の具体例について説明する図である。 実施例5に係る画像処理装置における撮像デバイスの構成と処理について説明する図である。 画素部の画素配列の例について説明する図である。 画素情報合成処理の具体例について説明する図である。 実施例6に係る画像処理装置における撮像デバイスの画素部の回路構成について説明する図である。 実施例6に係る画像処理装置における撮像シーケンスについて説明するタイミングチャートを示す図である。 画素部の画素配列と、画素情報合成処理の具体例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は、以下の項目に従って行う。
 1.撮像装置の構成例について
 2.撮像デバイスの構成例について
 3.その他の実施例について
  3-1.実施例2
  3-2.実施例3
  3-3.実施例4
  3-4.実施例5
  3-6.実施例6
 4.本開示の構成のまとめ
  [1.撮像装置の構成例について]
 まず、本開示の画像処理装置の一例である撮像装置の全体構成例について図2を参照して説明する。
 図2は、撮像装置の構成例を示すブロック図である。光学レンズ101を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像デバイス102に入射し、光電変換による画像データを出力する。出力画像データは信号処理部103に入力される。信号処理部103は、例えばホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像120を生成する。出力画像120は図示しない記憶部に格納される。あるいは表示部に出力される。
 制御部105は、例えば図示しないメモリに格納されたプログラムに従って各部に制御信号を出力し、各種の処理の制御を行う。
  [2.撮像デバイスの構成例について]
 次に、撮像デバイス102の構成例について図3を参照して説明する。
 図3は、本開示の一実施例の撮像デバイス102の構成を示す図である。
 撮像デバイス102は、図3に示すように画素部151、演算部160を有する。
 演算部160はAD変換部161、画素情報合成部162、出力部163を有する。
 なお、演算部160は、画素部151と同一のチップ上の構成、すなわちオンチップにある設定としてもよいし、画素部151と異なるチップや装置内に設定する構成としてもよい。
 画素部151は、多数の画素各々に被写体光に基づく電荷を蓄積し、高解像度画像である高画素数の画像データを出力する。
 なお、画素部151は、長時間露光を行う高感度画素と、短時間露光を行う低感度画素を有する構成となっている。
 画素部151の構成と、撮像デバイス102における演算部160の処理によって生成される出力画像の構成例について図4を参照して説明する。
 図4(a)に示すように画素部151は、例えば、RGbGrB配列からなるベイヤー配列である。
 画素部151は、制御部105の制御によって、露光時間が画素単位で制御され、
 露光時間の長い設定とされる高感度画素、
 露光時間の短い設定とされる低感度画素、
 これらの2種類の画素に区分される。
 図に示すように縦方向のラインに従って、
 2列単位で、高感度画素と低感度画素が交互に設定される。
 なお、図4(a)に示すように、水平方向を(x)、垂直方向を(y)として、列番号をx座標で表し、行番号をy座標で表している。
 撮像デバイス102の演算部160は、これらの高感度画素情報と低感度画素情報を入力して、異なる感度の画素情報を合成して出力画像の1つの画素値を設定する。
 図4に示す例では、2種類の感度を持つ4つの画素から1つの画素情報を出力する例を示している。つまり、撮像デバイス102は、画素部151の本来の画素数を1/4に削減した画像、すなわち、図4(b)に示す画素数削減画像220を生成して出力する。
 図3に示す撮像デバイス102の演算部160には、画素部151から、高感度画素情報181と、低感度画素情報182が入力される。
 演算部160のA/D変換部161はこれらの入力信号のA/D変換、すなわちアナログ信号をデジタル信号に変換する処理を実行して、変換後のデジタル値をがぞ情報合成部162に入力する。
 画素情報合成部162では、例えば図4に示すように、図4(a)に示す画素部の3×3画素領域211から、同一色(本例ではGb)の4つの画素信号に基づいて出力画像の1つの画素値(Gb)を算出する。このような画素値合成処理を実行して画素数削減画像220を生成して出力部163を介して出力する。
 合成対象となる4つの画素は、
 2つが高感度画素であり、2つが低感度画素から選択される。
 画素情報合成部162における具体的な処理例について、図4を参照して説明する。
 図4を参照して、Gb画素の画素値算出処理例について説明する。
 画素情報合成部162は、4つの画素情報から1つの画素情報を生成する際に、図4に示すように、
 高感度のアナログ加算後信号{Gb(1,1)+Gb(1,3)}と、
 低感度のアナログ加算後信号{Gb(3,1)+Gb(3,3)}と、
 の重みづけ平均を算出する。
 具体的には、画素数削減画像のGbの画素値Gb(out)を、下式(式1)に従って算出する。
 Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
 ただし、
 Gain:高感度画素と低感度画素との感度比を補償するゲイン値、
 α,β:α+β=1を満足する重み係数としての乗算パラメータ、
 である。
 なお、α、βはも各色、R,Gb,Gr,Bごとに異なる値を用いてもよい。また被写体の明るさに応じて変えても良い。
 R,Gb,Gr,Bの各々について、上記式(式1)と同様、
 高感度画素2画素のアナログ加算値と、
 低感度画素2画素のアナログ加算値の感度補償された値とを、
 予め設定した乗算パラメータα、βによる乗算結果の加算処理を行って算出する。
 すなわち、高感度画素2画素のアナログ加算値と、低感度画素2画素のアナログ加算値の感度補償された値との重み付き平均を算出し、算出値を図4(b)に示す画素数削減画像の出力画素値、例えば図4に示すGb(out)221の画素値として設定する。
 なお、(式1)中のGainは、上記のように感度差を補償するための係数である。例えば、低感度画素:高感度画素の感度比が1:4である場合、図5に示すように、被写体明るさが同じ場合、低感度画素の画素値(出力)は、高感度画素の1/4となる。この低感度画素を、高感度画素とした場合の推定画素値を算出するため、低感度画素からの出力に4倍のゲインを与える。
 図5に示すように、被写体の明るさが、明るくなり点aを超える明るさになると、高感度画素は飽和してしまい、a以上の明るさの被写体をすべて飽和画素値として出力してしまう。
 一方、低感度画素においては、a以上の明るさの被写体においても、画素値は飽和せず、被写体の明るさに応じた画素値出力を生成できる。
 例えば被写体が暗い画素領域では、ノイズの少ない高感度画素の画素値を選択して出力、あるいは高感度画素の画素値と低感度画素の画素値の合成に際して、高感度画素の重みを高くした合成処理によって算出した画素値を出力する。
 また、被写体が明るい場合は、飽和していない低感度画素の画素値を選択して出力、あるいは高感度画素の画素値と低感度画素の画素値の合成に際して、低感度画素の重みを高くした合成処理によって算出した画素値を出力する。
 このような処理を実行することで、明るさに対する線形性が保たれた画素値を出力可能となり、暗い被写体から明るい被写体までの明るさを正確に表現した、ワイドダイナミックレンジ画像を出力することができる。
 図3に示す撮像デバイス192の演算部160における画素情報合成部162は、例えば図4に示す3×3画素領域211に含まれる2つの高感度画素と2つの低感度画素の画素値を用いて、このような処理を行うことでワイドダイナミックレンジ画像を出力する。
 具体的には、例えば、上記の(式1)、すなわち、
 Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
 において、
 高感度画素の加算値:{Gb(1,1)+Gb(1,3)}、
 低感度画素の加算値:{Gb(3,1)+Gb(3,3)}、
 これらに対する重み係数である乗算パラメータα、βを、図5を参照して説明したように被写体明るさに応じて変更して出力画素値(Gout)を算出する。
 なお、図4に示す設定では、明るさの判定は、3×3画素領域単位で実行し、その単位で重み係数である乗算パラメータα、βは、3×3画素領域単位で設定すればよい。
 次に、図6を参照して、図3に示す撮像デバイス102の画素部151の詳細構成例について説明する。
 図6は画素部151の詳細である。画素部151は、例えばMOS型イメージセンサー(CMOSセンサー)によって構成される。
 図6には、画素部151の5×3=15画素のみを示している。
 x方向に5画素、y方向に3画素である。
 図に示す左上端のGb(1,1)画素251は、図4(a)に示す左上端の画素Gb(1,1)に対応する。
 図6に示す点線枠で示す4つのGb画素、
 Gb(1,1)251、
 Gb(1,3)252、
 Gb(3,1)253、
 Gb(3,3)254、
 これらは、図4(a)に示す左上端の3×3画素領域211に含まれる4つのGb画素に対応する。
 画素部151は、先に図4を参照して説明したように、制御部105の制御によって、露光時間が画素単位で制御され、
 露光時間の長い設定とされる高感度画素、
 露光時間の短い設定とされる低感度画素、
 これらの2種類の画素が、縦方向のラインに従って2列単位で交互に設定される。
 Gb(1,1)251と、Gb(1,3)252の2画素は、長時間露光がなされる高感度画素である。
 Gb(3,1)253と、Gb(3,3)254の2画素は、短時間露光がなされる低感度画素である。
 このような露光制御構成を実現するため、各画素の制御トランジスタT1に接続される信号線が、1行につき、L1、H1の2本配線される。
 信号線L1,H1は、それぞれ、各画素の露光開始時間の制御信号を各画素に伝送する信号線である。
 図7は図6に記載した画素部に対する制御信号の転送タイミングと、各画素の露光時間制御処理について説明するタイミングチャートである。
 通常CMOSセンサーは、シャッタ動作とリード動作に大別された動作を行う。シャッタ動作とは、撮影(露光)をスタートさせる際の動作で、フォトダイオードの物理状態としては、リセット処理(RST信号ON、L1またはH1信号ON)による電子を空に設定すると同時に、受光量に応じた電子の蓄積を開始させる処理(その後、RST信号OFF、L1またはH1信号OFF)が行われる。このシャッタ動作によって露光が始まる。
 露光終了は、リード動作によってタイミングが決定されて実行される。
 リード動作は、画素値の読み取り対象となる画素の選択信号である選択信号(SEL)をONとし、さらに、このタイミングでフローティングディフュージョン(FD)のリセット処理のための(RST)をONとして、露光開始以前のノイズ等に基づくFD蓄積電荷を取り除き、選択信号(SEL)のON期間中に、各画素の制御トランジスタ(T1)を動作させる信号線(L1とH1)をONとすることで、選択信号(SEL)と信号線(L1,H1)の両信号がONとなった画素の画素値の読み出しが実行される。
 前述したように、本開示の撮像デバイス102の画素部151は、図4を参照して説明したように、縦方向にストライプ状に高感度画素と低感度画素を例えば2列単位で交互に設定する構成を持つ。
 図7に示すタイミングチャートでこれが実現される。
 なお、画素部151からの画素値読み出し処理は、以下のシーケンスで実行する。
 (S1)第1行と第3行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S2)第2行と第4行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S3)第5行と第7行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S4)第6行と第8行を同時に読み出して、同一列の2つの画素値を加算して出力、
   :                       :
 以下、このように、1行おきの2つの行の同一列の同一色の画素の画素値を同時に読み出してこれらを加算して出力する。
 本例では、2列単位で高感度画素と低感度画素が設定されており、上記の各ステップ(S1),(S2),(S3),・・・において、
 2つの高感度画素の画素値加算と、
 2つの低感度画素の画素値加算が実行され、
 これらの高感度画素加算値と低感度画素加算値が出力されることになる。
 図7に示すタイミングチャートは、第1行と第3行の処理シーケンスとしてのシャッタ動作とリード動作の実行例を示している。
 まず、時間(t1)において、
 第1行のリセット信号(RST1)、
 第3行のリセット信号(RST3)、
 第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H1)、
 第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、H1とH3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
 次いで、時間(t2)において、
 第1行のリセット信号(RST1)、
 第3行のリセット信号(RST3)、
 第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L1)、
 第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、L1とL3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
 次に、リード動作を実行する。
 まず、時間(t3)において、
 同時読み出しによる加算対象行である第1行第3行について、
 第1行、第3行のリセット信号(RST1,RST3)、
 第1行、第3行の選択信号(SEL1,SEL3)、
 これらを同時にHigh(ON)として、フローティングディフュージョン(FD)のリセット(RST)を行う。
 この処理によって、FDに蓄積されたノイズ等に起因する電荷を排除する。
 次いで、第1行、第3行の選択信号(SEL1,SEL3)をHigh(ON)に設定した期間内の時間(t4)において、
 第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H1)、
 第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H3)、
 第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L1)、
 第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L3)、
 これらをすべてHigh(ON)にする。
 第1行と第3行の画素値は、1本の出力ラインを介して同一列の画素値が加算されて出力される。
 すなわち、
 図6に示す高感度画素列である第1列からは、出力ライン(Out1)を介して、第1行、第1列のGb画素251[Gb(1,1)]と第3行、第1列のGb画素252[Gb(1,3)]との2つの高感度画素の加算画素値が出力される。
 また、図6に示す低感度画素列である第3列からは、出力ライン(Out3)を介して、第1行、第3列のGb画素261[Gb(3,1)]と第3行、第3列のGb画素262[Gb(3,3)]との2つの低感度画素の加算画素値が出力される。
 画素の加算結果の出力構成について図8を参照して説明する。
 図8は、図6に示す高感度画素列である第1列の2つの画素、すなわち、
 第1行、第1列のGb画素251[Gb(1,1)]、
 第3行、第1列のGb画素252[Gb(1,3)]、
 これらの画素を示している。
 図7に示す時間(t4)の信号設定により、縦方向の2つの画素が図8のようにアクティブな状態となる。結果としてAMPトランジスタの電流を加算することになり、アナログレベルでの画素加算が実行される。
 具体的には、以下の処理が実行される。
 第1行、第1列のGb画素251[Gb(1,1)]からは画素値aが出力ライン(Out1)上に出力される。
 第3行、第1列のGb画素252[Gb(1,3)]からは画素値bが出力ライン(Out1)上に出力される。
 結果として、出力ライン(Out1)からは、これら2つの画素の加算値、
 a+b
 が出力される。
 図8に示す画素加算出力処理例は、第1列の高感度画素の加算出力処理例であるが、第3列においても低感度画素同士の画素値加算が実行され、出力ライン(Out3)からは2つの低感度画素の画素値加算結果が出力される。
 また、その他のすべての同一タイミングの出力が実行される行の組み合わせ、すなわち、
 第1行と第3行、
 第2行と第4行、
 第5行と第7行、
 第6行と第8行、
  :
 これらの全ての1行おきの2行の同一列の同一色の画素値は加算されて出力される。
 このように、2つの画素の画素値の加算信号が、図3に示す画素部151から出力される。
 図3に示す高感度画素情報181は、このような複数の高感度画素の加算信号であり、低感度画素情報182も複数の低感度画素の加算信号である。
 図7に示すタイミングチャートでのポイントは、同一行でシャッタ時期、すなわち、露光開始時間を異なる時間に設定できることにある。
 高感度画素列と低感度画素列とでシャッタ時期をずらすことで露光時間を異ならせることができ、同一行で感度を変えることが可能になる。
 また、縦方向には感度が同一になっているため、上記したようなアナログレベルの加算が可能になる。アナログレベルの加算は、CMOSセンサーのフレームレート向上に寄与することができる。なお、ここでは2画素加算の例を示したが、3画素以上の加算も可能である。
 図9は、4画素から一つの画素情報を生成する処理例を説明する図である。
 図3に示す画素部151からは、
 高感度のアナログ加算後信号{Gb(1,1)+Gb(1,3)}、
 低感度のアナログ加算後信号{Gb(3,1)+Gb(3,3)}、
 これらが出力される。
 図3に示す高感度画素情報181、低感度画素情報182である。
 図9に示す例では、
 高感度画素情報:Gb(1)=Gb(1,1)+Gb(1,3)
 低感度画素情報:Gb(3)=Gb(3,1)+Gb(3,3)
 となる。
 図3に示す演算部160のAD変換部161は、これらの加算信号:Gb(1),Gb(3)をデジタル値に変換して画素情報合成部162に入力する。
 画素情報合成部162は、これらの加算画素情報:Gb(1),Gb(3)から1つの出力画素値:Gb(Out)を生成する。
 図9に示すように、画素情報合成部162は、
 Gb(Out)=α×Gb(1)+β×Gb(3)×(Gain)・・・(式2)
 上記式2に従って、出力画素値:Gb(Out)を算出して出力部163を介して出力する。
 ただし、
 Gain:高感度画素と低感度画素との感度比を補償するゲイン値、
 α,β:α+β=1を満足する重み係数としての乗算パラメータ、
 である。
 上記(式2)は先に説明した(式1)、すなわち、
 Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
 上記式と同様の式である。
 このように本開示の撮像装置では、画素部151で、縦方向にアナログ加算を行い、その後、演算部160の画素情報合成部162において、横方向でデジタル的な加算を行う。
 図10も、図9と同様、画素部の4画素から出力画像の一つの画素情報を生成する処理例を説明する図である。
 (S11)画素部において実行する同じ感度の2画素のアナログ値加算処理、
 (S12)画素情報合成部において実行する高感度画素の加算結果[G(1)]と、低感度画素の加算結果[G(3)]とを重み係数の乗算とゲイン調整を行って加算して出力画素の画素値[G(Out)]を算出する処理、
 これらの処理によって出力画像の画素値算出が実行されることを説明している。
 図11は、図3に示す演算部160の画素情報合成部162が生成する合成画像、すなわち画素情報合成画像の生成処理の例を説明する図である。
 前述のように、図3に示す演算部160の画素情報合成部162は、複数の画素の画素値を適用して、出力画像の1つの画素の画素値を決定する。
 画素情報合成部162は、合成画像の画素値算出式である(式1)、すなわち、
 Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
 上記式に従って、撮影画像の複数の画素値から1つの画素値を算出する。
 先に説明したように、上記式中の係数:α、βは、例えば被写体の明るさに応じて変更する設定としてよい。例えば、明るい被写体に対しては、高感度画素の画素値が飽和状態、すなわち最大画素値となり、正確な画素値を反映できない場合がある。このような場合は、α=0として、高感度画素のGb(1,1)とGb(1,3)の画素値を適用せず、β=1として、低感度画素のGb(3,1)とGb(3,3)の画素値のみを適用して出力画素値を算出する処理を実行する。
 図11は、このような処理態様について、3つの処理態様を示している。すなわち、
 (1)明るい被写体(高感度画素が飽和値)
 (2)中位の被写体(高感度画素が飽和値以下で、高感度画素、低感度画素とも既定の許容SN比以上)
 (3)暗い被写体(高感度画素が飽和値以下で、低感度画素が既定の許容SN比未満)
 これらの被写体の撮影領域に対応する合成処理の態様を説明する図である。
 各処理態様について説明する。
 (1)明るい被写体(高感度画素が飽和値)
 図11(1)に示すように被写体が明るく、高感度画素が飽和値である場合は、高感度画素の画素値は、画素部の各画素において蓄積可能な最大電荷量に対応する最大画素値となり、正確な画素値を反映できない状態にある。
 このような場合は、高感度画素の画素値は、画素情報合成画像の出力画素の画素値算出に適用しない。この図11(1)に示す例では、先に説明した(式1)における係数:α、βの設定は以下のような設定となる。
 すなわち、α=0、β=1として、高感度画素の画素値を適用せず、低感度画素の画素値のみを適用して出力画素値を算出する処理を実行する。
 (2)中位の被写体(高感度画素が飽和値以下で、高感度画素、低感度画素とも既定の許容SN比以上)
 図11(2)に示すように、明るさが中位の被写体、すなわち、高感度画素が飽和値以下で、高感度画素、低感度画素とも既定の許容SN比以上である場合は以下の処理を行う。
 高感度画素、低感度画素とも正確な画素値を反映していると判断できるため、どちらかを選択して利用して画素情報合成画像の画素値として設定してもよいし、すべてを利用したブレンド処理を実行して画素情報合成画像の画素値を算出してもよい。
 この場合、先に説明した(式1)における係数:α、βの設定は、
 α+β=1
 上記制約を満たす範囲で、様々な設定が可能である。一例として、例えば、
 α=β=0.5
 このような設定として、高感度画素2画素と低感度画素2画素の計4画素の平均値を画素情報合成画像における1つの出力画素の画素値として設定してもよい。
 (3)暗い被写体(高感度画素が飽和値以下で、低感度画素が既定の許容SN比未満)
 図11(3)に示すように、暗い被写体、すなわち、高感度画素が飽和値以下で、低感度画素が既定の許容SN比未満である場合は以下の処理を行う。
 低感度画素の画素値は、予め定めた許容SN比未満であり、正確な画素値を反映していると言えない。このような場合は、低感度画素の画素値を適用せず、高感度画素の画素値のみに基づいて画素情報合成画像の出力画素値を算出する。
 この場合、先に説明した(式1)における係数:α、βの設定は、
 α=0
 β=1
 とする。
 すなわち、低感度画素の画素値を利用せず、高感度画素の画素値のみを適用して画素情報合成画像の出力画素値を算出する。
 出力画素に対する入力画素の寄与度に対応する重み係数の設定例について図12を参照して説明する。
 図12(1)には、
 高感度画素情報に対する乗算パラメータである重み係数:W(=α)、
 低感度画素情報に対する乗算パラメータである重み係数:W(=β)、
 これらの設定例を示している。
 図12(1)に示すように、
 出力画素値は、Gb画素を例として説明すると、
 Gb(Out)=(高感度画素情報(Gb(1))×W+(低感度画素情報(Gb(3))×(ゲイン)×W
 となる。
 なお、
 高感度画素情報(Gb(1))は、同一列の2つの高感度画素の画素値加算結果である。
 低感度画素情報(Gb(3))は、同一列の2つの低感度画素の画素値加算結果である。
 W:入力画素の高感度画素に対応する重み係数(=α)、
 W:入力画素の低感度画素に対応する重み係数(=β)、
 ただし、W+W=1の関係を満たす係数、
 である。
 図12(1)には、入力画素の高感度画素に対応する重み係数Wと、低感度画素に対応する重み係数Wの設定例を示している。
 ここでは、低感度画素の画素値に応じて、異なる係数を利用する設定としている。
 具体的には、例えば図12(1)に示す以下の設定の係数を利用する。
 なお、各画素の画素値は10bit(0~1023)の出力であるとする。
 低感度画素の画素値(data)に応じて以下の設定とする。
 (a)0≦data<50の場合:W=1.0、W=0
 (b)50≦data<100の場合:W=0.5、W=0.5
 (c)100≦data<1023の場合:W=0、W=1.0
 この係数設定は、以下のような想定に基づくものである。
 (a)0≦data<50の場合
 このように、低感度画素の画素値(data)が小さい場合、被写体の明るさが低く、低感度画素の画素値のSN比が低いと推定される。この場合、低感度画素の画素値(data)の信頼度が低いと判断され、また、近傍の高感度画素の画素値が飽和していないと推定される。このような場合は、低感度画素の画素値に対する乗算係数:Wを0として、高感度画素の画素値に対する乗算係数:Wを1として、高感度画素の画素値のみに依存した合成画素の画素値[Gb(Out)]を算出する。
 (b)50≦data<100の場合
 このように、低感度画素の画素値(data)が中程度である場合、被写体の明るさが中程度であり、低感度画素の画素値のSN比が良好であると推定される。この場合、低感度画素の画素値(data)の信頼度が高いと判断され、また、近傍の高感度画素の画素値も飽和していないと推定される。このような場合は、低感度画素の画素値と高感度画素の画素値をブレンドする。すなわち、低感度画素の画素値に対する乗算係数:Wを0.5として、高感度画素の画素値に対する乗算係数:Wも0.5として、高感度画素と低感度画素の2つの画素値の平均により合成画素の画素値[Gb(Out)]を算出する。
 (c)100≦data<1023の場合
 このように、低感度画素の画素値(data)が高い場合、被写体の明るさが極めて明るいと判断される。この場合、低感度画素の画素値のSN比は良好であり、低感度画素の画素値(data)の信頼度が高いと判断されるが、近傍の高感度画素の画素値は飽和している可能性が高いと推定される。このような場合は、高感度画素の画素値に対する乗算係数:Wを0として、低感度画素の画素値に対する乗算係数:Wを1として、低感度画素の画素値のみに依存した合成画素の画素値[Gb(Out)]を算出する。
 このように、低感度画素情報を利用して係数の設定を行うことができる。なお、ここでは簡便化のため3種類としたが、低感度画素情報に基づいて重みを算出する関数を予め設定して、図3に示す画素情報合成部162が画素部151から入力する低感度画素情報182に基づいて既定の関数を適用した演算を実行して係数W、Wを算出する構成としてもよい。
 図12(2)には、ある画素の出力画素値の算出に適用した重み係数を隣接する画素の出力画素値の算出に適用する重み係数として利用する処理例を示している。一般的に画素の輝度はある範囲の画素領域においてなだらかに変化する場合が多い。このような性質を利用して、例えばGb画素の出力画素値の算出に適用した重み例数をGb画素に隣接するB画素の算出、あるいはR画素の算出の場合にもおなじ重み係数を利用する設定としてもよい。
 重み係数を色に応じて変化させずに安定化させることは、高感度、低感度、どちらの画素情報を主に利用するかを所定領域ないで統一させることになる。これは出力画像の領域単位の露光時間を安定化させることにつながり、撮影している物体が動いた場合など、露光期間のずれによる偽色の発生を防ぐことができる。
 また、図8を参照した説明において言及したように2画素を超える数の画素加算も可能であるが、この場合、横方向に関しては、まずは2画素ずつで合成を行い、その後、縦横のアスペクト比を揃えるように、横方向に対してデジタルリサンプリング処理を行えば良い。
  [3.その他の実施例について]
  (3.1.実施例2)
 先に説明した実施例では、各画素の回路構成は、図6を参照して説明したように、全ての画素が同じ回路構成を有している。具体的には、
 制御トランジスタ(T1)、
 アンプトランジスタ(AMP)、
 リセットトランジスタ(RST)、
 選択トランジスタ(SEL)、
 これらの各トランジスタを各画素単位で設定した回路構成である。
 しかし、これらの各トランジスタについては、一部のトランジスタを複数画素で1つの設定として複数画素で共通に利用する構成が可能である。
 一例について図13を参照して説明する。
 図13に示す画素部構成は、AMPトランジスタ、RSTトランジスタ、SELトランジスタを4つの縦に並んだ画素に1つの設定として、これらのトランジスタを共有した構成である。図13は、共有画素構造による画素アレイの一例を示す図である。
 図13(a)に示す画素部の縦列に隣接する4つの画素ブロック301の回路構成が図13(b)に示す回路である。
 これら4つの画素Gb(1,1)、R1、Gb(1,3)、R2に対して、AMPトランジスタ、RSTトランジスタ、SELトランジスタが1つ対応付けられている。
 この構造で、例えば、Gb(1,1)画素とGb(1,3)画素を加算する場合、図14に示すタイミングチャートのように、読み出しの際にGb(1,1)画素の制御トランジスタT1と、Gb(1,3)画素の制御トランジスタT3を、時間(t2)において、同時に、"H"(ON)にすればよい。
 この処理により、Gb(1,1)画素とGb(1,3)画素、それぞれのフォトダイオードの電子が、図13(b)のFD311に合算され、この加算信号がSELトランジスタを介して読み出されることになる。
 図15は、図13を参照して説明したトランジスタの共有構成、すなわち、AMPトランジスタ、RSTトランジスタ、SELトランジスタを4つの縦に並んだ画素ブロックに1つの設定としてトランジスタを共有した構成における画素アレイを示している。画素ブロックは、画素ブロック321のように、点線枠で示している。
 先に説明した図6の構成と同様、図15の回路においても画素の制御トランジスタTnに接続される信号線は、1行につき、LT1、HT1の2本配線されている。この構成で、2列単位の高感度画素と低感度画素の設定が実現されている。
 図6の構成との差異は、リセット信号線(RST)と選択信号線(SEL)が、各列の4画素からなる画素ブロックに対して1つの設定としている点である。
 例えば画素プロック321は、第1列に含まれる4つの画素からなるが、この4画素から構成される画素ブロック321に対して、1本のリセット信号線(RST)と選択信号線(SEL)が接続された構成となっている。
 これは、図13(B)を参照して説明したように、1つの列の4つの画素からなる画素ブロック単位でAMPトランジスタ、RSTトランジスタ、SELトランジスタを1つの設定としたトランジスタ共有構成に対応するものである。
 このような構成とすることで、トランジスタおよび配線構成が簡略化される。
 図16は、図13や図15に記載したトランジスタ共有型の画素部に対する制御信号の転送タイミングと、各画素の露光時間制御処理について説明するタイミングチャートである。
 先に図7を参照して説明したように、通常CMOSセンサーは、シャッタ動作とリード動作に大別された動作を行う。シャッタ動作とは、撮影(露光)をスタートさせる際の動作で、フォトダイオードの物理状態としては、リセット処理(RST信号ON、LT1またはHT1信号ON)による電子を空に設定すると同時に、受光量に応じた電子の蓄積を開始させる処理(その後、RST信号OFF、LT1またはHT1信号OFF)が行われる。このシャッタ動作によって露光が始まる。
 露光終了は、リード動作によってタイミングが決定されて実行される。
 リード動作は、画素値の読み取り対象となる画素の選択信号である選択信号(SEL)をONとし、さらに、このタイミングでフローティングディフュージョン(FD)のリセット処理のための(RST)をONとして、露光開始以前のノイズ等に基づくFD蓄積電荷を取り除き、選択信号(SEL)のON期間中に、各画素の制御トランジスタ(T1)を動作させる信号線(L1とH1)をONとすることで、選択信号(SEL)と信号線(L1,H1)の両信号がONとなった画素の画素値の読み出しが実行される。
 前述したように、本開示の撮像デバイス102の画素部151は、縦方向にストライプ状に高感度画素と低感度画素を例えば2列単位で交互に設定する構成を持つ。
 なお、画素部151からの画素値読み出し処理は、以下のシーケンスで実行する。
 (S1)第1行と第3行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S2)第2行と第4行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S3)第5行と第7行を同時に読み出して、同一列の2つの画素値を加算して出力、
 (S4)第6行と第8行を同時に読み出して、同一列の2つの画素値を加算して出力、
   :                       :
 以下、このように、1行おきの2つの行の同一列の同一色の画素の画素値を同時に読み出してこれらを加算して出力する。
 図16に示すタイミングチャートは、第1行と第3行の処理シーケンスとしてのシャッタ動作とリード動作の実行例を示している。
 まず、時間(t1)において、
 第1行と第3行に共通するリセット信号(RST1)、
 第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(HT1)、
 第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT3を動作させる制御信号(HT3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、HT1とHT3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1,T3)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
 次いで、時間(t2)において、
 第1行と第3行に共通するリセット信号(RST1)、
 第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(LT1)、
 第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT3を動作させる制御信号(LT3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、LT1とLT3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1,T3)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
 次に、リード動作を実行する。
 まず、時間(t3)において、
 同時読み出しによる加算対象行である第1行第3行について、
 第1行と第3行に共通のリセット信号(RST1)、
 第1行と第3行に共通の選択信号(SEL1)、
 これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図13のFD311)のリセット(RST)を行う。
 この処理によって、4画素単位で設定された図13(b)に示すFD311に蓄積されたノイズ等に起因する電荷を排除する。
 次いで、第1行と第3行に共通する選択信号(SEL1)をHigh(ON)に設定した期間内の時間(t4)において、
 第1行の低感度画素列のみに対して低感度画素のトランジスタT1を動作させる制御信号(LT1)、
 第1行の高感度画素列のみに対して高感度画素のトランジスタT1を動作させる制御信号(HT1)、
 第3行の低感度画素列のみに対して低感度画素のトランジスタT1を動作させる制御信号(LT3)、
 第3行の高感度画素列のみに対して高感度画素のトランジスタT1を動作させる制御信号(HT3)、
 これらをすべてHigh(ON)にする。
 第1行と第3行の画素値は、1本の出力ラインを介して同一列の画素値が加算されて出力される。
 すなわち、
 図15に示す第1列の画素ブロック321等が含まれる高感度画素列からは、出力ライン(Out1,Out2,Out5,Out6・・・)を介して、第1行と第3行の2つの高感度画素の加算画素値が出力される。
 また、図15に示す低感度画素列からは、出力ライン(Out3,Out4,Out7,Out8・・・)を介して、第1行と第3行の2つの低感度画素の加算画素値が出力される。
 ここでは、縦方向の2画素加算について説明したが、縦方向4画素を加算する場合は、画素を共有する2画素ずつをまずFD部で加算し、その後、実施例1のようにAMPトランジスタを二つ同時に動作させることで、合計4画素分の加算が可能となる。同様にして、6画素、8画素・・・の加算も可能である。
 トランジスタを複数画素で共有した画素部構成とした場合の本実施例における画素部からの縦方向の画素値加算読み出し処理は以上の通りである。
 この後の横方向の加算処理は、先に説明した実施例1と同様の処理として実行される。
  (3-2.実施例3)
 次に、実施例2と同様、トランジスタを複数画素で共有した画素部構成のもう1つの例について、実施例3として図17以下を参照して説明する。
 実施例3として図17に示す画素部構成は、
 アンプトランジスタ(AMP)、
 リセットトランジスタ(RST)、
 選択トランジスタ(SEL)、
 これらの3つのトランジスタを、
 高感度画素列の4つの高感度画素と、
 低感度画素列の4つの低感度画素、
 これらの8つの画素からなる画素ブロック単位で1つの設定としたトランジスタ共有構成である。
 図17(a)に示す画素ブロック351が、
 高感度画素列の4つの高感度画素と、
 低感度画素列の4つの低感度画素、
 これらの8つの画素からなる画素ブロックであり、この画素ブロックの回路構成が図17(b)に示す構成となる。
 図17(b)に示すように、高感度画素列361は4つの高感度画素を含み、低感度画素列362には4つの低感度画素が含まれる。
 これらの計8つの画素に対して、
 アンプトランジスタ(AMP)、
 リセットトランジスタ(RST)、
 選択トランジスタ(SEL)、
 これらのトランジスタを1つの設定として8つの画素で共有する構成としている。
 これら8つの画素は、出力ライン(Out)も共有している。従って、高感度画素列361の2画素の加算画素値の出力と、低感度画素列362の2画素の加算画素値の出力は、1つの出力ライン(Out)を介して交互に、すなわち排他的に実行される。
 読み出し動作のタイミングチャートを図18に示す。
 図18に示すように、
 時間t1において、
 8つの画素からなる画素ブロックに共通するリセット信号(RST)、
 8つの画素からなる画素ブロックに共通する選択信号(SEL)、
 これらを同時にHigh(ON)として、図17(b)に示すフローティングディフュージョン(FD)371のリセット(RST)を行う。
 この処理によって、FD371に蓄積されたノイズ等に起因する電荷を排除する。
 時間t2において、
 高感度画素列の加算処理対象となる2つの画素の制御トランジスタT1A,T3AをHighとして、これらの画素の加算画素値が出力信号線(Out)を介して出力される。
 その後、時間t3において、
 8つの画素からなる画素ブロックに共通するリセット信号(RST)をHigh(ON)として、図17(b)に示すフローティングディフュージョン(FD)371のリセット(RST)を行う。
 この処理によって、FD371に蓄積されたノイズ等に起因する電荷を排除する。
 その後、時間t4において、
 低感度画素列の加算処理対象となる2つの画素の制御トランジスタT1B,T3BをHighとして、これらの画素の加算画素値が出力信号線(Out)を介して出力される。
 このように高感度画素列の加算画素値の出力と低感度画素列の加算画素値の出力は1本の出力ラインを介して交互に実行される。
 図19は、図17を参照して説明したトランジスタの共有構成、すなわち、AMPトランジスタ、RSTトランジスタ、SELトランジスタを8つの画素ブロックに1つの設定としてトランジスタを共有した構成における画素アレイを示している。画素ブロックは、画素ブロック381のように、点線枠で示している。
 先に説明した図6の構成や図15の構成と同様、図17の回路においても画素の制御トランジスタTnに接続される信号線は、1行につき、LT1、HT1の2本配線されている。この構成で、2列単位の高感度画素と低感度画素の設定が実現されている。
 図6や図15の構成との差異は、リセット信号線(RST)と選択信号線(SEL)が、高感度画素4画素と低感度画素4画素からなる計8画素の画素ブロックに対して1つの設定としている点である。
 例えば画素プロック371は、第1列に含まれる4つの高感度画素と第2列の4つの低感度画素の計8画素からなるが、この8画素から構成される画素ブロック381に対して、1本のリセット信号線(RST)と選択信号線(SEL)が接続された構成となっている。
 これは、図17(B)を参照して説明したように、4つの高感度画素と4つの低感度画素の計8画素からなる画素ブロック単位でAMPトランジスタ、RSTトランジスタ、SELトランジスタを1つの設定としたトランジスタ共有構成に対応するものである。
 このような構成とすることで、トランジスタおよび配線構成が簡略化される。
 図20は、図17や図19に記載したトランジスタ共有型の画素部に対する制御信号の転送タイミングと、各画素の露光時間制御処理について説明するタイミングチャートである。
 本構成では、図18を参照して説明したように高感度画素の2画素加算値と低感度画素の2画素加算値の同時読み出しができない。
 従って読み出しシーケンスは、
 (S1)第1行と第3行の高感度画素を同時に読み出して、同一列の2つの高感度画素の画素値を加算して出力、
 (S2)第1行と第3行の低感度画素を同時に読み出して、同一列の2つの低感度画素の画素値を加算して出力、
 (S3)第2行と第4行の高感度画素を同時に読み出して、同一列の2つの高感度画素の画素値を加算して出力、
 (S4)第2行と第4行の低感度画素を同時に読み出して、同一列の2つの低感度画素の画素値を加算して出力、
    :                       :
 以下、このような処理が、1行おきの2つの行単位で高感度画素読み出しと低感度画素読み出しが交互に行われることになる。
 図20に示すタイミングチャートは、第1行と第3行の処理シーケンスとしてのシャッタ動作とリード動作の実行例を示している。
 まず、時間(t1)において、
 第1行と第3行に共通する8画素単位で設定されたリセット信号(RST1)、
 第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1Aを動作させる制御信号(HT1)、
 第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT3Aを動作させる制御信号(HT3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、HT1とHT3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1A,T3A)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
 次いで、時間(t2)において、
 第1行と第3行に共通する8画素単位で設定されたリセット信号(RST1)、
 第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1Bを動作させる制御信号(LT1)、
 第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT3Bを動作させる制御信号(LT3)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、LT1とLT3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1B,T3B)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
 次に、リード動作を実行する。
 まず、時間(t3)において、
 同時読み出しによる加算対象行である第1行第3行について、
 第1行と第3行に共通の8画素単位で設定されたリセット信号(RST1)、
 第1行と第3行に共通の8画素単位で設定された選択信号(SEL1)、
 これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図17のFD371)のリセット(RST)を行う。
 この処理によって、8画素単位で設定された図17(b)に示すFD371に蓄積されたノイズ等に起因する電荷を排除する。
 次いで、第1行と第3行に共通する8画素単位で設定された選択信号(SEL1)をHigh(ON)に設定した期間内の時間(t4)において、
 第1行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT1)、
 第3行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT3)、
 これらをHigh(ON)にする。
 この処理によって、第1行と第3行の高感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
 次いで、第1行と第3行に共通する8画素単位で設定された選択信号(SEL1)をHigh(ON)に設定した期間内の時間(t5)において、
 第1行の低感度画素列のみに対してトランジスタT1Bを動作させる制御信号(LT1)、
 第3行の低感度画素列のみに対してトランジスタT3Bを動作させる制御信号(LT3)、
 これらをHigh(ON)にする。
 この処理によって、第1行と第3行の低感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
 このように第1行と第3行の画素値は、高感度画素の加算値と低感度画素の加算値が、1本の出力ラインを介して時間差を持って出力される。
 本実施例でも縦方向の2画素加算について説明したが、縦方向4画素を加算する場合は、画素を共有する2画素ずつをまずFD部で加算し、その後、実施例1のようにAMPトランジスタを二つ同時に動作させることで、合計4画素分の加算が可能となる。同様にして、6画素、8画素・・・の加算も可能である。
 トランジスタを複数画素で共有した画素部構成とした場合の本実施例における画素部からの縦方向の画素値加算読み出し処理は以上の通りである。
 この後の横方向の加算処理は、さきに説明した実施例1と同様の処理として実行される。
  (3-3.実施例4)
 次に、本発明の実施例4として、図21に示すように、撮像デバイス102の演算部160の画素情報合成部162の後に、階調変換部401を構成した実施例について説明する。
 図21は、実施例4に係る撮像デバイス102の構成を示す図である。この図21に示す構成は、先に実施例1として説明した図3に示す撮像デバイス102の演算部160の画素情報合成部162の後に諧調変換部402を設けた構成である。その他の構成は図3に示す実施例1の構成と同じである。なお、画像処理装置(撮像装置)の全体構成は、実施例1と同様、先に図2を参照して説明した構成を持つ。
 図21に示す撮像デバイス102において、画素部151は、前述の実施例と同様のRGbGrB画素からなるベイヤー配列を有し、制御部105の制御の下、例えば2列単位で長時間露光と短時間露光が実行される。
 画素部151は、制御部105の制御(シャッタ制御)により、画素領域単位(例えば列単位)で異なる露光時間に設定され、長時間露光画素からは長時間露光に基づく蓄積電化である高感度画素情報181が出力される。また、短時間露光画素からは短時間露光に基づく蓄積電化である低感度画像情報182を出力する。
 演算部160は、画素部151から出力される高感度画素情報181と、低感度画像情報182を入力し、これらの入力情報に基づいて画素情報合成部162において1つの画素情報合成画像を生成する。この合成処理は、先の実施例説明した合成処理と同様の処理として行われる。すなわち同一色の高感度画素情報と低感度画素情報を入力して、先に説明した(式1)等を適用して画素情報合成画像の画素値算出を実行して画素情報合成画像を生成する。
 本実施例4では、この画素情報合成部162の後に、階調変換部401を設けている。
 階調変換部401は、画素情報合成部162の生成した画素情報合成画像(例えば図4(b))の各画素の画素値の諧調を変換する。具体的には、例えば画素情報合成部162の生成した画素情報合成画像の各画素の画素値が14bit(0~16383)の諧調を有する場合、各画素の画素値を10bit(0~1023)の諧調に変換して出力するといった処理を行う。すなわち、各画素のビット数を削減した画像を生成して出力する。
 長時間露光画像と短時間露光画像の合成により生成するワイドダイナミックレンジ画像は、各画素の情報であるビット数が増加する傾向にある。例えば、通常状態が10bitの撮像素子において、内部で16倍の感度比を持たせ、16倍のワイドダイナミックレンジ画像を生成した場合、そのビット数は、14bitとなる。このようなビット数が増加した画像は、後段の信号処理部であるDSPが処理できない場合がある。このような事態を防止するため、階調変換部401は、後段の信号処理部であるDSPが処理できるビットレベルまで各画素のビット数を圧縮する諧調変換処理を実行する。
 階調変換部401の実行するビット数圧縮処理例について図22を参照して説明する。図22は、横軸が階調変換部401の入力画像の各画素の諧調[14bit(0~16383)を示し、縦軸が諧調変換後の出力画像における各画素の諧調[10bit(0~1023)]を示している。このように、階調変換部401は、画素情報合成部162の出力する多諧調の画素値をより少ないビット数に削減する処理を行う。
 この諧調変換後の画像データ、例えば各画素が10bitデータからなる画像を次段の信号処理部103(DSP)に提供することで、信号処理部103(DSP)において問題なく処理が可能となる。
 なお、階調変換部401の実行するビット数圧縮処理は、例えば関数を利用してビット数を低減する。この関数は最初から決められたものでも良いし、画像に応じた関数を外部から入力もしくは内部で算出してもよい。
  (3-4.実施例5)
 次に、本開示の画像処理装置の実施例5として、実施例4において説明した諧調変換部の後に、デモザイクやノイズリダクション(NR)といったカメラ信号処理を実行する信号処理部や、画像圧縮(JPEGなど)処理を実行するコーデックを備えた実施例について図23を参照して説明する。
 図23は、実施例5に係る撮像デバイス102の構成を示す図である。この図23に示す構成は、先に実施例1として説明した図3に示す撮像デバイスの演算部160の画素情報合成部162の後に、
 諧調変換部401、
 デモザイクやノイズリダクション(NR)といったカメラ信号処理を実行する信号処理部402、
 画像圧縮(JPEGなど)処理を実行するコーデック403、
 これらの各構成部を追加した構成である。なお、画像処理装置(撮像装置)の全体構成は、実施例1と同様、先に図2を参照して説明した構成、あるいは図2の構成から信号処理部103を省略した構成を持つ。
 図2の構成の信号処理部103で実行する処理を、図23中の信号処理部402で全て実行する場合は、後段の信号処理部103を省略することができる。それぞれの信号処理部において異なる処理を実行する場合は、2つの信号処理部を備えた構成としてもよい。
 図23に示す撮像デバイス102において、画素部151からの出力、画素情報合成部162までの処理は前述の実施例と同様の処理となる。
 諧調変換部401の処理は、先に説明した実施例4と同様の処理である。
 本実施例5では、さらに、デモザイクやノイズリダクション(NR)といったカメラ信号処理を実行する信号処理部402と、画像圧縮(JPEGなど)処理を実行するコーデック403を備えている。このような機能を搭載することで、撮像素子の後段の信号処理部を省略、または簡易化することができる。
  (3-5.実施例6)
 次に、本開示の画像処理装置の実施例6として、撮像デバイス102の画素部151の画素配列、具体的には、画素部151に設定されるカラーフィルタ配列の変更例について説明する。
 上述した各実施例では、例えば図4に示すように、Gb,B,R,Grの4つの異なる画素からなる2×2の4画素を最小単位として、この最小単位を繰り返して配置した構成を持つ画素部151を持つ撮像装置における処理について説明した。
 本開示の処理は、この他の画素配列(カラーフィルタ配列)に対しても適用可能である。
 例えば、図24は本実施例6における撮像デバイス102の画素部151の画素配列(カラーフィルタ配列)を示している。
 図24に示す画素部151の画素配列は、
 2×2のGb画素、
 2×2のB画素、
 2×2のR画素、
 2×2のGr画素、
 これらの計4×4画素を最小単位として、この最小単位を繰り返し配置した構成を有する。図24に示すように同一の色が2×2に配置されているのが特徴である。
 図24に示す画素配列における高感度画素と低感度画素の設定について図25を参照して説明する。
 本実施例においては、図25(a)に示すように列方向にジグザグ状に高感度画素と低感度画素が設定されている。図に示す白い画素領域が高感度画素であり、グレーの画素領域が低感度画素である。
 例えば、図25(a)の左上端の4つのGb画素の設定[座標(x,y)]は以下の通りである。
 Gb(1,1):高感度画素
 Gb(2,1):低感度画素
 Gb(1,2):低感度画素
 Gb(2,2):高感度画素
 このように各列において高感度画素と低感度画素が交互に設定され、各行においても高感度画素と低感度画素が交互に設定された構成となっている。
 図に示すように、例えば第1列と、第2列においてy方向に高感度画素のみをたどると、上から、
 第1行では、第1列が高感度画素、
 第2行では、第2列が高感度画素、
 第3行では、第1列が高感度画素、
 第4行では、第2列が高感度画素、
   :
 このようにジグザグ状に高感度画素が配列されている。
 同様に、第1列と、第2列においてy方向に低感度画素のみをたどると、上から、
 第1行では、第2列が低感度画素、
 第2行では、第1列が低感度画素、
 第3行では、第2列が低感度画素、
 第4行では、第1列が低感度画素、
   :
 このようにジグザグ状に低感度画素が配列されている。
 本構成では、同一色の画素が2×2画素単位で設定され、この4画素中に2つの高感度画素と2つの低感度画素が含まれる構成となっている。
 撮像デバイス102の演算部160は、これらの高感度画素の画素値によって生成される高感度画素情報と低感度画素の画素値によって生成される低感度画素情報を入力し、これらの異なる感度の画素情報を合成して出力画像の1つの画素値を算出する。
 具体的には、同一色の2×2画素領域、例えば図25に示す左上端のGb画素領域である2×2画素領域511に含まれる2つの高感度Gb画素と2つの低感度Gb画素から1つのGb画素値を算出して、図25(B)に示す出力画像520の1つの画素521の画素値を算出する。
 撮像デバイス102は、画素部151の本来の画素数を1/4に削減した画像、すなわち、図25(b)に示す画素数削減画像520を生成して出力する。
従って、
 先に説明した図4に示す構成では、3×3の画素領域211に含まれる同一色の2つの高感度画素と2つの低感度画素を利用して出力画素値を決定していたが、本実施例では、出力画素値を算出する演算の単位は、2×2の画素領域とすることができる。
 本実施例の画素部の回路構成は、先に実施例3に係る画像処理装置における撮像デバイスの画素部の回路構成として説明した図17に示す構成と同様の構成となる。
 図26は、本実施例における撮像デバイスの画素部の回路構成について説明する図である。
 先に図17を参照して説明したトランジスタの共有構成と同様、AMPトランジスタ、RSTトランジスタ、SELトランジスタを8つの画素ブロックに1つの設定としてトランジスタを共有した構成である。
 トランジスタの共有単位となる画素ブロックは、画素ブロック581のように、点線枠で示している。
 画素の制御トランジスタTnに接続される信号線は、1行につき、LT1、HT1の2本配線されている。この構成で、列方向にジグザグ状に高感度画素と低感度画素の設定が実現されている。
 図27は、図17や図26に記載したトランジスタ共有型の画素部に対する制御信号の転送タイミングと、各画素の露光時間制御処理について説明するタイミングチャートである。
 本構成は、先に説明した実施例3と同様の17を参照して説明したトランジスタの共有構成を有するため、図18に示すタイミングチャートに従った読み出し処理が実行されることになり、高感度画素の2画素加算値と低感度画素の2画素加算値の同時読み出しができない。
 従って、本実施例における読み出しシーケンスは、以下の設定で実行されることになる。
 (S1)第1行と第2行の高感度画素を同時に読み出して、斜めに位置する2つの高感度画素の画素値を加算して出力、
 (S2)第1行と第2行の低感度画素を同時に読み出して、斜めに位置する2つの低感度画素の画素値を加算して出力、
 (S3)第3行と第4行の高感度画素を同時に読み出して、斜めに位置する2つの高感度画素の画素値を加算して出力、
 (S4)第3行と第4行の低感度画素を同時に読み出して、斜めに位置する2つの低感度画素の画素値を加算して出力、
    :                       :
 以下、このような処理が、2つの行単位で高感度画素読み出しと低感度画素読み出しが交互に行われることになる。
 本実施例において、制御部105は、画素部151の画素単位で露光時間制御を実行し、画素部151は、長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する。
 具体的には、画素部151は、2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する。
 図27に示すタイミングチャートは、第1行と第2行の処理シーケンスとしてのシャッタ動作とリード動作の実行例を示している。
 まず、時間(t1)において、
 第1行と第2行に共通する8画素単位で設定されたリセット信号(RST1)、
 第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1Aを動作させる制御信号(HT1)、
 第2行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT2Bを動作させる制御信号(HT2)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、HT1とHT2に接続された第1行と第2行の高感度画素の制御トランジスタ(T1A,T2B)がONとなり、第1行と第2行の高感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
 次いで、時間(t2)において、
 第1行と第2行に共通する8画素単位で設定されたリセット信号(RST1)、
 第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1Bを動作させる制御信号(LT1)、
 第2行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT2Aを動作させる制御信号(LT2)、
 これらをHigh(ON)にする。
 これらの処理により、信号線、LT1とLT2に接続された第1行と第2行の低感度画素の制御トランジスタ(T1B,T2A)がONとなり、第1行と第2行の低感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
 次に、リード動作を実行する。
 まず、時間(t3)において、
 同時読み出しによる加算対象行である第1行第2行について、
 第1行と第2行に共通の8画素単位で設定されたリセット信号(RST1)、
 第1行と第2行に共通の8画素単位で設定された選択信号(SEL1)、
 これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図17のFD371)のリセット(RST)を行う。
 この処理によって、8画素単位で設定された図17(b)に示すFD371に蓄積されたノイズ等に起因する電荷を排除する。
 次いで、第1行と第2行に共通する8画素単位で設定された選択信号(SEL1)をHigh(ON)に設定した期間内の時間(t4)において、
 第1行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT1)、
 第2行の高感度画素列のみに対してトランジスタT2Bを動作させる制御信号(HT2)、
 これらをHigh(ON)にする。
 この処理によって、第1行と第2行の高感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
 次いで、第1行と第2行に共通する8画素単位で設定された選択信号(SEL1)をHigh(ON)に設定した期間内の時間(t5)において、
 第1行の低感度画素列のみに対してトランジスタT1Bを動作させる制御信号(LT1)、
 第2行の低感度画素列のみに対してトランジスタT2Aを動作させる制御信号(LT2)、
 これらをHigh(ON)にする。
 この処理によって、第1行と第2行の低感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
 このように第1行と第2行の画素値は、高感度画素の加算値と低感度画素の加算値が、1本の出力ラインを介して時間差を持って出力される。
 トランジスタを複数画素で共有した画素部構成とした場合の本実施例における画素部からの縦方向の画素値加算読み出し処理は以上の通りである。
 この後の、加算された高感度画素と、加算された低感度画素から画像合成を行うが、これは、実施例1の横方向の加算処理と同様の処理として実行される。
 図28は本実施例6の変形例である。制御トランジスタとこれに接続される制御信号線を変更することで、図28のような列方向のジグザグ状の感度配列を与えることも可能である。
 図28に示す画素配列は、図24、図25を参照して説明したと同様、同一色の画素が2×2画素単位で設定されている。
 ただし、高感度画素と低感度画素の設定態様が異なっている。
 図に示すように、第2行以下は、2行単位で、ジグザグ状に高感度画素と低感度画素が配列されている。
 例えば第1列と、第2列においてy方向に高感度画素のみをたどると、上から、
 第1行では、第1列が高感度画素、
 第2行では、第2列が高感度画素、
 第3行では、第2列が高感度画素、
 第4行では、第1列が高感度画素、
   :
 このように第2行以下は、2行単位で、ジグザグ状に高感度画素が配列されている。
 同様に、第1列と、第2列においてy方向に低感度画素のみをたどると、上から、
 第1行では、第2列が低感度画素、
 第2行では、第1列が低感度画素、
 第3行では、第1列が低感度画素、
 第4行では、第2列が低感度画素、
   :
 このように第2行以下は、2行単位で、ジグザグ状に低感度画素が配列されている。
 本構成においても、同一色の画素が2×2画素単位で設定され、この4画素中に2つの高感度画素と2つの低感度画素が含まれる構成となっている。
 撮像デバイス102の演算部160は、これらの高感度画素情報と低感度画素情報を入力して、異なる感度の画素情報を合成して出力画像の1つの画素値を設定する。
 具体的には、同一色の2×2画素領域、例えば図28に示す左上端のGb画素領域である2×2画素領域611に含まれる2つの高感度Gb画素と2つの低感度Gb画素から1つのGb画素値を算出して、図28(B)に示す出力画像620の1つの画素621の画素値を算出する。
 この実施例6の変形例における演算処理は、前述の実施例6の処理と同様であり、2×2画素に含まれる同一色の高感度画素と低感度画素の各画素値から出離ょーく画素値を算出する処理として実行される。
  [4.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1)画素または画素領域単位の露光時間制御を実行する制御部と、
 前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
 前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
 前記画素部は、
 前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
 前記画素情報合成部は、
 前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置。
 (2)前記制御部は、前記画素部の列単位で露光時間制御を実行し、前記画素部は、長時間露光のなされる高感度画素列の異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる低感度画素列の異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する前記(1)に記載の画像処理装置。
 (3)前記画素情報合成部は、前記出力画像の画素値の算出処理において、長時間露光領域から入力する高感度画素情報と、短時間露光領域から入力する低感度画素情報とに対して被写体明るさに応じた重みを設定した加算処理を実行する前記(1)または(2)に記載の画像処理装置。
 (4)前記画素情報合成部は、長時間露光領域から入力する高感度画素情報が既定の閾値以上である場合、前記高感度画素情報の重みをゼロまたは小さく設定し、短時間露光領域から入力する低感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する前記(1)~(3)いずれかに記載の画像処理装置。
 (5)前記画素情報合成部は、短時間露光領域から入力する低感度画素情報が既定の閾値未満である場合、前記低感度画素情報の重みをゼロまたは小さく設定し、長時間露光領域から入力する高感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する前記(1)~(4)いずれかに記載の画像処理装置。
 (6)前記制御部は、前記画素部の列単位のシャッタ制御により、列単位の露光時間制御を実行する前記(1)~(5)いずれかに記載の画像処理装置。
 (7)前記制御部は、前記画素部の2列単位で長時間露光領域と短時間露光領域とを交互設定した露光時間制御を実行し、前記画素部は、前記長時間露光領域に含まれる複数画素の画素値を加算した高感度画素情報と、前記短時間露光領域に含まれる複数画素の画素値を加算した低感度画素情報とを出力する前記(1)~(6)いずれかに記載の画像処理装置。
 (8)前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像の各画素の画素値のビット削減処理を実行する諧調変換部を有する前記(1)~(7)いずれかに記載の画像処理装置。
 (9)前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像に対する信号処理を実行する信号処理部を有する前記(1)~(8)いずれかに記載の画像処理装置。
 (10)前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像に対する符号化処理を実行するコーデックを有する前記(1)~(9)いずれかに記載の画像処理装置。
 (11)前記制御部は、前記画素部の画素単位で露光時間制御を実行し、前記画素部は、長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する前記(1)~(10)いずれかに記載の画像処理装置。
 (12)前記画素部は、2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する前記(1)~(11)いずれかに記載の画像処理装置。
 (13)前記画素部は、ベイヤー配列を有する前記(1)~(12)いずれかに記載の画像処理装置。
 さらに、上記した装置等において実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例によれば、高感度画素と低感度画素の各画素情報を適用したワイドダイナミックレンジ画像を効率的に生成可能とした装置、方法が実現される。
 具体的には、異なる感度の画素からの出力画素信号として、複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報を画素部から出力し、これらの画素情報を画素情報合成部において合成して出力画素値を決定してダイナミックレンジの広い出力画像を出力する。画素情報合成部では、例えば被写体の輝度に応じて高感度画素情報または低感度画素情報に対する重みを変更して、高感度画素情報と低感度画素情報との重み付き加算を行い、出力画像の画素値を決定して出力する。
 本開示の一実施例によれば、画素部に感度の異なる画素が配置され、更に感度の異なる複数の画素から、解像度を低下させた画素情報を生成する構成とすることで、フレームメモリを必要とせずにワイドダイナミックレンジ画像を生成することができる。また、同一感度同士のアナログ加算が可能であることから、フレームレートの上昇も可能となる。
  10 輝度閾値レベル
  11 高輝度領域
  12 低輝度領域
 101 光学レンズ
 102 撮像デバイス
 103 信号処理部
 105 制御部
 120 出力画像
 151 画素部
 160 演算部
 161 AD変換部
 162 画素情報合成部
 163 出力部
 181 高感度画素情報
 182 低感度画素情報
 401 諧調変換部
 402 信号処理部
 403 コーデック

Claims (16)

  1.  画素または画素領域単位の露光時間制御を実行する制御部と、
     前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
     前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
     前記画素部は、
     前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
     前記画素情報合成部は、
     前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置。
  2.  前記制御部は、前記画素部の列単位で露光時間制御を実行し、
     前記画素部は、
     長時間露光のなされる高感度画素列の異なる複数の高感度画素の画素値を加算した高感度画素情報と、
     短時間露光のなされる低感度画素列の異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する請求項1に記載の画像処理装置。
  3.  前記画素情報合成部は、
     前記出力画像の画素値の算出処理において、
     長時間露光領域から入力する高感度画素情報と、短時間露光領域から入力する低感度画素情報とに対して被写体明るさに応じた重みを設定した加算処理を実行する請求項1に記載の画像処理装置。
  4.  前記画素情報合成部は、長時間露光領域から入力する高感度画素情報が既定の閾値以上である場合、前記高感度画素情報の重みをゼロまたは小さく設定し、短時間露光領域から入力する低感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する請求項1に記載の画像処理装置。
  5.  前記画素情報合成部は、短時間露光領域から入力する低感度画素情報が既定の閾値未満である場合、前記低感度画素情報の重みをゼロまたは小さく設定し、長時間露光領域から入力する高感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する請求項1に記載の画像処理装置。
  6.  前記制御部は、
     前記画素部の列単位のシャッタ制御により、列単位の露光時間制御を実行する請求項1に記載の画像処理装置。
  7.  前記制御部は、前記画素部の2列単位で長時間露光領域と短時間露光領域とを交互設定した露光時間制御を実行し、
     前記画素部は、前記長時間露光領域に含まれる複数画素の画素値を加算した高感度画素情報と、前記短時間露光領域に含まれる複数画素の画素値を加算した低感度画素情報とを出力する請求項1に記載の画像処理装置。
  8.  前記画像処理装置は、さらに、
     前記画素情報合成部の生成した出力画像の各画素の画素値のビット削減処理を実行する諧調変換部を有する請求項1に記載の画像処理装置。
  9.  前記画像処理装置は、さらに、
     前記画素情報合成部の生成した出力画像に対する信号処理を実行する信号処理部を有する請求項1に記載の画像処理装置。
  10.  前記画像処理装置は、さらに、
     前記画素情報合成部の生成した出力画像に対する符号化処理を実行するコーデックを有する請求項1に記載の画像処理装置。
  11.  前記制御部は、前記画素部の画素単位で露光時間制御を実行し、
     前記画素部は、
     長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、
     短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する請求項1に記載の画像処理装置。
  12.  前記画素部は、
     2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、
     2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する請求項11に記載の画像処理装置。
  13.  前記画素部は、ベイヤー配列を有する請求項1に記載の画像処理装置。
  14.  撮像部と、
     請求項1から13いずれかに記載の処理を実行する画像処理部を有する撮像装置。
  15.  画像処理装置において実行する画像処理方法であり、
     制御部が、画素または画素領域単位の露光時間制御を実行する制御ステップと、
     画素部が、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素情報出力ステップと、
     画素情報合成部が、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成ステップを実行し、
     前記画素情報出力ステップは、
     前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力するステップであり、
     前記画素情報合成ステップは、
     前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出するステップである画像処理方法。
  16.  画像処理装置において画像処理を実行させるプログラムであり、
     制御部に、画素または画素領域単位の露光時間制御を実行させる制御ステップと、
     画素部に、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力させる画素情報出力ステップと、
     画素情報合成部に、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出させる画素情報合成ステップを実行させ、
     前記画素情報出力ステップにおいては、
     前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力させ、
     前記画素情報合成ステップにおいては、
     前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出させるプログラム。
PCT/JP2012/065825 2011-07-14 2012-06-21 画像処理装置、撮像装置、および画像処理方法、並びにプログラム WO2013008596A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201280033811.0A CN103650480A (zh) 2011-07-14 2012-06-21 图像处理设备、摄像设备、图像处理方法和程序
US14/131,221 US9344637B2 (en) 2011-07-14 2012-06-21 Image processing apparatus, imaging apparatus, image processing method, and program
RU2013157361/07A RU2013157361A (ru) 2011-07-14 2012-06-21 Устройство обработки изображения, устройство формирования изображения, способ обработки изображения и программа
BR112014000337A BR112014000337A2 (pt) 2011-07-14 2012-06-21 aparelhos de processamento e de formação de imagem, método de processamento de imagem, e, programa
EP12812077.1A EP2733927A1 (en) 2011-07-14 2012-06-21 Image processing apparatus, image pickup apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011155921A JP2013021660A (ja) 2011-07-14 2011-07-14 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2011-155921 2011-07-14

Publications (1)

Publication Number Publication Date
WO2013008596A1 true WO2013008596A1 (ja) 2013-01-17

Family

ID=47505894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/065825 WO2013008596A1 (ja) 2011-07-14 2012-06-21 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9344637B2 (ja)
EP (1) EP2733927A1 (ja)
JP (1) JP2013021660A (ja)
CN (1) CN103650480A (ja)
BR (1) BR112014000337A2 (ja)
RU (1) RU2013157361A (ja)
WO (1) WO2013008596A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140362260A1 (en) * 2013-06-06 2014-12-11 Yibing M. WANG Pixel arrays & imaging devices with reduced blooming, controllers & methods

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011053678A1 (en) 2009-10-28 2011-05-05 The Trustees Of Columbia University In The City Of New York Methods and systems for coded rolling shutter
US20140192235A1 (en) 2011-02-25 2014-07-10 Sony Corporation Systems, methods, and media for reconstructing a space-time volume from a coded image
JP2013066140A (ja) 2011-08-31 2013-04-11 Sony Corp 撮像装置、および信号処理方法、並びにプログラム
US20140063300A1 (en) * 2012-09-06 2014-03-06 Aptina Imaging Corporation High dynamic range imaging systems having clear filter pixel arrays
US9338372B2 (en) * 2012-09-19 2016-05-10 Semiconductor Components Industries, Llc Column-based high dynamic range imaging systems
JP2015007739A (ja) * 2012-10-01 2015-01-15 キヤノン株式会社 表示装置及びその制御方法
WO2014099320A1 (en) 2012-12-17 2014-06-26 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for high dynamic range imaging
JP2014230088A (ja) 2013-05-22 2014-12-08 ソニー株式会社 画像調整装置、画像調整方法、画像調整プログラムおよび撮像装置
JP2015012303A (ja) * 2013-06-26 2015-01-19 ソニー株式会社 固体撮像装置および電子機器
CN104253946B (zh) * 2013-06-27 2018-03-20 聚晶半导体股份有限公司 产生高动态范围图像的方法及其图像传感器
TWI644568B (zh) 2013-07-23 2018-12-11 新力股份有限公司 攝像元件、攝像方法及攝像程式
JP2015033107A (ja) * 2013-08-07 2015-02-16 ソニー株式会社 画像処理装置および画像処理方法、並びに、電子機器
US9307160B2 (en) * 2013-08-13 2016-04-05 Htc Corporation Methods and systems for generating HDR images
JP6331308B2 (ja) * 2013-09-26 2018-05-30 株式会社ニコン 形状測定装置、構造物製造システム及び形状測定用コンピュータプログラム
EP3132383A4 (en) 2014-04-15 2017-11-29 Sony Corporation Systems, methods, and media for extracting information and a display image from two captured images
JP6418785B2 (ja) * 2014-05-21 2018-11-07 キヤノン株式会社 撮像素子、その制御方法、および制御プログラム、並びに信号処理装置
JP2016006930A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 撮像装置および撮像方法
CN106537896B (zh) * 2014-07-18 2019-10-22 索尼半导体解决方案公司 成像控制器件、成像装置和成像控制方法
WO2016027397A1 (ja) * 2014-08-20 2016-02-25 パナソニックIpマネジメント株式会社 固体撮像装置及びカメラ
US9467632B1 (en) 2015-07-13 2016-10-11 Himax Imaging Limited Dual exposure control circuit and associated method
US9819889B2 (en) * 2015-08-07 2017-11-14 Omnivision Technologies, Inc. Method and system to implement a stacked chip high dynamic range image sensor
KR102465212B1 (ko) * 2015-10-30 2022-11-10 삼성전자주식회사 다중 노출 센서를 이용하는 촬영 장치 및 이의 촬영 방법
CN105516695B (zh) * 2015-12-18 2018-06-15 广东欧珀移动通信有限公司 图像传感器和具有其的终端
CN105578075A (zh) * 2015-12-18 2016-05-11 广东欧珀移动通信有限公司 高动态范围图像的生成方法、拍照装置和终端
CN105578005B (zh) * 2015-12-18 2018-01-19 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN105592270B (zh) * 2015-12-18 2018-02-06 广东欧珀移动通信有限公司 图像亮度补偿方法、装置及终端设备
CN105472266A (zh) * 2015-12-18 2016-04-06 广东欧珀移动通信有限公司 高动态范围图像的生成方法、拍照装置和终端
CN105430274A (zh) * 2015-12-18 2016-03-23 广东欧珀移动通信有限公司 图像传感器的像素切换方法、拍照装置和终端
CN105430275A (zh) * 2015-12-18 2016-03-23 广东欧珀移动通信有限公司 图像传感器的像素切换方法、拍照装置和终端
WO2017101864A1 (zh) 2015-12-18 2017-06-22 广东欧珀移动通信有限公司 图像传感器、控制方法和电子装置
CN105611198B (zh) * 2015-12-18 2017-06-27 广东欧珀移动通信有限公司 图像传感器及具有其的终端
CN105554419B (zh) * 2015-12-18 2018-04-10 广东欧珀移动通信有限公司 图像传感器及具有其的终端
CN105578074B (zh) * 2015-12-18 2017-11-10 广东欧珀移动通信有限公司 图像传感器及具有其的终端
CN105592265A (zh) * 2015-12-18 2016-05-18 广东欧珀移动通信有限公司 图像传感器的像素切换方法、拍照装置和终端
CN105611152A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器的像素切换方法、拍照装置和终端
CN105516697B (zh) * 2015-12-18 2018-04-17 广东欧珀移动通信有限公司 图像传感器、成像装置、移动终端及成像方法
CN105611196B (zh) * 2015-12-18 2017-07-21 广东欧珀移动通信有限公司 图像坏点补偿方法、装置及终端设备
CN105578065A (zh) * 2015-12-18 2016-05-11 广东欧珀移动通信有限公司 高动态范围图像的生成方法、拍照装置和终端
JP6762714B2 (ja) * 2015-12-28 2020-09-30 ブリルニクス インク 固体撮像装置およびその駆動方法、電子機器
JP6674255B2 (ja) * 2015-12-28 2020-04-01 キヤノン株式会社 固体撮像素子及び撮像装置
US9743025B2 (en) * 2015-12-30 2017-08-22 Omnivision Technologies, Inc. Method and system of implementing an uneven timing gap between each image capture in an image sensor
KR20180036464A (ko) * 2016-09-30 2018-04-09 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
CN106454054B (zh) * 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106454289B (zh) * 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106341670B (zh) * 2016-11-29 2017-09-22 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106454288B (zh) * 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置、成像装置及电子装置
CN107018339A (zh) * 2017-03-09 2017-08-04 广东欧珀移动通信有限公司 图像传感器、图像处理方法、图像处理装置及电子装置
CN107483823A (zh) * 2017-08-31 2017-12-15 努比亚技术有限公司 一种图像处理方法及终端
CN108322669B (zh) * 2018-03-06 2021-03-23 Oppo广东移动通信有限公司 图像获取方法及装置、成像装置和可读存储介质
CN108513062B (zh) * 2018-03-06 2021-03-23 Oppo广东移动通信有限公司 终端的控制方法及装置、可读存储介质和计算机设备
JP6833751B2 (ja) * 2018-03-20 2021-02-24 株式会社東芝 撮像制御装置、撮像装置、及び撮像制御方法
CN108632537B (zh) 2018-05-04 2020-08-21 Oppo广东移动通信有限公司 控制方法及装置、成像设备、计算机设备及可读存储介质
US10616535B1 (en) 2018-10-01 2020-04-07 Foveon, Inc. Sub-sampled color channel readout wiring for vertical detector pixel sensors
JP2021034749A (ja) 2019-08-13 2021-03-01 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7095714B2 (ja) * 2019-09-24 2022-07-05 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US10855931B1 (en) * 2019-11-07 2020-12-01 Novatek Microelectronics Corp. High dynamic range image sensing method for image sensing device
KR20210102644A (ko) 2020-02-12 2021-08-20 삼성전자주식회사 이미지 센서 및 이를 포함하는 이미지 장치
US11483497B2 (en) 2020-05-29 2022-10-25 Canon Kabushiki Kaisha Encoding apparatus and method, image capture apparatus, and storage medium
US20240007754A1 (en) * 2020-11-27 2024-01-04 Sony Group Corporation Imaging element, imaging method, and imaging device
JP2022100908A (ja) 2020-12-24 2022-07-06 ゼタテクノロジーズ株式会社 固体撮像装置、固体撮像装置の信号処理方法、および電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050151A (ja) 1998-07-28 2000-02-18 Olympus Optical Co Ltd 撮像装置
JP2007124137A (ja) * 2005-10-26 2007-05-17 Sony Corp 撮像装置
JP2007214832A (ja) * 2006-02-09 2007-08-23 Sony Corp 固体撮像装置
JP2011101180A (ja) * 2009-11-05 2011-05-19 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3074967B2 (ja) * 1992-10-27 2000-08-07 松下電器産業株式会社 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
US7777804B2 (en) * 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
US8324550B2 (en) * 2010-06-22 2012-12-04 Aptina Imaging Corporation High dynamic range imaging systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050151A (ja) 1998-07-28 2000-02-18 Olympus Optical Co Ltd 撮像装置
JP2007124137A (ja) * 2005-10-26 2007-05-17 Sony Corp 撮像装置
JP2007214832A (ja) * 2006-02-09 2007-08-23 Sony Corp 固体撮像装置
JP2011101180A (ja) * 2009-11-05 2011-05-19 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140362260A1 (en) * 2013-06-06 2014-12-11 Yibing M. WANG Pixel arrays & imaging devices with reduced blooming, controllers & methods
US9462202B2 (en) * 2013-06-06 2016-10-04 Samsung Electronics Co., Ltd. Pixel arrays and imaging devices with reduced blooming, controllers and methods

Also Published As

Publication number Publication date
US9344637B2 (en) 2016-05-17
JP2013021660A (ja) 2013-01-31
RU2013157361A (ru) 2015-06-27
EP2733927A1 (en) 2014-05-21
US20140267828A1 (en) 2014-09-18
BR112014000337A2 (pt) 2017-02-14
CN103650480A (zh) 2014-03-19

Similar Documents

Publication Publication Date Title
WO2013008596A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
WO2012063634A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US9288399B2 (en) Image processing apparatus, image processing method, and program
US10110827B2 (en) Imaging apparatus, signal processing method, and program
US9124809B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP5085140B2 (ja) 固体撮像装置
WO2013145487A1 (ja) 画像処理装置、撮像素子、および画像処理方法、並びにプログラム
JP4821921B2 (ja) 固体撮像装置および電子機器
JP4691930B2 (ja) 物理情報取得方法および物理情報取得装置、並びに物理量分布検知の半導体装置、プログラム、および撮像モジュール
WO2015012121A1 (ja) 撮像素子、撮像方法、並びにプログラム
WO2012114819A1 (ja) 撮像装置、および撮像装置制御方法、並びにプログラム
KR20120102509A (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
JP2012235332A (ja) 撮像装置、および撮像装置制御方法、並びにプログラム
JP4852321B2 (ja) 撮像装置
JP4501350B2 (ja) 固体撮像装置および撮像装置
US8218021B2 (en) Image capture apparatus, method of controlling the same, and program
JP5612001B2 (ja) 画像処理装置及び固体撮像装置
JP2022119630A (ja) 画像処理装置、画像処理方法、および撮像装置、ならびにそれらの制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12812077

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012812077

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013157361

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14131221

Country of ref document: US

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014000337

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014000337

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140107