WO2013008596A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- WO2013008596A1 WO2013008596A1 PCT/JP2012/065825 JP2012065825W WO2013008596A1 WO 2013008596 A1 WO2013008596 A1 WO 2013008596A1 JP 2012065825 W JP2012065825 W JP 2012065825W WO 2013008596 A1 WO2013008596 A1 WO 2013008596A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pixel
- sensitivity
- pixel information
- pixels
- low
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims description 203
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000035945 sensitivity Effects 0.000 claims abstract description 212
- 238000000034 method Methods 0.000 claims abstract description 80
- 238000003384 imaging method Methods 0.000 claims description 75
- 230000008569 process Effects 0.000 claims description 73
- 238000004364 calculation method Methods 0.000 claims description 34
- 238000006243 chemical reaction Methods 0.000 claims description 29
- 230000015572 biosynthetic process Effects 0.000 claims description 25
- 238000003786 synthesis reaction Methods 0.000 claims description 25
- 238000011946 reduction process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 25
- 238000009825 accumulation Methods 0.000 description 22
- 239000002131 composite material Substances 0.000 description 13
- 229920006395 saturated elastomer Polymers 0.000 description 10
- 238000009792 diffusion process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000012546 transfer Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 201000005569 Gout Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14609—Pixel-elements with integrated switching, control, storage or amplification elements
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14645—Colour imagers
- H01L27/14647—Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/57—Control of the dynamic range
- H04N25/58—Control of the dynamic range involving two or more exposures
- H04N25/587—Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
- H04N25/589—Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
- H04N25/778—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
Definitions
- the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program. More specifically, the present invention relates to an image processing device, an imaging device, an image processing method, and a program that generate an image with a wide dynamic range.
- Solid-state imaging devices such as CCD image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors used in video cameras and digital still cameras accumulate charges according to the amount of incident light and output electrical signals corresponding to the accumulated charges. Perform photoelectric conversion.
- CMOS Complementary Metal Oxide Semiconductor
- the amount of stored charge reaches a saturation level when the amount of light exceeds a certain level, and the subject area with a certain level of brightness is set to a saturated luminance level. So-called overexposure occurs.
- processing is performed in which the exposure time is adjusted by controlling the charge accumulation period in the photoelectric conversion element and the sensitivity is controlled to the optimum value in accordance with changes in external light or the like. For example, for a bright subject, the exposure time is shortened by turning the shutter at a high speed, the charge accumulation period in the photoelectric conversion element is shortened, and an electric signal is output before the accumulated charge amount reaches the saturation level.
- the exposure time is shortened by turning the shutter at a high speed
- the charge accumulation period in the photoelectric conversion element is shortened, and an electric signal is output before the accumulated charge amount reaches the saturation level.
- a technique for realizing such processing a technique is known in which a plurality of images having different exposure times are continuously photographed and combined. That is, a long-exposure image and a short-exposure image are taken individually and continuously, a long-exposure image is used for dark image areas, and a bright image area that is overexposed for long-exposure images.
- This is a technique for generating one image by a synthesis process using a short-time exposure image. In this way, by combining a plurality of different exposure images, an image having a wide dynamic range without overexposure, that is, a wide dynamic range image (HDR image) can be obtained.
- HDR image wide dynamic range image
- Patent Document 1 Japanese Patent Application Laid-Open No. 2000-50151 discloses a configuration in which two images set with a plurality of different exposure times are photographed and these images are combined to obtain a wide dynamic range image. Yes. This process will be described with reference to FIG.
- the imaging device outputs image data of two different exposure times within a video rate (30-60 fps).
- image data with two different exposure times are generated and output.
- FIG. 1 is a diagram illustrating the characteristics of an image (long exposure image and short exposure image) having two different exposure times generated by the imaging device.
- the horizontal axis represents time (t)
- the vertical axis represents the accumulated charge amount (e) in the light receiving photodiode (PD) constituting the photoelectric conversion element corresponding to one pixel of the solid-state imaging element.
- the amount of light received by the light-receiving photodiode (PD) when the amount of light received by the light-receiving photodiode (PD) is large, that is, when the subject corresponds to a bright subject, as shown in the high luminance region 11 shown in FIG.
- the amount of light received by the light-receiving photodiode (PD) when the amount of light received by the light-receiving photodiode (PD) is small, that is, when the object corresponds to a dark subject, the charge accumulation amount gradually increases as time passes, as shown in the low luminance region 12 shown in FIG.
- the time t0 to t3 corresponds to the exposure time TL for acquiring the long-time exposure image. Even when the long exposure time TL is shown, the line shown in the low luminance region 12 is obtained based on the charge accumulation amount (Sa) without the charge accumulation amount reaching the saturation level at the time t3 (unsaturated point Py). An accurate gradation expression can be obtained by the gradation level of the pixel determined using the electric signal.
- the accumulated charge of the light receiving photodiode (PD) is once swept out at a time before reaching the time t3, for example, at a time t1 (charge sweep start point P1) shown in the figure.
- the charge sweeping is performed not to all charges accumulated in the light receiving photodiode (PD) but to an intermediate voltage holding level controlled in the photodiode (PD).
- short-time exposure with exposure time TS (t2 to t3) is performed again. That is, short-time exposure is performed for a period from the short-time exposure start point P2 to the short-time exposure end point P3 shown in the figure.
- a charge accumulation amount (Sb) is obtained by this short-time exposure, and a gradation level of the pixel is determined based on an electric signal obtained based on the charge accumulation amount (Sb).
- Patent Document 1 needs to perform a process of individually capturing and combining the long exposure image and the short exposure image.
- HDR image wide dynamic range image
- processing based on the plurality of images has the following problems, for example.
- Problem 1 It is necessary to shoot a plurality of times, and further, a memory for storing these images is required.
- Problem 2 Since a plurality of images having different shooting timings are combined or long-time exposure shooting data is used, it is vulnerable to camera shake.
- An image processing device an imaging device, an image processing method, and a program that can generate a wide dynamic range image based on a single captured image.
- the purpose is to provide.
- the first aspect of the present disclosure is: A control unit that performs exposure time control in units of pixels or pixel areas; A pixel unit that outputs pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; A pixel information combining unit that inputs pixel information of a plurality of different exposure times output by the pixel unit, calculates a pixel value of an output image by executing arithmetic processing using the plurality of pixel information,
- the pixel portion is High sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels set based on exposure control of the control unit, and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels, and
- the pixel information combining unit In the image processing apparatus, a weighted addition process between the high-sensitivity pixel information and the low-sensitivity pixel information is executed to calculate a pixel value of an output image.
- control unit performs exposure time control in units of columns of the pixel units, and the pixel units differ in high-sensitivity pixel columns that are subjected to long-time exposure.
- High-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels in different low-sensitivity pixel columns subjected to short-time exposure are output.
- the pixel information combining unit is configured to calculate high-sensitivity pixel information input from a long-time exposure region and a short-time exposure region in a calculation process of a pixel value of the output image. Addition processing in which a weight corresponding to subject brightness is set for the low-sensitivity pixel information to be input is executed.
- the pixel information combining unit sets the weight of the high-sensitivity pixel information to zero when the high-sensitivity pixel information input from the long-time exposure region is equal to or greater than a predetermined threshold.
- the pixel value of the output image is calculated by an arithmetic process that is set to a small value and uses only low-sensitivity pixel information input from the short-time exposure area or sets a large weight.
- the pixel information combining unit sets the weight of the low-sensitivity pixel information to zero when the low-sensitivity pixel information input from the short-time exposure region is less than a predetermined threshold.
- the pixel value of the output image is calculated by an arithmetic process that is set to a small value and uses only high-sensitivity pixel information input from the long-time exposure region or sets a large weight.
- control unit executes exposure time control in units of columns by shutter control in units of columns of the pixel units.
- control unit performs exposure time control in which a long exposure region and a short exposure region are alternately set in units of two columns of the pixel unit, and the pixel The unit outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the long-time exposure region and low-sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region.
- the image processing device further includes a tone conversion unit that performs a bit reduction process of the pixel value of each pixel of the output image generated by the pixel information synthesis unit. .
- the image processing device further includes a signal processing unit that executes signal processing on the output image generated by the pixel information combining unit.
- the image processing device further includes a codec that performs an encoding process on the output image generated by the pixel information synthesis unit.
- control unit performs exposure time control in units of pixels of the pixel unit, and the pixel unit includes a plurality of different high-sensitivity pixels that are exposed for a long time.
- the high-sensitivity pixel information obtained by adding the pixel values and the low-sensitivity pixel information obtained by adding the pixel values of different low-sensitivity pixels that are subjected to short-time exposure are output.
- the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels that are included in a 2 ⁇ 2 pixel region and are subjected to long-time exposure; Low-sensitivity pixel information obtained by adding pixel values of two low-sensitivity pixels that are subjected to short-time exposure included in the 2 ⁇ 2 pixel region is output.
- the pixel unit has a Bayer array.
- the second aspect of the present disclosure is: An imaging unit; It exists in an imaging device which has an image process part which performs the process in any one of Claim 1 to 11.
- the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus, A control step in which the control unit executes exposure time control in units of pixels or pixel areas; and A pixel unit that outputs pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; and A pixel information combining step in which a pixel information combining unit inputs pixel information of a plurality of different exposure times output from the pixel unit, executes a calculation process using the plurality of pixel information, and calculates a pixel value of an output image Run
- the pixel information output step includes Outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels set based on exposure time control executed by the control unit, and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels.
- Is a step to The pixel information synthesis step includes: The image processing method is a step of calculating a pixel value of an output image by executing a
- the fourth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; A control step for causing the control unit to perform exposure time control in units of pixels or pixel areas; and A pixel information output step for causing the pixel unit to output pixel information of a plurality of different exposure times by photographing processing under the control of the control unit; A pixel information combining step for inputting pixel information of a plurality of different exposure times output from the pixel unit to the pixel information combining unit and calculating a pixel value of an output image by executing arithmetic processing using the plurality of pixel information And execute In the pixel information output step, Outputs high-sensitivity pixel information obtained by adding pixel values of a plurality of high-sensitivity pixels set based on exposure time control executed by the control unit, and low-sensitivity pixel information obtained by adding pixel values of a plurality of low-sensitivity pixels.
- the program of the present disclosure is a program provided by, for example, a storage medium to an information processing apparatus or a computer system that can execute various program codes. By executing such a program by the program execution unit on the information processing apparatus or the computer system, processing according to the program is realized.
- system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
- an apparatus and a method capable of efficiently generating a wide dynamic range image using pixel information of high sensitivity pixels and low sensitivity pixels are realized. Specifically, as output pixel signals from pixels having different sensitivities, high sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels are pixelated. The pixel information is synthesized by the pixel information synthesis unit to determine an output pixel value, and an output image having a wide dynamic range is output.
- the weight for high-sensitivity pixel information or low-sensitivity pixel information is changed according to the luminance of the subject, and weighted addition between the high-sensitivity pixel information and the low-sensitivity pixel information is performed, and the pixel of the output image Determine the value and output it.
- a frame memory is necessary by arranging pixels with different sensitivities in the pixel unit and generating pixel information with reduced resolution from a plurality of pixels with different sensitivities. It is possible to generate a wide dynamic range image without doing so.
- the analog addition of the same sensitivity is possible, the frame rate can be increased.
- FIG. 3 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in the image processing apparatus according to the first embodiment.
- FIG. 3 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the first embodiment.
- FIG. 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 2.
- FIG. FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the second embodiment.
- 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 2.
- FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the second embodiment.
- 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 3.
- FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the third embodiment.
- 7 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to Embodiment 3.
- FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in the image processing apparatus according to the third embodiment.
- FIG. 10 is a diagram illustrating the configuration and processing of an imaging device in an image processing apparatus according to a fourth embodiment.
- FIG. 10 is a diagram illustrating a specific example of processing executed by a tone conversion unit set in an imaging device of an image processing apparatus according to a fourth embodiment.
- FIG. 10 is a diagram illustrating the configuration and processing of an imaging device in an image processing apparatus according to a fifth embodiment.
- FIG. 10 is a diagram illustrating a circuit configuration of a pixel unit of an imaging device in an image processing apparatus according to a sixth embodiment.
- FIG. 10 is a diagram illustrating a timing chart for describing an imaging sequence in an image processing apparatus according to Embodiment 6; It is a figure explaining the pixel arrangement
- FIG. 2 is a block diagram illustrating a configuration example of the imaging apparatus.
- the light incident through the optical lens 101 is incident on an imaging device 102 constituted by an imaging unit, for example, a CMOS image sensor, and outputs image data by photoelectric conversion.
- the output image data is input to the signal processing unit 103.
- the signal processing unit 103 performs signal processing in a general camera, such as white balance (WB) adjustment and gamma correction, and generates an output image 120.
- the output image 120 is stored in a storage unit (not shown). Or it outputs to a display part.
- WB white balance
- the control unit 105 outputs a control signal to each unit according to a program stored in a memory (not shown), for example, and controls various processes.
- FIG. 3 is a diagram illustrating a configuration of the imaging device 102 according to an embodiment of the present disclosure.
- the imaging device 102 includes a pixel unit 151 and a calculation unit 160.
- the calculation unit 160 includes an AD conversion unit 161, a pixel information synthesis unit 162, and an output unit 163.
- the arithmetic unit 160 may be configured on the same chip as the pixel unit 151, that is, on-chip, or may be configured in a different chip or device from the pixel unit 151.
- the pixel unit 151 accumulates electric charges based on subject light in each of a large number of pixels, and outputs image data having a high pixel number that is a high-resolution image. Note that the pixel unit 151 includes a high-sensitivity pixel that performs long-time exposure and a low-sensitivity pixel that performs short-time exposure.
- a configuration example of the pixel unit 151 and a configuration example of an output image generated by the processing of the calculation unit 160 in the imaging device 102 will be described with reference to FIG.
- the pixel unit 151 is, for example, a Bayer array including an RGbGrB array.
- the exposure time is controlled in units of pixels under the control of the control unit 105. High-sensitivity pixels with a long exposure time setting, Low-sensitivity pixels with a short exposure time, It is divided into these two types of pixels.
- High-sensitivity pixels and low-sensitivity pixels are alternately set in units of two columns.
- the horizontal direction is (x)
- the vertical direction is (y)
- the column number is represented by the x coordinate
- the row number is represented by the y coordinate.
- the calculation unit 160 of the imaging device 102 inputs the high-sensitivity pixel information and the low-sensitivity pixel information, synthesizes pixel information with different sensitivities, and sets one pixel value of the output image.
- one pixel information is output from four pixels having two types of sensitivity. That is, the imaging device 102 generates and outputs an image obtained by reducing the original number of pixels of the pixel unit 151 to 1 ⁇ 4, that is, the pixel number reduced image 220 illustrated in FIG.
- the high-sensitivity pixel information 181 and the low-sensitivity pixel information 182 are input from the pixel unit 151 to the calculation unit 160 of the imaging device 102 illustrated in FIG.
- the A / D converter 161 of the arithmetic unit 160 executes A / D conversion of these input signals, that is, a process of converting an analog signal into a digital signal, and inputs the converted digital value to the information synthesizer 162. To do.
- the pixel information combining unit 162 outputs from the 3 ⁇ 3 pixel region 211 of the pixel unit illustrated in FIG. 4A based on four pixel signals of the same color (Gb in this example).
- One pixel value (Gb) of the image is calculated.
- Such pixel value synthesis processing is executed to generate a pixel number reduced image 220 and output it via the output unit 163.
- the four pixels to be combined are Two are high sensitivity pixels and two are selected from low sensitivity pixels.
- a specific processing example in the pixel information combining unit 162 will be described with reference to FIG. With reference to FIG. 4, an example of a pixel value calculation process for Gb pixels will be described.
- the pixel information combining unit 162 When the pixel information combining unit 162 generates one piece of pixel information from four pieces of pixel information, as shown in FIG. High-sensitivity post-analog signal ⁇ Gb (1,1) + Gb (1,3) ⁇ , Low-sensitivity post-analog signal ⁇ Gb (3,1) + Gb (3,3) ⁇ The weighted average of is calculated.
- the pixel value Gb (out) of Gb of the pixel number reduced image is calculated according to the following formula (Formula 1).
- Gb (out) ⁇ Gb (1,1) + Gb (1,3) ⁇ ⁇ ⁇ + ⁇ Gb (3,1) + Gb (3,3) ⁇ ⁇ (Gain) ⁇ ⁇ (Expression 1)
- Gain a gain value that compensates for the sensitivity ratio between the high sensitivity pixel and the low sensitivity pixel
- ⁇ and ⁇ may use different values for each color, R, Gb, Gr, and B. Further, it may be changed according to the brightness of the subject.
- the sensitivity-compensated value of the analog addition value of the two low-sensitivity pixels is Calculation is performed by performing addition processing of multiplication results by preset multiplication parameters ⁇ and ⁇ . That is, the weighted average of the analog addition value of the two high-sensitivity pixels and the sensitivity-compensated value of the analog addition value of the two low-sensitivity pixels is calculated, and the calculated value is reduced in the number of pixels shown in FIG.
- the output pixel value of the image for example, the pixel value of Gb (out) 221 shown in FIG. 4 is set.
- Gain in (Equation 1) is a coefficient for compensating the sensitivity difference as described above. For example, when the sensitivity ratio of the low-sensitivity pixel to the high-sensitivity pixel is 1: 4, as shown in FIG. 5, when the subject brightness is the same, the pixel value (output) of the low-sensitivity pixel is 1 of the high-sensitivity pixel. / 4. In order to calculate an estimated pixel value when this low-sensitivity pixel is a high-sensitivity pixel, a fourfold gain is given to the output from the low-sensitivity pixel.
- the high-sensitivity pixels are saturated, and all subjects having a brightness of a or higher are output as saturated pixel values.
- the pixel value does not saturate even in a subject having a brightness of a or more, and a pixel value output corresponding to the brightness of the subject can be generated.
- pixel values of high-sensitivity pixels with low noise select and output pixel values of high-sensitivity pixels with low noise, or combine high-sensitivity pixel weights when combining pixel values of high-sensitivity pixels and pixel values of low-sensitivity pixels.
- the pixel value calculated by the processing is output.
- the pixel value of the low-sensitivity pixel that is not saturated is selected and output, or the weight of the low-sensitivity pixel is increased when combining the pixel value of the high-sensitivity pixel and the pixel value of the low-sensitivity pixel.
- the pixel value calculated by the synthesis process is output. By executing such processing, it is possible to output pixel values that maintain linearity with respect to brightness, and output a wide dynamic range image that accurately represents the brightness from a dark subject to a bright subject. it can.
- the pixel information combining unit 162 in the calculation unit 160 of the imaging device 192 illustrated in FIG. 3 uses pixel values of two high sensitivity pixels and two low sensitivity pixels included in the 3 ⁇ 3 pixel region 211 illustrated in FIG. 4, for example. By performing such processing, a wide dynamic range image is output.
- FIG. 6 shows details of the pixel portion 151.
- the pixel unit 151 is configured by, for example, a MOS image sensor (CMOS sensor).
- the upper left Gb (1, 1) pixel 251 shown in the drawing corresponds to the upper left pixel Gb (1, 1) shown in FIG. 4
- These correspond to the four Gb pixels included in the 3 ⁇ 3 pixel region 211 at the upper left end shown in FIG.
- the pixel unit 151 controls the exposure time in units of pixels under the control of the control unit 105.
- High-sensitivity pixels with a long exposure time setting Low-sensitivity pixels with a short exposure time, These two types of pixels are alternately set in units of two columns according to the vertical line.
- the two pixels Gb (1,1) 251 and Gb (1,3) 252 are high-sensitivity pixels that are exposed for a long time.
- Two pixels of Gb (3, 1) 253 and Gb (3, 3) 254 are low-sensitivity pixels that are exposed for a short time.
- two signal lines L1 and H1 are wired per row to be connected to the control transistor T1 of each pixel.
- the signal lines L1 and H1 are signal lines that transmit a control signal for the exposure start time of each pixel to each pixel.
- FIG. 7 is a timing chart for explaining the control signal transfer timing to the pixel portion shown in FIG. 6 and the exposure time control processing of each pixel.
- a CMOS sensor performs an operation roughly divided into a shutter operation and a read operation.
- the shutter operation is an operation at the start of photographing (exposure), and as a physical state of the photodiode, at the same time as setting the electrons by reset processing (RST signal ON, L1 or H1 signal ON) to be empty, A process for starting the accumulation of the corresponding electrons (after that, the RST signal OFF, the L1 signal, or the H1 signal OFF) is performed. Exposure starts by this shutter operation.
- a selection signal (SEL) which is a selection signal of a pixel from which a pixel value is to be read, is turned on, and (RST) for resetting the floating diffusion (FD) is turned on at this timing. Selection is made by removing the FD accumulated charge based on noise before the start and turning on the signal lines (L1 and H1) for operating the control transistor (T1) of each pixel during the ON period of the selection signal (SEL). Reading of the pixel value of the pixel in which both the signal (SEL) and the signal lines (L1, H1) are turned on is executed.
- the pixel unit 151 of the imaging device 102 alternately sets the high-sensitivity pixels and the low-sensitivity pixels in a vertical stripe pattern, for example, in units of two columns. Have a configuration to do.
- the pixel value reading process from the pixel unit 151 is executed in the following sequence.
- S1 The first row and the third row are read simultaneously, and two pixel values in the same column are added and output
- S2 Read out the second row and the fourth row at the same time, add two pixel values in the same column and output
- S3 The fifth row and the seventh row are read simultaneously, and two pixel values in the same column are added and output
- S4 The sixth row and the eighth row are read simultaneously, and two pixel values in the same column are added and output, ::
- pixel values of pixels of the same color in the same column in two rows every other row are simultaneously read out, added, and output.
- high sensitivity pixels and low sensitivity pixels are set in units of two columns, and in each of the above steps (S1), (S2), (S3),. Pixel value addition of two high sensitivity pixels, The pixel value addition of two low sensitivity pixels is performed, These high-sensitivity pixel addition value and low-sensitivity pixel addition value are output.
- the timing chart shown in FIG. 7 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
- First at time (t1), First row reset signal (RST1), Reset signal (RST3) in the third row, A control signal (H1) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row; A control signal (H3) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row; These are set to High (ON).
- control transistors (T1) of the high-sensitivity pixels in the first row and the third row connected to the signal lines H1 and H3 are turned ON, and the high-sensitivity pixel columns in the first row and the third row are set.
- the electrons in the photodiode are emptied, and new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
- the pixel values of the first row and the third row are output by adding the pixel values of the same column through one output line. That is, From the first column, which is the high-sensitivity pixel column shown in FIG. 6, the Gb pixel 251 [Gb (1, 1)] and the third row, the first row, the first row and the first column via the output line (Out1). An added pixel value of two high-sensitivity pixels with one column of Gb pixels 252 [Gb (1, 3)] is output. Further, from the third column, which is the low-sensitivity pixel column shown in FIG. 6, the Gb pixel 261 [Gb (3, 1)] and the third row in the first row and the third column are connected via the output line (Out3). , The added pixel value of the two low-sensitivity pixels with the Gb pixel 262 [Gb (3, 3)] in the third column is output.
- FIG. 8 shows two pixels in the first column, which is the high sensitivity pixel column shown in FIG. Gb pixel 251 [Gb (1, 1)] in the first row and first column, Gb pixel 252 [Gb (1,3)] in the third row, first column, These pixels are shown.
- the signal at time (t4) shown in FIG. 7 the two pixels in the vertical direction become active as shown in FIG.
- the currents of the AMP transistors are added, and pixel addition at an analog level is executed.
- the pixel value a is output on the output line (Out1) from the Gb pixel 251 [Gb (1, 1)] in the first row and first column.
- the pixel value b is output on the output line (Out1) from the Gb pixel 252 [Gb (1, 3)] in the third row and the first column.
- the output line (Out1) the added value of these two pixels, a + b Is output.
- the pixel addition output processing example shown in FIG. 8 is an example of the addition output processing of the high-sensitivity pixels in the first column. However, the pixel value addition between the low-sensitivity pixels is also performed in the third column and the output line (Out3) is used. Outputs the pixel value addition result of two low-sensitivity pixels.
- High-sensitivity pixel information 181 shown in FIG. 3 is such an addition signal for a plurality of high-sensitivity pixels, and low-sensitivity pixel information 182 is also an addition signal for a plurality of low-sensitivity pixels.
- the point in the timing chart shown in FIG. 7 is that the shutter timing, that is, the exposure start time can be set to different times in the same row.
- the exposure time can be made different, and the sensitivity can be changed in the same row.
- the sensitivity is the same in the vertical direction, it is possible to add analog levels as described above.
- the addition of the analog level can contribute to the improvement of the frame rate of the CMOS sensor.
- the example of 2 pixel addition was shown here, addition of 3 pixels or more is also possible.
- FIG. 9 is a diagram illustrating a processing example for generating one piece of pixel information from four pixels. From the pixel portion 151 shown in FIG. High sensitivity post-analog signal ⁇ Gb (1,1) + Gb (1,3) ⁇ , Low-sensitivity post-analog signal ⁇ Gb (3,1) + Gb (3,3) ⁇ , These are output.
- Gb (1) Gb (1,1) + Gb (1,3)
- Low sensitivity pixel information: Gb (3) Gb (3,1) + Gb (3,3) It becomes.
- the AD conversion unit 161 of the calculation unit 160 shown in FIG. 3 converts these addition signals: Gb (1) and Gb (3) into digital values and inputs them to the pixel information synthesis unit 162.
- the pixel information synthesis unit 162 generates one output pixel value: Gb (Out) from these addition pixel information: Gb (1) and Gb (3).
- the output pixel value: Gb (Out) is calculated according to the above equation 2 and output via the output unit 163.
- Gain a gain value that compensates for the sensitivity ratio between the high sensitivity pixel and the low sensitivity pixel
- the pixel unit 151 performs analog addition in the vertical direction, and then the pixel information synthesis unit 162 of the calculation unit 160 performs digital addition in the horizontal direction.
- FIG. 10 is also a diagram for explaining a processing example for generating one piece of pixel information of an output image from four pixels of the pixel unit, as in FIG. 9.
- S11 Two pixel analog value addition processing of the same sensitivity executed in the pixel unit
- S12 The addition result [G (1)] of the high-sensitivity pixel and the addition result [G (3)] of the low-sensitivity pixel, which are executed in the pixel information synthesis unit, are added by performing weighting coefficient multiplication and gain adjustment.
- a process of calculating a pixel value [G (Out)] of the output pixel It is described that the pixel value calculation of the output image is executed by these processes.
- FIG. 11 is a diagram for describing an example of a generation process of a composite image generated by the pixel information combining unit 162 of the calculation unit 160 illustrated in FIG. 3, that is, a pixel information composite image.
- the pixel information combining unit 162 of the calculation unit 160 illustrated in FIG. 3 applies the pixel values of a plurality of pixels to determine the pixel value of one pixel of the output image.
- the coefficients ⁇ and ⁇ in the above formula may be changed according to the brightness of the subject, for example.
- the pixel value of a high-sensitivity pixel may be saturated, that is, the maximum pixel value, and an accurate pixel value may not be reflected.
- Gb (3, 3) only are applied to calculate the output pixel value.
- FIG. 11 shows three processing modes for such a processing mode. That is, (1) Bright subject (high sensitivity pixels are saturated) (2) Medium subject (high-sensitivity pixel is less than saturation value, both high-sensitivity pixel and low-sensitivity pixel are above the preset allowable SN ratio) (3) Dark subject (high-sensitivity pixel is less than saturation value and low-sensitivity pixel is less than the predetermined allowable SN ratio) It is a figure explaining the aspect of the synthetic
- the pixel value of the high sensitivity pixel is not applied to the pixel value calculation of the output pixel of the pixel information composite image.
- Weighting factor: W H ( ⁇ ), which is a multiplication parameter for highly sensitive pixel information
- Gb (Out) (high sensitivity pixel information (Gb (1)) ⁇ W H + (low sensitivity pixel information (Gb (3)) ⁇ (gain) ⁇ W L It becomes.
- the high sensitivity pixel information (Gb (1)) is a pixel value addition result of two high sensitivity pixels in the same column.
- the low sensitivity pixel information (Gb (3)) is a pixel value addition result of two low sensitivity pixels in the same column.
- the multiplication factor for the pixel values of the low-sensitivity pixels the W L
- the multiplication factor for the pixel values of the high-sensitivity pixel W H as 1, combined pixel dependent only on the pixel values of the high-sensitivity pixels
- the pixel value [Gb (Out)] is calculated.
- the multiplication factor for the pixel values of the low-sensitivity pixels the W L as 0.5
- the multiplication factor for the pixel values of the high-sensitivity pixel W H as 0.5
- high-sensitivity pixels and low-sensitivity two pixel values of the pixels The pixel value [Gb (Out)] of the combined pixel is calculated by the average of.
- the multiplication factor for the pixel values of the high-sensitivity pixel the W H
- the multiplication factor for the pixel values of the low-sensitivity pixel W L as a 1
- the composite pixel dependent only on the pixel values of the low-sensitivity pixels The pixel value [Gb (Out)] is calculated.
- the coefficient can be set using the low sensitivity pixel information.
- three types are used for simplification, but a function for calculating a weight based on low-sensitivity pixel information is set in advance, and the low-sensitivity input from the pixel unit 151 by the pixel information combining unit 162 shown in FIG.
- a configuration may be adopted in which the coefficients W H and W L are calculated by executing an operation to which a predetermined function is applied based on the pixel information 182.
- FIG. 12 (2) shows a processing example in which the weighting factor applied to the calculation of the output pixel value of a certain pixel is used as the weighting factor applied to the calculation of the output pixel value of the adjacent pixel.
- the luminance of a pixel often changes gently in a certain range of pixel regions.
- the same weighting factor is used for the calculation of the B pixel adjacent to the Gb pixel or the calculation of the R pixel by using the number of weight examples applied to the calculation of the output pixel value of the Gb pixel. It is good also as a setting.
- Stabilization without changing the weighting factor according to color unifies which pixel information is mainly used, that is, high sensitivity or low sensitivity, without a predetermined area. This leads to stabilization of the exposure time for each region of the output image, and it is possible to prevent the occurrence of false colors due to a shift in the exposure period when the object being photographed moves.
- pixel addition exceeding the number of two pixels is possible.
- the synthesis is first performed by two pixels, and then the aspect ratio of the vertical and horizontal directions is set.
- the digital resampling process may be performed in the horizontal direction so as to align them.
- each pixel has the same circuit configuration as described with reference to FIG.
- Control transistor (T1) Amplifier transistor (AMP), Reset transistor (RST), Select transistor (SEL),
- T1 Control transistor
- AMP Amplifier transistor
- RST Reset transistor
- SEL Select transistor
- the circuit configuration is such that each of these transistors is set for each pixel.
- FIG. 13 is a configuration in which an AMP transistor, an RST transistor, and a SEL transistor are set as one setting for four vertically arranged pixels, and these transistors are shared.
- FIG. 13 is a diagram illustrating an example of a pixel array having a shared pixel structure.
- the circuit configuration of the four pixel blocks 301 adjacent to the column of the pixel portion illustrated in FIG. 13A is the circuit illustrated in FIG.
- One AMP transistor, one RST transistor, and one SEL transistor are associated with these four pixels Gb (1, 1), R1, Gb (1, 3), and R2.
- the control transistor T3 of T1 and the Gb (1, 3) pixel may be simultaneously set to “H” (ON) at time (t2).
- the electrons of the photodiodes of the Gb (1,1) pixel and the Gb (1,3) pixel are added to the FD 311 in FIG. 13B, and this addition signal is read out through the SEL transistor. It will be.
- FIG. 15 shows a pixel array in the shared configuration of the transistors described with reference to FIG. 13, that is, a configuration in which the transistors are shared as one setting in four vertically arranged pixel blocks of AMP transistors, RST transistors, and SEL transistors. Show.
- the pixel block is indicated by a dotted frame like the pixel block 321.
- two signal lines LT1 and HT1 are connected to one row of the control transistor Tn of the pixel.
- the reset signal line (RST) and the selection signal line (SEL) are set to one for a pixel block including four pixels in each column.
- the pixel block 321 includes four pixels included in the first column, and one reset signal line (RST) and a selection signal line (SEL) are provided for the pixel block 321 including the four pixels. It is a connected configuration.
- this corresponds to the transistor sharing configuration in which the AMP transistor, the RST transistor, and the SEL transistor are set as one in a pixel block unit including four pixels in one column. Is. With such a configuration, a transistor and a wiring configuration are simplified.
- FIG. 16 is a timing chart for explaining the control signal transfer timing and the exposure time control processing for each pixel for the transistor-sharing pixel portion shown in FIG. 13 or FIG.
- the shutter operation is an operation at the start of photographing (exposure), and as a physical state of the photodiode, at the same time as setting the electrons by reset processing (RST signal ON, LT1 or HT1 signal ON) to be empty, A process for starting the accumulation of the corresponding electrons (after that, the RST signal OFF, the LT1 or the HT1 signal OFF) is performed. Exposure starts by this shutter operation.
- a selection signal (SEL) which is a selection signal of a pixel from which a pixel value is to be read, is turned on, and (RST) for resetting the floating diffusion (FD) is turned on at this timing. Selection is made by removing the FD accumulated charge based on noise before the start and turning on the signal lines (L1 and H1) for operating the control transistor (T1) of each pixel during the ON period of the selection signal (SEL). Reading of the pixel value of the pixel in which both the signal (SEL) and the signal lines (L1, H1) are turned on is executed.
- the pixel unit 151 of the imaging device 102 of the present disclosure has a configuration in which high-sensitivity pixels and low-sensitivity pixels are alternately set, for example, in units of two columns in a vertical stripe shape.
- the pixel value reading process from the pixel unit 151 is executed in the following sequence.
- the timing chart shown in FIG. 16 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
- a reset signal (RST1) common to the first and third rows
- a control signal (HT1) for operating the control transistor T1 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
- a control signal (HT3) for operating the control transistor T3 of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row;
- These are set to High (ON).
- control transistors (T1, T3) of the high-sensitivity pixels in the first row and the third row connected to the signal lines HT1 and HT3 are turned on, and the high-sensitivity pixel columns in the first row and the third row are turned on.
- the electrons in the photodiode set to emptied, and new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
- a reset signal (RST1) common to the first and third rows A control signal (LT1) for operating the control transistor T1 of the low sensitivity pixel as an exposure start signal for only the low sensitivity pixel column of the first row;
- These are set to High (ON).
- the control transistors (T1, T3) of the low-sensitivity pixels in the first row and the third row connected to the signal lines LT1 and LT3 are turned on, and the low-sensitivity pixel columns in the first row and the third row are turned on.
- the electrons in the photodiode set to emptied, and new charge accumulation corresponding to the subject light is started (low-sensitivity pixel shutter operation).
- a control signal (LT1) for operating the transistor T1 of the low sensitivity pixel only for the low sensitivity pixel column of the first row A control signal (HT1) for operating the transistor T1 of the high sensitivity pixel only for the high sensitivity pixel column of the first row, A control signal (LT3) for operating the transistor T1 of the low sensitivity pixel only for the low sensitivity pixel column of the third row, A control signal (HT3) for operating the transistor T1 of the high-sensitivity pixel only for the high-sensitivity pixel column of the third row, All of these are set to High (ON).
- the pixel values of the first row and the third row are output by adding the pixel values of the same column through one output line. That is, From the high-sensitivity pixel column including the pixel block 321 and the like of the first column shown in FIG. 15, two output lines (Out1, Out2, Out5, Out6...) The added pixel value of the high sensitivity pixel is output. Further, the low-sensitivity pixel column shown in FIG. 15 outputs the added pixel values of the two low-sensitivity pixels in the first row and the third row via the output lines (Out3, Out4, Out7, Out8). Is done.
- AMP Amplifier transistor
- RST Reset transistor
- SEL Select transistor
- a pixel block 351 shown in FIG. Four high-sensitivity pixels in the high-sensitivity pixel row; 4 low-sensitivity pixels in the low-sensitivity pixel row, The pixel block is composed of these eight pixels, and the circuit configuration of the pixel block is as shown in FIG.
- the high sensitivity pixel column 361 includes four high sensitivity pixels, and the low sensitivity pixel column 362 includes four low sensitivity pixels.
- a timing chart of the read operation is shown in FIG. As shown in FIG. At time t1, A reset signal (RST) common to a pixel block of eight pixels, A selection signal (SEL) common to a pixel block of eight pixels, These are simultaneously set to High (ON), and the floating diffusion (FD) 371 shown in FIG. 17B is reset (RST). By this process, electric charges caused by noise accumulated in the FD 371 are eliminated.
- RST reset signal
- SEL selection signal
- the control transistors T1A and T3A of the two pixels to be added in the high-sensitivity pixel column are set to High, and the added pixel value of these pixels is output via the output signal line (Out).
- the reset signal (RST) common to the pixel block composed of eight pixels is set to High (ON), and the floating diffusion (FD) 371 shown in FIG. 17B is reset (RST).
- RST reset signal
- the output of the added pixel value of the high-sensitivity pixel row and the output of the added pixel value of the low-sensitivity pixel row are executed alternately via one output line.
- FIG. 19 shows a pixel array in the transistor shared configuration described with reference to FIG. 17, that is, a configuration in which transistors are shared by setting one AMP transistor, RST transistor, and SEL transistor in eight pixel blocks.
- the pixel block is indicated by a dotted frame like the pixel block 381.
- the reset signal line (RST) and the selection signal line (SEL) are 1 for a total of 8 pixel blocks including 4 high-sensitivity pixels and 4 low-sensitivity pixels. It is the point which is set as one.
- the pixel block 371 is composed of a total of 8 pixels including four high-sensitivity pixels included in the first column and four low-sensitivity pixels included in the second column.
- the reset signal line (RST) and the selection signal line (SEL) are connected.
- one AMP transistor, RST transistor, and SEL transistor are set for each pixel block unit consisting of a total of 8 pixels of 4 high-sensitivity pixels and 4 low-sensitivity pixels. This corresponds to the transistor sharing configuration described above. With such a configuration, a transistor and a wiring configuration are simplified.
- FIG. 20 is a timing chart for explaining the control signal transfer timing and the exposure time control processing of each pixel for the transistor-sharing pixel portion shown in FIG. 17 and FIG.
- the read sequence is (S1) The high-sensitivity pixels in the first row and the third row are read simultaneously, and the pixel values of two high-sensitivity pixels in the same column are added and output. (S2) The low-sensitivity pixels in the first row and the third row are read simultaneously, and the pixel values of two low-sensitivity pixels in the same column are added and output, (S3) The high-sensitivity pixels in the second row and the fourth row are read simultaneously, and the pixel values of two high-sensitivity pixels in the same column are added and output.
- the timing chart shown in FIG. 20 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the third row.
- a reset signal (RST1) set in units of 8 pixels common to the first row and the third row
- a control signal (HT1) for operating the control transistor T1A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
- a control signal (HT3) for operating the control transistor T3A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the third row;
- These are set to High (ON).
- control transistors (T1A, T3A) of the high-sensitivity pixels in the first row and the third row connected to the signal lines HT1 and HT3 are turned on, and the high-sensitivity pixel columns in the first row and the third row are turned on. Then, the electrons in the photodiode set to become empty, and then, by turning off these signals, new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
- the control transistors (T1B, T3B) of the low-sensitivity pixels in the first row and the third row connected to the signal lines LT1 and LT3 are turned on, and the low-sensitivity pixel columns in the first row and the third row are turned on.
- the added value of the high-sensitivity pixel and the added value of the low-sensitivity pixel are output with a time difference through one output line.
- the vertical two-pixel addition has been described.
- two pixels sharing the pixel are first added in the FD unit, and then the AMP transistor as in the first embodiment.
- the two By simultaneously operating the two, it is possible to add a total of four pixels.
- addition of 6 pixels, 8 pixels,... is also possible.
- FIG. 21 is a diagram illustrating a configuration of the imaging device 102 according to the fourth embodiment.
- the configuration illustrated in FIG. 21 is a configuration in which a gradation conversion unit 402 is provided after the pixel information combining unit 162 of the calculation unit 160 of the imaging device 102 illustrated in FIG.
- Other configurations are the same as those of the first embodiment shown in FIG.
- the overall configuration of the image processing apparatus has the configuration described above with reference to FIG.
- the pixel unit 151 has a Bayer array composed of RGbGrB pixels similar to that in the above-described embodiment. Under the control of the control unit 105, for example, long exposure and short time are performed in units of two columns. Exposure is performed.
- the pixel unit 151 is set to a different exposure time for each pixel region (for example, column unit) under the control of the control unit 105 (shutter control). From the long-time exposure pixel, a high-sensitivity pixel that is a storage electrification based on long-time exposure. Information 181 is output. In addition, low-sensitivity image information 182 that is stored electrification based on short-time exposure is output from the short-time exposure pixels.
- the calculation unit 160 receives the high-sensitivity pixel information 181 and the low-sensitivity image information 182 output from the pixel unit 151, and generates one pixel information composite image in the pixel information combination unit 162 based on the input information. .
- This combining process is performed as the same process as the combining process described in the previous embodiment. That is, the high-sensitivity pixel information and the low-sensitivity pixel information of the same color are input, and the pixel value calculation of the pixel information composite image is executed by applying the above-described (Equation 1) and the like to generate the pixel information composite image .
- a gradation conversion unit 401 is provided after the pixel information combining unit 162.
- the gradation converting unit 401 converts the gradation of the pixel value of each pixel of the pixel information combined image (for example, FIG. 4B) generated by the pixel information combining unit 162. Specifically, for example, when the pixel value of each pixel of the pixel information combined image generated by the pixel information combining unit 162 has a gradation of 14 bits (0 to 16383), the pixel value of each pixel is set to 10 bits (0 to 1023). Performs processing to convert to gradation and output. That is, an image in which the number of bits of each pixel is reduced is generated and output.
- a wide dynamic range image generated by combining a long-exposure image and a short-exposure image tends to increase the number of bits as information of each pixel.
- the number of bits is 14 bits.
- Such an image with an increased number of bits may not be processed by a DSP, which is a subsequent signal processing unit.
- the gradation conversion unit 401 performs gradation conversion processing that compresses the number of bits of each pixel to a bit level that can be processed by a DSP that is a subsequent signal processing unit.
- bit number compression processing executed by the gradation conversion unit 401 will be described with reference to FIG.
- the horizontal axis indicates the gradation [14 bits (0 to 16383) of each pixel of the input image of the gradation conversion unit 401
- the vertical axis indicates the gradation [10 bits (0 to 1023) of each pixel in the output image after gradation conversion. ]].
- the gradation conversion unit 401 performs a process of reducing the multi-tone pixel value output from the pixel information synthesis unit 162 to a smaller number of bits.
- the signal processing unit 103 can perform processing without any problem.
- the bit number compression processing performed by the gradation conversion unit 401 reduces the number of bits using, for example, a function. This function may be determined from the beginning, or a function corresponding to an image may be input from the outside or calculated internally.
- FIG. 23 is a diagram illustrating the configuration of the imaging device 102 according to the fifth embodiment.
- the configuration shown in FIG. 23 is after the pixel information combining unit 162 of the calculation unit 160 of the imaging device shown in FIG. Tone conversion unit 401, A signal processing unit 402 for performing camera signal processing such as demosaicing and noise reduction (NR); A codec 403 that executes image compression (JPEG, etc.) processing; It is the structure which added each of these component parts.
- the overall configuration of the image processing apparatus (imaging apparatus) is the same as that of the first embodiment, the configuration described above with reference to FIG. 2, or the configuration in which the signal processing unit 103 is omitted from the configuration in FIG.
- the subsequent signal processing unit 103 can be omitted.
- a configuration including two signal processing units may be employed.
- the processing from the pixel unit 151 to the pixel information synthesis unit 162 is the same as that in the above-described embodiment.
- the processing of the tone conversion unit 401 is the same as that of the fourth embodiment described above.
- the fifth embodiment further includes a signal processing unit 402 that executes camera signal processing such as demosaic or noise reduction (NR), and a codec 403 that executes image compression (JPEG or the like) processing.
- a signal processing unit 402 that executes camera signal processing such as demosaic or noise reduction (NR)
- a codec 403 that executes image compression (JPEG or the like) processing.
- FIG. 24 illustrates a pixel array (color filter array) of the pixel unit 151 of the imaging device 102 according to the sixth embodiment.
- the total unit is 4 ⁇ 4 pixels, and the minimum unit is repeatedly arranged.
- the same color is arranged in 2 ⁇ 2.
- high sensitivity pixels and low sensitivity pixels are set in a zigzag pattern in the column direction.
- the white pixel region shown in the figure is a high sensitivity pixel, and the gray pixel region is a low sensitivity pixel.
- high-sensitivity pixels and low-sensitivity pixels are alternately set in each column, and high-sensitivity pixels and low-sensitivity pixels are alternately set in each row.
- the first row the first column is a high sensitivity pixel
- the second row the second column is a high sensitivity pixel
- the third row the first column is a high sensitivity pixel
- the fourth row the second column is a high sensitivity pixel
- high-sensitivity pixels are arranged in a zigzag shape.
- the second column is a low sensitivity pixel
- the first column is a low sensitivity pixel
- the second row is a low sensitivity pixel
- the third row is a low sensitivity pixel
- the fourth row the first column is a low sensitivity pixel, : In this way, the low-sensitivity pixels are arranged in a zigzag shape.
- pixels of the same color are set in units of 2 ⁇ 2 pixels, and these four pixels include two high sensitivity pixels and two low sensitivity pixels.
- the calculation unit 160 of the imaging device 102 inputs high-sensitivity pixel information generated by the pixel values of these high-sensitivity pixels and low-sensitivity pixel information generated by the pixel values of the low-sensitivity pixels, and these pixels having different sensitivities. The information is combined to calculate one pixel value of the output image. Specifically, two high-sensitivity Gb pixels and two low-sensitivity Gb pixels included in the 2 ⁇ 2 pixel region of the same color, for example, the 2 ⁇ 2 pixel region 511 that is the Gb pixel region at the upper left end shown in FIG.
- One Gb pixel value is calculated, and the pixel value of one pixel 521 of the output image 520 shown in FIG. 25B is calculated.
- the imaging device 102 generates and outputs an image obtained by reducing the original number of pixels of the pixel unit 151 to 1 ⁇ 4, that is, a pixel number reduced image 520 illustrated in FIG. Therefore,
- the output pixel value is determined using two high-sensitivity pixels and two low-sensitivity pixels of the same color included in the 3 ⁇ 3 pixel region 211.
- the unit of calculation for calculating the output pixel value may be a 2 ⁇ 2 pixel region.
- FIG. 26 is a diagram illustrating the circuit configuration of the pixel portion of the imaging device according to the present embodiment. Similar to the shared transistor configuration described above with reference to FIG. 17, the AMP transistor, the RST transistor, and the SEL transistor are shared by eight pixel blocks.
- a pixel block serving as a shared unit of transistors is indicated by a dotted frame like a pixel block 581.
- Two signal lines LT1 and HT1 are wired per row to be connected to the control transistor Tn of the pixel.
- FIG. 27 is a timing chart for explaining the control signal transfer timing and the exposure time control processing for each pixel for the transistor-sharing pixel section shown in FIG. 17 and FIG. Since this configuration has the transistor sharing configuration described with reference to 17 as in the third embodiment described above, the readout process is executed according to the timing chart shown in FIG. The two-pixel addition value of the pixel and the two-pixel addition value of the low sensitivity pixel cannot be read simultaneously.
- the read sequence in the present embodiment is executed with the following settings.
- S1 The high-sensitivity pixels in the first row and the second row are read simultaneously, and the pixel values of two high-sensitivity pixels located diagonally are added and output.
- S2 Simultaneously reading out the low-sensitivity pixels in the first row and the second row, adding the pixel values of two low-sensitivity pixels located diagonally, and outputting them,
- S3 The high-sensitivity pixels in the third row and the fourth row are simultaneously read out, and the pixel values of two high-sensitivity pixels located obliquely are added and output.
- S4 The low-sensitivity pixels in the third row and the fourth row are simultaneously read out, and the pixel values of two low-sensitivity pixels located diagonally are added and output. :: Hereinafter, in such processing, high-sensitivity pixel readout and low-sensitivity pixel readout are alternately performed in units of two rows.
- the control unit 105 performs exposure time control for each pixel of the pixel unit 151, and the pixel unit 151 adds the pixel values of a plurality of different high-sensitivity pixels that are exposed for a long time.
- Low-sensitivity pixel information obtained by adding the information and pixel values of a plurality of different low-sensitivity pixels that are exposed for a short time is output.
- the pixel unit 151 includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels that are subjected to long-time exposure included in the 2 ⁇ 2 pixel region, and a short portion included in the 2 ⁇ 2 pixel region.
- Low-sensitivity pixel information obtained by adding pixel values of two low-sensitivity pixels that are subjected to time exposure is output.
- the timing chart shown in FIG. 27 shows an execution example of the shutter operation and the read operation as the processing sequence of the first row and the second row.
- a reset signal (RST1) set in units of 8 pixels common to the first row and the second row
- a control signal (HT1) for operating the control transistor T1A of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the first row
- a control signal (HT2) for operating the control transistor T2B of the high sensitivity pixel as an exposure start signal for only the high sensitivity pixel column of the second row;
- These are set to High (ON).
- control transistors (T1A, T2B) of the high-sensitivity pixels in the first and second rows connected to the signal lines HT1 and HT2 are turned on, and the high-sensitivity pixel columns in the first and second rows are turned on. Then, the electrons in the photodiode set to become empty, and then, by turning off these signals, new charge accumulation corresponding to the subject light is started (high-sensitivity pixel shutter operation).
- the control transistors (T1B, T2A) of the low-sensitivity pixels in the first row and the second row connected to the signal lines LT1 and LT2 are turned on, and the low-sensitivity pixel columns in the first row and the second row are turned on.
- the pixel values of the first row and the second row are output with a time difference through the single output line as the addition value of the high sensitivity pixel and the addition value of the low sensitivity pixel.
- FIG. 28 shows a modification of the sixth embodiment.
- a zigzag sensitivity array in the column direction as shown in FIG. 28 can be provided.
- the same color pixels are set in units of 2 ⁇ 2 pixels as described with reference to FIGS.
- the setting modes of the high sensitivity pixel and the low sensitivity pixel are different.
- the high sensitivity pixels and the low sensitivity pixels are arranged in a zigzag manner in units of the second and subsequent rows.
- the first column is a high sensitivity pixel
- the second row is a high sensitivity pixel
- the third row is a high sensitivity pixel
- the fourth row the first column is a high sensitivity pixel
- the high-sensitivity pixels are arranged in a zigzag manner in units of two rows from the second row.
- the second column is a low sensitivity pixel
- the first column is a low sensitivity pixel
- the first column is a low sensitivity pixel
- the second column is a low sensitivity pixel
- the low-sensitivity pixels are arranged in a zigzag manner in units of two rows from the second row.
- pixels of the same color are set in units of 2 ⁇ 2 pixels, and these four pixels include two high sensitivity pixels and two low sensitivity pixels.
- the calculation unit 160 of the imaging device 102 inputs the high-sensitivity pixel information and the low-sensitivity pixel information, synthesizes pixel information with different sensitivities, and sets one pixel value of the output image. Specifically, two high-sensitivity Gb pixels and two low-sensitivity Gb pixels included in the 2 ⁇ 2 pixel region of the same color, for example, the 2 ⁇ 2 pixel region 611 that is the Gb pixel region at the upper left end shown in FIG. One Gb pixel value is calculated, and the pixel value of one pixel 621 of the output image 620 shown in FIG. 28B is calculated.
- the arithmetic processing in the modified example of the sixth embodiment is the same as the processing of the sixth embodiment described above, and is separated from the pixel values of the high-sensitivity pixels and low-sensitivity pixels of the same color included in the 2 ⁇ 2 pixels. This is executed as a process for calculating a pixel value.
- the technology disclosed in this specification can take the following configurations.
- a pixel information combining unit that inputs pixel information of a plurality of different exposure times output by the pixel unit, calculates a pixel value of an output image by executing arithmetic processing using the plurality of pixel information,
- the pixel portion is High sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels set based on exposure control of the control unit, and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels, and
- the pixel information combining unit An image processing apparatus that calculates a pixel value of an output image by executing a weighted addition process between the high-sensitivity pixel information and the low-sensitivity pixel information.
- the control unit performs exposure time control in units of columns of the pixel unit, and the pixel unit adds pixel values of a plurality of high sensitivity pixels in different high sensitivity pixel columns that are exposed for a long time.
- the image processing apparatus wherein the low-sensitivity pixel information obtained by adding the high-sensitivity pixel information and the pixel values of a plurality of low-sensitivity pixels different in a low-sensitivity pixel row subjected to short-time exposure is output.
- the pixel information combining unit subjects the high-sensitivity pixel information input from the long-time exposure region and the low-sensitivity pixel information input from the short-time exposure region.
- the pixel information combining unit sets the weight of the high-sensitivity pixel information to zero or small and inputs from the short-time exposure area.
- the pixel information combining unit sets the weight of the low-sensitivity pixel information to zero or small and inputs from the long-time exposure area.
- the image processing apparatus according to any one of (1) to (5), wherein the control unit executes exposure time control in units of columns by shutter control in units of columns of the pixel units. (7) The control unit executes exposure time control in which a long-time exposure region and a short-time exposure region are alternately set in units of two columns of the pixel unit, and the pixel unit is included in the long-time exposure region.
- the high sensitivity pixel information obtained by adding pixel values of a plurality of pixels and the low sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region are output in any one of (1) to (6).
- Image processing apparatus The high sensitivity pixel information obtained by adding pixel values of a plurality of pixels and the low sensitivity pixel information obtained by adding pixel values of a plurality of pixels included in the short-time exposure region are output in any one of (1) to (6).
- the image processing apparatus further includes a gradation conversion unit that performs a bit reduction process of a pixel value of each pixel of the output image generated by the pixel information synthesis unit.
- the image processing apparatus described.
- the image processing apparatus according to any one of (1) to (9), wherein the image processing apparatus further includes a codec that performs an encoding process on an output image generated by the pixel information synthesis unit.
- the control unit performs exposure time control in units of pixels of the pixel unit, and the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of a plurality of different high-sensitivity pixels that are exposed for a long time.
- the image processing apparatus according to any one of (1) to (10), wherein low-sensitivity pixel information obtained by adding pixel values of a plurality of different low-sensitivity pixels subjected to short-time exposure is output.
- the pixel unit includes high-sensitivity pixel information obtained by adding pixel values of two high-sensitivity pixels included in the 2 ⁇ 2 pixel region and subjected to long-time exposure, and short-time exposure included in the 2 ⁇ 2 pixel region.
- the image processing apparatus according to any one of (1) to (11), wherein low-sensitivity pixel information obtained by adding the pixel values of two low-sensitivity pixels to be output is output.
- the image processing device according to any one of (1) to (12), wherein the pixel section has a Bayer array.
- the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and the like, and a program for executing processing.
- the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
- the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
- the program can be recorded in advance on a recording medium.
- the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
- the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
- the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
- an apparatus and a method that can efficiently generate a wide dynamic range image using pixel information of high-sensitivity pixels and low-sensitivity pixels are realized. Specifically, as output pixel signals from pixels having different sensitivities, high sensitivity pixel information obtained by adding pixel values of a plurality of high sensitivity pixels and low sensitivity pixel information obtained by adding pixel values of a plurality of low sensitivity pixels are pixelated. The pixel information is synthesized by the pixel information synthesis unit to determine an output pixel value, and an output image having a wide dynamic range is output.
- the weight for high-sensitivity pixel information or low-sensitivity pixel information is changed according to the luminance of the subject, and weighted addition between the high-sensitivity pixel information and the low-sensitivity pixel information is performed, and the pixel of the output image Determine the value and output it.
- a frame memory is necessary by arranging pixels with different sensitivities in the pixel unit and generating pixel information with reduced resolution from a plurality of pixels with different sensitivities. It is possible to generate a wide dynamic range image without doing so.
- the analog addition of the same sensitivity is possible, the frame rate can be increased.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Power Engineering (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Studio Devices (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
Description
課題1:複数回の撮影を行うことが必要であり、さらに、これらの画像を格納するメモリを必要とする点。
課題2:撮影タイミングが異なる複数の画像を合成したり、長時間露光の撮影データを用いるため、カメラのブレに弱い点。
画素または画素領域単位の露光時間制御を実行する制御部と、
前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
前記画素部は、
前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
前記画素情報合成部は、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置にある。
撮像部と、
請求項1から11いずれかに記載の処理を実行する画像処理部を有する撮像装置にある。
画像処理装置において実行する画像処理方法であり、
制御部が、画素または画素領域単位の露光時間制御を実行する制御ステップと、
画素部が、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素情報出力ステップと、
画素情報合成部が、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成ステップを実行し、
前記画素情報出力ステップは、
前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力するステップであり、
前記画素情報合成ステップは、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出するステップである画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
制御部に、画素または画素領域単位の露光時間制御を実行させる制御ステップと、
画素部に、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力させる画素情報出力ステップと、
画素情報合成部に、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出させる画素情報合成ステップを実行させ、
前記画素情報出力ステップにおいては、
前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力させ、
前記画素情報合成ステップにおいては、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出させるプログラムにある。
具体的には、異なる感度の画素からの出力画素信号として、複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報を画素部から出力し、これらの画素情報を画素情報合成部において合成して出力画素値を決定してダイナミックレンジの広い出力画像を出力する。画素情報合成部では、例えば被写体の輝度に応じて高感度画素情報または低感度画素情報に対する重みを変更して、高感度画素情報と低感度画素情報との重み付き加算を行い、出力画像の画素値を決定して出力する。
本開示の一実施例によれば、画素部に感度の異なる画素が配置され、更に感度の異なる複数の画素から、解像度を低下させた画素情報を生成する構成とすることで、フレームメモリを必要とせずにワイドダイナミックレンジ画像を生成することができる。また、同一感度同士のアナログ加算が可能であることから、フレームレートの上昇も可能となる。
1.撮像装置の構成例について
2.撮像デバイスの構成例について
3.その他の実施例について
3-1.実施例2
3-2.実施例3
3-3.実施例4
3-4.実施例5
3-6.実施例6
4.本開示の構成のまとめ
まず、本開示の画像処理装置の一例である撮像装置の全体構成例について図2を参照して説明する。
図2は、撮像装置の構成例を示すブロック図である。光学レンズ101を介して入射される光は撮像部、例えばCMOSイメージセンサなどによって構成される撮像デバイス102に入射し、光電変換による画像データを出力する。出力画像データは信号処理部103に入力される。信号処理部103は、例えばホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行して出力画像120を生成する。出力画像120は図示しない記憶部に格納される。あるいは表示部に出力される。
次に、撮像デバイス102の構成例について図3を参照して説明する。
図3は、本開示の一実施例の撮像デバイス102の構成を示す図である。
撮像デバイス102は、図3に示すように画素部151、演算部160を有する。
演算部160はAD変換部161、画素情報合成部162、出力部163を有する。
なお、演算部160は、画素部151と同一のチップ上の構成、すなわちオンチップにある設定としてもよいし、画素部151と異なるチップや装置内に設定する構成としてもよい。
なお、画素部151は、長時間露光を行う高感度画素と、短時間露光を行う低感度画素を有する構成となっている。
画素部151は、制御部105の制御によって、露光時間が画素単位で制御され、
露光時間の長い設定とされる高感度画素、
露光時間の短い設定とされる低感度画素、
これらの2種類の画素に区分される。
2列単位で、高感度画素と低感度画素が交互に設定される。
なお、図4(a)に示すように、水平方向を(x)、垂直方向を(y)として、列番号をx座標で表し、行番号をy座標で表している。
図4に示す例では、2種類の感度を持つ4つの画素から1つの画素情報を出力する例を示している。つまり、撮像デバイス102は、画素部151の本来の画素数を1/4に削減した画像、すなわち、図4(b)に示す画素数削減画像220を生成して出力する。
演算部160のA/D変換部161はこれらの入力信号のA/D変換、すなわちアナログ信号をデジタル信号に変換する処理を実行して、変換後のデジタル値をがぞ情報合成部162に入力する。
合成対象となる4つの画素は、
2つが高感度画素であり、2つが低感度画素から選択される。
図4を参照して、Gb画素の画素値算出処理例について説明する。
画素情報合成部162は、4つの画素情報から1つの画素情報を生成する際に、図4に示すように、
高感度のアナログ加算後信号{Gb(1,1)+Gb(1,3)}と、
低感度のアナログ加算後信号{Gb(3,1)+Gb(3,3)}と、
の重みづけ平均を算出する。
Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
ただし、
Gain:高感度画素と低感度画素との感度比を補償するゲイン値、
α,β:α+β=1を満足する重み係数としての乗算パラメータ、
である。
なお、α、βはも各色、R,Gb,Gr,Bごとに異なる値を用いてもよい。また被写体の明るさに応じて変えても良い。
高感度画素2画素のアナログ加算値と、
低感度画素2画素のアナログ加算値の感度補償された値とを、
予め設定した乗算パラメータα、βによる乗算結果の加算処理を行って算出する。
すなわち、高感度画素2画素のアナログ加算値と、低感度画素2画素のアナログ加算値の感度補償された値との重み付き平均を算出し、算出値を図4(b)に示す画素数削減画像の出力画素値、例えば図4に示すGb(out)221の画素値として設定する。
一方、低感度画素においては、a以上の明るさの被写体においても、画素値は飽和せず、被写体の明るさに応じた画素値出力を生成できる。
また、被写体が明るい場合は、飽和していない低感度画素の画素値を選択して出力、あるいは高感度画素の画素値と低感度画素の画素値の合成に際して、低感度画素の重みを高くした合成処理によって算出した画素値を出力する。
このような処理を実行することで、明るさに対する線形性が保たれた画素値を出力可能となり、暗い被写体から明るい被写体までの明るさを正確に表現した、ワイドダイナミックレンジ画像を出力することができる。
Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
において、
高感度画素の加算値:{Gb(1,1)+Gb(1,3)}、
低感度画素の加算値:{Gb(3,1)+Gb(3,3)}、
これらに対する重み係数である乗算パラメータα、βを、図5を参照して説明したように被写体明るさに応じて変更して出力画素値(Gout)を算出する。
なお、図4に示す設定では、明るさの判定は、3×3画素領域単位で実行し、その単位で重み係数である乗算パラメータα、βは、3×3画素領域単位で設定すればよい。
図6には、画素部151の5×3=15画素のみを示している。
x方向に5画素、y方向に3画素である。
図に示す左上端のGb(1,1)画素251は、図4(a)に示す左上端の画素Gb(1,1)に対応する。
図6に示す点線枠で示す4つのGb画素、
Gb(1,1)251、
Gb(1,3)252、
Gb(3,1)253、
Gb(3,3)254、
これらは、図4(a)に示す左上端の3×3画素領域211に含まれる4つのGb画素に対応する。
露光時間の長い設定とされる高感度画素、
露光時間の短い設定とされる低感度画素、
これらの2種類の画素が、縦方向のラインに従って2列単位で交互に設定される。
Gb(3,1)253と、Gb(3,3)254の2画素は、短時間露光がなされる低感度画素である。
信号線L1,H1は、それぞれ、各画素の露光開始時間の制御信号を各画素に伝送する信号線である。
通常CMOSセンサーは、シャッタ動作とリード動作に大別された動作を行う。シャッタ動作とは、撮影(露光)をスタートさせる際の動作で、フォトダイオードの物理状態としては、リセット処理(RST信号ON、L1またはH1信号ON)による電子を空に設定すると同時に、受光量に応じた電子の蓄積を開始させる処理(その後、RST信号OFF、L1またはH1信号OFF)が行われる。このシャッタ動作によって露光が始まる。
リード動作は、画素値の読み取り対象となる画素の選択信号である選択信号(SEL)をONとし、さらに、このタイミングでフローティングディフュージョン(FD)のリセット処理のための(RST)をONとして、露光開始以前のノイズ等に基づくFD蓄積電荷を取り除き、選択信号(SEL)のON期間中に、各画素の制御トランジスタ(T1)を動作させる信号線(L1とH1)をONとすることで、選択信号(SEL)と信号線(L1,H1)の両信号がONとなった画素の画素値の読み出しが実行される。
なお、画素部151からの画素値読み出し処理は、以下のシーケンスで実行する。
(S1)第1行と第3行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S2)第2行と第4行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S3)第5行と第7行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S4)第6行と第8行を同時に読み出して、同一列の2つの画素値を加算して出力、
: :
以下、このように、1行おきの2つの行の同一列の同一色の画素の画素値を同時に読み出してこれらを加算して出力する。
2つの高感度画素の画素値加算と、
2つの低感度画素の画素値加算が実行され、
これらの高感度画素加算値と低感度画素加算値が出力されることになる。
まず、時間(t1)において、
第1行のリセット信号(RST1)、
第3行のリセット信号(RST3)、
第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H1)、
第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H3)、
これらをHigh(ON)にする。
これらの処理により、信号線、H1とH3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
第1行のリセット信号(RST1)、
第3行のリセット信号(RST3)、
第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L1)、
第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L3)、
これらをHigh(ON)にする。
これらの処理により、信号線、L1とL3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
まず、時間(t3)において、
同時読み出しによる加算対象行である第1行第3行について、
第1行、第3行のリセット信号(RST1,RST3)、
第1行、第3行の選択信号(SEL1,SEL3)、
これらを同時にHigh(ON)として、フローティングディフュージョン(FD)のリセット(RST)を行う。
この処理によって、FDに蓄積されたノイズ等に起因する電荷を排除する。
第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H1)、
第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(H3)、
第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L1)、
第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(L3)、
これらをすべてHigh(ON)にする。
すなわち、
図6に示す高感度画素列である第1列からは、出力ライン(Out1)を介して、第1行、第1列のGb画素251[Gb(1,1)]と第3行、第1列のGb画素252[Gb(1,3)]との2つの高感度画素の加算画素値が出力される。
また、図6に示す低感度画素列である第3列からは、出力ライン(Out3)を介して、第1行、第3列のGb画素261[Gb(3,1)]と第3行、第3列のGb画素262[Gb(3,3)]との2つの低感度画素の加算画素値が出力される。
図8は、図6に示す高感度画素列である第1列の2つの画素、すなわち、
第1行、第1列のGb画素251[Gb(1,1)]、
第3行、第1列のGb画素252[Gb(1,3)]、
これらの画素を示している。
図7に示す時間(t4)の信号設定により、縦方向の2つの画素が図8のようにアクティブな状態となる。結果としてAMPトランジスタの電流を加算することになり、アナログレベルでの画素加算が実行される。
第1行、第1列のGb画素251[Gb(1,1)]からは画素値aが出力ライン(Out1)上に出力される。
第3行、第1列のGb画素252[Gb(1,3)]からは画素値bが出力ライン(Out1)上に出力される。
結果として、出力ライン(Out1)からは、これら2つの画素の加算値、
a+b
が出力される。
第1行と第3行、
第2行と第4行、
第5行と第7行、
第6行と第8行、
:
これらの全ての1行おきの2行の同一列の同一色の画素値は加算されて出力される。
図3に示す高感度画素情報181は、このような複数の高感度画素の加算信号であり、低感度画素情報182も複数の低感度画素の加算信号である。
高感度画素列と低感度画素列とでシャッタ時期をずらすことで露光時間を異ならせることができ、同一行で感度を変えることが可能になる。
また、縦方向には感度が同一になっているため、上記したようなアナログレベルの加算が可能になる。アナログレベルの加算は、CMOSセンサーのフレームレート向上に寄与することができる。なお、ここでは2画素加算の例を示したが、3画素以上の加算も可能である。
図3に示す画素部151からは、
高感度のアナログ加算後信号{Gb(1,1)+Gb(1,3)}、
低感度のアナログ加算後信号{Gb(3,1)+Gb(3,3)}、
これらが出力される。
図3に示す高感度画素情報181、低感度画素情報182である。
図9に示す例では、
高感度画素情報:Gb(1)=Gb(1,1)+Gb(1,3)
低感度画素情報:Gb(3)=Gb(3,1)+Gb(3,3)
となる。
図9に示すように、画素情報合成部162は、
Gb(Out)=α×Gb(1)+β×Gb(3)×(Gain)・・・(式2)
上記式2に従って、出力画素値:Gb(Out)を算出して出力部163を介して出力する。
ただし、
Gain:高感度画素と低感度画素との感度比を補償するゲイン値、
α,β:α+β=1を満足する重み係数としての乗算パラメータ、
である。
上記(式2)は先に説明した(式1)、すなわち、
Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
上記式と同様の式である。
(S11)画素部において実行する同じ感度の2画素のアナログ値加算処理、
(S12)画素情報合成部において実行する高感度画素の加算結果[G(1)]と、低感度画素の加算結果[G(3)]とを重み係数の乗算とゲイン調整を行って加算して出力画素の画素値[G(Out)]を算出する処理、
これらの処理によって出力画像の画素値算出が実行されることを説明している。
前述のように、図3に示す演算部160の画素情報合成部162は、複数の画素の画素値を適用して、出力画像の1つの画素の画素値を決定する。
Gb(out)={Gb(1,1)+Gb(1,3)}×α+{Gb(3,1)+Gb(3,3)}×(Gain)×β・・・(式1)
上記式に従って、撮影画像の複数の画素値から1つの画素値を算出する。
(1)明るい被写体(高感度画素が飽和値)
(2)中位の被写体(高感度画素が飽和値以下で、高感度画素、低感度画素とも既定の許容SN比以上)
(3)暗い被写体(高感度画素が飽和値以下で、低感度画素が既定の許容SN比未満)
これらの被写体の撮影領域に対応する合成処理の態様を説明する図である。
(1)明るい被写体(高感度画素が飽和値)
図11(1)に示すように被写体が明るく、高感度画素が飽和値である場合は、高感度画素の画素値は、画素部の各画素において蓄積可能な最大電荷量に対応する最大画素値となり、正確な画素値を反映できない状態にある。
すなわち、α=0、β=1として、高感度画素の画素値を適用せず、低感度画素の画素値のみを適用して出力画素値を算出する処理を実行する。
図11(2)に示すように、明るさが中位の被写体、すなわち、高感度画素が飽和値以下で、高感度画素、低感度画素とも既定の許容SN比以上である場合は以下の処理を行う。
高感度画素、低感度画素とも正確な画素値を反映していると判断できるため、どちらかを選択して利用して画素情報合成画像の画素値として設定してもよいし、すべてを利用したブレンド処理を実行して画素情報合成画像の画素値を算出してもよい。
α+β=1
上記制約を満たす範囲で、様々な設定が可能である。一例として、例えば、
α=β=0.5
このような設定として、高感度画素2画素と低感度画素2画素の計4画素の平均値を画素情報合成画像における1つの出力画素の画素値として設定してもよい。
図11(3)に示すように、暗い被写体、すなわち、高感度画素が飽和値以下で、低感度画素が既定の許容SN比未満である場合は以下の処理を行う。
低感度画素の画素値は、予め定めた許容SN比未満であり、正確な画素値を反映していると言えない。このような場合は、低感度画素の画素値を適用せず、高感度画素の画素値のみに基づいて画素情報合成画像の出力画素値を算出する。
α=0
β=1
とする。
すなわち、低感度画素の画素値を利用せず、高感度画素の画素値のみを適用して画素情報合成画像の出力画素値を算出する。
図12(1)には、
高感度画素情報に対する乗算パラメータである重み係数:WH(=α)、
低感度画素情報に対する乗算パラメータである重み係数:WL(=β)、
これらの設定例を示している。
出力画素値は、Gb画素を例として説明すると、
Gb(Out)=(高感度画素情報(Gb(1))×WH+(低感度画素情報(Gb(3))×(ゲイン)×WL
となる。
なお、
高感度画素情報(Gb(1))は、同一列の2つの高感度画素の画素値加算結果である。
低感度画素情報(Gb(3))は、同一列の2つの低感度画素の画素値加算結果である。
WH:入力画素の高感度画素に対応する重み係数(=α)、
WL:入力画素の低感度画素に対応する重み係数(=β)、
ただし、WH+WL=1の関係を満たす係数、
である。
ここでは、低感度画素の画素値に応じて、異なる係数を利用する設定としている。
具体的には、例えば図12(1)に示す以下の設定の係数を利用する。
なお、各画素の画素値は10bit(0~1023)の出力であるとする。
低感度画素の画素値(data)に応じて以下の設定とする。
(a)0≦data<50の場合:WH=1.0、WL=0
(b)50≦data<100の場合:WH=0.5、WL=0.5
(c)100≦data<1023の場合:WH=0、WL=1.0
(a)0≦data<50の場合
このように、低感度画素の画素値(data)が小さい場合、被写体の明るさが低く、低感度画素の画素値のSN比が低いと推定される。この場合、低感度画素の画素値(data)の信頼度が低いと判断され、また、近傍の高感度画素の画素値が飽和していないと推定される。このような場合は、低感度画素の画素値に対する乗算係数:WLを0として、高感度画素の画素値に対する乗算係数:WHを1として、高感度画素の画素値のみに依存した合成画素の画素値[Gb(Out)]を算出する。
このように、低感度画素の画素値(data)が中程度である場合、被写体の明るさが中程度であり、低感度画素の画素値のSN比が良好であると推定される。この場合、低感度画素の画素値(data)の信頼度が高いと判断され、また、近傍の高感度画素の画素値も飽和していないと推定される。このような場合は、低感度画素の画素値と高感度画素の画素値をブレンドする。すなわち、低感度画素の画素値に対する乗算係数:WLを0.5として、高感度画素の画素値に対する乗算係数:WHも0.5として、高感度画素と低感度画素の2つの画素値の平均により合成画素の画素値[Gb(Out)]を算出する。
このように、低感度画素の画素値(data)が高い場合、被写体の明るさが極めて明るいと判断される。この場合、低感度画素の画素値のSN比は良好であり、低感度画素の画素値(data)の信頼度が高いと判断されるが、近傍の高感度画素の画素値は飽和している可能性が高いと推定される。このような場合は、高感度画素の画素値に対する乗算係数:WHを0として、低感度画素の画素値に対する乗算係数:WLを1として、低感度画素の画素値のみに依存した合成画素の画素値[Gb(Out)]を算出する。
(3.1.実施例2)
先に説明した実施例では、各画素の回路構成は、図6を参照して説明したように、全ての画素が同じ回路構成を有している。具体的には、
制御トランジスタ(T1)、
アンプトランジスタ(AMP)、
リセットトランジスタ(RST)、
選択トランジスタ(SEL)、
これらの各トランジスタを各画素単位で設定した回路構成である。
一例について図13を参照して説明する。
図13に示す画素部構成は、AMPトランジスタ、RSTトランジスタ、SELトランジスタを4つの縦に並んだ画素に1つの設定として、これらのトランジスタを共有した構成である。図13は、共有画素構造による画素アレイの一例を示す図である。
これら4つの画素Gb(1,1)、R1、Gb(1,3)、R2に対して、AMPトランジスタ、RSTトランジスタ、SELトランジスタが1つ対応付けられている。
例えば画素プロック321は、第1列に含まれる4つの画素からなるが、この4画素から構成される画素ブロック321に対して、1本のリセット信号線(RST)と選択信号線(SEL)が接続された構成となっている。
このような構成とすることで、トランジスタおよび配線構成が簡略化される。
先に図7を参照して説明したように、通常CMOSセンサーは、シャッタ動作とリード動作に大別された動作を行う。シャッタ動作とは、撮影(露光)をスタートさせる際の動作で、フォトダイオードの物理状態としては、リセット処理(RST信号ON、LT1またはHT1信号ON)による電子を空に設定すると同時に、受光量に応じた電子の蓄積を開始させる処理(その後、RST信号OFF、LT1またはHT1信号OFF)が行われる。このシャッタ動作によって露光が始まる。
リード動作は、画素値の読み取り対象となる画素の選択信号である選択信号(SEL)をONとし、さらに、このタイミングでフローティングディフュージョン(FD)のリセット処理のための(RST)をONとして、露光開始以前のノイズ等に基づくFD蓄積電荷を取り除き、選択信号(SEL)のON期間中に、各画素の制御トランジスタ(T1)を動作させる信号線(L1とH1)をONとすることで、選択信号(SEL)と信号線(L1,H1)の両信号がONとなった画素の画素値の読み出しが実行される。
なお、画素部151からの画素値読み出し処理は、以下のシーケンスで実行する。
(S1)第1行と第3行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S2)第2行と第4行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S3)第5行と第7行を同時に読み出して、同一列の2つの画素値を加算して出力、
(S4)第6行と第8行を同時に読み出して、同一列の2つの画素値を加算して出力、
: :
以下、このように、1行おきの2つの行の同一列の同一色の画素の画素値を同時に読み出してこれらを加算して出力する。
まず、時間(t1)において、
第1行と第3行に共通するリセット信号(RST1)、
第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1を動作させる制御信号(HT1)、
第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT3を動作させる制御信号(HT3)、
これらをHigh(ON)にする。
これらの処理により、信号線、HT1とHT3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1,T3)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
第1行と第3行に共通するリセット信号(RST1)、
第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1を動作させる制御信号(LT1)、
第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT3を動作させる制御信号(LT3)、
これらをHigh(ON)にする。
これらの処理により、信号線、LT1とLT3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1,T3)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
まず、時間(t3)において、
同時読み出しによる加算対象行である第1行第3行について、
第1行と第3行に共通のリセット信号(RST1)、
第1行と第3行に共通の選択信号(SEL1)、
これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図13のFD311)のリセット(RST)を行う。
この処理によって、4画素単位で設定された図13(b)に示すFD311に蓄積されたノイズ等に起因する電荷を排除する。
第1行の低感度画素列のみに対して低感度画素のトランジスタT1を動作させる制御信号(LT1)、
第1行の高感度画素列のみに対して高感度画素のトランジスタT1を動作させる制御信号(HT1)、
第3行の低感度画素列のみに対して低感度画素のトランジスタT1を動作させる制御信号(LT3)、
第3行の高感度画素列のみに対して高感度画素のトランジスタT1を動作させる制御信号(HT3)、
これらをすべてHigh(ON)にする。
すなわち、
図15に示す第1列の画素ブロック321等が含まれる高感度画素列からは、出力ライン(Out1,Out2,Out5,Out6・・・)を介して、第1行と第3行の2つの高感度画素の加算画素値が出力される。
また、図15に示す低感度画素列からは、出力ライン(Out3,Out4,Out7,Out8・・・)を介して、第1行と第3行の2つの低感度画素の加算画素値が出力される。
この後の横方向の加算処理は、先に説明した実施例1と同様の処理として実行される。
次に、実施例2と同様、トランジスタを複数画素で共有した画素部構成のもう1つの例について、実施例3として図17以下を参照して説明する。
アンプトランジスタ(AMP)、
リセットトランジスタ(RST)、
選択トランジスタ(SEL)、
これらの3つのトランジスタを、
高感度画素列の4つの高感度画素と、
低感度画素列の4つの低感度画素、
これらの8つの画素からなる画素ブロック単位で1つの設定としたトランジスタ共有構成である。
高感度画素列の4つの高感度画素と、
低感度画素列の4つの低感度画素、
これらの8つの画素からなる画素ブロックであり、この画素ブロックの回路構成が図17(b)に示す構成となる。
これらの計8つの画素に対して、
アンプトランジスタ(AMP)、
リセットトランジスタ(RST)、
選択トランジスタ(SEL)、
これらのトランジスタを1つの設定として8つの画素で共有する構成としている。
図18に示すように、
時間t1において、
8つの画素からなる画素ブロックに共通するリセット信号(RST)、
8つの画素からなる画素ブロックに共通する選択信号(SEL)、
これらを同時にHigh(ON)として、図17(b)に示すフローティングディフュージョン(FD)371のリセット(RST)を行う。
この処理によって、FD371に蓄積されたノイズ等に起因する電荷を排除する。
高感度画素列の加算処理対象となる2つの画素の制御トランジスタT1A,T3AをHighとして、これらの画素の加算画素値が出力信号線(Out)を介して出力される。
8つの画素からなる画素ブロックに共通するリセット信号(RST)をHigh(ON)として、図17(b)に示すフローティングディフュージョン(FD)371のリセット(RST)を行う。
この処理によって、FD371に蓄積されたノイズ等に起因する電荷を排除する。
低感度画素列の加算処理対象となる2つの画素の制御トランジスタT1B,T3BをHighとして、これらの画素の加算画素値が出力信号線(Out)を介して出力される。
例えば画素プロック371は、第1列に含まれる4つの高感度画素と第2列の4つの低感度画素の計8画素からなるが、この8画素から構成される画素ブロック381に対して、1本のリセット信号線(RST)と選択信号線(SEL)が接続された構成となっている。
このような構成とすることで、トランジスタおよび配線構成が簡略化される。
従って読み出しシーケンスは、
(S1)第1行と第3行の高感度画素を同時に読み出して、同一列の2つの高感度画素の画素値を加算して出力、
(S2)第1行と第3行の低感度画素を同時に読み出して、同一列の2つの低感度画素の画素値を加算して出力、
(S3)第2行と第4行の高感度画素を同時に読み出して、同一列の2つの高感度画素の画素値を加算して出力、
(S4)第2行と第4行の低感度画素を同時に読み出して、同一列の2つの低感度画素の画素値を加算して出力、
: :
以下、このような処理が、1行おきの2つの行単位で高感度画素読み出しと低感度画素読み出しが交互に行われることになる。
まず、時間(t1)において、
第1行と第3行に共通する8画素単位で設定されたリセット信号(RST1)、
第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1Aを動作させる制御信号(HT1)、
第3行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT3Aを動作させる制御信号(HT3)、
これらをHigh(ON)にする。
これらの処理により、信号線、HT1とHT3に接続された第1行と第3行の高感度画素の制御トランジスタ(T1A,T3A)がONとなり、第1行と第3行の高感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
第1行と第3行に共通する8画素単位で設定されたリセット信号(RST1)、
第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1Bを動作させる制御信号(LT1)、
第3行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT3Bを動作させる制御信号(LT3)、
これらをHigh(ON)にする。
これらの処理により、信号線、LT1とLT3に接続された第1行と第3行の低感度画素の制御トランジスタ(T1B,T3B)がONとなり、第1行と第3行の低感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
まず、時間(t3)において、
同時読み出しによる加算対象行である第1行第3行について、
第1行と第3行に共通の8画素単位で設定されたリセット信号(RST1)、
第1行と第3行に共通の8画素単位で設定された選択信号(SEL1)、
これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図17のFD371)のリセット(RST)を行う。
この処理によって、8画素単位で設定された図17(b)に示すFD371に蓄積されたノイズ等に起因する電荷を排除する。
第1行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT1)、
第3行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT3)、
これらをHigh(ON)にする。
この処理によって、第1行と第3行の高感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
第1行の低感度画素列のみに対してトランジスタT1Bを動作させる制御信号(LT1)、
第3行の低感度画素列のみに対してトランジスタT3Bを動作させる制御信号(LT3)、
これらをHigh(ON)にする。
この処理によって、第1行と第3行の低感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
この後の横方向の加算処理は、さきに説明した実施例1と同様の処理として実行される。
次に、本発明の実施例4として、図21に示すように、撮像デバイス102の演算部160の画素情報合成部162の後に、階調変換部401を構成した実施例について説明する。
階調変換部401は、画素情報合成部162の生成した画素情報合成画像(例えば図4(b))の各画素の画素値の諧調を変換する。具体的には、例えば画素情報合成部162の生成した画素情報合成画像の各画素の画素値が14bit(0~16383)の諧調を有する場合、各画素の画素値を10bit(0~1023)の諧調に変換して出力するといった処理を行う。すなわち、各画素のビット数を削減した画像を生成して出力する。
なお、階調変換部401の実行するビット数圧縮処理は、例えば関数を利用してビット数を低減する。この関数は最初から決められたものでも良いし、画像に応じた関数を外部から入力もしくは内部で算出してもよい。
次に、本開示の画像処理装置の実施例5として、実施例4において説明した諧調変換部の後に、デモザイクやノイズリダクション(NR)といったカメラ信号処理を実行する信号処理部や、画像圧縮(JPEGなど)処理を実行するコーデックを備えた実施例について図23を参照して説明する。
諧調変換部401、
デモザイクやノイズリダクション(NR)といったカメラ信号処理を実行する信号処理部402、
画像圧縮(JPEGなど)処理を実行するコーデック403、
これらの各構成部を追加した構成である。なお、画像処理装置(撮像装置)の全体構成は、実施例1と同様、先に図2を参照して説明した構成、あるいは図2の構成から信号処理部103を省略した構成を持つ。
諧調変換部401の処理は、先に説明した実施例4と同様の処理である。
次に、本開示の画像処理装置の実施例6として、撮像デバイス102の画素部151の画素配列、具体的には、画素部151に設定されるカラーフィルタ配列の変更例について説明する。
例えば、図24は本実施例6における撮像デバイス102の画素部151の画素配列(カラーフィルタ配列)を示している。
図24に示す画素部151の画素配列は、
2×2のGb画素、
2×2のB画素、
2×2のR画素、
2×2のGr画素、
これらの計4×4画素を最小単位として、この最小単位を繰り返し配置した構成を有する。図24に示すように同一の色が2×2に配置されているのが特徴である。
本実施例においては、図25(a)に示すように列方向にジグザグ状に高感度画素と低感度画素が設定されている。図に示す白い画素領域が高感度画素であり、グレーの画素領域が低感度画素である。
Gb(1,1):高感度画素
Gb(2,1):低感度画素
Gb(1,2):低感度画素
Gb(2,2):高感度画素
図に示すように、例えば第1列と、第2列においてy方向に高感度画素のみをたどると、上から、
第1行では、第1列が高感度画素、
第2行では、第2列が高感度画素、
第3行では、第1列が高感度画素、
第4行では、第2列が高感度画素、
:
このようにジグザグ状に高感度画素が配列されている。
第1行では、第2列が低感度画素、
第2行では、第1列が低感度画素、
第3行では、第2列が低感度画素、
第4行では、第1列が低感度画素、
:
このようにジグザグ状に低感度画素が配列されている。
撮像デバイス102の演算部160は、これらの高感度画素の画素値によって生成される高感度画素情報と低感度画素の画素値によって生成される低感度画素情報を入力し、これらの異なる感度の画素情報を合成して出力画像の1つの画素値を算出する。
具体的には、同一色の2×2画素領域、例えば図25に示す左上端のGb画素領域である2×2画素領域511に含まれる2つの高感度Gb画素と2つの低感度Gb画素から1つのGb画素値を算出して、図25(B)に示す出力画像520の1つの画素521の画素値を算出する。
撮像デバイス102は、画素部151の本来の画素数を1/4に削減した画像、すなわち、図25(b)に示す画素数削減画像520を生成して出力する。
従って、
図26は、本実施例における撮像デバイスの画素部の回路構成について説明する図である。
先に図17を参照して説明したトランジスタの共有構成と同様、AMPトランジスタ、RSTトランジスタ、SELトランジスタを8つの画素ブロックに1つの設定としてトランジスタを共有した構成である。
画素の制御トランジスタTnに接続される信号線は、1行につき、LT1、HT1の2本配線されている。この構成で、列方向にジグザグ状に高感度画素と低感度画素の設定が実現されている。
本構成は、先に説明した実施例3と同様の17を参照して説明したトランジスタの共有構成を有するため、図18に示すタイミングチャートに従った読み出し処理が実行されることになり、高感度画素の2画素加算値と低感度画素の2画素加算値の同時読み出しができない。
(S1)第1行と第2行の高感度画素を同時に読み出して、斜めに位置する2つの高感度画素の画素値を加算して出力、
(S2)第1行と第2行の低感度画素を同時に読み出して、斜めに位置する2つの低感度画素の画素値を加算して出力、
(S3)第3行と第4行の高感度画素を同時に読み出して、斜めに位置する2つの高感度画素の画素値を加算して出力、
(S4)第3行と第4行の低感度画素を同時に読み出して、斜めに位置する2つの低感度画素の画素値を加算して出力、
: :
以下、このような処理が、2つの行単位で高感度画素読み出しと低感度画素読み出しが交互に行われることになる。
具体的には、画素部151は、2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する。
まず、時間(t1)において、
第1行と第2行に共通する8画素単位で設定されたリセット信号(RST1)、
第1行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT1Aを動作させる制御信号(HT1)、
第2行の高感度画素列のみに対する露光開始信号として高感度画素の制御トランジスタT2Bを動作させる制御信号(HT2)、
これらをHigh(ON)にする。
これらの処理により、信号線、HT1とHT2に接続された第1行と第2行の高感度画素の制御トランジスタ(T1A,T2B)がONとなり、第1行と第2行の高感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(高感度画素シャッタ動作)。
第1行と第2行に共通する8画素単位で設定されたリセット信号(RST1)、
第1行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT1Bを動作させる制御信号(LT1)、
第2行の低感度画素列のみに対する露光開始信号として低感度画素の制御トランジスタT2Aを動作させる制御信号(LT2)、
これらをHigh(ON)にする。
これらの処理により、信号線、LT1とLT2に接続された第1行と第2行の低感度画素の制御トランジスタ(T1B,T2A)がONとなり、第1行と第2行の低感度画素列に設定されたフォトダイオード内の電子が空になり、その後、これらの信号をOFFにすることで、被写体光に応じた新たな電荷蓄積が開始される(低感度画素シャッタ動作)。
まず、時間(t3)において、
同時読み出しによる加算対象行である第1行第2行について、
第1行と第2行に共通の8画素単位で設定されたリセット信号(RST1)、
第1行と第2行に共通の8画素単位で設定された選択信号(SEL1)、
これらを同時にHigh(ON)として、フローティングディフュージョン(FD)(図17のFD371)のリセット(RST)を行う。
この処理によって、8画素単位で設定された図17(b)に示すFD371に蓄積されたノイズ等に起因する電荷を排除する。
第1行の高感度画素列のみに対してトランジスタT1Aを動作させる制御信号(HT1)、
第2行の高感度画素列のみに対してトランジスタT2Bを動作させる制御信号(HT2)、
これらをHigh(ON)にする。
この処理によって、第1行と第2行の高感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
第1行の低感度画素列のみに対してトランジスタT1Bを動作させる制御信号(LT1)、
第2行の低感度画素列のみに対してトランジスタT2Aを動作させる制御信号(LT2)、
これらをHigh(ON)にする。
この処理によって、第1行と第2行の低感度画素の画素値は、1本の出力ラインを介して画素値が加算されて出力される。
トランジスタを複数画素で共有した画素部構成とした場合の本実施例における画素部からの縦方向の画素値加算読み出し処理は以上の通りである。
この後の、加算された高感度画素と、加算された低感度画素から画像合成を行うが、これは、実施例1の横方向の加算処理と同様の処理として実行される。
図28に示す画素配列は、図24、図25を参照して説明したと同様、同一色の画素が2×2画素単位で設定されている。
ただし、高感度画素と低感度画素の設定態様が異なっている。
図に示すように、第2行以下は、2行単位で、ジグザグ状に高感度画素と低感度画素が配列されている。
第1行では、第1列が高感度画素、
第2行では、第2列が高感度画素、
第3行では、第2列が高感度画素、
第4行では、第1列が高感度画素、
:
このように第2行以下は、2行単位で、ジグザグ状に高感度画素が配列されている。
第1行では、第2列が低感度画素、
第2行では、第1列が低感度画素、
第3行では、第1列が低感度画素、
第4行では、第2列が低感度画素、
:
このように第2行以下は、2行単位で、ジグザグ状に低感度画素が配列されている。
撮像デバイス102の演算部160は、これらの高感度画素情報と低感度画素情報を入力して、異なる感度の画素情報を合成して出力画像の1つの画素値を設定する。
具体的には、同一色の2×2画素領域、例えば図28に示す左上端のGb画素領域である2×2画素領域611に含まれる2つの高感度Gb画素と2つの低感度Gb画素から1つのGb画素値を算出して、図28(B)に示す出力画像620の1つの画素621の画素値を算出する。
以上、特定の実施例を参照しながら、本開示について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1)画素または画素領域単位の露光時間制御を実行する制御部と、
前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
前記画素部は、
前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
前記画素情報合成部は、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置。
(3)前記画素情報合成部は、前記出力画像の画素値の算出処理において、長時間露光領域から入力する高感度画素情報と、短時間露光領域から入力する低感度画素情報とに対して被写体明るさに応じた重みを設定した加算処理を実行する前記(1)または(2)に記載の画像処理装置。
(5)前記画素情報合成部は、短時間露光領域から入力する低感度画素情報が既定の閾値未満である場合、前記低感度画素情報の重みをゼロまたは小さく設定し、長時間露光領域から入力する高感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する前記(1)~(4)いずれかに記載の画像処理装置。
(7)前記制御部は、前記画素部の2列単位で長時間露光領域と短時間露光領域とを交互設定した露光時間制御を実行し、前記画素部は、前記長時間露光領域に含まれる複数画素の画素値を加算した高感度画素情報と、前記短時間露光領域に含まれる複数画素の画素値を加算した低感度画素情報とを出力する前記(1)~(6)いずれかに記載の画像処理装置。
(9)前記画像処理装置は、さらに、前記画素情報合成部の生成した出力画像に対する信号処理を実行する信号処理部を有する前記(1)~(8)いずれかに記載の画像処理装置。
(11)前記制御部は、前記画素部の画素単位で露光時間制御を実行し、前記画素部は、長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する前記(1)~(10)いずれかに記載の画像処理装置。
(13)前記画素部は、ベイヤー配列を有する前記(1)~(12)いずれかに記載の画像処理装置。
具体的には、異なる感度の画素からの出力画素信号として、複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報を画素部から出力し、これらの画素情報を画素情報合成部において合成して出力画素値を決定してダイナミックレンジの広い出力画像を出力する。画素情報合成部では、例えば被写体の輝度に応じて高感度画素情報または低感度画素情報に対する重みを変更して、高感度画素情報と低感度画素情報との重み付き加算を行い、出力画像の画素値を決定して出力する。
本開示の一実施例によれば、画素部に感度の異なる画素が配置され、更に感度の異なる複数の画素から、解像度を低下させた画素情報を生成する構成とすることで、フレームメモリを必要とせずにワイドダイナミックレンジ画像を生成することができる。また、同一感度同士のアナログ加算が可能であることから、フレームレートの上昇も可能となる。
11 高輝度領域
12 低輝度領域
101 光学レンズ
102 撮像デバイス
103 信号処理部
105 制御部
120 出力画像
151 画素部
160 演算部
161 AD変換部
162 画素情報合成部
163 出力部
181 高感度画素情報
182 低感度画素情報
401 諧調変換部
402 信号処理部
403 コーデック
Claims (16)
- 画素または画素領域単位の露光時間制御を実行する制御部と、
前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素部と、
前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成部を有し、
前記画素部は、
前記制御部の露光制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力し、
前記画素情報合成部は、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出する画像処理装置。 - 前記制御部は、前記画素部の列単位で露光時間制御を実行し、
前記画素部は、
長時間露光のなされる高感度画素列の異なる複数の高感度画素の画素値を加算した高感度画素情報と、
短時間露光のなされる低感度画素列の異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する請求項1に記載の画像処理装置。 - 前記画素情報合成部は、
前記出力画像の画素値の算出処理において、
長時間露光領域から入力する高感度画素情報と、短時間露光領域から入力する低感度画素情報とに対して被写体明るさに応じた重みを設定した加算処理を実行する請求項1に記載の画像処理装置。 - 前記画素情報合成部は、長時間露光領域から入力する高感度画素情報が既定の閾値以上である場合、前記高感度画素情報の重みをゼロまたは小さく設定し、短時間露光領域から入力する低感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する請求項1に記載の画像処理装置。
- 前記画素情報合成部は、短時間露光領域から入力する低感度画素情報が既定の閾値未満である場合、前記低感度画素情報の重みをゼロまたは小さく設定し、長時間露光領域から入力する高感度画素情報のみを利用または重みを大きく設定した演算処理により出力画像の画素値を算出する請求項1に記載の画像処理装置。
- 前記制御部は、
前記画素部の列単位のシャッタ制御により、列単位の露光時間制御を実行する請求項1に記載の画像処理装置。 - 前記制御部は、前記画素部の2列単位で長時間露光領域と短時間露光領域とを交互設定した露光時間制御を実行し、
前記画素部は、前記長時間露光領域に含まれる複数画素の画素値を加算した高感度画素情報と、前記短時間露光領域に含まれる複数画素の画素値を加算した低感度画素情報とを出力する請求項1に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画素情報合成部の生成した出力画像の各画素の画素値のビット削減処理を実行する諧調変換部を有する請求項1に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画素情報合成部の生成した出力画像に対する信号処理を実行する信号処理部を有する請求項1に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画素情報合成部の生成した出力画像に対する符号化処理を実行するコーデックを有する請求項1に記載の画像処理装置。 - 前記制御部は、前記画素部の画素単位で露光時間制御を実行し、
前記画素部は、
長時間露光のなされる異なる複数の高感度画素の画素値を加算した高感度画素情報と、
短時間露光のなされる異なる複数の低感度画素の画素値を加算した低感度画素情報を出力する請求項1に記載の画像処理装置。 - 前記画素部は、
2×2画素領域に含まれる長時間露光のなされる2つの高感度画素の画素値を加算した高感度画素情報と、
2×2画素領域に含まれる短時間露光のなされる2つの低感度画素の画素値を加算した低感度画素情報を出力する請求項11に記載の画像処理装置。 - 前記画素部は、ベイヤー配列を有する請求項1に記載の画像処理装置。
- 撮像部と、
請求項1から13いずれかに記載の処理を実行する画像処理部を有する撮像装置。 - 画像処理装置において実行する画像処理方法であり、
制御部が、画素または画素領域単位の露光時間制御を実行する制御ステップと、
画素部が、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力する画素情報出力ステップと、
画素情報合成部が、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出する画素情報合成ステップを実行し、
前記画素情報出力ステップは、
前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力するステップであり、
前記画素情報合成ステップは、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出するステップである画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
制御部に、画素または画素領域単位の露光時間制御を実行させる制御ステップと、
画素部に、前記制御部の制御下での撮影処理によって複数の異なる露光時間の画素情報を出力させる画素情報出力ステップと、
画素情報合成部に、前記画素部の出力する複数の異なる露光時間の画素情報を入力し、該複数の画素情報を利用した演算処理を実行して出力画像の画素値を算出させる画素情報合成ステップを実行させ、
前記画素情報出力ステップにおいては、
前記制御部の実行する露光時間制御に基づいて設定された複数の高感度画素の画素値を加算した高感度画素情報と、複数の低感度画素の画素値を加算した低感度画素情報とを出力させ、
前記画素情報合成ステップにおいては、
前記高感度画素情報と、低感度画素情報との重み付き加算処理を実行して出力画像の画素値を算出させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201280033811.0A CN103650480A (zh) | 2011-07-14 | 2012-06-21 | 图像处理设备、摄像设备、图像处理方法和程序 |
US14/131,221 US9344637B2 (en) | 2011-07-14 | 2012-06-21 | Image processing apparatus, imaging apparatus, image processing method, and program |
RU2013157361/07A RU2013157361A (ru) | 2011-07-14 | 2012-06-21 | Устройство обработки изображения, устройство формирования изображения, способ обработки изображения и программа |
BR112014000337A BR112014000337A2 (pt) | 2011-07-14 | 2012-06-21 | aparelhos de processamento e de formação de imagem, método de processamento de imagem, e, programa |
EP12812077.1A EP2733927A1 (en) | 2011-07-14 | 2012-06-21 | Image processing apparatus, image pickup apparatus, image processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011155921A JP2013021660A (ja) | 2011-07-14 | 2011-07-14 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
JP2011-155921 | 2011-07-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013008596A1 true WO2013008596A1 (ja) | 2013-01-17 |
Family
ID=47505894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/065825 WO2013008596A1 (ja) | 2011-07-14 | 2012-06-21 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US9344637B2 (ja) |
EP (1) | EP2733927A1 (ja) |
JP (1) | JP2013021660A (ja) |
CN (1) | CN103650480A (ja) |
BR (1) | BR112014000337A2 (ja) |
RU (1) | RU2013157361A (ja) |
WO (1) | WO2013008596A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140362260A1 (en) * | 2013-06-06 | 2014-12-11 | Yibing M. WANG | Pixel arrays & imaging devices with reduced blooming, controllers & methods |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011053678A1 (en) | 2009-10-28 | 2011-05-05 | The Trustees Of Columbia University In The City Of New York | Methods and systems for coded rolling shutter |
US20140192235A1 (en) | 2011-02-25 | 2014-07-10 | Sony Corporation | Systems, methods, and media for reconstructing a space-time volume from a coded image |
JP2013066140A (ja) | 2011-08-31 | 2013-04-11 | Sony Corp | 撮像装置、および信号処理方法、並びにプログラム |
US20140063300A1 (en) * | 2012-09-06 | 2014-03-06 | Aptina Imaging Corporation | High dynamic range imaging systems having clear filter pixel arrays |
US9338372B2 (en) * | 2012-09-19 | 2016-05-10 | Semiconductor Components Industries, Llc | Column-based high dynamic range imaging systems |
JP2015007739A (ja) * | 2012-10-01 | 2015-01-15 | キヤノン株式会社 | 表示装置及びその制御方法 |
WO2014099320A1 (en) | 2012-12-17 | 2014-06-26 | The Trustees Of Columbia University In The City Of New York | Methods, systems, and media for high dynamic range imaging |
JP2014230088A (ja) | 2013-05-22 | 2014-12-08 | ソニー株式会社 | 画像調整装置、画像調整方法、画像調整プログラムおよび撮像装置 |
JP2015012303A (ja) * | 2013-06-26 | 2015-01-19 | ソニー株式会社 | 固体撮像装置および電子機器 |
CN104253946B (zh) * | 2013-06-27 | 2018-03-20 | 聚晶半导体股份有限公司 | 产生高动态范围图像的方法及其图像传感器 |
TWI644568B (zh) | 2013-07-23 | 2018-12-11 | 新力股份有限公司 | 攝像元件、攝像方法及攝像程式 |
JP2015033107A (ja) * | 2013-08-07 | 2015-02-16 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに、電子機器 |
US9307160B2 (en) * | 2013-08-13 | 2016-04-05 | Htc Corporation | Methods and systems for generating HDR images |
JP6331308B2 (ja) * | 2013-09-26 | 2018-05-30 | 株式会社ニコン | 形状測定装置、構造物製造システム及び形状測定用コンピュータプログラム |
EP3132383A4 (en) | 2014-04-15 | 2017-11-29 | Sony Corporation | Systems, methods, and media for extracting information and a display image from two captured images |
JP6418785B2 (ja) * | 2014-05-21 | 2018-11-07 | キヤノン株式会社 | 撮像素子、その制御方法、および制御プログラム、並びに信号処理装置 |
JP2016006930A (ja) * | 2014-06-20 | 2016-01-14 | ソニー株式会社 | 撮像装置および撮像方法 |
CN106537896B (zh) * | 2014-07-18 | 2019-10-22 | 索尼半导体解决方案公司 | 成像控制器件、成像装置和成像控制方法 |
WO2016027397A1 (ja) * | 2014-08-20 | 2016-02-25 | パナソニックIpマネジメント株式会社 | 固体撮像装置及びカメラ |
US9467632B1 (en) | 2015-07-13 | 2016-10-11 | Himax Imaging Limited | Dual exposure control circuit and associated method |
US9819889B2 (en) * | 2015-08-07 | 2017-11-14 | Omnivision Technologies, Inc. | Method and system to implement a stacked chip high dynamic range image sensor |
KR102465212B1 (ko) * | 2015-10-30 | 2022-11-10 | 삼성전자주식회사 | 다중 노출 센서를 이용하는 촬영 장치 및 이의 촬영 방법 |
CN105516695B (zh) * | 2015-12-18 | 2018-06-15 | 广东欧珀移动通信有限公司 | 图像传感器和具有其的终端 |
CN105578075A (zh) * | 2015-12-18 | 2016-05-11 | 广东欧珀移动通信有限公司 | 高动态范围图像的生成方法、拍照装置和终端 |
CN105578005B (zh) * | 2015-12-18 | 2018-01-19 | 广东欧珀移动通信有限公司 | 图像传感器的成像方法、成像装置和电子装置 |
CN105592270B (zh) * | 2015-12-18 | 2018-02-06 | 广东欧珀移动通信有限公司 | 图像亮度补偿方法、装置及终端设备 |
CN105472266A (zh) * | 2015-12-18 | 2016-04-06 | 广东欧珀移动通信有限公司 | 高动态范围图像的生成方法、拍照装置和终端 |
CN105430274A (zh) * | 2015-12-18 | 2016-03-23 | 广东欧珀移动通信有限公司 | 图像传感器的像素切换方法、拍照装置和终端 |
CN105430275A (zh) * | 2015-12-18 | 2016-03-23 | 广东欧珀移动通信有限公司 | 图像传感器的像素切换方法、拍照装置和终端 |
WO2017101864A1 (zh) | 2015-12-18 | 2017-06-22 | 广东欧珀移动通信有限公司 | 图像传感器、控制方法和电子装置 |
CN105611198B (zh) * | 2015-12-18 | 2017-06-27 | 广东欧珀移动通信有限公司 | 图像传感器及具有其的终端 |
CN105554419B (zh) * | 2015-12-18 | 2018-04-10 | 广东欧珀移动通信有限公司 | 图像传感器及具有其的终端 |
CN105578074B (zh) * | 2015-12-18 | 2017-11-10 | 广东欧珀移动通信有限公司 | 图像传感器及具有其的终端 |
CN105592265A (zh) * | 2015-12-18 | 2016-05-18 | 广东欧珀移动通信有限公司 | 图像传感器的像素切换方法、拍照装置和终端 |
CN105611152A (zh) * | 2015-12-18 | 2016-05-25 | 广东欧珀移动通信有限公司 | 图像传感器的像素切换方法、拍照装置和终端 |
CN105516697B (zh) * | 2015-12-18 | 2018-04-17 | 广东欧珀移动通信有限公司 | 图像传感器、成像装置、移动终端及成像方法 |
CN105611196B (zh) * | 2015-12-18 | 2017-07-21 | 广东欧珀移动通信有限公司 | 图像坏点补偿方法、装置及终端设备 |
CN105578065A (zh) * | 2015-12-18 | 2016-05-11 | 广东欧珀移动通信有限公司 | 高动态范围图像的生成方法、拍照装置和终端 |
JP6762714B2 (ja) * | 2015-12-28 | 2020-09-30 | ブリルニクス インク | 固体撮像装置およびその駆動方法、電子機器 |
JP6674255B2 (ja) * | 2015-12-28 | 2020-04-01 | キヤノン株式会社 | 固体撮像素子及び撮像装置 |
US9743025B2 (en) * | 2015-12-30 | 2017-08-22 | Omnivision Technologies, Inc. | Method and system of implementing an uneven timing gap between each image capture in an image sensor |
KR20180036464A (ko) * | 2016-09-30 | 2018-04-09 | 삼성전자주식회사 | 이미지 처리 방법 및 이를 지원하는 전자 장치 |
CN106454054B (zh) * | 2016-11-29 | 2019-03-19 | Oppo广东移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106454289B (zh) * | 2016-11-29 | 2018-01-23 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106504218B (zh) | 2016-11-29 | 2019-03-12 | Oppo广东移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106341670B (zh) * | 2016-11-29 | 2017-09-22 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106454288B (zh) * | 2016-11-29 | 2018-01-19 | 广东欧珀移动通信有限公司 | 控制方法、控制装置、成像装置及电子装置 |
CN107018339A (zh) * | 2017-03-09 | 2017-08-04 | 广东欧珀移动通信有限公司 | 图像传感器、图像处理方法、图像处理装置及电子装置 |
CN107483823A (zh) * | 2017-08-31 | 2017-12-15 | 努比亚技术有限公司 | 一种图像处理方法及终端 |
CN108322669B (zh) * | 2018-03-06 | 2021-03-23 | Oppo广东移动通信有限公司 | 图像获取方法及装置、成像装置和可读存储介质 |
CN108513062B (zh) * | 2018-03-06 | 2021-03-23 | Oppo广东移动通信有限公司 | 终端的控制方法及装置、可读存储介质和计算机设备 |
JP6833751B2 (ja) * | 2018-03-20 | 2021-02-24 | 株式会社東芝 | 撮像制御装置、撮像装置、及び撮像制御方法 |
CN108632537B (zh) | 2018-05-04 | 2020-08-21 | Oppo广东移动通信有限公司 | 控制方法及装置、成像设备、计算机设备及可读存储介质 |
US10616535B1 (en) | 2018-10-01 | 2020-04-07 | Foveon, Inc. | Sub-sampled color channel readout wiring for vertical detector pixel sensors |
JP2021034749A (ja) | 2019-08-13 | 2021-03-01 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
JP7095714B2 (ja) * | 2019-09-24 | 2022-07-05 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10855931B1 (en) * | 2019-11-07 | 2020-12-01 | Novatek Microelectronics Corp. | High dynamic range image sensing method for image sensing device |
KR20210102644A (ko) | 2020-02-12 | 2021-08-20 | 삼성전자주식회사 | 이미지 센서 및 이를 포함하는 이미지 장치 |
US11483497B2 (en) | 2020-05-29 | 2022-10-25 | Canon Kabushiki Kaisha | Encoding apparatus and method, image capture apparatus, and storage medium |
US20240007754A1 (en) * | 2020-11-27 | 2024-01-04 | Sony Group Corporation | Imaging element, imaging method, and imaging device |
JP2022100908A (ja) | 2020-12-24 | 2022-07-06 | ゼタテクノロジーズ株式会社 | 固体撮像装置、固体撮像装置の信号処理方法、および電子機器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000050151A (ja) | 1998-07-28 | 2000-02-18 | Olympus Optical Co Ltd | 撮像装置 |
JP2007124137A (ja) * | 2005-10-26 | 2007-05-17 | Sony Corp | 撮像装置 |
JP2007214832A (ja) * | 2006-02-09 | 2007-08-23 | Sony Corp | 固体撮像装置 |
JP2011101180A (ja) * | 2009-11-05 | 2011-05-19 | Seiko Epson Corp | 画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3074967B2 (ja) * | 1992-10-27 | 2000-08-07 | 松下電器産業株式会社 | 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置 |
US7777804B2 (en) * | 2007-10-26 | 2010-08-17 | Omnivision Technologies, Inc. | High dynamic range sensor with reduced line memory for color interpolation |
US8324550B2 (en) * | 2010-06-22 | 2012-12-04 | Aptina Imaging Corporation | High dynamic range imaging systems |
-
2011
- 2011-07-14 JP JP2011155921A patent/JP2013021660A/ja not_active Abandoned
-
2012
- 2012-06-21 EP EP12812077.1A patent/EP2733927A1/en not_active Withdrawn
- 2012-06-21 BR BR112014000337A patent/BR112014000337A2/pt not_active IP Right Cessation
- 2012-06-21 RU RU2013157361/07A patent/RU2013157361A/ru not_active Application Discontinuation
- 2012-06-21 WO PCT/JP2012/065825 patent/WO2013008596A1/ja active Application Filing
- 2012-06-21 US US14/131,221 patent/US9344637B2/en active Active
- 2012-06-21 CN CN201280033811.0A patent/CN103650480A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000050151A (ja) | 1998-07-28 | 2000-02-18 | Olympus Optical Co Ltd | 撮像装置 |
JP2007124137A (ja) * | 2005-10-26 | 2007-05-17 | Sony Corp | 撮像装置 |
JP2007214832A (ja) * | 2006-02-09 | 2007-08-23 | Sony Corp | 固体撮像装置 |
JP2011101180A (ja) * | 2009-11-05 | 2011-05-19 | Seiko Epson Corp | 画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140362260A1 (en) * | 2013-06-06 | 2014-12-11 | Yibing M. WANG | Pixel arrays & imaging devices with reduced blooming, controllers & methods |
US9462202B2 (en) * | 2013-06-06 | 2016-10-04 | Samsung Electronics Co., Ltd. | Pixel arrays and imaging devices with reduced blooming, controllers and methods |
Also Published As
Publication number | Publication date |
---|---|
US9344637B2 (en) | 2016-05-17 |
JP2013021660A (ja) | 2013-01-31 |
RU2013157361A (ru) | 2015-06-27 |
EP2733927A1 (en) | 2014-05-21 |
US20140267828A1 (en) | 2014-09-18 |
BR112014000337A2 (pt) | 2017-02-14 |
CN103650480A (zh) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013008596A1 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
WO2012063634A1 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
US9288399B2 (en) | Image processing apparatus, image processing method, and program | |
US10110827B2 (en) | Imaging apparatus, signal processing method, and program | |
US9124809B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program | |
JP5085140B2 (ja) | 固体撮像装置 | |
WO2013145487A1 (ja) | 画像処理装置、撮像素子、および画像処理方法、並びにプログラム | |
JP4821921B2 (ja) | 固体撮像装置および電子機器 | |
JP4691930B2 (ja) | 物理情報取得方法および物理情報取得装置、並びに物理量分布検知の半導体装置、プログラム、および撮像モジュール | |
WO2015012121A1 (ja) | 撮像素子、撮像方法、並びにプログラム | |
WO2012114819A1 (ja) | 撮像装置、および撮像装置制御方法、並びにプログラム | |
KR20120102509A (ko) | 화상 처리 장치, 화상 처리 방법 및 프로그램 | |
JP2012235332A (ja) | 撮像装置、および撮像装置制御方法、並びにプログラム | |
JP4852321B2 (ja) | 撮像装置 | |
JP4501350B2 (ja) | 固体撮像装置および撮像装置 | |
US8218021B2 (en) | Image capture apparatus, method of controlling the same, and program | |
JP5612001B2 (ja) | 画像処理装置及び固体撮像装置 | |
JP2022119630A (ja) | 画像処理装置、画像処理方法、および撮像装置、ならびにそれらの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12812077 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012812077 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2013157361 Country of ref document: RU Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14131221 Country of ref document: US |
|
REG | Reference to national code |
Ref country code: BR Ref legal event code: B01A Ref document number: 112014000337 Country of ref document: BR |
|
ENP | Entry into the national phase |
Ref document number: 112014000337 Country of ref document: BR Kind code of ref document: A2 Effective date: 20140107 |