WO2023062873A1 - 撮像装置、および電子機器 - Google Patents

撮像装置、および電子機器 Download PDF

Info

Publication number
WO2023062873A1
WO2023062873A1 PCT/JP2022/024300 JP2022024300W WO2023062873A1 WO 2023062873 A1 WO2023062873 A1 WO 2023062873A1 JP 2022024300 W JP2022024300 W JP 2022024300W WO 2023062873 A1 WO2023062873 A1 WO 2023062873A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
pixel
unit
mode
conversion elements
Prior art date
Application number
PCT/JP2022/024300
Other languages
English (en)
French (fr)
Inventor
謙吾 梅田
晴久 永野川
知明 橋本
之康 立澤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023062873A1 publication Critical patent/WO2023062873A1/ja

Links

Images

Definitions

  • the present disclosure relates to imaging devices and electronic devices.
  • a pixel AD method imaging device that performs AD conversion for each pixel is known.
  • an AD conversion unit is provided for each pixel, the pixel size becomes large, making it difficult to miniaturize the pixels. Therefore, the development of an imaging device that performs AD conversion for each area in which a plurality of pixels share an AD conversion unit is being developed.
  • image distortion occurs due to the deviation of the readout time for each pixel.
  • the present disclosure provides an imaging device and an electronic device capable of suppressing image distortion while suppressing an increase in pixel size.
  • an imaging device including a plurality of pixel units,
  • the pixel unit is a plurality of photoelectric conversion elements; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; a first mode in which the charges photoelectrically converted by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; and a second mode in which charges generated by at least two of the plurality of photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • each of the plurality of photoelectric conversion elements is connected to the floating diffusion via a first transistor;
  • a vertical driver may be further provided for supplying a first control signal to connect or disconnect the first transistor.
  • the vertical drive section may further comprise a vertical drive section for providing two control signals for connecting or disconnecting the second transistor.
  • the vertical driving section may change the first control signal and the second control signal according to the mode setting signal.
  • Each of the plurality of photoelectric conversion elements may receive light in the same wavelength band.
  • Each of at least two photoelectric conversion elements of the plurality of photoelectric conversion elements may receive light via color filters of different colors.
  • At least one of the plurality of photoelectric conversion elements may be configured as a pixel in which a part of the light receiving section is shielded by a light shielding member.
  • Each of the plurality of photoelectric conversion elements may receive light via a lens arranged at a corresponding position.
  • At least two photoelectric conversion elements of the plurality of photoelectric conversion elements may receive light via one lens arranged at positions corresponding to the at least two photoelectric conversion elements.
  • the plurality of photoelectric conversion elements may have a first photoelectric conversion element made of silicon and a second photoelectric conversion element made of non-silicon.
  • the first photoelectric conversion element and the second photoelectric conversion element may be stacked, and the first photoelectric conversion element may receive light transmitted through the second photoelectric conversion element.
  • Light transmitted through a lens arranged at a position corresponding to the stacked first photoelectric conversion element and the second photoelectric conversion element may be received.
  • the vertical driving section may control the second transistors connected to each of the plurality of photoelectric conversion elements in chronological order from a non-connected state to a connected state.
  • the vertical drive unit may simultaneously control the second transistors connected to each of the plurality of photoelectric conversion elements from a non-connected state to a connected state.
  • the plurality of photoelectric conversion elements in the pixel unit include at least two photoelectric conversion elements that receive light through green filters, photoelectric conversion elements that receive light through red filters, and light through blue filters. having a photoelectric conversion element that a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; a first period in which the charge generated by the photoelectric conversion element that has received light through the red filter or the blue filter is transferred to the floating diffusion and converted by the analog-to-digital converter; and at least two periods in which the charge is received through the green filter. and a mode having a second period different from the first period in which charges generated by one or more photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • At least one of the plurality of photoelectric conversion elements in the pixel unit is configured as a pixel in which a portion of a light receiving portion is shielded by a light shielding member; a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; An electric charge generated by a photoelectric conversion element that receives light through the predetermined diaphragm is transferred to the floating diffusion, converted by the analog-to-digital conversion unit, and passed through the diaphragm among the plurality of photoelectric conversion elements. and a mode in which charges generated by a photoelectric conversion element different from the photoelectric conversion element that received the light are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit.
  • charges generated by at least two photoelectric conversion elements among the plurality of photoelectric conversion elements in the pixel unit are transferred to the floating diffusion during different periods, a mode in which the conversion period is different; Transferring an electric charge generated by one photoelectric conversion element out of the plurality of photoelectric conversion elements to the floating diffusion, converting it by the analog-to-digital conversion unit, and then photoelectrically converting two out of the plurality of photoelectric conversion elements. and a mode in which charges generated by the element are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • a plurality of first pixel units and a plurality of second pixel units are arranged, A first control signal supplied to the first pixel unit and a first control signal supplied to the second pixel unit are each connected to a vertical driving section, The imaging device is provided, wherein the vertical driving section changes a first control signal supplied to the first pixel unit and a first control signal supplied to the second pixel unit according to a mode setting signal. be.
  • the imaging device and a control unit that generates the mode setting signal in accordance with image data generated using the imaging device.
  • the control unit may generate the mode setting signal based on the degree of brightness of the subject based on the image data and the degree of motion of the subject.
  • the control unit may generate the mode setting signal based on the degree of movement of the subject.
  • a pixel array unit configured by a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that performs control to vary the timing of imaging the subject through the lens for each of the plurality of pixel groups, a fixed mode in which the position of the lens is fixed; and at least one of a movement mode in which the position of the lens is different for each of the different timings.
  • a phase difference detection unit that generates phase difference information based on the image signals of the plurality of phase difference pixels; an inference unit that infers the position of the lens in the next frame or the next subframe using the phase difference information; may be further provided.
  • the phase difference detection unit In the fixed mode, the phase difference detection unit generates time-series phase difference information based on the image signals of the plurality of phase difference pixels obtained for each of the plurality of pixel groups, The inference unit may infer the position of the lens in the next frame using the time-series phase difference information.
  • the control unit may move the lens to the position of the lens inferred by the inference unit based on the start of shooting of the next frame.
  • the control unit may cause the display unit to display the captured image obtained for each of the plurality of pixel groups.
  • control unit may select the captured image obtained for each of the plurality of pixel groups based on the instruction signal.
  • the control unit may cause the storage unit to store only the captured image selected from the captured images obtained for each of the plurality of pixel groups based on the instruction signal.
  • the pixel array unit is divided into rectangular regions, and pixels including the plurality of image plane phase difference pixels are arranged in a matrix,
  • the control unit may read image signals in parallel in a predetermined order from pixels in each rectangular area.
  • a plurality of image plane phase difference pixels are included in each of the rectangular regions, a phase difference detection unit that generates phase difference information based on image signals read out in a predetermined order for each of the rectangular regions; an inference unit capable of inferring the position of the lens according to the predetermined order using the phase difference information; may be further provided.
  • the pixel array unit has pixels including the plurality of image plane phase difference pixels arranged in a matrix, the pixel array unit is divided into rectangular regions, and a control unit that reads image signals in parallel in a predetermined order from pixels in each rectangular region; may be provided by an electronic device comprising
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit is a plurality of photoelectric conversion elements; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; and an analog-to-digital converter for converting a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal.
  • a first mode in which the charges photoelectrically converted by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; and a second mode in which charges generated by at least two of the plurality of photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; a first mode in which the charges photoelectrically converted by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; and a second mode in which charges generated by at least two of the plurality of photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; receiving light through one on-chip lens arranged at a position corresponding to at least two photoelectric conversion elements among the plurality of photoelectric conversion elements in the pixel unit; a mode in which the charges generated by the two photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; and a mode in which charges generated by the two photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; receiving light through one on-chip lens arranged at positions corresponding to at least four photoelectric conversion elements among the plurality of photoelectric conversion elements in the pixel unit; a mode in which the charges generated by the four photoelectric conversion elements are transferred to the floating diffusion during different periods, and the conversion period by the analog-to-digital conversion unit is changed according to the different periods; a mode in which charges generated by two photoelectric conversion elements out of the four photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit; and a mode in which charges generated by the four photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; at least one of the plurality of photoelectric conversion elements in the pixel unit is configured as a pixel in which a portion of a light receiving portion is shielded by a light shielding member; a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; An electric charge generated by a photoelectric conversion element that receives light through the predetermined diaphragm is transferred to the floating diffusion, converted by the analog-to-digital conversion unit, and passed through the diaphragm among the
  • a pixel array unit composed of a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that controls different timings for capturing an image of an object through a lens for each of the plurality of pixel groups; a phase difference detection unit that generates time-series phase difference information based on the image signals of the plurality of phase difference pixels obtained for each of the plurality of pixel groups; an inference unit that infers the position of the lens in the next frame using the time-series phase difference information;
  • An electronic device is provided.
  • a pixel array unit composed of a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that performs control to vary the timing of imaging the subject through the lens for each of the plurality of pixel groups,
  • An electronic device is provided in which the control unit changes the position of the lens for each of the plurality of pixel groups.
  • FIG. 2 is a block diagram showing the configuration of an example of an electronic device;
  • FIG. 2 is a diagram showing a configuration example of an imaging device;
  • FIG. 4 is a diagram showing a configuration example of a horizontal control unit;
  • FIG. 2 is a block diagram showing a configuration example of a pixel unit;
  • FIG. 3 is a block diagram showing a circuit configuration example of a unit;
  • FIG. 4 is a diagram showing a configuration example of a unit in which one on-chip lens is arranged for one pixel;
  • FIG. 4 is a diagram showing a configuration example of a unit in which an on-chip lens is arranged in an image plane phase pixel;
  • FIG. 4 is a diagram showing a configuration example of a unit in which one on-chip lens 2 is arranged for four pixels;
  • FIG. 4 is a diagram showing a configuration example of a unit in which one on-chip lens is arranged for two pixels;
  • FIG. 4 is a diagram showing a configuration example of a unit in which color filters in a Bayer array are arranged;
  • FIG. 3 is a diagram showing a configuration example of a Bayer array unit including image plane phase pixels;
  • FIG. 4 is a diagram showing a configuration example of a unit in which one on-chip lens is arranged for two pixels;
  • FIG. 4 is a diagram showing a configuration example of a unit in which color filters in a Bayer array are arranged;
  • FIG. 3 is a diagram showing a configuration example of a Bayer array unit including image plane phase pixels;
  • 4 is a diagram showing a configuration example of a Bayer array unit including image plane phase pixels with different phase directions; 4 is a time chart showing an example of control in mode 1; 4 is a time chart showing an example of control in mode 2; 4 is a flow chart showing an example of control in mode 1 and mode 2; 4 is a flow chart showing a control example having a low distortion mode; 4 is a flow chart showing an example of control with a Bayer array low distortion mode.
  • 6 is a flow chart showing an example of control using a unit in which one on-chip lens is arranged; 5 is a flowchart showing an example of control using a unit in which image plane phase difference pixels are arranged; 4 is a flowchart showing an example of control with an HDR mode; FIG.
  • FIG. 7 is a block diagram showing a configuration example of a pixel unit according to the second embodiment;
  • FIG. 21B is a block diagram showing another configuration example of the pixel unit according to FIG. 21A;
  • FIG. 7 is a diagram showing an example of combination of the units shown in FIG. 6;
  • FIG. 7 is a diagram showing an example of a combination of a unit (FIG. 7) and a unit (FIG. 6); The figure which shows the example of the combination of a unit (FIG. 8) and a unit (FIG. 6).
  • FIG. 9 is a diagram showing an example of a combination of a unit (FIG. 9) and a unit (FIG. 6);
  • FIG. 9 is a diagram showing an example of a combination of the units shown in FIG. 8;
  • FIG. 9 is a diagram showing an example of a combination of the units shown in FIG. 8;
  • FIG. 9 is a diagram showing an example of a combination of the units shown in FIG. 8;
  • FIG. 11 is a diagram showing an example of combination of the units shown in FIG. 10;
  • FIG. 7 is a diagram showing an example of a combination of a unit (FIG. 7) and a unit (FIG. 10);
  • 4 is a time chart showing an example of control in mode n;
  • 4 is a time chart showing an example of control in mode m;
  • FIG. 11 is a block diagram showing a configuration example of a pixel unit according to the third embodiment;
  • FIG. 11 is a block diagram showing an example of arrangement of units according to the third embodiment;
  • 9 is a flow chart showing an example of control using a unit according to the third embodiment;
  • FIG. 9 is a diagram showing an example of a pixel array section in which units (FIG.
  • FIG. 10 is a table showing an example of mode determination when the brightness of the subject is bright and the degree of motion is high;
  • FIG. 10 is a table showing an example of mode determination when the brightness of the subject is dark and the degree of motion is high;
  • FIG. 10 is a table showing an example of mode determination when the brightness of the subject is bright and the degree of motion is low;
  • FIG. 10 is a table showing an example of mode determination when the brightness of the subject is bright and the degree of motion is low;
  • FIG. 10 is a table showing an example of mode determination when the brightness of the subject is dark and the degree of motion is low;
  • the block diagram which shows the structure of an example of the electronic device which concerns on 5th Embodiment.
  • FIG. 11 is a diagram showing an example of driving the electronic device in the third mode;
  • FIG. 11 is a diagram showing an example of driving the electronic device in the fourth mode;
  • FIG. 11 is a diagram showing an operation example of cluster reading;
  • FIG. 4 is a diagram showing an arrangement example of image plane phase pixels in a pixel circuit;
  • FIG. 10 is a diagram showing an example of an imaging operation of a comparative example
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 2 is an explanatory diagram showing an example of installation positions of an information detection unit outside the vehicle and an imaging unit;
  • an imaging device and an electronic device will be described below with reference to the drawings.
  • the main components of the imaging device and the electronic device will be mainly described, but the imaging device and the electronic device may have components and functions that are not shown or described.
  • the following description does not exclude components or features not shown or described.
  • FIG. 1 is a block diagram showing an example configuration of an electronic device 1 commonly applicable to each embodiment.
  • the electronic device 1 includes an optical system 2, a control unit 3, an imaging device 4, an image processing unit 5, a memory 6, a storage unit 7, a display unit 80, an interface (I/F) and an input device 12 .
  • the electronic device 1 a digital still camera, a digital video camera, a mobile phone with an imaging function, a smart phone, or the like can be applied. Also, as the electronic device 1, it is possible to apply a monitoring camera, an in-vehicle camera, a medical camera, and the like.
  • the imaging device 4 includes a plurality of photoelectric conversion elements arranged in a matrix, for example.
  • a photoelectric conversion element converts received light into an electric charge by photoelectric conversion. Details of the imaging device 4 will be described later.
  • the optical system 2 includes a main lens made up of a combination of one or more lenses, and a mechanism for driving the main lens. is imaged on the light-receiving surface of The optical system 2 also includes an autofocus mechanism that adjusts focus in accordance with a control signal and a zoom mechanism that changes a zoom ratio in accordance with a control signal.
  • the electronic device 1 may have the optical system 2 detachable so that it can be replaced with another optical system 2 .
  • the optical system 2 may include an on-chip lens of the imaging device 4 .
  • the image processing unit 5 performs predetermined image processing on the image data output from the imaging device 4 .
  • the image processing unit 5 is connected to a memory 6 such as a frame memory, and writes image data output from the imaging device 4 into the memory 6 .
  • the image processing unit 5 performs predetermined image processing on the image data written in the memory 6 and writes the processed image data back into the memory 6 .
  • the storage unit 7 is a nonvolatile memory such as a flash memory or a hard disk drive, and stores the image data output from the image processing unit 5 in a nonvolatile manner.
  • the display unit 80 includes a display device such as an LCD (Liquid Crystal Display) and a drive circuit that drives the display device, and can display an image based on image data output from the image processing unit 5 .
  • the I/F section 9 is an interface for transmitting the image data output from the image processing section 5 to the outside. As the I/F section 9, for example, a USB (Universal Serial Bus) can be applied.
  • the I/F unit 9 is not limited to this, and may be an interface that can be connected to a network through wired communication or wireless communication.
  • the input device 12 includes operators and the like for receiving user input. If the electronic device 1 is, for example, a digital still camera, a digital video camera, a mobile phone with an imaging function, or a smart phone, the input device 12 is a shutter button for instructing imaging by the imaging device 4, or has the function of a shutter button. It can contain manipulators for implementation.
  • the control unit 3 includes a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). It controls the overall operation of the electronic device 1 .
  • the control unit 3 can control the operation of the electronic device 1 according to user input received by the input device 12 .
  • the control section 3 can control the autofocus mechanism in the optical system 2 based on the image processing result of the image processing section 5 .
  • the control unit 3 can set the driving mode of the imaging device 4 based on the image data output from the imaging device 4 .
  • the drive mode may be simply referred to as a mode.
  • FIG. 2 is a diagram showing a configuration example of the imaging device 4 according to the embodiment of the present technology.
  • the imaging device 4 includes a pixel array section 10 , a time code generation section 20 , a reference signal generation section 30 , a vertical drive section 40 and a horizontal control section 50 .
  • a plurality of pixel units 100 are arranged in the pixel array section 10 to generate image signals.
  • the pixel array section 10 is composed of pixel units 100 arranged in a two-dimensional matrix for generating image signals and a plurality of time code transfer sections 400 arranged between pixel columns.
  • the pixel unit 100 has a plurality of pixels 140 (see FIG. 4 described later). Furthermore, the plurality of pixels 140 are arranged in a two-dimensional matrix.
  • the pixel unit 100 performs photoelectric conversion to generate an analog image signal, and performs analog-to-digital conversion on the analog image signal. After that, the pixel unit 100 outputs a time code, which will be described later, as a result of analog-to-digital conversion.
  • the time code transfer unit 400 transfers this time code.
  • a signal line 101 is a signal line that connects the pixel unit 100 and the time code transfer section 400 . Details of the pixel unit 100 will be described later.
  • the time code generation unit 20 generates a time code and outputs it to the time code transfer unit 400 .
  • the time code is a code indicating elapsed time from the start of analog-to-digital conversion in the pixel unit 100 .
  • This time code has a size equal to the number of bits of the digital image signal after conversion, and can use, for example, a Gray code.
  • the time code is output to the time code transfer section 400 via the signal line 21 .
  • the reference signal generation unit 30 generates a reference signal and outputs it to the pixel unit 100 .
  • This reference signal is a reference signal for analog-to-digital conversion in the pixel unit 100, and for example, a signal whose voltage drops in a ramp shape can be used.
  • This reference signal is output via the signal line 31 .
  • the generation and output of the time code by the time code generator 20 are executed in synchronization with the generation and output of the reference signal by the reference signal generator 30 .
  • the time code and the reference signal output from the time code generating section 20 and the reference signal generating section 30 correspond one-to-one, and the voltage of the reference signal can be obtained from the time code.
  • a time code decoding unit 52 which will be described later, performs decoding by acquiring the voltage of the reference signal from the time code.
  • the vertical driving section 40 generates and outputs control signals and the like for the pixel units 100 .
  • This control signal is output to the pixel unit 100 via the signal line 41 .
  • the vertical driving section 40 changes the control signal according to the driving mode supplied from the control section 3 .
  • the horizontal control unit 50 processes the time code transferred by the time code transfer unit 400 .
  • the time code is input to the horizontal control section 50 via the signal line 11 .
  • FIG. 3 is a diagram showing a configuration example of the horizontal control unit 50 according to the embodiment of the present technology.
  • the horizontal controller 50 includes a time code decoder 52 , a column signal processor 53 and a clock signal generator 54 .
  • the time code decoding unit 52 decodes the time code. This decoding produces a digital image signal that is the result of analog-to-digital conversion.
  • a plurality of time code decoding units 52 are arranged in the horizontal control unit 50 and correspond to the time code transfer units 400 arranged in the pixel array unit 10 on a one-to-one basis. Time codes are simultaneously input to these time code decoding units 52 from the corresponding time code transfer units 400 . Decoding of the input time code is performed concurrently by these time code decoding units 52 . After that, the plurality of decoded digital image signals are input to the column signal processing section 53 .
  • the column signal processing section 53 processes the digital image signal output by the time code decoding section 52 . As this processing, it is possible to perform correlated double sampling (CDS).
  • CDS correlated double sampling
  • the column signal processing unit 53 also horizontally transfers the processed digital image signal. This sequentially transfers and outputs processed image signals corresponding to the plurality of digital image signals simultaneously input by the plurality of time code decoders 52 .
  • the image signal output from the column signal processing unit 53 corresponds to the output image signal of the imaging device 4 .
  • FIG. 4 is a block diagram showing a configuration example of the pixel unit 100.
  • the pixel unit 100 has an AD conversion section 190 and a unit 200 .
  • the AD converter 190 analog-digital converts the analog image signal generated by the unit 200 .
  • the analog-to-digital conversion section (AD conversion section) 190 includes a comparison section 150 , a comparison output processing section 160 and a conversion result holding section 170 .
  • the unit 200 has a plurality of pixels 140 and a floating diffusion (floating diffusion layer) FD connected to the plurality of pixels 140 .
  • the analog-to-digital conversion section 190 and the unit 200 are stacked.
  • the floating diffusion FD one of the plurality of analog image signals output from the plurality of pixels 140 or the charge corresponding to the sum of the plurality of analog image signals is accumulated. That is, the voltage of the floating diffusion FD corresponds to one of the plurality of analog image signals or the sum of the plurality of analog image signals. Therefore, in the following description, the voltage of the floating diffusion FD may be referred to as an analog image signal.
  • the floating diffusion (floating diffusion layer) FD according to the present embodiment corresponds to the electricity storage section.
  • the analog-to-digital converter 190 analog-to-digital converts analog image signals generated by the plurality of pixels 140 and the like.
  • the analog-to-digital conversion section 190 includes a comparison section 150 , a comparison output processing section 160 and a conversion result holding section 170 . Since the analog-to-digital conversion section 190 is configured in the pixel array section 10, it becomes possible to AD-convert the voltage of the floating diffusion FD at a higher speed. In addition, since one analog-to-digital converter 190 is configured for the unit 200, the volume of the pixel array section 10 can be made smaller than when each pixel 140 is configured.
  • the comparator 150 compares the reference signal RAMP generated by the reference signal generator 30 and the voltage of the floating diffusion FD. A comparison result is output to the comparison output processing unit 160 . That is, the comparison unit 150 compares one of the plurality of analog image signals output from the pixels 140 or the like, or the sum of the plurality of analog image signals, with the reference signal. This comparison result is output as an electrical signal. For example, when the voltage of the analog image signal is smaller than the voltage of the reference signal, the value "1" is output, and when the voltage of the analog image signal is greater than the voltage of the reference signal, the value "0" is output.
  • the comparison output processing unit 160 processes the comparison result output by the comparison unit 150 and outputs the processed comparison result to the conversion result holding unit 170 .
  • the processed comparison result is output to the conversion result holding unit 170 .
  • this processing for example, level conversion and waveform shaping can be performed.
  • the conversion result holding unit 170 holds the time code output from the time code transfer unit 400 based on the processed comparison result output from the comparison output processing unit 160 as the analog-to-digital conversion result.
  • the conversion result holding unit 170 holds the time code output from the time code transfer unit 400 when the comparison result changes from "1" to "0", for example.
  • the time code at this time is the time code generated by the time code generation unit 20 and transferred to the pixels 140 by the time code transfer unit 400 .
  • the conversion result holding section 170 outputs the held time code to the time code transfer section 400 under the control of the vertical driving section 40 .
  • the time code transfer section 400 transfers the output time code to the time code decoding section 52 of the horizontal control section 50 .
  • the conversion result holding unit 170 uses a signal that ramps from a high voltage to a low voltage as the reference signal RAMP. Holds the time code. That is, the conversion result holding unit 170 holds the time code when the analog image signal and the reference signal are approximately equal. The held time code is converted into a digital signal representing the voltage of the reference signal at the corresponding time in the time code decoder 52 (see FIG. 3). This allows analog-to-digital conversion of analog image signals generated by the pixels 140 and the like.
  • FIG. 5 is a block diagram showing a circuit configuration example of the unit 200.
  • the unit 200 has a plurality of pixels 140 connected to a node nf. That is, the unit 200 includes a plurality of photoelectric conversion elements PD_A, PD_B, PD_C, and PD_D, a plurality of overflow gate transistors TR1, a plurality of charge transfer transistors TR2, and a floating diffusion FD (indicated by the symbol of a capacitor in the drawing).
  • the overflow gate transistor TR1 and the charge transfer transistor TR2 are, for example, N-channel MOS transistors.
  • pixels 140 having a plurality of photoelectric conversion elements PD_A, PD_B, PD_C, and PD_D may be referred to as Pixel A, Pixel B, Pixel C, and Pixel D (see later-described FIG. 13).
  • the overflow gate transistor TR1 according to this embodiment corresponds to the first transistor, and the charge transfer transistor TR2 according to this embodiment corresponds to the second transistor.
  • the drain of the overflow gate transistor TR1 is applied with the power supply voltage VOFG, and the source is connected to the cathode of the photoelectric conversion element PD_A.
  • the anode of photoelectric conversion element PD_A is grounded.
  • the source of the charge transfer transistor TR2 is connected to the cathode of the photoelectric conversion element PD_A, and the drain is connected to the node nf.
  • One end of the floating diffusion FD is connected to the node nf.
  • the other end of the floating diffusion FD is grounded.
  • the node nf is connected to the inverting terminal of the comparator 150 .
  • a reference signal RAMP is input to the non-inverting terminal of the comparator 150 .
  • a signal line Ofga is connected to the gate of the overflow gate transistor TR1, and a control signal OFG_A is supplied.
  • the overflow gate transistor TR1 becomes conductive when the control signal OFG_A is at high level, and becomes non-conductive when it is at low level.
  • a signal line Trga is connected to the gate of the charge transfer transistor TR2 to supply a control signal TRG_A. , the charge transfer transistor TR2 becomes conductive when the control signal TRG_A is at high level, and becomes non-conductive when it is at low level.
  • the photoelectric conversion element PD_A generates charges according to the amount of light irradiated and retains the generated charges.
  • a photodiode for example, can be used for the photoelectric conversion element PD_A.
  • the overflow gate transistor TR1 discharges charges excessively generated in the photoelectric conversion element PD_A. Also, the overflow gate transistor TR1 discharges the charge accumulated in the photoelectric conversion element PD_A when it is in a conductive state.
  • the charge transfer transistor TR2 transfers charges generated by the photoelectric conversion element PD_A to the floating diffusion FD. That is, the charge transfer transistor TR2 transfers charges by conducting between the photoelectric conversion element PD_A and the floating diffusion FD.
  • the signal corresponding to the charge held in the floating diffusion FD corresponds to the analog image signal generated by the photoelectric conversion element PD_A, and is output to the comparison section 150.
  • the pixel 140 is connected to a plurality of signal lines (Ofga, Trga) and supplied with the control signals OFG_A and TRG_A.
  • other pixels 140 have similar configurations. That is, each of the other pixels 140 is also connected to a plurality of signal lines (Ofg, Trg) and supplied with control signals OFG_B, TRG_B, OFG_C, TRG_C, OFG_D, and TRG_D.
  • the pixel unit 100 has four pixels 140, but is not limited to this.
  • the number of pixels 140 may be eight, as described below. Further, the number of pixels 140 may be 16, 32, and so on.
  • FIG. 200 A configuration example of the unit 200 will be described with reference to FIGS. 6 to 12.
  • FIG. Various on-chip lenses, filters, and the like can be arranged in the unit 200 .
  • the filters according to the present embodiment will be described using a color filter as an example, but the filter is not limited to this, and a polarizing filter or the like may be arranged.
  • FIG. 6 is a diagram showing a configuration example of a unit 200a in which one on-chip lens 300 is arranged for one pixel 140.
  • FIG. 6 As shown in FIG. 6, one on-chip lens 300 is provided for each pixel 140 in the unit 200a.
  • the on-chip lens 300 can condense light incident on the photoelectric conversion portion of the photoelectric conversion element of the pixel 140 via the optical system 2 (see FIG. 1).
  • FIG. 7 is a diagram showing a configuration example of a unit 200b in which an on-chip lens 300 is arranged in each of the 3-pixel 140 and the image plane phase pixel 10a.
  • an on-chip lens 300 is provided for each pixel 140 and image plane phase pixel (ZAF pixel) 10a.
  • the image plane phase pixel 10a has, for example, a slit-shaped diaphragm arranged in the light receiving portion, and the range through which the incident light is transmitted is restricted. That is, the image plane phase pixel 10a is configured as a pixel in which a part of the light receiving portion is shielded by the light shielding member.
  • the on-chip lens 300 can focus light on the photoelectric conversion portion of the photoelectric conversion element in the pixel 140 .
  • the image plane phase information of the electronic device 1 can be obtained from the image plane pixels 10a, and the electronic device 1 can be autofocused.
  • FIG. 8 is a diagram showing a configuration example of a unit 200c in which one on-chip lens 302 is arranged for four pixels 140.
  • FIG. 8 in the unit 200 c , one on-chip lens 302 is provided for four pixels 140 .
  • the on-chip lens 302 can focus light on the photoelectric conversion units of the photoelectric conversion elements of the four pixels 140 .
  • image plane phase information by simultaneously adding pixel signals for two horizontal pixels at a time.
  • the accuracy of the image plane phase information of the image plane phase pixel 140a is higher when it is bright, and the accuracy of the image plane phase information of the unit 200c is higher when it is dark.
  • FIG. 9 is a diagram showing a configuration example of a unit 200d in which one on-chip lens 304 is arranged for two pixels 140.
  • FIG. 9 in the unit 200d, one on-chip lens 304 is provided for every two pixels. Accordingly, the combination of the two pixels 140 of the unit 200d can detect the image plane phase difference. Thereby, it is possible to obtain information on the focus state of the electronic device 1, and autofocus becomes possible.
  • the accuracy of the image plane phase information of the unit 200d increases, for example, when it is dark. In this way, it is possible to selectively use the image plane phase information of each of the image plane phase pixels 10a (see FIG. 7), the unit 200c, and the unit 200d according to, for example, the brightness of the subject.
  • FIG. 10 is a diagram showing a configuration example of a unit 200e in which color filters R, G, and B arranged in a Bayer arrangement are arranged.
  • reference R indicates a pixel 140 for receiving red light
  • G indicates a pixel 140 for receiving green light
  • B indicates a color filter B for blue light.
  • a pixel 140 receiving light is shown.
  • Color imaging is possible with the unit 200e.
  • a pixel provided with the color filter R may be referred to as a red pixel
  • a pixel provided with the color filter G may be referred to as a green pixel
  • a pixel provided with the color filter B may be referred to as a blue pixel.
  • FIG. 11 is a diagram showing a configuration example of a Bayer array unit 200f including the image plane phase pixels 10a.
  • FIG. 12 is a diagram showing a configuration example of a Bayer array unit 200g including an image plane phase pixel 10c whose phase direction is different from that in FIG.
  • the units 200f and 200g are capable of color imaging. Further, the units 200f and 200g are capable of detecting an image plane phase difference.
  • FIG. 13 The driving mode of the imaging device 4 is set by changing the control signals OFG_A to OFG_D and TRG_A to TRG_D according to the control signals from the control unit 3 (see FIG. 1) as described above.
  • FIG. 13 is a time chart showing an example of mode 1 control.
  • the horizontal axis indicates time.
  • Pixel A, Pixel B, Pixel C, and Pixel D represent the pixels 140 that make up the unit 200 .
  • Control signals OFG_A to OFG_D indicate gate signals of the overflow gate transistor TR1 (see FIG. 5), and control signals TRG_A to TRG_D indicate gate signals of the charge transfer transistor TR2.
  • the mode setting signal MODE supplied from the control unit 3 indicates mode 1 when it is low, and indicates mode 2 when it is high, for example.
  • the control signal OFG_A becomes high level, and the photoelectric conversion element PD_A (see FIG. 4) of Pixel A is reset. Subsequently, the control signal OFG_A becomes low level, and the photoelectric conversion period t EXT_A by the photoelectric conversion element PD_A is started.
  • each AD conversion period t ADCT_A to t ADCT_D corresponds to one AD period, and four AD periods correspond to one frame.
  • the photoelectric conversion periods t EXT_A to t EXT_D of the pixels 140 forming the unit 200 are shifted in time series. Then, in conjunction with the photoelectric conversion periods t EXT_A to t EXT_D , the AD conversion periods t ADCT_A to t ADCT_D are executed in a time-sequential manner so that they do not overlap as described above.
  • the accumulated charge of each pixel Pixel A, Pixel B, Pixel C, and Pixel D is converted into a digital image signal.
  • mode 1 it is possible to capture a high-resolution image.
  • a mode in which accumulated charges for each of pixels Pixel A, Pixel B, Pixel C, and Pixel D are converted into digital image signals may be referred to as a high resolution mode.
  • FIG. 14 is a time chart showing an example of mode 2 control.
  • the horizontal axis indicates time.
  • Pixel A, Pixel B, Pixel C, and Pixel D indicate each pixel 140 forming the unit 200 .
  • Control signals OFG_A to OFG_D indicate gate signals of the overflow gate transistor TR1 (see FIG. 5), and control signals OFG_A to OFG_D indicate gate signals of the charge transfer transistor TR2.
  • the mode setting signal MODE indicates mode 1 when it is low, and indicates mode 2 when it is high.
  • Mode 2 is an example corresponding to the global shutter method in which all the pixels 140 included in the pixel array section 10 are simultaneously driven to the exposed state.
  • each AD conversion period t ADCT_A to t ADCT_D corresponds to one AD period, and in mode 2, one AD period corresponds to one frame.
  • the floating diffusion FD (see FIG. 4) is reset, and AD conversion periods t ADCT_A to t ADCT_D of Pixel A to Pixel D are started at the same time.
  • the control signals TRG_A to TRG_G go high at the same time, the charges accumulated in the photoelectric conversion elements PD_A to PD_DA of Pixel A to Pixel D are transferred to the floating diffusion FD at the same time, and the photoelectric conversion periods t EXT_A to t EXT_D end at the same time.
  • the AD conversion periods t ADCT_A to t ADCT_D end simultaneously.
  • FIG. 15 to 20 illustrate an example of controlling the mode by a mode selection signal from the input device 12 in the electronic device 1 (see FIG. 1), but the present invention is not limited to this.
  • the control section 3 can also set the mode based on the image data of the imaging device 4 .
  • FIG. 15 is a flow chart showing an example of control in mode 1 and mode 2.
  • mode 2 is a control example of global shutter (GS) photography.
  • GS global shutter
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether it is GS imaging based on the input (step S100).
  • the control unit 3 starts the control shown in FIG. 13 as mode 1, for example. That is, first, photoelectric conversion by exposure of Pixel A, reading, and AD conversion are performed (step S102). Next, photoelectric conversion by exposure of Pixel B, reading, and AD conversion are performed (step S104). Next, photoelectric conversion by exposure of Pixel C, reading, and AD conversion are performed (step S106). Next, photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed (step S108).
  • control unit 3 determines that global shutter photography is performed (YES in step S100)
  • the control unit 3 starts the control shown in FIG. 14 as mode 2, for example. That is, photoelectric conversion by exposure of Pixel A to Pixel D is performed at the same time, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S110).
  • mode 2 for example. That is, photoelectric conversion by exposure of Pixel A to Pixel D is performed at the same time, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S110).
  • high-resolution photography in mode 1 and GS photography can be performed under the control of the control unit 3.
  • FIG. 16 is a flow chart showing a control example with a low distortion mode. As shown in FIG. 16, mode 2 is an example corresponding to the low distortion mode. Here, an example using the unit 200a (see FIG. 6) will be described.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not it is in the low distortion mode based on the input (step S200).
  • the control unit 3 executes control steps S102 to S108 shown in FIG. 15 as mode 1, for example.
  • mode 1 high-resolution imaging is possible.
  • the control unit 3 determines that the low-distortion mode is set (YES in step S200)
  • the control unit 3, as mode 2 first performs photoelectric conversion by exposure of Pixel A and Pixel D at the same time. Data is read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S202).
  • pixel B and pixel C are subjected to photoelectric conversion by exposure at the same time, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S204). In this way, in the low distortion mode, an image is captured every two pixels of the unit 202a.
  • FIG. 17 is a flowchart showing a control example having a low distortion mode when using the Bayer array unit 200e (see FIG. 10). As shown in FIG. 17, mode 2 is an example corresponding to the low distortion mode.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not it is in the low distortion mode based on the input (step S300).
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion to generate a red signal as mode 1 (step S302 ).
  • photoelectric conversion by exposure of Pixel B, reading, and AD conversion are performed to generate a green signal (step S304).
  • photoelectric conversion by exposure of Pixel C, reading, and AD conversion are performed to generate a green signal (step S306).
  • photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed to generate a blue signal (step S308).
  • mode 1 high-resolution imaging is possible.
  • the control unit 3 determines that the mode is the low distortion mode (YES in step S300)
  • the control unit 3 sets Mode 2 as mode 2 by performing photoelectric conversion, readout, and AD conversion by exposing Pixel A.
  • a signal is generated (step S310).
  • photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed to generate a blue signal (step S312).
  • photoelectric conversion is performed simultaneously by exposing Pixel B and Pixel C, reading is performed simultaneously on the floating diffusion FD (see FIG. 4), AD conversion is performed based on the potential of the floating diffusion FD, and a green signal is generated (step S314).
  • the low-distortion mode of the Bayer array since two green pixels in the unit 200e are simultaneously imaged, it is possible to perform imaging with less distortion than in mode 1.
  • FIG. 18 is a flow chart showing a control example using the unit 200c (see FIG. 8) in which one on-chip lens is arranged for four pixels.
  • mode 1 corresponds to AF mode 1
  • mode 2 corresponds to AF mode 2
  • mode 3 corresponds to AF mode 3
  • mode 4 corresponds to GS mode.
  • the unit 200c can be driven in four modes.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not it is the GS mode based on the input (step S400). If it is determined that the mode is not the GS mode (NO in step S400), it is further determined whether or not it is the AF mode 2 (step S402).
  • the control unit 3 sets mode 1 and first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion (step S404). Next, photoelectric conversion by exposure of Pixel B, reading, and AD conversion are performed (step S406). Next, photoelectric conversion by exposure of Pixel C, reading, and AD conversion are performed (step S408). Next, photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed (step S410).
  • AF mode 1 corresponds to the high resolution mode.
  • control unit 3 determines whether or not it is the AF mode 3 (step S412).
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A and Pixel C at the same time as mode 2, and simultaneously performs floating diffusion FD (see FIG. 4). Reading and AD conversion are performed based on the potential of the floating diffusion FD (step S414).
  • pixel B and pixel D are subjected to photoelectric conversion by exposure at the same time, read to the floating diffusion FD (see FIG. 4) at the same time, and AD conversion is performed based on the potential of the floating diffusion FD (step S416). In this way, in AF mode 2, it is possible to obtain image plane phase information from two vertical pixels.
  • control unit 3 determines that the AF mode is AF mode 3 (YES in step S412)
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A and Pixel B at the same time as mode 3, and simultaneously Data is read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S418).
  • pixel B and pixel D are subjected to photoelectric conversion by exposure at the same time, readout to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S420). In this way, in AF mode 3, it is possible to obtain image plane phase information by two horizontal pixels.
  • the control unit 3 when determining that the control unit 3 is in the GS mode (YES in step S400), the control unit 3 performs photoelectric conversion by exposure of Pixel A to Pixel D at the same time, and simultaneously performs the floating diffusion FD (see FIG. 4) in this way.
  • the unit 200c there are a mode (AF mode 1) in which four pixels are AD-converted four times, and modes 2 and 3 (AF mode 2) in which two left and right pixels are added together by a floating diffusion FD and AD-converted twice. , AF mode 3).
  • Mode 1 is non-GS (Global Shutter) but enables high-resolution photography.
  • modes 2 and 3 it is possible to detect the phase difference at high speed, and it is possible to perform AF (Auto Focus) processing at high speed.
  • mode 4 GS imaging is possible, and images with low distortion can be captured.
  • FIG. 19 is a flow chart showing a control example using the unit 200b (see FIG. 7) in which the A pixels are of the same color and the image plane phase difference pixels (ZAF pixels) are arranged. As shown in FIG. 19, mode 1 corresponds to AF mode, and mode 2 corresponds to AF/GS mode.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not the AF/GS mode is selected based on the input. (Step S500).
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion as mode 1 (step S502).
  • photoelectric conversion by exposure of Pixel B, reading, and AD conversion are performed (step S504).
  • photoelectric conversion by exposure of Pixel C, reading, and AD conversion are performed (step S506).
  • photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed (step S508).
  • mode 1 corresponds to the high resolution mode.
  • control unit 3 determines that it is in the AF/GS mode (YES in step S500)
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion as mode 2. (step S510).
  • the control unit 3 simultaneously performs photoelectric conversion by exposure of Pixel B, Pixel C, and Pixel D, simultaneously reads out to the floating diffusion FD (see FIG. 4), and performs AD conversion based on the potential of the floating diffusion FD (step S512).
  • mode 1 it is possible to AD-convert four pixels four times to obtain an image signal for each pixel.
  • mode 2 three pixels other than the image plane phase difference pixels are added by the floating diffusion FD and AD-converted. Further, in mode 2, it is possible to AD-convert only the image plane phase difference pixels to obtain image signals of the image plane phase difference pixels.
  • mode 1 is non-GS imaging, high-resolution imaging is possible, and mode 2 enables simultaneous realization of GS mode in which distortion is suppressed and phase difference detection by image plane phase difference pixels.
  • FIG. 20 is a flowchart showing an example of control in HDR (High Dynamic Range) mode using the unit 200c (see FIG. 8) in which one on-chip lens is arranged for four pixels. As shown in FIG. 20, mode 2 corresponds to HDR mode 2.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not it is the HDR mode based on the input (step S600).
  • the control unit 3 performs the processing of steps S404 to S410 shown in FIG. 18 as mode 1.
  • step S602 the control unit 3 first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion as mode 2 (step S602).
  • step S602 pixel A and pixel B are simultaneously subjected to photoelectric conversion by exposure, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S604).
  • step S606 pixel A, pixel B, and pixel C are simultaneously subjected to photoelectric conversion by exposure, readout to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S606).
  • photoelectric conversion by exposure of Pixel A to Pixel D is performed simultaneously, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S608).
  • one image signal is generated without FD addition, and then image signals of two pixels are added by floating diffusion FD to generate an image signal. Further, the image signals of three pixels are added by the floating diffusion FD to generate an image signal, and the image signals of four pixels are added by the floating diffusion FD to generate an image signal. Since the sensitivity to low luminance increases as the number of pixels to be added increases, it is possible to obtain image signals with different dynamic ranges. Therefore, by adding each image signal, it is possible to obtain an image signal with a high dynamic range. For example, the addition of each image signal can be performed by the image processing unit 5 . In this way, in mode 2, the HDR (High Dynamic Range) function of synthesizing image signals with the number of pixels changed from 4 pixels can be executed.
  • the HDR High Dynamic Range
  • one floating diffusion FD and the AD converter 190 are configured for the plurality of pixels 140, and the analog image of the plurality of pixels 140 is A high-resolution mode in which the AD conversion periods t ADCT_A to t ADCT_D of the signal AD conversion unit 190 are shifted, and the analog image signals of at least two pixels among the plurality of pixels 140 are added by the floating diffusion FD, and the AD conversion unit It has a low distortion mode that performs AD conversion by 190. Accordingly, in the high resolution mode, image data having a resolution corresponding to each of the plurality of pixels 140 can be generated. On the other hand, in the low-distortion mode, since the analog image signals of at least two pixels are combined, it is possible to generate image data in which the image distortion due to the imaging time lag in each pixel is suppressed.
  • the electronic device 1 according to the second embodiment is similar to the electronic device 1 according to the first embodiment in that the pixel units of the imaging device 4 are composed of a plurality of first pixel units 100a and a plurality of second pixel units 100b. differ from Differences from the electronic device 1 according to the first embodiment will be described below.
  • FIG. 21A is a block diagram showing a configuration example of a pixel unit according to the second embodiment.
  • the pixel array section 10 is composed of a plurality of first pixel units 100a and a plurality of second pixel units 100b.
  • the first pixel unit 100a has an AD converter 190a and a unit 200a.
  • the analog-to-digital conversion section 190a includes a comparison section 150a, a comparison output processing section 160a, and a conversion result holding section 170a.
  • the unit 200 — a has a plurality of pixels 140 a and a floating diffusion FDa connected to the plurality of pixels 140 .
  • the first pixel unit 100ba has an AD converter 190b and a unit 200b.
  • the analog-to-digital conversion section 190b includes a comparison section 150b, a comparison output processing section 160b, and a conversion result holding section 170b. Also, the unit 200_b has a plurality of pixels 140b and a floating diffusion FDb connected to the plurality of pixels 140b.
  • the first pixel unit 100a and the second pixel unit 100b are arranged over the entire screen of the pixel array section 10 .
  • the number of the first pixel units 100a and the number of the second pixel units 100b may be different.
  • more second pixel units 100b are arranged than first pixel units 100a.
  • the vertical driver 40 supplies control signals (TRG_A1 to TRG_D1, OFG_A1 to OFG_D1) to the first pixel unit 100a, and control signals (TRG_A2 to TRG_D2, OFG_A2 to OFG_D2) to the second pixel unit 100b.
  • the OFG/TRG signal supplied to the first pixel unit 100a and the OFG/TRG signal supplied to the second pixel unit 100b are different signals from the vertical driving unit 40, so that the signal line 41a is connected to the signal line 41a. and the signal line 41b are wired separately. Further, the control signals CMEN1 and CMEN2 are supplied from the control section 3 . AD conversion is performed while the control signals CMEN1 and CMEN2 are at high level.
  • first pixel unit 100a and the second pixel unit 100b basically operate in different modes, but may operate in the same mode.
  • any of the modes described in FIGS. 15 to 20 can be executed independently of the first pixel unit 100a and the second pixel unit 100b.
  • FIG. 21B is a block diagram showing another configuration example of the pixel unit 200b according to the second embodiment.
  • the photoelectric conversion elements PC_E to PC_H that constitute the pixel 140c of the unit 200c are photoelectric conversion elements (PC) formed of non-silicon, for example, organic films. It is different from the pixel unit 200b. In this way, the photoelectric conversion elements PC_E to PC_H made of non-silicon may be used as the photoelectric conversion elements.
  • PC photoelectric conversion elements
  • FIG. 22 is an example of a combination of the unit 200a (see FIG. 6) and the unit 200a (see FIG. 6).
  • FIG. 23 is an example of a combination of the unit 200b (see FIG. 7) and the unit 200a (see FIG. 6).
  • FIG. 24 is an example of a combination of the unit 200c (see FIG. 8) and the unit 200a (see FIG. 6).
  • FIG. 25 is an example of a combination of the unit 200d (see FIG.
  • FIG. 26 is an example of a combination of the unit 200c (see FIG. 8) and the unit 200c (see FIG. 8).
  • FIG. 27 is an example of a combination of the unit 200e (see FIG. 10) and the unit 200e (see FIG. 10).
  • FIG. 28 is an example of a combination of the unit 200b (see FIG. 7) and the unit 200e (see FIG. 10).
  • the first pixel unit 100a and the second pixel unit 100b can arbitrarily combine the shape of the on-chip lens and the presence or absence of the image plane phase pixel (ZAF).
  • the types of photoelectric conversion elements can be arbitrarily combined.
  • FIG. 29 The imaging device 4 is set to a mode by changing control signals OFG_A1 to OFG_D1, TRG_A1 to TRG_D1, OFG_A2 to OFG_D2, and TRG_A2 to TRG_D2 according to control signals from the control unit 3 (see FIG. 1).
  • FIG. 29 is a time chart showing an example of mode n control.
  • the horizontal axis indicates time.
  • Pixel A1, Pixel B1, Pixel C1, and Pixel D1 indicate each pixel 140a forming the unit 200_a.
  • Control signals OFG_A1 to OFG_D1 indicate gate signals of the overflow gate transistor TR1 (see FIG. 5), and control signals TRG_A1 to TRG_D1 indicate gate signals of the charge transfer transistor TR2.
  • control signals OFG_A1 and OFG_C1 become high level, and the photoelectric conversion elements of Pixel A1 and Pixel C1 are reset. Subsequently, the control signals OFG_A1 and OFG_C1 become low level, and photoelectric conversion periods t EXT_A1 and t EXT_C1 of Pixel A1 and Pixel C1 are started.
  • AD conversion periods t ADCT_A1 and t ADCT_A1 of Pixel A1 and Pixel C1 are started.
  • the control signals TRG_A1 and TRG_C1 become high level, the charges accumulated in Pixel A1 and Pixel C1 are transferred to the floating diffusion FD, and the photoelectric conversion periods t EXT_A1 and t EXT_C1 end.
  • AD conversion periods t ADCT_A1 and t ADCT_C1 end.
  • Pixel B1 and Pixel D1 are similarly driven.
  • Each AD conversion period t ADCT_A to t ADCT_D corresponds to 1 AD period, and 4 AD periods correspond to 1 frame.
  • photoelectric conversion of pixels Pixel A1 and Pixel C1 is performed simultaneously, each accumulated charge is summed up by the floating diffusion FD, and simultaneously converted into a digital image signal.
  • photoelectric conversion of pixels Pixel B1 and Pixel D1 is performed simultaneously, each accumulated charge is summed up by the floating diffusion FD, and simultaneously converted into a digital image signal.
  • FIG. 30 is a time chart showing an example of control in mode m.
  • the horizontal axis indicates time.
  • the horizontal axis indicates time.
  • Pixel A2, Pixel B2, Pixel C2, and Pixel D2 indicate each pixel 140b forming the unit 200_b.
  • Control signals OFG_A2 to OFG_D2 indicate gate signals of the overflow gate transistor TR1 (see FIG. 5), and control signals TRG_A2 to TRG_D2 indicate gate signals of the charge transfer transistor TR2.
  • the control signal OFG_A2 becomes high level, and Pixel A2 is reset. Subsequently, the control signal OFG_A2 becomes low level, and the photoelectric conversion period t EXT_A2 is started.
  • the floating diffusion FDb (see FIG. 21) is reset, and the AD conversion period t ADCT_A2 of Pixel A2 is started. Subsequently, the control signal TRG_A2 becomes high level, the accumulated charge of Pixel A2 is transferred to the floating diffusion FDb, and the photoelectric conversion period t EXT_A2 ends. Subsequently, the AD conversion period t ADCT_A2 ends. Pixel B2, Pixel C2, and Pixel D2 are also driven in the same manner, and are executed in chronological order so that the AD conversion periods t ADCT_A2 to t ADCT_D2 do not overlap. Each AD conversion period t ADCT_A2 to t ADCT_D2 corresponds to one AD period, and four AD periods correspond to one frame.
  • the photoelectric conversion periods t EXT_A2 to t EXT_D2 of the pixels 140 forming the unit 200b are shifted in time series.
  • the AD conversion periods t ADCT_A2 to t ADCT_D2 are executed in a time-sequential manner so as not to overlap.
  • the accumulated charge of each pixel Pixel A2, Pixel B2, Pixel C2, and Pixel D2 is converted into a digital image signal. Accordingly, in mode m, it is possible to pick up a high-resolution image.
  • the pixel array section 10 of the electronic device 1 is configured with a plurality of first pixel units 100a and a plurality of second pixel units 100b.
  • the plurality of first pixel units 100a and the plurality of second pixel units 100b can be composed of different units 200a to 200e. Therefore, it is also possible to arrange the plurality of first pixel units 100a and the plurality of second pixel units 100b in regions in the pixel array section 10 according to the purpose, and to perform driving according to the purpose.
  • the electronic device 1 according to the third embodiment differs from the electronic device 1 according to the first embodiment in that the pixel array section 10 of the imaging device 4 is composed of stacked units 200 and 202 . Differences from the electronic device 1 according to the first embodiment will be described below.
  • FIG. 31 is a block diagram showing a configuration example of the pixel unit 100 according to the third embodiment.
  • the unit 300 is composed of a unit 200 and a unit 202.
  • the photoelectric conversion element of the pixel 140c of the unit 202 is a photoelectric conversion element (PC) made of non-silicon, such as an organic film.
  • the plurality of pixels 140 in the unit 200 and the plurality of pixels 140c in the unit 202 are connected to the floating diffusion FD.
  • Control signals (TRG_A to TRG_D, OFG_A to OFG_D) are supplied to the unit 200, and control signals (TRG_E to TRG_H, OFG_E to OFG_H) are supplied to the unit 200 from the vertical driving section 40.
  • the OFG/TRG signal supplied to the unit 200 and the OFG/TRG signal supplied to the unit 200 are different signals from the vertical driving section 40, so that the signal line 41 and the signal line 41c are connected. Wired separately.
  • FIG. 32 is a block diagram showing an arrangement example of the units 300 according to the third embodiment.
  • unit 300 is configured by stacking unit 200 and unit 202 . That is, the unit 300 has a structure in which the pixels Pixel E to Pixel H of the unit 202 are layered on the pixels Pixel A to Pixel D of the unit 200 .
  • pixels Pixel A and Pixel D are blue pixels
  • pixels Pixel B and Pixel C are red pixels
  • Pixels Pixel E to Pixel H are green pixels.
  • color filter B is layered on pixels Pixel A and Pixel D
  • color filter R is layered on pixels Pixel B and Pixel C
  • color filter G is layered on pixels Pixel E to Pixel H.
  • FIG. 33 is a flowchart showing a control example using the unit 300.
  • mode 2 corresponds to the low distortion mode.
  • a mode selection signal is input from the input device 12 (see FIG. 1) of the electronic device 1, and the control unit 3 determines whether or not it is in the low distortion mode based on the input (step S700).
  • the control unit 3 first performs photoelectric conversion by exposure of Pixel A, readout, and AD conversion as mode 1 (step S702).
  • photoelectric conversion by exposure of Pixel B, reading, and AD conversion are performed (step S704).
  • photoelectric conversion by exposure of Pixel C, reading, and AD conversion are performed (step S706).
  • photoelectric conversion by exposure of Pixel D, reading, and AD conversion are performed (step S708).
  • step S710 photoelectric conversion by exposure of Pixel E, readout, and AD conversion are performed.
  • step S712 photoelectric conversion by exposure of Pixel F, reading, and AD conversion are performed.
  • step S714 photoelectric conversion by exposure of Pixel G, reading, and AD conversion are performed (step S714).
  • step S716 photoelectric conversion by exposure of Pixel H, reading, and AD conversion are performed.
  • step S700 when determining that the control unit 3 is in the low-distortion mode (YES in step S700), first, the photoelectric conversion by exposure of Pixel A and Pixel D is performed simultaneously, and at the same time, the floating diffusion FD (see FIG. 4) is converted. Readout and AD conversion are performed based on the potential of the floating diffusion FD (step S718). Next, pixel B and pixel C are subjected to photoelectric conversion by exposure at the same time, read out to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S720). Next, pixel E to pixel H are simultaneously subjected to photoelectric conversion by exposure, readout to the floating diffusion FD (see FIG. 4), and AD conversion is performed based on the potential of the floating diffusion FD (step S722).
  • the electronic device 1 is configured by stacking the unit 200 and the unit 202 . This makes it possible to image the same imaging area in different modes.
  • the electronic device 1 according to the fourth embodiment differs from the electronic device 1 according to the first embodiment in that three or more types of units 200 driven in different modes are mixed in the pixel array section 10 of the imaging device 4 . Differences from the electronic device 1 according to the first embodiment will be described below.
  • FIG. 34 is a diagram showing an example of the pixel array section 10 in which the units 200c (see FIG. 8) are arranged.
  • the unit 200c in area A200 is driven in mode 2 (AF mode 2)
  • the unit 200c in area A202 is driven in mode 3 (AF mode 3)
  • the unit 200c in area A 204 which is the area of , is driven in mode 4 (GS mode).
  • FIG. 35 is a time chart of mode 2 (AF mode 2), mode 3 (AF mode 3), and mode 4 (GS mode).
  • the horizontal axis indicates time, and the vertical axis indicates RAMP signals in modes 2, 3, and 4, respectively.
  • pixels Pixel A and Pixel C are added in mode 2
  • pixels Pixel A and Pixel B are added in mode 3
  • pixels Pixel A to Pixel D are added in mode 4.
  • pixels Pixel B and Pixel D are added in mode 2
  • pixels Pixel C and Pixel D are added in mode 3.
  • the unit 200c which is mainly used for AF processing of subject F10 with many vertical lines and operated in mode 3
  • the unit 200c which operates in mode 4 is used to acquire undistorted images.
  • FIG. 36 is a diagram showing a configuration example of the control unit 3 and a configuration example of the pixel array unit 10.
  • the unit 200a (see FIG. 6) is arranged in an area A202 that occupies most of the area of the pixel array section .
  • Units 200b (see FIG. 7), 200c_1 (see FIG. 8), 200c_2 (see FIG. 8), and 200g (see FIG. 12) are mixedly arranged in the pixel array section .
  • the control section 3 analyzes the image data generated by the pixel array section 10 and determines the mode of each 200a, units 200b, 200c_1, 200c_2 and 200g.
  • the control unit 3 has a brightness detection unit 32, a motion vector detection unit 34, and a mode determination unit 36.
  • the brightness detection unit 32 detects the brightness of the subject based on the image data. For example, the brightness detection unit 32 detects the degree of brightness of the subject based on the average value of the image signal of the subject.
  • the motion vector detection unit 34 detects the degree of motion of the subject by, for example, optical flow arithmetic processing based on the image data.
  • FIG. 37 to 40 are tables showing mode determination examples of the mode determination unit 36.
  • unit 1 corresponds to units 200b and 200g
  • unit 2 corresponds to unit 200c_1
  • unit 3 corresponds to 200c_2
  • unit 4 corresponds to unit 200g.
  • a to D correspond to pixels Pixel A, Pixel B, Pixel C, Pixel D, and the like.
  • “+” means addition of analog image signals in a floating diffusion FD or the like.
  • “B+C+D” indicates that the analog image signals of Pixel B, Pixel C, and Pixel D are summed by the floating diffusion FD and AD-converted.
  • the mode determination unit 36 determines the mode using signals output from the brightness detection unit 32 and the motion vector detection unit 34, as shown in FIGS. 37 to 40, for example.
  • the mode determination unit 36 supplies the vertical driving unit 40 with a mode setting signal MODE including information on the determined mode.
  • FIG. 37 is a table showing an example of mode (MODE 1) determination when the brightness of the subject is bright and the degree of motion is high.
  • unit 1 adds pixels Pixel B, Pixel C and Pixel D at the same time, and units 2, 3 and 4 add pixels Pixel A, Pixel B, Pixel C and Pixel D at the same time. to add.
  • the second AD conversion only the signal of pixel Pixel A in unit 1 is AD converted.
  • a moving subject is basically imaged in the GS mode in order to obtain an image without distortion.
  • ZAF image plane phase pixel
  • AF image plane phase pixel
  • FIG. 38 is a table showing an example of mode (MODE 2) determination when the brightness of the subject is dark and the degree of motion is high.
  • unit 1 adds pixels Pixel B, Pixel C, and Pixel D simultaneously
  • unit 2 adds pixels Pixel A and Pixel C simultaneously
  • unit 3 adds pixels Pixel A and Pixel B is added simultaneously
  • Unit 4 adds pixels Pixel A, Pixel B, Pixel C and Pixel D simultaneously.
  • unit 1 AD-converts only the signal of pixel Pixel A
  • unit 2 adds pixels Pixel B and Pixel D at the same time
  • unit 3 adds pixels Pixel C and Pixel D. Add at the same time.
  • the unit 4 takes an image in the GS mode in order to acquire an image without distortion. Then, in order to use the data of units 2 and 3 (2 ⁇ 2 OCL), which are good at AF in a dark environment, for AF, units 2 and 3 are driven in AF mode.
  • (2 ⁇ 2 OCL) means that an on-chip lens is arranged for each of the four pixels.
  • FIG. 39 is a table showing an example of mode (MODE 3) determination when the brightness of the subject is bright and the degree of movement is low.
  • MODE 3 mode
  • the image is captured in the high resolution mode in principle. That is, Unit 1 to Unit 4 are driven in a high resolution mode in which AD conversion is performed pixel by pixel.
  • ZAF image plane phase pixel
  • the signal of pixel Pixel A of unit 1 is used for AF.
  • FIG. 40 is a table showing an example of mode (MODE 4) determination when the brightness of the subject is dark and the degree of motion is low.
  • the units 1 and 4 are driven in a high resolution mode in which AD conversion is performed pixel by pixel.
  • the units 2 and 3 are driven in the AF mode in order to use the data of the units 2 and 3 (2 ⁇ 2 OCL), which have higher AF accuracy in a dark environment, for AF.
  • the electronic device 1 As described above, in the electronic device 1 according to the present embodiment, three or more types of units 200 driven in different modes are mixed in the pixel array section 10 of the imaging device 4 . This makes it possible to acquire three or more types of image data, image plane phase information, etc., according to the purpose. Also, the controller 3 sets the mode of each unit 200 according to the degree of brightness and the degree of movement of the subject. As a result, the electronic device 1 can set a mode according to the shooting environment, and can generate higher-definition image data or lower-distortion image data.
  • the electronic device 1 according to the fifth embodiment acquires phase difference information for a plurality of times by imaging a plurality of subframes within one frame, and performs autofocus (AF) using the phase difference information for a plurality of times. It is different from the electronic device 1 according to the first to fourth embodiments in that control can be further performed. Differences from the electronic device 1 according to the first to fourth embodiments will be described below.
  • FIG. 41 is a block diagram showing an example configuration of the electronic device 1 according to the fifth embodiment.
  • the electronic device 1 is different from the electronic device 1 shown in FIG. 1 in that it further includes a shutter 1200, a phase difference detection section 1400, and an AF control inference section 1500.
  • FIG. A shutter 1200 is a shutter that includes an aperture function.
  • the phase difference detection unit 1400 can perform phase difference detection from the image plane phase difference pixels.
  • the AF control inference section 1500 generates the focal position of the lens 2 for the next frame from the phase difference information detected by the phase difference detection section 1400 . Also, the AF control inference unit 1500 can use a plurality of pieces of phase difference information detected by the phase difference detection unit 1400 to infer the focal position of the lens 2 after a predetermined time, for example, at the start of imaging of the next frame. is.
  • the control section 3 can control the position of the lens 2 and the shutter 1200 according to the signals generated by the phase difference detection section 1400 and the AF control inference section 1500 .
  • FIG. 42 is a diagram showing an imaging example in the pixel array section 10 according to the fifth embodiment.
  • the horizontal axis indicates time.
  • the control unit 3 operates, for example, a combination of four adjacent pixel circuits 140 as the pixel circuit 210 .
  • pixel circuit 210 corresponds to unit 200 (see FIG. 4).
  • the pixel circuit 140 on the lower left is assigned to sub-pixel group A
  • the pixel circuit 140 on the lower right is assigned to sub-pixel group B
  • the upper left pixel circuit 140 is defined as a sub-pixel group C
  • the upper right pixel circuit 140 is defined as a sub-pixel group D.
  • image plane phase pixels ZAF pixels
  • FIGS. 1-10 show that as shown in FIGS.
  • the image plane phase pixel is configured as a pixel in which part of the light receiving portion is shielded by, for example, a light shielding member.
  • one FD is configured for four pixel circuits 140. It is also possible to use a pixel unit 100 (for example, see FIG. 2) or the like.
  • the sub-pixel group A is exposed, read out, and AD-converted.
  • exposure, readout, and AD conversion of the sub-pixel group B are performed from time t12 to t14.
  • exposure, readout, and AD conversion of sub-pixel group C are performed.
  • times t16 to t18 (not shown), the sub-pixel group D is exposed, read out, and AD-converted.
  • a waiting time or the like may be added between imaging operations between pixel groups.
  • the number of pixel groups is not limited to four, and may be, for example, 8, 16, 32, 64, or the like.
  • the first readout period from the pixel array section 10 may be called a main frame or frame, and the second readout period shorter than the first readout period may be called a subframe.
  • a period obtained by totaling a plurality of subframes corresponds to a mainframe.
  • an image composed of image signals read out in subframes may be referred to as a subframe image.
  • times t10 to t12, times t12 to t14, times t14 to t16, and times t16 to t18 are each referred to as subframes, and the respective images are referred to as subframe images A, B, C, and D in some cases.
  • the third mode In the third mode, the position of the lens 2 is fixed, the imaging target 8 is imaged as subframe images A, B, C, and D in the order of subpixel groups A, B, C, and D, and the imaging target 8 is captured in time series. This is the mode for obtaining phase difference information for . From the phase difference information obtained in time series, it is possible to predict the direction and amount of movement of the lens 2 of the object 8 to be imaged along the optical axis direction. Note that the third mode according to this embodiment corresponds to the fixed mode.
  • FIG. 43 is a diagram showing an example of driving the electronic device 1 in the third mode.
  • the control circuit 3 fixes the position of the lens 2 and moves the imaging target 8 to the imaging device 4 (see FIG. 41) in the order of the pixel groups A, B, C, and D (see FIG. 42). (see reference).
  • the phase difference detection unit 1400 performs phase difference detection from image plane phase difference pixels in the order of pixel groups A, B, C, and D.
  • signals containing the detected image plane phase difference information are sequentially output to AF control inference section 1500 .
  • the AF control inference unit 1500 uses the image plane phase difference information obtained in time series to estimate the image plane phase difference information at the start of imaging in the second frame. Then, using the estimated image plane phase difference information at the start of imaging in the second frame or the estimated position of the lens 2, the position of the lens 2 that is focused on the imaging target 8 is inferred. Subsequently, AF control inference section 1500 outputs a signal containing information on the predicted lens position to control circuit 3 . As a result, the control circuit 3 starts imaging the second frame after moving the lens 2 to the predicted lens position.
  • estimating the image plane phase difference information by the AF control inference unit 1500 is equivalent to estimating the position of the lens 2 .
  • estimating the image plane phase difference information by the AF control inference unit 1500 is equivalent to estimating the distance from the imaging plane of the pixel array 10 to the imaging target 8 via the lens 2. is being carried out.
  • the lens position after movement is fixed, and imaging is performed in the third mode in the same manner as in the first frame.
  • the AF control inference unit 1500 estimates the image plane phase difference information of the imaging target 8 at the start of the next frame, and the control circuit 3 adjusts the position of the lens 2 so that the imaging target 8 is in focus. move in advance.
  • the next frame imaging can be started in a state in which the imaging target 8 should be in focus.
  • the images according to the present embodiment are captured by a so-called global shutter method, distortion of the sub-frame images A, B, C, and D is suppressed, and a decrease in accuracy of the focal length of the lens 2 is suppressed. .
  • imaging with the global shutter method suppresses the time lag for each row compared to the rolling shutter method, and further improves the image quality.
  • the control unit 3 fixes the position of the lens 2 and captures the imaging target 8 in the order of the sub-pixel groups A, B, C, and D as the sub-frame images A, B, C, and so on. D, and the phase difference detection unit 1400 generates phase difference information for the imaging target 8 in time series. Then, the AF control inference section 1500 predicts the position of the lens 2 at which the imaging target 8 is in focus at a predetermined point in time, for example, at the start of imaging of the next frame, using the time-series phase difference information. As a result, in the next frame, imaging can be started in a state in which the imaging target 8 should be in focus.
  • the electronic device 1 according to the sixth embodiment is further capable of imaging a plurality of sub-frames within one frame while changing the position of the lens 2. Therefore, the electronic device 1 according to the fifth embodiment differ from Differences from the electronic device 1 according to the fifth embodiment will be described below.
  • a fourth mode is a mode in which the imaging target is captured as subframe images A, B, C, and D in the order of subpixel groups A, B, C, and D while moving the lens 2 .
  • Subframe images A, B, C, and D with different focus positions in time series can be obtained. Note that the fourth mode according to this embodiment corresponds to the movement mode.
  • FIG. 44 is a diagram showing an example of driving the electronic device 1 in the fourth mode.
  • the control circuit 3 (see FIG. 41) sequentially moves the position of the lens 2 to a predetermined position, and moves the imaging target 8 to the imaging device 4 (see FIG. 41) in the order of the pixel groups A, B, C, and D. to take an image.
  • the control circuit 3 moves the lens 2 to focal lengths FL, FL+FLb, FL+FLc, and FL+FLd.
  • FLb ⁇ FLc ⁇ FLd there is a relationship of FLb ⁇ FLc ⁇ FLd.
  • an image focused on the imaging target Obj at the focal length FL is captured. That is, in the sub-frame image A, an image focused on a specific imaging target Obj within the range of the imaging target 8 is captured.
  • an image focused on the imaging target Obb corresponding to the focal length FL+FLb is captured.
  • an image focused on the imaging target Obc corresponding to the focal length FL+FLc is captured.
  • an image focused on the imaging target Obd corresponding to the focal length FL+FLd is captured.
  • the sub-frame images A, B, C, and D are images in which distortion is suppressed.
  • the imaging targets Obb, Obc, and Obd correspond to subjects within the frames Mb, Mc, and Md, for example.
  • the photographer can display the sub-frame images A, B, C, and D in order on the display unit 80 by operating input via the input device 12 (see FIG. 41).
  • the photographer can input an instruction signal for selecting captured images of the sub-frame images A, B, C, and D displayed on the display unit 80 based on an operation input via the input device 12 (see FIG. 41).
  • the control circuit 3 can select a captured image from captured images of the subframe images A, B, C, and D based on the instruction signal, and store only the selected captured image in the storage unit 7. be. This makes it possible to suppress the capacity of the storage unit 7 .
  • the input device 12 corresponds to an input unit.
  • control unit 3 moves the position of the lens 2 and images the imaging target in the order of the sub-frame images A, B, C, and D.
  • the photographer can obtain captured images at a plurality of focus positions without performing a focusing operation.
  • the electronic device 1 according to the seventh embodiment is different from the electronic device 1 according to the sixth embodiment in that it is also possible to perform cluster readout on captured images. Differences from the electronic device 1 according to the sixth embodiment will be described below.
  • FIG. 45 is a diagram showing an operation example of cluster reading.
  • one cluster is composed of, for example, vertical N pixel circuits 210 and horizontal M pixel circuits 210 .
  • Z N ⁇ M
  • N 10 (rows)
  • M 7 (columns)
  • n is a natural number from 1 to Z.
  • Each cluster is arranged in a matrix in the pixel array section 10 (see FIG. 2).
  • each pixel circuit 210 in the cluster corresponds to one of the numbers 1-Z.
  • cluster reading the operation of sequentially reading out the pixel circuits 210 in the cluster in parallel for each cluster. That is, when the pixel circuits 210 in a cluster are composed of 70 pieces, readout is performed 70 times in parallel for each cluster.
  • FIG. 46 is a diagram showing an arrangement example of image plane phase pixels in the pixel circuit 210.
  • FIG. 46 in the pixel circuits 210 that are cluster-read out first, one of the four pixel circuits 140 is an image plane phase pixel (ZAF pixel).
  • ZAF pixel image plane phase pixel
  • the image plane phase pixel is configured as a pixel in which part of the light receiving portion is shielded by, for example, a light shielding member.
  • the pixel circuits 210 in which the image plane phase pixels are arranged at positions C and the pixel circuits 210 in which the image plane phase pixels are arranged at positions D are arranged in the pixel array section 10 so as to be evenly distributed. ing.
  • cluster reading is performed for each sub-pixel group.
  • the upper left pixel circuit 140 is a sub-pixel group A
  • the upper right pixel circuit 140 is a sub-pixel group B
  • the lower left pixel circuit 140 is a sub-pixel group.
  • a pixel group C is assumed
  • the lower right pixel circuit 140 is assumed to be a sub-pixel group D.
  • the pixel circuits 140 on the upper left of the pixel circuits 210 of each cluster are cluster-read in parallel. Then, a sub-frame image A is constructed based on the image signals read out in clusters.
  • the cluster readout of the sub-pixel group B is next performed.
  • the pixel circuits 140 on the upper right of the pixel circuits 210 for each cluster are cluster-read in parallel. Then, a sub-frame image B is formed based on the cluster-read image signal.
  • the cluster readout of the sub-pixel group C is next performed.
  • the pixel circuits 140 on the lower left of the pixel circuits 210 for each cluster are cluster-read in parallel. Then, a sub-frame image C is formed based on the cluster-read image signal.
  • the cluster readout of the sub-pixel group D is next performed.
  • the pixel circuits 140 on the lower right of the pixel circuits 210 for each cluster are cluster-read in parallel. Then, a sub-frame image D is formed based on the cluster-read image signal.
  • the pixel circuits 210 in a cluster are composed of 70 pieces, cluster readout is performed 70 times for each of the subframe images A, B, C, and D to generate an image for one subframe. do.
  • the pixel circuits 140 that are read out first for each of the subframe images A, B, C, and D equally include the image plane phase pixels, and the pixel array section 10 includes: evenly distributed.
  • cluster readout is not limited to readout of all pixel circuits 210 in a cluster, and pixel circuits 210 may be read out every 4, 8, 16, and 32, for example. Also, the order of reading out the pixel circuits 140 is not limited to the order of A, B, C, and D, and may be in any order, and the pixel circuits 140 that do not perform reading may be set.
  • (Fifth mode) In the fifth mode, cluster readout is performed for each of the sub-pixel groups A, B, C, and D, and the image signals of the image plane phase pixels are used for each of the sub-pixel groups A, B, C, and D to obtain the next sub-frame image. infer the lens position for This makes it possible to obtain sub-frame images A, B, C, and D whose focal positions are controlled in time series.
  • the fifth mode according to this embodiment corresponds to the movement mode.
  • FIG. 47 is a diagram showing an example of driving the electronic device 1 in the fifth mode.
  • the control circuit 3 (see FIG. 41) reads out image signals from the pixel circuits 210 in the order of the sub-pixel groups A, B, C, and D by cluster readout.
  • the phase difference detection unit 1400 detects phase difference information for each subframe from the image plane phase difference pixels read out first for each subpixel group A, B, C, and D, for example.
  • AF control inference section 1500 sequentially infers the lens position of the next subframe based on the phase difference information for each subframe detected by phase difference detection section 1400 .
  • the control circuit 3 then moves the lens 2 to the inferred position.
  • the lens position for the sub-frame image B (Sub Frame No. 2) is inferred, and is synchronized with the imaging timing of the sub-frame image B. It is possible to move the position of the lens by pressing the In this case, the pixel circuits 140 that are cluster-read out first include image plane phase pixels. Therefore, it is possible to infer the focal position for the sub-frame image B and secure a longer time for moving the lens position until the next sub-frame image B is captured.
  • the image plane phase pixels included in the pixel circuit 140 that is cluster-read out first are arranged in the pixel array section 10 so as to be evenly distributed.
  • the inference accuracy of the lens position for the sub-frame image B is further improved.
  • the sub-frame image A (Sub Frame No. 1) is imaged, and during cluster readout, the lens is moved in time with the imaging timing of the next sub-frame image B (Sub Frame No. 2). position can be moved.
  • the lens position is controlled in chronological order according to the subject 8 for each of the sub-frame images A, B, C, and D, resulting in a more focused image. An image can be captured.
  • FIG. 48 is a diagram showing an example of the imaging operation of the comparative example.
  • FIG. 48 shows a so-called raster method, and the image picked up for each row is output as a raster, so the image is distorted.
  • the so-called raster method is sometimes referred to as a rolling shutter method. For this reason, the focal position control of the lens 2 is also lower than the focal position control in imaging by the global shutter method according to this embodiment.
  • the control circuit 3 reads out the pixel circuits 210 in the cluster in a predetermined order, and the AF control inference unit 1500 (see FIG. 41) performs the cluster readout.
  • the lens position of the next subframe is inferred from the phase difference information detected from the image plane phase difference pixels read out for each subframe, for example, in a predetermined order.
  • the control circuit 3 moves the lens 2 to the inferred position. This makes it possible to perform focal position control for each subframe, for example.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 49 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • vehicle control system 12000 includes drive system control unit 12010 , body system control unit 12020 , vehicle exterior information detection unit 12030 , vehicle interior information detection unit 12040 , and integrated control unit 12050 .
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 50 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 50 shows an example of the imaging range of the imaging units 12101 to 12104.
  • FIG. The imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the electronic device 1 in FIG. 1 can be applied to the imaging unit 12031 .
  • the technology according to the present disclosure it is possible to set a mode according to the imaging environment, and generate higher-definition image data or lower-distortion image data.
  • An imaging device comprising a plurality of pixel units,
  • the pixel unit is a plurality of photoelectric conversion elements; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; a first mode in which the charges photoelectrically converted by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; and a second mode in which charges generated by at least two of the plurality of photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • each of the plurality of photoelectric conversion elements is connected to the floating diffusion via a first transistor;
  • the image pickup apparatus according to (1) further comprising a vertical drive unit that supplies a first control signal that connects or disconnects the first transistor.
  • a predetermined potential is supplied to each of the plurality of photoelectric conversion elements via a second transistor,
  • the vertical driving section further includes a vertical driving section that supplies two control signals for connecting or disconnecting the second transistor.
  • each of the plurality of photoelectric conversion elements receives light in the same wavelength band.
  • each of at least two photoelectric conversion elements of the plurality of photoelectric conversion elements receives light via color filters of different colors.
  • each of the plurality of photoelectric conversion elements receives light via a lens arranged at a corresponding position.
  • the plurality of photoelectric conversion elements in the pixel unit include at least two photoelectric conversion elements that receive light through green filters, photoelectric conversion elements that receive light through red filters, and light through blue filters. having a photoelectric conversion element that a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; a first period in which the charge generated by the photoelectric conversion element that has received light through the red filter or the blue filter is transferred to the floating diffusion and converted by the analog-to-digital converter; and at least two periods in which the charge is received through the green filter. a mode having a second period different from the first period in which charges generated by one or more photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit; The imaging device described.
  • a light-receiving part is configured as a pixel in which a part of the light-receiving part is shielded by a light-shielding member, a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods;
  • An electric charge generated by a photoelectric conversion element that receives light through the predetermined diaphragm is transferred to the floating diffusion, converted by the analog-to-digital conversion unit, and passed through the diaphragm among the plurality of photoelectric conversion elements.
  • a mode in which charges generated by a photoelectric conversion element different from the photoelectric conversion element that received light are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit.
  • a plurality of first pixel units and a plurality of second pixel units are arranged, A first control signal supplied to the first pixel unit and a first control signal supplied to the second pixel unit are each connected to a vertical driving section, The imaging device, wherein the vertical driving section changes a first control signal supplied to the first pixel unit and a first control signal supplied to the second pixel unit according to a mode setting signal.
  • control unit generates the mode setting signal based on a degree of brightness of a subject based on the image data and a degree of movement of the subject.
  • a pixel array unit composed of a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that performs control to vary the timing of imaging the subject through the lens for each of the plurality of pixel groups, a fixed mode in which the position of the lens is fixed; An electronic device having at least one of a movement mode in which the position of the lens is different for each of the different timings.
  • a phase difference detection unit that generates phase difference information based on the image signals of the plurality of phase difference pixels; an inference unit that infers the position of the lens in the next frame or the next subframe using the phase difference information;
  • the phase difference detection unit In the fixed mode, The phase difference detection unit generates time-series phase difference information based on the image signals of the plurality of phase difference pixels obtained for each of the plurality of pixel groups, The electronic device according to (25), wherein the inference unit uses the time-series phase difference information to infer the position of the lens in the next frame.
  • control section causes the display section to display the captured image obtained for each of the plurality of pixel groups.
  • (29) further comprising an input unit for inputting an instruction signal for selecting an image to be displayed on the display unit;
  • control unit causes the storage unit to store only a captured image selected from captured images obtained for each of the plurality of pixel groups based on the instruction signal.
  • the pixel array unit is divided into rectangular regions, and pixels including the plurality of image plane phase difference pixels are arranged in a matrix,
  • a plurality of image plane phase difference pixels are included in each of the rectangular regions, a phase difference detection unit that generates phase difference information based on image signals read out in a predetermined order for each of the rectangular regions; an inference unit capable of inferring the position of the lens according to the predetermined order using the phase difference information;
  • the pixels read out first for each rectangular region include at least a plurality of image plane phase difference pixels, The electronic device according to (32), wherein the phase difference detection unit generates phase difference information based on a pixel image signal read out first for each rectangular region.
  • the pixel array unit has pixels including the plurality of image plane phase difference pixels arranged in a matrix, the pixel array unit is divided into rectangular regions, and a control unit that reads image signals in parallel in a predetermined order from pixels in each rectangular region; An electronic device.
  • the pixel array section is composed of a plurality of pixel units, The pixel unit is a plurality of photoelectric conversion elements; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit;
  • the electronic device according to any one of (24) to (34), further comprising an analog-to-digital converter that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; a first mode in which the charges photoelectrically converted by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; (24) to (30), further comprising a second mode in which charges generated by at least two of the plurality of photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit;
  • the electronic device according to any one of the items.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; receiving light through one on-chip lens arranged at a position corresponding to at least two photoelectric conversion elements among the plurality of photoelectric conversion elements in the pixel unit; a mode in which the charges generated by the two photoelectric conversion elements are transferred to the floating diffusion during different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods;
  • the electronic device according to (24) further comprising a mode in which charges generated by the two photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital converter.
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; receiving light through one on-chip lens arranged at positions corresponding to at least four photoelectric conversion elements among the plurality of photoelectric conversion elements in the pixel unit; a mode in which the charges generated by the four photoelectric conversion elements are transferred to the floating diffusion during different periods, and the conversion period by the analog-to-digital conversion unit is changed according to the different periods; a mode in which charges generated by two photoelectric conversion elements out of the four photoelectric conversion elements are transferred to the floating diffusion and simultaneously converted by the analog-to-digital conversion unit;
  • the electronic device according to (24), further comprising a mode in which charges generated by the four photo
  • the pixel array section is composed of a plurality of pixel units,
  • the pixel unit includes a plurality of photoelectric conversion elements belonging to the plurality of pixel groups, respectively; a floating diffusion that outputs charges photoelectrically converted by the photoelectric conversion element in the pixel unit; an analog-to-digital conversion unit that converts a signal corresponding to the charge photoelectrically converted by the photoelectric conversion element into a digital signal; at least one of the plurality of photoelectric conversion elements in the pixel unit is configured as a pixel in which a portion of a light receiving portion is shielded by a light shielding member; a mode in which the charges generated by the plurality of photoelectric conversion elements are transferred to the floating diffusion in different periods, and the conversion period by the analog-to-digital converter is changed according to the different periods; An electric charge generated by a photoelectric conversion element that receives light through a predetermined diaphragm is transferred to the floating diffusion, converted by the analog-to-digital converter, and then transferred through the diaphragm of
  • a pixel array unit composed of a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that controls different timings for capturing an image of an object through a lens for each of the plurality of pixel groups; a phase difference detection unit that generates time-series phase difference information based on the image signals of the plurality of phase difference pixels obtained for each of the plurality of pixel groups; an inference unit that infers the position of the lens in the next frame using the time-series phase difference information;
  • An electronic device An electronic device.
  • a pixel array unit composed of a plurality of pixel groups each having a plurality of image plane phase difference pixels; a control unit that performs control to vary the timing of imaging the subject through the lens for each of the plurality of pixel groups, The electronic device, wherein the control unit changes the position of the lens for each of the plurality of pixel groups.
  • 1 electronic device
  • 2 lens
  • 3 control unit
  • 4 imaging device
  • 10 pixel array unit
  • 40 vertical driving unit
  • 100, 100a, 100b pixel unit
  • 190 analog-to-digital conversion unit
  • 300, 302 , 304 on-chip lens
  • 1400 phase difference detection unit
  • FD floating diffusion (accumulation unit)
  • TR1 overflow gate transistor (first transistor)
  • TR2 charge transfer transistor (second transistor)
  • TRG_A to TRG_D, TRG_A1 to TRG_D1, TRG_A2 to TRG_D2 control signals
  • OFG_A to OFG_D, OFG_A1 to OFG_D1, OFG_A2 to OFG_D2 control signals
  • PD_A to PD_D, PC_E to PC_H photoelectric conversion elements
  • FD floating diffusion.

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

[解決手段]本開示によれば、複数の画素ユニットを備える撮像装置であって、画素ユニットは、複数の光電変換素子と、画素ユニット内の光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、複数の光電変換素子により光電変換された電荷を異なる期間にフローティングディフュージョンに転送し、異なる期間に応じて、アナログデジタル変換部による変換期間を異ならせる第1モードと、複数の光電変換素子のうちの少なくとも2つにより生成された電荷をフローティングディフュージョンに転送し、アナログデジタル変換部により同時に変換する第2モードと、を有する、撮像装置が提供される。

Description

撮像装置、および電子機器
 本開示は、撮像装置、および電子機器に関する。
 画素ごとにAD変換を行う画素AD方式の撮像装置が知られている。しかし、画素ごとにAD変換部を設けるため、画素サイズが大きくなってしまい画素の微細化が困難になる。そこで、複数の画素でAD変換部を共有するエリア毎にAD変換を行う撮像装置の開発が進められている。
国際公開2017/119220号
 一方で、共有するエリア毎にAD変換を行う撮像装置では、画素ごとの読み出し時間がずれることにより、画像の歪が発生する。
 そこで、本開示では、画素サイズの大型化を抑制しつつ、画像の歪を抑制可能な撮像装置、および電子機器を提供する。
 上記の課題を解決するために、本開示によれば、複数の画素ユニットを備える撮像装置であって、
 前記画素ユニットは、
 複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、撮像装置が提供される。
 前記複数の光電変換素子のそれぞれは、第1トランジスタを介して前記フローティングディフュージョンに接続され、
 前記第1トランジスタを接続状態又は非接続状態にする第1制御信号を供給する、垂直駆動部を、更に備えてもよい。
 前記複数の光電変換素子のそれぞれには、第2トランジスタを介して所定の電位が供給され、
 前記垂直駆動部は、前記第2トランジスタを接続状態又は非接続状態にする2制御信号を供給する、垂直駆動部を、更に備えてもよい。
 前記垂直駆動部は、モード設定信号に応じて、前記第1制御信号、及び前記第2制御信号を変更してもよい。
 前記複数の光電変換素子のそれぞれは、同一の波長帯域の光を受光してもよい。
 前記複数の光電変換素子の少なくとも2つの光電変換素子のそれぞれは、異なる色のカラーフィルタを介して、光を受光してもよい。
 前記複数の光電変換素子の少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成されてもよい。
 前記複数の光電変換素子のそれぞれは、それぞれに対応する位置に配置されたレンズを介して光を受光してもよい。
 前記複数の光電変換素子の少なくとも2つの光電変換素子は、前記少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光してもよい。
 前記複数の光電変換素子は、シリコンにより形成された第1光電変換素子と、非シリコンにより形成された第2光電変換素子と、を有してもよい。
 前記第1光電変換素子と、前記第2光電変換素子は積層され、前記第1光電変換素子は、前記第2光電変換素子を透過した光を受光してもよい。
 前記積層された前記第1光電変換素子と、前記第2光電変換素子とに対応する位置に配置されたレンズを透過した光を受光してもよい。
 前記垂直駆動部は、前記第1モードでは、前記複数の光電変換素子のそれぞれに接続される前記第2トランジスタを時系列に非接続状態から接続状態に制御してもよい。
 前記垂直駆動部は、前記第2モードでは、前記複数の光電変換素子のそれぞれに接続される前記第2トランジスタを同時に非接続状態から接続状態に制御してもよい。
 前記画素ユニット内の前記複数の光電変換素子は、緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子と、赤色フィルタを介して受光する光電変換素子と、青色フィルタを介して光を受光する光電変換素子を有し、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記赤色フィルタ又は青色フィルタを介して受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換する第1期間と、前記緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する前記第1期間と異なる第2期間とを有するモードと、を有してもよい。
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
 前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
 前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
 前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 前記画素ユニット内の前記複数の光電変換素子のうち少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成され、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記複数の光電変換素子の内の1つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の2つの光電変換素子により生成された電荷をフローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 上記の課題を解決するために、本開示によれば、
 第1の画素ユニットと第2の画素ユニットとがそれぞれ複数配置され、
 第1の画素ユニットに供給される第1制御信号と、第2の画素ユニットに供給される第1制御信号はそれぞれ垂直駆動部に接続され、
 前記垂直駆動部は前記第1の画素ユニットに供給される第1制御信号と、前記第2の画素ユニットに供給される第1制御信号をモード設定信号に応じて変更する、撮像装置が提供される。
 上記の課題を解決するために、本開示によれば、
 前記撮像装置と、
 前記撮像装置を用いて生成された画像データに応じて、前記モード設定信号を生成する制御部と、を備える電子機器が提供される。
 前記制御部は、前記画像データに基づく被写体の明るさの度合いと、前記被写体の動きの度合いと、に基づき、前記モード設定信号を生成してもよい。
 前記制御部は、前記被写体の動きの度合いと、に基づき、前記モード設定信号を生成してもよい。
 上記の課題を解決するために、本開示によれば、複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
 前記レンズの位置が固定される固定モードと、
 前記異なるタイミング毎に前記レンズの位置が異なる移動モードと、の少なくとも一方
 を有する、電子機器が提供される。
 前記複数の位相差画素の画像信号に基づき、位相差情報を生成する位相差検出部と、
 前記位相差情報を用いて、次フレーム、又は次サブフレームの前記レンズの位置を推論する推論部と、
 を更に備えてもよい。
 前記固定モードでは、
 前記位相差検出部は、前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成し、
 前記推論部は、前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論してもよい。
 前記制御部は、次フレームの撮影開始時に基づき、前記推論部が推論した前記レンズの位置に前記レンズを移動させてもよい。
 前記移動モードにおいて、
 前記制御部は、前記複数の画素グループ毎にえられた撮像画像を表示部に表示させてもよい。
 前記表示部に表示される画像を選択する指示信号を入力する入力部を更に備え、
 前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像を選択してもよい。
 前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像のうちから選択された撮像画像のみを記憶部に記憶させてもよい。
 画素アレイ部は、矩形状の領域に分けられ、前記複数の像面位相差画素を含む画素が行列状に配置されており、
 前記制御部は、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出してもよい。
 前記移動モードにおいて、
 前記矩形状の領域毎に複数の像面位相差画素が含まれ、
 前記矩形状の領域毎に所定の順番で読み出された画像信号に基づき、位相差情報を生成する位相差検出部と、 
 前記位相差情報を用いて、前記所定の順番に応じてレンズの位置を推論することが可能である推論部と、
 を更に備えてもよい。
 上記の課題を解決するために、本開示によれば、
 画素アレイ部は、前記複数の像面位相差画素を含む画素が行列状に配置されており、
 前記画素アレイ部は矩形状の領域に分けられ、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出す制御部と、
 を備える電子機器が提供させてもよい。
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、
 複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有してもよい。
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有してもよい。
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有してもよい。
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
 前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
 前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
 前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記画素ユニット内の前記複数の光電変換素子のうち少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成され、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有してもよい。
 上記の課題を解決するために、本開示によれば、
 複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、
 前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成する位相差検出部と、
 前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論する推論部と、
 を備える電子機器が提供される。
 上記の課題を解決するために、本開示によれば、
 複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
 前記制御部は、前記複数の画素グループ毎で前記レンズの位置を変更する電子機器が提供される。
電子機器の一例の構成を示すブロック図。 撮像装置の構成例を示す図。 水平制御部の構成例を示す図。 画素ユニットの構成例を示すブロック図。 ユニットの回路構成例を示すブロック図。 1画素に対して1つのオンチップレンズを配置したユニットの構成例を示す図。 像面位相画素にオンチップレンズを配置したユニットの構成例を示す図。 4画素に対して1つのオンチップレンズ2を配置したユニットの構成例を示す図。 2画素に対して1つのオンチップレンズを配置したユニットの構成例を示す図。 ベイヤー配列のカラーフィルタを配置したユニットの構成例を示す図。 像面位相画素を含むベイヤー配列のユニットの構成例を示す図。 位相方向が異なる像面位相画素を含むベイヤー配列のユニットの構成例を示す図。 モード1の制御例を示すタイムチャート。 モード2の制御例を示すタイムチャート。 モード1とモード2の制御例を示すフローチャート。 低歪みモードを有する制御例を示すフローチャート。 ベイヤー配列の低歪みモードを有する制御例を示すフローチャート。 一つのオンチップレンズを配置したユニットを用いた制御例を示すフローチャート。 像面位相差画素を配置したユニットを用いた制御例を示すフローチャート。 HDRモード有する制御例を示すフローチャート。 第2実施形態に係る画素ユニットの構成例を示すブロック図。 図21Aに係る画素ユニットの別の構成例を示すブロック図。 図6で示すユニットの組合わせ例を示す図。 ユニット(図7)とユニット(図6)との組合せの例を示す図。 ユニット(図8)とユニット(図6)との組合せの例を示す図。 ユニット(図9)とユニット(図6)との組合せの例を示す図。 図8で示すユニットの組合わせ例を示す図。 図10で示すユニットの組合わせ例を示す図。 ユニット(図7)とユニット(図10)との組合せの例を示す図。 モードnの制御例を示すタイムチャート。 モードmの制御例を示すタイムチャート。 第3実施形態に係る画素ユニットの構成例を示すブロック図。 第3実施形態に係るユニットの配置例を示すブロック図。 第3実施形態に係るユニットを用いた制御例を示すフローチャート。 ユニット(図8)が配置された画素アレイ部の例を示す図。 モード2(AFモード2)、モード3(AFモード3)、モード4(GSモード)のタイムチャ-ト。 制御部の構成例と画素アレイ部の構成例を示す図。 被写体の輝度が明時であり、動きの度合いが高い場合のモード決定例を示す表。 被写体の輝度が暗時であり、動きの度合いが高い場合のモード決定例を示す表。 被写体の輝度が明時であり、動きの度合いが低い場合のモード決定例を示す表。 被写体の輝度が暗時であり、動きの度合いが低い場合のモード決定例を示す表。 第5実施形態に係る電子機器の一例の構成を示すブロック図。 第5実施形態に係る画素アレイでの撮像例を示す図。 第3モードでの電子機器の駆動例を示す図。 第4モードでの電子機器の駆動例を示す図。 クラスタ読み出しの動作例を示す図。 画素回路内の像面位相画素の配置例を示す図。 第5モードでの電子機器1の駆動例を示す図。 比較例の撮像動作例を示す図。 車両制御システムの概略的な構成の一例を示すブロック図。 車外情報検出部及び撮像部の設置位置の一例を示す説明図。
 以下、図面を参照して、撮像装置、および電子機器の実施形態について説明する。以下では、撮像装置、および電子機器の主要な構成部分を中心に説明するが撮像装置、および電子機器には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
(第1実施形態)
 図1は、各実施形態に共通して適用可能な電子機器1の一例の構成を示すブロック図である。図1において、電子機器1は、光学系2と、制御部3と、撮像装置4と、画像処理部5と、メモリ6と、記憶部7と、表示部80と、インターフェイス(I/F)部9と、入力デバイス12と、を備える。
 ここで、電子機器1としては、デジタルスチルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォンなどを適用することができる。また、電子機器1として、監視カメラや車載用カメラ、医療用のカメラなどを適用することも可能である。
 撮像装置4は、例えば行列状の配列で配置される複数の光電変換素子を含む。光電変換素子は、受光した光を光電変換にて電荷に変換する。撮像装置4の詳細は後述する。
 光学系2は、1または複数枚のレンズの組み合わせによる主レンズと、主レンズを駆動するための機構と、を含み、被写体からの像光(入射光)を、主レンズを介して撮像装置4の受光面上に結像させる。また、光学系2は、制御信号に従いフォーカスを調整するオートフォーカス機構や、制御信号に従いズーム率を変更するズーム機構を備える。また、電子機器1は、光学系2を着脱可能とし、他の光学系2と交換できるようにしてもよい。さらに、撮像装置4のオンチップレンズが光学系2に含まれる場合がある。
 画像処理部5は、撮像装置4から出力された画像データに対して所定の画像処理を実行する。例えば、画像処理部5は、フレームメモリなどによるメモリ6が接続され、撮像装置4から出力された画像データをメモリ6に書き込む。画像処理部5は、メモリ6に書き込まれた画像データに対して所定の画像処理を実行し、画像処理された画像データを再びメモリ6に書き込む。
 記憶部7は、例えばフラッシュメモリやハードディスクドライブなどの不揮発性のメモリであって、画像処理部5から出力された画像データを不揮発に記憶する。表示部80は、例えばLCD(Liquid  Crystal  Display)といった表示デバイスと、当該表示デバイスを駆動する駆動回路と、を含み、画像処理部5が出力された画像データに基づく画像を表示することができる。I/F部9は、画像処理部5から出力された画像データを外部に送信するためのインターフェイスである。I/F部9としては、例えばUSB(Universal  Serial  Bus)を適用することができる。これに限らず、I/F部9は、有線通信または無線通信によりネットワークに接続可能なインターフェイスであってもよい。
 入力デバイス12は、ユーザ入力を受け付けるための操作子などを含む。電子機器1が例えばデジタルスチルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォンであれば、入力デバイス12は、撮像装置4による撮像を指示するためのシャッタボタン、あるいは、シャッタボタンの機能を実現するための操作子を含むことができる。
 制御部3は、例えばCPU(Central  Processing  Unit)などのプロセッサと、ROM(Read  Only  Memory)およびRAM(Random  Access  Memory)を含み、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて、この電子機器1の全体の動作を制御する。例えば、制御部3は、入力デバイス12に受け付けられたユーザ入力に応じて、電子機器1の動作を制御することができる。また、制御部3は、画像処理部5の画像処理結果に基づき、光学系2におけるオートフォーカス機構を制御することができる。また、制御部3は、撮像装置4から出力された画像データに基づき、撮像装置4の駆動モードを設定することが可能である。なお、本実施形態では駆動モードを単にモードと称する場合がある。
 図2は、本技術の実施の形態における撮像装置4の構成例を示す図である。この撮像装置4は、画素アレイ部10と、時刻コード生成部20と、参照信号生成部30と、垂直駆動部40、水平制御部50とを備える。
 画素アレイ部10は、複数の画素ユニット100が配置されて、画像信号を生成する。この画素アレイ部10は、2次元行列状に配置されて画像信号を生成する画素ユニット100と画素列の間に配置される複数の時刻コード転送部400とにより構成される。画素ユニット100は、複数の画素140(後述する図4参照)を有する。さらに、複数の画素140は、2次元行列状に配置される。画素ユニット100は、光電変換を行ってアナログ画像信号を生成し、このアナログ画像信号に対してアナログデジタル変換を行うものである。その後、画素ユニット100は、アナログデジタル変換の結果として後述する時刻コードを出力する。時刻コード転送部400は、この時刻コードを転送する。信号線101は、画素ユニット100と時刻コード転送部400とを接続する信号線である。画素ユニット100の詳細については、後述する。
 時刻コード生成部20は、時刻コードを生成し、時刻コード転送部400に対して出力する。ここで、時刻コードとは、画素ユニット100におけるアナログデジタル変換の開始からの経過時間を示す符号である。この時刻コードは、変換後のデジタルの画像信号のビット数に等しいサイズであり、例えば、グレイコードを使用することが可能である。時刻コードは、信号線21を介して時刻コード転送部400に対して出力される。
 参照信号生成部30は、参照信号を生成し、画素ユニット100に対して出力する。この参照信号は、画素ユニット100におけるアナログデジタル変換の基準となる信号であり、例えば、電圧がランプ状に低下する信号を使用することができる。この参照信号は、信号線31を介して出力される。また、時刻コード生成部20による時刻コードの生成および出力は、参照信号生成部30による参照信号の生成および出力と同期して実行される。これにより、時刻コード生成部20および参照信号生成部30から出力された時刻コードおよび参照信号は1対1に対応し、時刻コードから参照信号の電圧を取得することができる。後述する時刻コード復号部52は、時刻コードから参照信号の電圧を取得することにより復号を行う。 
 垂直駆動部40は、画素ユニット100の制御信号等を生成して出力する。この制御信号は、信号線41を介して画素ユニット100に出力する。また、垂直駆動部40は、制御部3から供給される駆動モードにより制御信号を変更する。
 水平制御部50は、時刻コード転送部400により転送された時刻コードを処理する。時刻コードは、信号線11を介して水平制御部50に入力される。
 図3は、本技術の実施の形態における水平制御部50の構成例を示す図である。この水平制御部50は、時刻コード復号部52と、カラム信号処理部53と、クロック信号生成部54とを備える。 
 時刻コード復号部52は、時刻コードを復号する。この復号により、アナログデジタル変換の結果であるデジタルの画像信号が生成される。この時刻コード復号部52は、水平制御部50に複数配置されており、画素アレイ部10に配置された時刻コード転送部400と1対1に対応している。これらの時刻コード復号部52には、対応する時刻コード転送部400から同時に時刻コードが入力される。この入力された時刻コードの復号は、これらの時刻コード復号部52により、同時並行して行われる。その後、復号された複数のデジタルの画像信号は、カラム信号処理部53に入力される。 
 カラム信号処理部53は、時刻コード復号部52により出力されたデジタルの画像信号を処理する。この処理として、相関二重サンプリング(Correlated Double Sampling:CDS)を行うことが可能である。また、カラム信号処理部53は、処理されたデジタルの画像信号に対して水平転送を行う。これは、複数の時刻コード復号部52により同時に入力された複数のデジタルの画像信号に対応する処理済みの画像信号を順に転送して出力する。カラム信号処理部53から出力された画像信号は、撮像装置4の出力画像信号に該当する。 
 図4は、画素ユニット100の構成例を示すブロック図である。図4に示すように、画素ユニット100は、AD変換部190と、ユニット200とを有する。AD変換部190は、ユニット200により生成されたアナログ画像信号をアナログデジタル変換する。このアナログデジタル変換部(AD変換部)190は、比較部150と、比較出力処理部160と、変換結果保持部170とを備える。
 ユニット200は、複数の画素140と、複数の画素140に接続されるフローティングディフュージョン(浮遊拡散層)FDとを有する。例えば、アナログデジタル変換部190とユニット200とは積層され、構成される。フローティングディフュージョンFDには、複数の画素140から出力された複数のアナログ画像信号のうちの1つ、又は複数のアナログ画像信号の加算値に応じた電荷が蓄積される。すなわち、フローティングディフュージョンFDの電圧は、複数のアナログ画像信号のうちの1つ、又は複数のアナログ画像信号の加算値に対応する。このため、以後の説明では、フローティングディフュージョンFDの電圧をアナログ画像信号と称する場合がある。なお、本実施形態に係るフローティングディフュージョン(浮遊拡散層)FDが畜電部に対応する。
 アナログデジタル変換部190は、複数の画素140等により生成されたアナログ画像信号をアナログデジタル変換する。このアナログデジタル変換部190は、比較部150と、比較出力処理部160と、変換結果保持部170とを備える。アナログデジタル変換部190は、画素アレイ部10内に構成されるため、より高速にフローティングディフュージョンFDの電圧をAD変換することが可能となる。また、ユニット200に対して一つのアナログデジタル変換部190が構成されるので、画素140ごとに構成される場合よりも、画素アレイ部10の容積をより小さくすることが可能となる。
 比較部150は、参照信号生成部30により生成された参照信号RAMPとフローティングディフュージョンFDの電圧とを比較する。比較結果は、比較出力処理部160に対して出力される。すなわち、この比較部150は、画素140等から出力された複数のアナログ画像信号のうちの1つ、又は複数のアナログ画像信号の加算値と参照信号との比較を行う。この比較結果は電気信号として出力される。例えば、アナログ画像信号の電圧が参照信号の電圧より小さい時値「1」、アナログ画像信号の電圧が参照信号の電圧より大きい時値「0」の信号を出力する。
 比較出力処理部160は、比較部150により出力された比較結果を処理し、処理済みの比較結果を変換結果保持部170に対して出力する。処理済みの比較結果は、変換結果保持部170に対して出力される。この処理として、例えば、レベル変換や波形の整形を行うことができる。 
 変換結果保持部170は、比較出力処理部160により出力された処理済みの比較結果に基づいて時刻コード転送部400から出力された時刻コードをアナログデジタル変換の結果として保持する。この変換結果保持部170は、比較結果が、例えば、値「1」から「0」に変化した際に、時刻コード転送部400から出力された時刻コードを保持する。この際の時刻コードは、時刻コード生成部20により生成されて時刻コード転送部400により画素140に転送された時刻コードである。その後、変換結果保持部170は、垂直駆動部40の制御により、保持した時刻コードを時刻コード転送部400に対して出力する。時刻コード転送部400は、この出力された時刻コードを水平制御部50の時刻コード復号部52に転送する。 
 変換結果保持部170は、参照信号RAMPとして高い電圧から低い電圧までランプ状に変化する信号を使用し、この参照信号RAMPの電圧がアナログ画像信号の電圧より高い状態から低い状態に移行した際の時刻コードを保持する。すなわち、アナログ画像信号と参照信号とが略等しくなった際の時刻コードが変換結果保持部170に保持される。保持された時刻コードは、時刻コード復号部52(図3参照)において対応する時刻における参照信号の電圧を表すデジタルの信号に変換される。これにより、画素140等により生成されたアナログ画像信号のアナログデジタル変換を行うことができる。
 図5は、ユニット200の回路構成例を示すブロック図である。図4を参照しつつ、図5を用いてユニット200の回路構成例を説明する。図5に示すように、ユニット200は、複数の画素140が、ノードnfに接続される。すなわち、ユニット200は、複数の光電変換素子PD_A、PD_B、PD_C、PD_Dと、複数のオーバーフローゲートトランジスタTR1と、複数の電荷転送トランジスタTR2と、フローティングディフュージョンFD(図中ではコンデンサの記号で示す)とを有する。オーバーフローゲートトランジスタTR1、電荷転送トランジスタTR2は例えばNチャンネルMOSトランジスタである。以下の説明では、複数の光電変換素子PD_A、PD_B、PD_C、PD_Dを有する画素140をそれぞれ、Pixel A、Pixel B、Pixel C、Pixel D(後述の図13参照)と記す場合がある。なお、本実施形態に係るオーバーフローゲートトランジスタTR1が第1トランジスタに対応し、本実施形態に係る電荷転送トランジスタTR2が第2トランジスタに対応する。
 ここでは、光電変換素子PD_Aを有する画素140について説明するが、他の画素140も同等の構成を有する。より具体的には、オーバーフローゲートトランジスタTR1のドレインは電源電圧VOFGが印可され、ソースは光電変換素子PD_Aのカソードに接続される。光電変換素子PD_Aのアノードは接地される。また、電荷転送トランジスタTR2のソースは、光電変換素子PD_Aのカソードに接続され、ドレインは、ノードnfに接続される。ノードnfには、フローティングディフュージョンFDの一端が接続される。また、フローティングディフュージョンFDの他端は、接地される。さらにまた、ノードnfは、比較部150の反転端子に接続される。この比較部150の非反転端子には、参照信号RAMPが入力される。
 オーバーフローゲートトランジスタTR1のゲートには信号線Ofgaが接続され、制御信号OFG_Aが供給される。制御信号OFG_Aがハイレベルであるときに、オーバーフローゲートトランジスタTR1は導通状態となり、ロウレベルであるときに非導通状態となる。
 また電荷転送トランジスタTR2のゲートには信号線Trgaが接続され、制御信号TRG_Aが供給される。、制御信号TRG_Aがハイレベルであるときに、電荷転送トランジスタTR2は導通状態となり、ロウレベルであるときに非導通状態となる。
 光電変換素子PD_Aは、照射された光量に応じた電荷を生成し、生成した電荷を保持する。光電変換素子PD_Aには、例えばフォトダイオードを使用することができる。
 オーバーフローゲートトランジスタTR1は、光電変換素子PD_Aで過剰に生成された電荷を排出する。また、このオーバーフローゲートトランジスタTR1は、導通状態のときに、光電変換素子PD_Aに蓄積された電荷の排出を行う。
 電荷転送トランジスタTR2は、光電変換素子PD_Aにより生成された電荷をフローティングディフュージョンFDに転送する。すなわち、この電荷転送トランジスタTR2は光電変換素子PD_AとフローティングディフュージョンFDとの間を導通させることにより電荷の転送を行う。
 上述のように、このフローティングディフュージョンFDに保持された電荷に応じた信号は、光電変換素子PD_Aにより生成されたアナログ画像信号に該当し、比較部150に出力される。このように、画素140には、複数の信号線(Ofga、Trga)が接続され、制御信号OFG_A、TRG_Aが供給される。上述のように、他の画素140も同等の構成を有する。すなわち、他の画素140のそれぞれにも、複数の信号線(Ofg、Trg)が接続され、制御信号OFG_B、TRG_B、OFG_C、TRG_C、OFG_D、TRG_Dが供給される。なお、本実施形態に係る画素ユニット100は、画素140が4つであるがこれに限定されない。例えば、後述するように、画素140の数は、8でもよい。さらに、画素140の数は、16、32等でもよい。
 図6乃至図12を用いてユニット200の構成例を説明する。ユニット200には、各種のオンチップレンズ、フィルタ等を配置することが可能である。なお、本実施形態に係るフィルタはカラーフィルタの例で説明するがこれに限定されず、偏向フィルタなどを配置してもよい。
 図6は、1画素140に対して1つのオンチップレンズ300を配置したユニット200aの構成例を示す図である。図6に示すように、ユニット200aでは、画素140毎に、一つのオンチップレンズ300が設けられている。オンチップレンズ300により画素140の光電変換素子の光電変換部に光学系2(図1参照)を介して入射した光を集光することが可能である。
 図7は、3画素140及び像面位相画素10aのそれぞれにオンチップレンズ300を配置したユニット200bの構成例を示す図である。図7に示すように、ユニット200bでは、画素140及び像面位相画素(ZAF画素)10a毎に、一つのオンチップレンズ300が設けられている。像面位相画素10aは、例えば受光部にスリット状の絞りを配置しており、入射光の透過する範囲が制限される。すなわち、像面位相画素10aは、遮光部材によって受光部の一部が遮光された画素として構成される。
 オンチップレンズ300により画素140における光電変換素子の光電変換部に集光することが可能である。また、像面位画素10aにより、電子機器1の像面位相情報を得ることが可能であり、電子機器1のオートフォーカスが可能となる。
 図8は、4画素140に対して1つのオンチップレンズ302を配置したユニット200cの構成例を示す図である。図8に示すように、ユニット200cでは、4つの画素140に、一つのオンチップレンズ302が設けられている。オンチップレンズ302により4つの画素140の光電変換素子の光電変換部に集光することが可能である。ユニット200cでは、縦2画素ずつ同時に画素信号を加算することにより、位相情報を得ることも可能である。同様に、ユニット200cでは、横2画素ずつ同時に画素信号を加算することにより、像面位相情報を得ることも可能である。例えば像面位相画素140a(図7参照)の像面位相情報は、明時により精度が高く、ユニット200cの像面位相情報は、暗時により精度が高くなる。
 図9は、2画素140に対して1つのオンチップレンズ304を配置したユニット200dの構成例を示す図である。図9に示すように、ユニット200dでは、2つの画素毎に、一つのオンチップレンズ304が設けられている。これにより、ユニット200dの2つの画素140の組合せは像面位相差の検出が可能である。これにより、電子機器1の焦点状態の情報を得ることが可能であり、オートフォーカスが可能となる。ユニット200dの像面位相情報は、例えば暗時により精度が高くなる。このように例えば被写体の明るさに応じて、像面位相画素10a(図7参照)、ユニット200c、及びユニット200dそれぞれの像面位相情報を使い分けることが可能となる。
 図10は、ベイヤー(Bayer)配列のカラーフィルタR、G、Bを配置したユニット200eの構成例を示す図である。図において、符号RはカラーフィルタRを配置し、赤色光を受光する画素140、符号GはカラーフィルタGを配置し、緑色光を受光する画素140、符号BはカラーフィルタBを配置し、青色光を受光する画素140を示す。他の図面においても同様である。ユニット200eでは、カラー撮像が可能である。また、本実施形態ではカラーフィルタRを配置した画素を赤色画素と称し、カラーフィルタGを配置した画素を緑色画素と称し、カラーフィルタBを配置した画素を青色画素と称する場合がある。
 図11は、像面位相画素10aを含むベイヤー配列のユニット200fの構成例を示す図である。図12は、図11と位相方向が異なる像面位相画素10cを含むベイヤー配列のユニット200gの構成例を示す図である。ユニット200f、gでは、カラー撮像が可能である。また、ユニット200f、gでは、像面位相差の検出が可能である。
 ここで、図13及び図14を用いて、撮像装置4の撮像モードを説明する。撮像装置4は、上述のように制御部3(図1参照)からの制御信号にしたがい、OFG_A~OFG_D、TRG_A~TRG_Dの各制御信号を変更することで駆動モードが設定される。
 図13は、モード1の制御例を示すタイムチャートである。横軸は時間を示す。上述のように、Pixel A、 Pixel B、 Pixel C、 Pixel Dは、ユニット200を構成する各画素140を示す。また、制御信号OFG_A~OFG_Dは、オーバーフローゲートトランジスタTR1(図5参照)のゲート信号を示し、制御信号TRG_A~TRG_Dは、電荷転送トランジスタTR2のゲート信号を示す。制御部3から供給されるモード設定信号MODEは、例えばロウである場合にモード1を示し、ハイである場合にモード2を示す。
 図13に示すように、まず、制御信号OFG_Aがハイレベルとなり、Pixel Aの光電変換素子PD_A(図4参照)がリセットされる。続けて、制御信号OFG_Aがロウレベルになり、光電変換素子PD_Aによる光電変換期間tEXT_Aが開始される。
 次に、フローティングディフュージョンFD(図4参照)がリセットされ、Pixel AのAD変換期間tADCT_Aが開始される。続けて、制御信号TRG_Aがハイレベルとなり、Pixel Aの光電変換素子PD_Aの蓄積電荷がフローティングディフュージョンFDに転送され、光電変換期間tEXT_Aが終了する。続けて、AD変換期間tADCT_Aが終了する。Pixel B、 Pixel C、 Pixel Dも同様の駆動をし、AD変換期間tADCT_A~tADCT_Dが時系列にずれ、重ならないように実行される。モード1では、各AD変換期間tADCT_A~tADCT_Dが1AD期間に対応し、4AD期間が1Frameに対応する。
 このように、モード1では、ユニット200を構成する各画素140の光電変換期間tEXT_A~tEXT_Dが時系列にずれて実行される。そして、光電変換期間tEXT_A~tEXT_Dに連動し、上述のようにAD変換期間tADCT_A~tADCT_Dが重ならないように、時系列にずれて実行される。これらから分かるように、モード1の制御例では、画素Pixel A、 Pixel B、 Pixel C、 Pixel D毎の蓄積電荷がデジタル画像信号に変換される。これにより、モード1では、高解像度の画像の撮像が可能となる。また、画素Pixel A、 Pixel B、 Pixel C、 Pixel D毎の蓄積電荷がデジタル画像信号に変換されるモードを高解像モードと称する場合がある。
 図14は、モード2の制御例を示すタイムチャートである。横軸は時間を示す。Pixel A、 Pixel B、 Pixel C、 Pixel Dは、ユニット200を構成する各画素140を示す。また、制御信号OFG_A~OFG_Dは、オーバーフローゲートトランジスタTR1(図5参照)のゲート信号を示し、制御信号OFG_A~OFG_Dは、電荷転送トランジスタTR2のゲート信号を示す。モード設定信号MODEは、ロウである場合にモード1を示し、ハイである場合にモード2を示す。モード2は、画素アレイ部10に含まれる全画素140を同時に露光状態に駆動する、グローバルシャッタ方式に対応する例である。
 図14に示すように、まず、制御信号OFG_A~OFG_Dが同時にハイレベルとなり、Pixel A~Pixel Dの光電変換素子PD_A(図4参照)がリセットされる。続けて、OFG_A~OFG_Dが同時にロウレベルになり、光電変換素子PD_A~PD_Dによる光電変換期間tEXT_A~tEXT_Dが同時に開始される。なお、各AD変換期間tADCT_A~tADCT_Dが1AD期間に対応し、モード2では、1AD期間が1Frameに対応する。
 次に、フローティングディフュージョンFD(図4参照)がリセットされ、Pixel A~Pixel DのAD変換期間tADCT_A~tADCT_Dが同時に開始される。続けて、制御信号TRG_A~TRG_Gが同時にハイレベルとなり、Pixel A~Pixel Dの光電変換素子PD_A~PD_DAの蓄積電荷が同時にフローティングディフュージョンFDに転送され、光電変換期間tEXT_A~tEXT_Dが同時に終了する。続けて、AD変換期間tADCT_A~tADCT_Dが同時に終了する。これらから分かるように、モード2の制御例では、各画素Pixel A、 Pixel B、 Pixel C、 Pixel D毎の光電変換が同時に行われ、各蓄積電荷がフローティングディフュージョンFDにより合算され、デジタル画像信号に変換される。これにより、モード2では、モード1よりも解像度は低下するが、各画素における撮像時間のずれによる画像の歪みが抑制されたグローバルシャッタ(GS:Global Shutter)方式によるグローバルシャッタ撮像が可能となる。
 ここで、図15乃至図20で示すフローチャートを用いて各種の制御例を更に説明する。なお、図15乃至図20では、電子機器1(図1参照)における入力デバイス12からのモード選択信号によりモードを制御する例を説明するが、これに限定されない。後述するように、制御部3は、撮像装置4の画像データに基づき、モードを設定することも可能である。
 図15は、モード1とモード2の制御例を示すフローチャートである。図15に示すように、モード2は、グローバルシャッタ(GS:Global Shutter)撮影の制御例である。ここでは、ユニット200a(図6参照)を用いた例を説明する。
 まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づきGS撮影であるか否かを判定する(ステップS100)。グローバルシャッタ撮影でないと判定する場合(ステップS100のNO)、制御部3は、モード1として例えば図13で示した制御を開始する。すなわち、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS102)。次に、Pixel Bの露光による光電変換と、読み出し、AD変換を行う(ステップS104)。次に、Pixel Cの露光による光電変換と、読み出し、AD変換を行う(ステップS106)。次に、Pixel Dの露光による光電変換と、読み出し、AD変換を行う(ステップS108)。
 一方で、制御部3は、グローバルシャッタ撮影であると判定する場合(ステップS100のYES)、制御部3は、モード2として例えば図14で示した制御を開始する。すなわち、Pixel A~Pixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS110)。このように、モード1の高解像度撮影と、GS撮影を制御部3の制御にしたがい行うことが可能である。
 図16は、低歪みモードを有する制御例を示すフローチャートである。図16に示すように、モード2が低歪みモードに対応する例である。ここでは、ユニット200a(図6参照)を用いた例を説明する。
 図16に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づき低歪みモードであるか否かを判定する(ステップS200)。低歪みモードでないと判定する場合(ステップS200のNO)、制御部3は、モード1として例えば図15で示した制御ステップS102~ステップS108を実行する。このように、モード1では、高解像度撮影が可能である。
 一方で、制御部3は、低歪みモードであると判定する場合(ステップS200のYES)、制御部3は、モード2として、まず、Pixel A及びPixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS202)。次に、Pixel B及びPixel Cの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS204)。このように、低歪みモードでは、ユニット202aの2画素ごとに撮像を行うので、モード1よりも歪みが抑制された撮像を行うことが可能となる。
 図17は、ベイヤー配列のユニット200e(図10参照)を用いた場合の低歪みモードを有する制御例を示すフローチャートである。図17に示すように、モード2が低歪みモードに対応する例である。
 図17に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づき低歪みモードであるか否かを判定する(ステップS300)。低歪みモードでないと判定する場合(ステップS300のNO)、制御部3は、モード1として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行い、赤色信号を生成する(ステップS302)。次に、Pixel Bの露光による光電変換と、読み出し、AD変換を行い、緑色信号を生成する(ステップS304)。次に、Pixel Cの露光による光電変換と、読み出し、AD変換を行い、緑色信号を生成する(ステップS306)。そして、Pixel Dの露光による光電変換と、読み出し、AD変換を行い、青色信号を生成する(ステップS308)。このように、モード1では、高解像度撮影が可能である。
 一方で、制御部3は、低歪みモードであると判定する場合(ステップS300のYES)、制御部3は、モード2として、Pixel Aの露光による光電変換と、読み出し、AD変換を行い、赤色信号を生成する(ステップS310)。次に、Pixel Dの露光による光電変換と、読み出し、AD変換を行い、青色信号を生成する(ステップS312)。そして、次に、Pixel B及びPixel Cの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行い、緑色信号を生成する(ステップS314)。このように、ベイヤー配列の低歪みモードでは、ユニット200eにおける緑色画素の2画素の同時撮像を行うので、モード1よりも歪みが抑制された撮像を行うことが可能となる。
 図18は、4画素に一つのオンチップレンズを配置したユニット200c(図8参照)を用いた制御例を示すフローチャートである。図18に示すように、モード1がAFモード1に対応し、モード2がAFモード2に対応し、モード3がAFモード3に対応し、モード4がGSモードに対応する。このように、ユニット200cでは、4つのモードでの駆動が可能である。
 図18に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づきGSモードであるか否かを判定する(ステップS400)。GSモードでないと判定する場合(ステップS400のNO)、更にAFモード2であるか否かを判定する(ステップS402)。AFモード2でないと判定する場合(ステップS402のNO)、制御部3は、モード1として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS404)。次に、Pixel Bの露光による光電変換と、読み出し、AD変換を行う(ステップS406)。次に、Pixel Cの露光による光電変換と、読み出し、AD変換を行う(ステップS408)。次に、Pixel Dの露光による光電変換と、読み出し、AD変換を行う(ステップS410)。このように、AFモード1は高解像度モードに対応する。
 一方で、制御部3は、AFモード2であると判定する場合(ステップS402のYES)、更にAFモード3であるか否かを判定する(ステップS412)。AFモード3でないと判定する場合(ステップS412のNO)、制御部3は、モード2として、まず、Pixel A及びPixel Cの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS414)。次に、Pixel B及びPixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS416)。このように、AFモード2では、縦2画素による像面位相情報を得ることが可能である。
 一方で、制御部3は、AFモード3であると判定する場合(ステップS412のYES)、制御部3は、モード3として、まず、Pixel A及びPixel Bの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS418)。次に、Pixel B及びPixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS420)。このように、AFモード3では、横2画素による像面位相情報を得ることが可能である。
 一方で、制御部3は、GSモードであると判定する場合(ステップS400のYES)、Pixel A~Pixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)にこのように、ユニット200cでは、4個の画素を4回AD変換するモード(AFモード1)と、左右それぞれ2個の画素をフローティングディフュージョンFDで加算して2回AD変換するモード2、3(AFモード2、AFモード3)の少なくとも2つの動作モードを備えている。モード1では、非GS(Global Shutter)だが高解像度の撮影が可能となる。一方で、モード2、3では、高速に位相差を検知することが可能となり、AF(Auto Focus)処理をより高速に行うことが可能となる。モード4では、GS撮影が可能となり、低歪みな画像の撮像が可能となる。
 図19は、同一色でかつA画素に像面位相差画素(ZAF画素)を配置したユニット200b(図7参照)を用いた制御例を示すフローチャートである。図19に示すように、モード1がAFモードに対応し、モード2がAF/GSモードに対応する。
 図19に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づきAF/GSモードであるか否かを判定する(ステップS500)。AF/GSモードでないと判定する場合(ステップS500のNO)、制御部3は、モード1として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS502)。次に、Pixel Bの露光による光電変換と、読み出し、AD変換を行う(ステップS504)。次に、Pixel Cの露光による光電変換と、読み出し、AD変換を行う(ステップS506)。次に、Pixel Dの露光による光電変換と、読み出し、AD変換を行う(ステップS508)。このように、モード1は高解像度モードに対応する。
 一方で、制御部3は、AF/GSモードであると判定する場合(ステップS500のYES)、制御部3は、モード2として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS510)。次に、制御部3は、Pixel B、Pixel C及びPixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS512)。
 このように、モード1では、4個の画素を4回AD変換し、各画素の画像信号を得ることが可能である。モード2では、像面位相差画素以外の3個の画素をフローティングディフュージョンFDで加算し、AD変換する。また、モード2では、像面位相差画素のみを、AD変換し、像面位相差画素の画像信号を得ることが可能である。これにより、モード1は非GS撮像であるが高解像度の撮影が可能となり、モード2では歪の抑制されたGSモードと、像面位相差画素による位相差検知との同時実現が可能となる。
 図20は、4画素に一つのオンチップレンズを配置したユニット200c(図8参照)を用いたHDR(ハイダイナミックレンジ:High Dynamic Range)モード有する制御例を示すフローチャートである。図20に示すように、モード2がHDRモード2に対応する。
 図20に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づきHDRモードであるか否かを判定する(ステップS600)。HDRモードでないと判定する場合(ステップS400のNO)、制御部3は、モード1として、図18で示したステップS404~ステップS410の処理を行う。すなわち、モード1は高解像度モードに対応する。
 一方で、制御部3はHDRモードであると判定する場合(ステップS600のYES)、制御部3は、モード2として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS602)。次に、Pixel A及びPixel Bの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS604)。次に、Pixel A、Pixel B、及びPixel Cの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS606)。そして、Pixel A~Pixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS608)。
 このように、HDRモードでは、FD加算なしで1個の画像信号を生成し、次に2個の画素の画像信号をフローティングディフュージョンFDで加算して、画像信号を生成する。更に、次に3個の画素の画像信号をフローティングディフュージョンFDで加算して、画像信号を生成し、次に4個の画素の画像信号をフローティングディフュージョンFDで加算して、画像信号を生成する。加算する画素の数が増加するにしたがい、低輝度に対する感度が増加するので、ダイナミックレンジの異なる画像信号を得ることが可能となる。このため、各画像信号を加算することにより、ハイダイナミックレンジな画像信号を得ることが可能となる。例えば、各画像信号の加算は、画像処理部5で実行することが可能である。このように、モード2では4画素の画素数を変更した画像信号を合成するHDR(High Dynamic Range)機能を実行可能とする。
 以上説明したように、第1実施形態に係る電子機器1の画素ユニット100では、複数の画素140に対して一つのフローティングディフュージョンFDとAD変換部190とを構成し、複数の画素140のアナログ画像信号のAD変換部190によるAD変換期間tADCT_A~tADCT_Dをずらす高解像度モードと、複数の画素140の画素のうちの少なくとも2つの画素のアナログ画像信号をフローティングディフュージョンFDで合算し、AD変換部190によるAD変換を行う低歪みモードを有することとした。これにより、高解像度モードでは、複数の画素140の各画素に対応した解像度の画像データを生成可能となる。一方で、低歪みモードでは、少なくとも2つの画素のアナログ画像信号を合算するので、各画素における撮像時間のずれによる画像の歪みが抑制された画像データを生成可能となる。
(第2実施形態)
 第2実施形態に係る電子機器1は、撮像装置4の画素ユニットが複数の第1画素ユニット100a、複数の第2画素ユニット100bとで構成される点で、第1実施形態に係る電子機器1と相違する。以下では、第1実施形態に係る電子機器1と相違する点を説明する。
 図21Aは、第2実施形態に係る画素ユニットの構成例を示すブロック図である。図21に示すように、画素アレイ部10は、複数の第1画素ユニット100aと、複数の第2画素ユニット100bとで構成される。第1画素ユニット100aは、AD変換部190aと、ユニット200aとを有する。このアナログデジタル変換部190aは、比較部150aと、比較出力処理部160aと、変換結果保持部170aとを備える。また、ユニット200_ aは、複数の画素140aと、複数の画素140に接続されるフローティングディフュージョンFDaとを有する。同様に、第1画素ユニット100baは、AD変換部190bと、ユニット200bとを有する。このアナログデジタル変換部190bは、比較部150bと、比較出力処理部160bと、変換結果保持部170bとを備える。また、ユニット200_ bは、複数の画素140bと、複数の画素140に接続されるフローティングディフュージョンFDbとを有する。
 図21Aに示すように、画素アレイ部10の画面全体にこの第1画素ユニット100aと、第2画素ユニット100bとが配置される。第1画素ユニット100aと、第2画素ユニット100bとの数は異なってもよい。例えば、本実施形態に係る画素アレイ部10では、第1画素ユニット100aよりも第2画素ユニット100bの方が多く配置されている。第1画素ユニット100aには制御信号(TRG_A1~TRG_D1、 OFG_A1~OFG_D1)が、第2画素ユニット100bには制御信号(TRG_A2~TRG_D2、 OFG_A2~OFG_D2)が垂直駆動部40から供給される。このように、第1画素ユニット100aに供給されるOFG/TRG信号と第2画素ユニット100bに供給されるOFG/TRG信号は、垂直駆動部40から異なる信号が供給されるように、信号線41aと信号線41bとを分離して配線される。また、制御信号CMEN1、CMEN2は、制御部3から供給される。制御信号CMEN1、CMEN2がハイレベルの期間にAD変換が行われる。
 また、第1画素ユニット100aと、第2画素ユニット100bとは、基本的には異なるモードで動作するが、同一のモードで動作してもよい。例えば、上述した図15乃至図20の中で説明したいずれかのモードを第1画素ユニット100aと、第2画素ユニット100bとは独立に実行することが可能である。
 図21Bは、第2実施形態に係る画素ユニット200bの別の構成例を示すブロック図である。図21Bに示すように、ユニット200cの画素140cを構成する光電変換素子PC_E~PC_Hが、非シリコンで形成されたPhotoelectric Conversion Element(PC)であり、例えば有機膜である点で、図21Aに示した画素ユニット200bと相違する。このように、光電変換素子には、非シリコンで形成された光電変換素子PC_E~PC_Hを用いてもよい。
 ここで、図22乃至図28を用いてユニット200の組合わせ例を説明する。以下の説明では、左図aが第1画素ユニット100aのユニット200の例を示し、左図bが第2画素ユニット100bのユニット200の例を示す。図22は、ユニット200a(図6参照)とユニット200a(図6参照)との組合せの例である。図23は、ユニット200b(図7参照)とユニット200a(図6参照)との組合せの例である。図24は、ユニット200c(図8参照)とユニット200a(図6参照)との組合せの例である。図25は、ユニット200d(図9参照)とユニット200a(図6参照)との組合せの例である。図26は、ユニット200c(図8参照)とユニット200c(図8参照)との組合せの例である。図27は、ユニット200e(図10参照)とユニット200e(図10参照)との組合せの例である。図28は、ユニット200b(図7参照)とユニット200e(図10参照)との組合せの例である。このように、第1画素ユニット100aと、第2画素ユニット100bとでは、オンチップレンズの形状や像面位相画素(ZAF)の有無を任意に組み合わせることが可能である。また、光電変換素子の種類も任意に組み合わせることが可能である。
 ここで、図29及び図30を用いて、撮像装置4の撮像モードを説明する。撮像装置4は、制御部3(図1参照)からの制御信号にしたがい、OFG_A1~OFG_D1、TRG_A1~TRG_D1、 OFG_A2~OFG_D2、TRG_A2~TRG_D2の各制御信号を変更することでモードが設定される。
 図29は、モードnの制御例を示すタイムチャートである。横軸は時間を示す。Pixel A1、 Pixel B1、 Pixel C1、 Pixel D1は、ユニット200_aを構成する各画素140aを示す。また、制御信号OFG_A1~OFG_D1は、オーバーフローゲートトランジスタTR1(図5参照)のゲート信号を示し、制御信号TRG_A1~TRG_D1は、電荷転送トランジスタTR2のゲート信号を示す。 
 図29に示すように、まず、制御信号OFG_A1及びOFG_C1がハイレベルとなり、Pixel A1及びPixel C1の光電変換素子がリセットされる。続けて、制御信号OFG_A1及びOFG_C1がロウレベルになり、Pixel A1及びPixel C1の光電変換期間tEXT_A1、tEXT_C1が開始される。
 次に、フローティングディフュージョンFD(図4参照)がリセットされ、Pixel A1及びPixel C1のAD変換期間tADCT_A1、tADCT_A1が開始される。続けて、制御信号TRG_A1、及びTRG_C1がハイレベルとなり、Pixel A1及びPixel C1の蓄積電荷がフローティングディフュージョンFDに転送され、光電変換期間tEXT_A1、tEXT_C1が終了する。続けて、AD変換期間tADCT_A1、tADCT_C1が終了する。Pixel B1、及び Pixel D1も同様の駆動が実行される。各AD変換期間tADCT_A~tADCT_Dが1AD期間に対応し、4AD期間が1Frameに対応する。
 このように、モードnでは、画素Pixel A1、及びPixel C1の光電変換が同時に行われ、各蓄積電荷がフローティングディフュージョンFDにより合算され、同時にデジタル画像信号に変換される。次に、画素Pixel B1、及びPixel D1の光電変換が同時に行われ、各蓄積電荷がフローティングディフュージョンFDにより合算され、同時にデジタル画像信号に変換される。
 図30は、モードmの制御例を示すタイムチャートである。横軸は時間を示す。横軸は時間を示す。Pixel A2、 Pixel B2、 Pixel C2、 Pixel D2は、ユニット200_bを構成する各画素140bを示す。また、制御信号OFG_A2~OFG_D2は、オーバーフローゲートトランジスタTR1(図5参照)のゲート信号を示し、制御信号TRG_A2~TRG_D2は、電荷転送トランジスタTR2のゲート信号を示す。
 図30に示すように、まず、制御信号OFG_A2がハイレベルとなり、Pixel A2がリセットされる。続けて、制御信号OFG_A2がロウレベルになり、光電変換期間tEXT_A2が開始される。
 次に、フローティングディフュージョンFDb(図21参照)がリセットされ、Pixel A2のAD変換期間tADCT_A2が開始される。続けて、制御信号TRG_A2がハイレベルとなり、Pixel A2の蓄積電荷がフローティングディフュージョンFDbに転送され、光電変換期間tEXT_A2が終了する。続けて、AD変換期間tADCT_A2が終了する。Pixel B2、 Pixel C2、 Pixel D2も同様の駆動をし、AD変換期間tADCT_A2~tADCT_D2が重ならないように、時系列にずれて実行される。各AD変換期間tADCT_A2~tADCT_D2が1AD期間に対応し、4AD期間が1Frameに対応する。
 このように、モードmでは、ユニット200bを構成する各画素140の光電変換期間tEXT_A2~tEXT_D2が時系列にずれて実行される。そして、光電変換期間tEXT_A2~tEXT_D2に連動し、上述のようにAD変換期間tADCT_A2~tADCT_D2が重ならないように、時系列にずれて実行される。これらから分かるように、モードmの制御例では、画素Pixel A2、 Pixel B2、 Pixel C2、 Pixel D2毎の蓄積電荷がデジタル画像信号に変換される。これにより、モードmでは、高解像度の画像の撮像が可能となる。
 以上説明したように、本実施形態に係る電子機器1の画素アレイ部10を複数の第1画素ユニット100aと、複数の第2画素ユニット100bとで構成することとした。これにより、複数の第1画素ユニット100aと、複数の第2画素ユニット100bとを異なるモードで駆動することが可能となる。また、複数の第1画素ユニット100aと、複数の第2画素ユニット100bとを異なるユニット200a~eで構成することが可能である。このため、複数の第1画素ユニット100aと、複数の第2画素ユニット100bとを、画素アレイ部10内の目的に応じた領域に配置し、目的に応じた駆動をすることも可能となる。
(第3実施形態)
 第3実施形態に係る電子機器1は、撮像装置4の画素アレイ部10は、積層されたユニット200とユニット202で構成される点で、第1実施形態に係る電子機器1と相違する。以下では、第1実施形態に係る電子機器1と相違する点を説明する。
 図31は、第3実施形態に係る画素ユニット100の構成例を示すブロック図である。図31に示すように、ユニット300は、ユニット200とユニット202で構成される。ユニット202の画素140cの光電変換素子は、非シリコンで形成されたPhotoelectric Conversion Element(PC)であり、例えば有機膜である。ユニット200における複数の画素140と、ユニット202における複数の画素140cとは、フローティングディフュージョンFDに接続される。
 ユニット200には制御信号(TRG_A~TRG_D、 OFG_A~OFG_D)が、ユニット200には制御信号(TRG_E~TRG_H、 OFG_E~OFG_H)が垂直駆動部40から供給される。このように、ユニット200に供給されるOFG/TRG信号とユニット200に供給されるOFG/TRG信号は、垂直駆動部40から異なる信号が供給されるように、信号線41と信号線41cとを分離して配線される。
 図32は、第3実施形態に係るユニット300の配置例を示すブロック図である。図32に示すように、ユニット300は、ユニット200とユニット202とが積層されて構成される。すなわち、ユニット300は、ユニット200の画素Pixel A~Pixel Dの上層にユニット202の画素Pixel E~Pixel Hが積層された構造を有する。例えば画素Pixel A、Pixel Dは青色画素であり、画素Pixel B、Pixel Cは赤色画素である。画素Pixel E~Pixel Hは緑色画素である。このように、画素Pixel A、Pixel DにはカラーフィルタBが積層され、画素Pixel B、Pixel CにはカラーフィルタRが積層され、画素Pixel E~Pixel HにはカラーフィルタGが積層される。
 図33は、ユニット300を用いた制御例を示すフローチャートである。図33に示すように、モード2が低歪モードに対応する。
 図33に示すように、まず、電子機器1の入力デバイス12(図1参照)からモードの選択信号が入力され、制御部3は、入力に基づき低歪モードであるか否かを判定する(ステップS700)。低歪Sモードでないと判定する場合(ステップS700のNO)、制御部3は、モード1として、まず、Pixel Aの露光による光電変換と、読み出し、AD変換を行う(ステップS702)。次に、Pixel Bの露光による光電変換と、読み出し、AD変換を行う(ステップS704)。次に、Pixel Cの露光による光電変換と、読み出し、AD変換を行う(ステップS706)。次に、Pixel Dの露光による光電変換と、読み出し、AD変換を行う(ステップS708)。
 次に、Pixel Eの露光による光電変換と、読み出し、AD変換を行う(ステップS710)。次に、Pixel Fの露光による光電変換と、読み出し、AD変換を行う(ステップS712)。次に、Pixel Gの露光による光電変換と、読み出し、AD変換を行う(ステップS714)。次に、Pixel Hの露光による光電変換と、読み出し、AD変換を行う(ステップS716)。
 一方で、制御部3は、低歪モードであると判定する場合(ステップS700のYES)、まず、Pixel A及びPixel Dの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS718)。次に、Pixel B及びPixel Cの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS720)。次に、Pixel E~Pixel Hの露光による光電変換を同時に行い、同時にフローティングディフュージョンFD(図4参照)に読み出し、フローティングディフュージョンFDの電位に基づき、AD変換を行う(ステップS722)。
 以上説明したように、本実施形態に係る電子機器1では、ユニット200とユニット202とを積層して構成することとした。これにより、同じ撮像領域を異なるモードで撮像が可能となる。
(第4実施形態)
 第4実施形態に係る電子機器1は、撮像装置4の画素アレイ部10内に異なるモードで駆動するユニット200を3種類以上混在させる点で、第1実施形態に係る電子機器1と相違する。以下では、第1実施形態に係る電子機器1と相違する点を説明する。
 図34はユニット200c(図8参照)が配置された画素アレイ部10の例を示す図である。図18を参照しつつ、図34に示すようにエリアA200のユニット200cは、モード2(AFモード2)で駆動され、エリアA202のユニット200cは、モード3(AFモード3)で駆動され、その他のエリアであるエリアA204のユニット200cは、モード4(GSモード)で駆動される。
 図35はモード2(AFモード2)、モード3(AFモード3)、モード4(GSモード)のタイムチャ-トである。横軸は時間を示し、縦軸はモード2、モード3、モード4のRAMP信号をそれぞれ示す。図35に示すように、1Frameの前半において、モード2では画素Pixel A及びPixel Cが加算され、モード3では画素Pixel A及びPixel Bが加算され、モード4では画素Pixel A~Pixel Dが加算される。1Frameの後半において、モード2では画素Pixel B及びPixel Dが加算され、モード3では画素Pixel C及びPixel Dが加算される。縦線が多い被写体F10のAF処理をするのに主に使用し、モード3で動作させるユニット200cは、横線が多い被写体F12のAF処理をするのに主に使用する。また、モード4で行動させるユニット200cは、歪のない画像を取得するのに使用する。このように画素面内に異なる動作モードのユニットを混在させることで、高精度なAF処理とGS(Global Shutter)の同時実現が可能となる。
 図36は、制御部3の構成例と画素アレイ部10の構成例を示す図である。図36に示すようよう、画素アレイ部10の多くの領域を占める領域A202には、ユニット200a(図6参照)が配置される。そして、ユニット200b(図7参照)、200c_1(図8参照)、200c_2(図8参照)、200g(図12参照)が画素アレイ部10内に混在して配置される。制御部3は、画素アレイ部10の生成した画像データを解析し、各200a、ユニット200b、200c_1、200c_2、200gのモードを決定する。
 この制御部3は、明るさ検知部32と、動きベクトル検知部34と、モード決定部36とを有する。明るさ検知部32は、被写体の輝度を画像データに基づき検知する。例えば、明るさ検知部32は、被写体の画像信号の平均値により、被写体の明るさの度合いを検知する。また、動きベクトル検知部34は、例えば、画像データに基づきオプチカルフロー演算処理により、被写体の動きの度合いを検知する。
 図37乃至図40は、モード決定部36のモード決定例を示す表である。以下の説明では、ユニット1がユニット200b、200gに対応し、ユニット2がユニット200c_1に対応し、ユニット3が200c_2に対応し、ユニット4がユニット200gに対応する。また、A~Dは画素Pixel A、 Pixel B、 Pixel C、 Pixel D等に対応する。さらにまた、「+」は、フローティングディフュージョンFDなどでのアナログ画像信号の加算を意味する。例えば、「B+C+D」は、Pixel B、Pixel C及びPixel Dのアナログ画像信号をフローティングディフュージョンFDにより合算してAD変換することを示す。モード決定部36は、例えば図37乃至図40に示すように、明るさ検知部32と動きベクトル検知部34との出力する信号を用いてモードを決定する。モード決定部36は、決定したモードの情報を含むモード設定信号MODEを垂直駆動部40に供給する。
 図37は、被写体の輝度が明時であり、動きの度合いが高い場合のモード(MODE1)決定例を示す表である。1回目のAD変換では、ユニット1は、画素Pixel B、Pixel C及びPixel Dを同時に加算し、ユニット2、ユニット3、及びユニット4は、画素Pixel A、Pixel B、Pixel C及びPixel Dを同時に加算する。2回目のAD変換では、ユニット1の画素Pixel Aの信号のみがAD変換される。このように、動被写体であれば、原則的に歪のない画を取得するためにGSモードで撮像する。そして、明るい環境でのAFの精度がより高い像面位相画素(ZAF)のデータをAFに使用するため、ユニット1の画素Pixel Aの信号のみがAD変換される。
 図38は、被写体の輝度が暗時であり、動きの度合いが高い場合のモード(MODE2)決定例を示す表である。1回目のAD変換では、ユニット1は、画素Pixel B、Pixel C及びPixel Dを同時に加算し、ユニット2は、画素Pixel A、及びPixel Cを同時に加算し、ユニット3は、画素Pixel A、及びPixel Bを同時に加算し、ユニット4は、画素Pixel A、Pixel B、Pixel C及びPixel Dを同時に加算する。2回目のAD変換では、ユニット1は、画素Pixel Aの信号のみがAD変換され、ユニット2は、画素Pixel B、及びPixel Dを同時に加算し、ユニット3は、画素Pixel C、及びPixel Dを同時に加算する。このように、動被写体で暗時であれば、歪のない画を取得するためにユニット4は、GSモードで撮像する。そして、暗い環境でのAFが得意なユニット2、3(2x2 OCL)のデータをAFに使用するため、ユニット2、3をAFモードで駆動する。なお、(2x2 OCL)は、4画素に対してそれぞれオンチップレンズを配置することを意味する。
 図39は、被写体の輝度が明時であり、動きの度合いが低い場合のモード(MODE3)決定例を示す表である。動きの度合いが低い場合には、原則的に高解像モードで撮像される。すなわち、ユニット1~ユニット4は、一画素ずつAD変換する高解像度モードで駆動される。明るい環境でのAFの精度がより高い像面位相画素(ZAF)のデータをAFに使用するため、ユニット1の画素Pixel Aの信号がAFに使用される。
 図40は、被写体の輝度が暗時であり、動きの度合いが低い場合のモード(MODE4)決定例を示す表である。1回目のAD変換では、ユニット1、4は、一画素ずつAD変換する高解像度モードで駆動される。そして、暗い環境でのAFの精度がより高いユニット2、3(2x2 OCL)のデータをAFに使用するため、ユニット2、3をAFモードで駆動する。
 以上説明したように、本実施形態に係る電子機器1では、撮像装置4の画素アレイ部10内に異なるモードで駆動するユニット200を3種類以上混在させることとした。これにより、目的に応じた画像データ、像面位相情報などを3種類以上取得可能となる。また、制御部3が被写体の明るさの度合いと、動きの度合いとに応じて、各ユニット200のモードを設定することとした。これにより、電子機器1は、撮影環境に応じたモード設定が可能となり、より高精細な画像データ、又はより低歪みな画像データを生成可能となる。
(第5実施形態)
 第5実施形態に係る電子機器1は、1フレーム内に複数回のサブフレームの撮像を行ことにより複数回分の位相差情報を取得し、複数回分の位相差情報を用いた自動焦点(AF)制御を行うことが更に可能である点で、第1乃至第4実施形態に係る電子機器1と相違する。以下では、第1乃至第4実施形態に係る電子機器1と相違する点を説明する。
 図41は、第5実施形態に係る電子機器1の一例の構成を示すブロック図である。図41において、電子機器1は、シャッター1200と、位相差検出部1400と、AF制御推論部1500とを更に備える点で図1に示した電子機器1と相違する。シャッター1200は、絞り機能を含むシャッターである。位相差検出部1400は、像面位相差用画素から位相差検出を行うことが可能である。
 AF制御推論部1500は、位相差検出部1400が検出した位相差情報から次フレームのレンズ2の焦点位置を生成する。また、AF制御推論部1500は、位相差検出部1400が検出した複数の位相差情報を用いて、所定時間後、例えば次フレームの撮像開始時でのレンズ2の焦点位置を推論することも可能である。制御部3は、位相差検出部1400及びAF制御推論部1500の生成する信号に応じて、レンズ2の位置、及びシャッター1200の制御を行うことが可能である。
 図2、及び4を参照しつつ図42を用いて画素アレイ部10での撮像例を説明する。図42は、第5実施形態に係る画素アレイ部10での撮像例を示す図である。横軸は時間を示している。制御部3は、例えば隣接する4つの画素回路140の組合せを画素回路210として動作させる。例えば、画素回路210は、ユニット200(図4参照)に対応する。
 図42に示すように、本実施形態に係る画素回路210では、例えば隣接する4つの画素回路140のうち左下の画素回路140をサブ画素グループAとし、右下の画素回路140をサブ画素グループBとし、左上の画素回路140をサブ画素グループCとし、右上の画素回路140をサブ画素グループDとする。サブ画素グループA、B、C、Dでは、画素アレイ10内の所定の位置に像面位相画素(ZAF画素)が配置されている。例えば像面位相画素は、図7、11、12に示すように、例えば遮光部材によって受光部の一部が遮光された画素として構成される。なお、サブ画素グループA、B、C、Dの順に時間をずらして撮像させる制御の場合には、例えばユニット200b(図7参照)のように4つの画素回路140に対して一つのFDで構成される画素ユニット100(例えば図2参照)等を用いることも可能である。
 例えば、時刻t10~t12でサブ画素グループAの露光、読み出し、AD変換を行う。同様に、時刻t12~t14でサブ画素グループBの露光、読み出し、AD変換を行う。時刻t14~t16でサブ画素グループCの露光、読み出し、AD変換を行う。時刻t16~t18(不図示)でサブ画素グループDの露光、読み出し、AD変換を行う。なお、これらは駆動例の一例であり、この駆動に限定されない。例えば、画素グループ間の撮像動作の間に、更に待機時間等をいれてもよい。また、画素グループも4つに限定されず、例えば8、16、32、64などでもよい。
 なお、本実施形態では、画素アレイ部10からの第1読み出し期間をメインフレーム又はフレームと称し、第1読み出し期間より短い第2読み出し期間をサブフレームと称する場合がある。例えば、複数のサブフレームを合計した期間がメインフレームに対応する。また、サブフレームに読み出された画像信号で構成される画像をサブフレーム画像と称する場合がある。例えば、時刻t10~t12、時刻t12~t14、時刻t14~t16、及び時刻t16~t18のそれぞれをサブフレームと称し、それぞれの画像をサブフレーム画像A、B、C、Dと称する場合がある。
(第3モード)
 第3モードは、レンズ2の位置を固定し、サブ画素グループA、B、C、Dの順で撮像対象8をサブフレーム画像A、B、C、Dとして撮像し、時系列に撮像対象8に対する位相差情報を得るモードである。時系列に得られた位相差情報により、撮像対象8のレンズ2の光軸方向に沿った移動方向及び移動量を予測することが可能となる。なお、本実施形態に係る第3モードが固定モードに対応する。
 図43は、第3モードでの電子機器1の駆動例を示す図である。制御回路3(図41参照)は、第1フレームでは、レンズ2の位置を固定し、画素グループA、B、C、Dの順(図42参照)で撮像対象8を撮像装置4(図41参照)に撮像させる。位相差検出部1400は、画素グループA、B、C、Dの順で像面位相差画素から位相差検出を行う。そして、検出した像面位相差情報を含む信号を順にAF制御推論部1500に出力する。
 AF制御推論部1500は、時系列に得られた像面位相差情報を用いて、第2フレームでの撮像開始時点での像面位相差情報を推定する。そして、推定した第2フレームでの撮像開始時点での像面位相差情報、或いは推定したレンズ2の位置を用いて、撮像対象8に焦点が合う状態のレンズ2の位置を推論する。続けて、AF制御推論部1500は、予測したレンズ位置に関する情報を含む信号を制御回路3に出力する。これにより、制御回路3は、予測したレンズ位置にレンズ2を移動させた後に、第2フレームの撮像を開始する。
 なお、AF制御推論部1500が像面位相差情報を推定することは、レンズ2の位置を推定しているのと等価の処理をおこなっていることとなる。換言するなら、AF制御推論部1500が像面位相差情報を推定することは、画素アレイ10の撮像面からのレンズ2を介した撮像対象8までの距離を推定しているのと等価の処理をおこなっていることとなる。
 第2フレームでは、移動後のレンズ位置を固定し、第1フレームと同様に第3モードでの撮像をおこなう。このように、AF制御推論部1500は、次フレームの開始時点での撮像対象8の像面位相差情報を推定し、制御回路3は、レンズ2の位置を撮像対象8に焦点が合うように予め移動させる。これにより、次フレームでは、撮像対象8に焦点が合うべき状態で撮像を開始することができる。また、本実施形態に係る画像は、所謂グローバルシャッタ方式での撮像であるので、サブフレーム画像A、B、C、Dの歪みが抑制され、レンズ2の焦点距離の精度の低下が抑制される。図48を用いて後述するように、グローバルシャッタ方式での撮像は、ローリングシャッタ方式と比較して行毎の時刻ズレが抑制され、画質がより向上する。
 以上説明したように、本実施形態では、制御部3は、レンズ2の位置を固定し、サブ画素グループA、B、C、Dの順で撮像対象8をサブフレーム画像A、B、C、Dとして撮像し、位相差検出部1400は時系列に撮像対象8に対する位相差情報を生成する。そして、AF制御推論部1500は、これらの時系列な位相差情報を用いて、所定時点での、例えば次フレームの撮影開始時点での撮像対象8に焦点の合うレンズ2の位置を予測する。これにより、次フレームでは、撮像対象8に焦点が合うべき状態で撮像を開始することができる。
(第6実施形態)
 第6実施形態に係る電子機器1は、1フレーム内に複数回のサブフレームの撮像をレンズ2の位置を変更しつつ行うことも更に可能である点で、第5実施形態に係る電子機器1と相違する。以下では、第5実施形態に係る電子機器1と相違する点を説明する。
(第4モード)
 第4モードは、レンズ2を移動させつつ、サブ画素グループA、B、C、Dの順で撮像対象をサブフレーム画像A、B、C、Dとして撮像するモードである。時系列に焦点位置の異なるサブフレーム画像A、B、C、Dを得ることが可能となる。なお、本実施形態に係る第4モードが移動モードに対応する。
 図44は、第4モードでの電子機器1の駆動例を示す図である。制御回路3(図41参照)は、レンズ2の位置を予め定められた位置に順に移動させつつ、画素グループA、B、C、Dの順で撮像対象8を撮像装置4(図41参照)に撮像させる。例えば、図44では、制御回路3は、レンズ2の位置を焦点距離FL、FL+FLb、FL+FLc、FL+FLdとなるように移動させる。例えばFLb<FLc<FLdの関係がある。
 これにより、サブフレーム画像Aでは、焦点距離FLの撮像対象Objに焦点の合った画像が撮像される。すなわち、サブフレーム画像Aでは、撮影対象8の範囲内の特定の撮像対象Objに焦点の合った画像が撮像される。サブフレーム画像Bでは、焦点距離FL+FLbに対応する撮像対象Obbに焦点の合った画像が撮像される。サブフレーム画像Cでは、焦点距離FL+FLcに対応する撮像対象Obcに焦点の合った画像が撮像される。サブフレーム画像Dでは、焦点距離FL+FLdに対応する撮像対象Obdに焦点の合った画像が撮像される。また、本実施形態に係る画像は、所謂グローバルシャッタ方式での撮像であるので、サブフレーム画像A、B、C、Dでは歪みが抑制された画像が撮像される。なお、撮像対象Obb、Obc、Obdは、例えば枠Mb、Mc、Md内の被写体に対応する。
 撮影者は、入力デバイス12(図41参照)を介した操作入力により、サブフレーム画像A、B、C、Dの順に、表示部80に表示させることが可能である。また、撮影者は、入力デバイス12(図41参照)を介した操作入力に基づき、表示部80に表示されるサブフレーム画像A、B、C、Dの撮像画像を選択する指示信号を入力可能である。例えば、制御回路3は、指示信号に基づき、サブフレーム画像A、B、C、Dの撮像画像のうちから撮像画像を選択し、選択した撮像画像のみを記憶部7に記憶させることが可能である。これにより、記憶部7の容量を抑制可能となる。
 このように、例えば、特定の撮像対象に焦点を合わせることが困難な場合にも、焦点のあった撮像画像を得ることが可能である。例えば、運動会などで、多数の人を撮像した場合などでも、それぞれのサブフレーム画像A、B、C、D毎に異なる人物に焦点の合った画像を撮像可能となる。なお、本実施形態に係る入力デバイス12が入力部に対応する。
 以上説明したように、本実施形態では、制御部3は、レンズ2の位置を移動させつつ、サブフレーム画像A、B、C、Dの順で撮像対象を撮像することとした。これにより、撮影者は、焦点を合わせる操作を行うこと無く、複数の焦点位置の撮像画像を得ることが可能となる。
(第7実施形態)
 第7実施形態に係る電子機器1は、撮像された画像に対してクラスタ読み出しを行うことも更に可能である点で、第6実施形態に係る電子機器1と相違する。以下では、第6実施形態に係る電子機器1と相違する点を説明する。
 図45は、クラスタ読み出しの動作例を示す図である。図45に示すように、一つのクラスタは、例えば縦N個の画素回路210と横M個の画素回路210で構成されている。ここで、Z=N×M、N=10(行)、M=7(列)とし、nを1~Zの自然数とする。各クラスタは、画素アレイ部10(図2参照)に行列状に配置される。
 クラスタ読み出しでは、クラスタ毎の画素回路210が順に並列に読み出される。例えば、クラスタ内の各画素回路210は、1~Zのいずれかの数字が対応する。これにより、例えばn=1では、一つのクラスタ内では、1行目の左端の画素回路210の読み出しを行い、例えばn=9では、2行目の左端から2番目の画素回路210の読み出しを行い、例えばn=70では、N行目の右端の画素回路210の読み出しを行う。このように、クラスタ内の画素回路210を順に、クラスタ毎に並列に読み出す動作をクラスタ読み出しと称する。すなわち、クラスタ内の画素回路210が70個で構成されている場合には、70回の読み出しがクラスタ毎に並列に行われる。
 図46は、画素回路210内の像面位相画素の配置例を示す図である。図46に示すように、最初にクラスタ読み出しされる画素回路210において、4つの画素回路140のうちの一つを像面位相画素(ZAF画素)とする。例えば像面位相画素は、図7、11、12に示すように、例えば遮光部材によって受光部の一部が遮光された画素として構成される。
 また、本実施形態では、最初にクラスタ読み出しされる画素回路210において、Aの位置に像面位相画素が配置される画素回路210と、Bの位置に像面位相画素が配置される画素回路210と、Cの位置に像面位相画素が配置される画素回路210と、Dの位置に像面位相画素が配置される画素回路210と、が画素アレイ部10内に均等に分散して配置されている。
 さらにまた、本実施形態では、サブ画素グループ毎にクラスタ読み出しを行うこととする。本実施形態に係る画素回路210の隣接する4つの画素回路140のうち、左上の画素回路140をサブ画素グループAとし、右上の画素回路140をサブ画素グループBとし、左下の画素回路140をサブ画素グループCとし、右下の画素回路140をサブ画素グループDとする。
 例えば、サブ画素グループAを読み出す場合には、クラスタ毎の画素回路210の左上の画素回路140が並列にクラスタ読み出される。そして、クラスタ読み出しされた画像信号に基づき、サブフレーム画像Aが構成される。
 サブ画素グループAのクラスタ読み出しが終了すると、次に、サブ画素グループBがクラスタ読み読み出される。サブ画素グループBを読み出す場合には、クラスタ毎の画素回路210の右上の画素回路140が並列にクラスタ読み出しされる。そして、クラスタ読み出しされた画像信号に基づきサブフレーム画像Bが構成される。
 サブ画素グループBのクラスタ読み出しが終了すると、次に、サブ画素グループCがクラスタ読み読み出される。サブ画素グループCを読み出す場合には、クラスタ毎の画素回路210の左下の画素回路140が並列にクラスタ読み出しされる。そして、クラスタ読み出しされた画像信号に基づきサブフレーム画像Cが構成される。
 サブ画素グループCのクラスタ読み出しが終了すると、次に、サブ画素グループDがクラスタ読み出される。サブ画素グループDを読み出す場合には、クラスタ毎の画素回路210の右下の画素回路140が並列にクラスタ読み出しされる。そして、クラスタ読み出しされた画像信号に基づきサブフレーム画像Dが構成される。
 このように、クラスタ内の画素回路210が70個で構成されている場合には、サブフレーム画像A、B、C、D毎に70回のクラスタ読み出しを行い、1サブフレーム分の画像を生成する。これらから分かる様に、本実施形態では、サブフレーム画像A、B、C、D毎に最初に読み出される画素回路140には、像面位相画素が均等に含まれ、且つ画素アレイ部10内に均等に分散して配置されている。
 なお、クラスタ読み出しは、クラスタ内の全画素回路210の読み出しに限定されず、例えば画素回路210を、4、8、16、32毎に読み出してもよい。また、画素回路140の読み出し順もA、B、C、Dの順に限定されず、任意の順でもよく、読み出しを行わない画素回路140を設定してもよい。
(第5モード)
 第5モードは、サブ画素グループA、B、C、D毎にクラスタ読み出しを行い、サブ画素グループA、B、C、D毎に像面位相画素の画像信号を用いて、次のサブフレーム画像用のレンズ位置を推論する。これにより、時系列に焦点位置が制御されたサブフレーム画像A、B、C、Dを得ることが可能となる。なお、本実施形態に係る第5モードが移動モードに対応する。
 図47は、第5モードでの電子機器1の駆動例を示す図である。制御回路3(図41参照)は、サブ画素グループA、B、C、Dの順で画素回路210からクラスタ読み出しで画像信号を読み出す。
 位相差検出部1400(図41参照)は、例えばサブ画素グループA、B、C、D毎に最初に読み出された像面位相差用画素からサブフレーム毎に位相差情報の検出を行う。次に、AF制御推論部1500(図41参照)は、位相差検出部1400が検出したサブフレーム毎の位相差情報に基づき、順に、次サブフレームのレンズ位置を推論する。そして、制御回路3は、推論された位置に、レンズ2を移動させる。
 このように、第5モードでは、例えばサブ画素グループAをクラスタ読み出している間に、サブフレーム画像B(Sub Frame No.2)用のレンズ位置を推論し、サブフレーム画像Bの撮像タイミングに合わせてレンズの位置を移動させることが可能となる。この場合、最初にクラスタ読み出しした画素回路140には、像面位相画素が含まれる。このため、次にサブフレーム画像Bの撮像を行うまでに、サブフレーム画像B用の焦点位置を推論し、レンズの位置を移動させる時間をより長く確保することが可能となる。
 更に、最初にクラスタ読み出しされた画素回路140に含まれる像面位相画素は、画素アレイ部10内に均等に分散して配置されている。これにより、サブフレーム画像B用のレンズ位置の推論精度がより向上する。このように、第5モードでは、サブフレーム画像A(Sub Frame No.1)を撮像し、クラスタ読み出しの間に、次のサブフレーム画像B(Sub Frame No.2)の撮像タイミングに合わせてレンズの位置を移動させることが可能となる。このような処理を繰り返すことにより、被写体8が移動する場合にも、サブフレーム画像A、B、C、D毎にレンズ位置が被写体8に合わせて時系列に制御され、より焦点位置の合った画像の撮像が可能となる。
 図48は、比較例の撮像動作例を示す図である。図48は、所謂ラスタ方式であり、行毎に撮像された画像がラスタ出力されるので、画像が歪んでしまう。所謂ラスタ方式は、ローリングシャッタ方式と称する場合がある。このため、レンズ2の焦点位置制御も、本実施形態に係るグローバルシャッタ方式での撮像における焦点位置制御よりも低下してしまう。
 以上説明したように、本実施形態によれば、制御回路3が、クラスタ内の画素回路210を所定順に読み出すクラスタ読み出し行い、AF制御推論部1500(図41参照)は、位相差検出部1400が所定の順番に、例えばサブフレーム毎に読み出された像面位相差用画素から検出した位相差情報から次サブフレームのレンズ位置を推論する。そして、制御回路3は、推論された位置に、レンズ2を移動させることとした。これにより、例えばサブフレーム毎に焦点位置制御を行うことが可能となる。
(第8実施形態)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図49は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図49に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図41の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図50は、撮像部12031の設置位置の例を示す図である。
 図50では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図50には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112、12113は、それぞれサイドミラーに設けられた撮像部12102、12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。具体的には、例えば、図1の電子機器1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、撮影環境に応じたモード設定が可能となり、より高精細な画像データ、又はより低歪みな画像データを生成可能となる。
 なお、本技術は以下のような構成を取ることができる。
(1)
 複数の画素ユニットを備える撮像装置であって、
 前記画素ユニットは、
 複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、撮像装置。
(2)
 前記複数の光電変換素子のそれぞれは、第1トランジスタを介して前記フローティングディフュージョンに接続され、
 前記第1トランジスタを接続状態又は非接続状態にする第1制御信号を供給する、垂直駆動部を、更に備える、(1)に記載の撮像装置。
(3)
 前記複数の光電変換素子のそれぞれには、第2トランジスタを介して所定の電位が供給され、
 前記垂直駆動部は、前記第2トランジスタを接続状態又は非接続状態にする2制御信号を供給する、垂直駆動部を、更に備える、(1)又は(2)に記載の撮像装置。
(4) 
 前記垂直駆動部は、モード設定信号に応じて、前記第1制御信号、及び前記第2制御信号を変更する、(2)又は(3)に記載の撮像装置。
(5)
 前記複数の光電変換素子のそれぞれは、同一の波長帯域の光を受光する、(1)に記載の撮像装置。
(6)
 前記複数の光電変換素子の少なくとも2つの光電変換素子のそれぞれは、異なる色のカラーフィルタを介して、光を受光する、(1)に記載の撮像装置。
(7)
 前記複数の光電変換素子の少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成される、(1)に記載の撮像装置。
(8)
 前記複数の光電変換素子のそれぞれは、それぞれに対応する位置に配置されたレンズを介して光を受光する、(1)に記載の撮像装置。
(9)
 前記複数の光電変換素子の少なくとも2つの光電変換素子は、前記少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光する、(1)に記載の撮像装置。
(10)
 前記複数の光電変換素子は、シリコンにより形成された第1光電変換素子と、非シリコンにより形成された第2光電変換素子と、を有する、(1)に記載の撮像装置。
(11)
 前記第1光電変換素子と、前記第2光電変換素子は積層され、前記第1光電変換素子は、前記第2光電変換素子を透過した光を受光する、(10)に記載の撮像装置。
(12)
 前記積層された前記第1光電変換素子と、前記第2光電変換素子とに対応する位置に配置されたレンズを透過した光を受光する、(11)に記載の撮像装置。
(13)
 前記垂直駆動部は、前記第1モードでは、前記複数の光電変換素子のそれぞれに接続される前記第2トランジスタを時系列に非接続状態から接続状態に制御する、(4)に記載の撮像装置。
(14)
 前記垂直駆動部は、前記第2モードでは、前記複数の光電変換素子のそれぞれに接続される前記第2トランジスタを同時に非接続状態から接続状態に制御する、(4)に記載の撮像装置。
(15)
 前記画素ユニット内の前記複数の光電変換素子は、緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子と、赤色フィルタを介して受光する光電変換素子と、青色フィルタを介して光を受光する光電変換素子を有し、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記赤色フィルタ又は青色フィルタを介して受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換する第1期間と、前記緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する前記第1期間と異なる第2期間とを有するモードと、を有する、(1)に記載の撮像装置。
(16)
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
 前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(1)に記載の撮像装置。
(17)
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
 前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
 前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(1)に記載の撮像装置。
(18)
 前記画素ユニット内の前記複数の光電変換素子のうち、遮光部材によって受光部の一部が遮光された画素として構成され、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(1)に記載の撮像装置。
(19)
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記複数の光電変換素子の内の1つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の2つの光電変換素子により生成された電荷をフローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する
(20)
 第1の画素ユニットと第2の画素ユニットとがそれぞれ複数配置され、
 第1の画素ユニットに供給される第1制御信号と、第2の画素ユニットに供給される第1制御信号はそれぞれ垂直駆動部に接続され、
 前記垂直駆動部は前記第1の画素ユニットに供給される第1制御信号と、前記第2の画素ユニットに供給される第1制御信号をモード設定信号に応じて変更する、撮像装置。
(21)
 (4)に記載の撮像装置と、
 前記撮像装置を用いて生成された画像データに応じて、前記モード設定信号を生成する制御部と、を備える電子機器。
(22)
 前記制御部は、前記画像データに基づく被写体の明るさの度合いと、前記被写体の動きの度合いと、に基づき、前記モード設定信号を生成する、(21)に記載の電子機器。
(23)
 前記制御部は、前記被写体の動きの度合いと、に基づき、前記モード設定信号を生成する(21)に記載の電子機器。
(24)
 複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
 前記レンズの位置が固定される固定モードと、
 前記異なるタイミング毎に前記レンズの位置が異なる移動モードと、の少なくとも一方
 を有する、電子機器。
(25)
 前記複数の位相差画素の画像信号に基づき、位相差情報を生成する位相差検出部と、
 前記位相差情報を用いて、次フレーム、又は次サブフレームの前記レンズの位置を推論する推論部と、
 を備える、(24)に記載の電子機器。
(26)
 前記固定モードでは、
 前記位相差検出部は、前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成し、
 前記推論部は、前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論する、(25)に記載の電子機器。
(27)
 前記制御部は、次フレームの撮影開始時に基づき、前記推論部が推論した前記レンズの位置に前記レンズを移動させる、(26)に記載の電子機器。
(28)
 前記移動モードにおいて、
 前記制御部は、前記複数の画素グループ毎にえられた撮像画像を表示部に表示させる、(24)に記載の電子機器。
(29)
 前記表示部に表示される画像を選択する指示信号を入力する入力部を更に備え、
 前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像を選択する、(28)に記載の電子機器。
(30)
 前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像のうちから選択された撮像画像のみを記憶部に記憶させる、(29)に記載の電子機器。
(31)
 画素アレイ部は、矩形状の領域に分けられ、前記複数の像面位相差画素を含む画素が行列状に配置されており、
 前記制御部は、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出す、(24)に記載の電子機器。
(32)
 前記移動モードにおいて、
 前記矩形状の領域毎に複数の像面位相差画素が含まれ、
 前記矩形状の領域毎に所定の順番で読み出された画像信号に基づき、位相差情報を生成する位相差検出部と、 
 前記位相差情報を用いて、前記所定の順番に応じてレンズの位置を推論することが可能である推論部と、
 を更に備える、(31)に記載の電子機器。
(33)
 前記矩形状の領域毎に最初に読み出された画素には少なくとも複数の像面位相差画素が含まれ、
 前記位相差検出部は、前記矩形状の領域毎に最初に読み出され画素画像信号に基づき、位相差情報を生成する、(32)に記載の電子機器。
(34)
 画素アレイ部は、前記複数の像面位相差画素を含む画素が行列状に配置されており、
 前記画素アレイ部は矩形状の領域に分けられ、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出す制御部と、
 を備える、電子機器。
(35)
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、
 複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有する、(24)乃至(34)のいずれか一項に記載の電子機器。
(36)
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、(24)に記載の電子機器。
(37)
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
 前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、(24)乃至(30)のいずれか一項に記載の電子機器。
(38)
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
 前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間にフローティングディフュージョンに転送し、前記異なる期間に応じて、アナログデジタル変換部による変換期間を異ならせるモードと、
 前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(24)に記載の電子機器。
(39)
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
 前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
 前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(24)に記載の電子機器。
(40)
 前記画素アレイ部は、複数の画素ユニットで構成され、
 前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
 前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
 前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
 前記画素ユニット内の前記複数の光電変換素子のうち少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成され、
 前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
 所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、(24)に記載の電子機器。
(41)
 複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、
 前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成する位相差検出部と、
 前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論する推論部と、
 を備える、電子機器。
(42)
 複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
 前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
 前記制御部は、前記複数の画素グループ毎で前記レンズの位置を変更する、電子機器。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 1:電子機器、2:レンズ、3:制御部、4:撮像装置、10:画素アレイ部、40:垂直駆動部、100、100a、100b:画素ユニット、190:アナログデジタル変換部、300、302、304:オンチップレンズ、1400:位相差検出部、1500:AF制御推論部、FD:フローティングディフュージョン(畜電部)、TR1:オーバーフローゲートトランジスタ(第1トランジスタ)、TR2:電荷転送トランジスタ(第2トランジスタ)、TRG_A~TRG_D、TRG_A1~TRG_D1、TRG_A2~TRG_D2:制御信号、OFG_A~OFG_D、OFG_A1~OFG_D1、OFG_A2~OFG_D2:制御信号、PD_A~PD_D、PC_E~PC_H:光電変換素子、FD:フローティングディフュージョン。

Claims (42)

  1.  複数の画素ユニットを備える撮像装置であって、
     前記画素ユニットは、
     複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
     前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
     前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、撮像装置。
  2.  前記複数の光電変換素子のそれぞれは、第1トランジスタを介して前記フローティングディフュージョンに接続され、
     前記第1トランジスタを接続状態又は非接続状態にする第1制御信号を供給する、垂直駆動部を、更に備える、請求項1に記載の撮像装置。
  3.  前記複数の光電変換素子のそれぞれには、第2トランジスタを介して所定の電位が供給され、
     前記垂直駆動部は、前記第2トランジスタを接続状態又は非接続状態にする2制御信号を供給する、垂直駆動部を、更に備える、請求項1に記載の撮像装置。
  4.  前記垂直駆動部は、モード設定信号に応じて、前記第1制御信号、及び前記第2制御信号を変更する、請求項2に記載の撮像装置。
  5.  前記複数の光電変換素子のそれぞれは、同一の波長帯域の光を受光する、請求項1に記載の撮像装置。
  6.  前記複数の光電変換素子の少なくとも2つの光電変換素子のそれぞれは、異なる色のカラーフィルタを介して、光を受光する、請求項1に記載の撮像装置。
  7.  前記複数の光電変換素子の少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成される、請求項1に記載の撮像装置。
  8.  前記複数の光電変換素子のそれぞれは、それぞれに対応する位置に配置されたレンズを介して光を受光する、請求項1に記載の撮像装置。
  9.  前記複数の光電変換素子の少なくとも2つの光電変換素子は、前記少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光する、請求項1に記載の撮像装置。
  10.  前記複数の光電変換素子は、シリコンにより形成された第1光電変換素子と、非シリコンにより形成された第2光電変換素子と、を有する、請求項1に記載の撮像装置。
  11.  前記第1光電変換素子と、前記第2光電変換素子は積層され、前記第1光電変換素子は、前記第2光電変換素子を透過した光を受光する、請求項10に記載の撮像装置。
  12.  前記積層された前記第1光電変換素子と、前記第2光電変換素子とに対応する位置に配置されたレンズを透過した光を受光する、請求項11に記載の撮像装置。
  13.  前記垂直駆動部は、前記第1モードでは、前記複数の光電変換素子のそれぞれに接続される前記第1トランジスタを時系列に非接続状態から接続状態に制御する、請求項4に記載の撮像装置。
  14.  前記垂直駆動部は、前記第2モードでは、前記複数の光電変換素子のそれぞれに接続される前記第1トランジスタを同時に非接続状態から接続状態に制御する、請求項4に記載の撮像装置。
  15.  前記画素ユニット内の前記複数の光電変換素子は、緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子と、赤色フィルタを介して受光する光電変換素子と、青色フィルタを介して光を受光する光電変換素子を有し、
     前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記赤色フィルタ又は青色フィルタを介して受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換する第1期間と、前記緑色フィルタを介して受光する少なくとも2つ以上の光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する前記第1期間と異なる第2期間とを有するモードと、を有する、請求項1に記載の撮像装置。
  16.  前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
     前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項1に記載の撮像装置。
  17.  前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのレンズを介して光を受光し、
     前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
     前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項1に記載の撮像装置。
  18.  前記画素ユニット内の前記複数の光電変換素子のうち少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成され、
     前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項1に記載の撮像装置。
  19.  前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記複数の光電変換素子の内の1つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の2つの光電変換素子により生成された電荷をフローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項1に記載の撮像装置。
  20.  第1の画素ユニットと第2の画素ユニットとがそれぞれ複数配置され、
     第1の画素ユニットに供給される第1制御信号と、第2の画素ユニットに供給される第1制御信号はそれぞれ垂直駆動部に接続され、
     前記垂直駆動部は前記第1の画素ユニットに供給される第1制御信号と、前記第2の画素ユニットに供給される第1制御信号をモード設定信号に応じて変更する、撮像装置。 
  21.  請求項4に記載の撮像装置と、
     前記撮像装置を用いて生成された画像データに応じて、前記モード設定信号を生成する制御部と、を備える電子機器。
  22.  前記制御部は、前記画像データに基づく被写体の明るさの度合いに基づき、前記モード設定信号を生成する、請求項21に記載の電子機器。
  23.  前記制御部は、前記被写体の動きの度合いと、に基づき、前記モード設定信号を生成する、請求項21に記載の電子機器。
  24.  複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
     前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
     前記レンズの位置が固定される固定モードと、
     前記異なるタイミング毎に前記レンズの位置が異なる移動モードと、の少なくとも一方
     を有する、電子機器。
  25.  前記複数の位相差画素の画像信号に基づき、位相差情報を生成する位相差検出部と、
     前記位相差情報を用いて、次フレーム、又は次サブフレームの前記レンズの位置を推論する推論部と、
     を更に備える、請求項24に記載の電子機器。
  26.  前記固定モードでは、
     前記位相差検出部は、前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成し、
     前記推論部は、前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論する、請求項25に記載の電子機器。
  27.  前記制御部は、次フレームの撮影開始時に基づき、前記推論部が推論した前記レンズの位置に前記レンズを移動させる、請求項26に記載の電子機器。
  28.  前記移動モードにおいて、
     前記制御部は、前記複数の画素グループ毎にえられた撮像画像を表示部に表示させる、請求項24に記載の電子機器。
  29.  前記表示部に表示される画像を選択する指示信号を入力する入力部を更に備え、
     前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像を選択する、請求項28に記載の電子機器。
  30.  前記制御部は、前記指示信号に基づき、前記複数の画素グループ毎にえられた撮像画像のうちから選択された撮像画像のみを記憶部に記憶させる、請求項29に記載の電子機器。
  31.  画素アレイ部は、矩形状の領域に分けられ、前記複数の像面位相差画素を含む画素が行列状に配置されており、
     前記制御部は、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出す、請求項24に記載の電子機器。
  32.  前記移動モードにおいて、
     前記矩形状の領域毎に複数の像面位相差画素が含まれ、
     前記矩形状の領域毎に所定の順番で読み出された画像信号に基づき、位相差情報を生成する位相差検出部と、
     前記位相差情報を用いて、前記所定の順番に応じてレンズの位置を推論することが可能である推論部と、
     を更に備える、請求項31に記載の電子機器。
  33.  前記矩形状の領域毎に最初に読み出された画素には少なくとも複数の像面位相差画素が含まれ、
     前記位相差検出部は、前記矩形状の領域毎に最初に読み出された画像信号に基づき、位相差情報を生成する、請求項32に記載の電子機器。
  34.  画素アレイ部は、前記複数の像面位相差画素を含む画素が行列状に配置されており、
     前記画素アレイ部は矩形状の領域に分けられ、前記矩形状の領域毎に領域内の画素から所定の順番に画像信号を並列に読み出す制御部と、
     を備える、電子機器。
  35.  前記画素アレイ部は、複数の画素ユニットで構成され、
     前記画素ユニットは、
     複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有する、請求項24に記載の電子機器。
  36.  前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
     前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、請求項35に記載の電子機器。
  37.  前記画素アレイ部は、複数の画素ユニットで構成され、
     前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
     前記複数の光電変換素子により光電変換された電荷を異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせる第1モードと、
     前記複数の光電変換素子のうちの少なくとも2つにより生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換する第2モードと、を有する、請求項24に記載の電子機器。
  38.  前記画素アレイ部は、複数の画素ユニットで構成され、
     前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
     前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも2つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
     前記2つの光電変換素子により生成された電荷をそれぞれ異なる期間にフローティングディフュージョンに転送し、前記異なる期間に応じて、アナログデジタル変換部による変換期間を異ならせるモードと、
     前記2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項24に記載の電子機器。
  39.  前記画素アレイ部は、複数の画素ユニットで構成され、
     前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
     前記画素ユニット内の前記複数の光電変換素子のうち、少なくとも4つの光電変換素子に対応する位置に配置された一つのオンチップレンズを介して光を受光し、
     前記4つの光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     前記4つの光電変換素子の内の2つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、
     前記4つの光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項24に記載の電子機器。
  40.  前記画素アレイ部は、複数の画素ユニットで構成され、
     前記画素ユニットは、前記複数の画素グループにそれぞれ属する複数の光電変換素子と、
     前記画素ユニット内の前記光電変換素子で光電変換された電荷を出力するフローティングディフュージョンと、
     前記光電変換素子で光電変換された電荷に応じた信号をデジタル信号に変換するアナログデジタル変換部と、を有し、
     前記画素ユニット内の前記複数の光電変換素子のうち少なくとも一つは、遮光部材によって受光部の一部が遮光された画素として構成され、
     前記複数の光電変換素子により生成された電荷をそれぞれ異なる期間に前記フローティングディフュージョンに転送し、前記異なる期間に応じて、前記アナログデジタル変換部による変換期間を異ならせるモードと、
     所定の絞りを介して光を受光した光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により変換した後に、前記複数の光電変換素子の内の前記絞りを介して光を受光した光電変換素子と異なる光電変換素子により生成された電荷を前記フローティングディフュージョンに転送し、前記アナログデジタル変換部により同時に変換するモードと、を有する、請求項24に記載の電子機器。
  41.  複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
     前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、
     前記複数の画素グループ毎にえられた前記複数の位相差画素の画像信号に基づき、時系列な位相差情報を生成する位相差検出部と、
     前記時系列な位相差情報を用いて、次フレームの前記レンズの位置を推論する推論部と、
     を備える、電子機器。
  42.  複数の像面位相差画素をそれぞれ有する複数の画素グループで構成される画素アレイ部と、
     前記複数の画素グループ毎でレンズを介して被写体を撮像するタイミングを異ならせる制御を行う制御部と、を備え、
     前記制御部は、前記複数の画素グループ毎で前記レンズの位置を変更する、電子機器。
PCT/JP2022/024300 2021-10-13 2022-06-17 撮像装置、および電子機器 WO2023062873A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021168426 2021-10-13
JP2021-168426 2021-10-13

Publications (1)

Publication Number Publication Date
WO2023062873A1 true WO2023062873A1 (ja) 2023-04-20

Family

ID=85988252

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024300 WO2023062873A1 (ja) 2021-10-13 2022-06-17 撮像装置、および電子機器

Country Status (1)

Country Link
WO (1) WO2023062873A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224278A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 撮像装置及び撮像素子の制御方法
JP2018033118A (ja) * 2016-08-17 2018-03-01 ルネサスエレクトロニクス株式会社 撮像素子
JP2020092346A (ja) * 2018-12-06 2020-06-11 キヤノン株式会社 撮像装置およびその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224278A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 撮像装置及び撮像素子の制御方法
JP2018033118A (ja) * 2016-08-17 2018-03-01 ルネサスエレクトロニクス株式会社 撮像素子
JP2020092346A (ja) * 2018-12-06 2020-06-11 キヤノン株式会社 撮像装置およびその制御方法

Similar Documents

Publication Publication Date Title
KR102649782B1 (ko) 신호 처리 장치 및 촬상 장치
JP7171199B2 (ja) 固体撮像装置、及び電子機器
WO2020105314A1 (ja) 固体撮像素子、および、撮像装置
JP7240324B2 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
JP2022016546A (ja) 固体撮像装置、および電子機器
CN110073655B (zh) 固态摄像器件、电子设备和用于控制固态摄像器件的方法
US20230402475A1 (en) Imaging apparatus and electronic device
WO2018230367A1 (ja) 撮像装置
TW202231056A (zh) 攝像裝置
CN112970117A (zh) 固态成像装置和电子设备
CN110226325B (zh) 摄像系统和摄像装置
WO2021090538A1 (ja) センシングデバイス、電子機器およびセンシングデバイスの制御方法
CN111201781B (zh) 摄像器件和诊断方法
WO2023062873A1 (ja) 撮像装置、および電子機器
WO2020003646A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2022181099A1 (ja) 固体撮像素子、および、撮像装置
WO2020021826A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2023286297A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2023021774A1 (ja) 撮像装置及び撮像装置を備える電子機器
WO2022201898A1 (ja) 撮像素子および撮像装置
WO2023105916A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2023243222A1 (ja) 撮像装置
WO2023112480A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2023021780A1 (ja) 撮像装置、電子機器及び情報処理方法
WO2023074177A1 (ja) 撮像装置