WO2018016344A1 - 固体撮像装置および電子機器 - Google Patents

固体撮像装置および電子機器 Download PDF

Info

Publication number
WO2018016344A1
WO2018016344A1 PCT/JP2017/024891 JP2017024891W WO2018016344A1 WO 2018016344 A1 WO2018016344 A1 WO 2018016344A1 JP 2017024891 W JP2017024891 W JP 2017024891W WO 2018016344 A1 WO2018016344 A1 WO 2018016344A1
Authority
WO
WIPO (PCT)
Prior art keywords
internal clock
oscillator
conversion
solid
unit
Prior art date
Application number
PCT/JP2017/024891
Other languages
English (en)
French (fr)
Inventor
篤親 丹羽
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/315,343 priority Critical patent/US10666284B2/en
Publication of WO2018016344A1 publication Critical patent/WO2018016344A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/50Analogue/digital converters with intermediate conversion to time interval
    • H03M1/56Input signal compared with linear ramp
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present disclosure relates to a solid-state imaging device and an electronic device, and more particularly, to a solid-state imaging device and an electronic device that enable operation with low power consumption.
  • a solid-state imaging device such as a CMOS image sensor operates in a sensing mode (low-resolution imaging mode) that performs simple recognition with low power consumption that can withstand constant startup, in addition to an imaging mode with large power consumption.
  • a sensing mode low-resolution imaging mode
  • System development is underway. Thereby, it is possible to perform imaging while consuming power only when necessary, and it is possible to autonomously optimize power.
  • the power consumption of the processor that controls various chips is large. Therefore, in order to realize the continuous activation of the solid-state imaging device in the sensing mode, it is important from the viewpoint of power consumption reduction to perform an autonomous operation and put the processor in a stopped state. In this case, the solid-state imaging device is required to perform a self-running operation in a state where the clock supply is stopped.
  • Patent Document 1 discloses a circuit configuration that generates an internal clock by stopping an external clock at an arbitrary timing.
  • the present disclosure has been made in view of such a situation, and is intended to realize an operation with lower power consumption.
  • the solid-state imaging device includes an AD conversion unit that AD-converts a pixel signal, and an oscillator that generates a second internal clock having a frequency lower than the first internal clock multiplied by the external clock.
  • the AD conversion unit is configured to operate at a resolution lower than the resolution of AD conversion when operating with the first internal clock when operating with the second internal clock.
  • An electronic apparatus includes an AD conversion unit that AD converts a pixel signal, and an oscillator that generates a second internal clock having a lower frequency than the first internal clock multiplied by the external clock.
  • the AD conversion unit includes a solid-state imaging device configured to operate with a resolution lower than that of AD conversion when operating with the first internal clock when operating with the second internal clock. .
  • the AD conversion unit when the AD conversion unit operates with the second internal clock, the AD conversion unit is configured to operate with a resolution lower than the resolution of AD conversion when the AD conversion unit operates with the first internal clock. .
  • a solid-state imaging device includes an AD conversion unit that AD converts a pixel signal, a first oscillator that generates a first internal clock, and a second that has a higher frequency than the first internal clock. And a second oscillator that generates an internal clock of the AD converter, wherein the second oscillator is configured to start only during an AD conversion period in which the AD converter operates, and the AD conversion period, the second internal clock Works with.
  • An electronic apparatus includes an AD conversion unit that AD converts a pixel signal, a first oscillator that generates a first internal clock, and a second frequency that is higher than the first internal clock.
  • a second oscillator that generates an internal clock, and the second oscillator is configured to start only during an AD conversion period in which the AD conversion unit operates, and the AD conversion period, the second internal clock
  • the second oscillator is configured to start only during the AD conversion period in which the AD conversion unit operates, and is operated by the second internal clock during the AD conversion period.
  • CMOS image sensor of 2nd Embodiment It is a block diagram which shows the structural example of the CMOS image sensor of 2nd Embodiment. It is a figure which shows the structural example of the CMOS image sensor in an AD conversion period. It is a figure explaining the layout structure of a CMOS image sensor. It is a figure explaining the structure of the CMOS image sensor of this indication. It is a block diagram which shows the structural example of the electronic device of this indication. It is a figure which shows the usage example which uses an image sensor. It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram which shows an example of a function structure of the camera head and CCU shown in FIG. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • FIG. 1 shows a configuration example of a conventional CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • a PLL (Phase Locked Loop) circuit 1 multiplies an external reference clock (external clock) to a necessary frequency, and a control unit 2 and a DAC (Digital-to-Analog Converter) 3. And to the counter 5.
  • the clock signal output from the PLL circuit 1 is about several hundred MHz to several GHz.
  • the DAC 3, the comparator 4, and the counter 5 constitute an AD conversion unit.
  • the comparator 4 and the counter 5 constitute a column AD conversion circuit, and convert a pixel signal supplied for each column from a pixel array (not shown) to a digital signal by comparing with a reference signal from the DAC 3. To do.
  • the control of the CMOS image sensor having such a configuration is performed by a DSP (Digital Signal Processor) provided outside, and an external clock to the PLL circuit 1 is also supplied from the DSP.
  • DSP Digital Signal Processor
  • DSP consumes a lot of power. Therefore, in these devices, various sensors sense the surrounding situation with the DSP stopped, and when a change in the situation is detected, the DSP is started by outputting an interrupt signal to the DSP. System development is fostering.
  • the CMOS image sensor is also required to operate in a state where the DSP is stopped, that is, in a state where no external clock is supplied.
  • FIG. 2 is a diagram illustrating a relationship between the CMOS image sensor of the present disclosure and the DSP.
  • a CMOS image sensor 11 shown in FIG. 2 is an example of the solid-state imaging device of the present disclosure.
  • the solid-state imaging device of the present disclosure may be applied to image sensors having other configurations.
  • the DSP 12 controls the CMOS image sensor 11 (hereinafter simply referred to as the image sensor 11). Specifically, the image sensor 11 operates by receiving an external clock or a setting register value supplied from the DSP 12 and supplies output data to the DSP 12.
  • the image sensor 11 operates in one of an operation mode of a normal imaging mode and a sensing mode (low resolution imaging mode) that performs simple recognition with low power consumption.
  • the image sensor 11 In the imaging mode, the image sensor 11 operates with a first internal clock obtained by multiplying an external clock supplied from the DSP 12 to a necessary frequency. On the other hand, in the sensing mode, the image sensor 11 operates (self-running operation) with a clock (second internal clock) by an internal oscillator. In the sensing mode, the DSP 12 stops.
  • the image sensor 11 When the operation mode of the image sensor 11 operating with the second internal clock transitions from the sensing mode to the imaging mode, the image sensor 11 supplies an activation signal (interrupt signal) to the DSP 12.
  • the DSP 12 is activated by an activation signal from the image sensor 11, and the image sensor 11 operates in an imaging mode by a first internal clock multiplied by a required frequency from an activated external clock from the DSP 12.
  • the image sensor 11 shown in FIG. 3 includes a pixel array 21, a row drive circuit 22, an AD conversion unit (ADC) 23, a control unit 24, a PLL circuit 25, and an oscillator 26. These components are formed on a semiconductor substrate (chip) (not shown).
  • the image sensor 11 In the image sensor 11, light incident on the pixel array 21 is photoelectrically converted, and a pixel signal is read from each pixel of the pixel array 21 driven by the row driving circuit 22.
  • the read pixel signal (analog signal) is AD (Analog-to-Digital) converted by the ADC 23, and digital data corresponding to the incident light is output.
  • the pixel array 21 includes pixels having photoelectric conversion elements such as photodiodes arranged in a matrix.
  • the number of pixels arranged in the pixel array 21 is arbitrary, and the number of rows and columns is also arbitrary.
  • the row drive circuit 22 drives each pixel of the pixel array 21 in units of rows. Specifically, the row driving circuit 22 drives the pixels in a plurality of pixel rows at the same time. A control line (not shown) is formed for each row from the row drive circuit 22 to the pixel array 21.
  • the ADC 23 includes a DAC 31, a comparator 32, and a counter 33 shown in FIG. 4, and AD-converts analog pixel signals read from each pixel in each column of the pixel array 21.
  • the ADC 23 includes a column AD conversion circuit provided for each column of the pixel array 21.
  • a general pixel array is provided with a vertical signal line for supplying a pixel signal to a column AD conversion circuit for each column.
  • the pixel signal output to each vertical signal line is supplied to each column AD conversion circuit of the ADC 23.
  • the column AD conversion circuit includes the comparator 32 and the counter 33 shown in FIG. 4, and converts the pixel signal supplied for each column with a reference signal (Ramp signal) from the DAC 31 to convert it into a digital signal. To do. That is, the ADC 23 operates as a single slope type AD converter.
  • the control unit 24 controls the entire image sensor 11 and controls the generation of various signals. For example, the control unit 24 controls generation of a start signal for starting the stopped DSP 12 in the sensing mode.
  • the PLL circuit 25 multiplies the external clock supplied from the DSP 12 to a necessary frequency, and supplies the multiplied frequency to the row drive circuit 22, the ADC 23, and the control unit 24. That is, in the imaging mode, the row driving circuit 22, the ADC 23, and the control unit 24 operate with the first internal clock that is multiplied by the frequency required for the external clock.
  • the oscillator 26 generates a second internal clock having a frequency lower than that of the first internal clock output from the PLL circuit 25 in the sensing mode, and supplies the second internal clock to the row driving circuit 22, the ADC 23, and the control unit 24. That is, in the sensing mode, the row drive circuit 22, the ADC 23, and the control unit 24 operate with the second internal clock.
  • the image sensor 11 can operate in the sensing mode without being supplied with an external clock.
  • the ADC 23 in the image sensor 11 is configured as a single slope type AD converter. Therefore, in the ADC 23, it is necessary for the counter 33 to perform a counting operation in accordance with the necessary AD conversion resolution. For example, when the number of output bits of AD conversion is 10 bits, the counter 33 needs to perform a count operation of 1024 times.
  • the AD conversion operation time becomes long, resulting in an increase in power consumption. Therefore, in the sensing mode, it is required to reduce the AD conversion resolution and shorten the AD conversion operation time.
  • FIG. 5 is a diagram illustrating a configuration example of the DAC 31.
  • the DAC 31 shown in FIG. 5 includes clock selectors CS1, CS2, flip-flops FF1, FF2, FF3,..., And a current source 51.
  • the flip-flops FF1, FF2, FF3,... Each count as a binary counter, and the DAC 31 generates a Ramp signal by counting up the number of connections of the current source 51 according to the count value.
  • the pixel signal at the reset level is AD converted for a period corresponding to the slope of the Ramp signal, and after the second settling is performed, the slope of the Ramp signal is set. During the corresponding period, the pixel signal at the signal level is AD converted.
  • the flip-flop FF1 stops counting among the flip-flops FF1, FF2, FF3,... By switching the clock selectors CS1, CS2. That is, the counting operation of the least significant bit (LSB) is stopped, and 2 LSBs are counted up every clock cycle.
  • the DAC 31 generates a Ramp signal that changes at a slope (double slope) greater than the slope of the Ramp signal in the imaging mode, as shown in the lower part of FIG.
  • the reset level pixel signal and the signal level pixel signal are AD-converted in a shorter period than the imaging mode without changing the counting operation of the counter 33.
  • the AD conversion resolution can be reduced, the AD conversion operation time can be shortened, and the operation with lower power consumption can be realized.
  • the DAC 31 is not limited to the binary counter as shown in FIG. 5, but can be realized by other configurations.
  • FIG. 7 is a block diagram illustrating a configuration example of the oscillator 26.
  • the oscillator 26 includes an oscillation circuit 71 and a bias circuit 72.
  • the oscillation circuit 71 is configured as a so-called ring oscillator, and includes three inverters IV1 to IV3.
  • the bias circuit 72 generates a bias voltage that determines a threshold for the output of the oscillation circuit 71 and supplies the bias voltage to the inverters IV1 to IV3.
  • FIG. 8 is a diagram illustrating a circuit configuration example of the oscillator 26.
  • the inverter IV1 constituting the oscillation circuit 71 is configured as a differential amplifier, and includes transistors M11 to M13, resistance elements R11 and R12, and capacitance elements C11 and C12. Note that the inverters IV1 to IV3 have the same circuit configuration.
  • Transistors M11 and M12 are a differential pair, and transistor M13 is a current source. Resistance elements R11 and R12 are connected between a predetermined power source and transistors M11 and M12, respectively. Capacitance elements C11 and C12 are connected between the differential output and GND.
  • the bias circuit 72 includes transistors M21 to M24 and a resistance element R21.
  • the transistors M21 and M22 are PMOS transistors, and the transistors M23 and M24 are NMOS transistors.
  • the gate of the transistor M21 and the gate of the transistor M22 are connected to the drain of the transistor M24.
  • the gate of the transistor M23 and the gate of the transistor M24 are connected to the drain of the transistor M21.
  • the drain of the transistor M21 is connected to the drain of the transistor M23, and the drain of the transistor M22 is connected to the drain of the transistor M24. Further, a resistance element R21 is connected between the source of the transistor M24 and GND.
  • the voltage at the connection point between the gate of the transistor M23 and the gate of the transistor M24 is output as a bias voltage.
  • FIG. 9 is a diagram illustrating another circuit configuration example of the oscillator 26.
  • FIG. 9 shows only the configuration of the inverter IV1 among the inverters IV1 to IV3 constituting the oscillation circuit 71, and the illustration of the inverters IV2 and IV3 is omitted.
  • the inverter IV1 in FIG. 9 includes transistors M31 to M33, resistance elements R31 and R32, and capacitive elements C31 and C32.
  • Transistors M31 and M32 are a differential pair, and transistor M33 is a current source. Resistance element R31 and capacitive element C31 are connected in parallel between a predetermined power source and transistor M31. Further, the resistance element R32 and the capacitance element C32 are connected in parallel between a predetermined power source and the transistor M32.
  • the bias circuit 72 shown in FIG. 9 has the same configuration as the bias circuit 72 shown in FIG. 9
  • the oscillation frequency of the second internal clock generated by the oscillator 26 is the resistance value of the resistance elements R11 and R12 provided in the inverters IV1 to IV3 constituting the oscillation circuit 71, and It is determined by the capacitance values of the capacitive elements C11 and C12.
  • inverters IV1 to IV3 are each configured as a differential amplifier, it is possible to mitigate frequency shift due to common-mode noise typified by power supply noise.
  • the dedicated bias circuit 72 is provided in the oscillator 26, so that the power consumption used for generating the bias voltage can be reduced.
  • the oscillator 26 is not limited to the circuit configuration as shown in FIG. 8 or FIG. 9, but can be realized by other circuit configurations.
  • the image sensor 11 described above operates in a high-speed clock obtained by multiplying an external clock supplied from the outside (DSP 12) in the imaging mode, and in the sensing mode, the low-speed generated by the internal oscillator 26. Operates with a simple clock.
  • FIG. 10 is a diagram for explaining the operation of the image sensor 11 during the AD conversion period in each mode.
  • the count period is extended and the AD conversion operation is delayed.
  • the ratio of the AD conversion operation time to the entire operation time of the image sensor 11 increases, leading to an increase in power consumption.
  • the oscillation frequency and the power consumption are in a proportional relationship. Therefore, if the oscillation frequency of the oscillator 26 is increased, the power consumption of the oscillator 26 itself increases. That is, the power consumption of the AD conversion unit operating with the internal clock and the power consumption of the oscillator generating the internal clock are in a trade-off relationship.
  • FIG. 11 is a diagram illustrating a configuration example of the image sensor 11 according to the second embodiment.
  • a first oscillator 111 and a second oscillator 112 are provided instead of the oscillator 26 in the image sensor 11 of FIG.
  • the first oscillator 111 is always activated and generates a first internal clock that is relatively slow.
  • the first internal clock is supplied only to the control unit 24.
  • the second oscillator 112 is activated only during an AD conversion period in which the ADC 23 including the DAC 31, the comparator 32, and the counter 33 operates, and generates a second internal clock having a higher frequency (higher speed) than the first internal clock. Generate.
  • the second internal clock is supplied to the control unit 24, the DAC 31, the comparator 32, and the counter 33.
  • the first oscillator 111 and the control unit 24 are connected by the switch SW2, and the control is performed.
  • the second oscillator 112 the control unit 24, the DAC 31, the comparator 32, and the counter 33 are respectively switched by the switch SW2.
  • the switch SW2 Are connected, and the entire image sensor 11 operates with a high-speed second internal clock.
  • the second oscillator 112 in the AD conversion period of the operation period in the sensing mode, the second oscillator 112 is activated, and the high-speed second internal clock can accelerate the AD conversion operation. it can. Further, in the period other than the AD conversion period in the operation period in the sensing mode, the second oscillator 112 is not started, and the logic is generated by the low-speed first internal clock by the first oscillator 111 that is always started. Circuit operation and frame control can be performed.
  • the first oscillator 111 is always started, the first oscillator 111 is in operation during the operation of the second oscillator 112, that is, in the AD conversion period of the operation period in the sensing mode. 111 may stop its operation.
  • the high-speed second internal clock is used only for speeding up the AD conversion operation, high accuracy is not required for the frequency.
  • the low-speed first internal clock is used for controlling the charge accumulation time, high accuracy is required for its frequency. Therefore, in the first oscillator 111, the frequency is adjusted according to the use of the first internal clock, that is, the accuracy of the required frequency. Thereby, the performance of the image sensor 11 in the sensing mode can be ensured.
  • both the first oscillator 111 and the second oscillator 112 have an oscillation circuit that oscillates themselves, there is a possibility that they may interfere with each other and the frequency accuracy may deteriorate.
  • the first oscillator 111 and the second oscillator 112 are arranged at positions separated from each other on the substrate.
  • the second oscillator 112 that generates the second internal clock is disposed in the vicinity of the ADC 23 that performs the AD conversion operation. To be.
  • the power supply and GND of the first oscillator 111 and the power supply and GND of the second oscillator 112 are electrically separated from each other.
  • Such a layout configuration can prevent the first oscillator 111 and the second oscillator 112 from interfering with each other to deteriorate the frequency accuracy.
  • Image sensor structure Here, the structure which the image sensor of this indication can take is demonstrated.
  • the image sensor of the present disclosure is configured as one semiconductor chip in which a logic circuit including a pixel region, a control circuit, and a signal processing circuit is mounted on one semiconductor substrate, and a plurality of semiconductor substrates are stacked. It can also be configured as a single semiconductor chip.
  • the image sensor 11 a shown in the upper part of FIG. 14 includes a first semiconductor substrate 121 and a second semiconductor substrate 122.
  • a pixel region 123 and a control circuit 124 are mounted on the first semiconductor substrate 121.
  • a logic circuit 125 including a signal processing circuit is mounted on the second semiconductor substrate 122. Then, the first semiconductor substrate 121 and the second semiconductor substrate 122 are electrically connected to each other, thereby forming a stacked image sensor 11a as one semiconductor chip.
  • the image sensor 11 b shown in the lower part of FIG. 14 includes a first semiconductor substrate 121 and a second semiconductor substrate 122.
  • a pixel region 123 is mounted on the first semiconductor substrate 121.
  • a control circuit 124 and a logic circuit 125 including a signal processing circuit are mounted on the second semiconductor substrate 122. Then, the first semiconductor substrate 121 and the second semiconductor substrate 122 are electrically connected to each other, thereby forming a stacked image sensor 11b as one semiconductor chip.
  • the structure in which the first semiconductor substrate 121 and the second semiconductor substrate 122 are electrically connected can be a through via, a Cu-Cu metal bond, or another structure.
  • the second semiconductor substrate 122 is composed of one layer, but may be composed of two or more layers. That is, the technology according to the present disclosure can also be applied to an image sensor including a stacked body of three or more layers with the first semiconductor substrate 121 as the uppermost layer.
  • the technology according to the present disclosure is not limited to application to an image sensor, but can also be applied to an imaging apparatus.
  • the imaging apparatus refers to a camera system such as a digital still camera or a digital video camera, or an electronic apparatus having an imaging function such as a mobile phone.
  • a module-like form mounted on an electronic device, that is, a camera module is used as an imaging device.
  • the electronic device 200 shown in FIG. 15 includes an optical lens 201, a shutter device 202, an image sensor 203, a drive circuit 204, and a signal processing circuit 205.
  • FIG. 15 shows an embodiment in which the above-described image sensor 1 of the present disclosure is provided as an image sensor 203 in an electronic apparatus (digital still camera).
  • the optical lens 201 forms image light (incident light) from the subject on the imaging surface of the image sensor 203. As a result, the signal charge is accumulated in the image sensor 203 for a certain period.
  • the shutter device 202 controls a light irradiation period and a light shielding period for the image sensor 203.
  • the drive circuit 204 supplies drive signals to the shutter device 202 and the image sensor 203.
  • the drive signal supplied to the shutter device 202 is a signal for controlling the shutter operation of the shutter device 202.
  • the drive signal supplied to the image sensor 203 is a signal for controlling the signal transfer operation of the image sensor 203.
  • the image sensor 203 performs signal transfer using a drive signal (timing signal) supplied from the drive circuit 204.
  • the signal processing circuit 205 performs various signal processing on the signal output from the image sensor 203.
  • the video signal subjected to the signal processing is stored in a storage medium such as a memory or output to a monitor.
  • the image sensor 203 can realize an operation with lower power consumption in the sensing mode, it is possible to provide an electronic device with lower power consumption as a result. Become.
  • FIG. 16 is a diagram showing a usage example of the image sensor described above.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports such as action cameras and wearable cameras for sports applications etc.
  • Equipment used for agriculture such as cameras for monitoring the condition of fields and crops
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 17 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied.
  • an endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 that supports the endoscope 5001, and various devices for endoscopic surgery. And a cart 5037 on which is mounted.
  • trocars 5025a to 5025d are punctured into the abdominal wall.
  • the lens barrel 5003 of the endoscope 5001 and other surgical tools 5017 are inserted into the body cavity of the patient 5071 from the trocars 5025a to 5025d.
  • an insufflation tube 5019, an energy treatment tool 5021, and forceps 5023 are inserted into the body cavity of the patient 5071.
  • the energy treatment device 5021 is a treatment device that performs tissue incision and separation, blood vessel sealing, or the like by high-frequency current or ultrasonic vibration.
  • the illustrated surgical tool 5017 is merely an example, and as the surgical tool 5017, for example, various surgical tools generally used in endoscopic surgery such as a lever and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5071 captured by the endoscope 5001 is displayed on the display device 5041.
  • the surgeon 5067 performs a treatment such as excision of the affected part, for example, using the energy treatment tool 5021 and the forceps 5023 while viewing the image of the surgical part displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment tool 5021, and the forceps 5023 are supported by an operator 5067 or an assistant during surgery.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 includes joint portions 5033a, 5033b, and 5033c and links 5035a and 5035b, and is driven by control from the arm control device 5045.
  • the endoscope 5001 is supported by the arm unit 5031, and the position and posture thereof are controlled. Thereby, the stable position fixing of the endoscope 5001 can be realized.
  • the endoscope 5001 includes a lens barrel 5003 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the proximal end of the lens barrel 5003.
  • a lens barrel 5003 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the proximal end of the lens barrel 5003.
  • an endoscope 5001 configured as a so-called rigid mirror having a rigid lens barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible mirror having a flexible lens barrel 5003. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 5003.
  • a light source device 5043 is connected to the endoscope 5001, and light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003. Irradiation is performed toward the observation target in the body cavity of the patient 5071 through the lens.
  • the endoscope 5001 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5005, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU) 5039 as RAW data.
  • CCU camera control unit
  • the camera head 5005 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of imaging elements may be provided in the camera head 5005 in order to cope with, for example, stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide observation light to each of the plurality of imaging elements.
  • the CCU 5039 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 performs various types of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 5005. The CCU 5039 provides the display device 5041 with the image signal subjected to the image processing. Further, the CCU 5039 transmits a control signal to the camera head 5005 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on an image signal subjected to image processing by the CCU 5039 under the control of the CCU 5039.
  • the endoscope 5001 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display
  • the display device 5041 may be a display device capable of high-resolution display and / or 3D display.
  • 4K or 8K high-resolution imaging a more immersive feeling can be obtained by using a display device 5041 having a size of 55 inches or more.
  • a plurality of display devices 5041 having different resolutions and sizes may be provided depending on applications.
  • the light source device 5043 is composed of a light source such as an LED (light emitting diode), for example, and supplies irradiation light to the endoscope 5001 when photographing a surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5045 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 5047.
  • the user instructs the arm unit 5031 to be driven via the input device 5047 or the instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. Then, an instruction to drive the energy treatment instrument 5021 is input.
  • the type of the input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057, and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various types of input are performed according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 5047 includes a camera capable of detecting the user's movement, and various inputs are performed according to the user's gesture and line of sight detected from the video captured by the camera.
  • the input device 5047 includes a microphone that can pick up a user's voice, and various inputs are performed by voice through the microphone.
  • the input device 5047 is configured to be able to input various information without contact, so that a user belonging to a clean area (for example, an operator 5067) can operate a device belonging to an unclean area without contact. Is possible.
  • a user belonging to a clean area for example, an operator 5067
  • the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 5049 controls the drive of the energy treatment instrument 5021 for tissue cauterization, incision, or blood vessel sealing.
  • the pneumoperitoneum device 5051 gas is introduced into the body cavity via the pneumoperitoneum tube 5019.
  • the recorder 5053 is an apparatus capable of recording various types of information related to surgery.
  • the printer 5055 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 5027 includes a base portion 5029 as a base and an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 includes a plurality of joint portions 5033a, 5033b, and 5033c and a plurality of links 5035a and 5035b connected by the joint portion 5033b.
  • FIG. The configuration of the arm portion 5031 is shown in a simplified manner. Actually, the shape, number and arrangement of the joint portions 5033a to 5033c and the links 5035a and 5035b, the direction of the rotation axis of the joint portions 5033a to 5033c, and the like are appropriately set so that the arm portion 5031 has a desired degree of freedom. obtain.
  • the arm portion 5031 can be preferably configured to have 6 degrees of freedom or more. Accordingly, the endoscope 5001 can be freely moved within the movable range of the arm portion 5031. Therefore, the barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. It becomes possible.
  • the joint portions 5033a to 5033c are provided with actuators, and the joint portions 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the arm control device 5045 By controlling the driving of the actuator by the arm control device 5045, the rotation angles of the joint portions 5033a to 5033c are controlled, and the driving of the arm portion 5031 is controlled. Thereby, control of the position and orientation of the endoscope 5001 can be realized.
  • the arm control device 5045 can control the driving of the arm unit 5031 by various known control methods such as force control or position control.
  • the arm control device 5045 appropriately controls the driving of the arm unit 5031 according to the operation input.
  • the position and posture of the endoscope 5001 may be controlled.
  • the endoscope 5001 at the tip of the arm portion 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the position after the movement.
  • the arm portion 5031 may be operated by a so-called master slave method.
  • the arm unit 5031 can be remotely operated by the user via the input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 When force control is applied, the arm control device 5045 receives the external force from the user and moves the actuators of the joint portions 5033a to 5033c so that the arm portion 5031 moves smoothly according to the external force. You may perform what is called power assist control to drive. Accordingly, when the user moves the arm unit 5031 while directly touching the arm unit 5031, the arm unit 5031 can be moved with a relatively light force. Therefore, the endoscope 5001 can be moved more intuitively and with a simpler operation, and user convenience can be improved.
  • an endoscope 5001 is supported by a doctor called a scopist.
  • the position of the endoscope 5001 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 5045 is not necessarily provided in the cart 5037. Further, the arm control device 5045 is not necessarily a single device. For example, the arm control device 5045 may be provided in each joint portion 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the plurality of arm control devices 5045 cooperate with each other to drive the arm portion 5031. Control may be realized.
  • the light source device 5043 supplies irradiation light to the endoscope 5001 when photographing a surgical site.
  • the light source device 5043 is composed of a white light source composed of, for example, an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Adjustments can be made.
  • each RGB light source is controlled by irradiating the observation target with laser light from each of the RGB laser light sources in a time-sharing manner and controlling the driving of the image sensor of the camera head 5005 in synchronization with the irradiation timing. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 5043 may be controlled so as to change the intensity of the output light every predetermined time.
  • the driving of the image sensor of the camera head 5005 is controlled to acquire images in a time-sharing manner, and the images are synthesized, so that high dynamics without so-called blackout and overexposure are obtained. A range image can be generated.
  • the light source device 5043 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • ICG indocyanine green
  • the light source device 5043 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 18 is a block diagram illustrating an example of functional configurations of the camera head 5005 and the CCU 5039 illustrated in FIG.
  • the camera head 5005 has a lens unit 5007, an imaging unit 5009, a drive unit 5011, a communication unit 5013, and a camera head control unit 5015 as its functions.
  • the CCU 5039 includes a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are connected to each other via a transmission cable 5065 so that they can communicate with each other.
  • the lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003. Observation light captured from the tip of the lens barrel 5003 is guided to the camera head 5005 and enters the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 5007 are adjusted so that the observation light is condensed on the light receiving surface of the image sensor of the imaging unit 5009. Further, the zoom lens and the focus lens are configured such that their positions on the optical axis are movable in order to adjust the magnification and focus of the captured image.
  • the imaging unit 5009 is configured by an imaging element, and is disposed in the subsequent stage of the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is collected on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5009 is provided to the communication unit 5013.
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging element for example, an element capable of capturing a high-resolution image of 4K or more may be used.
  • the image sensor that configures the image capturing unit 5009 is configured to include a pair of image sensors for acquiring right-eye and left-eye image signals corresponding to 3D display. By performing the 3D display, the operator 5067 can more accurately grasp the depth of the living tissue in the surgical site.
  • the imaging unit 5009 is configured as a multi-plate type, a plurality of lens units 5007 are also provided corresponding to each imaging element.
  • the imaging unit 5009 is not necessarily provided in the camera head 5005.
  • the imaging unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the driving unit 5011 includes an actuator, and moves the zoom lens and the focus lens of the lens unit 5007 by a predetermined distance along the optical axis under the control of the camera head control unit 5015. Thereby, the magnification and focus of the image captured by the imaging unit 5009 can be adjusted as appropriate.
  • the communication unit 5013 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the imaging unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065.
  • the image signal is preferably transmitted by optical communication.
  • the surgeon 5067 performs the surgery while observing the state of the affected area with the captured image, so that a moving image of the surgical site is displayed in real time as much as possible for safer and more reliable surgery. Because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 5039 via the transmission cable 5065.
  • the communication unit 5013 receives a control signal for controlling driving of the camera head 5005 from the CCU 5039.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5013 provides the received control signal to the camera head control unit 5015.
  • the control signal from the CCU 5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the control signal is converted into an electric signal by the photoelectric conversion module, and then provided to the camera head control unit 5015.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5001.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 5015 controls driving of the camera head 5005 based on a control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls driving of the imaging element of the imaging unit 5009 based on information indicating that the frame rate of the captured image is specified and / or information indicating that the exposure at the time of imaging is specified. For example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the drive unit 5011 based on information indicating that the magnification and focus of the captured image are designated.
  • the camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and the camera head 5005.
  • the camera head 5005 can be resistant to autoclave sterilization by arranging the lens unit 5007, the imaging unit 5009, and the like in a sealed structure with high airtightness and waterproofness.
  • the communication unit 5059 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5059 provides the image processing unit 5061 with the image signal converted into the electrical signal.
  • the communication unit 5059 transmits a control signal for controlling the driving of the camera head 5005 to the camera head 5005.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 5005. Examples of the image processing include development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Various known signal processing is included.
  • the image processing unit 5061 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5061 is configured by a processor such as a CPU or a GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program.
  • the image processing unit 5061 is configured by a plurality of GPUs, the image processing unit 5061 appropriately divides information related to the image signal, and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls relating to imaging of the surgical site by the endoscope 5001 and display of the captured image. For example, the control unit 5063 generates a control signal for controlling driving of the camera head 5005. At this time, when the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with the AE function, the AF function, and the AWB function, the control unit 5063 determines the optimum exposure value, focal length, and the like according to the detection processing result by the image processing unit 5061. A white balance is appropriately calculated and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display an image of the surgical site based on the image signal subjected to the image processing by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical unit image using various image recognition techniques. For example, the control unit 5063 detects the shape and color of the edge of the object included in the surgical part image, thereby removing surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 5021, and the like. Can be recognized.
  • the control unit 5063 displays various types of surgery support information on the image of the surgical site using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 5067, so that the surgery can be performed more safely and reliably.
  • the transmission cable 5065 for connecting the camera head 5005 and the CCU 5039 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 5065, but communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • communication between the two is performed wirelessly, there is no need to install the transmission cable 5065 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5065 can be eliminated.
  • the endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied has been described.
  • the endoscopic surgery system 5000 has been described as an example, but a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the technology according to the present disclosure may be applied to a testing flexible endoscope system or a microscope operation system.
  • the technology according to the present disclosure can be suitably applied to the image sensor that constitutes the imaging unit 5009 among the configurations described above.
  • an endoscopic surgery system with low power consumption can be realized.
  • the technology according to the present disclosure is applicable to any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). You may implement
  • FIG. 19 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 for connecting the plurality of control units conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 7610 As a functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 7200 can be input with radio waves or various switch signals transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the outside information detection unit 7400 detects information outside the vehicle on which the vehicle control system 7000 is mounted.
  • the outside information detection unit 7400 is connected to at least one of the imaging unit 7410 and the outside information detection unit 7420.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 7420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 20 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
  • FIG. 20 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
  • the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
  • These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the vehicle interior information detection unit 7500 detects vehicle interior information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • Driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects biometric information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 7500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
  • a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or wireless LAN (Wi-Fi (registered trademark)). Other wireless communication protocols such as Bluetooth (registered trademark) may also be implemented.
  • the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point.
  • the general-purpose communication I / F 7620 is a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle using, for example, P2P (Peer To Peer) technology. You may connect with.
  • a terminal for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal
  • P2P Peer To Peer
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
  • the dedicated communication I / F 7630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 7630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a radio station installed on the road, and acquires information such as the current position, traffic jam, closed road, or required time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I / F 7630 described above.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition Link) via a connection terminal (and a cable if necessary). ) Etc. may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried into or attached to the vehicle.
  • In-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • In-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
  • the display portion 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • the display device can display the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
  • the technology according to the present disclosure can be suitably applied to the image sensor that constitutes the imaging unit 7410 among the configurations described above.
  • a mobile control system with low power consumption can be realized.
  • this indication can take the following structures.
  • An AD converter for AD-converting the pixel signal An oscillator for generating a second internal clock having a frequency lower than that of the first internal clock multiplied by the external clock;
  • the AD conversion unit is configured to operate with a resolution lower than that of AD conversion when operating with the first internal clock when operating with the second internal clock.
  • the AD conversion unit includes a reference signal generation unit that generates a reference signal to be compared with the pixel signal, The reference signal generation unit generates the reference signal that changes with a slope larger than the slope of the reference signal when operating with the first internal clock when operating with the second internal clock.
  • the oscillator has an oscillation circuit, The solid-state imaging device according to (1) or (2), wherein the frequency of the second internal clock is determined by a resistance value of a resistance element provided in the oscillation circuit and a capacitance value of a capacitance element.
  • An AD converter for AD-converting the pixel signal An oscillator for generating a second internal clock having a lower frequency than the first internal clock multiplied by the external clock;
  • An electronic apparatus comprising: a solid-state imaging device configured so that when the AD conversion unit operates with the second internal clock, the AD conversion unit operates with a resolution lower than that of AD conversion when the first internal clock operates .
  • An AD converter for AD-converting the pixel signal A first oscillator for generating a first internal clock; A second oscillator that generates a second internal clock having a higher frequency than the first internal clock; The second oscillator is configured to start only during an AD conversion period in which the AD converter operates.
  • a solid-state imaging device that operates with the second internal clock during the AD conversion period.
  • CMOS image sensor 11 CMOS image sensor, 12 DSP, 21 pixels, 22 row drivers, 23 ADC, 24 control unit, 25 PLL circuit, 26 oscillator, 31 DAC, 32 comparator, 33 counter, 71 oscillation circuit, 72 bias circuit, 111 1st Oscillator, 112 second oscillator, 200 electronic equipment, 203 solid-state imaging device

Abstract

本開示は、センシングモードにおいて、より低消費電力での動作を実現することができるようにする固体撮像装置および電子機器に関する。 固体撮像装置は、画素信号をAD変換するAD変換部と、外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器とを有し、AD変換部は、第2の内部クロックで動作するとき、第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される。本開示は、例えばCMOSイメージセンサに適用することができる。

Description

固体撮像装置および電子機器
 本開示は、固体撮像装置および電子機器に関し、特に、低消費電力での動作を実現することができるようにする固体撮像装置および電子機器に関する。
 近年、モバイル機器やウェアラブルデバイスにおいては、アプリケーションの増大に伴い、低消費電力化の要求が高まっている。
 これを受けて、CMOSイメージセンサのような固体撮像装置において、消費電力の大きい撮像モードとは別に、常時起動に耐えうる低消費電力で簡易認識を行うセンシングモード(低解像度撮像モード)で動作するシステムの開発が進められている。これにより、必要な時のみ電力を消費して撮像を行うことができ、自律的に電力の最適化を図ることが可能となる。
 通常、カメラシステム全体においては、各種のチップを制御するプロセッサの消費電力が大きい。そのため、センシングモードにおいて固体撮像装置の常時起動を実現するためには、自律動作を行い、プロセッサを停止状態とすることが、消費電力削減の観点から重要となる。この場合、固体撮像装置には、クロック供給が止められた状態での自走動作が求められる。
 自走動作に関する技術としては、例えば引用文献1に、任意のタイミングで外部クロックを停止させ、内部クロックを発生する回路構成が開示されている。
特開平4-365110号公報
 しかしながら、センシングモードにおいて自走動作し、センシングにより動体が検出されたときに、撮像モードに遷移し外部クロックが供給されることで動作する固体撮像装置は提案されていなかった。このような固体撮像装置は、監視カメラシステム等に適用することが可能である。
 本開示は、このような状況に鑑みてなされたものであり、より低消費電力での動作を実現するようにするものである。
 本開示の第1の側面の固体撮像装置は、画素信号をAD変換するAD変換部と、外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器とを備え、前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される。
 本開示の第1の側面の電子機器は、画素信号をAD変換するAD変換部と、外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器とを有し、前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される固体撮像装置を備える。
 本開示の第1の側面においては、AD変換部が、第2の内部クロックで動作するとき、第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される。
 本開示の第2の側面の固体撮像装置は、画素信号をAD変換するAD変換部と、第1の内部クロックを生成する第1の発振器と、前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器とを備え、前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、前記AD変換期間、前記第2の内部クロックで動作する。
 本開示の第2の側面の電子機器は、画素信号をAD変換するAD変換部と、第1の内部クロックを生成する第1の発振器と、前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器とを有し、前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、前記AD変換期間、前記第2の内部クロックで動作する固体撮像装置を備える。
 本開示の第2の側面においては、第2の発振器が、AD変換部が動作するAD変換期間のみ起動するように構成され、AD変換期間、第2の内部クロックで動作される。
 本開示によれば、センシングモードにおいて、より低消費電力での動作を実現することが可能となる。
従来のCMOSイメージセンサの構成例を示すブロック図である。 CMOSイメージセンサとDSPとの関係を示す図である。 第1の実施形態のCMOSイメージセンサの構成例を示すブロック図である。 第1の実施形態のCMOSイメージセンサの構成例を示すブロック図である。 DACの構成例を示す図である。 AD変換期間の動作について説明する図である。 発振器の構成例を示すブロック図である。 発振器の回路構成例を示す図である。 発振器の他の回路構成例を示す図である。 AD変換期間の動作について説明する図である。 第2の実施形態のCMOSイメージセンサの構成例を示すブロック図である。 AD変換期間におけるCMOSイメージセンサの構成例を示す図である。 CMOSイメージセンサのレイアウト構成について説明する図である。 本開示のCMOSイメージセンサの構造について説明する図である。 本開示の電子機器の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 図17に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
 また、以下の順序で説明を行う。
  1.従来のCMOSイメージセンサについて
  2.本開示のCMOSイメージセンサの構成
  3.第1の実施形態
  4.第2の実施形態
  5.イメージセンサの構造
  6.電子機器の構成例
  7.イメージセンサの使用例
  8.応用例1
  9.応用例2
<1.従来のCMOSイメージセンサについて>
 図1は、従来のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサの構成例を示している。
 図1に示されるCMOSイメージセンサにおいては、PLL(Phase Locked Loop)回路1が、外部からの基準クロック(外部クロック)を必要な周波数に逓倍し、制御部2、DAC(Digital to Analog Converter)3、およびカウンタ5に供給する。PLL回路1から出力されるクロック信号は、数100MHzから数GHz程度とされる。
 DAC3、比較器4、およびカウンタ5は、AD変換部を構成する。そのうち、比較器4およびカウンタ5は、カラムAD変換回路を構成し、図示せぬ画素アレイから、列毎に供給される画素信号を、DAC3からの参照信号と比較することで、デジタル信号に変換する。
 このような構成のCMOSイメージセンサの制御は、外部に設けられるDSP(Digital Signal Processor)によって行われ、PLL回路1への外部クロックもDSPから供給される。
 一方で、近年、モバイル機器やウェアラブルデバイスへの搭載に向けて、システム全体の低消費電力化の要求が高まっている。
 通常、DSPはその消費電力が大きい。そのため、これらの機器においては、DSPを停止させた状態で各種のセンサが周囲の状況をセンシングし、状況の変化が検出された場合に割り込み信号をDSPに出力することでDSPを起動させる、といったシステム開発が盛んになっている。
 そのため、CMOSイメージセンサにおいても、DSPを停止させた状態、すなわち、外部クロックが供給されない状態での動作が求められている。
 そこで、以下においては、外部クロックが供給されない状態で動作可能なCMOSイメージセンサの構成について説明する。
<2.本開示のCMOSイメージセンサの構成>
 図2は、本開示のCMOSイメージセンサとDSPとの関係を示す図である。
 図2に示されるCMOSイメージセンサ11は、本開示の固体撮像装置の一例である。本開示の固体撮像装置は、他の構成のイメージセンサに適用されるようにしてももちろんよい。
 CMOSイメージセンサ11(以下、単にイメージセンサ11という)の制御は、DSP12によって行われる。具体的には、イメージセンサ11は、DSP12から外部クロックや、設定レジスタの値の供給を受けることで動作し、出力データをDSP12に供給する。
 また、イメージセンサ11は、通常の撮像モードと、低消費電力で簡易認識を行うセンシングモード(低解像度撮像モード)のいずれかの動作モードで動作する。
 撮像モードにおいては、イメージセンサ11は、DSP12から供給される外部クロックが必要な周波数に逓倍された第1の内部クロックで動作する。一方、センシングモードにおいては、イメージセンサ11は、内部の発振器によるクロック(第2の内部クロック)で動作(自走動作)する。なお、センシングモードにおいては、DSP12は停止する。
 第2の内部クロックで動作しているイメージセンサ11の動作モードがセンシングモードから撮像モードに遷移するとき、イメージセンサ11は、DSP12に起動信号(割り込み信号)を供給する。DSP12は、イメージセンサ11からの起動信号により起動し、イメージセンサ11は、起動したDSP12からの外部クロックが必要な周波数に逓倍された第1の内部クロックにより、撮像モードで動作する。
<3.第1の実施形態>
 ここで、図3および図4を参照して、第1の実施形態のイメージセンサ11の構成例について説明する。
 図3に示されるイメージセンサ11は、画素アレイ21、行駆動回路22、AD変換部(ADC)23、制御部24、PLL回路25、および発振器26を備える。これらの構成は、図示せぬ半導体基板(チップ)上に形成される。
 イメージセンサ11においては、画素アレイ21に入射された光が光電変換され、行駆動回路22により駆動された画素アレイ21の各画素から画素信号が読み出される。そして、読み出された画素信号(アナログ信号)がADC23によりAD(Analog to Digital)変換され、入射光に対応するデジタルデータが出力される。
 画素アレイ21は、フォトダイオード等の光電変換素子を有する画素が、行列状に配置されて構成される。画素アレイ21に配置される画素の画素数は任意とされ、行数および列数も任意とされる。
 行駆動回路22は、画素アレイ21の各画素を行単位で駆動する。具体的には、行駆動回路22は、複数の画素行の画素を同時に駆動する。行駆動回路22から画素アレイ21へは、行毎に、図示せぬ制御線が形成される。
 ADC23は、図4に示されるDAC31、比較器32、およびカウンタ33から構成され、画素アレイ21の各列の各画素から読み出されるアナログの画素信号をAD変換する。また、ADC23は、画素アレイ21の列毎に設けられたカラムAD変換回路を備える。
 一般的な画素アレイには、列毎に、画素信号をカラムAD変換回路に供給する垂直信号線が設けられる。それぞれの垂直信号線に出力された画素信号は、ADC23それぞれのカラムAD変換回路に供給される。
 カラムAD変換回路は、図4に示される比較器32およびカウンタ33から構成され、列毎に供給される画素信号を、DAC31からの参照信号(Ramp信号)と比較することで、デジタル信号に変換する。すなわち、ADC23は、シングルスロープ型のAD変換器として動作する。
 制御部24は、イメージセンサ11全体を制御し、各種の信号の生成を制御する。例えば、制御部24は、センシングモードにおいて、停止しているDSP12を起動するための起動信号の生成を制御する。
 PLL回路25は、撮像モードにおいて、DSP12から供給される外部クロックを必要な周波数に逓倍し、行駆動回路22、ADC23、および制御部24に供給する。すなわち、撮像モードにおいては、行駆動回路22、ADC23、および制御部24は、外部クロックが必要な周波数に逓倍された第1の内部クロックで動作する。
 発振器26は、センシングモードにおいて、PLL回路25から出力される第1の内部クロックより周波数の低い第2の内部クロックを生成し、行駆動回路22、ADC23、および制御部24に供給する。すなわち、センシングモードにおいては、行駆動回路22、ADC23、および制御部24は、第2の内部クロックで動作する。
 行駆動回路22、ADC23、および制御部24に、DSP12からの第1の内部クロックが供給されるか、発振器26からの第2の内部クロックが供給されるかは、スイッチSW1により決まる。
 このような構成により、イメージセンサ11は、センシングモードにおいて、外部クロックの供給がなくとも動作することが可能となる。
 特に、センシングモードにおいては、低消費電力での動作が要求されるため、PLL回路25からの高速なクロックでの動作は望ましくない。
 一方、イメージセンサ11におけるADC23は、シングルスロープ型のAD変換器として構成される。したがって、ADC23においては、必要なAD変換の分解能に応じて、カウンタ33がカウント動作を行う必要がある。例えば、AD変換の出力ビット数が10bitの場合、カウンタ33は、1024回のカウント動作を行う必要がある。
 そのため、クロックの周波数が低い場合、AD変換の動作時間が長くなり、結果として、消費電力が増加してしまう。そこで、センシングモードにおいては、AD変換の分解能を低下させて、AD変換の動作時間を短くすることが求められる。
 図5は、DAC31の構成例を示す図である。
 図5に示されるDAC31は、クロックセレクタCS1,CS2、フリップフロップFF1,FF2,FF3,・・・、および電流源51から構成される。バイナリカウンタとしてフリップフロップFF1,FF2,FF3,・・・それぞれがカウントを行い、カウント値に従って電流源51の接続数をカウントアップすることで、DAC31はRamp信号を生成する。
 撮像モードでのAD変換期間においては、フリップフロップFF1,FF2,FF3,・・・が全てカウントを行うことで、DAC31は、図6上段に示されるように、ある傾きで変化するRamp信号を生成する。
 AD変換期間においては、1回目のセトリングが行われた後、Ramp信号の傾きに応じた期間、リセットレベルの画素信号がAD変換され、2回目のセトリングが行われた後、Ramp信号の傾きに応じた期間、信号レベルの画素信号がAD変換される。
 一方、センシングモードでのAD変換期間においては、クロックセレクタCS1,CS2が切り替わることで、フリップフロップFF1,FF2,FF3,・・・のうち、フリップフロップFF1がカウントを行わなくなる。すなわち、最下位ビット(LSB)のカウント動作が停止し、クロック周期毎に2LSBのカウントアップが行われる。これにより、DAC31は、図6下段に示されるように、撮像モードにおけるRamp信号の傾きより大きい傾き(2倍の傾き)で変化するRamp信号を生成する。
 その結果、センシングモードにおいては、カウンタ33のカウント動作を変更しないまま、撮像モードと比較してより短い期間で、リセットレベルの画素信号と、信号レベルの画素信号がAD変換される。
 以上の構成によれば、センシングモードにおいて、AD変換の分解能を低下させ、AD変換の動作時間を短くすることができるようになり、より低消費電力での動作を実現することが可能となる。
 なお、DAC31は、図5に示されるようなバイナリカウンタに限らず、他の構成により実現されるようにすることができる。
 ところで、センシングモードにおいては、撮像モードにおける撮像動作と同様にして電荷の蓄積および読み出しが行われる。これにより、AE(Auto Exposure)制御が簡素化され、センシングモードから撮像モードへのシームレスな遷移が可能となる。
 しかしながら、外部クロック(第1の内部クロック)の周波数精度は高いため、第2の内部クロックの周波数精度に、発振器26が有する素子のばらつき等の誤差が含まれる場合、撮像モード動作時とセンシングモード動作時とで光源条件が同じであっても、出力が異なってしまう。その結果、AE制御の簡素化ができず、センシングモードから撮像モードへのシームレスな遷移が困難となる。
 図7は、発振器26の構成例を示すブロック図である。
 発振器26は、発振回路71およびバイアス回路72から構成される。
 発振回路71は、いわゆるリングオシレータとして構成され、3個のインバータIV1乃至IV3から構成される。バイアス回路72は、発振回路71の出力に対する閾値を定めるバイアス電圧を生成し、インバータIV1乃至IV3に供給する。
 図8は、発振器26の回路構成例を示す図である。
 図8において、発振回路71を構成するインバータIV1は、差動アンプとして構成され、トランジスタM11乃至M13、抵抗素子R11,R12、および容量素子C11,C12を有する。なお、インバータIV1乃至IV3は、それぞれ同じ回路構成を有する。
 トランジスタM11,M12は差動対となり、トランジスタM13は電流源となる。抵抗素子R11,R12は、それぞれ所定の電源とトランジスタM11,M12との間に接続される。また、容量素子C11,C12は、差動出力とGNDとの間に接続される。
 また、図8において、バイアス回路72は、トランジスタM21乃至M24、および抵抗素子R21を有する。トランジスタM21,M22はPMOSトランジスタであり、トランジスタM23,M24はNMOSトランジスタである。
 トランジスタM21のゲートとトランジスタM22のゲートとは、トランジスタM24のドレインに接続される。トランジスタM23のゲートとトランジスタM24のゲートとは、トランジスタM21のドレインに接続される。
 トランジスタM21のドレインは、トランジスタM23のドレインと接続され、トランジスタM22のドレインは、トランジスタM24のドレインと接続される。また、トランジスタM24のソースとGNDとの間には、抵抗素子R21が接続されている。
 トランジスタM23のゲートとトランジスタM24のゲートとの接続点の電圧は、バイアス電圧として出力される。
 図9は、発振器26の他の回路構成例を示す図である。
 図9においては、発振回路71を構成するインバータIV1乃至IV3のうち、インバータIV1の構成のみが示され、インバータIV2,IV3の図示は省略されている。図9のインバータIV1は、トランジスタM31乃至M33、抵抗素子R31,R32、および容量素子C31,C32を有する。
 トランジスタM31,M32は差動対となり、トランジスタM33は電流源となる。抵抗素子R31と容量素子C31とは、所定の電源とトランジスタM31との間に並列に接続される。また、抵抗素子R32と容量素子C32とは、所定の電源とトランジスタM32との間に並列に接続される。
 なお、図9に示されるバイアス回路72は、図8に示されるバイアス回路72と同様の構成を有する。
 図8および図9に示される回路構成において、発振器26が生成する第2の内部クロックの発振周波数は、発振回路71を構成するインバータIV1乃至IV3に設けられる抵抗素子R11,R12の抵抗値、および容量素子C11,C12の容量値により決定される。
 これにより、素子のばらつき等の誤差を小さくすることができる上に、容量値の切り替えにより第2の内部クロックの発振周波数を調整することができるので、発振器の発振周波数の調整を自動的に行うためのトリミング回路を追加することも容易となる。
 また、インバータIV1乃至IV3は、それぞれ差動アンプとして構成されるので、電源雑音に代表される同相ノイズによる周波数ずれを緩和することができる。
 さらに、撮像モードにおいては、AD変換を行うために精度の良いバンドギャップ電圧が必要とされるが、センシングモードにおいては、その限りではない。そこで、図8および図9に示される回路構成のように、発振器26内に、専用のバイアス回路72を設けるこことで、バイアス電圧の生成に用いられる消費電力を削減することができる。
 なお、発振器26は、図8や図9に示されるような回路構成に限らず、他の回路構成により実現されるようにすることもできる。
 上述で説明したイメージセンサ11は、撮像モードにおいては、外部(DSP12)から供給される外部クロックが逓倍された高速なクロックで動作し、センシングモードにおいては、内部に有する発振器26により生成された低速なクロックで動作する。
 図10は、イメージセンサ11の、各モードにおけるAD変換期間の動作について説明する図である。
 撮像モードでのAD変換期間においては、必要なAD変換の分解能に応じて、外部クロックが逓倍された高速なクロックに基づいたカウントが行われることで、図10上段に示されるように、ある傾きで変化するRamp信号が生成する。
 一方、センシングモードでのAD変換期間においては、必要なAD変換の分解能に応じて、発振器26により生成された低速なクロックに基づいたカウントが行われるため、図10下段に示されるように、撮像モードにおけるRamp信号の傾きより緩やかな傾きで変化するRamp信号が生成される。
 すなわち、センシングモードにおいては、カウントの期間が間延びして、AD変換の動作が遅くなってしまう。その結果、イメージセンサ11の動作時間全体に占めるAD変換の動作時間の割合が増え、消費電力の増大につながってしまう。
 そこで、発振器26により生成される内部クロックの周波数を高くすることで、AD変換の動作の高速化を図ることが可能となる。しかしながら、一般的に、発振器においては発振周波数と消費電力とは比例関係にあるため、発振器26の発振周波数を高くしてしまうと、発振器26自体の消費電力が増大してしまう。すなわち、内部クロックで動作するAD変換部の消費電力と、内部クロックを生成する発振器の消費電力とは、トレードオフの関係にある。
 なお、DAC31を含むAD変換回路を、AD変換の動作時間以外停止させることで、消費電力を削減することは可能である。しかしながら、内部クロックは、制御部24等の論理回路の動作や、電荷の蓄積から読み出し等のフレーム制御に必要とされるため、発振器26は常時起動していなければならない。
 このように、内部クロックで自走動作するイメージセンサ全体で、さらなる低消費電力化を図ることは難しい。
 そこで、以下においては、内部クロックで自走動作するイメージセンサ全体で、さらなる低消費電力化を図ることができる構成について説明する。
<4.第2の実施形態>
 図11は、第2の実施形態のイメージセンサ11の構成例を示す図である。
 図11のイメージセンサ11においては、図4のイメージセンサ11における発振器26に代えて、第1の発振器111および第2の発振器112が設けられる。
 第1の発振器111は、常時起動し、比較的低速な第1の内部クロックを生成する。第1の内部クロックは、制御部24のみに供給される。
 第2の発振器112は、DAC31、比較器32、およびカウンタ33から構成されるADC23が動作するAD変換期間のみ起動し、第1の内部クロックより周波数の高い(高速な)第2の内部クロックを生成する。第2の内部クロックは、制御部24、DAC31、比較器32、およびカウンタ33に供給される。
 なお、センシングモードにおいて、第1の内部クロックが制御部24のみに供給されるか、第2の内部クロックが制御部24、DAC31、比較器32、およびカウンタ33に供給されるかは、スイッチSW2により決まる。
 具体的には、センシングモードでの動作期間のうちのAD変換期間を除く期間においては、図11に示されるように、スイッチSW2により、第1の発振器111と制御部24とが接続され、制御部24、ひいては、ADC23を除くイメージセンサ11全体が、低速な第1の内部クロックで動作する。
 一方、センシングモードでの動作期間のうちのAD変換期間においては、図12に示されるように、スイッチSW2により、第2の発振器112と、制御部24、DAC31、比較器32、およびカウンタ33それぞれとが接続され、イメージセンサ11全体が、高速な第2の内部クロックで動作する。
 以上の構成によれば、センシングモードでの動作期間のうちのAD変換期間においては、第2の発振器112が起動し、高速な第2の内部クロックによりAD変換の動作の高速化を図ることができる。また、センシングモードでの動作期間のうちのAD変換期間以外の期間においては、第2の発振器112は起動せず、常時起動している第1の発振器111による低速な第1の内部クロックにより論理回路の動作やフレーム制御を行うことができる。
 したがって、内部クロックで動作するAD変換部の消費電力と、内部クロックを生成する発振器の消費電力とのトレードオフの関係を解消することができ、内部クロックで自走動作するイメージセンサ全体で、さらなる低消費電力化を図ることが可能となる。
 なお、第1の発振器111は、常時起動するものとしたが、第2の発振器112が動作している間、すなわち、センシングモードでの動作期間のうちのAD変換期間においては、第1の発振器111は、その動作を停止していてもよい。
 ところで、上述したように、高速な第2の内部クロックは、AD変換動作の高速化を図るためのみに用いられるため、その周波数に高い精度は求められない。一方、低速な第1の内部クロックは、電荷の蓄積時間の制御等に用いられるため、その周波数に高い精度が求められる。そこで、第1の発振器111においては、第1の内部クロックの用途、すなわち、求められる周波数の精度に応じて、その周波数が調整されるものとする。これにより、センシングモードにおけるイメージセンサ11の性能を確保することができる。
 また、第1の発振器111と第2の発振器112とは、いずれも自ら発振する発振回路を有するため、互いに干渉を起こし、周波数精度が悪化するおそれがある。
 そこで、図13に示されるように、第1の発振器111と第2の発振器112とは、基板上で互いに離れた位置に配置されるようにする。特に、第2の内部クロックは、AD変換動作のみに用いられるので、図13の例においては、第2の内部クロックを生成する第2の発振器112は、AD変換動作を行うADC23の近傍に配置されるようにする。
 また、図13の例においては、第1の発振器111の電源およびGNDと、第2の発振器112の電源およびGNDとは、互いに電気的に分離されている。
 このようなレイアウト構成により、第1の発振器111と第2の発振器112とが、互いに干渉を起こし、周波数精度が悪化することを防ぐことができる。
<5.イメージセンサの構造>
 ここで、本開示のイメージセンサが採りうる構造について説明する。
 本開示のイメージセンサは、1枚の半導体基板に、画素領域、制御回路、および、信号処理回路を含むロジック回路が搭載された1つの半導体チップとして構成される他、複数の半導体基板が積層された1つの半導体チップとして構成されるようにすることもできる。
 第1の例として、図14上段に示されるイメージセンサ11aは、第1の半導体基板121と第2の半導体基板122とから構成される。第1の半導体基板121には、画素領域123と制御回路124が搭載される。第2の半導体基板122には、信号処理回路を含むロジック回路125が搭載される。そして、第1の半導体基板121と第2の半導体基板122とが相互に電気的に接続されることで、1つの半導体チップとしての積層型のイメージセンサ11aが構成される。
 第2の例として、図14下段に示されるイメージセンサ11bは、第1の半導体基板121と第2の半導体基板122とから構成される。第1の半導体基板121には、画素領域123が搭載される。第2の半導体基板122には、制御回路124と、信号処理回路を含むロジック回路125が搭載される。そして、第1の半導体基板121と第2の半導体基板122とが相互に電気的に接続されることで、1つの半導体チップとしての積層型のイメージセンサ11bが構成される。
 なお、第1の半導体基板121と第2の半導体基板122とを電気的に接続する構成は、貫通ビアやCu-Cuの金属結合、さらに他の構成とすることができる。
 また、以上においては、第2の半導体基板122は1層で構成されるものとしたが、2層以上で構成されるようにしてもよい。すなわち、本開示に係る技術は、第1の半導体基板121を最上層とした、3層以上の積層体からなるイメージセンサにも適用可能である。
 なお、本開示に係る技術は、イメージセンサへの適用に限られるものではなく、撮像装置にも適用可能である。ここで、撮像装置とは、デジタルスチルカメラやデジタルビデオカメラ等のカメラシステムや、携帯電話機等の撮像機能を有する電子機器のことをいう。なお、電子機器に搭載されるモジュール状の形態、すなわちカメラモジュールを撮像装置とする場合もある。
<6.電子機器の構成例>
 そこで、図15を参照して、本開示を適用した電子機器の構成例について説明する。
 図15に示される電子機器200は、光学レンズ201、シャッタ装置202、イメージセンサ203、駆動回路204、および信号処理回路205を備えている。図15においては、イメージセンサ203として、上述した本開示のイメージセンサ1を電子機器(デジタルスチルカメラ)に設けた場合の実施の形態を示す。
 光学レンズ201は、被写体からの像光(入射光)をイメージセンサ203の撮像面上に結像させる。これにより、信号電荷が一定期間、イメージセンサ203内に蓄積される。シャッタ装置202は、イメージセンサ203に対する光照射期間および遮光期間を制御する。
 駆動回路204は、シャッタ装置202およびイメージセンサ203に、駆動信号を供給する。シャッタ装置202に供給される駆動信号は、シャッタ装置202のシャッタ動作を制御するための信号である。イメージセンサ203に供給される駆動信号は、イメージセンサ203の信号転送動作を制御するための信号である。イメージセンサ203は、駆動回路204から供給される駆動信号(タイミング信号)により信号転送を行う。信号処理回路205は、イメージセンサ203から出力された信号に対して各種の信号処理を行う。信号処理が行われた映像信号は、メモリなどの記憶媒体に記憶されたり、モニタに出力される。
 本実施の形態の電子機器200においては、センシングモードにおいて、イメージセンサ203がより低消費電力での動作を実現することができるため、結果として、低消費電力の電子機器を提供することが可能となる。
<7.イメージセンサの使用例>
 次に、本開示に係る技術を適用したイメージセンサの使用例について説明する。
 図16は、上述したイメージセンサの使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<8.応用例1>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図17は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図17では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図17では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図18を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図18は、図17に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 図18を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、撮像部5009を構成する撮像素子に好適に適用され得る。撮像部5009を構成する撮像素子に本開示に係る技術を適用することにより、低消費電力の内視鏡手術システムを実現することができる。
<9.応用例2>
 また、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図19では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図20は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図19に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図19に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 本開示に係る技術は、以上説明した構成のうち、撮像部7410を構成する撮像素子に好適に適用され得る。撮像部7410を構成する撮像素子に本開示に係る技術を適用することにより、低消費電力の移動体制御システムを実現することができる。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 さらに、本開示は以下のような構成をとることができる。
(1)
 画素信号をAD変換するAD変換部と、
 外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器と
 を備え、
 前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される
 固体撮像装置。
(2)
 前記AD変換部は、前記画素信号と比較される参照信号を生成する参照信号生成部を有し、
 前記参照信号生成部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときの前記参照信号の傾きより大きい傾きで変化する前記参照信号を生成する
 (1)に記載の固体撮像装置。
(3)
 前記発振器は、発振回路を有し、
 前記第2の内部クロックの周波数は、前記発振回路に設けられる抵抗素子の抵抗値および容量素子の容量値により決定される
 (1)または(2)に記載の固体撮像装置。
(4)
 前記発振器は、バイアス回路をさらに有する
 (3)に記載の固体撮像装置。
(5)
 前記AD変換部が前記第2の内部クロックで動作しているときに、前記外部クロックを生成するプロセッサを起動する起動信号の生成を制御する制御部をさらに備え、
 前記AD変換部は、前記起動信号が生成された場合、前記起動信号により起動した前記プロセッサからの前記外部クロックが逓倍された前記第1の内部クロックで動作する
 (1)乃至(4)のいずれかに記載の固体撮像装置。
(6)
 画素信号をAD変換するAD変換部と、
 外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器と
 を有し、
 前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される固体撮像装置
 を備える電子機器。
(7)
 画素信号をAD変換するAD変換部と、
 第1の内部クロックを生成する第1の発振器と、
 前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器と
 を備え、
 前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、
 前記AD変換期間、前記第2の内部クロックで動作する
 固体撮像装置。
(8)
 第1の動作モードでの動作期間、前記第2の内部クロックより高い周波数の外部クロックで動作し、
 前記第1の動作モードでの撮影より低い解像度の撮影を行う第2の動作モードでの動作期間のうちの前記AD変換期間を除く期間、前記第1の内部クロックで動作し、
 前記第2の動作モードでの動作期間のうちの前記AD変換期間、前記第2の内部クロックで動作する
 (7)に記載の固体撮像装置。
(9)
 前記第1の発振器は、少なくとも前記第2の動作モードの期間、常時起動する
 (8)に記載の固体撮像装置。
(10)
 前記第1の発振器と前記第2の発振器とは、基板上で互いに離れた位置に配置される
 (7)乃至(9)のいずれかに記載の固体撮像装置。
(11)
 前記第2の発振器は、前記AD変換部の近傍に配置される
 (10)に記載の固体撮像装置。
(12)
 前記第1の発振器の電源およびGNDと、前記第2の発振器の電源およびGNDとは、互いに電気的に分離される
 (10)または(11)に記載の固体撮像装置。
(13)
 画素信号をAD変換するAD変換部と、
 第1の内部クロックを生成する第1の発振器と、
 前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器と
 を有し、
 前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、
 前記AD変換期間、前記第2の内部クロックで動作する
 を備える電子機器。
 11 CMOSイメージセンサ, 12 DSP, 21 画素, 22 行ドライバ, 23 ADC, 24 制御部, 25 PLL回路, 26 発振器, 31 DAC, 32 比較器, 33 カウンタ, 71 発振回路, 72 バイアス回路, 111 第1の発振器, 112 第2の発振器, 200 電子機器, 203 固体撮像装置

Claims (13)

  1.  画素信号をAD変換するAD変換部と、
     外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器と
     を備え、
     前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される
     固体撮像装置。
  2.  前記AD変換部は、前記画素信号と比較される参照信号を生成する参照信号生成部を有し、
     前記参照信号生成部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときの前記参照信号の傾きより大きい傾きで変化する前記参照信号を生成する
     請求項1に記載の固体撮像装置。
  3.  前記発振器は、発振回路を有し、
     前記第2の内部クロックの周波数は、前記発振回路に設けられる抵抗素子の抵抗値および容量素子の容量値により決定される
     請求項1に記載の固体撮像装置。
  4.  前記発振器は、バイアス回路をさらに有する
     請求項3に記載の固体撮像装置。
  5.  前記AD変換部が前記第2の内部クロックで動作しているときに、前記外部クロックを生成するプロセッサを起動する起動信号の生成を制御する制御部をさらに備え、
     前記AD変換部は、前記起動信号が生成された場合、前記起動信号により起動した前記プロセッサからの前記外部クロックが逓倍された前記第1の内部クロックで動作する
     請求項1に記載の固体撮像装置。
  6.  画素信号をAD変換するAD変換部と、
     外部クロックが逓倍された第1の内部クロックより低い周波数の第2の内部クロックを生成する発振器と
     を有し、
     前記AD変換部は、前記第2の内部クロックで動作するとき、前記第1の内部クロックで動作するときのAD変換の分解能より低い分解能で動作するように構成される固体撮像装置
     を備える電子機器。
  7.  画素信号をAD変換するAD変換部と、
     第1の内部クロックを生成する第1の発振器と、
     前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器と
     を備え、
     前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、
     前記AD変換期間、前記第2の内部クロックで動作する
     固体撮像装置。
  8.  第1の動作モードでの動作期間、前記第2の内部クロックより高い周波数の外部クロックで動作し、
     前記第1の動作モードでの撮影より低い解像度の撮影を行う第2の動作モードでの動作期間のうちの前記AD変換期間を除く期間、前記第1の内部クロックで動作し、
     前記第2の動作モードでの動作期間のうちの前記AD変換期間、前記第2の内部クロックで動作する
     請求項7に記載の固体撮像装置。
  9.  前記第1の発振器は、少なくとも前記第2の動作モードの期間、常時起動する
     請求項8に記載の固体撮像装置。
  10.  前記第1の発振器と前記第2の発振器とは、基板上で互いに離れた位置に配置される
     請求項9に記載の固体撮像装置。
  11.  前記第2の発振器は、前記AD変換部の近傍に配置される
     請求項10に記載の固体撮像装置。
  12.  前記第1の発振器の電源およびGNDと、前記第2の発振器の電源およびGNDとは、互いに電気的に分離される
     請求項10に記載の固体撮像装置。
  13.  画素信号をAD変換するAD変換部と、
     第1の内部クロックを生成する第1の発振器と、
     前記第1の内部クロックより高い周波数の第2の内部クロックを生成する第2の発振器と
     を有し、
     前記第2の発振器は、前記AD変換部が動作するAD変換期間のみ起動するように構成され、
     前記AD変換期間、前記第2の内部クロックで動作する
     を備える電子機器。
PCT/JP2017/024891 2016-07-21 2017-07-07 固体撮像装置および電子機器 WO2018016344A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/315,343 US10666284B2 (en) 2016-07-21 2017-07-07 Solid-state imaging apparatus and electronic equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016143269A JP2018014630A (ja) 2016-07-21 2016-07-21 固体撮像装置および電子機器
JP2016-143269 2016-07-21

Publications (1)

Publication Number Publication Date
WO2018016344A1 true WO2018016344A1 (ja) 2018-01-25

Family

ID=60992964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/024891 WO2018016344A1 (ja) 2016-07-21 2017-07-07 固体撮像装置および電子機器

Country Status (3)

Country Link
US (1) US10666284B2 (ja)
JP (1) JP2018014630A (ja)
WO (1) WO2018016344A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110248102A (zh) * 2019-07-22 2019-09-17 中国大恒(集团)有限公司北京图像视觉技术分公司 一种工业相机缓冲方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7222481B2 (ja) * 2019-03-18 2023-02-15 本田技研工業株式会社 半導体装置
US10735006B1 (en) * 2019-06-25 2020-08-04 Infineon Technologies Ag Functional clock generation
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
US11252366B2 (en) * 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
US11782857B2 (en) * 2020-05-19 2023-10-10 Mitsubishi Electric Corporation Expansion base unit, control device, control system, and control method
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365110A (ja) * 1991-06-13 1992-12-17 Nec Corp クロック停止回路
JPH08228280A (ja) * 1995-02-22 1996-09-03 Mitsubishi Electric Corp イメージセンサの画像信号処理装置
JP2012009011A (ja) * 2010-05-21 2012-01-12 Renesas Electronics Corp マイクロコントローラ及びその制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6791623B1 (en) * 1994-10-24 2004-09-14 Hitachi, Ltd. Image display system
EP0849938A3 (en) * 1996-12-20 1999-02-24 Hitachi, Ltd. A magnetic recording/reproducing apparatus and the same equiped with an image sensor
JP2001356729A (ja) * 2000-06-15 2001-12-26 Nec Mitsubishi Denki Visual Systems Kk 画像表示装置
JP4457613B2 (ja) * 2003-09-04 2010-04-28 ソニー株式会社 固体撮像装置
JP4858388B2 (ja) * 2007-09-28 2012-01-18 ソニー株式会社 固体撮像装置、駆動制御方法、および撮像装置
JP5347341B2 (ja) * 2008-06-06 2013-11-20 ソニー株式会社 固体撮像装置、撮像装置、電子機器、ad変換装置、ad変換方法
KR101365408B1 (ko) * 2009-03-03 2014-02-19 삼성전자주식회사 카운터 회로, 이를 포함하는 물리량 측정 장치 및 카운팅 방법
US20120305751A1 (en) * 2010-02-05 2012-12-06 Masayuki Kusuda Solid-State Image Capture Device
US9571113B2 (en) * 2012-02-17 2017-02-14 National University Corporation Hokkaido University Integral A/D converter and CMOS image sensor
KR102135684B1 (ko) * 2013-07-24 2020-07-20 삼성전자주식회사 카운터 회로, 이를 포함하는 아날로그-디지털 컨버터, 이미지 센서 및 이를 이용하는 상관 이중 샘플링 방법
WO2015063606A1 (en) * 2013-11-04 2015-05-07 Marvell World Trade Ltd. Method and apparatus for authenticating a semiconductor die
JP6394056B2 (ja) * 2013-11-27 2018-09-26 ソニー株式会社 A/d変換装置、グレイコード生成装置、撮像素子、並びに、電子機器
JP6615565B2 (ja) * 2014-10-24 2019-12-04 株式会社半導体エネルギー研究所 半導体装置
WO2017061191A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365110A (ja) * 1991-06-13 1992-12-17 Nec Corp クロック停止回路
JPH08228280A (ja) * 1995-02-22 1996-09-03 Mitsubishi Electric Corp イメージセンサの画像信号処理装置
JP2012009011A (ja) * 2010-05-21 2012-01-12 Renesas Electronics Corp マイクロコントローラ及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110248102A (zh) * 2019-07-22 2019-09-17 中国大恒(集团)有限公司北京图像视觉技术分公司 一种工业相机缓冲方法

Also Published As

Publication number Publication date
JP2018014630A (ja) 2018-01-25
US10666284B2 (en) 2020-05-26
US20190260385A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
WO2018016344A1 (ja) 固体撮像装置および電子機器
CN111108436B (zh) 镜筒和成像装置
WO2018020857A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2017221715A1 (ja) 撮像素子及び電子機器
WO2018003245A1 (ja) 信号処理装置、撮像装置、及び信号処理方法
JP7229988B2 (ja) 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
WO2018003305A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2018150768A1 (ja) 測光装置、測光方法、プログラムおよび撮像装置
US10686443B2 (en) Transmitting device, transmitting method, and communication system
JP2019083501A (ja) 撮像装置
WO2018037680A1 (ja) 撮像装置、撮像システム、及び、信号処理方法
US11156751B2 (en) Imaging optical system, camera module, and electronic device
US11482159B2 (en) Display control device, display control method, and display control program
JP7081609B2 (ja) レンズ装置及び撮像装置
EP3761636B1 (en) Signal processing device, signal processing method, and imaging device
JP7405132B2 (ja) レンズ鏡筒及び撮像装置
WO2022163378A1 (ja) レンズアレイおよび立体表示装置
JP7435474B2 (ja) 制御装置、レンズ鏡筒、および撮像装置
WO2019082686A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17830864

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17830864

Country of ref document: EP

Kind code of ref document: A1