WO2018020857A1 - 固体撮像素子、撮像装置、および、固体撮像素子の制御方法 - Google Patents

固体撮像素子、撮像装置、および、固体撮像素子の制御方法 Download PDF

Info

Publication number
WO2018020857A1
WO2018020857A1 PCT/JP2017/021440 JP2017021440W WO2018020857A1 WO 2018020857 A1 WO2018020857 A1 WO 2018020857A1 JP 2017021440 W JP2017021440 W JP 2017021440W WO 2018020857 A1 WO2018020857 A1 WO 2018020857A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
pixel
signal
image
Prior art date
Application number
PCT/JP2017/021440
Other languages
English (en)
French (fr)
Inventor
克彦 半澤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/316,462 priority Critical patent/US10986986B2/en
Publication of WO2018020857A1 publication Critical patent/WO2018020857A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • G02B23/243Objectives for endoscopes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • H04N25/633Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current by using optical black pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present technology relates to a solid-state imaging device, an imaging apparatus, and a control method for the solid-state imaging device.
  • the present invention relates to a solid-state imaging device that adds a plurality of pixel signals, an imaging apparatus, and a control method for the solid-state imaging device.
  • solid-state image sensors have become more sophisticated and sophisticated, and solid-state image sensors having a motion detection function for detecting the motion of a subject and a function for detecting illuminance have appeared.
  • these motion detection and illuminance detection in general, a high SN ratio, low power consumption, and a wide dynamic range are required as compared with the case of capturing image data. Not required. Therefore, a solid-state imaging device has been proposed in which pixel signals of a plurality of pixels are added and read when motion detection or illuminance detection is performed (see, for example, Patent Document 1).
  • the pixel array unit is divided into a plurality of pixel blocks each composed of 2 rows ⁇ 2 columns of pixels, and pixel signals of 4 pixels in the pixel block are added.
  • the number of times of reading a row is halved compared to the case where no pixel is added, so that power consumption during imaging of the solid-state imaging device can be reduced.
  • the present technology has been created in view of such a situation, and aims to reduce power consumption in a solid-state imaging device that performs pixel addition.
  • the present technology has been made to solve the above-described problems, and the first aspect thereof is different from a predetermined number of blocks each provided with a plurality of normal pixels arranged in a predetermined direction.
  • a solid-state imaging device comprising: a scanning circuit that transfers charges to the signal; and a signal processing unit that includes a signal processing circuit that processes a signal generated by the light-shielded pixels based on the transferred charges. And a control method thereof. As a result, the charge is transferred from the block to the corresponding light-shielded pixel, and the signal generated by the light-shielded pixel is processed.
  • the normal pixel may include a floating diffusion layer that accumulates the charge, and a connection transistor that connects the light-shielding pixel and the floating diffusion layer. This brings about the effect that charges are transferred from the floating diffusion layer to the light-shielded pixels.
  • the normal pixel may further include a reset transistor that initializes the amount of the charge in the floating diffusion layer. As a result, the charge of the floating diffusion layer is initialized.
  • connection transistor may be a reset transistor that initializes the floating diffusion layer. This brings about the effect that the reset transistor performs charge initialization and charge transfer.
  • the row scanning circuit may simultaneously transmit a reset signal that instructs initialization of the floating diffusion layer and a connection signal that instructs connection of the floating diffusion layer. This brings about the effect that the initialized floating diffusion layer is connected.
  • the row scanning circuit may transmit a connection signal instructing connection of the floating diffusion layer after transmitting a reset signal instructing initialization of the floating diffusion layer. This brings about the effect that the floating diffusion layer is connected after the initialization.
  • the normal pixel may include a photoelectric conversion element that photoelectrically converts light to generate the charge, and a connection transistor that connects the light-shielding pixel and the photoelectric conversion element. . This brings about the effect that charges are transferred from the photoelectric conversion element to the light-shielding pixel.
  • the light-shielding pixel may include a charge storage unit that stores the transferred charge and an amplification transistor that amplifies a signal corresponding to the amount of the stored charge. This brings about the effect that a signal corresponding to the amount of transferred charge is amplified.
  • the light-shielding pixel may further include a photoelectric conversion element. This brings about the effect that charges are transferred to the light-shielding pixel having the same circuit configuration as that of the normal pixel.
  • each of the blocks may include a plurality of pixel blocks each provided with the plurality of normal pixels sharing a floating diffusion layer. This brings about the effect
  • one of a pair of adjacent normal pixels among the plurality of normal pixels may transfer the charge to the other of the pair of normal pixels according to control of the row scanning circuit. This brings about the effect that charges are transferred from one of the pair of adjacent normal pixels to the other.
  • a predetermined number of blocks each provided with a plurality of normal pixels arranged in a predetermined direction, and the predetermined number of light-shielding pixels connected to different blocks are the predetermined number of blocks.
  • An image pickup comprising: a signal processing unit in which a signal processing circuit that generates data by processing a signal generated by the light-shielded pixel based on the light-shielded pixel is provided for each light-shielded pixel; and a recording unit that records the generated data Device.
  • FIG. 6 is a timing chart illustrating an example of an operation of the solid-state imaging element in a normal reading period according to the first embodiment of the present technology.
  • 6 is a timing chart illustrating an example of an operation of the solid-state imaging element in a pixel addition reading period according to the first embodiment of the present technology.
  • 3 is a timing chart in which a connection signal period is shortened in the first embodiment of the present technology.
  • 6 is a flowchart illustrating an example of the operation of the solid-state imaging element according to the first embodiment of the present technology.
  • 12 is a timing chart illustrating an example of an operation of the solid-state imaging device in a pixel addition readout period according to a modification of the first embodiment of the present technology.
  • 12 is a flowchart illustrating an example of an operation of the solid-state imaging device according to a modification of the first embodiment of the present technology. It is a circuit diagram showing an example of 1 composition of a usual pixel in a 2nd embodiment of this art.
  • 12 is a timing chart illustrating an example of the operation of the solid-state imaging element in the pixel addition readout period according to the second embodiment of the present technology. It is a circuit diagram showing an example of 1 composition of a shading pixel in a 3rd embodiment of this art.
  • FIG. 25 is a block diagram illustrating an example of a functional configuration of a camera head and a CCU (Camera Control Unit) illustrated in FIG. 24. It is a figure showing roughly the whole operation room system composition. It is a figure which shows the example of a display of the operation screen in a concentrated operation panel. It is a figure which shows an example of the mode of the surgery to which the operating room system was applied. It is a block diagram which shows an example of a function structure of the camera head shown in FIG. 28, and CCU. It is a figure which shows an example of a schematic structure of a microscope operation system.
  • FIG. 1 It is a figure which shows the mode of an operation using the microscope operation system shown in FIG. It is a block diagram which shows an example of a schematic structure of an in-vivo information acquisition system. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • First Embodiment Example of transferring charge from a pixel block to a light-shielded pixel
  • Second Embodiment Example in which reset transistor transfers charge from pixel block to light-shielded pixel
  • Third Embodiment Example of transferring charge from a pixel block to a light-shielded pixel without a photoelectric conversion element
  • Fourth Embodiment Example of transferring charge from a photoelectric conversion element in a pixel block to a light-shielded pixel. 5.
  • FIG. 1 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the first embodiment.
  • the imaging apparatus 100 is an apparatus that captures image data, and includes an imaging lens 110, a solid-state imaging device 200, a recording unit 120, and an imaging control unit 130.
  • an action cam, an in-vehicle camera, or the like is assumed.
  • the imaging lens 110 collects light and guides it to the solid-state imaging device 200.
  • the solid-state imaging device 200 generates image data according to the control of the imaging control unit 130.
  • the solid-state imaging device 200 supplies the generated image data to the recording unit 120 via the signal line 209.
  • the recording unit 120 records image data.
  • the imaging control unit 130 controls the entire imaging apparatus 100.
  • the imaging control unit 130 supplies a vertical synchronization signal indicating imaging timing to the solid-state imaging device 200 via a signal line 139.
  • the imaging lens 110, the solid-state imaging device 200, the recording unit 120, and the imaging control unit 130 are arranged in the same device, they can be distributed and arranged in a plurality of devices.
  • the imaging lens 110 may be arranged in the lens unit, and the solid-state imaging element 200 may be arranged in the imaging device 100.
  • FIG. 2 is a block diagram illustrating a configuration example of the solid-state imaging device 200 according to the first embodiment.
  • the solid-state imaging device 200 includes a row scanning circuit 210, a pixel array unit 220, a DAC (Digital to Analog Converter) 250, a signal processing unit 260, a timing control unit 270, a column scanning circuit 280, and an image processing unit 290.
  • DAC Digital to Analog Converter
  • the pixel array unit 220 is provided with a plurality of pixel circuits in a two-dimensional lattice shape.
  • a set of pixel circuits arranged in a predetermined direction (such as a horizontal direction) is referred to as “row”, and a set of pixel circuits arranged in a direction perpendicular to the row is referred to as “column”.
  • the pixel array unit 220 is an example of the array unit described in the claims.
  • the row scanning circuit 210 drives the pixel circuit to output a pixel signal. Further, the row scanning circuit 210 controls the pixel array unit 220 to add the pixel signals of a plurality of adjacent pixels as necessary.
  • the row scanning circuit 210 is an example of a scanning circuit described in the claims.
  • the timing control unit 270 controls the timing at which each of the row scanning circuit 210, the signal processing unit 260, and the column scanning circuit 280 operates.
  • the DAC 250 generates a ramp signal by DA (Digital-to-Analog) conversion and supplies it to the signal processing unit 260.
  • the signal processing unit 260 performs pixel processing such as AD conversion on the pixel signal to generate pixel data.
  • the column scanning circuit 280 controls the signal processing unit 260 to transfer pixel data to the image processing unit 290.
  • the image processing unit 290 performs various image processing on image data including pixel data. In this image processing, for example, demosaic processing, white balance processing, and the like are executed. The image data after the image processing is transmitted to the recording unit 120.
  • motion detection processing and illuminance detection processing are executed.
  • the motion detection process the presence / absence of motion of the subject in the image, the motion vector, and the like are detected by an inter-frame difference method, a background difference method, or the like.
  • illuminance detection process a photometric amount corresponding to the illuminance is obtained by, for example, an operation of performing weighted addition of data for each addition unit.
  • the detection result of movement and illuminance is transmitted to the imaging control unit 130.
  • the motion detection result is used in various applications such as an application that changes the frame rate when there is motion.
  • the detection result of illuminance is used for controlling the exposure amount.
  • image processing unit 290 is arranged in the solid-state imaging device 200, but the image processing unit 290 may be arranged outside the solid-state imaging device 200.
  • each of the circuits in the solid-state imaging device 200 may be arranged on a single semiconductor substrate or may be arranged in a distributed manner on a plurality of stacked semiconductor substrates.
  • FIG. 3 is a plan view illustrating a configuration example of the pixel array unit 220 according to the first embodiment.
  • the pixel array unit 220 is divided into a light-receiving region 221 that is not shielded from light and a light-shielded region 223 that is shielded from light.
  • a plurality of normal pixels 230 are arranged in a two-dimensional grid.
  • the light shielding pixels 240 are arranged for each column of the normal pixels 230.
  • the light shielding pixel 240 is also called an OPB (OPtical Black) pixel or a dummy pixel.
  • OPB optical Black
  • M light-shielding pixels 240 are arranged in the horizontal direction.
  • connection line 239-m (m is an integer from 0 to M-1) and a vertical signal line 229-m are wired in the vertical direction.
  • four horizontal signal lines are wired in each row of the normal pixels 230 in the horizontal direction.
  • connection signal FDCn (n is an integer from 0 to N ⁇ 1)
  • reset signal RSTn one transmits a reset signal RSTn
  • transfer signal TRGn one transmits a transfer signal TRGn.
  • selection signal SELn One of the four horizontal signal lines transmits a connection signal FDCn (n is an integer from 0 to N ⁇ 1)
  • connection signal FDCn, reset signal RSTn, transfer signal TRGn, and selection signal SELn are generated by the row scanning circuit 210 and supplied to the n rows.
  • connection signal FDCn is a signal for instructing connection between the floating diffusion layer in the normal pixel 230 and the connection line 239-m
  • reset signal RSTn is a signal for instructing initialization of the charge amount of the floating diffusion layer. It is.
  • the transfer signal TRGn is a signal for instructing transfer of charges in the normal pixel 230
  • the selection signal SELn is a signal for instructing output of a pixel signal through the vertical signal line 229-m.
  • connection signal FDCb connects the connection signal FDCb
  • reset signal RSTb transmits the transfer signal TRGb
  • selection signal SELb transmits the selection signal SELb.
  • connection signal FDCb, reset signal RSTb, transfer signal TRGb, and selection signal SELb are generated by the row scanning circuit 210.
  • connection signal FDCb is a signal for instructing connection between the floating diffusion layer in the light-shielding pixel 240 and the connection line 239-m
  • reset signal RSTb is a signal for instructing initialization of the charge amount of the floating diffusion layer.
  • the transfer signal TRGb is a signal for instructing transfer of charges in the light-shielding pixel 240
  • selection signal SELb is a signal for instructing output of a pixel signal via the vertical signal line 229-m.
  • FIG. 4 is a block diagram illustrating a configuration example of the signal processing unit 260 according to the first embodiment.
  • the signal processing unit 260 is provided with an AD converter 261 for each column. Since the number of columns is M, M AD converters 261 are arranged in the horizontal direction.
  • Each of the AD converters 261 includes a comparator 262 and a counter 263.
  • the mth AD converter 261 is connected to m columns of vertical signal lines 229-m.
  • a constant current source 255 is inserted between the vertical signal line 229-m and the ground terminal.
  • the comparator 262 compares the pixel signal from the corresponding vertical signal line 229-m with the ramp signal REF from the DAC 250. For example, a sawtooth signal is supplied as the ramp signal REF. The comparator 262 supplies the comparison result to the counter 263.
  • the counter 263 counts the count value in synchronization with the clock signal CLK from the timing control unit 270 until the comparison result is inverted.
  • the counter 263 outputs a digital signal indicating a count value to the image processing unit 290 as pixel data under the control of the column scanning circuit 280.
  • FIG. 5 is a circuit diagram illustrating a configuration example of the normal pixel 230 according to the first embodiment.
  • the normal pixel 230 includes a reset transistor 231, a connection transistor 232, an amplification transistor 233, a transfer transistor 234, a floating diffusion layer 235, a selection transistor 236, and a photoelectric conversion element 237.
  • the photoelectric conversion element 237 generates charges by photoelectrically converting incident light.
  • the transfer transistor 234 transfers charges from the photoelectric conversion element 237 to the floating diffusion layer 235 in accordance with the transfer signal TRGn.
  • the floating diffusion layer 235 accumulates charges and generates a voltage corresponding to the amount of accumulated charges.
  • the reset transistor 231 initializes the charge amount of the floating diffusion layer 235 in accordance with the reset signal RSTn.
  • the connection transistor 232 connects the floating diffusion layer 235 and the connection line 239-m according to the connection signal FDCn.
  • the amplification transistor 233 amplifies a signal corresponding to the voltage of the floating diffusion layer 235.
  • the selection transistor 236 outputs the signal amplified by the amplification transistor 233 to the vertical signal line 229-m as a pixel signal in accordance with the selection signal SELn.
  • FIG. 6 is a circuit diagram illustrating a configuration example of the light-shielding pixel 240 according to the first embodiment.
  • the light shielding pixel 240 includes a connection transistor 241, a reset transistor 242, a transfer transistor 243, a photoelectric conversion element 244, a floating diffusion layer 245, an amplification transistor 246, and a selection transistor 247.
  • the connection configuration of these transistors is the same as that of the normal pixel 230.
  • the photoelectric conversion element 244 and the transfer transistor 243 are unnecessary, but the pixel array unit 220 can be easily manufactured if the layout of the normal pixel 230 and the light-shielding pixel 240 is the same. Therefore, these are provided.
  • FIG. 7 is a diagram for explaining a pixel addition method according to the first embodiment.
  • the light receiving area 221 is divided by a plurality of pixel blocks 222.
  • Each pixel block 222 is provided with a predetermined number of lines composed of a plurality of pixels arranged in the horizontal direction. For example, 2 ⁇ 2 normal pixels 230 are arranged in each pixel block 222.
  • the light-shielding pixel 240 and the pixel block 222 are connected on a one-to-one basis via the connection line 239-m. Further, the number of light shielding pixels 240 is equal to or greater than the number of pixel blocks. For example, the number of light-shielding pixels 240 and pixel blocks is M.
  • the lower left pixel block B00 is connected to the 0th light shielding pixel 240.
  • the upper pixel block B01 of the pixel block B00 is connected to the first light-shielding pixel 240.
  • the right pixel block B10 of the pixel block B00 is connected to the second light shielding pixel 240, and the right pixel block B11 of the pixel block B01 is connected to the third light shielding pixel 240.
  • the row scanning circuit 210 controls each of the pixel blocks 222 by the connection signal FDCn, and transfers charges from the pixel block 222 to the corresponding light shielding pixel 240.
  • dotted arrows indicate the charge transfer source and transfer destination.
  • the amount of charge of each of the normal pixels 230 in the pixel block 222 is added.
  • a pixel signal corresponding to the added charge amount is read from the light-shielding pixel 240 at the transfer destination and processed by the AD converter 261 in that column.
  • a comparative example is assumed in which the charge amount is added and read for each pixel block 222 without being transferred to the light-shielding pixel 240.
  • the number of rows to be read out is reduced by half compared to the case where the addition is not performed by pixel addition of 2 rows ⁇ 2 columns. For example, when the number of rows N is 1440, 720 readings are required.
  • the charge in the pixel block is transferred to the light-shielding region 223 in one row, so that the number of times of reading may be one.
  • the number of times of reading can be reduced as compared with the case of not transferring.
  • the power consumption of the peripheral circuits of the signal processing unit 260 that performs AD conversion and the like is reduced.
  • the power consumption of the timing controller 270 that supplies a clock signal to the signal processor 260 and the DAC 250 that supplies a ramp signal can be reduced.
  • the time required for AD conversion (in other words, the operation time) is shortened.
  • the power can be efficiently reduced if the operation time is greatly reduced in the period for reading out one frame.
  • the number of rows of the light-shielding pixels 240 is one, it may be two or more. When the number of pixel blocks is greater than the number of columns M, two or more rows of light shielding pixels 240 are provided.
  • the size of the pixel block 222 is 2 rows ⁇ 2 columns, the number of rows and the number of columns is not limited as long as it is 2 columns or more. For example, pixel addition may be performed in a pixel block 222 of 3 rows ⁇ 3 columns. Further, as illustrated in FIG. 8, the entire row may be a pixel block 222.
  • FIG. 9 is a timing chart showing an example of the operation of the solid-state imaging device 200 in the normal readout period according to the first embodiment.
  • This normal readout period is a period for reading out pixel signals without performing pixel addition.
  • the row scanning circuit 210 controls the selection signal SEL0, the reset signal RSTb, and the connection signal FDCb to high level. Then, at the timing T1 after the timing T0, the row scanning circuit 210 controls the reset signal RST0 to a high level over a predetermined pulse period. As a result, the floating diffusion layer 235 in the 0th row is initialized, and the potential of the connection line 239-m is initialized.
  • the row scanning circuit 210 controls the transfer signal TRG0 to a high level over a predetermined pulse period. By this control, charges are transferred to the floating diffusion layer 235 in the 0th row. In addition, the row scanning circuit 210 controls the selection signal SEL0 to a low level at a timing T3 after the timing T2. With this control, reading of the 0th row is completed.
  • the AD converters 261 in each column sample the pixel signal level as a reset level between the timing T1 and the timing T2. Then, between timing T2 and timing T3, the AD converter 261 samples the level of the pixel signal as the signal level.
  • the image processing unit 290 at the subsequent stage of the AD converter 261 performs CDS (Correlated Double Sampling) processing for calculating the difference between the reset level and the signal level.
  • the first and subsequent lines are read in order. Initialization and transfer of each row is started when a certain time elapses from the timing of initialization and transfer of the previous row. Such control is called a rolling shutter system.
  • the solid-state imaging device 200 reads all pixels, but may read by thinning out part of the rows and columns.
  • FIG. 10 is a timing chart showing an example of the operation of the solid-state imaging device 200 during the pixel addition readout period in the first embodiment.
  • This pixel addition readout period is a period for adding and reading out pixel signals for each pixel block.
  • the row scanning circuit 210 controls the connection signals FDCn and FDCb and the selection signal SELb to high level. Then, at timing T11 after timing T10, the row scanning circuit 210 controls the reset signals RSTn and RSTb to a high level over a predetermined pulse period. By this control, the floating diffusion layers 235 of all the pixel blocks are initialized. In addition, the potential of the connection line 239-m can be suppressed from being floated and initialized.
  • the row scanning circuit 210 controls each of the transfer signals TRGn to the high level over the pulse period.
  • charges are transferred from all the pixel blocks to the light shielding region 223.
  • Such control for simultaneously transferring charges in all the block rows is called a global shutter system.
  • the row scanning circuit 210 controls the connection signals FDCn and FDCb and the selection signal SELb to low level at timing T13 after timing T12. Reading of the added signal is completed by this control.
  • the AD converters 261 in each column sample the reset level from timing T11 to timing T12, and sample the signal level from timing T12 to timing T13.
  • the solid-state imaging device 200 reads all pixel blocks, but may read out a part of a block row or block column.
  • the row scanning circuit 210 controls the connection signal FDCb to a high level over the pixel addition readout period, but as illustrated in FIG. 11, until the pulse period elapses from each of the timings T11 and T12. You may control to a high level only for a period.
  • the pulse period of the connection signal FDCb is set to be longer than the pulse period of the transfer signal TRGn.
  • connection line 239-m since the wiring capacity of the connection line 239-m is small, feedthrough may occur when the reset signal is controlled, and the voltage of the floating diffusion layer may be lower than the reset voltage.
  • the connection line 239-m when the connection line 239-m is connected and the reset signal is turned on / off, the wiring capacity of the connection line 239-m increases, the feedthrough becomes negligibly small, and the voltage range (output range) of the pixel signal is reduced. May change. Therefore, by controlling the connection signal FDCb and reproducing the feedthrough as illustrated in FIG. 11, the fluctuation of the output range can be suppressed.
  • FIG. 12 is a flowchart showing an example of the operation of the solid-state imaging device 200 according to the first embodiment. This operation starts, for example, when an operation for starting imaging of image data or illuminance measurement is performed.
  • the solid-state imaging device 200 determines whether or not it is within the normal readout period (step S901). If it is within the normal readout period (step S901: Yes), the solid-state imaging device 200 selects a readout row and performs readout (step S902). Then, the solid-state imaging device 200 determines whether or not reading of all the rows to be read is completed (step S903). When reading of all rows has not been completed (step S903: No), the solid-state imaging device 200 repeatedly executes step S902 and subsequent steps.
  • step S903 When the reading of all rows is completed (step S903: Yes), the solid-state imaging device 200 performs image processing on the image data and records it (step S904).
  • the solid-state imaging device 200 determines whether it is within the pixel addition readout period (step S905). When it is within the pixel addition readout period (step S905: Yes), the solid-state imaging device 200 transfers the added signal to the light shielding pixel 240 (step S906), and reads out the pixel signal from the light shielding region (step S907). . Then, the solid-state imaging element 200 detects illuminance based on the image data generated by pixel addition (step S908).
  • step S905 If it is not within the pixel addition readout period (step S905: No), or after step S908, the solid-state imaging device 200 repeatedly executes step S901 and subsequent steps.
  • pixel addition is performed in the pixel block 222 by arranging the light-shielded pixels 240 in the row direction and transferring charges from the pixel block 222 to the corresponding light-shielded pixels 240. It is possible to reduce the number of times the read signal is read. Thereby, the power consumption of the solid-state image sensor 200 can be reduced.
  • the solid-state imaging device 200 detects the illuminance by pixel addition.
  • the movement of the subject can also be detected.
  • the solid-state imaging device 200 may read out the addition signal a plurality of times and execute a process for obtaining a difference between the previous addition signal and the current addition signal.
  • the solid-state imaging device 200 according to the modification of the first embodiment is different from the first embodiment in that motion is detected by pixel addition.
  • FIG. 13 is a timing chart showing an example of the operation of the solid-state imaging device 200 during the pixel addition readout period in the modification of the first embodiment.
  • the solid-state imaging device 200 according to the modification of the first embodiment controls the connection signal FDCb to the low level until the timing T12 at the time of charge transfer. Further, during the period from the timing T11 to the timing T12, the reset level is read out as in the first embodiment.
  • the row scanning circuit 210 controls each of the transfer signals TRGn to a high level over a predetermined pulse period from the timing T12.
  • the row scanning circuit 210 controls the connection signal FDCb to a high level over a predetermined pulse period from the timing T11.
  • the pulse period of connection signal FDCb is set to be longer than the pulse period of transfer signal TRGn. Further, the signal level is read out from timing T12 to timing T13 as in the first embodiment.
  • Read control from reading the reset level to reading the signal level is executed a plurality of times, and a CDS process for obtaining a difference between them is executed each time the read control is performed.
  • a first read control an initial value addition signal is read as a reset level, and an addition signal corresponding to the first exposure time is read as a signal level.
  • the second and subsequent reading control the previous signal level is read again as the reset level, and the addition signal corresponding to the current exposure time is read as the signal level. Then, the difference between the previous addition signal (reset level) and the current addition signal (signal level) is obtained by CDS processing.
  • the image processing unit 290 detects an area where the difference exceeds a predetermined threshold as an area that has moved.
  • FIG. 14 is a flowchart illustrating an example of the operation of the solid-state imaging device 200 according to the modification of the first embodiment.
  • the operation of the solid-state imaging device 200 according to the modification of the first embodiment is different from that of the first embodiment in that motion detection (S909) is performed instead of illuminance detection (step S908).
  • the solid-state imaging device 200 described above can be applied not only to the camera such as the imaging device 100 but also to a sensor for observing the environment, taking advantage of the features of low resolution, low power consumption, and global shutter operation.
  • the solid-state imaging device 200 can perform an operation of detecting an action such as movement by adding pixels with low power consumption and then obtaining a high-resolution image by normal reading. If such a motion detection function is applied to a living body survey, the frequency of battery replacement can be reduced due to the low power consumption.
  • the solid-state imaging device 200 can be used for applications such as disposing in a forest or the like and communicating details when there is an action such as a landslide, or for early detection of a natural disaster. Since the solid-state imaging device 200 has low power consumption, it can be handled for a long time without maintenance using a battery or a solar panel. This is advantageous when using an application using a large number of sensors.
  • the imaging control unit 130 can count the number of traveling vehicles based on the result of motion detection, and can perform control to shift to normal reading when the count value exceeds a certain number.
  • the image processing unit 290 or the like can measure the speed of the vehicle from the result of motion detection, and the imaging control unit 130 can shift to normal reading when the speed exceeds a certain speed.
  • the control for sequentially reading the previous addition signal and the current addition signal is executed a plurality of times, and the previous and the current time are determined for each pixel block. Since the difference between the addition signals is detected, the movement of the subject can be detected from the difference.
  • Second Embodiment> In the first embodiment described above, five transistors are provided for each normal pixel 230, but the circuit scale of the pixel array unit 220 increases as the number of pixels increases. If the number of transistors for each normal pixel 230 is reduced, the circuit scale can be reduced.
  • the solid-state imaging device 200 of the second embodiment is different from the first embodiment in that the circuit scale of the pixel array unit 220 is reduced.
  • FIG. 15 is a circuit diagram showing a configuration example of the normal pixel 230 in the second embodiment.
  • the normal pixel 230 according to the second embodiment is different from the first embodiment in that the connection transistor 232 is not provided.
  • the reset transistor 231 of the second embodiment connects the floating diffusion layer 235 and the connection line 239-m according to the reset signal RST0. By controlling the reset transistor 231, the floating diffusion layer 235 can be initialized as in the first embodiment, and the connection to the connection line 239-m can be performed. For this reason, the connection transistor 232 becomes unnecessary.
  • the reset transistor 231 is an example of a connection transistor described in the claims.
  • FIG. 16 is a timing chart showing an example of the operation of the solid-state imaging device 200 during the pixel addition readout period according to the second embodiment.
  • the row scanning circuit 210 controls the reset signal RSTn, the connection signals FDCn and FDCb, and the selection signal SELb to high level.
  • the row scanning circuit 210 controls the reset signal RSTb to high level.
  • the floating diffusion layer 235 of the pixel block is initialized, and the potential of the connection line 239-m is initialized.
  • the row scanning circuit 210 controls each of the transfer signals TRGn to the high level over the pulse period. As a result, charges are transferred from all the pixel blocks to the light shielding region 223.
  • the row scanning circuit 210 controls the reset signal RSTn, the connection signals FDCn and FDCb, and the selection signal SELb to a low level at a timing T13 after the timing T12. Reading of the added signal is completed by this control.
  • the AD converters 261 in each column sample the reset level from timing T11 to timing T12, and sample the signal level from timing T12 to timing T13.
  • the reset transistor 231 since the reset transistor 231 connects the floating diffusion layer 235 and the connection line 239-m, it is not necessary to provide the connection transistor 232. Thereby, the circuit scale of the pixel array unit 220 can be reduced.
  • the photoelectric conversion element 244 and the transfer transistor 243 are also provided in the light shielding pixel 240 from the viewpoint of facilitating manufacturing by making the configuration of the normal pixel 230 and the light shielding pixel 240 the same.
  • a configuration in which the photoelectric conversion element 244 and the transfer transistor 243 are not provided in the light-shielding pixel 240 may be provided in the light-shielding pixel 240 with priority given to the reduction in circuit scale.
  • the solid-state imaging device 200 according to the third embodiment is different from the first embodiment in that the circuit scale of the light shielding region 223 is reduced.
  • FIG. 17 is a circuit diagram illustrating a configuration example of the light-shielding pixel 240 according to the third embodiment.
  • the light-shielding pixel 240 according to the third embodiment is different from the first embodiment in that the photoelectric conversion element 244 and the transfer transistor 243 are not provided.
  • the circuit scale of the light shielding region 223 can be reduced.
  • connection transistor 232 in the normal pixel 230 connects the floating diffusion layer 235 to the connection line 239-m.
  • a leakage current may flow from the floating diffusion layer 235 to the connection line 239-m during the period in which the connection transistor 232 is off.
  • the photoelectric conversion element 237 may be connected to the connection line 239-m instead of the floating diffusion layer 235.
  • the solid-state imaging device 200 according to the fourth embodiment is different from the first embodiment in that the photoelectric conversion element 237 is connected to the connection line 239-m.
  • FIG. 18 is a circuit diagram showing a configuration example of the normal pixel 230 in the fourth embodiment.
  • the normal pixel 230 of the fourth embodiment is different from that of the first embodiment in that the connection transistor 232 connects the photoelectric conversion element 237 to the connection line 239-m according to the connection signal FDCn.
  • FIG. 19 is a timing chart illustrating an example of the operation of the solid-state imaging device 200 during the pixel addition readout period according to the fourth embodiment.
  • the row scanning circuit 210 controls the connection signal FDCn and the selection signal SELb to a high level over a certain period. Then, at the timing T11 after the timing T10, the row scanning circuit 210 controls the reset signal RSTb to a high level over a certain period. Thereby, the floating diffusion layers 235 of all the pixel blocks are initialized. Here, a period of time sufficient for the AD conversion at the reset level to be completed is set during the period in which the reset signal RSTb is at the high level.
  • the row scanning circuit 210 controls the connection signal FDCb to a high level. As a result, charges are transferred from all the pixel blocks to the light shielding region 223.
  • the row scanning circuit 210 controls the connection signals FDCn and FDCb and the selection signal SELb to low level at timing T13 after timing T12. Reading of the added signal is completed by this control.
  • the AD converters 261 in each column sample the reset level during a period in which the reset signal RSTb is at a high level, and sample the signal level from timing T11 to timing T12.
  • connection signal FDCb is controlled to be in an on state across the AD conversion period, it may be in an off state before performing AD conversion as illustrated in FIG.
  • the photoelectric conversion element 237 is connected to the connection line 239-m, the influence of the leakage current from the floating diffusion layer 235 can be suppressed.
  • FIG. 20 is a plan view showing a configuration example of the pixel array unit 220 and the signal processing unit 260 in the fifth embodiment.
  • a plurality of pixel blocks 300 are arranged in a two-dimensional lattice pattern in the light receiving region 221.
  • a plurality of (for example, 4 rows ⁇ 2 columns) pixels are arranged in each of the pixel blocks 300.
  • a set of pixel blocks 300 arranged in a horizontal direction (such as a horizontal direction) is referred to as a “block row”
  • a set of pixel blocks 300 arranged in a direction perpendicular to the row is referred to as a “block column”.
  • a light shielding pixel 240 is provided for each block row.
  • the signal processing unit 260 is provided with an AD converter 261 for each block row.
  • each addition block 224 is provided with a pixel block 300 of 2 block columns or more (2 rows ⁇ 2 columns).
  • Each of the addition blocks 224 is connected to the light-shielding pixel 240 on a one-to-one basis.
  • the number of light-shielding pixels 240 is equal to or greater than the number of addition blocks. For example, the number of each of the light shielding pixels 240 and the addition blocks 224 is M.
  • the row scanning circuit 210 controls each of the addition blocks 224 to transfer charges from the addition block 224 to the corresponding light shielding pixel 240.
  • dotted arrows indicate charge transfer sources and transfer destinations.
  • FIG. 21 is a circuit diagram illustrating a configuration example of the pixel block 300 according to the fifth embodiment.
  • the pixel block 300 includes photoelectric conversion elements 303, 304, 307, 308, 315, 316, 319 and 320, and transfer transistors 301, 302, 305, 306, 312, 313, 317 and 318.
  • the pixel block 300 includes a reset transistor 309, a floating diffusion layer 310, an amplification transistor 311, and a selection transistor 314.
  • Transfer transistors 301, 302, 305, 306, 312, 313, 317, and 318 are connected to different photoelectric conversion elements, and transfer charges from the corresponding photoelectric conversion elements to the floating diffusion layer 310. These transfer transistors are driven by transfer signals TRGn0 to TRGn7.
  • the reset transistor 309, the floating diffusion layer 310, the amplification transistor 311 and the selection transistor 314 are shared by 8 pixels.
  • the addition is performed in each of the pixel blocks 300.
  • the signals can be further added together.
  • each floating diffusion layer of the normal pixel 230 is connected to the connection line 239-m, and four horizontal signal lines are wired for each row.
  • the number of rows increases.
  • the number of horizontal signal lines increases. If the floating diffusion layers of two adjacent normal pixels 230 are connected and one of them is connected to the connection line 239-m, the number of horizontal signal lines can be reduced.
  • the solid-state imaging device 200 of the sixth embodiment is different from the first embodiment in that the floating diffusion layers of two adjacent normal pixels 230 are connected.
  • FIG. 22 is a plan view showing a configuration example of the pixel array unit 220 in the sixth embodiment.
  • the floating diffusion layers of a pair of normal pixels (350 and 360) adjacent in the vertical direction are connected under the control of the connection signal FDCn.
  • the floating diffusion layer of one of the pair of normal pixels (for example, the normal pixel 360) is connected to the connection line 239-m.
  • FIG. 23 is a circuit diagram showing a configuration example of the normal pixels 350 and 360 in the sixth embodiment.
  • the normal pixel 350 includes a photoelectric conversion element 351, a transfer transistor 352, a reset transistor 353, an amplification transistor 354, a selection transistor 355, and a floating diffusion layer 356.
  • the normal pixel 360 includes a photoelectric conversion element 361, a transfer transistor 362, a connection transistor 363, an amplification transistor 364, a selection transistor 365, and a floating diffusion layer 366.
  • the transfer transistor 352 transfers charges from the photoelectric conversion element 351 to the floating diffusion layer 356 in accordance with the transfer signal TRGn.
  • the reset transistor 353 initializes the floating diffusion layer 356 according to the reset signal RSTn.
  • the transfer transistor 362 transfers charges from the photoelectric conversion element 361 to the floating diffusion layer 366 in accordance with the transfer signal TRGn.
  • the connection transistor 363 connects the floating diffusion layers 356 and 366 according to the connection signal FDCn, and transfers charges from the normal pixel 350 to the normal pixel 360.
  • the floating diffusion layer 366 is also connected to the connection line 239-m.
  • each of the horizontal signal line transmitting the reset signal RSTn and the horizontal signal line transmitting the connection signal FDCn is 2 One per line is sufficient. Therefore, the number of horizontal signal lines can be reduced as compared with the first embodiment in which one line is wired for each row.
  • the reset transistor 353 and the connection transistor 363 are shared by the normal pixels 350 and 360, and therefore, a horizontal signal line for transmitting a signal for controlling these transistors.
  • the number of wires can be reduced.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 24 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied.
  • an endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 that supports the endoscope 5001, and various devices for endoscopic surgery. And a cart 5037 on which is mounted.
  • trocars 5025a to 5025d are punctured into the abdominal wall.
  • the lens barrel 5003 of the endoscope 5001 and other surgical tools 5017 are inserted into the body cavity of the patient 5071 from the trocars 5025a to 5025d.
  • an insufflation tube 5019, an energy treatment tool 5021, and forceps 5023 are inserted into the body cavity of the patient 5071.
  • the energy treatment device 5021 is a treatment device that performs tissue incision and separation, blood vessel sealing, or the like by high-frequency current or ultrasonic vibration.
  • the illustrated surgical tool 5017 is merely an example, and as the surgical tool 5017, for example, various surgical tools generally used in endoscopic surgery such as a lever and a retractor may be used.
  • the image of the surgical site in the body cavity of the patient 5071 captured by the endoscope 5001 is displayed on the display device 5041.
  • the surgeon 5067 performs a treatment such as excision of the affected part, for example, using the energy treatment tool 5021 and the forceps 5023 while viewing the image of the surgical part displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment tool 5021, and the forceps 5023 are supported by an operator 5067 or an assistant during surgery.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 includes joint portions 5033a, 5033b, and 5033c and links 5035a and 5035b, and is driven by control from the arm control device 5045.
  • the endoscope 5001 is supported by the arm unit 5031, and the position and posture thereof are controlled. Thereby, the stable position fixing of the endoscope 5001 can be realized.
  • the endoscope 5001 includes a lens barrel 5003 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the proximal end of the lens barrel 5003.
  • a lens barrel 5003 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5071, and a camera head 5005 connected to the proximal end of the lens barrel 5003.
  • an endoscope 5001 configured as a so-called rigid mirror having a rigid lens barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible mirror having a flexible lens barrel 5003. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 5003.
  • a light source device 5043 is connected to the endoscope 5001, and light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003. Irradiation is performed toward the observation target in the body cavity of the patient 5071 through the lens.
  • the endoscope 5001 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5005, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU) 5039 as RAW data.
  • CCU camera control unit
  • the camera head 5005 is equipped with a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of imaging elements may be provided in the camera head 5005 in order to cope with, for example, stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide observation light to each of the plurality of imaging elements.
  • the CCU 5039 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 5001 and the display device 5041. Specifically, the CCU 5039 performs various types of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 5005. The CCU 5039 provides the display device 5041 with the image signal subjected to the image processing. Further, the CCU 5039 transmits a control signal to the camera head 5005 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on an image signal subjected to image processing by the CCU 5039 under the control of the CCU 5039.
  • the endoscope 5001 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display
  • the display device 5041 may be a display device capable of high-resolution display and / or 3D display.
  • 4K or 8K high-resolution imaging a more immersive feeling can be obtained by using a display device 5041 having a size of 55 inches or more.
  • a plurality of display devices 5041 having different resolutions and sizes may be provided depending on applications.
  • the light source device 5043 is composed of a light source such as an LED (light emitting diode), for example, and supplies irradiation light to the endoscope 5001 when photographing a surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5045 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 5047.
  • the user instructs the arm unit 5031 to be driven via the input device 5047 or the instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. Then, an instruction to drive the energy treatment instrument 5021 is input.
  • the type of the input device 5047 is not limited, and the input device 5047 may be various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057, and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various types of input are performed according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 5047 includes a camera capable of detecting the user's movement, and various inputs are performed according to the user's gesture and line of sight detected from the video captured by the camera.
  • the input device 5047 includes a microphone that can pick up a user's voice, and various inputs are performed by voice through the microphone.
  • the input device 5047 is configured to be able to input various information without contact, so that a user belonging to a clean area (for example, an operator 5067) can operate a device belonging to an unclean area without contact. Is possible.
  • a user belonging to a clean area for example, an operator 5067
  • the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 5049 controls the drive of the energy treatment instrument 5021 for tissue cauterization, incision, or blood vessel sealing.
  • the pneumoperitoneum device 5051 gas is introduced into the body cavity via the pneumoperitoneum tube 5019.
  • the recorder 5053 is an apparatus capable of recording various types of information related to surgery.
  • the printer 5055 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 5027 includes a base portion 5029 as a base and an arm portion 5031 extending from the base portion 5029.
  • the arm portion 5031 includes a plurality of joint portions 5033a, 5033b, and 5033c and a plurality of links 5035a and 5035b connected by the joint portion 5033b.
  • FIG. The configuration of the arm portion 5031 is shown in a simplified manner.
  • the shape, number and arrangement of the joint portions 5033a to 5033c and the links 5035a and 5035b, the direction of the rotation axis of the joint portions 5033a to 5033c, and the like are appropriately set so that the arm portion 5031 has a desired degree of freedom.
  • the arm portion 5031 can be preferably configured to have 6 degrees of freedom or more. Accordingly, the endoscope 5001 can be freely moved within the movable range of the arm portion 5031. Therefore, the barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. It becomes possible.
  • the joint portions 5033a to 5033c are provided with actuators, and the joint portions 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the arm control device 5045 By controlling the driving of the actuator by the arm control device 5045, the rotation angles of the joint portions 5033a to 5033c are controlled, and the driving of the arm portion 5031 is controlled. Thereby, control of the position and orientation of the endoscope 5001 can be realized.
  • the arm control device 5045 can control the driving of the arm unit 5031 by various known control methods such as force control or position control.
  • the arm control device 5045 appropriately controls the driving of the arm unit 5031 according to the operation input.
  • the position and posture of the endoscope 5001 may be controlled.
  • the endoscope 5001 at the tip of the arm portion 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the position after the movement.
  • the arm portion 5031 may be operated by a so-called master slave method.
  • the arm unit 5031 can be remotely operated by the user via the input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 When force control is applied, the arm control device 5045 receives the external force from the user and moves the actuators of the joint portions 5033a to 5033c so that the arm portion 5031 moves smoothly according to the external force. You may perform what is called power assist control to drive. Accordingly, when the user moves the arm unit 5031 while directly touching the arm unit 5031, the arm unit 5031 can be moved with a relatively light force. Therefore, the endoscope 5001 can be moved more intuitively and with a simpler operation, and user convenience can be improved.
  • an endoscope 5001 is supported by a doctor called a scopist.
  • the position of the endoscope 5001 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 5045 is not necessarily provided in the cart 5037. Further, the arm control device 5045 is not necessarily a single device. For example, the arm control device 5045 may be provided in each joint portion 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the plurality of arm control devices 5045 cooperate with each other to drive the arm portion 5031. Control may be realized.
  • the light source device 5043 supplies irradiation light to the endoscope 5001 when photographing a surgical site.
  • the light source device 5043 is composed of a white light source composed of, for example, an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Adjustments can be made.
  • each RGB light source is controlled by irradiating the observation target with laser light from each of the RGB laser light sources in a time-sharing manner and controlling the driving of the image sensor of the camera head 5005 in synchronization with the irradiation timing. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 5043 may be controlled so as to change the intensity of the output light every predetermined time.
  • the driving of the image sensor of the camera head 5005 is controlled to acquire images in a time-sharing manner, and the images are synthesized, so that high dynamics without so-called blackout and overexposure are obtained. A range image can be generated.
  • the light source device 5043 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • ICG indocyanine green
  • the light source device 5043 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 25 is a block diagram showing an example of the functional configuration of the camera head 5005 and the CCU 5039 shown in FIG.
  • the camera head 5005 has a lens unit 5007, an imaging unit 5009, a drive unit 5011, a communication unit 5013, and a camera head control unit 5015 as its functions.
  • the CCU 5039 includes a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions.
  • the camera head 5005 and the CCU 5039 are connected to each other via a transmission cable 5065 so that they can communicate with each other.
  • the lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003. Observation light captured from the tip of the lens barrel 5003 is guided to the camera head 5005 and enters the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 5007 are adjusted so that the observation light is condensed on the light receiving surface of the image sensor of the imaging unit 5009. Further, the zoom lens and the focus lens are configured such that their positions on the optical axis are movable in order to adjust the magnification and focus of the captured image.
  • the imaging unit 5009 is configured by an imaging element, and is disposed in the subsequent stage of the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is collected on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5009 is provided to the communication unit 5013.
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging element for example, an element capable of capturing a high-resolution image of 4K or more may be used.
  • the image sensor that configures the image capturing unit 5009 is configured to include a pair of image sensors for acquiring right-eye and left-eye image signals corresponding to 3D display. By performing the 3D display, the operator 5067 can more accurately grasp the depth of the living tissue in the surgical site.
  • the imaging unit 5009 is configured as a multi-plate type, a plurality of lens units 5007 are also provided corresponding to each imaging element.
  • the imaging unit 5009 is not necessarily provided in the camera head 5005.
  • the imaging unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.
  • the driving unit 5011 includes an actuator, and moves the zoom lens and the focus lens of the lens unit 5007 by a predetermined distance along the optical axis under the control of the camera head control unit 5015. Thereby, the magnification and focus of the image captured by the imaging unit 5009 can be adjusted as appropriate.
  • the communication unit 5013 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 5039.
  • the communication unit 5013 transmits the image signal obtained from the imaging unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065.
  • the image signal is preferably transmitted by optical communication.
  • the surgeon 5067 performs the surgery while observing the state of the affected area with the captured image, so that a moving image of the surgical site is displayed in real time as much as possible for safer and more reliable surgery. Because it is required.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 5039 via the transmission cable 5065.
  • the communication unit 5013 receives a control signal for controlling driving of the camera head 5005 from the CCU 5039.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5013 provides the received control signal to the camera head control unit 5015.
  • the control signal from the CCU 5039 may also be transmitted by optical communication.
  • the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the control signal is converted into an electric signal by the photoelectric conversion module, and then provided to the camera head control unit 5015.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5001.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 5015 controls driving of the camera head 5005 based on a control signal from the CCU 5039 received via the communication unit 5013. For example, the camera head control unit 5015 controls driving of the imaging element of the imaging unit 5009 based on information indicating that the frame rate of the captured image is specified and / or information indicating that the exposure at the time of imaging is specified. For example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the drive unit 5011 based on information indicating that the magnification and focus of the captured image are designated.
  • the camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and the camera head 5005.
  • the camera head 5005 can be resistant to autoclave sterilization by arranging the lens unit 5007, the imaging unit 5009, and the like in a sealed structure with high airtightness and waterproofness.
  • the communication unit 5059 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5059 provides the image processing unit 5061 with the image signal converted into the electrical signal.
  • the communication unit 5059 transmits a control signal for controlling the driving of the camera head 5005 to the camera head 5005.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5061 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 5005. Examples of the image processing include development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Various known signal processing is included.
  • the image processing unit 5061 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5061 is configured by a processor such as a CPU or a GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program.
  • the image processing unit 5061 is configured by a plurality of GPUs, the image processing unit 5061 appropriately divides information related to the image signal, and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls relating to imaging of the surgical site by the endoscope 5001 and display of the captured image. For example, the control unit 5063 generates a control signal for controlling driving of the camera head 5005. At this time, when the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with the AE function, the AF function, and the AWB function, the control unit 5063 determines the optimum exposure value, focal length, and the like according to the detection processing result by the image processing unit 5061. A white balance is appropriately calculated and a control signal is generated.
  • control unit 5063 causes the display device 5041 to display an image of the surgical site based on the image signal subjected to the image processing by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical unit image using various image recognition techniques. For example, the control unit 5063 detects the shape and color of the edge of the object included in the surgical part image, thereby removing surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 5021, and the like. Can be recognized.
  • the control unit 5063 displays various types of surgery support information on the image of the surgical site using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 5067, so that the surgery can be performed more safely and reliably.
  • the transmission cable 5065 for connecting the camera head 5005 and the CCU 5039 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 5065, but communication between the camera head 5005 and the CCU 5039 may be performed wirelessly.
  • communication between the two is performed wirelessly, there is no need to install the transmission cable 5065 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5065 can be eliminated.
  • the endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied has been described.
  • the endoscopic surgery system 5000 has been described as an example, but a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the technology according to the present disclosure may be applied to a testing flexible endoscope system or a microscope operation system.
  • the technology according to the present disclosure can be suitably applied to the camera head 5005 in FIG. 25 among the configurations described above.
  • the solid-state imaging device 200 illustrated in FIG. 2 is used for the imaging unit 5009 in the camera head 5005.
  • the application of the solid-state imaging device 200 reduces the number of readouts when adding pixels, so that the power consumption of the endoscopic surgery system 5000 can be reduced.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an operating room system.
  • FIG. 26 is a diagram schematically showing an overall configuration of an operating room system 5100 to which the technology according to the present disclosure can be applied.
  • the operating room system 5100 is configured by connecting a group of devices installed in the operating room so as to be able to cooperate with each other via an audiovisual controller 5107 and an operating room control device 5109.
  • FIG. 26 various devices can be installed in the operating room.
  • various device groups 5101 for endoscopic surgery a ceiling camera 5187 provided on the ceiling of the operating room and imaging the operator's hand, and an operating room provided on the operating room ceiling.
  • An operating field camera 5189 that images the entire situation, a plurality of display devices 5103A to 5103D, a recorder 5105, a patient bed 5183, and an illumination 5191 are illustrated.
  • the device group 5101 belongs to an endoscopic surgery system 5113 described later, and includes an endoscope, a display device that displays an image captured by the endoscope, and the like.
  • Each device belonging to the endoscopic surgery system 5113 is also referred to as a medical device.
  • the display devices 5103A to 5103D, the recorder 5105, the patient bed 5183, and the illumination 5191 are devices provided in an operating room, for example, separately from the endoscopic surgery system 5113.
  • These devices that do not belong to the endoscopic surgery system 5113 are also referred to as non-medical devices.
  • the audiovisual controller 5107 and / or the operating room control device 5109 controls the operations of these medical devices and non-medical devices in cooperation with each other.
  • the audiovisual controller 5107 comprehensively controls processing related to image display in medical devices and non-medical devices.
  • the device group 5101, the ceiling camera 5187, and the surgical field camera 5189 have a function of transmitting information to be displayed during surgery (hereinafter also referred to as display information). It may be a device (hereinafter also referred to as a source device).
  • Display devices 5103A to 5103D can be devices that output display information (hereinafter also referred to as output destination devices).
  • the recorder 5105 may be a device that corresponds to both a transmission source device and an output destination device.
  • the audiovisual controller 5107 controls the operation of the transmission source device and the output destination device, acquires display information from the transmission source device, and transmits the display information to the output destination device for display or recording.
  • the display information includes various images captured during the operation, various types of information related to the operation (for example, patient physical information, past examination results, information on a surgical procedure, and the like).
  • the audiovisual controller 5107 can transmit information about the image of the surgical site in the patient's body cavity captured by the endoscope from the device group 5101 as display information.
  • information about the image at hand of the surgeon captured by the ceiling camera 5187 can be transmitted from the ceiling camera 5187 as display information.
  • information about an image showing the entire operating room imaged by the operating field camera 5189 can be transmitted from the operating field camera 5189 as display information.
  • the audiovisual controller 5107 acquires information about an image captured by the other device from the other device as display information. May be.
  • information about these images captured in the past is recorded by the audiovisual controller 5107 in the recorder 5105.
  • the audiovisual controller 5107 can acquire information about the image captured in the past from the recorder 5105 as display information.
  • the recorder 5105 may also record various types of information related to surgery in advance.
  • the audiovisual controller 5107 displays the acquired display information (that is, images taken during the operation and various information related to the operation) on at least one of the display devices 5103A to 5103D that are output destination devices.
  • the display device 5103A is a display device that is suspended from the ceiling of the operating room
  • the display device 5103B is a display device that is installed on the wall surface of the operating room
  • the display device 5103C is installed in the operating room.
  • the display device 5103D is a mobile device (for example, a tablet PC (Personal Computer)) having a display function.
  • the operating room system 5100 may include a device outside the operating room.
  • the device outside the operating room can be, for example, a server connected to a network constructed inside or outside the hospital, a PC used by medical staff, a projector installed in a conference room of the hospital, or the like.
  • the audio-visual controller 5107 can display the display information on a display device of another hospital via a video conference system or the like for telemedicine.
  • the operating room control device 5109 comprehensively controls processing other than processing related to image display in non-medical devices.
  • the operating room control device 5109 controls the driving of the patient bed 5183, the ceiling camera 5187, the operating field camera 5189, and the illumination 5191.
  • the operating room system 5100 is provided with a centralized operation panel 5111, and the user gives an instruction for image display to the audiovisual controller 5107 via the centralized operation panel 5111, or the operating room control apparatus 5109. An instruction about the operation of the non-medical device can be given.
  • the central operation panel 5111 is configured by providing a touch panel on the display surface of the display device.
  • FIG. 27 is a diagram showing a display example of an operation screen on the centralized operation panel 5111.
  • an operation screen corresponding to a case where the operating room system 5100 is provided with two display devices as output destination devices is shown.
  • the operation screen 5193 is provided with a transmission source selection area 5195, a preview area 5197, and a control area 5201.
  • a transmission source device provided in the operating room system 5100 and a thumbnail screen representing display information of the transmission source device are displayed in association with each other. The user can select display information to be displayed on the display device from any of the transmission source devices displayed in the transmission source selection area 5195.
  • the preview area 5197 displays a preview of the screen displayed on the two display devices (Monitor 1 and Monitor 2) that are output destination devices.
  • four images are displayed as PinP on one display device.
  • the four images correspond to display information transmitted from the transmission source device selected in the transmission source selection area 5195. Of the four images, one is displayed as a relatively large main image, and the remaining three are displayed as a relatively small sub image. The user can switch the main image and the sub image by appropriately selecting an area in which four images are displayed.
  • a status display area 5199 is provided below the area where the four images are displayed, and the status relating to the surgery (for example, the elapsed time of the surgery, the patient's physical information, etc.) is appropriately displayed in the area. obtain.
  • a GUI (Graphical User Interface) part for displaying a GUI (Graphical User Interface) part for operating the source apparatus and a GUI part for operating the output destination apparatus are displayed.
  • the transmission source operation area 5203 is provided with GUI parts for performing various operations (panning, tilting, and zooming) on the camera in the transmission source device having an imaging function. The user can operate the operation of the camera in the transmission source device by appropriately selecting these GUI components.
  • the transmission source device selected in the transmission source selection area 5195 is a recorder (that is, in the preview area 5197, images recorded in the past are displayed on the recorder).
  • a GUI component for performing operations such as playback, stop playback, rewind, and fast forward of the image can be provided in the transmission source operation area 5203.
  • GUI parts for performing various operations are provided. Is provided. The user can operate the display on the display device by appropriately selecting these GUI components.
  • the operation screen displayed on the centralized operation panel 5111 is not limited to the example shown in the figure, and the user can use the audiovisual controller 5107 and the operating room control device 5109 provided in the operating room system 5100 via the centralized operation panel 5111. Operation input for each device that can be controlled may be possible.
  • FIG. 28 is a diagram showing an example of a state of surgery to which the operating room system described above is applied.
  • the ceiling camera 5187 and the operating field camera 5189 are provided on the ceiling of the operating room, and can photograph the state of the operator (doctor) 5181 who performs treatment on the affected part of the patient 5185 on the patient bed 5183 and the entire operating room. It is.
  • the ceiling camera 5187 and the surgical field camera 5189 may be provided with a magnification adjustment function, a focal length adjustment function, a photographing direction adjustment function, and the like.
  • the illumination 5191 is provided on the ceiling of the operating room and irradiates at least the hand of the operator 5181.
  • the illumination 5191 may be capable of appropriately adjusting the irradiation light amount, the wavelength (color) of the irradiation light, the light irradiation direction, and the like.
  • the endoscopic surgery system 5113, patient bed 5183, ceiling camera 5187, operating field camera 5189, and illumination 5191 are connected via an audiovisual controller 5107 and an operating room controller 5109 (not shown in FIG. 28). Are connected to each other.
  • a centralized operation panel 5111 is provided in the operating room. As described above, the user can appropriately operate these devices existing in the operating room via the centralized operating panel 5111.
  • an endoscopic surgery system 5113 includes an endoscope 5115, other surgical tools 5131, a support arm device 5141 that supports the endoscope 5115, and various devices for endoscopic surgery. And a cart 5151 on which is mounted.
  • trocars 5139a to 5139d are punctured into the abdominal wall. Then, the lens barrel 5117 of the endoscope 5115 and other surgical tools 5131 are inserted into the body cavity of the patient 5185 from the trocars 5139a to 5139d.
  • an insufflation tube 5133, an energy treatment tool 5135, and forceps 5137 are inserted into the body cavity of the patient 5185.
  • the energy treatment instrument 5135 is a treatment instrument that performs incision and detachment of a tissue, sealing of a blood vessel, and the like by high-frequency current and ultrasonic vibration.
  • the illustrated surgical tool 5131 is merely an example, and as the surgical tool 5131, for example, various surgical tools generally used in endoscopic surgery such as a lever and a retractor may be used.
  • An image of the surgical site in the body cavity of the patient 5185 taken by the endoscope 5115 is displayed on the display device 5155.
  • the surgeon 5181 performs a treatment such as excision of the affected part using the energy treatment tool 5135 and the forceps 5137 while viewing the image of the surgical part displayed on the display device 5155 in real time.
  • the pneumoperitoneum tube 5133, the energy treatment tool 5135, and the forceps 5137 are supported by an operator 5181 or an assistant during surgery.
  • the support arm device 5141 includes an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 includes joint portions 5147a, 5147b, and 5147c, and links 5149a and 5149b, and is driven by control from the arm control device 5159.
  • the endoscope 5115 is supported by the arm unit 5145, and its position and posture are controlled. Thereby, the stable position fixing of the endoscope 5115 can be realized.
  • the endoscope 5115 includes a lens barrel 5117 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 5185, and a camera head 5119 connected to the proximal end of the lens barrel 5117.
  • an endoscope 5115 configured as a so-called rigid mirror having a rigid lens barrel 5117 is illustrated, but the endoscope 5115 is configured as a so-called flexible mirror having a flexible lens barrel 5117. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 5117.
  • a light source device 5157 is connected to the endoscope 5115, and the light generated by the light source device 5157 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5117, and the objective Irradiation is performed toward the observation target in the body cavity of the patient 5185 through the lens.
  • the endoscope 5115 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 5119, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU) 5153 as RAW data.
  • CCU camera control unit
  • the camera head 5119 has a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of image sensors may be provided in the camera head 5119 in order to cope with, for example, stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5117 in order to guide observation light to each of the plurality of imaging elements.
  • the CCU 5153 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 5115 and the display device 5155. Specifically, the CCU 5153 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 5119. The CCU 5153 provides the display device 5155 with the image signal subjected to the image processing. Further, the audiovisual controller 5107 shown in FIG. 26 is connected to the CCU 5153. The CCU 5153 also provides an image signal subjected to image processing to the audiovisual controller 5107.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the CCU 5153 transmits a control signal to the camera head 5119 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length. Information regarding the imaging conditions may be input via the input device 5161 or may be input via the above-described centralized operation panel 5111.
  • the display device 5155 displays an image based on an image signal subjected to image processing by the CCU 5153 under the control of the CCU 5153.
  • the endoscope 5115 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display.
  • high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display.
  • a display device 5155 capable of high-resolution display and / or 3D display can be used.
  • 4K or 8K high resolution imaging a more immersive feeling can be obtained by using a display device 5155 having a size of 55 inches or more.
  • a plurality of display devices 5155 having different resolutions and sizes may be provided depending on applications.
  • the light source device 5157 is composed of a light source such as an LED (light emitting diode), for example, and supplies the endoscope 5115 with irradiation light when photographing a surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5159 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 5145 of the support arm device 5141 according to a predetermined control method.
  • the input device 5161 is an input interface to the endoscopic surgery system 5113.
  • a user can input various information and instructions to the endoscopic surgery system 5113 via the input device 5161.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 5161.
  • the user instructs to drive the arm unit 5145 via the input device 5161 or an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5115.
  • An instruction to drive the energy treatment instrument 5135 is input.
  • the type of the input device 5161 is not limited, and the input device 5161 may be various known input devices.
  • the input device 5161 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5171 and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 5155.
  • the input device 5161 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), for example, and various inputs according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 5161 includes a camera capable of detecting a user's movement, and various inputs are performed according to a user's gesture and line of sight detected from an image captured by the camera.
  • the input device 5161 includes a microphone that can pick up the voice of the user, and various inputs are performed by voice through the microphone.
  • the input device 5161 is configured to be able to input various types of information without contact, so that a user belonging to the clean area (for example, an operator 5181) operates a device belonging to the unclean area without contact. Is possible.
  • a user belonging to the clean area for example, an operator 5181
  • the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 5163 controls driving of the energy treatment instrument 5135 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 5165 passes gas into the body cavity via the pneumothorax tube 5133.
  • the recorder 5167 is an apparatus capable of recording various types of information related to surgery.
  • the printer 5169 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 5141 includes a base portion 5143 which is a base, and an arm portion 5145 extending from the base portion 5143.
  • the arm portion 5145 includes a plurality of joint portions 5147a, 5147b, and 5147c and a plurality of links 5149a and 5149b connected by the joint portions 5147b.
  • FIG. The structure of the arm part 5145 is shown in a simplified manner. Actually, the shape, number and arrangement of the joint portions 5147a to 5147c and the links 5149a and 5149b, the direction of the rotation axis of the joint portions 5147a to 5147c, and the like are appropriately set so that the arm portion 5145 has a desired degree of freedom. obtain.
  • the arm portion 5145 can be preferably configured to have six or more degrees of freedom. Accordingly, the endoscope 5115 can be freely moved within the movable range of the arm unit 5145, and therefore the lens barrel 5117 of the endoscope 5115 can be inserted into the body cavity of the patient 5185 from a desired direction. It becomes possible.
  • the joint portions 5147a to 5147c are provided with actuators, and the joint portions 5147a to 5147c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the drive of the actuator is controlled by the arm control device 5159
  • the rotation angles of the joint portions 5147a to 5147c are controlled, and the drive of the arm portion 5145 is controlled.
  • control of the position and posture of the endoscope 5115 can be realized.
  • the arm control device 5159 can control the driving of the arm unit 5145 by various known control methods such as force control or position control.
  • the arm controller 5159 appropriately controls the driving of the arm unit 5145 according to the operation input.
  • the position and posture of the endoscope 5115 may be controlled. With this control, the endoscope 5115 at the distal end of the arm portion 5145 can be moved from an arbitrary position to an arbitrary position and then fixedly supported at the position after the movement.
  • the arm unit 5145 may be operated by a so-called master slave method. In this case, the arm unit 5145 can be remotely operated by the user via the input device 5161 installed at a location away from the operating room.
  • the arm control device 5159 When force control is applied, the arm control device 5159 receives the external force from the user and moves the actuators of the joint portions 5147a to 5147c so that the arm portion 5145 moves smoothly according to the external force. You may perform what is called power assist control to drive. Accordingly, when the user moves the arm unit 5145 while directly touching the arm unit 5145, the arm unit 5145 can be moved with a relatively light force. Therefore, the endoscope 5115 can be moved more intuitively and with a simpler operation, and the convenience for the user can be improved.
  • an endoscope 5115 is supported by a doctor called a scopist.
  • the position of the endoscope 5115 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 5159 is not necessarily provided in the cart 5151. Further, the arm control device 5159 does not necessarily have to be one device. For example, the arm control device 5159 may be provided in each of the joint portions 5147a to 5147c of the arm portion 5145 of the support arm device 5141, and the plurality of arm control devices 5159 cooperate to drive the arm portion 5145. Control may be realized.
  • the light source device 5157 supplies irradiation light for imaging the surgical site to the endoscope 5115.
  • the light source device 5157 is constituted by a white light source constituted by, for example, an LED, a laser light source or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Adjustments can be made.
  • the laser light from each of the RGB laser light sources is irradiated onto the observation target in a time-sharing manner, and the driving of the image sensor of the camera head 5119 is controlled in synchronization with the irradiation timing, thereby corresponding to each RGB. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 5157 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the driving of the image sensor of the camera head 5119 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure is obtained. A range image can be generated.
  • the light source device 5157 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • ICG indocyanine green
  • the light source device 5157 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 29 is a block diagram illustrating an example of functional configurations of the camera head 5119 and the CCU 5153 illustrated in FIG.
  • the camera head 5119 has a lens unit 5121, an imaging unit 5123, a drive unit 5125, a communication unit 5127, and a camera head control unit 5129 as its functions.
  • the CCU 5153 includes a communication unit 5173, an image processing unit 5175, and a control unit 5177 as its functions.
  • the camera head 5119 and the CCU 5153 are connected to each other via a transmission cable 5179 so that they can communicate with each other.
  • the lens unit 5121 is an optical system provided at a connection portion with the lens barrel 5117. Observation light taken from the tip of the lens barrel 5117 is guided to the camera head 5119 and enters the lens unit 5121.
  • the lens unit 5121 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 5121 are adjusted so that the observation light is condensed on the light receiving surface of the image sensor of the imaging unit 5123. Further, the zoom lens and the focus lens are configured such that their positions on the optical axis are movable in order to adjust the magnification and focus of the captured image.
  • the imaging unit 5123 is configured by an imaging element, and is arranged at the rear stage of the lens unit 5121.
  • the observation light that has passed through the lens unit 5121 is collected on the light receiving surface of the imaging element, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5123 is provided to the communication unit 5127.
  • the image pickup element constituting the image pickup unit 5123 for example, a CMOS (Complementary Metal Oxide Semiconductor) type image sensor that can perform color photographing having a Bayer array is used.
  • the imaging element for example, an element capable of capturing a high-resolution image of 4K or more may be used.
  • the image sensor that constitutes the image capturing unit 5123 is configured to have a pair of image sensors for acquiring right-eye and left-eye image signals corresponding to 3D display. By performing the 3D display, the operator 5181 can more accurately grasp the depth of the living tissue in the surgical site. Note that in the case where the imaging unit 5123 is configured as a multi-plate type, a plurality of lens units 5121 are also provided corresponding to each imaging element.
  • the imaging unit 5123 is not necessarily provided in the camera head 5119.
  • the imaging unit 5123 may be provided inside the lens barrel 5117 immediately after the objective lens.
  • the driving unit 5125 includes an actuator, and moves the zoom lens and the focus lens of the lens unit 5121 by a predetermined distance along the optical axis under the control of the camera head control unit 5129. Thereby, the magnification and focus of the image captured by the imaging unit 5123 can be adjusted as appropriate.
  • the communication unit 5127 includes a communication device for transmitting and receiving various types of information to and from the CCU 5153.
  • the communication unit 5127 transmits the image signal obtained from the imaging unit 5123 to the CCU 5153 via the transmission cable 5179 as RAW data.
  • the image signal is preferably transmitted by optical communication.
  • the surgeon 5181 performs the surgery while observing the state of the affected part with the captured image, so that a moving image of the surgical part is displayed in real time as much as possible for safer and more reliable surgery. Because it is required.
  • the communication unit 5127 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 5153 via the transmission cable 5179.
  • the communication unit 5127 receives a control signal for controlling the driving of the camera head 5119 from the CCU 5153.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 5127 provides the received control signal to the camera head control unit 5129.
  • the control signal from the CCU 5153 may also be transmitted by optical communication.
  • the communication unit 5127 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal.
  • the control signal is converted into an electrical signal by the photoelectric conversion module and then provided to the camera head control unit 5129.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5177 of the CCU 5153 based on the acquired image signal. That is, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 5115.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 5129 controls driving of the camera head 5119 based on a control signal from the CCU 5153 received via the communication unit 5127. For example, the camera head control unit 5129 controls driving of the image sensor of the imaging unit 5123 based on information indicating that the frame rate of the captured image is specified and / or information indicating that the exposure at the time of imaging is specified. For example, the camera head control unit 5129 appropriately moves the zoom lens and the focus lens of the lens unit 5121 via the drive unit 5125 based on information indicating that the magnification and focus of the captured image are designated.
  • the camera head control unit 5129 may further have a function of storing information for identifying the lens barrel 5117 and the camera head 5119.
  • the camera head 5119 can be resistant to autoclave sterilization by arranging the lens unit 5121, the imaging unit 5123, and the like in a sealed structure with high airtightness and waterproofness.
  • the communication unit 5173 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 5119.
  • the communication unit 5173 receives an image signal transmitted from the camera head 5119 via the transmission cable 5179.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 5173 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 5173 provides the image processing unit 5175 with the image signal converted into the electrical signal.
  • the communication unit 5173 transmits a control signal for controlling the driving of the camera head 5119 to the camera head 5119.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 5175 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 5119. Examples of the image processing include development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Various known signal processing is included. Further, the image processing unit 5175 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 5175 is configured by a processor such as a CPU or a GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program. Note that when the image processing unit 5175 includes a plurality of GPUs, the image processing unit 5175 appropriately divides information related to the image signal, and performs image processing in parallel with the plurality of GPUs.
  • the control unit 5177 performs various controls relating to imaging of the surgical site by the endoscope 5115 and display of the captured image. For example, the control unit 5177 generates a control signal for controlling driving of the camera head 5119. At this time, when the imaging condition is input by the user, the control unit 5177 generates a control signal based on the input by the user. Alternatively, when the endoscope 5115 is equipped with the AE function, the AF function, and the AWB function, the control unit 5177 determines the optimum exposure value, focal length, and the distance according to the detection processing result by the image processing unit 5175. A white balance is appropriately calculated and a control signal is generated.
  • control unit 5177 causes the display device 5155 to display an image of the surgical site based on the image signal subjected to image processing by the image processing unit 5175.
  • the control unit 5177 recognizes various objects in the surgical unit image using various image recognition techniques. For example, the control unit 5177 detects the shape and color of the edge of the object included in the surgical part image, thereby removing surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 5135, and the like. Can be recognized.
  • the control unit 5177 causes various types of surgery support information to be superimposed and displayed on the image of the surgical site using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 5181, so that the surgery can be performed more safely and reliably.
  • the transmission cable 5179 connecting the camera head 5119 and the CCU 5153 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 5179, but communication between the camera head 5119 and the CCU 5153 may be performed wirelessly.
  • communication between the two is performed wirelessly, there is no need to install the transmission cable 5179 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 5179 can be solved.
  • the operating room system 5100 to which the technology according to the present disclosure can be applied has been described.
  • the medical system to which the operating room system 5100 is applied is the endoscopic operating system 5113 is described here as an example
  • the configuration of the operating room system 5100 is not limited to such an example.
  • the operating room system 5100 may be applied to an examination flexible endoscope system or a microscope operation system instead of the endoscope operation system 5113.
  • the technology according to the present disclosure can be suitably applied to the camera head 5119 illustrated in FIG. 29 among the configurations described above.
  • the solid-state imaging device 200 illustrated in FIG. 2 is used for the imaging unit 5123 in the camera head 5119.
  • Application of the solid-state imaging device 200 reduces the number of times of readout at the time of pixel addition, so that power consumption of the operating room system 5100 can be reduced.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to a microscopic surgery system used for so-called microsurgery performed while magnifying and observing a fine part of a patient.
  • FIG. 30 is a diagram illustrating an example of a schematic configuration of a microscopic surgery system 5300 to which the technology according to the present disclosure can be applied.
  • the microscope surgery system 5300 includes a microscope device 5301, a control device 5317, and a display device 5319.
  • “user” means any medical staff who uses the microscope surgery system 5300, such as an operator and an assistant.
  • the microscope apparatus 5301 includes a microscope unit 5303 for magnifying and observing an observation target (a patient's surgical site), an arm unit 5309 that supports the microscope unit 5303 at the distal end, and a base unit 5315 that supports the proximal end of the arm unit 5309. Have.
  • the microscope unit 5303 includes a substantially cylindrical cylindrical part 5305, an imaging unit (not shown) provided inside the cylindrical part 5305, and an operation unit 5307 provided in a partial area on the outer periphery of the cylindrical part 5305. And.
  • the microscope unit 5303 is an electronic imaging type microscope unit (so-called video type microscope unit) in which a captured image is electronically captured by the imaging unit.
  • a cover glass that protects the internal imaging unit is provided on the opening surface at the lower end of the cylindrical part 5305.
  • Light from the observation target (hereinafter also referred to as observation light) passes through the cover glass and enters the imaging unit inside the cylindrical part 5305.
  • a light source such as an LED (Light Emitting Diode) may be provided inside the cylindrical portion 5305, and light is emitted from the light source to the observation target through the cover glass during imaging. May be.
  • the imaging unit includes an optical system that collects the observation light and an image sensor that receives the observation light collected by the optical system.
  • the optical system is configured by combining a plurality of lenses including a zoom lens and a focus lens, and the optical characteristics thereof are adjusted so that the observation light is imaged on the light receiving surface of the image sensor.
  • the imaging element receives the observation light and photoelectrically converts it to generate a signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • an element having a Bayer array capable of color photography is used.
  • the image sensor may be various known image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the image signal generated by the image sensor is transmitted to the control device 5317 as RAW data.
  • the transmission of the image signal may be preferably performed by optical communication.
  • the surgeon performs the operation while observing the state of the affected area with the captured image.
  • the moving image of the surgical site should be displayed in real time as much as possible. Because it is.
  • a captured image can be displayed with low latency.
  • the imaging unit may have a drive mechanism that moves the zoom lens and focus lens of the optical system along the optical axis. By appropriately moving the zoom lens and the focus lens by the drive mechanism, the enlargement magnification of the captured image and the focal length at the time of imaging can be adjusted.
  • the imaging unit may be equipped with various functions that can be generally provided in an electronic imaging microscope unit, such as an AE (Auto Exposure) function and an AF (Auto Focus) function.
  • the imaging unit may be configured as a so-called single-plate imaging unit having one imaging element, or may be configured as a so-called multi-plate imaging unit having a plurality of imaging elements.
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the said imaging part may be comprised so that it may have a pair of image sensor for each acquiring the image signal for right eyes and left eyes corresponding to a stereoscopic vision (3D display). By performing the 3D display, the surgeon can more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of optical systems can be provided corresponding to each imaging element.
  • the operation unit 5307 is configured by, for example, a cross lever or a switch, and is an input unit that receives a user operation input.
  • the user can input an instruction to change the magnification of the observation image and the focal length to the observation target via the operation unit 5307.
  • the magnification ratio and the focal length can be adjusted by appropriately moving the zoom lens and the focus lens by the drive mechanism of the imaging unit in accordance with the instruction.
  • the user can input an instruction to switch the operation mode (all-free mode and fixed mode described later) of the arm unit 5309 via the operation unit 5307.
  • the operation unit 5307 may be provided at a position where the user can easily operate with a finger while holding the tubular portion 5305 so that the operation portion 5307 can be operated while the tubular portion 5305 is moved. preferable.
  • the arm portion 5309 is configured by a plurality of links (first link 5313a to sixth link 5313f) being connected to each other by a plurality of joint portions (first joint portion 5311a to sixth joint portion 5311f). Is done.
  • the first joint portion 5311a has a substantially cylindrical shape, and at its tip (lower end), the upper end of the cylindrical portion 5305 of the microscope portion 5303 is a rotation axis (first axis) parallel to the central axis of the cylindrical portion 5305. O1) It is supported so as to be rotatable around.
  • the first joint portion 5311a may be configured such that the first axis O1 coincides with the optical axis of the imaging unit of the microscope unit 5303.
  • the first link 5313a fixedly supports the first joint portion 5311a at the tip.
  • the first link 5313a is a rod-shaped member having a substantially L shape, and one end of the first link 5313a extends in a direction perpendicular to the first axis O1, and the end of the one side is the first joint. It connects to the 1st joint part 5311a so that it may contact
  • the second joint portion 5311b is connected to the end portion on the other side of the substantially L-shaped base end side of the first link 5313a.
  • the second joint portion 5311b has a substantially columnar shape, and supports the base end of the first link 5313a so that the second joint portion 5311b can rotate about a rotation axis (second axis O2) orthogonal to the first axis O1. .
  • the distal end of the second link 5313b is fixedly connected to the proximal end of the second joint portion 5311b.
  • the second link 5313b is a rod-shaped member having a substantially L shape, and one end of the second link 5313b extends in a direction orthogonal to the second axis O2, and the end of the one side is the base of the second joint portion 5311b. Fixedly connected to the end.
  • a third joint portion 5311c is connected to the other side of the base end side of the substantially L-shaped base of the second link 5313b.
  • the third joint portion 5311c has a substantially cylindrical shape, and at the tip, the base end of the second link 5313b is around a rotation axis (third axis O3) orthogonal to the first axis O1 and the second axis O2. It is supported so that it can rotate.
  • the distal end of the third link 5313c is fixedly connected to the proximal end of the third joint portion 5311c.
  • the microscope unit 5303 is moved so as to change the position of the microscope unit 5303 in the horizontal plane by rotating the configuration on the distal end side including the microscope unit 5303 around the second axis O2 and the third axis O3. Can do. That is, by controlling the rotation around the second axis O2 and the third axis O3, the field of view of the captured image can be moved in a plane.
  • the third link 5313c is configured such that the distal end side thereof has a substantially cylindrical shape, and the proximal end of the third joint portion 5311c has substantially the same central axis at the distal end of the cylindrical shape. Fixedly connected.
  • the proximal end side of the third link 5313c has a prismatic shape, and the fourth joint portion 5311d is connected to the end portion thereof.
  • the fourth joint portion 5311d has a substantially cylindrical shape, and supports the base end of the third link 5313c so that the fourth joint portion 5311d can rotate around a rotation axis (fourth axis O4) orthogonal to the third axis O3. .
  • the distal end of the fourth link 5313d is fixedly connected to the proximal end of the fourth joint portion 5311d.
  • the fourth link 5313d is a rod-like member that extends substantially linearly, and extends at a right end to the fourth axis O4, while the end of the tip contacts the substantially cylindrical side surface of the fourth joint 5311d.
  • the fourth joint part 5311d is fixedly connected so as to come into contact.
  • the fifth joint portion 5311e is connected to the base end of the fourth link 5313d.
  • the fifth joint portion 5311e has a substantially cylindrical shape, and supports the base end of the fourth link 5313d on the distal end side so as to be rotatable around a rotation axis (fifth axis O5) parallel to the fourth axis O4. To do.
  • the distal end of the fifth link 5313e is fixedly connected to the proximal end of the fifth joint portion 5311e.
  • the fourth axis O4 and the fifth axis O5 are rotation axes that can move the microscope unit 5303 in the vertical direction.
  • the height of the microscope unit 5303 that is, the distance between the microscope unit 5303 and the observation object can be adjusted by rotating the configuration on the distal end side including the microscope unit 5303 around the fourth axis O4 and the fifth axis O5. .
  • the fifth link 5313e includes a first member having a substantially L shape in which one side extends in the vertical direction and the other side extends in the horizontal direction, and a portion extending in the horizontal direction of the first member in a vertically downward direction. A rod-shaped second member that extends is combined.
  • the proximal end of the fifth joint portion 5311e is fixedly connected in the vicinity of the upper end of the portion of the fifth link 5313e extending in the vertical direction of the first member.
  • the sixth joint portion 5311f is connected to the proximal end (lower end) of the second member of the fifth link 5313e.
  • the sixth joint portion 5311f has a substantially columnar shape, and supports the proximal end of the fifth link 5313e on the distal end side thereof so as to be rotatable around a rotation axis (sixth axis O6) parallel to the vertical direction.
  • the distal end of the sixth link 5313f is fixedly connected to the proximal end of the sixth joint portion 5311f.
  • the sixth link 5313f is a rod-like member extending in the vertical direction, and its base end is fixedly connected to the upper surface of the base portion 5315.
  • the rotatable range of the first joint portion 5311a to the sixth joint portion 5311f is appropriately set so that the microscope portion 5303 can perform a desired movement.
  • a total of 6 degrees of freedom of translational 3 degrees of freedom and 3 degrees of freedom of rotation can be realized with respect to the movement of the microscope unit 5303.
  • the position and posture of the microscope unit 5303 can be freely controlled within the movable range of the arm unit 5309. It becomes possible. Therefore, the surgical site can be observed from any angle, and the surgery can be performed more smoothly.
  • the configuration of the arm portion 5309 shown in the figure is merely an example, and the number and shape (length) of the links constituting the arm portion 5309, the number of joint portions, the arrangement position, the direction of the rotation axis, and the like are desired. It may be designed as appropriate so that the degree can be realized.
  • the arm unit 5309 in order to freely move the microscope unit 5303, the arm unit 5309 is preferably configured to have six degrees of freedom, but the arm unit 5309 has a greater degree of freedom (ie, redundant freedom). Degree).
  • the arm unit 5309 can change the posture of the arm unit 5309 while the position and posture of the microscope unit 5303 are fixed. Therefore, for example, control that is more convenient for the operator can be realized, such as controlling the posture of the arm unit 5309 so that the arm unit 5309 does not interfere with the field of view of the operator who views the display device 5319.
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with actuators mounted with a drive mechanism such as a motor, an encoder for detecting a rotation angle at each joint portion, and the like. Then, the drive of each actuator provided in the first joint portion 5311a to the sixth joint portion 5311f is appropriately controlled by the control device 5317, whereby the posture of the arm portion 5309, that is, the position and posture of the microscope portion 5303 can be controlled. . Specifically, the control device 5317 grasps the current posture of the arm unit 5309 and the current position and posture of the microscope unit 5303 based on information about the rotation angle of each joint unit detected by the encoder. Can do.
  • a drive mechanism such as a motor, an encoder for detecting a rotation angle at each joint portion, and the like.
  • the control device 5317 calculates the control value (for example, rotation angle or generated torque) for each joint unit that realizes the movement of the microscope unit 5303 according to the operation input from the user, using the grasped information. And the drive mechanism of each joint part is driven according to the said control value.
  • the control method of the arm unit 5309 by the control device 5317 is not limited, and various known control methods such as force control or position control may be applied.
  • the drive of the arm unit 5309 is appropriately controlled by the control device 5317 according to the operation input, and the position and posture of the microscope unit 5303 are controlled. May be.
  • the microscope unit 5303 can be moved from an arbitrary position to an arbitrary position and then fixedly supported at the position after the movement.
  • an input device that can be operated even if the operator has a surgical tool in his / her hand.
  • non-contact operation input may be performed based on gesture detection or gaze detection using a wearable device or a camera provided in an operating room.
  • the arm portion 5309 may be operated by a so-called master slave method.
  • the arm unit 5309 can be remotely operated by the user via an input device installed at a location away from the operating room.
  • the actuators of the first joint portion 5311a to the sixth joint portion 5311f are driven so that the external force from the user is received and the arm portion 5309 moves smoothly according to the external force.
  • so-called power assist control may be performed.
  • the driving of the arm portion 5309 may be controlled so as to perform a pivoting operation.
  • the pivoting operation is an operation of moving the microscope unit 5303 so that the optical axis of the microscope unit 5303 always faces a predetermined point in space (hereinafter referred to as a pivot point). According to the pivot operation, the same observation position can be observed from various directions, so that more detailed observation of the affected area is possible.
  • the pivot operation is performed in a state where the distance between the microscope unit 5303 and the pivot point is fixed. In this case, the distance between the microscope unit 5303 and the pivot point may be adjusted to a fixed focal length of the microscope unit 5303.
  • the microscope unit 5303 moves on a hemispherical surface (schematically illustrated in FIG. 30) having a radius corresponding to the focal length centered on the pivot point, and is clear even if the observation direction is changed. A captured image is obtained.
  • the microscope unit 5303 is configured to be adjustable in focal length
  • the pivot operation may be performed in a state where the distance between the microscope unit 5303 and the pivot point is variable.
  • the control device 5317 calculates the distance between the microscope unit 5303 and the pivot point based on the information about the rotation angle of each joint unit detected by the encoder, and based on the calculation result, the microscope 5317
  • the focal length of the unit 5303 may be automatically adjusted.
  • the microscope unit 5303 is provided with an AF function
  • the focal length may be automatically adjusted by the AF function every time the distance between the microscope unit 5303 and the pivot point is changed by the pivot operation. .
  • the first joint portion 5311a to the sixth joint portion 5311f may be provided with a brake that restrains the rotation thereof.
  • the operation of the brake can be controlled by the control device 5317.
  • the control device 5317 activates the brake of each joint unit. Accordingly, since the posture of the arm unit 5309, that is, the position and posture of the microscope unit 5303 can be fixed without driving the actuator, power consumption can be reduced.
  • the control device 5317 may release the brake of each joint unit and drive the actuator according to a predetermined control method.
  • Such an operation of the brake can be performed according to an operation input by the user via the operation unit 5307 described above.
  • the user wants to move the position and posture of the microscope unit 5303, the user operates the operation unit 5307 to release the brakes of the joint units.
  • the operation mode of the arm part 5309 shifts to a mode (all free mode) in which the rotation at each joint part can be freely performed.
  • the user wants to fix the position and posture of the microscope unit 5303, the user operates the operation unit 5307 to activate the brakes of the joint units.
  • the operation mode of the arm part 5309 shifts to a mode (fixed mode) in which rotation at each joint part is restricted.
  • the control device 5317 comprehensively controls the operation of the microscope operation system 5300 by controlling the operations of the microscope device 5301 and the display device 5319.
  • the control device 5317 controls the driving of the arm portion 5309 by operating the actuators of the first joint portion 5311a to the sixth joint portion 5311f according to a predetermined control method.
  • the control device 5317 changes the operation mode of the arm portion 5309 by controlling the brake operation of the first joint portion 5311a to the sixth joint portion 5311f.
  • the control device 5317 performs various kinds of signal processing on the image signal acquired by the imaging unit of the microscope unit 5303 of the microscope device 5301 to generate image data for display and display the image data. It is displayed on the device 5319.
  • the signal processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.) and / or enlargement processing (that is, Various known signal processing such as electronic zoom processing may be performed.
  • communication between the control device 5317 and the microscope unit 5303 and communication between the control device 5317 and the first joint unit 5311a to the sixth joint unit 5311f may be wired communication or wireless communication.
  • wired communication communication using electrical signals may be performed, or optical communication may be performed.
  • a transmission cable used for wired communication can be configured as an electric signal cable, an optical fiber, or a composite cable thereof depending on the communication method.
  • wireless communication there is no need to lay a transmission cable in the operating room, so that the situation where the transmission cable prevents the medical staff from moving in the operating room can be eliminated.
  • the control device 5317 may be a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), or a microcomputer or a control board in which a processor and a storage element such as a memory are mixedly mounted.
  • the various functions described above can be realized by the processor of the control device 5317 operating according to a predetermined program.
  • the control device 5317 is provided as a separate device from the microscope device 5301, but the control device 5317 is installed inside the base portion 5315 of the microscope device 5301 and integrated with the microscope device 5301. May be configured.
  • the control device 5317 may be configured by a plurality of devices.
  • a microcomputer, a control board, and the like are arranged in the microscope unit 5303 and the first joint unit 5311a to the sixth joint unit 5311f of the arm unit 5309, and these are communicably connected to each other. Similar functions may be realized.
  • the display device 5319 is provided in the operating room, and displays an image corresponding to the image data generated by the control device 5317 under the control of the control device 5317. In other words, the display device 5319 displays an image of the surgical part taken by the microscope unit 5303.
  • the display device 5319 may display various types of information related to the surgery, such as information about the patient's physical information and the surgical technique, for example, instead of or together with the image of the surgical site. In this case, the display of the display device 5319 may be switched as appropriate by a user operation.
  • a plurality of display devices 5319 may be provided, and each of the plurality of display devices 5319 may display an image of the surgical site and various types of information regarding surgery.
  • various known display devices such as a liquid crystal display device or an EL (Electro Luminescence) display device may be applied.
  • FIG. 31 is a diagram showing a state of surgery using the microscope surgery system 5300 shown in FIG.
  • FIG. 31 schematically shows a state in which an operator 5321 is performing an operation on a patient 5325 on a patient bed 5323 using a microscope operation system 5300.
  • the control device 5317 is omitted from the configuration of the microscope surgery system 5300, and the microscope device 5301 is simplified.
  • an image of the surgical part taken by the microscope apparatus 5301 is enlarged and displayed on the display device 5319 installed on the wall of the operating room, using the microscope operation system 5300.
  • the display device 5319 is installed at a position facing the surgeon 5321, and the surgeon 5321 observes the state of the surgical site by an image projected on the display device 5319, for example, the surgical site such as excision of the affected site.
  • Various treatments are performed on
  • the microscopic surgery system 5300 to which the technology according to the present disclosure can be applied has been described.
  • the microscopic surgery system 5300 has been described as an example, but a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the microscope apparatus 5301 can function as a support arm apparatus that supports another observation apparatus or another surgical tool instead of the microscope unit 5303 at the tip.
  • an endoscope can be applied.
  • the other surgical tools forceps, a lever, an insufflation tube for insufflation, or an energy treatment instrument for incising a tissue or sealing a blood vessel by cauterization can be applied.
  • the technology according to the present disclosure may be applied to a support arm device that supports a configuration other than the microscope unit.
  • the technology according to the present disclosure can be suitably applied to the cylindrical portion 5305 in FIG. 30 among the configurations described above.
  • the solid-state imaging device 200 illustrated in FIG. 2 is used for the imaging unit in the cylindrical part 5305.
  • Application of the solid-state imaging device 200 reduces the number of times of readout at the time of pixel addition, so that power consumption of the microscopic surgery system 5300 can be reduced.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an in-vivo information acquisition system for a patient using a capsule endoscope.
  • FIG. 32 is a diagram illustrating an example of a schematic configuration of an in-vivo information acquisition system 5400 to which the technology according to the present disclosure can be applied.
  • the in-vivo information acquisition system 5400 includes a capsule endoscope 5401 and an external control device 5423 that comprehensively controls the operation of the in-vivo information acquisition system 5400.
  • the capsule endoscope 5401 is swallowed by the patient.
  • the capsule endoscope 5401 has an imaging function and a wireless communication function, and moves inside the organs such as the stomach and intestine by peristaltic movement or the like until it is spontaneously discharged from the patient.
  • Images are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 5423 outside the body.
  • the external control device 5423 generates image data for displaying the in-vivo image on a display device (not shown) based on the received information about the in-vivo image.
  • an image obtained by imaging the state of the patient's body can be obtained at any time from when the capsule endoscope 5401 is swallowed until it is discharged.
  • a capsule endoscope 5401 includes a light source unit 5405, an imaging unit 5407, an image processing unit 5409, a wireless communication unit 5411, a power supply unit 5415, a power supply unit 5417, and a state detection unit in a capsule-type housing 5403.
  • the functions of the unit 5419 and the control unit 5421 are mounted.
  • the light source unit 5405 is composed of a light source such as an LED (light emitting diode), and irradiates light onto the imaging field of the imaging unit 5407.
  • a light source such as an LED (light emitting diode)
  • the imaging unit 5407 includes an imaging device and an optical system including a plurality of lenses provided in the preceding stage of the imaging device. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. The imaging element receives the observation light and photoelectrically converts it to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal generated by the imaging unit 5407 is provided to the image processing unit 5409.
  • various known imaging devices such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor may be used.
  • the image processing unit 5409 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 5407.
  • the signal processing may be minimal processing (for example, image data compression, frame rate conversion, data rate conversion, and / or format conversion, etc.) for transmitting the image signal to the external control device 5423.
  • the image processing unit 5409 is configured to perform only the minimum necessary processing, the image processing unit 5409 can be realized with a smaller size and lower power consumption. Is preferred. However, if there is room in the space or power consumption in the housing 5403, the image processing unit 5409 may perform further signal processing (for example, noise removal processing or other high image quality processing). Good.
  • the image processing unit 5409 provides the image signal subjected to signal processing to the wireless communication unit 5411 as RAW data.
  • the state detection unit 5419 acquires information about the state (movement, posture, etc.) of the capsule endoscope 5401
  • the image processing unit 5409 associates the information with the information and wirelessly transmits the image signal.
  • the communication unit 5411 may be provided. Thereby, the position in the body where the image was captured, the imaging direction of the image, and the like can be associated with the captured image.
  • the wireless communication unit 5411 includes a communication device that can transmit and receive various types of information to and from the external control device 5423.
  • the communication apparatus includes an antenna 5413, a processing circuit that performs modulation processing for signal transmission and reception, and the like.
  • the wireless communication unit 5411 performs predetermined processing such as modulation processing on the image signal subjected to signal processing by the image processing unit 5409, and transmits the image signal to the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 receives a control signal related to drive control of the capsule endoscope 5401 from the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 provides the received control signal to the control unit 5421.
  • the power feeding unit 5415 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like.
  • the power feeding unit 5415 generates power using a so-called non-contact charging principle. Specifically, when an external magnetic field (electromagnetic wave) is applied to the antenna coil of the power feeding unit 5415, an induced electromotive force is generated in the antenna coil.
  • the electromagnetic wave may be a carrier wave transmitted from the external control device 5423 via the antenna 5425, for example. Electric power is regenerated from the induced electromotive force by the power regeneration circuit, and the potential is appropriately adjusted in the booster circuit, thereby generating power for storage.
  • the electric power generated by the power supply unit 5415 is stored in the power supply unit 5417.
  • the power supply unit 5417 is configured by a secondary battery and stores the electric power generated by the power supply unit 5415.
  • FIG. 32 in order to avoid complication of the drawing, illustration of an arrow or the like indicating a power supply destination from the power supply unit 5417 is omitted, but power stored in the power supply unit 5417 is stored in the light source unit 5405.
  • the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the state detection unit 5419, and the control unit 5421 can be used for driving them.
  • the state detection unit 5419 includes a sensor for detecting the state of the capsule endoscope 5401 such as an acceleration sensor and / or a gyro sensor.
  • the state detection unit 5419 can acquire information about the state of the capsule endoscope 5401 from the detection result of the sensor.
  • the state detection unit 5419 provides the acquired information about the state of the capsule endoscope 5401 to the image processing unit 5409.
  • information about the state of the capsule endoscope 5401 can be associated with the image signal.
  • the control unit 5421 is configured by a processor such as a CPU, and performs overall control of the operation of the capsule endoscope 5401 by operating according to a predetermined program.
  • the control unit 5421 drives the light source unit 5405, the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the power supply unit 5415, the power supply unit 5417, and the state detection unit 5419 according to a control signal transmitted from the external control device 5423. By appropriately controlling, the function in each unit as described above is realized.
  • the external control device 5423 may be a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 5423 includes an antenna 5425 and is configured to be able to transmit and receive various types of information to and from the capsule endoscope 5401 through the antenna 5425.
  • the external control device 5423 controls the operation of the capsule endoscope 5401 by transmitting a control signal to the control unit 5421 of the capsule endoscope 5401.
  • the light irradiation condition for the observation target in the light source unit 5405 can be changed by a control signal from the external control device 5423.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • the content of processing in the image processing unit 5409 and the conditions for example, the transmission interval and the number of transmission images
  • the wireless communication unit 5411 to transmit an image signal may be changed by a control signal from the external control device 5423.
  • the external control device 5423 performs various image processing on the image signal transmitted from the capsule endoscope 5401, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various known signal processing such as electronic zoom processing may be performed.
  • the external control device 5423 controls driving of a display device (not shown) to display an in-vivo image captured based on the generated image data.
  • the external control device 5423 may cause the generated image data to be recorded on a recording device (not shown) or may be printed out on a printing device (not shown).
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be any kind of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor).
  • FIG. 33 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, a vehicle exterior information detection unit 7400, a vehicle interior information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 for connecting the plurality of control units conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
  • control unit 7600 As a functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 7200 can be input with radio waves or various switch signals transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the outside information detection unit 7400 detects information outside the vehicle on which the vehicle control system 7000 is mounted.
  • the outside information detection unit 7400 is connected to at least one of the imaging unit 7410 and the outside information detection unit 7420.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 7420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 34 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
  • FIG. 34 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
  • the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
  • These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the vehicle interior information detection unit 7500 detects vehicle interior information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • Driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects biometric information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 7500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
  • a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or wireless LAN (Wi-Fi (registered trademark)). Other wireless communication protocols such as Bluetooth (registered trademark) may also be implemented.
  • the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point.
  • the general-purpose communication I / F 7620 is a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle using, for example, P2P (Peer To Peer) technology. You may connect with.
  • a terminal for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal
  • P2P Peer To Peer
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
  • the dedicated communication I / F 7630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 7630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a radio station installed on the road, and acquires information such as the current position, traffic jam, closed road, or required time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I / F 7630 described above.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition Link) via a connection terminal (and a cable if necessary). ) Etc. may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried into or attached to the vehicle.
  • In-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • In-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
  • the display portion 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • the display device can display the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
  • the solid-state imaging device 200 can be applied to the integrated control unit 7600 of the application example illustrated in FIG.
  • the solid-state imaging device 200 corresponds to the imaging unit 7410 of the integrated control unit 7600.
  • the solid-state imaging device 200 performs pixel addition in accordance with the control of the integrated control unit 7600.
  • the technology according to the present disclosure can be suitably applied to the imaging unit 5407 illustrated in FIG. 32 among the configurations described above.
  • the solid-state imaging device 200 illustrated in FIG. 2 is used for the imaging unit 5407.
  • the application of the solid-state imaging device 200 reduces the number of times of readout at the time of pixel addition, so that the power consumption of the in-vivo information acquisition system 5400 can be reduced.
  • the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it.
  • a recording medium for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.
  • this technique can also take the following structures. (1) a predetermined number of blocks each provided with a plurality of normal pixels arranged in a predetermined direction; A light-shielding region in which the predetermined number of light-shielding pixels connected to the different blocks are arranged in the predetermined direction; A scanning circuit that controls each of the plurality of normal pixels in the block to transfer charges from the block to the light-shielding pixels corresponding to the block; A solid-state imaging device comprising: a signal processing circuit provided for each light-shielded pixel, a signal processing circuit that processes a signal generated by the light-shielded pixel based on the transferred charge.
  • the normal pixel is A floating diffusion layer for accumulating the charge;
  • the solid-state imaging device according to (1) further including a connection transistor that connects the light-shielding pixel and the floating diffusion layer.
  • the solid-state imaging device according to (2), wherein the normal pixel further includes a reset transistor that initializes the amount of the electric charge of the floating diffusion layer.
  • the connection transistor is a reset transistor that initializes the floating diffusion layer.
  • the row scanning circuit simultaneously transmits a reset signal instructing initialization of the floating diffusion layer and a connection signal instructing connection of the floating diffusion layer to any one of (2) to (4) The solid-state imaging device described.
  • the row scanning circuit transmits a connection signal instructing connection of the floating diffusion layer after transmitting a reset signal instructing initialization of the floating diffusion layer.
  • the normal pixel is A photoelectric conversion element that photoelectrically converts light to generate the charge;
  • the shading pixel is A charge storage section for storing the transferred charge;
  • each of the blocks includes a plurality of pixel blocks each provided with the plurality of normal pixels sharing a floating diffusion layer.
  • One of the pair of normal pixels adjacent to each other among the plurality of normal pixels transfers the charge to the other of the pair of normal pixels according to the control of the row scanning circuit.
  • a predetermined number of blocks each provided with a plurality of normal pixels arranged in a predetermined direction;
  • a light-shielding region in which the predetermined number of light-shielding pixels connected to the different blocks are arranged in the predetermined direction;
  • a scanning circuit that controls each of the plurality of normal pixels in the block to transfer charges from the block to the light-shielding pixels corresponding to the block;
  • a signal processing unit provided for each of the light-shielded pixels, a signal processing circuit for processing the signal generated by the light-shielded pixel based on the transferred charge and generating data;
  • An imaging apparatus comprising: a recording unit that records the generated data.
  • a predetermined number of blocks each provided with a plurality of normal pixels arranged in a predetermined direction, and a light shielding region in which the predetermined number of light shielding pixels connected to different blocks are arranged in the predetermined direction.
  • a scanning procedure for controlling each of the plurality of normal pixels in the block in the pixel array unit provided with a charge transfer from the block to the light-shielding pixel corresponding to the block;
  • Imaging device 110 Imaging lens 120 Recording part 130 Imaging control part 200
  • Solid-state image sensor 210 Row scanning circuit 220 Pixel array part 221 Light-receiving area 222, 300 Pixel block 223 Light-shielding area 224 Addition block 230, 350, 360 Normal pixel 231 242 309, 353 Reset transistor 232, 241, 363 Connection transistor 233, 246, 311, 354, 364 Amplification transistor 234, 243, 301, 302, 305, 306, 312, 313, 317, 318, 352, 362 Transfer transistor 235, 310, 356, 366 Floating diffusion layer 236, 247, 314, 355, 365 Select transistor 237, 244, 303, 304, 307, 308, 315, 316, 319, 320, 35 , 361 the photoelectric conversion element 240 light-shielded pixel 250 DAC 255 Constant current source 260
  • Signal processing unit 261 AD converter 262 Comparator 263 Counter 270 Timing control unit 280
  • Column scanning circuit 220 Pixel

Abstract

画素加算を行う固体撮像素子において、消費電力を低減する。 固体撮像素子には、所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、互いに異なる前記ブロックに接続された所定数の遮光画素が前記所定方向に配列された遮光領域とが設けられる。走査回路は、ブロック内の複数の通常画素のそれぞれを制御してブロックからブロックに対応する遮光画素へ電荷を転送させる。信号処理部には、転送された電荷に基づいて遮光画素により生成された信号を処理する信号処理回路が前記遮光画素ごとに設けられる。

Description

固体撮像素子、撮像装置、および、固体撮像素子の制御方法
 本技術は、固体撮像素子、撮像装置、および、固体撮像素子の制御方法に関する。詳しくは、複数の画素信号を加算する固体撮像素子、撮像装置、および、固体撮像素子の制御方法に関する。
 近年、固体撮像素子の高機能化、高度化が進展しており、被写体の動きを検出する動き検出機能や照度の検出機能を備える固体撮像素子が登場している。これらの動き検出や照度検出の際は、一般に、画像データを撮像する場合と比較して高SN比、低消費電力、および、広ダイナミックレンジが要求される一方で、高解像度や高フレームレートは要求されない。そこで、動き検出や照度検出の際に、複数の画素の画素信号を加算して読み出す固体撮像素子が提案されている(例えば、特許文献1参照。)。
特開2014-209696号公報
 上述の従来技術では、それぞれが2行×2列の画素からなる複数の画素ブロック毎に画素アレイ部を分割し、画素ブロック内の4画素の画素信号を加算している。この画素加算により、行を読み出す回数は、画素加算しない場合と比較して半分になるため、固体撮像素子の撮像時の消費電力を低減することができる。しかしながら、上述の従来技術では、さらに消費電力を低減することが困難である。すなわち、3行×3列などに画素ブロックのサイズを大きくし、行を読み出す回数をさらに少なくすれば、消費電力を低減することができるが、その分、動き検出や照度検出の精度が低下してしまう。このように、動き検出等の精度を維持しつつ、消費電力を低減することができないという問題がある。
 本技術はこのような状況に鑑みて生み出されたものであり、画素加算を行う固体撮像素子において、消費電力を低減することを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、互いに異なる上記ブロックに接続された上記所定数の遮光画素が上記所定方向に配列された遮光領域と、上記ブロック内の上記複数の通常画素のそれぞれを制御して上記ブロックから当該ブロックに対応する上記遮光画素へ電荷を転送させる走査回路と、上記転送された電荷に基づいて上記遮光画素により生成された信号を処理する信号処理回路が上記遮光画素ごとに設けられた信号処理部とを具備する固体撮像素子、および、その制御方法である。これにより、ブロックから対応する遮光画素へ電荷が転送されて、その遮光画素により生成された信号が処理されるという作用をもたらす。
 また、この第1の側面において、上記通常画素は、上記電荷を蓄積する浮遊拡散層と、上記遮光画素と上記浮遊拡散層とを接続する接続トランジスタとを備えてもよい。これにより、浮遊拡散層から遮光画素に電荷が転送されるという作用をもたらす。
 また、この第1の側面において、上記通常画素は、上記浮遊拡散層の上記電荷の量を初期化するリセットトランジスタをさらに備えてもよい。これにより、浮遊拡散層の電荷が初期化されるという作用をもたらす。
 また、この第1の側面において、上記接続トランジスタは、上記浮遊拡散層を初期化するリセットトランジスタであってもよい。これにより、リセットトランジスタにより電荷の初期化と電荷の転送とが行われるという作用をもたらす。
 また、この第1の側面において、上記行走査回路は、上記浮遊拡散層の初期化を指示するリセット信号と上記浮遊拡散層の接続を指示する接続信号とを同時に送信してもよい。これにより、初期化された浮遊拡散層が接続されるという作用をもたらす。
 また、この第1の側面において、上記行走査回路は、上記浮遊拡散層の初期化を指示するリセット信号を送信した後に上記浮遊拡散層の接続を指示する接続信号を送信してもよい。これにより、初期化の後に浮遊拡散層が接続されるという作用をもたらす。
 また、この第1の側面において、上記通常画素は、光を光電変換して上記電荷を生成する光電変換素子と、上記遮光画素と上記光電変換素子とを接続する接続トランジスタとを備えてもよい。これにより、光電変換素子から遮光画素へ電荷が転送されるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、上記転送された電荷を蓄積する電荷蓄積部と、上記蓄積された電荷の量に応じた信号を増幅する増幅トランジスタとを備えてもよい。これにより、転送された電荷の量に応じた信号が増幅されるという作用をもたらす。
 また、この第1の側面において、上記遮光画素は、光電変換素子をさらに備えてもよい。これにより、通常画素と同様の回路構成の遮光画素へ電荷が転送されるという作用をもたらす。
 また、この第1の側面において、上記ブロックのそれぞれは、浮遊拡散層を共有する上記複数の通常画素がそれぞれに設けられた複数の画素ブロックを備えてもよい。これにより、複数の画素ブロックのそれぞれの信号が加算されるという作用をもたらす。
 また、この第1の側面において、上記複数の通常画素のうち隣接する一対の通常画素の一方は、上記行走査回路の制御に従って上記一対の通常画素の他方に上記電荷を転送してもよい。これにより、隣接する一対の通常画素の一方から他方へ電荷が転送されるという作用をもたらす。
 また、本技術の第2の側面は、所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、互いに異なる上記ブロックに接続された上記所定数の遮光画素が上記所定方向に配列された遮光領域と、上記ブロック内の上記複数の通常画素のそれぞれを制御して上記ブロックから当該ブロックに対応する上記遮光画素へ電荷を転送させる走査回路と、上記転送された電荷に基づいて上記遮光画素により生成された信号を処理してデータを生成する信号処理回路が上記遮光画素ごとに設けられた信号処理部と、上記生成されたデータを記録する記録部とを具備する撮像装置である。これにより、ブロックから対応する遮光画素へ電荷が転送されて、その遮光画素により生成された信号から生成されたデータが記録されるという作用をもたらす。
 本技術によれば、画素加算を行う固体撮像素子において、消費電力を低減することができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の一構成例を示すブロック図である。 本技術の第1の実施の形態における画素アレイ部の一構成例を示す平面図である。 本技術の第1の実施の形態における信号処理部の一構成例を示すブロック図である。 本技術の第1の実施の形態における通常画素の一構成例を示す回路図である。 本技術の第1の実施の形態における遮光画素の一構成例を示す回路図である。 本技術の第1の実施の形態における画素加算方法を説明するための図である。 本技術の第1の実施の形態における画素ブロックのレイアウトの一例を示す図である。 本技術の第1の実施の形態における通常読出し期間の固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第1の実施の形態における画素加算読出し期間の固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第1の実施の形態における接続信号の期間を短くしたタイミングチャートである。 本技術の第1の実施の形態における固体撮像素子の動作の一例を示すフローチャートである。 本技術の第1の実施の形態の変形例における画素加算読出し期間の固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第1の実施の形態の変形例における固体撮像素子の動作の一例を示すフローチャートである。 本技術の第2の実施の形態における通常画素の一構成例を示す回路図である。 本技術の第2の実施の形態における画素加算読出し期間の固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第3の実施の形態における遮光画素の一構成例を示す回路図である。 本技術の第4の実施の形態における通常画素の一構成例を示す回路図である。 本技術の第4の実施の形態における画素加算読出し期間の固体撮像素子の動作の一例を示すタイミングチャートである。 本技術の第5の実施の形態における画素アレイ部および信号処理部の一構成例を示す平面図である。 本技術の第5の実施の形態における画素ブロックの一構成例を示す回路図である。 本技術の第6の実施の形態における画素アレイ部の一構成例を示す平面図である。 本技術の第6の実施の形態における通常画素の一構成例を示す回路図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 図24に示すカメラヘッド及びCCU(Camera Control Unit)の機能構成の一例を示すブロック図である。 手術室システムの全体構成を概略的に示す図である。 集中操作パネルにおける操作画面の表示例を示す図である。 手術室システムが適用された手術の様子の一例を示す図である。 図28に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 顕微鏡手術システムの概略的な構成の一例を示す図である。 図30に示す顕微鏡手術システムを用いた手術の様子を示す図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(画素ブロックから遮光画素へ電荷を転送する例)
 2.第2の実施の形態(リセットトランジスタが画素ブロックから遮光画素へ電荷を転送する例)
 3.第3の実施の形態(画素ブロックから、光電変換素子の無い遮光画素へ電荷を転送する例)
 4.第4の実施の形態(画素ブロック内の光電変換素子から遮光画素へ電荷を転送する例)
 5.第5の実施の形態(加算ブロックから遮光画素へ電荷を転送する例)
 6.第6の実施の形態(一対の画素間で電荷を転送し、画素ブロックから遮光画素へ電荷を転送する例)
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、画像データを撮像する装置であり、撮像レンズ110、固体撮像素子200、記録部120および撮像制御部130を備える。撮像装置100としては、アクションカムや車載カメラなどが想定される。
 撮像レンズ110は、光を集光して固体撮像素子200に導くものである。固体撮像素子200は、撮像制御部130の制御に従って画像データを生成するものである。この固体撮像素子200は、生成した画像データを記録部120に信号線209を介して供給する。記録部120は、画像データを記録するものである。
 撮像制御部130は、撮像装置100全体を制御するものである。この撮像制御部130は、撮像タイミングを示す垂直同期信号などを信号線139を介して固体撮像素子200に供給する。
 なお、撮像レンズ110、固体撮像素子200、記録部120および撮像制御部130を同一の装置に配置しているが、これらを複数の装置に分散して配置することもできる。例えば、撮像レンズ110をレンズユニットに配置し、固体撮像素子200などを撮像装置100に配置してもよい。
 [固体撮像素子の構成例]
 図2は、第1の実施の形態における固体撮像素子200の一構成例を示すブロック図である。この固体撮像素子200は、行走査回路210、画素アレイ部220、DAC(Digital to Analog Converter)250、信号処理部260、タイミング制御部270、列走査回路280および画像処理部290を備える。
 また、画素アレイ部220には、二次元格子状に複数の画素回路が設けられる。以下、所定の方向(水平方向など)に配列された画素回路の集合を「行」と称し、行に垂直な方向に配列された画素回路の集合を「列」と称する。なお、画素アレイ部220は、特許請求の範囲に記載のアレイ部の一例である。
 行走査回路210は、画素回路を駆動して画素信号を出力させるものである。また、行走査回路210は、画素アレイ部220を制御して、隣接する複数の画素のそれぞれの画素信号を必要に応じて加算させる。なお、行走査回路210は、特許請求の範囲に記載の走査回路の一例である。
 タイミング制御部270は、行走査回路210、信号処理部260および列走査回路280のそれぞれが動作するタイミングを制御するものである。DAC250は、DA(Digital to Analog)変換により、ランプ信号を生成して信号処理部260に供給するものである。
 信号処理部260は、画素信号に対してAD変換などの信号処理を行って画素データを生成するものである。列走査回路280は、信号処理部260を制御して画素データを画像処理部290に転送させるものである。
 画像処理部290は、画素データからなる画像データに対して様々な画像処理を実行するものである。この画像処理において例えば、デモザイク処理やホワイトバランス処理などが実行される。画像処理後の画像データは、記録部120に送信される。また、画素加算が行われた場合には、動きの検出処理や照度検出処理が実行される。動きの検出処理においては、フレーム間差分法や背景差分法などにより、画像内の被写体の動きの有無や動きベクトルなどが検出される。照度の検出処理においては、加算単位ごとのデータを加重加算する演算などにより、照度に応じた測光量が求められる。
 動きや照度の検出結果は、撮像制御部130に送信される。動きの検出結果は、動きのあった場合にフレームレートを変更するアプリケーションなどの各種のアプリケーションに用いられる。また、照度の検出結果は、露光量の制御などに用いられる。
 なお、画像処理部290を固体撮像素子200内に配置しているが、この画像処理部290を固体撮像素子200の外部に配置してもよい。
 また、固体撮像素子200内の回路のそれぞれは、単一の半導体基板に配置してもよいし、積層した複数の半導体基板に分散して配置してもよい。
 [画素アレイ部の構成例]
 図3は、第1の実施の形態における画素アレイ部220の一構成例を示す平面図である。画素アレイ部220は、遮光されていない受光領域221と、遮光された遮光領域223とに分割される。受光領域221には、複数の通常画素230が二次元格子状に配列される。遮光領域223には、通常画素230の列ごとに遮光画素240が配列される。この遮光画素240は、OPB(OPtical Black)画素やダミー画素とも呼ばれる。
 通常画素230の行数をN(Nは整数)、列数をM(Mは列数)とすると、水平方向にM個の遮光画素240が配列される。
 画素アレイ部220において列ごとに、接続線239-m(mは0乃至M-1の整数)と垂直信号線229-mとが垂直方向に配線される。また、通常画素230の行のそれぞれには4本の水平信号線が水平方向に配線される。
 4本の水平信号線のうち1本は、接続信号FDCn(nは0乃至N-1の整数)を伝送し、1本は、リセット信号RSTnを伝送し、1本は転送信号TRGnを伝送し、残りの1本は選択信号SELnを伝送する。これらの接続信号FDCn、リセット信号RSTn、転送信号TRGnおよび選択信号SELnは、行走査回路210により生成され、n行に供給される。
 また、接続信号FDCnは、通常画素230内の浮遊拡散層と接続線239-mとの接続を指示する信号であり、リセット信号RSTnは、その浮遊拡散層の電荷量の初期化を指示する信号である。転送信号TRGnは、通常画素230内の電荷の転送を指示する信号であり、選択信号SELnは、垂直信号線229-mを介して画素信号の出力を指示する信号である。
 遮光画素240の行にも4本の水平信号線が配線される。これらの水平信号線のうち1本は、接続信号FDCbを伝送し、1本は、リセット信号RSTbを伝送し、1本は転送信号TRGbを伝送し、残りの1本は選択信号SELbを伝送する。これらの接続信号FDCb、リセット信号RSTb、転送信号TRGbおよび選択信号SELbは、行走査回路210により生成される。
 接続信号FDCbは、遮光画素240内の浮遊拡散層と接続線239-mとの接続を指示する信号であり、リセット信号RSTbは、その浮遊拡散層の電荷量の初期化を指示する信号である。転送信号TRGbは、遮光画素240内の電荷の転送を指示する信号であり、選択信号SELbは、垂直信号線229-mを介して画素信号の出力を指示する信号である。
 [信号処理部の構成例]
 図4は、第1の実施の形態における信号処理部260の一構成例を示すブロック図である。この信号処理部260には、列ごとにAD変換器261が設けられる。列数がMであるため、水平方向にM個のAD変換器261が配列される。AD変換器261のそれぞれは、コンパレータ262およびカウンタ263を備える。
 m番目のAD変換器261は、m列の垂直信号線229-mに接続される。また、垂直信号線229-mと接地端子との間には、定電流源255が挿入される。
 コンパレータ262は、対応する垂直信号線229-mからの画素信号と、DAC250からのランプ信号REFとを比較するものである。例えば、のこぎり刃状の信号がランプ信号REFとして供給される。コンパレータ262は、比較結果をカウンタ263に供給する。
 カウンタ263は、比較結果が反転するまでの間、タイミング制御部270からのクロック信号CLKに同期して計数値を計数するものである。このカウンタ263は、列走査回路280の制御に従って、計数値を示すデジタル信号を画素データとして画像処理部290に出力する。
 [通常画素の構成例]
 図5は、第1の実施の形態における通常画素230の一構成例を示す回路図である。この通常画素230は、リセットトランジスタ231、接続トランジスタ232、増幅トランジスタ233、転送トランジスタ234、浮遊拡散層235、選択トランジスタ236および光電変換素子237を備える。
 光電変換素子237は、入射光を光電変換して電荷を生成するものである。転送トランジスタ234は、転送信号TRGnに従って、光電変換素子237から浮遊拡散層235へ電荷を転送するものである。浮遊拡散層235は、電荷を蓄積して、蓄積した電荷の量に応じた電圧を生成するものである。
 リセットトランジスタ231は、リセット信号RSTnに従って、浮遊拡散層235の電荷量を初期化するものである。接続トランジスタ232は、接続信号FDCnに従って、浮遊拡散層235と接続線239-mとを接続するものである。
 増幅トランジスタ233は、浮遊拡散層235の電圧に応じた信号を増幅するものである。選択トランジスタ236は、選択信号SELnに従って、増幅トランジスタ233により増幅された信号を画素信号として垂直信号線229-mに出力するものである。
 [遮光画素の構成例]
 図6は、第1の実施の形態における遮光画素240の一構成例を示す回路図である。この遮光画素240は、接続トランジスタ241、リセットトランジスタ242、転送トランジスタ243、光電変換素子244、浮遊拡散層245、増幅トランジスタ246および選択トランジスタ247を備える。これらのトランジスタの接続構成は、通常画素230と同様である。遮光画素240は遮光されているため、光電変換素子244および転送トランジスタ243は不要であるが、通常画素230および遮光画素240のレイアウトを同一にした方が、画素アレイ部220の製造が容易となるため、これらを設けている。
 図7は、第1の実施の形態における画素加算方法を説明するための図である。受光領域221は、複数の画素ブロック222により分割される。それぞれの画素ブロック222は、水平方向に配列された複数の画素からなる所定数のラインが設けられる。例えば、画素ブロック222のそれぞれに2行×2列の通常画素230が配列される。
 また、遮光画素240と画素ブロック222とは、接続線239-mを介して1対1で接続される。また、遮光画素240の個数は、画素ブロックの個数以上である。例えば、遮光画素240および画素ブロックの個数は、いずれもM個である。
 例えば、最も左下の画素ブロックB00は、0番目の遮光画素240と接続される。画素ブロックB00の上側の画素ブロックB01は、1番目の遮光画素240と接続される。また、画素ブロックB00の右側の画素ブロックB10は、2番目の遮光画素240と接続され、画素ブロックB01の右側の画素ブロックB11は、3番目の遮光画素240と接続される。
 行走査回路210は、接続信号FDCnにより画素ブロック222のそれぞれを制御して、画素ブロック222から、対応する遮光画素240へ電荷を転送させる。図7において、点線の矢印は、電荷の転送元および転送先を示す。
 行走査回路210の制御により、画素ブロック222内の通常画素230のそれぞれの電荷の量が加算される。加算された電荷量に応じた画素信号は、転送先の遮光画素240から読み出され、その列のAD変換器261により処理される。
 ここで、遮光画素240に転送せずに、画素ブロック222ごとに電荷量を加算して読み出す比較例を想定する。この比較例では、2行×2列の画素加算により、読み出す行数は、加算しない場合と比較して1/2となる。例えば、行数Nが1440である場合には、720回の読出しが必要となる。
 これに対して、遮光画素240に転送する固体撮像素子200では、画素ブロック内の電荷は、1行の遮光領域223に転送されるため、読み出す回数は1回でよい。このように、遮光画素240に転送することにより、転送しない場合よりも読出しの回数を少なくすることができる。
 このように読出し回数を少なくすると、AD変換などを行う信号処理部260の周辺の回路の消費電力が低減する。例えば、信号処理部260にクロック信号を供給するタイミング制御部270や、ランプ信号を供給するDAC250の消費電力を減らすことができる。
 さらに、読出し回数を少なくするとAD変換に要する時間(言い換えれば、動作時間)が短くなる。複数枚の画像データ(フレーム)を連続的に一定間隔で読み出す場合において、1フレームを読み出す期間のうち動作時間を大幅に減らせば、効率よく電力を落とすことができる。センサ(固体撮像素子200)動作の復帰時間を考慮すると、AD変換の時間を短くするほど、1フレーム内の停止時間の割合が向上し、より大きな電力低下を見込むことができる。
 なお、遮光画素240の行数を1行としているが、2行以上であってもよい。画素ブロックの個数が列数Mより多い場合には、2行以上の遮光画素240が設けられる。また、画素ブロック222のサイズを2行×2列としているが、2列以上であれば、行数および列数は限定されない。例えば、3行×3列の画素ブロック222で画素加算を行ってもよい。また、図8に例示するように、行全体を画素ブロック222としてもよい。
 [固体撮像素子の動作例]
 図9は、第1の実施の形態における通常読出し期間の固体撮像素子200の動作の一例を示すタイミングチャートである。この通常読出し期間は、画素加算を行わずに画素信号を読み出すための期間である。
 タイミングT0において、行走査回路210は、選択信号SEL0、リセット信号RSTbおよび接続信号FDCbをハイレベルに制御する。そして、タイミングT0の後のタイミングT1において行走査回路210は、所定のパルス期間に亘ってリセット信号RST0をハイレベルに制御する。これにより、0行目の浮遊拡散層235が初期化され、接続線239-mの電位が初期化される。
 タイミングT0の後のタイミングT2において、行走査回路210は、所定のパルス期間に亘って転送信号TRG0をハイレベルに制御する。この制御により、0行目の浮遊拡散層235に電荷が転送される。また、行走査回路210は、タイミングT2の後のタイミングT3において選択信号SEL0をローレベルに制御する。この制御により0行目の読出しが終了する。
 また、各列のAD変換器261は、タイミングT1からタイミングT2までの間において画素信号のレベルをリセットレベルとしてサンプリングする。そして、タイミングT2からタイミングT3までの間において、AD変換器261は、画素信号のレベルを信号レベルとしてサンプリングする。AD変換器261の後段の画像処理部290は、リセットレベルおよび信号レベルの差分を算出するCDS(Correlated Double Sampling)処理を行う。
 タイミングT3以降は、1行目以降の読出しが順に行われる。それぞれの行の初期化および転送は、前の行の初期化および転送のタイミングから一定時間が経過したときに開始される。このような制御は、ローリングシャッター方式と呼ばれる。なお、固体撮像素子200は、全画素を読み出しているが、行や列の一部を間引いて読み出してもよい。
 図10は、第1の実施の形態における画素加算読出し期間の固体撮像素子200の動作の一例を示すタイミングチャートである。この画素加算読出し期間は、画素ブロックごとに画素信号を加算して読み出すための期間である。
 タイミングT10において、行走査回路210は、接続信号FDCnおよびFDCbと選択信号SELbとをハイレベルに制御する。そして、タイミングT10の後のタイミングT11において、行走査回路210は、リセット信号RSTnおよびRSTbを所定のパルス期間に亘ってハイレベルに制御する。この制御により全画素ブロックの浮遊拡散層235が初期化される。また、接続線239-mの電位がフローティングになるのを抑制し、初期化することができる。
 なお、フローティング対策として遮光画素240内の電源で初期化しているが、遮光画素240以外に設けた電源により初期化する方法も考えられる。また、初期化の際にリセット信号RSTnおよびRSTbを両方ともオンオフしているが、リセット信号RSTbのみオンオフしてもよい。
 そして、タイミングT11の後のタイミングT12において行走査回路210は、転送信号TRGnのそれぞれをパルス期間に亘ってハイレベルに制御する。これにより、全画素ブロックから遮光領域223へ電荷が転送される。このように全ブロック行の電荷転送を同時に行う制御は、グローバルシャッター方式と呼ばれる。
 また、行走査回路210は、タイミングT12の後のタイミングT13において接続信号FDCnおよびFDCbと選択信号SELbとをローレベルに制御する。この制御により加算した信号の読出しが終了する。
 また、各列のAD変換器261は、タイミングT11からタイミングT12までの間にリセットレベルをサンプリングし、タイミングT12からタイミングT13までの間に信号レベルをサンプリングする。なお、固体撮像素子200は、全画素ブロックを読み出しているが、ブロック行やブロック列の一部を間引いて読み出してもよい。
 なお、行走査回路210は、接続信号FDCbを画素加算読出し期間に亘ってハイレベルに制御しているが、図11に例示するように、タイミングT11およびT12のそれぞれからパルス期間が経過するまでの間だけハイレベルに制御してもよい。同図において、接続信号FDCbのパルス期間は、転送信号TRGnのパルス期間よりも長い時間に設定される。
 通常、接続線239-mの配線容量は小さいため、リセット信号を制御する際にフィードスルーが発生し、浮遊拡散層の電圧がリセット電圧よりも下がる可能性がある。ここで、接続線239-mを接続してリセット信号をオンオフすると、接続線239-mの配線容量が大きくなり、フィードスルーが無視できるほど小さくなって、画素信号の電圧範囲(出力レンジ)が変わってしまうおそれがある。そこで、図11に例示するように接続信号FDCbを制御してフィードスルーを再現することにより、出力レンジの変動を抑制することができる。
 図12は、第1の実施の形態における固体撮像素子200の動作の一例を示すフローチャートである。この動作は、例えば、画像データの撮像や照度測定を開始させるための操作が行われたときに開始する。
 まず、固体撮像素子200は、通常読出し期間内であるか否かを判断する(ステップS901)。通常読出し期間内である場合に(ステップS901:Yes)、固体撮像素子200は、読み出す行を選択し、読出しを行う(ステップS902)。そして、固体撮像素子200は、読出し対象の全行の読出しが完了したか否かを判断する(ステップS903)。全行の読出しが完了していない場合に(ステップS903:No)、固体撮像素子200は、ステップS902以降を繰り返し実行する。
 全行の読出しが完了した場合に(ステップS903:Yes)、固体撮像素子200は、画像データに対して画像処理を実行して記録する(ステップS904)。
 また、通常読出し期間内でない場合(ステップS901:No)に、固体撮像素子200は、画素加算読出し期間内であるか否かを判断する(ステップS905)。画素加算読出し期間内である場合に(ステップS905:Yes)、固体撮像素子200は、遮光画素240に加算した信号を転送し(ステップS906)、遮光領域から画素信号の読出しを行う(ステップS907)。そして、固体撮像素子200は、画素加算により生成された画像データに基づいて照度を検出する(ステップS908)。
 画素加算読出し期間内でない場合(ステップS905:No)、またはステップS908の後に、固体撮像素子200は、ステップS901以降を繰り返し実行する。
 このように、本技術の第1の実施の形態によれば、遮光画素240を行方向に配列し、画素ブロック222から対応する遮光画素240に電荷を転送することにより、画素ブロック222において画素加算した信号の読出し回数を低減することができる。これにより、固体撮像素子200の消費電力を低減することができる。
 [変形例]
 上述の第1の実施の形態では、固体撮像素子200が画素加算により照度を検出していたが、照度の検出の代わりに、被写体の動きを検出することもできる。被写体の動きを検出するには、例えば、加算信号を複数回に亘って読出し、前回の加算信号と今回の加算信号との差分を求める処理を固体撮像素子200が実行すればよい。この第1の実施の形態の変形例の固体撮像素子200は、画素加算により動きを検出する点において第1の実施の形態と異なる。
 図13は、第1の実施の形態の変形例における画素加算読出し期間の固体撮像素子200の動作の一例を示すタイミングチャートである。この第1の実施の形態の変形例の固体撮像素子200は、電荷転送時のタイミングT12までにおいて、接続信号FDCbをローレベルに制御する。また、タイミングT11からタイミングT12までの間において、第1の実施の形態と同様にリセットレベルが読み出される。
 そして、行走査回路210は、タイミングT12から所定のパルス期間に亘って転送信号TRGnのそれぞれをハイレベルに制御する。また、行走査回路210は、タイミングT11から所定のパルス期間に亘って接続信号FDCbをハイレベルに制御する。接続信号FDCbのパルス期間は、転送信号TRGnのパルス期間よりも長い時間に設定される。また、タイミングT12からタイミングT13までの間において第1の実施の形態と同様に信号レベルが読み出される。
 上述のリセットレベルの読出しから信号レベルの読出しまでの読出し制御は複数回に亘って実行され、それらの差分を求めるCDS処理が読出し制御のたびに実行される。1回目の読出し制御では、初期値の加算信号がリセットレベルとして読み出され、1回目の露光時間に応じた加算信号が信号レベルとして読み出される。2回目以降の読出し制御では、前回の信号レベルがリセットレベルとして再度読み出され、今回の露光時間に応じた加算信号が信号レベルとして読み出される。そして、その前回の加算信号(リセットレベル)と今回の加算信号(信号レベル)との差分がCDS処理により求められる。画像処理部290は、差分が所定の閾値を超える領域を動きのあった領域として検出する。
 図14は、第1の実施の形態の変形例における固体撮像素子200の動作の一例を示すフローチャートである。この第1の実施の形態の変形例の固体撮像素子200の動作は、照度の検出(ステップS908)の代わりに、動きの検出(S909)を行う点において第1の実施の形態と異なる。
 上述した固体撮像素子200は、低解像度、低消費電力、グローバルシャッタ動作の特徴を生かし、撮像装置100などのカメラに限らず、環境を観察するセンサなどに適用することもできる。その場合、固体撮像素子200は、消費電力の低い画素加算により、動きなどのアクションを検出し、その後に、通常読出しにより高解像度画像を得る動作が可能になる。このような動き検出機能を生体調査に応用すれば、消費電力が低いという特徴により、電池を交換する頻度を下げることができる。また、森林などに配置し、山崩れなどアクションがあった際に詳細を連絡する用途や、自然災害時を早期発見する用途などにも固体撮像素子200を用いることができる。固体撮像素子200は消費電力が低いため、電池やソーラーパネルにより長時間メンテナンスフリーで対応することができる。このため、多量のセンサを用いたアプリケーションを用いる際に有利である。
 また、動き検出の応用として、フレームレートが非常に高速化できるメリットを生かし、高速物体を検知することができる。この検知結果は、様々な用途に応用することができる。例えば、撮像制御部130が、動き検出の結果に基づいて走行中の車両数をカウントし、カウント値が一定数を超えた時に、通常読出しに移行させる制御を行うことができる。また、画像処理部290などが動き検出の結果から車両の速度を測定し、その速度が一定速度以上になったときに撮像制御部130が通常読出しに移行させることもできる。
 このように、本技術の第1の実施の形態の変形例によれば、前回の加算信号と今回の加算信号とを順に読み出す制御を複数回実行して、画素ブロックごとに前回と今回との加算信号の差分を検出するため、その差分から、被写体の動きを検出することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態では、通常画素230ごとにトランジスタを5個ずつ設けていたが、画素数が増大するに伴って画素アレイ部220の回路規模が増大してしまう。通常画素230ごとのトランジスタ数を減らせば、回路規模を削減することができる。この第2の実施の形態の固体撮像素子200は、画素アレイ部220の回路規模を削減した点において第1の実施の形態と異なる。
 図15は、第2の実施の形態における通常画素230の一構成例を示す回路図である。この第2の実施の形態の通常画素230は、接続トランジスタ232を備えない点において第1の実施の形態と異なる。また、第2の実施の形態のリセットトランジスタ231は、リセット信号RST0に従って浮遊拡散層235と、接続線239-mとを接続する。このリセットトランジスタ231を制御することにより、第1の実施の形態と同様に浮遊拡散層235を初期化するほか、接続線239-mへの接続も行うことができる。このため、接続トランジスタ232が不要となる。なお、リセットトランジスタ231は、特許請求の範囲に記載の接続トランジスタの一例である。
 図16は、第2の実施の形態における画素加算読出し期間の固体撮像素子200の動作の一例を示すタイミングチャートである。
 タイミングT10において、行走査回路210は、リセット信号RSTnと、接続信号FDCnおよびFDCbと、選択信号SELbとをハイレベルに制御する。タイミングT10の後のタイミングT11において、行走査回路210は、リセット信号RSTbをハイレベルに制御する。これにより、画素ブロックの浮遊拡散層235が初期化され、接続線239-mの電位が初期化される。
 そして、タイミングT11の後のタイミングT12において行走査回路210は、転送信号TRGnのそれぞれをパルス期間に亘ってハイレベルに制御する。これにより、全画素ブロックから遮光領域223へ電荷が転送される。
 また、行走査回路210は、タイミングT12の後のタイミングT13において、リセット信号RSTnと、接続信号FDCnおよびFDCbと、選択信号SELbとをローレベルに制御する。この制御により加算した信号の読出しが終了する。
 また、各列のAD変換器261は、タイミングT11からタイミングT12までの間にリセットレベルをサンプリングし、タイミングT12からタイミングT13までの間に信号レベルをサンプリングする。
 このように、本技術の第2の実施の形態によれば、リセットトランジスタ231が浮遊拡散層235と接続線239-mとを接続するため、接続トランジスタ232を設ける必要がなくなる。これにより、画素アレイ部220の回路規模を削減することができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態では、通常画素230および遮光画素240の構成を同一にして製造を容易にするという観点から、遮光画素240にも光電変換素子244および転送トランジスタ243を設けていた。しかし、回路規模の削減の方を優先して、遮光画素240には光電変換素子244および転送トランジスタ243を遮光画素240に設けない構成としてもよい。この第3の実施の形態の固体撮像素子200は、遮光領域223の回路規模を削減した点において第1の実施の形態と異なる。
 図17は、第3の実施の形態における遮光画素240の一構成例を示す回路図である。この第3の実施の形態の遮光画素240は、光電変換素子244および転送トランジスタ243を備えない点において第1の実施の形態と異なる。
 このように、本技術の第3の実施の形態によれば、遮光画素240に光電変換素子244および転送トランジスタ243を設けないため、遮光領域223の回路規模を削減することができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態では、通常画素230内の接続トランジスタ232が浮遊拡散層235を接続線239-mに接続していた。しかし、接続トランジスタ232がオフ状態の期間において、浮遊拡散層235から接続線239-mへリーク電流が流れるおそれがある。画素当たりのリーク電流は微小であるものの、画素加算する画素数が多くなるほど、リーク電流の合計値が大きくなり、読み出す値に影響が現れる可能性が高くなる。この浮遊拡散層235からのリーク電流の影響を抑制するには、浮遊拡散層235でなく、光電変換素子237を接続線239-mに接続する構成とすればよい。この第4の実施の形態の固体撮像素子200は、光電変換素子237を接続線239-mに接続する点において第1の実施の形態と異なる。
 図18は、第4の実施の形態における通常画素230の一構成例を示す回路図である。この第4の実施の形態の通常画素230は、接続トランジスタ232が、接続信号FDCnに従って光電変換素子237を接続線239-mに接続する点において第1の実施の形態と異なる。
 図19は、第4の実施の形態における画素加算読出し期間の固体撮像素子200の動作の一例を示すタイミングチャートである。
 タイミングT10において、行走査回路210は、接続信号FDCnおよび選択信号SELbを一定期間に亘ってハイレベルに制御する。そして、タイミングT10の後のタイミングT11において行走査回路210は、リセット信号RSTbを一定期間に亘ってハイレベルに制御する。これにより、全画素ブロックの浮遊拡散層235が初期化される。ここで、リセット信号RSTbがハイレベルの期間は、リセットレベルのAD変換が完了するのに十分な長時間が設定される。
 そして、タイミングT11の後のタイミングT12において行走査回路210は、接続信号FDCbをハイレベルに制御する。これにより、全画素ブロックから遮光領域223へ電荷が転送される。
 また、行走査回路210は、タイミングT12の後のタイミングT13において接続信号FDCnおよびFDCbと選択信号SELbとをローレベルに制御する。この制御により加算した信号の読出しが終了する。
 また、各列のAD変換器261は、リセット信号RSTbがハイレベルの期間内にリセットレベルをサンプリングし、タイミングT11からタイミングT12までの間に信号レベルをサンプリングする。
 なお、AD変換期間を跨いで接続信号FDCbをオン状態に制御しているが、図11に例示したように、AD変換を行う前にオフ状態にしてもよい。
 このように、本技術の第4の実施の形態によれば、光電変換素子237を接続線239-mに接続するため、浮遊拡散層235からのリーク電流の影響を抑制することができる。
 <5.第5の実施の形態>
 上述の第1の実施の形態では、画素ブロック222ごとに画素信号を加算していたが、画素ブロック222同士は接続されていないため、複数の画素ブロック222のそれぞれの加算信号をさらに加算することができなかった。この第5の実施の形態の固体撮像素子200は、複数の画素ブロック222のそれぞれの加算信号をさらに加算する点において第1の実施の形態と異なる。
 図20は、第5の実施の形態における画素アレイ部220および信号処理部260の一構成例を示す平面図である。この第5の実施の形態の画素アレイ部220において、受光領域221には、複数の画素ブロック300が二次元格子状に配列される。画素ブロック300のそれぞれには、複数(例えば、4行×2列)の画素が配列される。以下、(水平方向など)に配列された画素ブロック300の集合を「ブロック行」と称し、行に垂直な方向に配列された画素ブロック300の集合を「ブロック列」と称する。遮光領域223には、ブロック列ごとに遮光画素240が設けられる。また、信号処理部260には、ブロック列ごとにAD変換器261が設けられる。
 また、受光領域221は、複数の加算ブロック224に分割される。それぞれの加算ブロック224には、2ブロック列以上(2行×2列など)の画素ブロック300が設けられる。加算ブロック224のそれぞれは、遮光画素240と1対1に接続される。また、遮光画素240の個数は、加算ブロックの個数以上である。例えば、遮光画素240および加算ブロック224のそれぞれの個数は、いずれもM個である。
 行走査回路210は、加算ブロック224のそれぞれを制御して、加算ブロック224から、対応する遮光画素240へ電荷を転送させる。図20において、点線の矢印は、電荷の転送元および転送先を示す。
 図21は、第5の実施の形態における画素ブロック300の一構成例を示す回路図である。この画素ブロック300は、光電変換素子303、304、307、308、315、316、319および320と、転送トランジスタ301、302、305、306、312、313、317および318とを備える。また、画素ブロック300は、リセットトランジスタ309、浮遊拡散層310、増幅トランジスタ311および選択トランジスタ314を備える。
 転送トランジスタ301、302、305、306、312、313、317および318は、互いに異なる光電変換素子に接続され、対応する光電変換素子からの電荷を浮遊拡散層310に転送する。また、これらの転送トランジスタは、転送信号TRGn0乃至TRGn7により駆動する。リセットトランジスタ309、浮遊拡散層310、増幅トランジスタ311および選択トランジスタ314は、8画素で共有される。
 このように、本技術の第5の実施の形態によれば、複数の画素ブロック300からなる加算ブロック224から、対応する遮光画素240へ電荷を転送するため、画素ブロック300のそれぞれにおいて加算された信号同士をさらに加算することができる。
 <6.第6の実施の形態>
 上述の第1の実施の形態では、通常画素230のそれぞれの浮遊拡散層を接続線239-mに接続し、行ごとに4本の水平信号線を配線していたが、行数の増大に伴って水平信号線の配線数が増大してしまう。隣接する2つの通常画素230のそれぞれの浮遊拡散層を接続し、それらの一方を接続線239-mに接続する構成とすれば、水平信号線の配線数を削減することができる。この第6の実施の形態の固体撮像素子200は、隣接する2つの通常画素230のそれぞれの浮遊拡散層を接続する点において第1の実施の形態と異なる。
 図22は、第6の実施の形態における画素アレイ部220の一構成例を示す平面図である。この第5の実施の形態において、垂直方向において隣接する一対の通常画素(350および360)のそれぞれの浮遊拡散層は接続信号FDCnの制御により接続される。また、その一対の通常画素の一方(例えば、通常画素360)の浮遊拡散層が接続線239-mに接続される。
 図23は、第6の実施の形態における通常画素350および360の一構成例を示す回路図である。通常画素350は、光電変換素子351、転送トランジスタ352、リセットトランジスタ353、増幅トランジスタ354、選択トランジスタ355および浮遊拡散層356を備える。また、通常画素360は、光電変換素子361、転送トランジスタ362、接続トランジスタ363、増幅トランジスタ364、選択トランジスタ365および浮遊拡散層366を備える。
 転送トランジスタ352は、転送信号TRGnに従って、光電変換素子351から浮遊拡散層356に電荷を転送する。リセットトランジスタ353は、リセット信号RSTnに従って浮遊拡散層356を初期化する。
 また、転送トランジスタ362は、転送信号TRGnに従って、光電変換素子361から浮遊拡散層366に電荷を転送する。接続トランジスタ363は、接続信号FDCnに従って浮遊拡散層356および366を接続し、通常画素350から通常画素360へ電荷を転送する。この浮遊拡散層366は、接続線239-mにも接続されている。行走査回路210は、浮遊拡散層356および366を初期化する際に、リセットトランジスタ353および接続トランジスタ363の両方をオン状態に制御する。
 上述の構成によれば、リセットトランジスタ353および接続トランジスタ363を通常画素350および360で共有するため、リセット信号RSTnを伝送する水平信号線と接続信号FDCnを伝送する水平信号線とのそれぞれは、2行ごとに1本でよい。したがって、1行ごとに1本を配線する第1の実施の形態と比較して水平信号線の本数を削減することができる。
 このように、本技術の第6の実施の形態によれば、リセットトランジスタ353および接続トランジスタ363を通常画素350および360で共有するため、それらのトランジスタを制御する信号を伝送するための水平信号線の配線数を削減することができる。
 <<第1の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図24は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図24では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図24では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図25を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図25は、図24に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
 図25を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
 また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
 駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
 また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
 カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
 また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、図25のカメラヘッド5005に好適に適用され得る。具体的には、図2に例示した固体撮像素子200は、カメラヘッド5005内の撮像部5009に用いられる。固体撮像素子200の適用により、画素加算時の読出し回数が少なくなるため、内視鏡手術システム5000の消費電力を低減することができる。
 <<第2の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
 図26は、本開示に係る技術が適用され得る手術室システム5100の全体構成を概略的に示す図である。図26を参照すると、手術室システム5100は、手術室内に設置される装置群が視聴覚コントローラ(AV Controller)5107及び手術室制御装置5109を介して互いに連携可能に接続されることにより構成される。
 手術室には、様々な装置が設置され得る。図26では、一例として、内視鏡下手術のための各種の装置群5101と、手術室の天井に設けられ術者の手元を撮像するシーリングカメラ5187と、手術室の天井に設けられ手術室全体の様子を撮像する術場カメラ5189と、複数の表示装置5103A~5103Dと、レコーダ5105と、患者ベッド5183と、照明5191と、を図示している。
 ここで、これらの装置のうち、装置群5101は、後述する内視鏡手術システム5113に属するものであり、内視鏡や当該内視鏡によって撮像された画像を表示する表示装置等からなる。内視鏡手術システム5113に属する各装置は医療用機器とも呼称される。一方、表示装置5103A~5103D、レコーダ5105、患者ベッド5183及び照明5191は、内視鏡手術システム5113とは別個に、例えば手術室に備え付けられている装置である。これらの内視鏡手術システム5113に属さない各装置は非医療用機器とも呼称される。視聴覚コントローラ5107及び/又は手術室制御装置5109は、これら医療機器及び非医療機器の動作を互いに連携して制御する。
 視聴覚コントローラ5107は、医療機器及び非医療機器における画像表示に関する処理を、統括的に制御する。具体的には、手術室システム5100が備える装置のうち、装置群5101、シーリングカメラ5187及び術場カメラ5189は、手術中に表示すべき情報(以下、表示情報ともいう)を発信する機能を有する装置(以下、発信元の装置とも呼称する)であり得る。また、表示装置5103A~5103Dは、表示情報が出力される装置(以下、出力先の装置とも呼称する)であり得る。また、レコーダ5105は、発信元の装置及び出力先の装置の双方に該当する装置であり得る。視聴覚コントローラ5107は、発信元の装置及び出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、当該表示情報を出力先の装置に送信し、表示又は記録させる機能を有する。なお、表示情報とは、手術中に撮像された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報等)等である。
 具体的には、視聴覚コントローラ5107には、装置群5101から、表示情報として、内視鏡によって撮像された患者の体腔内の術部の画像についての情報が送信され得る。また、シーリングカメラ5187から、表示情報として、当該シーリングカメラ5187によって撮像された術者の手元の画像についての情報が送信され得る。また、術場カメラ5189から、表示情報として、当該術場カメラ5189によって撮像された手術室全体の様子を示す画像についての情報が送信され得る。なお、手術室システム5100に撮像機能を有する他の装置が存在する場合には、視聴覚コントローラ5107は、表示情報として、当該他の装置からも当該他の装置によって撮像された画像についての情報を取得してもよい。
 あるいは、例えば、レコーダ5105には、過去に撮像されたこれらの画像についての情報が視聴覚コントローラ5107によって記録されている。視聴覚コントローラ5107は、表示情報として、レコーダ5105から当該過去に撮像された画像についての情報を取得することができる。なお、レコーダ5105には、手術に関する各種の情報も事前に記録されていてもよい。
 視聴覚コントローラ5107は、出力先の装置である表示装置5103A~5103Dの少なくともいずれかに、取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を表示させる。図示する例では、表示装置5103Aは手術室の天井から吊り下げられて設置される表示装置であり、表示装置5103Bは手術室の壁面に設置される表示装置であり、表示装置5103Cは手術室内の机上に設置される表示装置であり、表示装置5103Dは表示機能を有するモバイル機器(例えば、タブレットPC(Personal Computer))である。
 また、図26では図示を省略しているが、手術室システム5100には、手術室の外部の装置が含まれてもよい。手術室の外部の装置は、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが用いるPC、病院の会議室に設置されるプロジェクタ等であり得る。このような外部装置が病院外にある場合には、視聴覚コントローラ5107は、遠隔医療のために、テレビ会議システム等を介して、他の病院の表示装置に表示情報を表示させることもできる。
 手術室制御装置5109は、非医療機器における画像表示に関する処理以外の処理を、統括的に制御する。例えば、手術室制御装置5109は、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191の駆動を制御する。
 手術室システム5100には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、視聴覚コントローラ5107に対して画像表示についての指示を与えたり、手術室制御装置5109に対して非医療機器の動作についての指示を与えることができる。集中操作パネル5111は、表示装置の表示面上にタッチパネルが設けられて構成される。
 図27は、集中操作パネル5111における操作画面の表示例を示す図である。図27では、一例として、手術室システム5100に、出力先の装置として、2つの表示装置が設けられている場合に対応する操作画面を示している。図27を参照すると、操作画面5193には、発信元選択領域5195と、プレビュー領域5197と、コントロール領域5201と、が設けられる。
 発信元選択領域5195には、手術室システム5100に備えられる発信元装置と、当該発信元装置が有する表示情報を表すサムネイル画面と、が紐付けられて表示される。ユーザは、表示装置に表示させたい表示情報を、発信元選択領域5195に表示されているいずれかの発信元装置から選択することができる。
 プレビュー領域5197には、出力先の装置である2つの表示装置(Monitor1、Monitor2)に表示される画面のプレビューが表示される。図示する例では、1つの表示装置において4つの画像がPinP表示されている。当該4つの画像は、発信元選択領域5195において選択された発信元装置から発信された表示情報に対応するものである。4つの画像のうち、1つはメイン画像として比較的大きく表示され、残りの3つはサブ画像として比較的小さく表示される。ユーザは、4つの画像が表示された領域を適宜選択することにより、メイン画像とサブ画像を入れ替えることができる。また、4つの画像が表示される領域の下部には、ステータス表示領域5199が設けられており、当該領域に手術に関するステータス(例えば、手術の経過時間や、患者の身体情報等)が適宜表示され得る。
 コントロール領域5201には、発信元の装置に対して操作を行うためのGUI(Graphical User Interface)部品が表示される発信元操作領域5203と、出力先の装置に対して操作を行うためのGUI部品が表示される出力先操作領域5205と、が設けられる。図示する例では、発信元操作領域5203には、撮像機能を有する発信元の装置におけるカメラに対して各種の操作(パン、チルト及びズーム)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、発信元の装置におけるカメラの動作を操作することができる。なお、図示は省略しているが、発信元選択領域5195において選択されている発信元の装置がレコーダである場合(すなわち、プレビュー領域5197において、レコーダに過去に記録された画像が表示されている場合)には、発信元操作領域5203には、当該画像の再生、再生停止、巻き戻し、早送り等の操作を行うためのGUI部品が設けられ得る。
 また、出力先操作領域5205には、出力先の装置である表示装置における表示に対する各種の操作(スワップ、フリップ、色調整、コントラスト調整、2D表示と3D表示の切り替え)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、表示装置における表示を操作することができる。
 なお、集中操作パネル5111に表示される操作画面は図示する例に限定されず、ユーザは、集中操作パネル5111を介して、手術室システム5100に備えられる、視聴覚コントローラ5107及び手術室制御装置5109によって制御され得る各装置に対する操作入力が可能であってよい。
 図28は、以上説明した手術室システムが適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
 内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、図26に示すように、視聴覚コントローラ5107及び手術室制御装置5109(図28では図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、上述したように、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
 以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、気腹チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図26に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
 表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
 光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
 アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
 入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
 入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
 あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。気腹装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、気腹チューブ5133を介して当該体腔内にガスを送り込む。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図28では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
 関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
 例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
 (光源装置)
 光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図29を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図29は、図28に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
 図29を参照すると、カメラヘッド5119は、その機能として、レンズユニット5121と、撮像部5123と、駆動部5125と、通信部5127と、カメラヘッド制御部5129と、を有する。また、CCU5153は、その機能として、通信部5173と、画像処理部5175と、制御部5177と、を有する。カメラヘッド5119とCCU5153とは、伝送ケーブル5179によって双方向に通信可能に接続されている。
 まず、カメラヘッド5119の機能構成について説明する。レンズユニット5121は、鏡筒5117との接続部に設けられる光学系である。鏡筒5117の先端から取り込まれた観察光は、カメラヘッド5119まで導光され、当該レンズユニット5121に入射する。レンズユニット5121は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5121は、撮像部5123の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5123は撮像素子によって構成され、レンズユニット5121の後段に配置される。レンズユニット5121を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5123によって生成された画像信号は、通信部5127に提供される。
 撮像部5123を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5181は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部5123を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5181は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5123が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5121も複数系統設けられる。
 また、撮像部5123は、必ずしもカメラヘッド5119に設けられなくてもよい。例えば、撮像部5123は、鏡筒5117の内部に、対物レンズの直後に設けられてもよい。
 駆動部5125は、アクチュエータによって構成され、カメラヘッド制御部5129からの制御により、レンズユニット5121のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5123による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部5127は、CCU5153との間で各種の情報を送受信するための通信装置によって構成される。通信部5127は、撮像部5123から得た画像信号をRAWデータとして伝送ケーブル5179を介してCCU5153に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5181が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5127には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5179を介してCCU5153に送信される。
 また、通信部5127は、CCU5153から、カメラヘッド5119の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5127は、受信した制御信号をカメラヘッド制御部5129に提供する。なお、CCU5153からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5127には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5129に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5153の制御部5177によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5115に搭載される。
 カメラヘッド制御部5129は、通信部5127を介して受信したCCU5153からの制御信号に基づいて、カメラヘッド5119の駆動を制御する。例えば、カメラヘッド制御部5129は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5123の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5129は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5125を介してレンズユニット5121のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5129は、更に、鏡筒5117やカメラヘッド5119を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット5121や撮像部5123等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5119について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU5153の機能構成について説明する。通信部5173は、カメラヘッド5119との間で各種の情報を送受信するための通信装置によって構成される。通信部5173は、カメラヘッド5119から、伝送ケーブル5179を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5173には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5173は、電気信号に変換した画像信号を画像処理部5175に提供する。
 また、通信部5173は、カメラヘッド5119に対して、カメラヘッド5119の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部5175は、カメラヘッド5119から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5175は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5175は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5175が複数のGPUによって構成される場合には、画像処理部5175は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5177は、内視鏡5115による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5177は、カメラヘッド5119の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5177は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5115にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5177は、画像処理部5175による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5177は、画像処理部5175によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5155に表示させる。この際、制御部5177は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5177は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5135使用時のミスト等を認識することができる。制御部5177は、表示装置5155に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5181に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド5119及びCCU5153を接続する伝送ケーブル5179は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル5179を用いて有線で通信が行われていたが、カメラヘッド5119とCCU5153との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5179を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5179によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る手術室システム5100の一例について説明した。なお、ここでは、一例として手術室システム5100が適用される医療用システムが内視鏡手術システム5113である場合について説明したが、手術室システム5100の構成はかかる例に限定されない。例えば、手術室システム5100は、内視鏡手術システム5113に代えて、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、図29に例示したカメラヘッド5119に好適に適用され得る。具体的には、図2に例示した固体撮像素子200は、カメラヘッド5119内の撮像部5123に用いられる。固体撮像素子200の適用により、画素加算時の読出し回数が少なくなるため、手術室システム5100の消費電力を低減することができる。
 <<第3の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、患者の微細部位を拡大観察しながら行う、いわゆるマイクロサージェリーに用いられる顕微鏡手術システムに適用されてもよい。
 図30は、本開示に係る技術が適用され得る顕微鏡手術システム5300の概略的な構成の一例を示す図である。図30を参照すると、顕微鏡手術システム5300は、顕微鏡装置5301と、制御装置5317と、表示装置5319と、から構成される。なお、以下の顕微鏡手術システム5300についての説明において、「ユーザ」とは、術者及び助手等、顕微鏡手術システム5300を使用する任意の医療スタッフのことを意味する。
 顕微鏡装置5301は、観察対象(患者の術部)を拡大観察するための顕微鏡部5303と、顕微鏡部5303を先端で支持するアーム部5309と、アーム部5309の基端を支持するベース部5315と、を有する。
 顕微鏡部5303は、略円筒形状の筒状部5305と、当該筒状部5305の内部に設けられる撮像部(図示せず)と、筒状部5305の外周の一部領域に設けられる操作部5307と、から構成される。顕微鏡部5303は、撮像部によって電子的に撮像画像を撮像する、電子撮像式の顕微鏡部(いわゆるビデオ式の顕微鏡部)である。
 筒状部5305の下端の開口面には、内部の撮像部を保護するカバーガラスが設けられる。観察対象からの光(以下、観察光ともいう)は、当該カバーガラスを通過して、筒状部5305の内部の撮像部に入射する。なお、筒状部5305の内部には例えばLED(Light Emitting Diode)等からなる光源が設けられてもよく、撮像時には、当該カバーガラスを介して、当該光源から観察対象に対して光が照射されてもよい。
 撮像部は、観察光を集光する光学系と、当該光学系が集光した観察光を受光する撮像素子と、から構成される。当該光学系は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成され、その光学特性は、観察光を撮像素子の受光面上に結像するように調整されている。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した信号、すなわち観察像に対応した画像信号を生成する。当該撮像素子としては、例えばBayer配列を有するカラー撮影可能なものが用いられる。当該撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子であってよい。撮像素子によって生成された画像信号は、RAWデータとして制御装置5317に送信される。ここで、この画像信号の送信は、好適に光通信によって行われてもよい。手術現場では、術者が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信で画像信号が送信されることにより、低レイテンシで撮像画像を表示することが可能となる。
 なお、撮像部は、その光学系のズームレンズ及びフォーカスレンズを光軸に沿って移動させる駆動機構を有してもよい。当該駆動機構によってズームレンズ及びフォーカスレンズが適宜移動されることにより、撮像画像の拡大倍率及び撮像時の焦点距離が調整され得る。また、撮像部には、AE(Auto Exposure)機能やAF(Auto Focus)機能等、一般的に電子撮像式の顕微鏡部に備えられ得る各種の機能が搭載されてもよい。
 また、撮像部は、1つの撮像素子を有するいわゆる単板式の撮像部として構成されてもよいし、複数の撮像素子を有するいわゆる多板式の撮像部として構成されてもよい。撮像部が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、当該撮像部は、立体視(3D表示)に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、当該撮像部が多板式で構成される場合には、各撮像素子に対応して、光学系も複数系統が設けられ得る。
 操作部5307は、例えば十字レバー又はスイッチ等によって構成され、ユーザの操作入力を受け付ける入力手段である。例えば、ユーザは、操作部5307を介して、観察像の拡大倍率及び観察対象までの焦点距離を変更する旨の指示を入力することができる。当該指示に従って撮像部の駆動機構がズームレンズ及びフォーカスレンズを適宜移動させることにより、拡大倍率及び焦点距離が調整され得る。また、例えば、ユーザは、操作部5307を介して、アーム部5309の動作モード(後述するオールフリーモード及び固定モード)を切り替える旨の指示を入力することができる。なお、ユーザが顕微鏡部5303を移動させようとする場合には、当該ユーザは筒状部5305を握るように把持した状態で当該顕微鏡部5303を移動させる様態が想定される。従って、操作部5307は、ユーザが筒状部5305を移動させている間でも操作可能なように、ユーザが筒状部5305を握った状態で指によって容易に操作しやすい位置に設けられることが好ましい。
 アーム部5309は、複数のリンク(第1リンク5313a~第6リンク5313f)が、複数の関節部(第1関節部5311a~第6関節部5311f)によって互いに回動可能に連結されることによって構成される。
 第1関節部5311aは、略円柱形状を有し、その先端(下端)で、顕微鏡部5303の筒状部5305の上端を、当該筒状部5305の中心軸と平行な回転軸(第1軸O1)まわりに回動可能に支持する。ここで、第1関節部5311aは、第1軸O1が顕微鏡部5303の撮像部の光軸と一致するように構成され得る。これにより、第1軸O1まわりに顕微鏡部5303を回動させることにより、撮像画像を回転させるように視野を変更することが可能になる。
 第1リンク5313aは、先端で第1関節部5311aを固定的に支持する。具体的には、第1リンク5313aは略L字形状を有する棒状の部材であり、その先端側の一辺が第1軸O1と直交する方向に延伸しつつ、当該一辺の端部が第1関節部5311aの外周の上端部に当接するように、第1関節部5311aに接続される。第1リンク5313aの略L字形状の基端側の他辺の端部に第2関節部5311bが接続される。
 第2関節部5311bは、略円柱形状を有し、その先端で、第1リンク5313aの基端を、第1軸O1と直交する回転軸(第2軸O2)まわりに回動可能に支持する。第2関節部5311bの基端には、第2リンク5313bの先端が固定的に接続される。
 第2リンク5313bは、略L字形状を有する棒状の部材であり、その先端側の一辺が第2軸O2と直交する方向に延伸しつつ、当該一辺の端部が第2関節部5311bの基端に固定的に接続される。第2リンク5313bの略L字形状の基端側の他辺には、第3関節部5311cが接続される。
 第3関節部5311cは、略円柱形状を有し、その先端で、第2リンク5313bの基端を、第1軸O1及び第2軸O2と互いに直交する回転軸(第3軸O3)まわりに回動可能に支持する。第3関節部5311cの基端には、第3リンク5313cの先端が固定的に接続される。第2軸O2及び第3軸O3まわりに顕微鏡部5303を含む先端側の構成を回動させることにより、水平面内での顕微鏡部5303の位置を変更するように、当該顕微鏡部5303を移動させることができる。つまり、第2軸O2及び第3軸O3まわりの回転を制御することにより、撮像画像の視野を平面内で移動させることが可能になる。
 第3リンク5313cは、その先端側が略円柱形状を有するように構成されており、当該円柱形状の先端に、第3関節部5311cの基端が、両者が略同一の中心軸を有するように、固定的に接続される。第3リンク5313cの基端側は角柱形状を有し、その端部に第4関節部5311dが接続される。
 第4関節部5311dは、略円柱形状を有し、その先端で、第3リンク5313cの基端を、第3軸O3と直交する回転軸(第4軸O4)まわりに回動可能に支持する。第4関節部5311dの基端には、第4リンク5313dの先端が固定的に接続される。
 第4リンク5313dは、略直線状に延伸する棒状の部材であり、第4軸O4と直交するように延伸しつつ、その先端の端部が第4関節部5311dの略円柱形状の側面に当接するように、第4関節部5311dに固定的に接続される。第4リンク5313dの基端には、第5関節部5311eが接続される。
 第5関節部5311eは、略円柱形状を有し、その先端側で、第4リンク5313dの基端を、第4軸O4と平行な回転軸(第5軸O5)まわりに回動可能に支持する。第5関節部5311eの基端には、第5リンク5313eの先端が固定的に接続される。第4軸O4及び第5軸O5は、顕微鏡部5303を上下方向に移動させ得る回転軸である。第4軸O4及び第5軸O5まわりに顕微鏡部5303を含む先端側の構成を回動させることにより、顕微鏡部5303の高さ、すなわち顕微鏡部5303と観察対象との距離を調整することができる。
 第5リンク5313eは、一辺が鉛直方向に延伸するとともに他辺が水平方向に延伸する略L字形状を有する第1の部材と、当該第1の部材の水平方向に延伸する部位から鉛直下向きに延伸する棒状の第2の部材と、が組み合わされて構成される。第5リンク5313eの第1の部材の鉛直方向に延伸する部位の上端近傍に、第5関節部5311eの基端が固定的に接続される。第5リンク5313eの第2の部材の基端(下端)には、第6関節部5311fが接続される。
 第6関節部5311fは、略円柱形状を有し、その先端側で、第5リンク5313eの基端を、鉛直方向と平行な回転軸(第6軸O6)まわりに回動可能に支持する。第6関節部5311fの基端には、第6リンク5313fの先端が固定的に接続される。
 第6リンク5313fは鉛直方向に延伸する棒状の部材であり、その基端はベース部5315の上面に固定的に接続される。
 第1関節部5311a~第6関節部5311fの回転可能範囲は、顕微鏡部5303が所望の動きを可能であるように適宜設定されている。これにより、以上説明した構成を有するアーム部5309においては、顕微鏡部5303の動きに関して、並進3自由度及び回転3自由度の計6自由度の動きが実現され得る。このように、顕微鏡部5303の動きに関して6自由度が実現されるようにアーム部5309を構成することにより、アーム部5309の可動範囲内において顕微鏡部5303の位置及び姿勢を自由に制御することが可能になる。従って、あらゆる角度から術部を観察することが可能となり、手術をより円滑に実行することができる。
 なお、図示するアーム部5309の構成はあくまで一例であり、アーム部5309を構成するリンクの数及び形状(長さ)、並びに関節部の数、配置位置及び回転軸の方向等は、所望の自由度が実現され得るように適宜設計されてよい。例えば、上述したように、顕微鏡部5303を自由に動かすためには、アーム部5309は6自由度を有するように構成されることが好ましいが、アーム部5309はより大きな自由度(すなわち、冗長自由度)を有するように構成されてもよい。冗長自由度が存在する場合には、アーム部5309においては、顕微鏡部5303の位置及び姿勢が固定された状態で、アーム部5309の姿勢を変更することが可能となる。従って、例えば表示装置5319を見る術者の視界にアーム部5309が干渉しないように当該アーム部5309の姿勢を制御する等、術者にとってより利便性の高い制御が実現され得る。
 ここで、第1関節部5311a~第6関節部5311fには、モータ等の駆動機構、及び各関節部における回転角度を検出するエンコーダ等が搭載されたアクチュエータが設けられ得る。そして、第1関節部5311a~第6関節部5311fに設けられる各アクチュエータの駆動が制御装置5317によって適宜制御されることにより、アーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が制御され得る。具体的には、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、アーム部5309の現在の姿勢、並びに顕微鏡部5303の現在の位置及び姿勢を把握することができる。制御装置5317は、把握したこれらの情報を用いて、ユーザからの操作入力に応じた顕微鏡部5303の移動を実現するような各関節部に対する制御値(例えば、回転角度又は発生トルク等)を算出し、当該制御値に応じて各関節部の駆動機構を駆動させる。なお、この際、制御装置5317によるアーム部5309の制御方式は限定されず、力制御又は位置制御等、各種の公知の制御方式が適用されてよい。
 例えば、術者が、図示しない入力装置を介して適宜操作入力を行うことにより、当該操作入力に応じて制御装置5317によってアーム部5309の駆動が適宜制御され、顕微鏡部5303の位置及び姿勢が制御されてよい。当該制御により、顕微鏡部5303を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、当該入力装置としては、術者の利便性を考慮して、例えばフットスイッチ等、術者が手に術具を有していても操作可能なものが適用されることが好ましい。また、ウェアラブルデバイスや手術室内に設けられるカメラを用いたジェスチャ検出や視線検出に基づいて、非接触で操作入力が行われてもよい。これにより、清潔域に属するユーザであっても、不潔域に属する機器をより自由度高く操作することが可能になる。あるいは、アーム部5309は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5309は、手術室から離れた場所に設置される入力装置を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、ユーザからの外力を受け、その外力にならってスムーズにアーム部5309が移動するように第1関節部5311a~第6関節部5311fのアクチュエータが駆動される、いわゆるパワーアシスト制御が行われてもよい。これにより、ユーザが、顕微鏡部5303を把持して直接その位置を移動させようとする際に、比較的軽い力で顕微鏡部5303を移動させることができる。従って、より直感的に、より簡易な操作で顕微鏡部5303を移動させることが可能となり、ユーザの利便性を向上させることができる。
 また、アーム部5309は、ピボット動作をするようにその駆動が制御されてもよい。ここで、ピボット動作とは、顕微鏡部5303の光軸が空間上の所定の点(以下、ピボット点という)を常に向くように、顕微鏡部5303を移動させる動作である。ピボット動作によれば、同一の観察位置を様々な方向から観察することが可能となるため、より詳細な患部の観察が可能となる。なお、顕微鏡部5303が、その焦点距離を調整不可能に構成される場合には、顕微鏡部5303とピボット点との距離が固定された状態でピボット動作が行われることが好ましい。この場合には、顕微鏡部5303とピボット点との距離を、顕微鏡部5303の固定的な焦点距離に調整しておけばよい。これにより、顕微鏡部5303は、ピボット点を中心とする焦点距離に対応する半径を有する半球面(図30に概略的に図示する)上を移動することとなり、観察方向を変更しても鮮明な撮像画像が得られることとなる。一方、顕微鏡部5303が、その焦点距離を調整可能に構成される場合には、顕微鏡部5303とピボット点との距離が可変な状態でピボット動作が行われてもよい。この場合には、例えば、制御装置5317は、エンコーダによって検出された各関節部の回転角度についての情報に基づいて、顕微鏡部5303とピボット点との距離を算出し、その算出結果に基づいて顕微鏡部5303の焦点距離を自動で調整してもよい。あるいは、顕微鏡部5303にAF機能が設けられる場合であれば、ピボット動作によって顕微鏡部5303とピボット点との距離が変化するごとに、当該AF機能によって自動で焦点距離の調整が行われてもよい。
 また、第1関節部5311a~第6関節部5311fには、その回転を拘束するブレーキが設けられてもよい。当該ブレーキの動作は、制御装置5317によって制御され得る。例えば、顕微鏡部5303の位置及び姿勢を固定したい場合には、制御装置5317は各関節部のブレーキを作動させる。これにより、アクチュエータを駆動させなくてもアーム部5309の姿勢、すなわち顕微鏡部5303の位置及び姿勢が固定され得るため、消費電力を低減することができる。顕微鏡部5303の位置及び姿勢を移動したい場合には、制御装置5317は、各関節部のブレーキを解除し、所定の制御方式に従ってアクチュエータを駆動させればよい。
 このようなブレーキの動作は、上述した操作部5307を介したユーザによる操作入力に応じて行われ得る。ユーザは、顕微鏡部5303の位置及び姿勢を移動したい場合には、操作部5307を操作し、各関節部のブレーキを解除させる。これにより、アーム部5309の動作モードが、各関節部における回転を自由に行えるモード(オールフリーモード)に移行する。また、ユーザは、顕微鏡部5303の位置及び姿勢を固定したい場合には、操作部5307を操作し、各関節部のブレーキを作動させる。これにより、アーム部5309の動作モードが、各関節部における回転が拘束されたモード(固定モード)に移行する。
 制御装置5317は、顕微鏡装置5301及び表示装置5319の動作を制御することにより、顕微鏡手術システム5300の動作を統括的に制御する。例えば、制御装置5317は、所定の制御方式に従って第1関節部5311a~第6関節部5311fのアクチュエータを動作させることにより、アーム部5309の駆動を制御する。また、例えば、制御装置5317は、第1関節部5311a~第6関節部5311fのブレーキの動作を制御することにより、アーム部5309の動作モードを変更する。また、例えば、制御装置5317は、顕微鏡装置5301の顕微鏡部5303の撮像部によって取得された画像信号に各種の信号処理を施すことにより、表示用の画像データを生成するとともに、当該画像データを表示装置5319に表示させる。当該信号処理では、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)及び/又は拡大処理(すなわち、電子ズーム処理)等、各種の公知の信号処理が行われてよい。
 なお、制御装置5317と顕微鏡部5303との通信、及び制御装置5317と第1関節部5311a~第6関節部5311fとの通信は、有線通信であってもよいし無線通信であってもよい。有線通信の場合には、電気信号による通信が行われてもよいし、光通信が行われてもよい。この場合、有線通信に用いられる伝送用のケーブルは、その通信方式に応じて電気信号ケーブル、光ファイバ、又はこれらの複合ケーブルとして構成され得る。一方、無線通信の場合には、手術室内に伝送ケーブルを敷設する必要がなくなるため、当該伝送ケーブルによって医療スタッフの手術室内の移動が妨げられる事態が解消され得る。
 制御装置5317は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。制御装置5317のプロセッサが所定のプログラムに従って動作することにより、上述した各種の機能が実現され得る。なお、図示する例では、制御装置5317は、顕微鏡装置5301と別個の装置として設けられているが、制御装置5317は、顕微鏡装置5301のベース部5315の内部に設置され、顕微鏡装置5301と一体的に構成されてもよい。あるいは、制御装置5317は、複数の装置によって構成されてもよい。例えば、顕微鏡部5303や、アーム部5309の第1関節部5311a~第6関節部5311fにそれぞれマイコンや制御基板等が配設され、これらが互いに通信可能に接続されることにより、制御装置5317と同様の機能が実現されてもよい。
 表示装置5319は、手術室内に設けられ、制御装置5317からの制御により、当該制御装置5317によって生成された画像データに対応する画像を表示する。つまり、表示装置5319には、顕微鏡部5303によって撮影された術部の画像が表示される。なお、表示装置5319は、術部の画像に代えて、又は術部の画像とともに、例えば患者の身体情報や手術の術式についての情報等、手術に関する各種の情報を表示してもよい。この場合、表示装置5319の表示は、ユーザによる操作によって適宜切り替えられてよい。あるいは、表示装置5319は複数設けられてもよく、複数の表示装置5319のそれぞれに、術部の画像や手術に関する各種の情報が、それぞれ表示されてもよい。なお、表示装置5319としては、液晶ディスプレイ装置又はEL(Electro Luminescence)ディスプレイ装置等、各種の公知の表示装置が適用されてよい。
 図31は、図30に示す顕微鏡手術システム5300を用いた手術の様子を示す図である。図31では、術者5321が、顕微鏡手術システム5300を用いて、患者ベッド5323上の患者5325に対して手術を行っている様子を概略的に示している。なお、図31では、簡単のため、顕微鏡手術システム5300の構成のうち制御装置5317の図示を省略するとともに、顕微鏡装置5301を簡略化して図示している。
 図31に示すように、手術時には、顕微鏡手術システム5300を用いて、顕微鏡装置5301によって撮影された術部の画像が、手術室の壁面に設置される表示装置5319に拡大表示される。表示装置5319は、術者5321と対向する位置に設置されており、術者5321は、表示装置5319に映し出された映像によって術部の様子を観察しながら、例えば患部の切除等、当該術部に対して各種の処置を行う。
 以上、本開示に係る技術が適用され得る顕微鏡手術システム5300の一例について説明した。なお、ここでは、一例として顕微鏡手術システム5300について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、顕微鏡装置5301は、その先端に顕微鏡部5303に代えて他の観察装置や他の術具を支持する、支持アーム装置としても機能し得る。当該他の観察装置としては、例えば内視鏡が適用され得る。また、当該他の術具としては、鉗子、攝子、気腹のための気腹チューブ、又は焼灼によって組織の切開や血管の封止を行うエネルギー処置具等が適用され得る。これらの観察装置や術具を支持アーム装置によって支持することにより、医療スタッフが人手で支持する場合に比べて、より安定的に位置を固定することが可能となるとともに、医療スタッフの負担を軽減することが可能となる。本開示に係る技術は、このような顕微鏡部以外の構成を支持する支持アーム装置に適用されてもよい。
 本開示に係る技術は、以上説明した構成のうち、図30の筒状部5305に好適に適用され得る。具体的には、図2に例示した固体撮像素子200は、筒状部5305内の撮像部に用いられる。固体撮像素子200の適用により、画素加算時の読出し回数が少なくなるため、顕微鏡手術システム5300の消費電力を低減することができる。
 <<第4の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、カプセル型内視鏡を用いた患者の体内情報取得システムに適用されてもよい。
 図32は、本開示に係る技術が適用され得る体内情報取得システム5400の概略的な構成の一例を示す図である。図32を参照すると、体内情報取得システム5400は、カプセル型内視鏡5401と、体内情報取得システム5400の動作を統括的に制御する外部制御装置5423と、から構成される。検査時には、カプセル型内視鏡5401が患者によって飲み込まれる。カプセル型内視鏡5401は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置5423に順次無線送信する。外部制御装置5423は、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。体内情報取得システム5400では、このようにして、カプセル型内視鏡5401が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した画像を随時得ることができる。
 カプセル型内視鏡5401と外部制御装置5423の構成及び機能についてより詳細に説明する。図示するように、カプセル型内視鏡5401は、カプセル型の筐体5403内に、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417、状態検出部5419及び制御部5421の機能が搭載されて構成される。
 光源部5405は、例えばLED(light emitting diode)等の光源から構成され、撮像部5407の撮像視野に対して光を照射する。
 撮像部5407は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した電気信号、すなわち観察像に対応した画像信号を生成する。撮像部5407によって生成された画像信号は、画像処理部5409に提供される。なお、撮像部5407の撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子が用いられてよい。
 画像処理部5409は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部5407によって生成された画像信号に対して各種の信号処理を行う。当該信号処理は、画像信号を外部制御装置5423に伝送するための最小限の処理(例えば、画像データの圧縮、フレームレートの変換、データレートの変換及び/又はフォーマットの変換等)であってよい。画像処理部5409が必要最小限の処理のみを行うように構成されることにより、当該画像処理部5409を、より小型、より低消費電力で実現することができるため、カプセル型内視鏡5401に好適である。ただし、筐体5403内のスペースや消費電力に余裕がある場合であれば、画像処理部5409において、更なる信号処理(例えば、ノイズ除去処理や他の高画質化処理等)が行われてもよい。画像処理部5409は、信号処理を施した画像信号を、RAWデータとして無線通信部5411に提供する。なお、画像処理部5409は、状態検出部5419によってカプセル型内視鏡5401の状態(動きや姿勢等)についての情報が取得されている場合には、当該情報と紐付けて、画像信号を無線通信部5411に提供してもよい。これにより、画像が撮像された体内における位置や画像の撮像方向等と、撮像画像とを関連付けることができる。
 無線通信部5411は、外部制御装置5423との間で各種の情報を送受信可能な通信装置によって構成される。当該通信装置は、アンテナ5413と、信号の送受信のための変調処理等を行う処理回路等から構成される。無線通信部5411は、画像処理部5409によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ5413を介して外部制御装置5423に送信する。また、無線通信部5411は、外部制御装置5423から、カプセル型内視鏡5401の駆動制御に関する制御信号を、アンテナ5413を介して受信する。無線通信部5411は、受信した制御信号を制御部5421に提供する。
 給電部5415は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部5415では、いわゆる非接触充電の原理を用いて電力が生成される。具体的には、給電部5415のアンテナコイルに対して外部から所定の周波数の磁界(電磁波)が与えられることにより、当該アンテナコイルに誘導起電力が発生する。当該電磁波は、例えば外部制御装置5423からアンテナ5425を介して送信される搬送波であってよい。当該誘導起電力から電力再生回路によって電力が再生され、昇圧回路においてその電位が適宜調整されることにより、蓄電用の電力が生成される。給電部5415によって生成された電力は、電源部5417に蓄電される。
 電源部5417は、二次電池によって構成され、給電部5415によって生成された電力を蓄電する。図32では、図面が煩雑になることを避けるために、電源部5417からの電力の供給先を示す矢印等の図示を省略しているが、電源部5417に蓄電された電力は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、状態検出部5419及び制御部5421に供給され、これらの駆動に用いられ得る。
 状態検出部5419は、加速度センサ及び/又はジャイロセンサ等の、カプセル型内視鏡5401の状態を検出するためのセンサから構成される。状態検出部5419は、当該センサによる検出結果から、カプセル型内視鏡5401の状態についての情報を取得することができる。状態検出部5419は、取得したカプセル型内視鏡5401の状態についての情報を、画像処理部5409に提供する。画像処理部5409では、上述したように、当該カプセル型内視鏡5401の状態についての情報が、画像信号と紐付けられ得る。
 制御部5421は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することによりカプセル型内視鏡5401の動作を統括的に制御する。制御部5421は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417及び状態検出部5419の駆動を、外部制御装置5423から送信される制御信号に従って適宜制御することにより、以上説明したような各部における機能を実現させる。
 外部制御装置5423は、CPU、GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。外部制御装置5423は、アンテナ5425を有し、当該アンテナ5425を介して、カプセル型内視鏡5401との間で各種の情報を送受信可能に構成される。具体的には、外部制御装置5423は、カプセル型内視鏡5401の制御部5421に対して制御信号を送信することにより、カプセル型内視鏡5401の動作を制御する。例えば、外部制御装置5423からの制御信号により、光源部5405における観察対象に対する光の照射条件が変更され得る。また、外部制御装置5423からの制御信号により、撮像条件(例えば、撮像部5407におけるフレームレート、露出値等)が変更され得る。また、外部制御装置5423からの制御信号により、画像処理部5409における処理の内容や、無線通信部5411が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置5423は、カプセル型内視鏡5401から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が行われてよい。外部制御装置5423は、表示装置(図示せず)の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置5423は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 <<第5の応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図33は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図33に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図33では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図34は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図34には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図33に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図33の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図33に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム7000において、図2を用いて説明した本実施形態に係る固体撮像素子200は、図33に示した応用例の統合制御ユニット7600に適用することができる。例えば、固体撮像素子200は、統合制御ユニット7600の撮像部7410に相当する。例えば、統合制御ユニット7600の制御に従って、固体撮像素子200は、画素加算を行う。
 以上、本開示に係る技術が適用され得る体内情報取得システム5400の一例について説明した。本開示に係る技術は、以上説明した構成のうち、図32に例示した撮像部5407に好適に適用され得る。具体的には、図2に例示した固体撮像素子200が、撮像部5407に用いられる。固体撮像素子200の適用により、画素加算時の読出し回数が少なくなるため、体内情報取得システム5400の消費電力を低減することができる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、
 互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域と、
 前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査回路と、
 前記転送された電荷に基づいて前記遮光画素により生成された信号を処理する信号処理回路が前記遮光画素ごとに設けられた信号処理部と
を具備する固体撮像素子。
(2)前記通常画素は、
 前記電荷を蓄積する浮遊拡散層と、
 前記遮光画素と前記浮遊拡散層とを接続する接続トランジスタと
とを備える
前記(1)記載の固体撮像素子。
(3)前記通常画素は、前記浮遊拡散層の前記電荷の量を初期化するリセットトランジスタをさらに備える
前記(2)記載の固体撮像素子。
(4)前記接続トランジスタは、前記浮遊拡散層を初期化するリセットトランジスタである
前記(2)記載の固体撮像素子。
(5)前記行走査回路は、前記浮遊拡散層の初期化を指示するリセット信号と前記浮遊拡散層の接続を指示する接続信号とを同時に送信する
前記(2)から(4)のいずれかに記載の固体撮像素子。
(6)前記行走査回路は、前記浮遊拡散層の初期化を指示するリセット信号を送信した後に前記浮遊拡散層の接続を指示する接続信号を送信する
前記(2)から(4)のいずれかに記載の固体撮像素子。
(7)前記通常画素は、
 光を光電変換して前記電荷を生成する光電変換素子と、
 前記遮光画素と前記光電変換素子とを接続する接続トランジスタと
を備える前記(1)に記載の固体撮像素子。
(8)前記遮光画素は、
 前記転送された電荷を蓄積する電荷蓄積部と、
 前記蓄積された電荷の量に応じた信号を増幅する増幅トランジスタと
を備える前記(1)から(7)のいずれかに記載の固体撮像素子。
(9)前記遮光画素は、光電変換素子をさらに備える
前記(8)記載の固体撮像素子。
(10)前記ブロックのそれぞれは、浮遊拡散層を共有する前記複数の通常画素がそれぞれに設けられた複数の画素ブロックを備える前記(1)から(9)のいずれかに記載の固体撮像素子。
(11)前記複数の通常画素のうち隣接する一対の通常画素の一方は、前記行走査回路の制御に従って前記一対の通常画素の他方に前記電荷を転送する
前記(1)から(9)のいずれかに記載の固体撮像素子。
(12)所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、
 互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域と、
 前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査回路と、
 前記転送された電荷に基づいて前記遮光画素により生成された信号を処理してデータを生成する信号処理回路が前記遮光画素ごとに設けられた信号処理部と、
 前記生成されたデータを記録する記録部と
を具備する撮像装置。
(13)所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域とが設けられた画素アレイ部における前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査手順と、
 前記転送された電荷に基づいて前記遮光画素により生成された信号を処理する信号処理手順と
を具備する固体撮像素子の制御方法。
 100 撮像装置
 110 撮像レンズ
 120 記録部
 130 撮像制御部
 200 固体撮像素子
 210 行走査回路
 220 画素アレイ部
 221 受光領域
 222、300 画素ブロック
 223 遮光領域
 224 加算ブロック
 230、350、360 通常画素
 231、242、309、353 リセットトランジスタ
 232、241、363 接続トランジスタ
 233、246、311、354、364 増幅トランジスタ
 234、243、301、302、305、306、312、313、317、318、352、362 転送トランジスタ
 235、310、356、366 浮遊拡散層
 236、247、314、355、365 選択トランジスタ
 237、244、303、304、307、308、315、316、319、320、351、361 光電変換素子
 240 遮光画素
 250 DAC
 255 定電流源
 260 信号処理部
 261 AD変換器
 262 コンパレータ
 263 カウンタ
 270 タイミング制御部
 280 列走査回路
 290 画像処理部
 5009、5123、5407、7410 撮像部
 5305 筒状部

Claims (13)

  1.  所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、
     互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域と、
     前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査回路と、
     前記転送された電荷に基づいて前記遮光画素により生成された信号を処理する信号処理回路が前記遮光画素ごとに設けられた信号処理部と
    を具備する固体撮像素子。
  2.  前記通常画素は、
     前記電荷を蓄積する浮遊拡散層と、
     前記遮光画素と前記浮遊拡散層とを接続する接続トランジスタと
    を備える
    請求項1記載の固体撮像素子。
  3.  前記通常画素は、前記浮遊拡散層の前記電荷の量を初期化するリセットトランジスタをさらに備える
    請求項2記載の固体撮像素子。
  4.  前記接続トランジスタは、前記浮遊拡散層を初期化するリセットトランジスタである
    請求項2記載の固体撮像素子。
  5.  前記行走査回路は、前記浮遊拡散層の初期化を指示するリセット信号と前記浮遊拡散層の接続を指示する接続信号とを同時に送信する
    請求項2記載の固体撮像素子。
  6.  前記行走査回路は、前記浮遊拡散層の初期化を指示するリセット信号を送信した後に前記浮遊拡散層の接続を指示する接続信号を送信する
    請求項2記載の固体撮像素子。
  7.  前記通常画素は、
     光を光電変換して前記電荷を生成する光電変換素子と、
     前記遮光画素と前記光電変換素子とを接続する接続トランジスタと
    を備える請求項1記載の固体撮像素子。
  8.  前記遮光画素は、
     前記転送された電荷を蓄積する電荷蓄積部と、
     前記蓄積された電荷の量に応じた信号を増幅する増幅トランジスタと
    を備える請求項1記載の固体撮像素子。
  9.  前記遮光画素は、光電変換素子をさらに備える
    請求項8記載の固体撮像素子。
  10.  前記ブロックのそれぞれは、浮遊拡散層を共有する前記複数の通常画素がそれぞれに設けられた複数の画素ブロックを備える請求項1記載の固体撮像素子。
  11.  前記複数の通常画素のうち隣接する一対の通常画素の一方は、前記行走査回路の制御に従って前記一対の通常画素の他方に前記電荷を転送する
    請求項1記載の固体撮像素子。
  12.  所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、
     互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域と、
     前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査回路と、
     前記転送された電荷に基づいて前記遮光画素により生成された信号を処理してデータを生成する信号処理回路が前記遮光画素ごとに設けられた信号処理部と、
     前記生成されたデータを記録する記録部と
    を具備する撮像装置。
  13.  所定方向に配列された複数の通常画素がそれぞれに設けられた所定数のブロックと、互いに異なる前記ブロックに接続された前記所定数の遮光画素が前記所定方向に配列された遮光領域とが設けられた画素アレイ部における前記ブロック内の前記複数の通常画素のそれぞれを制御して前記ブロックから当該ブロックに対応する前記遮光画素へ電荷を転送させる走査手順と、
     前記転送された電荷に基づいて前記遮光画素により生成された信号を処理する信号処理手順と
    を具備する固体撮像素子の制御方法。
PCT/JP2017/021440 2016-07-27 2017-06-09 固体撮像素子、撮像装置、および、固体撮像素子の制御方法 WO2018020857A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/316,462 US10986986B2 (en) 2016-07-27 2017-06-09 Solid-state image pickup element, image pickup apparatus, and method of controlling solid-state image pickup element

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016146859A JP2018019191A (ja) 2016-07-27 2016-07-27 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
JP2016-146859 2016-07-27

Publications (1)

Publication Number Publication Date
WO2018020857A1 true WO2018020857A1 (ja) 2018-02-01

Family

ID=61015987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021440 WO2018020857A1 (ja) 2016-07-27 2017-06-09 固体撮像素子、撮像装置、および、固体撮像素子の制御方法

Country Status (3)

Country Link
US (1) US10986986B2 (ja)
JP (1) JP2018019191A (ja)
WO (1) WO2018020857A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202413A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像素子および撮像装置
WO2020202414A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像装置および制御プログラム
WO2020202409A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像素子および撮像装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018096771A1 (ja) * 2016-11-25 2018-05-31 オリンパス株式会社 撮像システム及び撮像装置
CN110545707B (zh) * 2017-03-27 2022-09-23 奥林巴斯株式会社 摄像装置
JP2019140513A (ja) * 2018-02-09 2019-08-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法
JP7151109B2 (ja) * 2018-03-19 2022-10-12 ソニーグループ株式会社 医療用撮像装置及び医療用観察システム
JP7261642B2 (ja) 2019-03-29 2023-04-20 株式会社ソニー・インタラクティブエンタテインメント 画像処理方法、画像処理装置、およびヘッドマウントディスプレイ
JP7468527B2 (ja) 2019-06-13 2024-04-16 ソニーグループ株式会社 撮像装置、撮像制御方法およびプログラム
US11633089B2 (en) * 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
EP4057047A1 (en) * 2021-03-09 2022-09-14 Leica Instruments (Singapore) Pte. Ltd. Microscope system and corresponding system, method and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295666A (ja) * 2005-04-13 2006-10-26 Pentax Corp ノイズ除去装置
JP2014209696A (ja) * 2012-07-23 2014-11-06 ソニー株式会社 固体撮像装置、信号読み出し方法、および電子機器
JP2015211259A (ja) * 2014-04-24 2015-11-24 ソニー株式会社 撮像素子、制御方法、並びに、撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5108713B2 (ja) * 2008-10-10 2012-12-26 パナソニック株式会社 固体撮像装置及び撮像装置
US10212370B2 (en) * 2014-07-04 2019-02-19 Sharp Kabushiki Kaisha Solid-state image sensor and electronic information device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295666A (ja) * 2005-04-13 2006-10-26 Pentax Corp ノイズ除去装置
JP2014209696A (ja) * 2012-07-23 2014-11-06 ソニー株式会社 固体撮像装置、信号読み出し方法、および電子機器
JP2015211259A (ja) * 2014-04-24 2015-11-24 ソニー株式会社 撮像素子、制御方法、並びに、撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202413A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像素子および撮像装置
WO2020202414A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像装置および制御プログラム
WO2020202409A1 (ja) * 2019-03-29 2020-10-08 株式会社ニコン 撮像素子および撮像装置
JPWO2020202409A1 (ja) * 2019-03-29 2020-10-08
JP7380678B2 (ja) 2019-03-29 2023-11-15 株式会社ニコン 撮像素子および撮像装置

Also Published As

Publication number Publication date
JP2018019191A (ja) 2018-02-01
US20190239731A1 (en) 2019-08-08
US10986986B2 (en) 2021-04-27

Similar Documents

Publication Publication Date Title
WO2018020857A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
US10834315B2 (en) Image transfer apparatus and moving image generating system for transferring moving image data
US10958847B2 (en) Imaging device, image processing method, and image processing system
WO2018003305A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
US11350053B2 (en) Imaging device, method thereof, and imaging element
WO2017221715A1 (ja) 撮像素子及び電子機器
US11372200B2 (en) Imaging device
WO2018003245A1 (ja) 信号処理装置、撮像装置、及び信号処理方法
WO2018016344A1 (ja) 固体撮像装置および電子機器
WO2019163368A1 (ja) 測距システム、及び、受光モジュール
WO2018088239A1 (ja) 情報処理装置および方法、並びにプログラム
US20200382823A1 (en) Display control apparatus, display control method, and video output apparatus
JPWO2020174865A1 (ja) 可変焦点距離レンズ系及び撮像装置
WO2018037680A1 (ja) 撮像装置、撮像システム、及び、信号処理方法
US11156751B2 (en) Imaging optical system, camera module, and electronic device
US11482159B2 (en) Display control device, display control method, and display control program
JPWO2020174876A1 (ja) レンズ鏡筒及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17833867

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17833867

Country of ref document: EP

Kind code of ref document: A1