WO2018038269A1 - 電子内視鏡用プロセッサ及び電子内視鏡システム - Google Patents

電子内視鏡用プロセッサ及び電子内視鏡システム Download PDF

Info

Publication number
WO2018038269A1
WO2018038269A1 PCT/JP2017/030629 JP2017030629W WO2018038269A1 WO 2018038269 A1 WO2018038269 A1 WO 2018038269A1 JP 2017030629 W JP2017030629 W JP 2017030629W WO 2018038269 A1 WO2018038269 A1 WO 2018038269A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination light
light
image sensor
subject
time
Prior art date
Application number
PCT/JP2017/030629
Other languages
English (en)
French (fr)
Inventor
佳宏 林
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to JP2018535793A priority Critical patent/JP6797925B2/ja
Priority to DE112017002857.4T priority patent/DE112017002857T5/de
Priority to US16/300,225 priority patent/US11607110B2/en
Priority to CN202011496351.8A priority patent/CN112656348B/zh
Priority to CN201780026729.8A priority patent/CN109068966B/zh
Publication of WO2018038269A1 publication Critical patent/WO2018038269A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor

Definitions

  • the present invention relates to an electronic endoscope processor and an electronic endoscope system.
  • Patent Document 1 describes a specific configuration of this type of electronic endoscope system.
  • Patent Document 1 discloses an electronic endoscope in which a subject is alternately illuminated with white normal light and special light having a wavelength band different from that of normal light, and object light from the subject is detected by a CMOS image sensor.
  • a system is disclosed.
  • a CMOS type image sensor employs a rolling shutter system, and pixel exposure and pixel signal readout are sequentially performed for each line. Therefore, if the subject is illuminated by alternately switching between normal light and special light, information on the subject when the normal light is illuminated and information on the subject when the special light is illuminated are mixed in the pixel signal.
  • the illumination light is turned off every other frame and the illumination light is turned off. The pixel signal is read out.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to properly expose a subject illuminated with any illumination light when observing the subject using illumination light having different light amounts. It is providing the processor for electronic endoscopes and electronic endoscope system which can be image
  • An electronic endoscope processor is an electronic endoscope processor that processes an image signal of a subject imaged using an imaging device, and the illumination light that irradiates the subject is processed first.
  • Illumination light switching means for alternately switching between the first illumination light and the second illumination light in which the first illumination light has a different amount of time integration of the luminous flux per unit time, and the exposure time and charge of the image sensor Image pickup device control means for controlling the read timing of.
  • the image sensor control means includes the exposure time T1 of the image sensor when the subject is irradiated with the first illumination light and the exposure time of the image sensor when the subject is irradiated with the second illumination light.
  • T2 is controlled based on the time integration amount R1 of the luminous flux per unit time of the first illumination light and the time integration amount R2 of the luminous flux per unit time of the second illumination light.
  • the illumination light switching unit includes a rotation filter unit 260 according to an embodiment described later.
  • the image sensor control unit is a circuit of the system controller 202, the timing controller 204, or the driver signal processing circuit 110 according to one embodiment described later.
  • the image sensor control means controls the exposure time and charge readout timing of the image sensor.
  • the system controller 202 which is at least part of these circuits, controls the exposure time and charge readout timing.
  • a control signal for controlling the control signal is generated, and the control signal is transmitted to the image sensor via the timing controller 204 and the driver signal processing circuit 110.
  • the imaging device is configured to receive the control signal and perform an operation corresponding to the control signal in accordance with the control signal. The above description is also applied to illumination light switching means and imaging element control means described later.
  • the subject is irradiated.
  • the exposure time of the image sensor is adjusted according to the amount of illumination light that is present. Therefore, it is possible to photograph both the subject illuminated with the first illumination light and the subject illuminated with the second illumination light with appropriate exposure.
  • the electronic endoscope processor can be attached and detached, for example, with an electronic scope including an image sensor.
  • the image sensor control means acquires the amplification factor of the amplification process performed on the image signal in at least one of the electronic scope and the electronic endoscope processor, and the first illumination light is irradiated.
  • the gain of the amplification process performed on the image signal of the subject is defined as G1
  • the gain of the amplification process performed on the image signal of the object irradiated with the second illumination light is defined as G2.
  • it is preferable to adjust the exposure time T1 and the exposure time T2 so as to satisfy T1 ⁇ R1 ⁇ G1 T2 ⁇ R2 ⁇ G2.
  • the image pickup device control means acquires the amplification factor of the amplification processing performed on the image signal.
  • a circuit corresponding to the image pickup device control means is provided in the electronic scope. This refers to reading out and acquiring the amplification factor information stored in the memory 112.
  • the amplification process is configured to be performed by a part of a circuit corresponding to the image sensor control unit or the pre-stage signal processing circuit 220. Therefore, according to an embodiment described later, the gain is adjusted by a part of the circuit corresponding to the image sensor control unit.
  • the time for which the first illumination light is continuously applied to the subject is equal to the time for which the second illumination light is continuously applied to the subject.
  • the illumination light switching unit includes, for example, a light source configured to emit white light and a first light configured to filter the white light into the first illumination light.
  • a rotating plate having a first filter and a second filter configured to filter white light into second illuminating light, respectively, arranged in substantially the same angular range in the circumferential direction, and rotating the rotating plate The rotation is configured to insert the first filter into the white light optical path during the first illumination light irradiation period and to insert the second filter into the optical path during the second illumination light irradiation period.
  • a driving unit is configured to insert the first filter into the white light optical path during the first illumination light irradiation period and to insert the second filter into the optical path during the second illumination light irradiation period.
  • the illumination light switching unit is configured such that, for example, the illumination light applied to the subject has the time integration amount of the first illumination light, the second illumination light, and the luminous flux per unit time. It is preferable to sequentially switch between the third illumination light different from the first illumination light or the second illumination light.
  • the image sensor control means sets the exposure time T1, the exposure time T2, and the exposure time T3 of the image sensor when the subject is irradiated with the third illumination light, the time integration amount R1, the time integration amount R2, and the first integration time. It is preferable to control based on the time integration amount R3 of the luminous flux per unit time of the illumination light No. 3.
  • the illumination light irradiating the subject is different from the first illumination light and the second illumination light in which the time integration amount of the light flux per unit time is different.
  • image sensor control means for controlling charge readout timing.
  • the image sensor control means includes the exposure time T1 of the image sensor when the subject is irradiated with the first illumination light and the exposure time of the image sensor when the subject is irradiated with the second illumination light.
  • T2 is controlled based on the time integration amount R1 of the luminous flux per unit time of the first illumination light and the time integration amount R2 of the luminous flux per unit time of the second illumination light.
  • an electronic endoscope system includes an electronic endoscope processor having the illumination light switching unit and the imaging element control unit, An electronic scope having the imaging element and configured to be detachably connected to the electronic endoscope processor.
  • the electronic endoscope processor or the electronic scope includes an amplification unit that performs an amplification process on the image signal output from the imaging device, and a control unit that controls an amplification factor of the amplification process.
  • the first wavelength band of the first illumination light is different from the second wavelength band of the second illumination light.
  • control means A calculation amount K1 relating to the first illumination light in the first wavelength band, with respect to the amplification factor applied to the image signal of the subject irradiated with one of the first illumination light and the second illumination light. And control based on the calculated amount K2 related to the second illumination light in the second wavelength band and the exposure times T1, T2.
  • the calculated amount K1 integrates the product of the light intensity distribution of the first illumination light in the first wavelength band and the distribution of the quantum efficiency of the imaging device in the first wavelength band in the range of the first wavelength band.
  • the amount obtained by The calculated amount K2 is obtained by integrating the product of the light intensity distribution of the second illumination light in the second wavelength band and the quantum efficiency distribution of the imaging device in the second wavelength band in the range of the second wavelength band. It is preferable that it is the quantity obtained by this.
  • the control means preferably includes a driver signal processing circuit 110 or a system controller 202 according to one embodiment described later.
  • the amplifying means includes a driver signal processing circuit 110 or a pre-stage signal processing circuit 220 according to an embodiment described later.
  • the control means controlling the amplification factor is configured such that at least a part of these circuits generates a control signal for setting the amplification factor and transmits the control signal to a circuit corresponding to the amplification means. It means that The circuit corresponding to the amplification means is configured to receive the control signal and operate according to the control signal. The contents described above are also applied to the control means and the amplification means described later.
  • the amplification factors to be applied to the image signal of the subject irradiated with the first illumination light and the second illumination light are defined as G3 and G4, respectively.
  • an electronic endoscope system includes, for example, an electronic endoscope processor having illumination light switching means and an image sensor control means, an image sensor, and an electronic endoscope. And an electronic scope that is detachably connected to the processor, and an amplifying unit that amplifies the image signal output from the image sensor.
  • the amplifying unit performs an amplification process on the image signal of the subject irradiated with the first illumination light at an amplification factor G1, and amplifies the image signal of the subject irradiated with the second illumination light. It is preferable to perform amplification processing at a rate G2.
  • an image pick-up element control means adjusts exposure time T1 and exposure time T2 so that it may satisfy
  • fill T1 * R1 * G1 T2 * R2 * G2.
  • the wavelength band of the first illumination light and the wavelength band of the second illumination light are different from each other, and the first illumination light and the second illumination light in the imaging device are different from each other.
  • an electronic scope provided with the imaging device is detachable,
  • the wavelength band of the first illumination light and the wavelength band of the second illumination light are different from each other
  • the image sensor control means includes At least one of the electronic scope and the electronic endoscope processor obtains an amplification factor of amplification processing performed on the image signal,
  • An amplification factor of amplification processing performed on the image signal of the subject irradiated with the first illumination light is defined as G1
  • the image signal of the subject irradiated with the second illumination light is defined as G1.
  • the first illumination light and the first illumination light differ in the amount of time integration of the luminous flux per unit time.
  • Illumination light switching means for alternately switching between the two illumination lights;
  • An image sensor that receives light from the subject and outputs an image signal corresponding to the received light;
  • Imaging device control means for controlling the exposure time and charge readout timing of the imaging device.
  • the image sensor control means includes The exposure time T1 of the imaging device when the subject is irradiated with the first illumination light and the exposure time T2 of the imaging device when the subject is irradiated with the second illumination light, Control based on a calculation amount K1 related to the first illumination light in the first wavelength band and a calculation amount K2 related to the second illumination light in the second wavelength band,
  • the calculated amount K1 integrates the product of the light intensity distribution of the first illumination light in the first wavelength band and the distribution of the quantum efficiency of the imaging device in the first wavelength band in the range of the first wavelength band.
  • the amount obtained by The calculated amount K2 is obtained by integrating the product of the light intensity distribution of the second illumination light in the second wavelength band and the quantum efficiency distribution of the imaging device in the second wavelength band in the range of the second wavelength band. This is the amount obtained.
  • the first illumination light and the first illumination light differ in the amount of time integration of the luminous flux per unit time.
  • Illumination light switching means for alternately switching between the two illumination lights;
  • An image sensor configured to receive light from the subject and output an image signal corresponding to the received light;
  • the exposure time of the image sensor and the readout timing of charges are controlled, and the image sensor captures the subject irradiated with the first illumination light at the exposure time T3 and the irradiation with the second illumination light.
  • Image sensor control means for controlling the image sensor so as to image a subject with an exposure time T4;
  • Amplifying means for amplifying the image signal output from the image sensor;
  • Control means for controlling the amplification factor of the amplification process.
  • the first wavelength band of the first illumination light is different from the second wavelength band of the second illumination light
  • the control means includes An amplification factor applied to the image signal of the subject irradiated with one of the first illumination light and the second illumination light, and an amplification factor applied to the image signal of the subject irradiated with the other illumination; Control based on the calculated amount K1 related to the first illumination light in the first wavelength band and the calculated amount K2 related to the second illumination light in the second wavelength band, and the exposure times T3, T4,
  • the calculated amount K1 integrates the product of the light intensity distribution of the first illumination light in the first wavelength band and the distribution of the quantum efficiency of the imaging device in the first wavelength band in the range of the first wavelength band.
  • the amount obtained by The calculated amount K2 is obtained by integrating the product of the light intensity distribution of the second illumination light in the second wavelength band and the quantum efficiency distribution of the imaging device in the second wavelength band in the range of the second wavelength band. This is the amount obtained.
  • the amplification factors to be applied to the image signal of the subject irradiated with the first illumination light and the second illumination light are defined as G3 and G4, respectively.
  • the imaging device is configured to read the charge at the light receiving position while shifting the start and end timing of exposure at the light receiving position on the light receiving surface of the image sensor,
  • the light intensity of the first illumination light is higher than the light intensity of the second illumination light
  • the exposure time T2 is equal to or shorter than a reference time obtained by dividing the irradiation time of the subject by the second illumination light by the number of times of reading of the charge at the light receiving position, and the charge reading time and the light receiving position from the reference time. It is preferable that the time is equal to or longer than a time obtained by subtracting a reset time for resetting the noise accumulated charge before exposure.
  • a minimum time of deviation at the light receiving position between the start and end timing of exposure of the image sensor is equal to the reset time.
  • the second illumination light has a transition period in which the light intensity gradually increases with time from the start of irradiation before the light intensity becomes constant, It is preferable that a period of resetting the noise accumulation charge performed before the charge readout first performed within the irradiation time is within the transition period.
  • the irradiation time when the subject is continuously irradiated with the first illumination light is equal to the irradiation time when the subject is continuously irradiated with the second illumination light. It is preferable.
  • the illumination light switching unit includes, for example, a light source configured to emit white light and a first light configured to filter the white light into the first illumination light. 1 filter, a second filter configured to filter white light into the second illumination light, and a rotating plate arranged side by side in the same angular range in the circumferential direction, and by rotating the rotating plate Rotational drive configured to insert the first filter into the white light optical path during the first illumination light irradiation period and to insert the second filter into the optical path during the second illumination light irradiation period. It is preferable to provide a part.
  • the illumination light switching unit is configured such that, for example, the illumination light applied to the subject has the time integration amount of the first illumination light, the second illumination light, and the luminous flux per unit time. It is preferable to sequentially switch between the third illumination light different from the first illumination light or the second illumination light.
  • the image sensor control means sets the exposure time T1, the exposure time T2, and the exposure time T3 of the image sensor when the subject is irradiated with the third illumination light, the time integration amount R1, the time integration amount R2, and the first integration time. It is preferable to control based on the time integration amount R3 of the luminous flux per unit time of the illumination light No. 3.
  • the illumination light irradiating the subject includes the first illumination light in the first wavelength band, and the first illumination light is the time of the luminous flux per unit time.
  • Illuminating light switching means for alternately switching between the second illuminating light having a different integration amount and a second wavelength band different from the first wavelength band;
  • An imaging device configured to receive light from the subject and output an image signal corresponding to the received light.
  • the K1 is obtained by integrating the product of the light intensity distribution of the first illumination light in the first wavelength band and the quantum efficiency distribution of the imaging device in the first wavelength band in the range of the first wavelength band.
  • the amount obtained is obtained,
  • the K2 is obtained by integrating the product of the light intensity distribution of the second illumination light in the second wavelength band and the quantum efficiency distribution of the image sensor in the second wavelength band in the range of the second wavelength band. The amount obtained.
  • the image sensor is preferably a CMOS type image sensor, for example.
  • the subject illuminated with any illumination light can be photographed with appropriate exposure. Can do.
  • FIG. 1 It is a block diagram which shows the structure of the electronic endoscope system which concerns on one Embodiment of this invention. It is a front view of the rotation filter part with which the processor concerning one embodiment of the present invention is equipped. It is a front view of the rotation filter part with which the processor concerning the conventional electronic endoscope system is equipped. It is a figure for demonstrating the exposure timing of the solid-state image sensor concerning the conventional electronic endoscope system, and the read-out timing of a pixel signal. It is a figure for demonstrating the discharge timing and the read-out timing of the electric charge of the solid-state image sensor used for the processor which concerns on one Embodiment of this invention. It is a front view of the rotation filter part with which the processor concerning one embodiment of the present invention is equipped.
  • control or “adjust” the exposure time or amplification factor (gain) described below is the value of the controlled result or the adjusted result, in addition to the case of performing the control operation or the adjustment operation.
  • the setting of the exposure time or amplification factor is also included.
  • FIG. 1 is a block diagram showing a configuration of an electronic endoscope system 1 according to an embodiment of the present invention.
  • the electronic endoscope system 1 includes an electronic scope 100, a processor 200, and a monitor 300.
  • the processor 200 includes a system controller 202 and a timing controller 204.
  • the system controller 202 executes various programs stored in the memory 212 and controls the entire electronic endoscope system 1 in an integrated manner.
  • the system controller 202 is connected to the operation panel 214.
  • the system controller 202 changes each operation of the electronic endoscope system 1 and parameters for each operation in accordance with an instruction from the operator input from the operation panel 214.
  • the timing controller 204 outputs a clock pulse for adjusting the operation timing of each unit to each circuit in the electronic endoscope system 1.
  • the lamp 208 emits the illumination light L after being started by the lamp power igniter 206.
  • the lamp 208 is a high-intensity lamp such as a xenon lamp, a halogen lamp, a mercury lamp, or a metal halide lamp.
  • the lamp 208 may be a solid light source such as an LED (Light Emitting Diode) or a laser diode.
  • the illumination light L is light having a spectrum that spreads mainly from the visible light region to the invisible infrared light region (or white light including at least the visible light region).
  • FIG. 2 is a front view of the rotary filter 260 as viewed from the condenser lens 210 side.
  • the rotary filter unit 260 includes a rotary turret 261, a DC motor 262, a driver 263, and a photo interrupter 264.
  • the illumination light L incident on the rotary turret 261 is indicated by a broken line.
  • a normal light (white light) optical filter F ⁇ b> 1 and a special light optical filter F ⁇ b> 2 are sequentially arranged in the circumferential direction on the rotary turret 261.
  • Each of the optical filters F1 and F2 has a fan shape and is arranged around the rotation axis O in an angle range of about 180 °.
  • the driver 263 drives the DC motor 262 under the control of the system controller 202.
  • the optical filters F1 and F2 are sequentially inserted into the optical path of the illumination light L.
  • the illumination light L incident from the lamp 208 is filtered by each optical filter, and one of two types of illumination light L (normal light L1 and special light L2) having different spectra is extracted at a timing synchronized with imaging.
  • the rotational position and rotational phase of the rotary turret 261 are controlled by detecting an opening (not shown) formed in the vicinity of the outer periphery of the rotary turret 261 with a photo interrupter 264.
  • a frame F0 is provided between the optical filter F1 and the optical filter F2.
  • the frame F0 is formed of a material that does not transmit the illumination light L. For this reason, when the frame F0 is inserted into the optical path of the illumination light L, the amount of illumination light L (normal light L1 or special light L2) that passes through the rotary filter unit 260 decreases, and the size and position of the frame F0. Depending on the case, the light in which the normal light L1 and the special light L2 are mixed is extracted.
  • a transition period a period in which the frame F0 is inserted in the optical path of the illumination light L is referred to as a transition period.
  • the illumination light L extracted from the rotary filter unit 260 during this transition period is not used for photographing a subject because the amount of light is unstable.
  • the normal light optical filter F1 is a light-reducing filter that attenuates the illumination light L, but may be replaced with a simple aperture (without an optical filter) or a slit having a diaphragm function (without an optical filter).
  • the special light optical filter F2 has a spectral characteristic suitable for taking a spectral image of a blood vessel structure near the surface layer (or a deep blood vessel structure, a specific lesion, etc.), for example.
  • the illumination light L (normal light L 1 and special light L 2) extracted from the rotary filter unit 260 is condensed on the incident end face of an LCB (Light Carrying Bundle) 102 by the condenser lens 210 and is incident on the LCB 102.
  • the normal light L1 is preferably white light or pseudo white light.
  • White light is light having a constant light intensity in the visible light wavelength band
  • pseudo white light is light composed of a plurality of light components having light intensity peaks in a specific wavelength band of the visible light wavelength band.
  • the special light L2 is light having a narrower wavelength band than the wavelength band of white light or pseudo white light.
  • the normal light L1 and the special light L2 have different wavelength bands.
  • normal light L1 and special light L2 are used as illumination light for illuminating a living tissue that is a subject, and a normal light observation image and a special light observation image are acquired.
  • the special light observation image an image different from the normal light observation image can be acquired according to the absorption characteristics of the living tissue, so that a characteristic part of the living tissue can be emphasized and observed, and the lesion of the living tissue can be observed. It makes it easy to find out parts. Therefore, the spectral characteristics of the special light optical filter F2 are set according to the absorption characteristics of the biological tissue to be emphasized.
  • Illumination light L (normal light L1 and special light L2) incident on the LCB 102 propagates through the LCB 102 and exits from the exit end face of the LCB 102 disposed at the tip of the electronic scope 100, and passes through the light distribution lens 104. Illuminate the subject. Thereby, the subject is illuminated alternately with the normal light L1 and the special light L2. The return light from the subject illuminated by each illumination light L forms an optical image on the light receiving surface of the solid-state image sensor 108 via the objective lens 106.
  • the solid-state image sensor 108 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor having a complementary color checkered pixel arrangement.
  • the solid-state image sensor 108 accumulates an optical image formed by each pixel on the light receiving surface as a charge corresponding to the amount of light, and generates pixel signals of yellow Ye, cyan Cy, green G, and magenta Mg. The pixel signals of two pixels adjacent in the vertical direction are added, mixed, and output.
  • the solid-state image sensor 108 may include a primary color filter (Bayer array filter). Since the solid-state image sensor 108 has a complementary color filter or a primary color filter, the quantum efficiency QE at each light receiving position on the light receiving surface of the solid-state image sensor 108 changes according to the wavelength.
  • the timing of switching between the normal light L1 and the special light L2 by the rotary filter unit 260 is synchronized with the exposure timing of the solid-state image sensor 108 and the readout timing of the charges accumulated in the solid-state image sensor 108.
  • the solid-state imaging device 108 uses the pixel signal of the observation image (normal light observation image) of the subject illuminated with the normal light L1 and the pixel of the observation image (special light observation image) of the subject illuminated with the special light L2. Signals are output alternately.
  • the electronic scope 100 is detachably connected to the processor 200.
  • a driver signal processing circuit 110 is provided in a connection portion of the electronic scope 100 with the processor 200.
  • Each pixel signal of the normal light observation image and the special light observation image is alternately input from the solid-state imaging device 108 to the driver signal processing circuit 110.
  • the driver signal processing circuit 110 performs predetermined processing such as amplification processing and AD conversion processing on the pixel signal input from the solid-state image sensor 108 and outputs the processed signal to the previous signal processing circuit 220 of the processor 200.
  • the driver signal processing circuit 110 also accesses the memory 112 and reads the unique information of the electronic scope 100.
  • Specific information of the electronic scope 100 recorded in the memory 112 includes, for example, specifications such as the number of pixels and sensitivity of the solid-state imaging device 108, an operable frame rate, an amplification factor of amplification processing by the driver signal processing circuit 110, and an electronic scope. 100 model numbers and the like are included.
  • the driver signal processing circuit 110 outputs the unique information read from the memory 112 to the system controller 202.
  • the system controller 202 performs various calculations based on the unique information of the electronic scope 100 and generates a control signal.
  • the system controller 202 uses the generated control signal to control the operation and timing of various circuits in the processor 200 so that processing suitable for the electronic scope 100 connected to the processor 200 is performed.
  • the timing controller 204 supplies clock pulses to the driver signal processing circuit 110 according to the timing control by the system controller 202.
  • the driver signal processing circuit 110 drives and controls the solid-state imaging device 108 at a timing synchronized with the frame rate of the video processed on the processor 200 side, according to the clock pulse supplied from the timing controller 204.
  • the pre-stage signal processing circuit 220 performs amplification processing, color interpolation processing, matrix calculation processing, Y / C separation processing, etc. on each pixel signal of the normal light observation image and the special light observation image input from the driver signal processing circuit 110. Predetermined signal processing is performed to generate an image signal, which is output to the subsequent signal processing circuit 230.
  • the post-stage signal processing circuit 230 processes the image signal input from the pre-stage signal processing circuit 220 to generate monitor display screen data, and converts the generated monitor display screen data into a predetermined video format signal. .
  • the converted video format signal is output to the monitor 300. Thereby, the normal light observation image and the special light observation image of the subject are displayed on the display screen of the monitor 300.
  • FIG. 3 is a front view of the rotary filter unit 1260 provided in the processor of the conventional electronic endoscope system.
  • the rotary filter unit 1260 includes a rotary turret 1261.
  • a normal light filter F1p and a special light filter F2p are arranged in order in the circumferential direction.
  • Each optical filter has a fan shape with a central angle of about 90 °, and is arranged at a position that is rotationally symmetric with respect to the rotation axis O.
  • a region P0 of the rotary turret 1261 in which each filter is not provided is a light shielding plate that shields illumination light.
  • FIG. 4 illustrates the exposure timing of the solid-state imaging device and the charge (pixel signal) readout timing when the normal light observation image and the special light observation image are displayed side by side in a conventional electronic endoscope system. It is a figure for doing.
  • the solid-state imaging device is a CMOS type image sensor, and a rolling shutter system is adopted for reading pixel signals.
  • a plurality of pixels are arranged in a line on the light receiving surface of the solid-state imaging device, and a plurality of lines of the pixels are arranged in a line. Pixel signals are read together for each line.
  • FIG. 4 shows the exposure time and readout timing of each line when it is assumed that the solid-state imaging device includes pixels of X lines Line1 to LineX.
  • the exposure timing of the solid-state imaging device and the readout timing of the pixel signal are synchronized with the rotation of the rotary turret 1261. Specifically, at time t1, normal light irradiation is started, and exposure of all pixels of the solid-state imaging device is started. All pixels are exposed for 1/60 second until time t2. At time t2, the illumination light is shielded by the light shielding plate P0, and the charge accumulated in each pixel during time t1 to t2 is sequentially read for each line. Specifically, the reading of the pixel signal is performed while shifting the time in order from the line with the smallest line number. The time required for reading out pixel signals from all pixels is 1/60 second.
  • the exposure time of the solid-state image sensor when normal light is irradiated and the exposure time of the solid-state image sensor when special light is irradiated are the same. Further, since the normal light and the special light are switched at a high speed every 1/30 seconds, the aperture value of the diaphragm cannot be adjusted according to the illuminance of the subject that changes at high speed.
  • the electronic endoscope system 1 is suitably configured to prevent the subject image from being overexposed or underexposed in the conventional electronic endoscope system.
  • FIG. 5 is a diagram for explaining the discharge timing and readout timing of the charges of the pixels included in the solid-state imaging device 108 when the normal light observation image and the special light observation image are displayed side by side in the present embodiment.
  • FIG. 5 is a diagram for explaining the discharge timing and readout timing of the charges of the pixels included in the solid-state imaging device 108 when the normal light observation image and the special light observation image are displayed side by side in the present embodiment.
  • a plurality of pixels are arranged in a line on the light receiving surface of the solid-state image sensor 108, and a plurality of lines of the pixels are arranged. Pixel signals are read together for each line.
  • the solid-state image sensor 108 has X lines on which a plurality of pixels are arranged.
  • FIG. 5 shows the charge discharge timing and read timing of each line in the lines Line1 to LineX.
  • the charge discarding means resetting the noise accumulated charge unrelated to the captured image.
  • the normal light L1 and the special light L2 are alternately irradiated onto the subject every 1/30 seconds. Both the irradiation period in which the normal light L1 is continuously irradiated onto the subject and the irradiation period in which the special light L2 is continuously irradiated onto the subject are 1/30 seconds including the transition period of the illumination light L.
  • the solid-state image sensor 108 is alternately exposed at a fixed time within the irradiation period of the normal light L1 and the irradiation period of the special light L2, and outputs the accumulated charge as a pixel signal. Thereby, the normal light observation image and the special light observation image can be taken almost simultaneously.
  • the light amount of the normal light L1, that is, the light intensity is larger than the light amount of the special light L2, that is, the light intensity. Therefore, if the exposure time of the solid-state image sensor 108 is adjusted so that either one of the normal light observation image and the special light observation image is optimally exposed, the other observation image is overexposed or underexposed. For example, if the exposure time is adjusted so that the exposure of the normal light observation image is optimal, the special light observation image becomes a dark image with insufficient exposure. Therefore, the solid-state imaging device 108 is driven and controlled so that both the normal light observation image and the special light observation image are appropriately exposed.
  • the amount of light that is, the light intensity
  • the amount of light is a value obtained by integrating the spectral intensity distribution of each light along the wavelength.
  • the exposure time T1 of the solid-state image sensor 108 during the normal light L1 irradiation period is different from the exposure time T2 of the solid-state image sensor 108 during the special light L2 irradiation period.
  • the light amount R1 is a time integration amount of the light flux per unit time of the normal light L1 irradiated to the subject.
  • the light quantity R2 is a time integration amount of the light flux per unit time of the special light L2 irradiated to the subject. Accordingly, R1 and R2 also correspond to the light intensities of the normal light L1 and the special light L2.
  • the light amounts R1 and R2 can also be known if the types of illumination light L such as normal light L1 and special light L2 are known.
  • association information in which association between the type of illumination light and the amount of light is associated in advance is stored in the memory 23 in advance, and information on the illumination light L emitted from the processor 200 (normal light L1, L1). Since the type of the special light L2) is known, the light amounts R1 and R2 can be acquired using this information and the association information stored in the memory 23.
  • the SN ratio of the pixel signal output from the solid-state image sensor 108 usually improves as the exposure amount increases. Therefore, in one embodiment, it is preferable that the exposure time T2 during the period during which the special light L2 with a small amount of light is irradiated is set to be as long as possible.
  • the period during which the special light L2 is irradiated is a period obtained by subtracting the transition period from 1/30 second.
  • pixels of each line are read out every 1/30 seconds by the rolling shutter method. Therefore, the exposure times T1 and T2 are adjusted not by the readout time (exposure end time) but by the exposure start time.
  • the charge discharging process of each pixel that is, the reset of the noise accumulated charge is performed so that the exposure times T1 and T2 become set values.
  • the time when the discharge process ends is the exposure start time, and the time from the exposure start time until the charge reading process is performed is the exposure time.
  • the normal light L1 is applied to the subject. Thereafter, the charges accumulated in the pixels are sequentially discharged for each line. Next, for each line, the accumulated charge is read out at the timing when the exposure time of the pixel reaches T1, and is output to the driver signal processing circuit 110.
  • the time taken to read out the charges of all the pixels is 1/60 second from time t2 to t3.
  • the timing for performing the charge discharging process is set by calculating backward from the charge reading timing so that the exposure time becomes T1.
  • the special light L2 is irradiated onto the subject. Thereafter, the charges accumulated in the pixels are sequentially discharged for each line.
  • the timing at which the charge discharge process is started is set so that the exposure of the pixel of Line 1 is started immediately after the transition period from the normal light L1 to the special light L2. Thereby, the exposure time T2 of the special light L2 can be lengthened.
  • the charge accumulated at the timing when the exposure time of the pixel reaches T2 is read and output to the driver signal processing circuit 110.
  • the exposure time T1 of the solid-state imaging device 108 at the time of irradiation with the normal light L1 is set shorter than the exposure time T2 at the time of irradiation of the special light L2.
  • the charge readout process of each pixel is performed every 1/30 seconds, and the charge discharge process is performed at timings according to the exposure times T1 and T2. It is not limited.
  • the exposure times T1 and T2 of the solid-state image sensor 108 do not need to include the transition period of the illumination light L, and the charge readout process does not have to be performed at regular intervals.
  • the charge discharging process may be performed at the timing when the transition period from the normal light L1 to the special light L2 ends and at the timing when the transition period from the special light L2 to the normal light L1 ends. In this case, the charge discharging process is performed every 1/30 seconds, and the charge reading process is performed at a timing according to the exposure times T1 and T2.
  • the solid-state image sensor 108 is configured to read out electric charges at the light receiving position while shifting the timing of the start and end of exposure at the light receiving position on the light receiving surface of the solid-state image sensor 108, and the normal light L1.
  • the amount of light (first illumination light), that is, the light intensity is larger than the amount of special light L2 (second illumination light), that is, the light intensity.
  • the exposure time T2 for the special light L2 is equal to or shorter than the reference time obtained by dividing the irradiation time of the special light L2 (second illumination light) by the number of charges read at all light receiving positions.
  • the time is equal to or longer than the time obtained by subtracting the reset time for resetting the accumulated noise before exposure at the light receiving position.
  • the exposure time T2 in the special light L2 with low light intensity is ensured as much as possible, so that it is accumulated in the solid-state imaging device 108 between the special light L2 with low light intensity and the normal light L1 with high light intensity.
  • the difference in the amount of charge to be reduced can be reduced.
  • the minimum shift time at the light receiving position for example, the shift time between adjacent lines, at the start and end timings of exposure of the solid-state imaging device 108 is a reset for resetting the accumulated noise charge.
  • the exposure time T2 can be lengthened during the limited irradiation period.
  • the light intensity of the normal light L1 (first illumination light) and the special light L2 (second illumination light) gradually increases with time from the start of irradiation before the light intensity becomes constant. Have a transition period that increases.
  • the period of resetting the noise accumulated charge (charge discharging process) performed before the first charge reading performed within the irradiation time of the special light L2 is within the transition period.
  • the exposure time T2 can be lengthened during the limited irradiation period.
  • the exposure times T1 and T2 may be set using the gain of amplification processing on the image signal in addition to the light amounts R1 and R2.
  • G1 is the gain of amplification processing for the image signal of the normal light observation image.
  • G2 is the gain of amplification processing for the image signal of the special light observation image.
  • Each image signal is amplified by the driver signal processing circuit 110 and the pre-stage signal processing circuit 220.
  • the driver signal processing circuit 110 amplification processing is performed on the analog pixel signal output from the solid-state image sensor 108.
  • the pre-stage signal processing circuit 220 performs amplification processing on the digital pixel signal after AD conversion.
  • the system controller 202 acquires the gain of the amplification process in the driver signal processing circuit 110 and the gain of the amplification process in the pre-stage signal processing circuit 220, and calculates the gains G1 and G2.
  • Each of the gains G1 and G2 is a product of the gain of amplification processing in the driver signal processing circuit 110 and the gain of amplification processing in the pre-stage signal processing circuit 220.
  • the gain of the amplification process is switched between G1 and G2.
  • either the gain of amplification processing in the driver signal processing circuit 110 or the gain of amplification processing in the previous signal processing circuit 220 may be switched, or both may be switched.
  • only one of the driver signal processing circuit 110 and the pre-stage signal processing circuit 220 may perform the amplification process on the image signal.
  • the exposure time T2 becomes longer. As the exposure time becomes longer, the captured image is more likely to be blurred. Therefore, if the difference between the light amount R1 and the light amount R2 is large, the observation image captured using the special light L2 may be difficult to see due to the blur.
  • the exposure time T1 and the exposure time T2 may be set to the same length or may be set to different lengths.
  • an upper limit value may be set for one or both of the exposure time (T1, T2) and the gain (G1, G2).
  • FIG. 6 is a front view of the rotary filter unit 260 in one embodiment.
  • the normal light optical filter F1, the special light optical filter F2A, and the special light optical filter F2B are arranged side by side in the circumferential direction.
  • Each of the optical filters F1, F2A, F2B has a fan shape and is arranged around the rotation axis O in an angle range of approximately 120 °.
  • the special light optical filter F2A and the special light optical filter F2B have different spectral transmission characteristics. By sequentially inserting each optical filter F1, F2A, F2B into the optical path of the illumination light L, the illumination light L incident from the lamp 208 is filtered by each optical filter, and three types of illumination light (normal light having different spectra) are obtained. L1, special light L2A, and special light L2B) are sequentially extracted at a timing synchronized with imaging.
  • the normal light L1, the special light L2A, and the special light L2B are sequentially irradiated onto the subject every 1/30 seconds.
  • the illumination light is an illumination period in which the normal light L1 is continuously irradiated onto the subject, the special light L2A is continuously irradiated onto the subject, and the special light L2B is continuously irradiated onto the subject. 1/30 seconds including the L transition period.
  • the solid-state image sensor 108 is exposed during the irradiation period of each illumination light L, and outputs the accumulated charges as a pixel signal. Thereby, the normal light observation image, the special light observation image A using the special light L2A, and the special light observation image B using the special light L2B can be simultaneously photographed.
  • the light amount of the normal light L1 is larger than the light amount of the special light L2A. Further, the light amount of the special light L2A is larger than the light amount of the special light L2B. For this reason, the exposure time of the solid-state imaging device 108 in the irradiation period of each illumination light L is adjusted so that the exposure of the three observation images of the normal light observation image, the special light observation image A, and the special light observation image B is appropriate.
  • FIG. 7 is a diagram for explaining the discharge timing and readout timing of the charges of the pixels included in the solid-state imaging device 108 in the irradiation using the normal light L1, the special light L2A, and the special light L2B.
  • the exposure time T2B is different.
  • the exposure times T1, T2A, and T2B are set according to the amounts of normal light L1, special light L2A, and special light L2B.
  • T2A and T2B are set.
  • the light amount R1 is a time integration amount of the light flux per unit time of the normal light L1 irradiated to the subject.
  • the light quantity R2A is a time integration amount of the light flux per unit time of the special light L2A irradiated to the subject.
  • the light quantity R2B is a time integration amount of the light flux per unit time of the special light L2B irradiated to the subject.
  • G1 is the gain of amplification processing for the image signal of the normal light observation image.
  • G2A is a gain of amplification processing for the image signal of the special light observation image A.
  • G2B is a gain of amplification processing for the image signal of the special light observation image B.
  • the normal light L1 and the special light L2 have a difference in light amount, that is, light intensity, and an exposure time is set corresponding to this difference.
  • FIGS. 8A to 8E are diagrams illustrating the calculation amounts K1 and K2 used in the processor according to the embodiment.
  • the calculated amounts K1 and K2 are amounts used in place of the above-described light amounts R1 and R2 in consideration of the quantum efficiency of the solid-state imaging device 108.
  • the normal light L1 and the special light L2 are assumed to have a light intensity distribution as shown in FIGS. 8A and 8B, and as shown in FIG. 8C, the characteristics of the quantum efficiency QE of the solid-state imaging device 108.
  • the quantum efficiency QE refers to the efficiency with which photons incident on the photoelectric surface (light receiving surface) are converted into electrons.
  • the photoelectric conversion wavelength characteristics of the photoelectric surface (light receiving surface) of the solid-state imaging device 108 itself, This largely depends on the transmittance characteristics of a color filter (for example, a primary color filter) provided on the front surface (light receiving surface). Therefore, as shown in FIGS. 8D and 8E, the product of the light intensity distribution shown in FIGS. 8A and 8B and the quantum efficiency distribution of the solid-state imaging device 108 is integrated in the range of each wavelength band. It is preferable to determine the calculated amounts as calculated amounts K1 and K2 and use the calculated amounts K1 and K2 in place of the light amounts R1 and R2.
  • the calculated amounts K1 and K2 are the products of the light intensity distribution in the wavelength band of the normal light L1 and the special light L2 and the distribution of the quantum efficiency of the solid-state imaging device 108 in the wavelength band of the normal light L1 and the special light L2, respectively. This is an amount obtained by integrating in the range of the wavelength band.
  • the information on the characteristics of the quantum efficiency QE is included in the unique information of the electronic scope 100 and stored in the memory 112 as information on the solid-state imaging device 108.
  • the exposure time is increased in the irradiation period of the special light L2 or the like, the observation image may be difficult to see due to blurring. Therefore, the increase in the exposure time is suppressed, and instead in the amplification process.
  • the amplification factor that is, the gain is adjusted.
  • the calculated amounts K1 and K2 can be used in place of the light amounts R1 and R2 in order to set the gain.
  • the gain (amplification factor) applied to the image signal of the subject that has been irradiated with one of the normal light L1 (first illumination light) and the special light L2 (second illumination light) is:
  • gains (amplification factors) applied to the image signals of the subject irradiated with the normal light L1 (first illumination light) and the special light L2 (second illumination light) are defined as G3 and G4, respectively.
  • the exposure may not be performed properly because the quantum efficiency of the solid-state image sensor 108 is not taken into consideration.
  • the gain (amplification factor) applied to the image signal of the subject irradiated with the normal light L1 (first illumination light) and the special light L2 (second illumination light) is adjusted in consideration of the quantum efficiency. be able to.
  • the amplification factor applied to the image signal of the subject that has been irradiated with either the normal light L1 (first illumination light) or the special light L1 (second illumination light) is It is also preferable to control based on the calculated amount K1 and the calculated amount K2, and the exposure times T1 and T2.
  • the amplification factors applied to the image signal of the subject that has been irradiated with the normal light L1 (first illumination light) and the special light L2 (second illumination light) are defined as G3 and G4, respectively.
  • the exposure time T1 is calculated using the average quantum efficiencies AQE1, AQE2.
  • T2 and amplification factors G1, G2 or amplification factors G3, G4 can be controlled.
  • the wavelength bands of the normal light L1 (first illumination light) and the special light L2 (second illumination light) are known in advance, the average quantum efficiency of the quantum efficiency QE in this wavelength band is calculated and calculated. It can also be used instead of the quantities K1 and K2. In this case, it is not necessary to calculate the calculation amounts K1 and K2 in advance, and the processing can be simplified.
  • the average quantum efficiencies AQE1 and AQE2 calculated using the calculated amounts K1, K2 and R1, R2 obtained from the acquired information are acquired, and the exposure time and gain (amplification factor) described later are adjusted. Can be used.
  • Such average quantum efficiencies AQE1 and AQE2 can be obtained without calculation by the system controller 202 or the like.
  • association information in which the combination of the type of the illumination light L and the information of the quantum efficiency QE included in the unique information of the electronic scope 100 and the average quantum efficiency are associated with each other is stored in the memory 212 in advance. Is connected to the processor 200, the value of the average quantum efficiency can be set by referring to the association information.
  • the exposure time T1 is preferably set from a known exposure time T2.
  • the gain (amplification factor) applied to the image signal of the subject irradiated with the normal light L1 (first illumination light) and the special light L2 (second illumination light) is set to G1, respectively.
  • Such information on the average quantum efficiency is determined for each wavelength band of the normal light L1 and the special light L2 set in advance as information on the solid-state imaging device 108, and this information is included in the unique information of the electronic scope 100.
  • the electronic scope 100 is connected to the processor 200, it is read out and acquired from the driver signal processing circuit 110 and output to the system controller 110.
  • the exposure time and the amplification factor are controlled using information on the amount of light such as the normal light L1 and the special light L.
  • the above control is performed.
  • the time and the amplification factor are fixed to values controlled so as to satisfy appropriate exposure conditions.
  • the light amounts R1, R2, and R3 are the amount of time integration of the luminous flux per unit time of the illumination light.
  • an image signal may be generated by performing logarithmic conversion on an output signal from the solid-state image sensor 108. Therefore, in one embodiment, with respect to the light amounts R1, R2, and R3, it is preferable to use, as the light amounts R1, R2, and R3, the amount of time integration of the luminous flux per unit time of the illumination light and the logarithmically converted amount. Further, the calculated amount K1.
  • the amount obtained by integrating the product of the light intensity distribution in the wavelength band of the illumination light and the quantum efficiency distribution of the solid-state imaging device 108 in the wavelength band range It is also preferable to use the calculated amounts as the calculated amounts K1 and K2. Accordingly, the time integral amount of the luminous flux per unit time of the illumination light and the product of the light intensity distribution in the wavelength band of the illumination light and the quantum efficiency distribution of the solid-state imaging device 108 are obtained by integrating in the wavelength band range.
  • the quantity includes the logarithmically converted quantity.
  • Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention.
  • the embodiment of the present invention also includes contents appropriately combined with embodiments or the like clearly shown in the specification or obvious embodiments.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

電子内視鏡システムの、撮像素子を用いて撮影された被写体の画像信号を処理する電子内視鏡用プロセッサは、被写体に照射する照明光を第1の照明光と第2の照明光との間で交互に切り替える照明光切替手段と、撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備える。前記撮像素子制御手段は、被写体に第1の照明光が照射されている時の撮像素子の露光時間T1と被写体に第2の照明光が照射されている時の撮像素子の露光時間T2を、第1の照明光の単位時間当たりの光束の時間積分量R1及び第2の照明光の単位時間当たりの光束の時間積分量R2に基づいて制御する。

Description

電子内視鏡用プロセッサ及び電子内視鏡システム
 本発明は、電子内視鏡用プロセッサ及び電子内視鏡システムに関する。
 医療機器分野においては、特性の異なる波長域の照明光を使用した観察を同時に行うことで病変部の診断を容易にする電子内視鏡システムが知られている。例えば特許文献1に、この種の電子内視鏡システムの具体的構成が記載されている。
 特許文献1には、被写体を、白色の通常光と、通常光とは波長帯域の異なる特殊光とにより交互に照明し、被写体からの物体光をCMOS型のイメージセンサで検出する電子内視鏡システムが開示されている。CMOS型のイメージセンサではローリングシャッタ方式が採用されており、画素の露光及び画素信号の読み出しがライン毎に順次行われる。そのため、通常光と特殊光とを交互に切り替えて被写体を照明すると、通常光を照明したときの被写体の情報と特殊光を照明したときの被写体の情報とが画素信号に混ざってしまう。特許文献1の電子内視鏡システムでは、異なる照明光で照明された被写体の情報が画素信号に混ざることを防止するため、1フレームおきに照明光を消灯し、照明光を消灯している間に画素信号を読み出している。
特開2010-068992号公報
 特許文献1に記載の電子内視鏡システムのように、通常光と特殊光とで被写体を交互に照明すると、通常光で照明された被写体の照度と特殊光で照明された被写体の照度に差が生じる場合がある。2つの被写体の照度差が大きい場合、一方の被写体像に合わせて露出補正を行うと、他方の被写体像が過剰露出又は露出不足となってしまうという問題が生じる。
 本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、光量の異なる照明光を使用して被写体を観察する場合に、何れの照明光で照明された被写体も適正露出で撮影可能な電子内視鏡用プロセッサ及び電子内視鏡システムを提供することである。
 本発明の一実施形態に係る電子内視鏡用プロセッサは、撮像素子を用いて撮影された被写体の画像信号を処理する電子内視鏡用プロセッサであって、被写体に照射する照明光を、第1の照明光と、第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備える。この構成において、撮像素子制御手段は、被写体に第1の照明光が照射されている時の撮像素子の露光時間T1と被写体に第2の照明光が照射されている時の撮像素子の露光時間T2を、第1の照明光の単位時間当たりの光束の時間積分量R1及び第2の照明光の単位時間当たりの光束の時間積分量R2に基づいて制御する。
 ここで、前記照明光切替手段は、後述する一実施形態によれば、回転フィルタ部260を含む。
 前記撮像素子制御手段は、後述する一実施形態によれば、システムコントローラ202、タイミングコントローラ204、あるいはドライバ信号処理回路110の回路である。前記撮像素子制御手段が、撮像素子の露光時間及び電荷の読出しタイミングを制御するとは、一実施形態によれば、これらの回路の少なくとも一部であるシステムコントローラ202が、露光時間及び電荷の読出しタイミングを制御する制御信号を生成し、制御信号をタイミングコントローラ204及びドライバ信号処理回路110を介して、前記撮像素子に送信するように構成されていることをいう。前記撮像素子は前記制御信号を受信し、前記制御信号に従がって制御信号に対応した動作をするように構成されていることをいう。後述する照明光切替手段及び撮像素子制御手段においても上記内容を援用する。
 このような構成によれば、光量(単位時間当たりの光束の時間積分量)の異なる2つの第1の照明光と第2の照明光を交互に被写体に照射する場合に、被写体に照射されている照明光の光量に応じて撮像素子の露光時間が調整される。そのため、第1の照明光で照明された被写体と第2の照明光で照明された被写体の両方を適正な露出で撮影することができる。
 また、本発明の一実施形態によれば、撮像素子制御手段は、例えば、露光時間T1及び露光時間T2を、T1×R1=T2×R2を満たすように調整することが好ましい。
 また、本発明の一実施形態によれば、電子内視鏡プロセッサは、例えば、撮像素子を備えた電子スコープを着脱可能である。この構成において、撮像素子制御手段は、電子スコープと電子内視鏡用プロセッサの少なくとも一方において、画像信号に対して施される増幅処理の増幅率を取得し、第1の照明光が照射された被写体の画像信号に対して施される増幅処理の増幅率をG1と定義し、第2の照明光が照射された被写体の画像信号に対して施される増幅処理の増幅率をG2と定義した場合に、露光時間T1及び露光時間T2を、T1×R1×G1=T2×R2×G2を満たすように調整することが好ましい。
 ここで、前記撮像素子制御手段が、画像信号に対して施される増幅処理の増幅率を取得するとは、後述する一実施形態では、前記撮像素子制御手段に対応する回路が、前記電子スコープのメモリ112に記憶された増幅率の情報を読み出して取得することをいう。
 前記増幅処理は、後述する一実施形態によれば、前記撮像素子制御手段に対応する回路の一部あるいは前段信号処理回路220が行うように構成される。したがって、前記増幅率の調整も、後述する一実施形態によれば、前記撮像素子制御手段に対応する回路の一部が行うように構成される。
 また、本発明の一実施形態において、例えば、第1の照明光が連続して被写体に照射される時間と、第2の照明光が連続して被写体に照射される時間は等しい。
 また、本発明の一実施形態によれば、照明光切替手段は、例えば、白色光を射出するように構成された光源と、白色光を第1の照明光にフィルタリングするように構成された第1のフィルタ、白色光を第2の照明光にフィルタリングするように構成された第2のフィルタがそれぞれ、円周方向において略同じ角度範囲に並べて配置された回転板と、回転板を回転させることにより、第1の照明光の照射期間中、第1のフィルタを白色光の光路に挿入させ、第2の照明光の照射期間中、第2のフィルタを光路に挿入させるように構成された回転駆動部と、を備えることが好ましい。
 また、本発明の一実施形態によれば、照明光切替手段は、例えば、被写体に照射する照明光を、第1の照明光、第2の照明光、単位時間当たりの光束の時間積分量が第1の照明光又は第2の照明光とは異なる第3の照明光の間で順次切り替えることが好ましい。この場合、撮像素子制御手段は、露光時間T1、露光時間T2及び被写体に第3の照明光が照射されている時の撮像素子の露光時間T3を、時間積分量R1、時間積分量R2及び第3の照明光の単位時間当たりの光束の時間積分量R3に基づいて制御することが好ましい。
 本発明の一実施形態に係る電子内視鏡システムは、被写体に照射する照明光を、第1の照明光と、第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備える。この構成において、撮像素子制御手段は、被写体に第1の照明光が照射されている時の撮像素子の露光時間T1と被写体に第2の照明光が照射されている時の撮像素子の露光時間T2を、第1の照明光の単位時間当たりの光束の時間積分量R1及び第2の照明光の単位時間当たりの光束の時間積分量R2に基づいて制御する。
 また、本発明の一実施形態によれば、撮像素子制御手段は、例えば、露光時間T1及び露光時間T2を、T1×R1=T2×R2を満たすように調整することが好ましい。
 本発明の一実施形態によれば、電子内視鏡システムは、前記照明光切替手段と前記撮像素子制御手段を有する電子内視鏡用プロセッサと、
 前記撮像素子を有し、前記電子内視鏡用プロセッサに対して着脱可能に接続されるように構成された電子スコープと、を備える。
 前記電子内視鏡用プロセッサあるいは前記電子スコープは、前記撮像素子から出力された前記画像信号に対して増幅処理を施す増幅手段と、前記増幅処理の増幅率を制御する制御手段と、を備える。
 前記第1の照明光の第1波長帯域は、前記第2の照明光の第2波長帯域とお互いに異なる。
 この場合において、前記制御手段は、
 前記第1の照明光及び前記第2の照明光のいずれか一方の照射を受けた被写体の前記画像信号に施す前記増幅率を、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2と、前記露光時間T1,T2とに基づいて制御し、
 前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
 前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である、ことが好ましい。
 前記制御手段は、後述する一実施形態によれば、ドライバ信号処理回路110あるいはシステムコントローラ202を含むことが好ましい。前記増幅手段は、後述する一実施形態によれば、ドライバ信号処理回路110あるいは前段信号処理回路220を含む。前記制御手段が前記増幅率を制御するとは、これらの回路の少なくとも一部が、前記増幅率を設定する制御信号を生成し、制御信号を前記増幅手段に対応する回路に送信するように構成されていることをいう。前記増幅手段に対応する回路は前記制御信号を受信し、前記制御信号に従がって動作するように構成されていることをいう。後述する制御手段及び前記増幅手段においても上記内容を援用する。
 本発明の一実施形態によれば、前記第1の照明光及び前記第2の照明光の照射を受けた被写体の前記画像信号に施す前記増幅率をそれぞれG3,G4と定義し、前記第1の照明光及び前記第2の照明光が照射されている時の前記撮像素子の露光時間をそれぞれT3、T4と定義した場合、前記制御手段は、G3×T3×K1=G4×T4×K2に基づいて、前記増幅率G3,G4を制御する、ことが好ましい。
 また、本発明の一実施形態によれば、電子内視鏡システムは、例えば、照明光切替手段と撮像素子制御手段を有する電子内視鏡用プロセッサと、撮像素子を有し、電子内視鏡用プロセッサに対して着脱可能に接続される電子スコープと、撮像素子から出力された画像信号に対して増幅処理を施す増幅手段と、を更に備える。この構成において、増幅手段は、第1の照明光が照射された被写体の画像信号に対し、増幅率G1で増幅処理を施し、第2の照明光が照射された被写体の画像信号に対し、増幅率G2で増幅処理を施すことが好ましい。また、撮像素子制御手段は、露光時間T1及び露光時間T2を、T1×R1×G1=T2×R2×G2を満たすように調整する、ことが好ましい。
 本発明の一実施形態によれば、前記第1の照明光の波長帯域と前記第2の照明光の波長帯域は互いに異なり、前記撮像素子における、前記第1の照明光及び第2照明光の波長帯域における平均量子効率それぞれを、AQE1,AQE2と定義した場合、
 前記撮像素子制御手段は、
  前記露光時間T1及び前記露光時間T2を、T1×R1×AQE1=T2×R2×AQE2を満たすように調整する、ことが好ましい。
 本発明の一実施形態によれば、前記撮像素子を備えた電子スコープを着脱可能であり、
 前記第1の照明光の波長帯域と前記第2の照明光の波長帯域は互いに異なり、
 前記撮像素子制御手段は、
  前記電子スコープと前記電子内視鏡用プロセッサの少なくとも一方において、前記画像信号に対して施される増幅処理の増幅率を取得し、
  前記第1の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG1と定義し、前記第2の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG2と定義し、さらに、前記撮像素子における、前記第1の照明光及び第2照明光の波長帯域における平均量子効率をそれぞれ、平均量子効率AQE1,AQE2と定義した場合に、前記露光時間T1及び前記露光時間T2を、T1×R1×AQE1×G1=T2×R2×AQE2×G2を満たすように調整する、ことが好ましい。
 本発明の一実施形態に係る電子内視鏡システムは、被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
 前記被写体からの光を受光し、受光した光に応じた画像信号を出力する撮像素子と、
 前記撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備える。
 前記撮像素子制御手段は、
 前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2を、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2に基づいて制御し、
 前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
 前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である。
 本発明の一実施形態によれば、前記撮像素子制御手段は、前記露光時間T1,T2を、T1×K1=T2×K2が満足するように制御する、ことが好ましい。
 本発明の一実施形態に係る電子内視鏡システムは、被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
 前記被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、
 前記撮像素子の露光時間及び電荷の読出しタイミングを制御し、前記撮像素子が前記第1の照明光で照射された前記被写体を露光時間T3で撮像し、前記第2の照明光で照射された前記被写体を露光時間T4で撮像するように前記撮像素子を制御する撮像素子制御手段と、
 前記撮像素子から出力された前記画像信号に対して増幅処理を施す増幅手段と、
 前記増幅処理の増幅率を制御する制御手段と、を備える。
 前記第1の照明光の第1波長帯域は、前記第2の照明光の第2波長帯域とお互いに異なり、
 前記制御手段は、
 前記第1の照明光及び前記第2の照明光のいずれか一方の照射を受けた被写体の前記画像信号に施す増幅率を、他方の照射を受けた被写体の前記画像信号に施す増幅率と、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2と、前記露光時間T3,T4と、に基づいて制御し、
 前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
 前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である。
 本発明の一実施形態によれば、前記第1の照明光及び前記第2の照明光の照射を受けた被写体の前記画像信号に施す前記増幅率をそれぞれG3,G4と定義し、前記第1の照明光及び前記第2の照明光が照射されている時の前記撮像素子の露光時間をそれぞれT3、T4と定義した場合、前記制御手段は、G3×T3×K1=G4×T4×K2に基づいて、前記増幅率G3、G4を制御する、ことが好ましい。
 本発明の一実施形態によれば、前記撮像素子は、前記撮像素子の受光面上の受光位置における露光の開始と終了のタイミングをずらしながら、前記受光位置における前記電荷を読み出すように構成され、
 前記第1の照明光の光強度は、前記第2照明光の光強度より高く、
 前記露光時間T2は、前記第2の照明光による被写体の照射時間を、前記受光位置における前記電荷の読み出し回数で割った基準時間以下であり、前記基準時間から前記電荷の読み出し時間と前記受光位置における前記露光前のノイズ蓄積電荷をリセットするためのリセット時間とを引いた時間以上である、ことが好ましい。
 本発明の一実施形態によれば、前記撮像素子の露光の開始と終了のタイミングの、前記受光位置におけるずれの最小時間は、前記リセット時間に等しい、ことが好ましい。
 本発明の一実施形態によれば、前記第2の照明光は、光強度が一定になる前に、照射開始から時間とともに光強度が徐々に増大する遷移期間を有し、
 前記照射時間内で最初に行う前記電荷の読み出しの前に行う前記ノイズ蓄積電荷のリセットの期間は、前記遷移期間内にある、ことが好ましい。
 また、本発明の一実施形態によれば、例えば、第1の照明光が連続して被写体に照射される照射時間と、第2の照明光が連続して被写体に照射される照射時間は等しいことが好ましい。
 また、本発明の一実施形態によれば、照明光切替手段は、例えば、白色光を射出するように構成された光源と、白色光を第1の照明光にフィルタリングするように構成された第1のフィルタ、白色光を第2の照明光にフィルタリングするように構成された第2のフィルタがそれぞれ、円周方向において同じ角度範囲に並べて配置された回転板と、回転板を回転させることにより、第1の照明光の照射期間中、第1のフィルタを白色光の光路に挿入させ、第2の照明光の照射期間中、第2のフィルタを光路に挿入させるように構成された回転駆動部と、を備えることが好ましい。
 また、本発明の一実施形態によれば、照明光切替手段は、例えば、被写体に照射する照明光を、第1の照明光、第2の照明光、単位時間当たりの光束の時間積分量が第1の照明光又は第2の照明光とは異なる第3の照明光の間で順次切り替えることが好ましい。この場合、撮像素子制御手段は、露光時間T1、露光時間T2及び被写体に第3の照明光が照射されている時の撮像素子の露光時間T3を、時間積分量R1、時間積分量R2及び第3の照明光の単位時間当たりの光束の時間積分量R3に基づいて制御することが好ましい。
 本発明の一実施形態に係る電子内視鏡システムは、被写体に照射する照明光を、第1波長帯域の第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量が異なり、前記第1波長帯域と異なる第2波長帯域の第2の照明光と、の間で交互に切り替える照明光切替手段と、
 前記被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、を備える。
 前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2は、T1×K1=T2×K2を満足する。
 前記K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
 前記K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である。
 また、本発明の一実施形態によれば、撮像素子は、例えば、CMOS型のイメージセンサであることが好ましい。
 上述の電子内視鏡用プロセッサ及び電子内視鏡システムによれば、光量の異なる照明光を使用して被写体を観察する場合に、何れの照明光で照明された被写体も適正露出で撮影することができる。
本発明の一実施形態に係る電子内視鏡システムの構成を示すブロック図である。 本発明の一実施形態に係るプロセッサに備えられる回転フィルタ部の正面図である。 従来の電子内視鏡システムに係るプロセッサに備えられる回転フィルタ部の正面図である。 従来の電子内視鏡システムに係る固体撮像素子の露光タイミング及び画素信号の読み出しタイミングを説明するための図である。 本発明の一実施形態に係るプロセッサに用いる固体撮像素子の電荷の吐き出しタイミング及び読み出しタイミングを説明するための図である。 本発明の一実施形態に係るプロセッサに備えられる回転フィルタ部の正面図である。 本発明の一実施形態に係るプロセッサに用いる固体撮像素子の電荷の吐き出しタイミング及び読み出しタイミングを説明するための図である。 (a)~(e)は、本発明の一実施形態に係るプロセッサで用いる算出量K1,K2を説明する図である。
 以下、本発明の実施形態について図面を参照しながら説明する。なお、以下においては、本発明の一実施形態として電子内視鏡システムを例に取り説明する。なお、以下説明する、露光時間あるいは増幅率(ゲイン)を「制御する」あるいは「調整する」とは、制御動作や調整動作を行う場合の他に、制御された結果あるいは調整された結果の値に、露光時間あるいは増幅率が設定されていることも含まれる。
 図1は、本発明の一実施形態に係る電子内視鏡システム1の構成を示すブロック図である。図1に示されるように、電子内視鏡システム1は、電子スコープ100、プロセッサ200及びモニタ300を備えている。
 プロセッサ200は、システムコントローラ202及びタイミングコントローラ204を備えている。システムコントローラ202は、メモリ212に記憶された各種プログラムを実行し、電子内視鏡システム1全体を統合的に制御する。また、システムコントローラ202は、操作パネル214に接続されている。システムコントローラ202は、操作パネル214より入力される術者からの指示に応じて、電子内視鏡システム1の各動作及び各動作のためのパラメータを変更する。タイミングコントローラ204は、各部の動作のタイミングを調整するクロックパルスを電子内視鏡システム1内の各回路に出力する。
 ランプ208は、ランプ電源イグナイタ206による始動後、照明光Lを射出する。ランプ208は、例えば、キセノンランプ、ハロゲンランプ、水銀ランプ、メタルハライドランプ等の高輝度ランプである。また、ランプ208は、LED(Light Emitting Diode)、レーザダイオード等の固体光源であってもよい。照明光Lは、主に可視光領域から不可視である赤外光領域に広がるスペクトルを持つ光(又は少なくとも可視光領域を含む白色光)である。
 ランプ208より射出された照明光Lは、絞り209で光量が絞られた後、回転フィルタ部260に入射される。図2は、回転フィルタ部260を集光レンズ210側から見た正面図である。回転フィルタ部260は、回転式ターレット261、DCモータ262、ドライバ263及びフォトインタラプタ264を備えている。図2には、回転式ターレット261に入射された照明光Lが破線で示されている。図2に示されるように、回転式ターレット261には、通常光(白色光)光学用フィルタF1及び特殊光用光学フィルタF2が円周方向に順に並べて配置されている。各光学フィルタF1、F2は扇形状を有しており、回転軸Oの周りで略180°の角度範囲で配置されている。
 ドライバ263は、システムコントローラ202による制御下でDCモータ262を駆動する。回転式ターレット261がDCモータ262によって回転動作することにより、各光学フィルタF1、F2が照明光Lの光路に順次挿入される。これにより、ランプ208より入射された照明光Lが各光学フィルタでフィルタリングされ、スペクトルの異なる二種類の照明光L(通常光L1と特殊光L2)の一方が、撮像と同期したタイミングで取り出される。回転式ターレット261の回転位置や回転の位相は、回転式ターレット261の外周付近に形成された開口(不図示)をフォトインタラプタ264によって検出することにより制御される。
 また、回転式ターレット261の円周方向において、光学フィルタF1と光学フィルタF2の間にはフレームF0が設けられている。このフレームF0は、照明光Lを透過させない材質で形成されている。そのため、このフレームF0が照明光Lの光路に挿入されると、回転フィルタ部260を透過する照明光L(通常光L1又は特殊光L2)の光量が低下すると共に、フレームF0の大きさ及び位置によっては、通常光L1と特殊光L2が混ざり合った光が取り出される。以下では、フレームF0が照明光Lの光路に挿入されている期間を、遷移期間と呼ぶ。この遷移期間中に回転フィルタ部260から取り出された照明光Lは、光量が不安定であるため、被写体の撮影には使用されない。
 通常光用光学フィルタF1は、照明光Lを減光する減光フィルタであるが、単なる開口(光学フィルタの無いもの)や絞り機能を兼ねたスリット(光学フィルタの無いもの)に置き換えてもよい。特殊光用光学フィルタF2は、例えば表層付近の血管構造(又は深層の血管構造、特定の病変部など)の分光画像を撮影するのに適した分光特性を持つ。
 回転フィルタ部260より取り出された照明光L(通常光L1と特殊光L2)は、集光レンズ210によりLCB(Light Carrying Bundle)102の入射端面に集光されてLCB102内に入射される。通常光L1は、一実施形態によれば、白色光あるいは擬似白色光であることが好ましい。白色光は、可視光波長帯域で一定の光強度を備える光であり、擬似白色光は、可視光波長帯域の特定の波長帯域で光強度のピークを有する複数の光成分で構成された光である。特殊光L2は、白色光あるいは擬似白色光の波長帯域に比べて狭い波長帯域の光である。このように、通常光L1と特殊光L2は、波長帯域が異なる。電子内視鏡システムでは、通常光L1及び特殊光L2で被写体である生体組織を照明する照明光として用いて撮像し、通常光観察画像と特殊光観察画像が取得される。特殊光観察画像では、生体組織の吸収特性に応じて、通常光観察画像と異なる像を取得することができるので、生体組織のある特徴部分を強調して観察することができ、生体組織の病変部等を見つけ出すことを容易にする。したがって、特殊光用光学フィルタF2の分光特性は、強調したい生体組織の吸収特性に応じて設定される。
 LCB102内に入射された照明光L(通常光L1と特殊光L2)は、LCB102内を伝播して電子スコープ100の先端に配置されたLCB102の射出端面より射出され、配光レンズ104を介して被写体を照明する。これにより、被写体は、通常光L1と特殊光L2とによって交互に照明される。各照明光Lにより照明された被写体からの戻り光は、対物レンズ106を介して固体撮像素子108の受光面上で光学像を結ぶ。
 固体撮像素子108は、補色市松型画素配置を有するCMOS(Complementary MetalOxide Semiconductor)型のイメージセンサである。固体撮像素子108は、受光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、イエローYe、シアンCy、グリーンG、マゼンタMgの画素信号を生成し、生成された垂直方向に隣接する2つの画素の画素信号を加算し混合して出力する。なお、固体撮像素子108は、原色系フィルタ(ベイヤ配列フィルタ)を搭載したものであってもよい。固体撮像素子108は、補色系色フィルタあるいは原色系色フィルタを有するので、固体撮像素子108の受光面上の各受光位置における量子効率QEは、波長に応じて変化する。
 回転フィルタ部260による通常光L1と特殊光L2の切り換えのタイミングは、固体撮像素子108の露光タイミング及び固体撮像素子108に蓄積された電荷の読み出しタイミングと同期している。これにより、固体撮像素子108は、通常光L1で照明された被写体の観察画像(通常光観察画像)の画素信号と、特殊光L2で照明された被写体の観察画像(特殊光観察画像)の画素信号とを交互に出力する。
 電子スコープ100は、プロセッサ200に着脱可能に接続される。電子スコープ100の、プロセッサ200との接続部内には、ドライバ信号処理回路110が備えられている。ドライバ信号処理回路110には、通常光観察画像、特殊光観察画像の各画素信号が固体撮像素子108より交互に入力される。ドライバ信号処理回路110は、固体撮像素子108より入力される画素信号に対して増幅処理やAD変換処理等の所定の処理を施してプロセッサ200の前段信号処理回路220に出力する。
 ドライバ信号処理回路110はまた、メモリ112にアクセスして電子スコープ100の固有情報を読み出す。メモリ112に記録される電子スコープ100の固有情報には、例えば、固体撮像素子108の画素数や感度等の仕様、動作可能なフレームレート、ドライバ信号処理回路110による増幅処理の増幅率、電子スコープ100の型番等が含まれる。ドライバ信号処理回路110は、メモリ112より読み出された固有情報をシステムコントローラ202に出力する。
 システムコントローラ202は、電子スコープ100の固有情報に基づいて各種演算を行い、制御信号を生成する。システムコントローラ202は、生成された制御信号を用いて、プロセッサ200に接続されている電子スコープ100に適した処理がなされるようにプロセッサ200内の各種回路の動作やタイミングを制御する。
 タイミングコントローラ204は、システムコントローラ202によるタイミング制御に従って、ドライバ信号処理回路110にクロックパルスを供給する。ドライバ信号処理回路110は、タイミングコントローラ204から供給されるクロックパルスに従って、固体撮像素子108をプロセッサ200側で処理される映像のフレームレートに同期したタイミングで駆動制御する。
 前段信号処理回路220は、ドライバ信号処理回路110より入力される通常光観察画像、特殊光観察画像の各画素信号に対して増幅処理、色補間処理、マトリックス演算処理、Y/C分離処理等の所定の信号処理を施して画像信号を生成し、後段信号処理回路230に出力する。
 後段信号処理回路230は、前段信号処理回路220より入力される画像信号を処理してモニタ表示用の画面データを生成し、生成されたモニタ表示用の画面データを所定のビデオフォーマット信号に変換する。変換されたビデオフォーマット信号は、モニタ300に出力される。これにより、被写体の通常光観察画像と特殊光観察画像がモニタ300の表示画面に表示される。
 ここで、従来の電子内視鏡システムにおける、固体撮像素子の露光タイミング及び電荷(画素信号)の読み出しタイミングについて説明する。
 図3は、従来の電子内視鏡システムのプロセッサに備えられる、回転フィルタ部1260の正面図である。回転フィルタ部1260は、回転式ターレット1261を備えている。回転式ターレット1261には、通常光用フィルタF1p及び特殊光用フィルタF2pが円周方向に順に並べて配置されている。各光学フィルタは中心角が約90°の扇形状を有しており、回転軸Oに対して回転対称となる位置に配置されている。また、回転式ターレット1261の、各フィルタが設けられていない領域P0は、照明光を遮光する遮光板となっている。そのため、回転式ターレット1261を回転させることにより、通常光の照射、非照射、特殊光の照射、非照射が、所定のフレームレート(本従来例では、1/60秒)で切り替わる。
 図4は、従来の電子内視鏡システムにおいて、通常光観察画像と特殊光観察画像とを並べて一画面に表示させる際の、固体撮像素子の露光タイミング及び電荷(画素信号)の読み出しタイミングを説明するための図である。固体撮像素子は、CMOS型のイメージセンサであり、画素信号の読み出しにローリングシャッタ方式が採用されている。
 固体撮像素子の受光面には、複数の画素が一列に並んで配置され、且つ、その画素のラインが複数個並んで配置される。画素信号は、1ライン毎にまとめて読み出される。図4は、固体撮像素子がX個のラインLine1~LineXの画素を含んでいると仮定した場合の、各ラインの露光時間及び読み出しタイミングを示したものである。
 固体撮像素子の露光タイミング及び画素信号の読み出しタイミングは、回転式ターレット1261の回転と同期している。詳しくは、時刻t1において、通常光の照射が開始されると共に、固体撮像素子の全画素の露光が開始される。全画素の露光は、時刻t2までの1/60秒間行われる。時刻t2では、遮光板P0によって照明光が遮光されると共に、時刻t1~t2の間に各画素に蓄積された電荷の読み出しがライン毎に順次行われる。詳しくは、画素信号の読み出しは、ライン番号の小さいラインから順番に、時間をずらしながら行われる。全画素からの画素信号の読み出しに掛かる時間は1/60秒である。時刻t3では、特殊光の照射が開始されると共に、固体撮像素子の全画素の露光が開始される。全画素の露光は、時刻t3から時刻t4までの1/60秒間行われる。時刻t4では、照明光が遮光されると共に、時刻t3~t4の間に各画素に蓄積された電荷の読み出しがライン毎に順次行われる。
 このように、通常光と特殊光の一方の照明光により照明された被写体の画素信号を読み出す期間中、被写体への照明光の照射を遮ることにより、他方の照明光により照明された被写体の情報が該画素信号に混ざることを防ぎつつ、通常光観察画像及び特殊光観察画像が15fps(frame per second)でモニタ300に表示される。
 なお、通常光と特殊光とは、分光特性や光量が異なっているため、通常光で照明された被写体の照度と特殊光で照明された被写体の照度には差が生じる。しかし、従来の電子内視鏡システムでは、通常光が照射されているときの固体撮像素子の露光時間と、特殊光が照射されているときの固体撮像素子の露光時間は同じである。また、通常光と特殊光とは1/30秒毎に高速で切り替わるため、絞りの絞り値を、高速に変化する被写体の照度に合わせて調整することができない。その結果、通常光が照射されているときと特殊光が照射されているときとで、固体撮像素子に蓄積される電荷の量に差が生じる。そのため、絞り値を何れか一方の被写体像が適正露出になるように調整すると、他方の被写体像が過剰露出又は露出不足となってしまう場合があった。露出不足になった場合、画像処理により増幅率により適正な明るさの画像にできるが、ノイズも増幅されるので好ましくない。
 そこで、本実施形態に係る電子内視鏡システム1では、従来の電子内視鏡システムにおいて、被写体像が過剰露出又は露出不足となってしまうのを抑えるのに好適に構成されている。
 図5は、本実施形態において、通常光観察画像と特殊光観察画像とを並べて一画面に表示させる際の、固体撮像素子108に含まれる画素の電荷の吐き捨てタイミング及び読み出しタイミングを説明するための図である。
 固体撮像素子108の受光面には、複数の画素が一列に並んで配置され、且つ、その画素のラインが複数個並んで配置される。画素信号は、1ライン毎にまとめて読み出される。図5に示す実施形態では、固体撮像素子108は複数個の画素が配置されるラインをX個有するとしている。図5は、ラインLine1~LineXにおける各ラインの電荷の吐き捨てタイミング及び読み出しタイミングを示したものである。電荷の破棄捨てとは、撮像画像とは無関係なノイズ蓄積電荷をリセットすることをいう。
 本実施形態では、通常光L1と特殊光L2は、1/30秒毎に交互に被写体に照射される。通常光L1が被写体に連続して照射される照射期間と特殊光L2が被写体に連続して照射される照射期間は何れも、照明光Lの遷移期間を含めて1/30秒である。
 固体撮像素子108は、通常光L1の照射期間と特殊光L2の照射期間内の一定の時間に交互に露光され、蓄積した電荷を画素信号として出力する。これにより、通常光観察画像と特殊光観察画像を略同時に撮影することができる。
 本実施形態では、通常光L1の光量、すなわち光強度は、特殊光L2の光量、すなわち光強度よりも大きい。そのため、固体撮像素子108の露光時間を、通常光観察画像と特殊光観察画像の何れか一方の露出が最適となるように調整すると、他方の観察画像が露出過剰又は露出不足になってしまう。例えば、通常光観察画像の露出が最適となるように露光時間を調整すると、特殊光観察画像は、露出が不足した暗い画像となってしまう。そこで、通常光観察画像と特殊光観察画像の両方が適正露出となるように、固体撮像素子108が駆動制御される。ここで、光量、すなわち光強度は、各光の分光強度分布を波長に沿って積分した値をいう。
 図5に示すように、通常光L1照射期間中の固体撮像素子108の露光時間T1と、特殊光L2照射期間中の固体撮像素子108の露光時間T2は異なる。各露光時間は、通常光L1及び特殊光L2の光量に応じて設定される。詳しくは、通常光L1の光量をR1、特殊光L2の光量をR2とおくと、T1×R1=T2×R2となるように、露光時間T1、T2が設定される。これにより、通常光L1照射期間中の固体撮像素子108の露光量と、特殊光L2照射期間中の固体撮像素子108の露光量が略同じとなる。なお、光量R1は、被写体に照射される通常光L1の単位時間当たりの光束の時間積分量である。また、光量R2は、被写体に照射される特殊光L2の単位時間当たりの光束の時間積分量である。したがって、R1,R2は、通常光L1及び特殊光L2の光強度にも対応する。なお、光量R1,R2は、通常光L1,特殊光L2等の照明光Lの種類がわかれば、その光量もわかる。一実施形態によれば、照明光の種類とその光量との対応付けを予め行った対応付け情報をメモリ23に予め記憶しておき、プロセッサ200から出射する照明光Lの情報(通常光L1,特殊光L2の種類)は既知であるので、この情報と、メモリ23に記憶した対応付け情報とを用いて、光量R1,R2を取得することができる。
 また、固体撮像素子108から出力される画素信号のSN比は、通常、露光量が大きいほど向上する。そのため、一実施形態では、光量の小さい特殊光L2が照射されている期間の露光時間T2ができる限り大きくなるように設定されていることが好ましい。ここで、特殊光L2が照射されている期間は、1/30秒から遷移期間を差し引いた期間である。露光時間T2が設定されると、通常光L1照射期間中の露光時間T1は、T1=T2×(R2/R1)に設定される。
 本実施形態では、ローリングシャッタ方式により、1/30秒毎に各ラインの画素の読み出しが行われる。そのため、露光時間T1、T2は、読み出し時間(露光終了時間)ではなく、露光開始時間によって調整される。本実施形態では、図5に示すように、露光時間T1、T2が設定された値となるように、各画素の電荷の吐き捨て処理、すなわち、ノイズ蓄積電荷のリセットが行われる。吐き捨て処理が終了した時間が露光開始時間となり、露光開始時間から電荷の読出し処理が行われるまでの時間が露光時間となる。
 図5において、時刻t1~t3の間、照明光Lが特殊光L2から通常光L1に遷移した後、通常光L1が被写体に照射される。その後、画素に蓄積した電荷が、ライン毎に順次吐き捨てられる。次いで、ライン毎に、画素の露光時間がT1になったタイミングで蓄積された電荷が読み出されて、ドライバ信号処理回路110に出力される。本実施形態において、全ての画素の電荷の読出しにかかる時間は、時刻t2~t3の1/60秒である。電荷の吐き捨て処理を行うタイミングは、電荷の読出しタイミングから、露光時間がT1となるように逆算して設定される。
 時刻t3~t5の間、照明光Lが通常光L1から特殊光L2に遷移した後、特殊光L2が被写体に照射される。その後、画素に蓄積した電荷が、ライン毎に順次吐き捨てられる。ここで、電荷の吐き捨て処理が開始されるタイミングは、通常光L1から特殊光L2への遷移期間が終わった直後にLine1の画素の露光が開始されるように設定されている。これにより、特殊光L2の露光時間T2を長くすることができる。次いで、ライン毎に、画素の露光時間がT2になったタイミングで蓄積された電荷が読み出されて、ドライバ信号処理回路110に出力される。
 このように、本実施形態では、通常光L1の照射時の固体撮像素子108の露光時間T1は、特殊光L2の照射時の露光時間T2よりも短く設定されている。これにより、通常光L1の光量、すなわち光強度が特殊光L2の光量、すなわち光強度よりも大きい場合に、固体撮像素子108に蓄積される電荷の量の差を小さくすることができる。そのため、通常光L1が照射されているときと特殊光L2が照射されているときの両方において、適正な露出の被写体像が得られる。
 また、本実施形態では、各画素の電荷の読み出し処理は1/30秒毎に行われ、電荷の吐き捨て処理は露光時間T1、T2に応じたタイミングで行われるが、本実施形態はこれに限定されない。固体撮像素子108の露光時間T1、T2は、照明光Lの遷移期間を含んでいなければよく、電荷の読み出し処理は一定の間隔で行われていなくてもよい。例えば、電荷の吐き捨て処理は、通常光L1から特殊光L2への遷移期間が終わるタイミング、及び、特殊光L2から通常光L1への遷移期間が終わるタイミングで行われてもよい。この場合、電荷の吐き捨て処理は1/30秒毎に行われ、電荷の読出し処理は、露光時間T1、T2に応じたタイミングで行われる。
 一実施形態によれば、固体撮像素子108は、固体撮像素子108の受光面上の受光位置における露光の開始と終了のタイミングをずらしながら、受光位置における電荷を読み出すように構成され、通常光L1(第1の照明光)の光量、すなわち光強度は、特殊光L2(第2照明光)の光量、すなわち光強度より大きい。この場合、特殊光L2における露光時間T2は、特殊光L2(第2の照明光)照射時間を、全受光位置における電荷の読み出し回数で割った基準時間以下であり、この基準時間から電荷の読み出し時間と受光位置における露光前のノイズ蓄積電荷をリセットするためのリセット時間とを引いた時間以上である、ことが好ましい。このように光強度の低い特殊光L2における露光時間T2を可能な限り確保することにより、光強度の弱い特殊光L2と光強度の強い通常光L1との間の、固体撮像素子108に蓄積される電荷の量の差を小さくすることができる。
 また、一実施形態によれば、固体撮像素子108の露光の開始と終了のタイミングの、受光位置におけるずれの最小時間、例えば隣り合うライン間のずれ時間は、ノイズ蓄積電荷をリセットするためのリセット時間に等しい、ことが好ましい。これにより、限られた照射期間の間で、露光時間T2を長くすることができる。
 また、図5に示すように、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)は、光強度が一定になる前に、照射開始から時間とともに光強度が徐々に増大する遷移期間を有する。この場合、特殊光L2の照射時間内で最初に行う電荷の読み出しの前に行うノイズ蓄積電荷のリセット(電荷の吐き捨て処理)の期間は、遷移期間内にある、ことが好ましい。これにより、限られた照射期間の間で、露光時間T2を長くすることができる。
 上述の実施形態では、通常光L1の露光時間T1及び特殊光L2の露光時間T2は、T1×R1=T2×R2を満たすように設定されるが、本発明の実施形態はこれに限定されない。一実施形態によれば、露光時間T1、T2は、光量R1、R2に加え、画像信号に対する増幅処理のゲインを用いて設定されてもよい。詳しくは、露光時間T1、T2は、T1×R1×G1=T2×R2×G2を満たすように設定される。ここで、G1は、通常光観察画像の画像信号に対する増幅処理のゲインである。また、G2は、特殊光観察画像の画像信号に対する増幅処理のゲインである。
 各画像信号は、ドライバ信号処理回路110及び前段信号処理回路220で増幅される。ドライバ信号処理回路110では、固体撮像素子108から出力されたアナログの画素信号に対して増幅処理が施される。また、前段信号処理回路220では、AD変換後のデジタルの画素信号に対して増幅処理が施される。システムコントローラ202は、ドライバ信号処理回路110における増幅処理のゲインと、前段信号処理回路220における増幅処理のゲインを取得し、ゲインG1及びG2を計算する。ゲインG1及びG2はそれぞれ、ドライバ信号処理回路110における増幅処理のゲインと、前段信号処理回路220における増幅処理のゲインの積である。一実施形態によれば、照明光Lが通常光L1と特殊光L2との間で切り替わる毎に、増幅処理のゲインがG1とG2の間で切り替えられる。なお、照明光Lの切り替えに応じて、ドライバ信号処理回路110における増幅処理のゲインと前段信号処理回路220における増幅処理のゲインの、何れか一方が切り替えられてもよく、両方が切り替えられてもよい。また、ドライバ信号処理回路110と前段信号処理回路220の何れか一方でのみ、画像信号に対する増幅処理が施されてもよい。
 例えば、通常光L1の光量R1に対して特殊光L2の光量R2が小さい場合、露光時間T1及びT2を、T1×R1=T2×R2を満たすように設定すると、露光時間T2が長くなる。露光時間が長くなるほど撮影画像にブレが発生し易くなるため、光量R1と光量R2の差が大きい場合、特殊光L2を用いて撮影された観察画像がブレによって見づらくなる可能性がある。しかし、露光時間T1、T2を、T1×R1×G1=T2×R2×G2を満たすように設定する場合、ゲインG2を大きくすることによって露光時間T2が短く設定される。これにより、ブレを抑えた観察画像を得ることができる。なお、この場合、露光時間T1と露光時間T2は、同じ長さに設定されてもよく、異なる長さに設定されてもよい。
 また、ゲインG1、G2を大きくし過ぎると、画像信号に含まれるノイズも増幅され、観察画像が見づらくなる可能性がある。更に、上述のように、露光時間T1、T2が長くなりすぎると、観察画像にブレが発生する可能性がある。そのため、本変形例1では、露光時間(T1、T2)とゲイン(G1、G2)の何れか一方、又は、両方に、上限値が設定されてもよい。
 上述の実施形態では、照明光Lは、通常光L1と特殊光L2の2つの間で交互に切り替えられるが、本発明の実施形態はこれに限定されない。一実施形態によれば、照明光Lは、3種類以上の光の間で順次切り替えてもよい。図6は、一実施形態における回転フィルタ部260の正面図である。回転フィルタ部260は、通常光用光学フィルタF1、特殊光用光学フィルタF2A、特殊光用光学フィルタF2Bが円周方向に並べて配置されている。各光学フィルタF1、F2A、F2Bは扇形状を有しており、回転軸Oの周りに略120°の角度範囲で配置されている。特殊光用光学フィルタF2Aと特殊光用光学フィルタF2Bは、分光透過特性が互いに異なっている。各光学フィルタF1、F2A、F2Bが照明光Lの光路に順次挿入されることにより、ランプ208より入射された照明光Lが各光学フィルタでフィルタリングされ、スペクトルの異なる三種類の照明光(通常光L1、特殊光L2A、特殊光L2B)が、撮像と同期したタイミングで順次取り出される。
 一実施形態によれば、通常光L1、特殊光L2A、特殊光L2Bが、1/30秒毎に順次被写体に照射される。通常光L1が被写体に連続して照射される照射期間、特殊光L2Aが被写体に連続して照射される照射期間、特殊光L2Bが被写体に連続して照射される照射期間は何れも、照明光Lの遷移期間を含めて1/30秒である。固体撮像素子108は、各照明光Lの照射期間に露光され、蓄積した電荷を画素信号として出力する。これにより、通常光観察画像、特殊光L2Aを用いた特殊光観察画像A、特殊光L2Bを用いた特殊光観察画像Bを同時に撮影することができる。
 上記実施形態では、通常光L1の光量は、特殊光L2Aの光量よりも大きい。また、特殊光L2Aの光量は、特殊光L2Bの光量よりも大きい。そのため、通常光観察画像、特殊光観察画像A、特殊光観察画像Bの3つの観察画像の露出が適正となるように、各照明光Lの照射期間における固体撮像素子108の露光時間が調整される。
 図7は、上記通常光L1、特殊光L2A、特殊光L2Bを用いた照射における、固体撮像素子108に含まれる画素の電荷の吐き捨てタイミング及び読み出しタイミングを説明するための図である。
 図7に示すように、通常光L1照射期間中の固体撮像素子108の露光時間T1、特殊光L2A照射期間中の固体撮像素子108の露光時間T2A、特殊光L2B照射期間中の固体撮像素子108の露光時間T2Bは異なる。各露光時間T1、T2A、T2Bは、通常光L1、特殊光L2A、特殊光L2Bの光量に応じて設定される。詳しくは、通常光L1の光量をR1、特殊光L2Aの光量をR2A、特殊光L2Bの光量をR2Bとおくと、T1×R1=T2A×R2A=T2B×R2Bとなるように、露光時間T1、T2A、T2Bが設定される。ここで、光量R1は、被写体に照射される通常光L1の単位時間当たりの光束の時間積分量である。また、光量R2Aは、被写体に照射される特殊光L2Aの単位時間当たりの光束の時間積分量である。また、光量R2Bは、被写体に照射される特殊光L2Bの単位時間当たりの光束の時間積分量である。これにより、通常光観察画像、特殊光観察画像A、特殊光観察画像Bの3つの観察画像の露出が適正となる。
 なお、図7に示す場合においても、各露光時間T1、T2A、T2Bは、光量R1、R2A、R2Bに加え、画像信号に対するゲインを用いて設定されてもよい。詳しくは、露光時間T1、T2A、T2Bは、T1×R1×G1=T2A×R2A×G2A=T2B×R2B×G2Bを満たすように設定されてもよい。ここで、G1は、通常光観察画像の画像信号に対する増幅処理のゲインである。また、G2Aは、特殊光観察画像Aの画像信号に対する増幅処理のゲインである。また、G2Bは、特殊光観察画像Bの画像信号に対する増幅処理のゲインである。このように、画像信号のゲインを用いて露光時間T1、T2A、T2Bを設定することにより、露光時間が長くなり過ぎて観察画像にブレが発生することを防止することができる。
 上述したいずれの実施形態においても、通常光L1,特殊光L2(あるいは特殊光L2A及び特殊光L2B)は、光量、すなわち光強度に差があり、この差に対応して露光時間を設定することを説明したが、被写体の適正露出を精度よく実現するには、固体撮像素子108の量子効率を考慮して露光時間を設定することが好ましい。
 図8(a)~(e)は、一実施形態に係るプロセッサで用いる算出量K1,K2を説明する図である。算出量K1,K2は、固体撮像素子108の量子効率を考慮した、上述の光量R1,R2に換えて用いる量である。
 通常光L1と特殊光L2は、図8(a),(b)に示すような光強度分布を有するとし、図8(c)に示すように、固体撮像素子108の量子効率QEの特性を有するとする。なお、量子効率QEは、光電面(受光面)へ入射したフォトンが電子に変換される効率をいい、例えば、固体撮像素子108の光電面(受光面)自体の光電変換の波長特性や、光電面(受光面)前面に設けた色フィルタ(例えば原色系フィルタ)の透過率特性に大きく依存する。したがって、図8(d)、(e)に示すように、図8(a),(b)に示す光強度分布と固体撮像素子108の量子効率の分布の積を各波長帯域の範囲で積分した結果の量を算出量K1,K2として定め、この算出量K1,K2を、光量R1、R2に換えて用いることが好ましい。すなわち、算出量K1,K2は、通常光L1、特殊光L2の波長帯域におけ光強度分布と通常光L1、特殊光L2の波長帯域における固体撮像素子108の量子効率の分布の積をそれぞれの波長帯域の範囲で積分することにより得られた量である。
 なお、量子効率QEの特性の情報は、固体撮像素子108の情報として、電子スコープ100の固有情報に含まれメモリ112に記憶されている。プロセッサ200に電子スコープ100が接続された時、ドライバ信号処理回路110から読み出されて取得され、システムコントローラ110に出力される。
 一実施形態によれば、被写体に通常光L1(第1の照明光)が照射されている時の固体撮像素子108の露光時間T1と、被写体に特殊光L1(第2の照明光)が照射されている時の固体撮像素子108の露光時間T2を、通常光L1の波長帯域における通常光L1に関する上記算出量K1及び特殊光L2の波長帯域における特殊光L2に関する上記算出量K2に基づいて制御することが好ましい。
 この場合、露光時間T1,T2は、T1×K1=T2×K2を満足するように制御する、ことが好ましい。さらに、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の照射を受けた被写体の画像信号に施すゲイン(増幅率)をそれぞれG1,G2としたとき、露光時間T1,T2は、T1×K1×G1=T2×K2×2を満足するように制御する、ことも好ましい。一実施形態によれば、露光時間T1を露光時間T2から設定することが好ましい。
 上述の一実施形態では、特殊光L2等の照射期間において露光時間を長くすると観察画像がブレによって見づらくなる可能性があることから、露光時間の長くすることを抑制し、その代わりに増幅処理における増幅率、すなわちゲインを調整する。この場合、露光時間を予め定めた後、ゲインを設定するために、光量R1,R2の代わりに算出量K1,K2を用いることができる。一実施形態によれば、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)のいずれか一方の照射を受けた被写体の画像信号に施すゲイン(増幅率)を、他方の照射を受けた被写体の画像信号に施すゲイン(増幅率)と、上記算出量K1及び上記算出量K2と、通常光L1及び特殊光L2の照射期間における固体撮像素子108の露光時間と、に基づいて制御することが好ましい。
 この場合、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の照射を受けた被写体の画像信号に施すゲイン(増幅率)をそれぞれG3,G4と定義し、通常光L1(第1の照明光)及び特殊光L2が照射されている時の固体撮像素子108の露光時間をそれぞれT3、T4と定義した場合、G3×T3×K1=G4×T4×K2に基づいて、増幅率G3、G4を制御することが好ましい。一実施形態によれば、既知の増幅率G3から増幅率G4を設定することが好ましい。
 上述した一実施形態では、通常光L1の照射期間中の露光時間T1を、T1=T2×(R2/R1)に設定する。しかし、この場合、固体撮像素子108の量子効率を考慮していない分、露出が適正に行えない場合がある。この場合、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の照射を受けた被写体の画像信号に施すゲイン(増幅率)を、量子効率を考慮して調整することができる。したがって、一実施形態によれば、通常光L1(第1の照明光)及び特殊光L1(第2の照明光)のいずれか一方の照射を受けた被写体の画像信号に施す増幅率を、上記算出量K1及び上記算出量K2と、設定して露光時間T1,T2とに基づいて制御することも好ましい。
 一実施形態によれば、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の照射を受けた被写体の画像信号に施す増幅率をそれぞれG3,G4と定義し、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)が照射されている時の固体撮像素子108の露光時間をそれぞれT3、T4と定義した場合、G3×T3×K1=G4×T4×K2に基づいて、増幅率G3,G4を制御することが好ましい。一実施形態によれば、既知の増幅率G3から増幅率G4を設定することが好ましい。
 算出量K1,K2を用いて、露光時間T1,T2や増幅率G1,G2、あるいは増幅率G3,G4を制御する上記実施形態に代えて、平均量子効率AQE1,AQE2を用いて、露光時間T1,T2や増幅率G1,G2、あるいは増幅率G3,G4を制御することもできる。例えば、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の波長帯域が予めわかっているので、この波長帯域における量子効率QEの平均量子効率を算出して、算出量K1,K2に代えて用いることもできる。この場合、算出量K1,K2を予め算出する必要がなく、処理も簡素化できる。
 平均量子効率AQE1,AQE2は、一実施形態によれば、AQE1=K1/R1,AQE2=K2/R2として予め求めておくことが好ましい。プロセッサ200が出射する照明光L(通常光,特殊光)の種類は予めわかっているので、その照明光Lの光強度分布は取得できる情報である。また、量子効率QEの特性(図8(c)に示す特性)も、プロセッサ200に接続された電子スコープ100の固有情報に含まれる個体撮像素子108の情報から取得できる情報である。したがって、これらの取得した情報から求めた算出量K1,K2とR1,R2を用いて算出した平均量子効率AQE1,AQE2を取得して、露光時間や後述するゲイン(増幅率)の調整の際に用いることができる。このような平均量子効率AQE1,AQE2はシステムコントローラ202等により演算をすることなく、取得することができる。例えば、照明光Lの種類と電子スコープ100の固有情報に含めた量子効率QEの情報の組み合わせと、平均量子効率とを対応付けた対応付け情報をメモリ212に予め記憶しておき、電子スコープ100がプロセッサ200に接続された時、対応付け情報を参照することにより、平均量子効率の値を設定することができる。
 一実施形態によれば、露光時間T1及び前記露光時間T2を、T1×K1=T2×K2に代えてT1×R1×AQE1=T2×R2×AQE2を満たすように制御することも好ましい。一実施形態によれば、露光時間T1を、既知の露光時間T2から設定することが好ましい。
 また、一実施形態によれば、通常光L1(第1の照明光)及び特殊光L2(第2の照明光)の照射を受けた被写体の画像信号に施すゲイン(増幅率)をそれぞれG1,G2としたとき、露光時間T1,T2は、T1×R1×AQE1×G1=T2×R2×AQE2×G2を満たすように調整する、ことが好ましい。
 このような平均量子効率の情報は、固体撮像素子108の情報として、予め設定された通常光L1や特殊光L2の波長帯域毎に定められており、この情報が電子スコープ100の固有情報に含まれてメモリ112に記憶されている。プロセッサ200に電子スコープ100が接続された時、ドライバ信号処理回路110から読み出されて取得され、システムコントローラ110に出力される。
 上記実施形態はいずれも、露光時間や増幅率(ゲイン)を、通常光L1,特殊光L等の光量の情報を用いて制御するが、一実施形態によれば、上記制御を行わす、露光時間や増幅率が、適正な露光条件を満足するように制御した値に固定されていることも好ましい。
 例えば、被写体に通常光L1(第1の照明光)が照射されている時の固体撮像素子108の露光時間T1と被写体に特殊光L2(第2の照明光)が照射されている時の固体撮像素子108の露光時間T2は、T1×K1=T2×K2を満足するように、露光時間T1,T2が設定されていることが好ましい。
 上記実施形態において、光量R1,R2,R3は、照明光の単位時間当たりの光束の時間積分量である。一実施形態では、固体撮像素子108における光電変換から画像信号を生成するとき、固体撮像素子108からの出力信号に対数変換を行って画像信号を生成する場合もある。したがって、一実施形態では、光量R1,R2、R3に関して、照明光の単位時間当たりの光束の時間積分量であって対数変換された量を、光量R1,R2,R3として用いることが好ましい。また、上述の算出量K1.K2に関しても、一実施形態では、照明光の波長帯域における光強度分布と固体撮像素子108の量子効率の分布の積を波長帯域の範囲で積分することにより得られた量であって、対数変化された量を算出量K1,K2として用いることも好ましい。したがって、照明光の単位時間当たりの光束の時間積分量、及び照明光の波長帯域における光強度分布と固体撮像素子108の量子効率の分布の積を波長帯域の範囲で積分することにより得られた量には、対数変換された量も含まれる。
 以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本発明の実施形態に含まれる。
1 電子内視鏡システム
100 電子スコープ
102 LCB
104 配光レンズ
106 対物レンズ
108 固体撮像素子
110 ドライバ信号処理回路
112 メモリ
200 プロセッサ
202 システムコントローラ
204 タイミングコントローラ
206 ランプ電源イグナイタ
208 ランプ
210 集光レンズ
212 メモリ
214 操作パネル
220 前段信号処理回路
230 後段信号処理回路
260 回転フィルタ部
261 回転式ターレット
F1 通常光用光学フィルタ
F2 特殊光用光学フィルタ
F2A 特殊光用光学フィルタ
F2B 特殊光用光学フィルタ
F0 フレーム
262 DCモータ
263 ドライバ
264 フォトインタラプタ
1260 回転フィルタ部
1261 回転式ターレット
F1p 通常光用光学フィルタ
F2p 特殊光用光学フィルタ
P0 遮光板

Claims (25)

  1.  撮像素子を用いて撮影された被写体の画像信号を処理する電子内視鏡用プロセッサであって、
     被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
     前記撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備え、
     前記撮像素子制御手段は、
      前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2を、該第1の照明光の単位時間当たりの光束の時間積分量R1及び該第2の照明光の単位時間当たりの光束の時間積分量R2に基づいて制御する、
    電子内視鏡用プロセッサ。
  2.  前記撮像素子制御手段は、
      前記露光時間T1及び前記露光時間T2を、T1×R1=T2×R2を満たすように調整する、
    請求項1に記載の電子内視鏡用プロセッサ。
  3.  前記撮像素子を備えた電子スコープを着脱可能であり、
     前記撮像素子制御手段は、
      前記電子スコープと前記電子内視鏡用プロセッサの少なくとも一方において、前記画像信号に対して施される増幅処理の増幅率を取得し、
      前記第1の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG1と定義し、前記第2の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG2と定義した場合に、前記露光時間T1及び前記露光時間T2を、T1×R1×G1=T2×R2×G2を満たすように調整する、
    請求項1に記載の電子内視鏡用プロセッサ。
  4.  前記第1の照明光が連続して前記被写体に照射される時間と、前記第2の照明光が連続して該被写体に照射される時間は等しい、
    請求項1から請求項3の何れか一項に記載の電子内視鏡用プロセッサ。
  5.  前記照明光切替手段は、
      白色光を射出する光源と、
      前記白色光を前記第1の照明光にフィルタリングする第1のフィルタ、該白色光を前記第2の照明光にフィルタリングする第2のフィルタがそれぞれ、円周方向において略同じ角度範囲に並べて配置された回転板と、
      前記回転板を回転させることにより、前記第1の照明光の照射期間中、前記第1のフィルタを前記白色光の光路に挿入させ、前記第2の照明光の照射期間中、前記第2のフィルタを該光路に挿入させる回転駆動部と、
    を備える、
    請求項1から請求項4の何れか一項に記載の電子内視鏡用プロセッサ。
  6.  前記照明光切替手段は、
      前記被写体に照射する照明光を、前記第1の照明光、前記第2の照明光、単位時間当たりの光束の時間積分量が該第1の照明光又は該第2の照明光とは異なる第3の照明光の間で順次切り替え、
     前記撮像素子制御手段は、
      前記露光時間T1、前記露光時間T2及び前記被写体に前記第3の照明光が照射されている時の前記撮像素子の露光時間T3を、前記時間積分量R1、前記時間積分量R2及び該第3の照明光の単位時間当たりの光束の時間積分量R3に基づいて制御する、
    請求項1から請求項5の何れか一項に記載の電子内視鏡用プロセッサ。
  7.  被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
     前記被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、
     前記撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、
    を備え、
     前記撮像素子制御手段は、
      前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2を、該第1の照明光の単位時間当たりの光束の時間積分量R1及び該第2の照明光の単位時間当たりの光束の時間積分量R2に基づいて制御する、
    電子内視鏡システム。
  8.  前記撮像素子制御手段は、
      前記露光時間T1及び前記露光時間T2を、T1×R1=T2×R2を満たすように調整する、
    請求項7に記載の電子内視鏡システム。
  9.  前記照明光切替手段と前記撮像素子制御手段を有する電子内視鏡用プロセッサと、
     前記撮像素子を有し、前記電子内視鏡用プロセッサに対して着脱可能に接続されるように構成された電子スコープと、を備え、
     前記電子内視鏡用プロセッサあるいは前記電子スコープは、前記撮像素子から出力された前記画像信号に対して増幅処理を施す増幅手段と、前記増幅処理の増幅率を制御する制御手段と、を備え、
     前記第1の照明光の第1波長帯域は、前記第2の照明光の第2波長帯域とお互いに異なり、
     前記制御手段は、
      前記第1の照明光及び前記第2の照明光のいずれか一方の照射を受けた被写体の前記画像信号に施す前記増幅率を、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2と、前記露光時間T1,T2とに基づいて制御し、
      前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
      前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である、
     請求項7または8に記載の電子内視鏡システム。
  10.  前記第1の照明光及び前記第2の照明光の照射を受けた被写体の前記画像信号に施す前記増幅率をそれぞれG3,G4と定義し、前記第1の照明光及び前記第2の照明光が照射されている時の前記撮像素子の露光時間をそれぞれT3、T4と定義した場合、前記制御手段は、G3×T3×K1=G4×T4×K2に基づいて、前記増幅率G3,G4を制御する、
     請求項9に記載の電子内視鏡システム。
  11.  前記照明光切替手段と前記撮像素子制御手段を有する電子内視鏡用プロセッサと、
     前記撮像素子を有し、前記電子内視鏡用プロセッサに対して着脱可能に接続される電子スコープと、
     前記撮像素子から出力された前記画像信号に対して増幅処理を施す増幅手段と、
    を更に備え、
     前記増幅手段は、
      前記第1の照明光が照射された前記被写体の前記画像信号に対し、増幅率G1で前記増幅処理を施し、
      前記第2の照明光が照射された前記被写体の前記画像信号に対し、増幅率G2で前記増幅処理を施し、
     前記撮像素子制御手段は、
      前記露光時間T1及び前記露光時間T2を、T1×R1×G1=T2×R2×G2を満たすように調整する、
    請求項7に記載の電子内視鏡システム。
  12.  前記第1の照明光の波長帯域と前記第2の照明光の波長帯域は互いに異なり、
     前記撮像素子における、前記第1の照明光及び第2照明光の波長帯域における平均量子効率それぞれを、AQE1,AQE2と定義した場合、
     前記撮像素子制御手段は、
      前記露光時間T1及び前記露光時間T2を、T1×R1×AQE1=T2×R2×AQE2を満たすように調整する、
    請求項7に記載の電子内視鏡システム。
  13.  前記撮像素子を備えた電子スコープを着脱可能であり、
     前記第1の照明光の波長帯域と前記第2の照明光の波長帯域は互いに異なり、
     前記撮像素子制御手段は、
      前記電子スコープと前記電子内視鏡用プロセッサの少なくとも一方において、前記画像信号に対して施される増幅処理の増幅率を取得し、
      前記第1の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG1と定義し、前記第2の照明光が照射された前記被写体の前記画像信号に対して施される増幅処理の増幅率をG2と定義し、さらに、前記撮像素子における、前記第1の照明光及び第2照明光の波長帯域における平均量子効率をそれぞれ、平均量子効率AQE1,AQE2と定義した場合に、前記露光時間T1及び前記露光時間T2を、T1×R1×AQE1×G1=T2×R2×AQE2×G2を満たすように調整する、
    請求項7に記載の電子内視鏡システム。
  14.  被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
     前記被写体からの光を受光し、受光した光に応じた画像信号を出力する撮像素子と、
     前記撮像素子の露光時間及び電荷の読出しタイミングを制御する撮像素子制御手段と、を備え、
     前記撮像素子制御手段は、
      前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2を、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2に基づいて制御し、
      前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
      前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である、
    電子内視鏡システム。
  15.  前記撮像素子制御手段は、前記露光時間T1,T2を、T1×K1=T2×K2が満足するように制御する、請求項14に記載の電子内視鏡システム。
  16.  被写体に照射する照明光を、第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量の異なる第2の照明光と、の間で交互に切り替える照明光切替手段と、
     前記被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、
     前記撮像素子の露光時間及び電荷の読出しタイミングを制御し、前記撮像素子が前記第1の照明光で照射された前記被写体を露光時間T3で撮像し、前記第2の照明光で照射された前記被写体を露光時間T4で撮像するように前記撮像素子を制御する撮像素子制御手段と、
     前記撮像素子から出力された前記画像信号に対して増幅処理を施す増幅手段と、
     前記増幅処理の増幅率を制御する制御手段と、を備え、
     前記第1の照明光の第1波長帯域は、前記第2の照明光の第2波長帯域とお互いに異なり、
     前記制御手段は、
      前記第1の照明光及び前記第2の照明光のいずれか一方の照射を受けた被写体の前記画像信号に施す増幅率を、他方の照射を受けた被写体の前記画像信号に施す増幅率と、前記第1波長帯域における前記第1の照明光に関する算出量K1及び前記第2波長帯域における前記第2の照明光に関する算出量K2と、前記露光時間T3,T4と、に基づいて制御し、
      前記算出量K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
      前記算出量K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である、
     電子内視鏡システム。
  17.  前記第1の照明光及び前記第2の照明光の照射を受けた被写体の前記画像信号に施す前記増幅率をそれぞれG3,G4と定義し、前記第1の照明光及び前記第2の照明光が照射されている時の前記撮像素子の露光時間をそれぞれT3、T4と定義した場合、前記制御手段は、G3×T3×K1=G4×T4×K2に基づいて、前記増幅率G3、G4を制御する、
     請求項16に記載の電子内視鏡システム。
  18.  前記撮像素子は、前記撮像素子の受光面上の受光位置における露光の開始と終了のタイミングをずらしながら、前記受光位置における前記電荷を読み出すように構成され、
     前記第1の照明光の光強度は、前記第2照明光の光強度より高く、
     前記露光時間T2は、前記第2の照明光による被写体の照射時間を、前記受光位置における前記電荷の読み出し回数で割った基準時間以下であり、前記基準時間から前記電荷の読み出し時間と前記受光位置における前記露光前のノイズ蓄積電荷をリセットするためのリセット時間とを引いた時間以上である、
     請求項7~17のいずれか1項に記載の電子内視鏡システム。
  19.  前記撮像素子の露光の開始と終了のタイミングの、前記受光位置におけるずれの最小時間は、前記リセット時間に等しい、請求項18に記載の電子内視鏡システム。
  20.  前記第2の照明光は、光強度が一定になる前に、照射開始から時間とともに光強度が徐々に増大する遷移期間を有し、
     前記照射時間内で最初に行う前記電荷の読み出しの前に行う前記ノイズ蓄積電荷のリセットの期間は、前記遷移期間内にある、請求項18または19に記載の電子内視鏡システム。
  21.  前記第1の照明光が連続して前記被写体に照射される照射時間と、前記第2の照明光が連続して該被写体に照射される照射時間は等しい、
    請求項7から請求項20の何れか一項に記載の電子内視鏡システム。
  22.  前記照明光切替手段は、
      白色光を射出する光源と、
      前記白色光を前記第1の照明光にフィルタリングする第1のフィルタ、該白色光を前記第2の照明光にフィルタリングする第2のフィルタがそれぞれ、円周方向において同じ角度範囲に並べて配置された回転板と、
      前記回転板を回転させることにより、前記第1の照明光の照射期間中、前記第1のフィルタを前記白色光の光路に挿入させ、前記第2の照明光の照射期間中、前記第2のフィルタを該光路に挿入させる回転駆動部と、
    を備える、
    請求項7から請求項21の何れか一項に記載の電子内視鏡システム。
  23.  前記照明光切替手段は、
      前記被写体に照射する照明光を、前記第1の照明光、前記第2の照明光、単位時間当たりの光束の時間積分量が該第1の照明光又は該第2の照明光とは異なる第3の照明光の間で順次切り替え、
     前記撮像素子制御手段は、
      前記露光時間T1、前記露光時間T2及び前記被写体に前記第3の照明光が照射されている時の前記撮像素子の露光時間T3を、前記時間積分量R1、前記時間積分量R2及び該第3の照明光の単位時間当たりの光束の時間積分量R3に基づいて制御する、
    請求項7から請求項22の何れか一項に記載の電子内視鏡システム。
  24.  被写体に照射する照明光を、第1波長帯域の第1の照明光と、該第1の照明光とは単位時間当たりの光束の時間積分量が異なり、前記第1波長帯域と異なる第2波長帯域の第2の照明光と、の間で交互に切り替える照明光切替手段と、
     前記被写体からの光を受光し、受光した光に応じた画像信号を出力するように構成された撮像素子と、を備え、
     前記被写体に前記第1の照明光が照射されている時の前記撮像素子の露光時間T1と該被写体に前記第2の照明光が照射されている時の該撮像素子の露光時間T2は、T1×K1=T2×K2を満足し、
     前記K1は、前記第1波長帯域における前記第1の照明光の光強度分布と前記第1波長帯域における前記撮像素子の量子効率の分布の積を前記第1波長帯域の範囲で積分することにより得られた量であり、
     前記K2は、前記第2波長帯域における前記第2の照明光の光強度分布と前記第2波長帯域における前記撮像素子の量子効率の分布の積を前記第2波長帯域の範囲で積分することにより得られた量である、
     電子内視鏡システム。
  25.  前記撮像素子は、
      CMOS型のイメージセンサである、
    請求項7から請求項24の何れか一項に記載の電子内視鏡システム。
PCT/JP2017/030629 2016-08-25 2017-08-25 電子内視鏡用プロセッサ及び電子内視鏡システム WO2018038269A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018535793A JP6797925B2 (ja) 2016-08-25 2017-08-25 電子内視鏡用プロセッサ及び電子内視鏡システム
DE112017002857.4T DE112017002857T5 (de) 2016-08-25 2017-08-25 Elektronischer Endoskopprozessor und elektronisches Endoskopsystem
US16/300,225 US11607110B2 (en) 2016-08-25 2017-08-25 Electronic endoscope processor and electronic endoscope system
CN202011496351.8A CN112656348B (zh) 2016-08-25 2017-08-25 电子内窥镜用处理器及电子内窥镜系统
CN201780026729.8A CN109068966B (zh) 2016-08-25 2017-08-25 电子内窥镜用处理器及电子内窥镜系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016164990 2016-08-25
JP2016-164990 2016-08-25

Publications (1)

Publication Number Publication Date
WO2018038269A1 true WO2018038269A1 (ja) 2018-03-01

Family

ID=61246177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/030629 WO2018038269A1 (ja) 2016-08-25 2017-08-25 電子内視鏡用プロセッサ及び電子内視鏡システム

Country Status (5)

Country Link
US (1) US11607110B2 (ja)
JP (2) JP6797925B2 (ja)
CN (2) CN109068966B (ja)
DE (1) DE112017002857T5 (ja)
WO (1) WO2018038269A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3586719A1 (en) * 2018-06-25 2020-01-01 Fujifilm Corporation Endoscope apparatus
KR102135264B1 (ko) * 2019-02-01 2020-07-17 크린팩토메이션 주식회사 반도체 제조 공정의 불활성 가스 공급 제어 시스템 및 방법
WO2021075235A1 (ja) * 2019-10-18 2021-04-22 Hoya株式会社 内視鏡システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7048628B2 (ja) 2016-11-28 2022-04-05 アダプティブエンドウ エルエルシー 分離可能使い捨てシャフト付き内視鏡
WO2018109995A1 (ja) * 2016-12-12 2018-06-21 オリンパス株式会社 光源装置
US11160443B2 (en) 2017-03-30 2021-11-02 Hoya Corporation Electronic endoscope device for changing observation image brightness
CN110493535B (zh) * 2019-05-31 2021-09-28 杭州海康威视数字技术股份有限公司 图像采集装置和图像采集的方法
CN110505376B (zh) * 2019-05-31 2021-04-30 杭州海康威视数字技术股份有限公司 图像采集装置及方法
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006768A (ja) * 2003-06-17 2005-01-13 Olympus Corp 電子内視鏡装置及び信号処理装置
JP2005033282A (ja) * 2003-07-07 2005-02-03 Olympus Corp 撮像装置
JP2005131129A (ja) * 2003-10-30 2005-05-26 Olympus Corp 撮像装置及び内視鏡装置
JP2015066063A (ja) * 2013-09-27 2015-04-13 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2016123755A (ja) * 2015-01-06 2016-07-11 富士フイルム株式会社 内視鏡システム及びその作動方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3164609B2 (ja) * 1990-10-31 2001-05-08 オリンパス光学工業株式会社 内視鏡装置
JP5435916B2 (ja) 2008-09-18 2014-03-05 富士フイルム株式会社 電子内視鏡システム
JP4728450B2 (ja) 2009-05-14 2011-07-20 オリンパスメディカルシステムズ株式会社 撮像装置
JP2011250926A (ja) * 2010-06-01 2011-12-15 Fujifilm Corp 電子内視鏡システム
WO2013121616A1 (ja) * 2012-02-17 2013-08-22 オリンパスメディカルシステムズ株式会社 内視鏡装置
CN104168814B (zh) * 2012-03-28 2016-08-17 富士胶片株式会社 摄像装置以及具备该摄像装置的内窥镜装置
WO2016056388A1 (ja) 2014-10-10 2016-04-14 オリンパス株式会社 撮像システム
JP5989284B1 (ja) * 2014-10-10 2016-09-07 オリンパス株式会社 撮像システム及び光源装置
JP2016152872A (ja) 2015-02-20 2016-08-25 Hoya株式会社 光源装置
JP2016214594A (ja) 2015-05-21 2016-12-22 Hoya株式会社 電子内視鏡システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006768A (ja) * 2003-06-17 2005-01-13 Olympus Corp 電子内視鏡装置及び信号処理装置
JP2005033282A (ja) * 2003-07-07 2005-02-03 Olympus Corp 撮像装置
JP2005131129A (ja) * 2003-10-30 2005-05-26 Olympus Corp 撮像装置及び内視鏡装置
JP2015066063A (ja) * 2013-09-27 2015-04-13 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2016123755A (ja) * 2015-01-06 2016-07-11 富士フイルム株式会社 内視鏡システム及びその作動方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3586719A1 (en) * 2018-06-25 2020-01-01 Fujifilm Corporation Endoscope apparatus
KR102135264B1 (ko) * 2019-02-01 2020-07-17 크린팩토메이션 주식회사 반도체 제조 공정의 불활성 가스 공급 제어 시스템 및 방법
WO2021075235A1 (ja) * 2019-10-18 2021-04-22 Hoya株式会社 内視鏡システム
JP2021065280A (ja) * 2019-10-18 2021-04-30 Hoya株式会社 内視鏡システム
JP7455547B2 (ja) 2019-10-18 2024-03-26 Hoya株式会社 内視鏡システム

Also Published As

Publication number Publication date
JPWO2018038269A1 (ja) 2019-01-24
US11607110B2 (en) 2023-03-21
DE112017002857T5 (de) 2019-03-14
CN109068966A (zh) 2018-12-21
CN112656348B (zh) 2023-05-12
JP6797925B2 (ja) 2020-12-09
CN112656348A (zh) 2021-04-16
CN109068966B (zh) 2021-08-17
JP6907389B2 (ja) 2021-07-21
US20190142240A1 (en) 2019-05-16
JP2020185394A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6907389B2 (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
EP1712177B1 (en) Signal processing device for endoscope
JP4744288B2 (ja) 内視鏡装置
JP5214853B2 (ja) 内視鏡装置
CN109561817B (zh) 电子内窥镜系统
US9814376B2 (en) Endoscope system and method for operating the same
JP2012010962A (ja) 励起光の光源装置および電子内視鏡システム
WO2016185870A1 (ja) 電子内視鏡システム
CN109475281B (zh) 电子内窥镜系统
JP2011250925A (ja) 電子内視鏡システム
JP2005033282A (ja) 撮像装置
JP2013233219A (ja) 光源装置、電子内視鏡装置及びオプティカルチョッパー
JP2013183911A (ja) 電子内視鏡システム
JP5951306B2 (ja) 内視鏡用光源装置
JP6145539B2 (ja) 内視鏡用光源装置
JP6277138B2 (ja) 内視鏡システム及びその作動方法
JP2018149320A (ja) 電子内視鏡システム
JP2605425B2 (ja) 電子内視鏡の撮像装置
JP6312254B2 (ja) 内視鏡システム及びその作動方法
JP6386889B2 (ja) 内視鏡用光源装置、内視鏡システム及びその作動方法
JP2008237634A (ja) 電子内視鏡
JPH03191942A (ja) 電子内視鏡の撮像装置
JP2014083375A (ja) 電子内視鏡用光源装置および電子内視鏡システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018535793

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843745

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17843745

Country of ref document: EP

Kind code of ref document: A1