WO2014125724A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2014125724A1
WO2014125724A1 PCT/JP2013/083613 JP2013083613W WO2014125724A1 WO 2014125724 A1 WO2014125724 A1 WO 2014125724A1 JP 2013083613 W JP2013083613 W JP 2013083613W WO 2014125724 A1 WO2014125724 A1 WO 2014125724A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
illumination
unit
imaging
image
Prior art date
Application number
PCT/JP2013/083613
Other languages
English (en)
French (fr)
Inventor
俊二 武井
五十嵐 誠
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2014534301A priority Critical patent/JP5698878B2/ja
Priority to EP13874864.5A priority patent/EP2896354A4/en
Priority to CN201380053368.8A priority patent/CN104717917B/zh
Priority to US14/452,866 priority patent/US9326664B2/en
Publication of WO2014125724A1 publication Critical patent/WO2014125724A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope

Definitions

  • the present invention relates to an endoscope apparatus that performs imaging using an imaging element including a color mosaic filter.
  • An endoscope provided with an image sensor at the distal end portion of an insertion portion is widely used in the medical field and the industrial field.
  • the color image sensor provided with a color filter in the image sensor is capable of color imaging under white illumination and is provided with a color filter that requires surface sequential illumination. This has the advantage of avoiding problems with color misregistration and a decrease in the frame rate as compared with a monochrome imaging device that is not.
  • the conventional example of Japanese Patent Application Laid-Open No. 2010-184047 uses a charge coupled device (abbreviated as CCD) having R, G, B color filters, and normal observation with special illumination and special light illumination.
  • CCD charge coupled device
  • An endoscope apparatus that performs special light observation is disclosed.
  • the simultaneous photographing mode is selected, the light source for normal illumination light and the light source for special illumination light irradiate the normal illumination light and the special illumination light alternately or simultaneously in units of CCD storage periods.
  • the interline transfer type CCD stores the charge in the light-receiving element immediately after the signal charge is read and transferred from the light-receiving element to the vertical CCD in the 2n-1 imaging operation.
  • the CCD performs read transfer according to the read pulse.
  • the CCD holds the signal charge in the vertical CCD until the horizontal transfer of the signal charge by the 2n-1th imaging operation is completed.
  • the present invention has been made in view of the above points, and an object thereof is to provide an endoscope apparatus capable of appropriately performing illumination control of illumination light in accordance with the transmission wavelength characteristics of a color filter included in an imaging unit.
  • An endoscope apparatus transmits an illumination unit that can irradiate a subject with illumination light composed of white light or light of a plurality of different wavelength bands, and transmits light of a plurality of different wavelength bands, respectively.
  • An imaging unit having a color filter composed of a plurality of filters, and imaging return light from the subject based on irradiation of the illumination light by the illumination unit; and at least one filter in the plurality of filters by the imaging unit When imaging the return light of at least two or more wavelength bands included in the transmission wavelength band, the illuminating unit corresponds to the two or more return lights.
  • Control is performed so that the illumination light to be irradiated is irradiated in a time-divided manner into two or more, and transmission wavelength bands of two or more filters having different wavelength bands in the plurality of filters by the imaging unit
  • two or more return lights are imaged in a state where one or less return lights are included in each of the two or more, a plurality of two or more pluralities irradiated by the illumination unit corresponding to the two or more return lights
  • An illumination control unit that controls to irradiate illumination light in a wavelength band at the same time.
  • FIG. 1 is a diagram showing an overall configuration of an endoscope apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a configuration example of a color filter provided in the imaging element.
  • FIG. 3 is a diagram showing the transmission characteristics of the color filter, the emission characteristics of the white LEDs constituting the light source unit, and the emission characteristics of the narrow-band LEDs.
  • FIG. 4 is a block diagram illustrating a configuration example of a peripheral portion of the memory unit.
  • FIG. 5A is a diagram illustrating an example of spectral characteristics when color separation calculation is performed on return light in a state where illumination light of two wavelength bands is included in one transmission wavelength band.
  • FIG. 5B is a diagram showing an example of spectral characteristics when color separation calculation is performed on return light in a state where illumination light of one wavelength band is included in two different transmission wavelength bands.
  • FIG. 5C is a diagram illustrating an example of spectral characteristics when color separation calculation is performed on the return light in a state where illumination light of one wavelength band is included in one transmission wavelength band.
  • FIG. 6 is an explanatory diagram of illumination and imaging operations in the first embodiment.
  • FIG. 7 is a flowchart showing the overall operation content of the first embodiment.
  • FIG. 8 is an explanatory diagram of an operation when imaging is performed in the simultaneous illumination system state.
  • FIG. 9 is an explanatory diagram of an operation when imaging is performed in a time-division mode.
  • FIG. 10 is a diagram showing an overall configuration of an endoscope apparatus according to a second embodiment of the present invention.
  • FIG. 11 is an explanatory diagram when fluorescence observation is performed in the second embodiment.
  • FIG. 12 is an explanatory timing chart when fluorescence observation is performed in the second embodiment.
  • FIG. 13 is an operation explanatory diagram of a first modification of the second embodiment.
  • FIG. 14 is a timing chart for explaining the operation of the first modification.
  • FIG. 15 is a diagram showing a schematic configuration of an endoscope apparatus according to a third embodiment of the present invention.
  • FIG. 16 is a timing chart for explaining operations in the third embodiment.
  • FIG. 17 is a timing diagram for explaining the operation of the modified example of the third embodiment.
  • an endoscope apparatus 1 supplies illumination light to an endoscope 2 that is inserted into a subject and an endoscope 2 that is detachably connected.
  • a light source device 3 a video processor 4 as a signal processing device that performs signal processing on an imaging signal imaged by an imaging means of the endoscope 2, and a monitor 5 that displays an image signal output from the video processor 4 And a filing device 6 for recording image signals.
  • the endoscope 2 includes an insertion portion 7 to be inserted into a subject and an operation portion 8 provided at the rear end (base end) of the insertion portion 7, and a light extended from the operation portion 8.
  • the light guide connector 9 a at the tip of the guide 9 is detachably connected to the light source device 3.
  • the illumination light emitted from the light source device 3 is incident on the incident end face of the light guide 9 of the light guide connector 9a.
  • the incident illumination light passes through the operation section 8 and the insertion section 7 by the light guide 9 and passes through the illumination lens 12 attached to the illumination window from the distal end surface of the light guide 9 disposed at the distal end section 11 of the insertion section 7. Then, the light is emitted to the outside, and the subject is irradiated with illumination light such as an affected part (as a part in the subject) to illuminate the subject.
  • An observation window is provided at the distal end portion 11 adjacent to the illumination window, and an objective lens 13 that refracts return light (reflected light) from the subject and forms an optical image is attached to the observation window.
  • An imaging surface of an imaging element 14 as an imaging unit is disposed at the imaging position.
  • a color filter 15 for optically color-separating is provided on the imaging surface of the imaging element 14.
  • FIG. 2 shows the configuration of the color filter 15.
  • the imaging surface 14a of the imaging device 14 has a two-dimensionally arranged pixel 14b that constitutes a light receiving device that performs photoelectric conversion. In front of each pixel 14b, red (R), green (G), and blue (B).
  • R, G, and B filters 15R, 15G, and 15B that respectively transmit light in the wavelength band are regularly arranged on a pixel basis to form an improved Bayer color filter 15.
  • 8 pixels are arranged as a unit of the color filter 15 for color separation from 4 pixels in the vertical direction and 2 pixels in the horizontal direction.
  • R, G, B signals are generated.
  • the light source device 3 includes a plurality of light emitting diode units (abbreviated as LED units) 16, an LED driving circuit 17 that drives the LED units 16, and a power source that supplies driving power to the LED driving circuit 17.
  • a circuit 18 and a condenser lens 19 that collects the illumination light of the LED unit 16 and enters the light guide 9 are provided.
  • the LED unit 16 includes a white LED 16W that generates white light for performing normal light observation (abbreviated as WBI observation) in a normal light observation mode (abbreviated as WBI observation mode), and a narrow band light observation mode (abbreviated as NBI observation mode). ) Has four LEDs 16NB, LED16NG, LED16NRa, and LED16NRb as a plurality of narrowband LEDs that generate a plurality of different narrowband lights for performing narrowband light observation (abbreviated as NBI observation).
  • the LED unit 16 serves as an illumination unit (light source unit or) for the NBI observation mode.
  • the LED 16NR1 emits light in a narrow band in each of the B and G wavelength bands, and the LED 16NR1 emits light in a narrow band in the wavelength bands of the LEDs 16NG and R. LED16NR2.
  • the LED unit 16 includes a white LED 16W, an LED 16NB, an LED 16NG, an LED 16NR1, and a mirror 20a and half mirrors 20b-20e disposed in front of the optical path of the LED 16NR2.
  • the white light of the white LED 16W is reflected by the mirror 20a, passes through the half mirrors 20b-20d, is reflected by the half mirror 20e, is condensed by the condenser lens 19, and enters the light guide 9.
  • the narrow-band light of the LED 16NB is reflected by the half mirror 20b, passes through the half mirrors 20c and 20d, is reflected by the half mirror 20e, and then enters the light guide 9 through the condenser lens 19.
  • the narrow band light of the LED 16NG is reflected by the half mirror 20c, passes through the half mirror 20d, is reflected by the half mirror 20e, and then enters the light guide 9 through the condenser lens 19.
  • the narrow band light of the LED 16 NR 1 is reflected by the half mirror 20 d, then reflected by the half mirror 20 e, and enters the light guide 9 through the condenser lens 19. Further, the narrow band light of the LED 16NR2 passes through the half mirror 20e, and enters the light guide 9 through the condenser lens 19.
  • FIG. 3B shows the light emission characteristics of the white LEDs 16W, LED16NB, LED16NG, LED16NRa, and LED16NRb.
  • the white LED 16W has a light emission characteristic that covers a visible wavelength band (approximately 380 nm to 750 nm).
  • LED16NB, LED16NG, LED16NRa, and LED16NRb have emission characteristics that emit light in a narrow band in the B and G wavelength bands and the R wavelength band, respectively.
  • each wavelength band of the B filter 15B and the G filter 15G includes one narrow band light of the LED 16NB and the LED 16NG.
  • the light of the narrow band of the two LEDs 16NRa and 16NRb is included in the wavelength band of the R filter 15R, and the light from the LED 16NRa on the short wavelength side is considerably large in the wavelength band of the G filter 15G. Is included.
  • the return light from the subject irradiated with the light of the LED 16NRa is extracted as components mainly in the two wavelength bands of the R filter 15R and the G filter 15G.
  • each return light has a wavelength mainly corresponding to the transmission wavelength band of the B filter 15B and the G filter 15G in the color filter 15, and will be described later when images are simultaneously captured.
  • the control circuit 31 simultaneously irradiates the LED16NB and the LED16NG. Then, illumination control is performed so that imaging by the imaging device 14 is performed.
  • simultaneous irradiation mode or simultaneous illumination mode to light-emit simultaneously by light-emitting two or two or more wavelength band LED simultaneously.
  • the return light from the subject irradiated with the light of LED16NRa is reflected by the R filter 15R and the G filter. 15G is extracted as a component mainly in two wavelength bands. If the three return lights are imaged at the same time, the return light from the LED 16NRa cannot be substantially separated from the other two return lights even if a color separation calculation described later is performed. Therefore, the LED 16NG, the LED 16NRb, and the LED 16NRa are irradiated in a time-sharing manner, and an image is captured by the image sensor 14.
  • the illumination light irradiated in a time division manner is a single illumination light such as the illumination light of the LED 16NRa (also referred to as NRa light), the illumination light of the LED 16NG (also referred to as NG light), and the illumination light of the LED 16NRb (NRb). There are cases of two illumination lights such as light.
  • the LED 16NG and the LED 16NRb are simultaneously irradiated as in the case of the LED 16NB and the LED 16NG, and the control circuit 31 having a function of an illumination control unit performs illumination control so as to perform imaging by the image sensor 14.
  • a signal connector 10 a provided at the end of the signal cable 10 extending from the operation unit 8 is detachably connected to the video processor 4.
  • the image sensor 14 photoelectrically converts an optical image formed by the imaging surface 14 a (by return light) by application of an image sensor drive signal from an image sensor driver 21 provided in the video processor 4.
  • the imaging signal or the image signal as the returned light signal is output.
  • This image signal is amplified by the amplifier 22 and then subjected to preprocessing such as correlated double sampling processing in the preprocessing circuit 23.
  • the output signal of the preprocessing circuit 23 is input to the A / D conversion circuit 24 and converted from an analog signal to a digital signal.
  • the output signal of the A / D conversion circuit 24 is supplied to an R memory 26R, a G memory 26G, and a B memory that constitute a memory unit 26 via a selector 25 that is switched according to the arrangement of the R, G, and B filters of the color filter 15.
  • 26B stores R, G, and B signal components.
  • R, G and B signals of the same pixel are stored in memory cells managed as the same address block.
  • the output signal from the memory unit 26 is input to the image processing circuit 27, subjected to image processing such as color separation by the color separation circuit 27a constituting the color separation calculation means, and then to the D constituting the D / A conversion circuit unit 28. / A conversion circuits 28R, 28G, and 28B.
  • the color separation circuit 27a has a predetermined wavelength band (specifically, a plurality of wavelength bands corresponding to the transmission wavelength bands of the plurality of filters constituting the color filter 15 of the imaging unit with respect to the return light signal captured by the imaging unit (specifically, Performs a color separation operation for separation into independent image components in the R, G, and B wavelength bands. Details of the color separation calculation will be described later.
  • a predetermined wavelength band specifically, a plurality of wavelength bands corresponding to the transmission wavelength bands of the plurality of filters constituting the color filter 15 of the imaging unit with respect to the return light signal captured by the imaging unit (specifically, Performs a color separation operation for separation into independent image components in the R, G, and B wavelength bands. Details of the color separation calculation will be described later.
  • the D / A conversion circuits 28R, 28G, and 28B convert the digital signals into analog image signals and output them to the R, G, and B channels of the monitor 5, and images are captured on the display surface of the monitor 5 by the imaging device 14. An image corresponding to the subject image is displayed as an endoscopic image.
  • the output signals of the D / A conversion circuits 28R, 28G, and 28B are recorded for compression by the encoding circuit 29 and then recorded by the filing device 6.
  • the video processor 4 includes a control circuit 31 that controls the operation of the video processor 4 and the endoscope apparatus 1 as a whole, a timing generator (abbreviated as TG) 32 that generates a timing signal that operates at a predetermined timing, and a control circuit 31. And an optical circuit 33.
  • the dimming circuit 33 generates a dimming signal for dimming to the reference brightness from the output signal of the image processing circuit 27 and outputs the dimming signal to the LED drive circuit 17.
  • the dimming circuit 33 controls the light emission amount of the LED unit 16 via the LED driving circuit 17, in other words, the illumination light amount of the subject, based on the dimming signal that is a difference signal of the reference brightness from the output signal of the image processing circuit 27. Adjust and adjust the light so that an image with the standard brightness is obtained.
  • a user such as an operator switches a mode switching switch 34 for switching (or selecting one) between a WBI observation mode using normal light (white light) and an NBI observation mode.
  • a scope ID memory 35 that stores identification information unique to the endoscope 2 (abbreviated as ID).
  • the mode changeover switch 34 includes a plurality of narrow bands (in this embodiment, four narrow bands of four LEDs 16NB, 16NG, 16NRa, and 16NRb).
  • a selection switch 34a for selecting whether or not NBI observation is to be performed using any narrow band light in the (band) is provided.
  • the mode switching control unit 31a also has a function of an NBI wavelength band selection control unit that performs control to select LEDs that emit light from a plurality of LEDs so as to perform NBI observation in the wavelength band selected by the selection switch 34a.
  • the control circuit 31 refers to the ID unique to the endoscope 2 and the characteristics of the image sensor 14 mounted on the endoscope 2 and the image sensor.
  • the dimming parameter control unit 31b performs dimming parameter control according to the transmission wavelength characteristics of the R, G, and B filters constituting the fourteen color filters 15.
  • the scope ID memory 35 includes information on the image sensor 14 having the color filter 15 in the endoscope 2 including the scope ID memory 35, at least R, G, and B filters constituting the color filter 15.
  • An information storage unit for storing information that can specify the transmission wavelength characteristic (transmission wavelength band) is formed.
  • the control circuit 31 reads the ID as described above, and the characteristics of the image sensor 14 mounted on the endoscope 2 and the color of the image sensor 14. It has a function of an illumination control unit 31c that performs illumination control by the LED unit 16 in the light source device 3 in accordance with the characteristics of the filter 15 and the observation mode instructed by the mode switch 34 or the like.
  • the illumination control unit 31c When performing illumination corresponding to the observation mode in consideration of the transmission wavelength band of the color filter 15 of the image sensor 14, the illumination control unit 31c performs illumination by a simultaneous illumination method in which illumination light of a plurality of wavelength bands is simultaneously irradiated. Alternatively, the illumination control is performed by determining (determining) whether or not the illumination is performed in a time division manner in which illumination lights of a plurality of wavelength bands are irradiated in a time division manner.
  • the color filter 15 includes the R filter 15R, and since this wavelength band includes the wavelength bands of the two narrow-band LEDs 16NRa and 16NRb, the two LEDs 16NRa and 16NRb simultaneously.
  • the illumination control unit 31c of the control circuit 31 uses the two narrow-band LEDs 16NRa and 16NRb as illumination light to perform NBI observation, and the two narrow-band LEDs 16NRa and 16NRb are sometimes used. Lighting control is performed so that lighting is performed in division.
  • the illumination control unit 31c of the control circuit 31 includes the LED 16G. Also, when performing NBI observation using illumination light from the LED 16NRa, illumination control is performed so that illumination is performed in a time-sharing manner.
  • each return light can be sufficiently color-separated by the B filter 15B and the G filter 15G.
  • the illumination control unit 31c of the control circuit 31 controls the illumination so that the illumination light of the LED 16NB and the LED 16NG is emitted at the same time, and the subject is irradiated with the illumination light at the same time.
  • the control circuit 31 also refers to the configuration and light emission (illumination) characteristics of the LEDs of the LED unit 16 when performing illumination control.
  • the LED drive circuit 17 outputs information on the wavelength bands emitted by the four LEDs 16NB, LED16NG, LED16NRa, and LED16NRb as the narrowband LEDs of the LED unit 16 to the control circuit 31, and the control circuit 31 refers to the information. Then, after deciding whether to perform illumination (irradiation) by the simultaneous method or time division, illumination control is performed. In this way, it is possible to appropriately cope with the case where the endoscope apparatus 1 is configured using the light source devices 3 of different types.
  • the illumination control part 31c of the control circuit 31 serve as functions, such as the determination part (decision part) 31f etc., for example.
  • the present invention is not limited to the case where the LED drive circuit 17 inputs information on the emission wavelength of the LED unit 16 to the control circuit 31.
  • the user or the like can input video from the input unit 36 for inputting information provided in the video processor 4.
  • Information on the emission wavelength band of the LED unit 16 in the light source device 3 used together with the processor 4 may be input to the control circuit 31.
  • the light source device 3 may be provided with a light source control circuit that controls the operation of the light source device 3, and the light source control circuit may input information on the emission wavelength band of the LED unit 16 to the control circuit 31.
  • the control circuit 31 determines the image sensor according to the characteristics of the image sensor 14 mounted on the endoscope 2, the characteristics of the color filter 15 of the image sensor 14, and the observation mode instructed by the operation of the mode switch 34.
  • 14 has a function of an imaging control unit (or imaging & signal processing control unit) 31d that controls the imaging operation by the image sensor 14 and the signal processing operation for the imaging signal by the imaging operation.
  • the control circuit 31 continuously reads the return optical signal within one frame period by the image sensor 14 when simultaneous illumination is performed, and 1 frame by the image sensor 14 when time-division illumination is performed. It also has a function of a read control unit 31e that performs read control so that reading is performed only for a predetermined period within the period. This operation is typically shown in FIGS. 8 and 9 to be described later.
  • the control circuit 31 has a function of a determination unit (or determination unit) 31f for performing illumination control and imaging control corresponding to the observation mode in order to perform control operations of the illumination control unit 31c and the like. Further, the determination unit 31 includes a memory 37 as an illumination information storage unit that stores information corresponding to the observation mode and illumination.
  • the memory 37 is composed of a non-volatile rewritable recording medium such as a flash memory. For example, in the initial setting state, the control circuit 31 is used by connecting information of the endoscope 2 (the image pickup device 14 including the color filter 15) connected to the video processor 4 and the endoscope.
  • Memory 37 includes information for performing simultaneous illumination or time-division illumination corresponding to each observation mode from information on the LED unit 16 of the light source device 3 and information for performing control of a corresponding imaging operation using the imaging element 14. To store. When the observation mode is actually instructed (designated), the corresponding information is read from the memory 37 and the illumination and imaging are controlled.
  • the control circuit 31 includes a mode switching control unit 31a, a dimming parameter control unit 31b, an illumination control unit 31c, an imaging control unit 31d, a readout control unit 31e, and a determination unit 31f.
  • An electronic circuit or the like having the functions of the mode switching control unit 31a-determination unit 31f may be provided outside.
  • the control circuit 31 and the mode switching control unit 31a-determination unit 31f may be configured using a central processing unit (CPU), or may be configured using a dedicated electronic circuit, FPGA (Field Programmable Gate Array), or the like. You may do it.
  • FIG. 4 shows a configuration of a peripheral portion of the memory unit 26 that stores R, G, and B component signals in the WBI observation mode and the like.
  • the memory unit 26 includes a first memory group 26a and a second memory group 26b.
  • the second memory group 26b may not be used.
  • the second memory group 26b may be used.
  • the control circuit 31 controls the switching of the selector 25 so as to become R, G, B component signals in units of pixels via the TG 32, for example.
  • the data is stored in the R, G, B memory 26R, 26G, 26B of one memory group 26a to be configured.
  • the dimming circuit 33 generates a dimming signal from the R, G, and B component signals, outputs the dimming signal to the light source device 3 side, and emits light from the white LED 16W via the LED driving circuit 17 so that the reference brightness is obtained. Adjust.
  • the monitor 5 displays the subject image in color using R, G, and B image signals.
  • the selector 25 is switched to switch to the R, G, B component signals.
  • the color separation circuit 27 a in the image processing circuit 27 is used to return more faithfully. You may make it isolate
  • the RGB signals actually captured through the color filters are It includes not only the return light in the transmission band of the filter but also the wavelength band components of the return light corresponding to filters of different colors. This is due to the fact that the color filter of the image sensor actually has a certain degree of transmittance in the wavelength band other than the RGB color band.
  • a state in which one image signal includes a plurality of components of return light having different wavelength bands is referred to as color mixing.
  • a matrix circuit that performs matrix conversion constituting the color separation circuit 27a is used to perform a color separation operation for separating the mixed RGB signals into independent wavelength components.
  • a matrix M for performing a color separation operation on the R, G, B component signals I input from the image sensor 14 to the image processing circuit 27 via the selector 25 in the video processor 4.
  • Is set to the unit matrix S the matrix M constituting the matrix conversion circuit is set as follows.
  • M ⁇ I S (1)
  • FIG. 5B shows a graph of the spectral characteristics of the signals color-separated by the color-separation calculation of equation (3). As shown in FIG.
  • FIG. 5C shows the spectral characteristics of the output signal after matrix conversion when the return light is imaged when only illumination light with a narrow-band wavelength of 600 nm is irradiated at an independent time. In this case, the problem of color mixing does not occur.
  • FIG. 6 is an explanatory diagram of the overall operation of this embodiment.
  • 6A shows the spectral characteristics of the R, G, and B filters of the color filter 15 shown in FIG. 3A
  • FIG. 6B shows the light emission of the LEDs 16NB and 16NG shown in FIG. 3B. The characteristic of the light intensity in the case of being made is shown.
  • FIG. 6C shows an example of signal intensity characteristics when the image pickup device 14 picks up images under the simultaneous illumination of the LEDs 16NB and 16NG.
  • FIG. 6D shows an example of signal strength characteristics when color separation is performed by the color separation circuit 27a, and a sufficiently color-separated image signal is obtained.
  • FIG. 6F shows an example of signal intensity characteristics when images are picked up by the image sensor 14 in a state where these are simultaneously illuminated.
  • the signal intensity by the R filter 15R is in a state where the difference in signal intensity between the NRa light and the NRb light is small, and thus color separation becomes insufficient as described in FIG. This state is indicated by color mixture generation in FIG.
  • the illumination light of FIG. in the case of the illumination light of FIG.
  • the endoscope apparatus 1 having such a configuration has an LED unit 16 (light guide 9 and illumination lens 12) as illumination means capable of irradiating a subject with illumination light composed of white light and light of a plurality of different wavelength bands. ), And a plurality of filters 15R, 15G, and 15B that respectively transmit light of different wavelength bands, and return light from the subject based on irradiation of the illumination light by the illumination means
  • an image is picked up using the image pickup device 14 as an image pickup means for picking up images and the plurality of filters 15R, 15G, 15B by the image pickup means
  • the transmission of at least one filter 15R in the plurality of filters 15R, 15G, 15B When imaging at least two or more return lights included in the transmission wavelength band with respect to the wavelength band,
  • the illumination light specifically, LEDs 16NRa and 16NRb
  • two or more return lights are included in the transmission wavelength band of at least two or more filters 15G and 15B in the plurality of filters.
  • illumination light specifically, LEDs 16NG and 16NB
  • the illumination control part 31c as an illumination control means to control is provided.
  • a configuration using an image pickup device including RGB primary color filters is shown, but a complementary color image sensor including complementary color filters such as Mg + Cy, G + Ye, G + Cy, Mg + Ye may be used. It is the same.
  • the j component of the matrix in the equations (2) and (3) has components 1 to 4, and the RGB components in the signal I are expressed as the above-described four types of filter components. .
  • FIG. 7 shows a typical operation content of the present embodiment.
  • the light guide connector 9a and the signal connector 10a of the endoscope 2 are connected to the light source device 3 and the video processor 4, the power source of the light source device 3 and the video processor 4 is turned on, and the endoscope device 1 is put into operation.
  • the control circuit 31 reads the information of the endoscope 2 connected from the scope ID memory 35 in the first step S1. Further, information on the emission wavelength characteristics of the plurality of LEDs constituting the LED unit 16 of the light source device 3 is read (from the LED drive circuit 17 and the like).
  • step S ⁇ b> 2 the determination unit 31 f of the control circuit 31 includes information on the transmission wavelength characteristics of the color filter 15 mounted on the endoscope 2 and information on the emission wavelength band of the LEDs constituting the LED unit 16 of the light source device 3. Therefore, when performing illumination and imaging corresponding to multiple observation modes, it is determined whether or not simultaneous illumination is possible, and information on observation modes that allow simultaneous illumination and observation modes that require time-division illumination Are stored in the memory 37.
  • the determination unit 31 f stores information in which the illumination method (illumination mode) is associated with each observation mode in the memory 37.
  • the control circuit 31 sets dimming parameters and the like according to the characteristics of the image sensor 14.
  • white balance is further adjusted.
  • the control circuit 31 sets the WBI observation mode in step S4.
  • the control circuit 31 sets only the white LED 16W of the LED unit 16 of the light source device 3 to emit light and illuminates the subject with white light. Further, the control circuit 31 performs control so that simultaneous imaging is performed using the color filter 15 under the irradiation of white illumination light. By this simultaneous imaging, a color image in the WBI observation mode is displayed on the monitor 5 as follows.
  • the image sensor 14 provided with the color filter 15 returns R, G, B light by the R, G, B filters 15R, 15G, 15B to the return light from the subject under white light irradiation.
  • R, G, and B image signals separated in color are output.
  • the R, G, and B image signals are stored in the memory unit 26 via the selector 25 after passing through the amplifier 22, preprocessing, A / D conversion, and the like.
  • the selector 25 is switched on a pixel-by-pixel basis, and R, G, B component signals are stored in the R, G, B memories 26R, 26G, 26B of the memory unit 26 (one memory group 26a).
  • the dimming circuit 33 generates a dimming signal from the R, G, and B image signals, outputs the dimming signal to the light source device 3 side, and emits light from the white LED 16W via the LED driving circuit 17 so that the reference brightness is obtained. Adjust.
  • the monitor 5 displays the subject image in color using the R, G, and B image signals.
  • step S6 in FIG. 7 the control circuit 31 monitors whether or not switching from the WBI observation mode to the NBI observation mode has been performed by the mode changeover switch 34. If the switching has not been performed, the control circuit 31 proceeds to step S5. Return to processing.
  • the operator operates the mode switch 34 to switch to the NBI observation mode. It is better to switch.
  • the surgeon when the surgeon switches to the NBI observation mode, the surgeon also selects which of the wavelength bands of the illumination light in the plurality of wavelength bands is used for NBI observation.
  • the control circuit 31 may perform display for prompting selection. Alternatively, when selection is not performed within a predetermined time, it may be set to use illumination light of a standard wavelength band set by default.
  • the control circuit 31 When switching from the WBI observation mode to the NBI observation mode is performed in step S6, in the next step S7, the control circuit 31 provides information on the wavelength band for performing the NBI observation selected by the operator or the like with the selection switch 34a. get. Further, in the next step S ⁇ b> 8, the control circuit 31 reads out information on the illumination system corresponding to this information from the memory 37. In the next step S ⁇ b> 9, the control circuit 31 determines whether the illumination method corresponds to the simultaneous illumination method based on the information read from the memory 37. In the case of the determination result corresponding to the simultaneous illumination method, in step S10, the illumination control unit 31c of the control circuit 31 simultaneously emits a plurality of LEDs corresponding to the NBI observation mode selected via the LED drive circuit 17. Control to perform simultaneous illumination.
  • step S11 the imaging control unit 31d of the control circuit 31 controls each unit of the video processor 4 so as to perform an imaging operation corresponding to simultaneous illumination. Then, as shown in step S12, an image in the NBI observation mode captured by the simultaneous illumination method is displayed on the monitor 5.
  • step S13 the control circuit 31 determines, for example, whether or not an instruction operation for ending the endoscopic examination has been performed from the input unit 36, and when the instruction operation for ending is performed, FIG. Terminate the process. On the other hand, if the end instruction operation is not performed, in the next step S14, the control circuit 31 determines whether or not the operator has performed an operation of changing the wavelength band in the NBI observation mode by the selection switch 34a. .
  • step S15 the control circuit 31 further determines whether or not the mode changeover switch 34 has been operated to switch from the NBI observation mode to the WBI observation mode. If the determination result is not only the switching to the WBI observation mode by the mode changeover switch 34 but only the operation of changing the wavelength, the process returns to step S7. On the other hand, in the case of the determination result of the switching operation to the WBI observation mode, the process returns to step S4, and the above-described processing is repeated after setting to the WBI observation mode.
  • the illumination control unit 31c of the control circuit 31 in step S16 selects the NBI observation mode selected via the LED drive circuit 17.
  • a plurality of LEDs corresponding to are controlled to emit light in a time-sharing manner to perform time-sharing illumination.
  • step S17 the imaging control unit 31d of the control circuit 31 controls each unit of the video processor 4 so as to perform an imaging operation corresponding to time-division illumination. Then, as shown in step S18, the monitor 5 displays an image in the NBI observation mode imaged by the time division illumination method.
  • step S19 the control circuit 31 determines, for example, whether or not an instruction operation for ending the endoscopic examination has been performed from the input unit 36, and when the instruction operation for ending is performed, FIG. Terminate the process. If the end instruction operation is not performed in step S19, in the next step S20, the control circuit 31 determines whether or not the operator has performed a wavelength band change operation in the NBI observation mode by the selection switch 34a. Do. If the determination result indicates that no operation to change is performed, the process returns to step S16 and the same process is continued.
  • step S21 the control circuit 31 further determines whether or not the mode changeover switch 34 has performed the switching operation from the NBI observation mode to the WBI observation mode. If the determination result is not only the switching to the WBI observation mode by the mode changeover switch 34 but only the operation of changing the wavelength, the process returns to step S7. On the other hand, in the case of the determination result of the switching operation to the WBI observation mode, the process returns to step S4, and the above-described processing is repeated after setting to the WBI observation mode. Next, the operation in the case of the simultaneous illumination method will be described.
  • FIG. 8 shows the operation in the NBI observation mode when the LEDs 16NB and 16NG are used.
  • the illumination control unit 31c of the control unit 31 is a case where the LEDs 16NB and 16NG of the LED unit 16 constituting the illumination unit are controlled to irradiate illumination light of two wavelength bands at the same time.
  • the readout light signal picked up by the above is continuously read out within one frame period.
  • FIG. 8B shows a state of reading when a CMOS sensor is used as the image sensor 14 under simultaneous illumination.
  • reading is sequentially performed in the direction of each horizontal line of the CMOS sensor.
  • a period indicated by a horizontal line in FIG. 8B is an illumination period (exposure period) Td in which illumination is performed in order to acquire an image for one frame, and the horizontal direction indicated by two oblique lines is short after the exposure period Td.
  • the period is a reading period for one horizontal line.
  • a period for reading the entire horizontal line (that is, an image for one frame) is a reading period Tr, and in the case of FIG. 8B, the reading period Tr coincides with one frame period Tf for acquiring an image for one frame.
  • imaging is performed by a continuous reading (rolling shutter) method that does not have a non-reading period in which reading is not performed.
  • continuous reading without a non-reading period is performed, it is possible to capture and display images at a high frame rate.
  • FIG. 8C shows a state where an NB image acquired under NB light and an NG image acquired under NG light are stored in one memory group 26 a of the memory unit 26.
  • FIG. 8D shows an NB image and an NG image after color separation calculation by the color separation circuit 27a.
  • FIG. 8E shows a display example in which the monitor 5 displays the NB image and the NG image after the color separation calculation by the color separation circuit 27a.
  • an NG image for NG light
  • an NB image for NB light
  • an NB image are respectively input to the R, G, and B channels of the monitor 5 and displayed in color.
  • R: NG (0) in FIG. 8E indicates that the R channel NG image is the 0th frame.
  • FIG. 9 shows an operation in the case of an illumination method in which the simultaneous illumination described in FIGS. 5B and 5C is combined with time division.
  • the non-reading period Tnr in which reading is not performed while time division is performed with a period in which NG light and NRb light are simultaneously irradiated (illuminated) and a period in which only NRa light is irradiated.
  • the sum of the non-reading period Tnr and the reading period Tr for reading is one frame period Tf. For example, in the non-readout period Tnr in the first frame (1 in FIG.
  • image signals captured under the simultaneous illumination of the NG light and the NRb light are stored in the memory group 26a, and under the illumination of the NRa light.
  • the captured image signal is stored in the memory group 26b.
  • -1 in HG and NRb and -2 in NRa indicate the one before the 0th frame and the two before the 0th frame, respectively.
  • the image signal captured under the simultaneous illumination of the NG light and the NRb light is subjected to color separation calculation by a color separation circuit 27a as color separation calculation means as shown in FIG. Separated into NRb images. Further, the image signal components separated in color as shown in FIG.
  • both images obtained alternately are displayed in pseudo color. Since the frame rate is lower than in the case of FIG. 8, pixel binning for performing pixel addition of the CMOS sensor is performed in the case of FIG. 9 in conjunction with the switching from the mode of FIG. 8 to the mode of FIG.
  • the number of pixels to be imaged may be reduced by this pixel addition, and the sensitivity may be improved by pixel addition. For example, by setting the reading period Tr to 1/120 sec and the non-reading period Tnr to 1/120 sec, it is possible to display 60P.
  • illumination control Simultaneous illumination or time-division illumination
  • An endoscopic device 1 that can be provided can be provided.
  • the R, R, of the color filter 15 of the image sensor 14 is applied to illumination light having a plurality of different wavelength bands that are actually required to be irradiated.
  • simultaneous illumination is performed in the case of illumination light of a plurality of wavelength bands when the return light can be sufficiently color-separated by the color filter 15.
  • time-division illumination is performed and control is performed so that a color-separated image can be reliably acquired.
  • Mirror inspection can be performed smoothly.
  • the driving of the image sensor 14 and the signal processing for the output signal of the image sensor 14 are performed according to the simultaneous illumination and the time-division illumination.
  • a high endoscope apparatus 1 can be provided.
  • LEDs 16NBa and 16NBb that emit light in two narrow bands within the wavelength band of the B filter 15B, and LEDs 16NGa and 16NGb that emit light in two narrow bands within the wavelength band of the G filter 15G, R filter A case where NBI observation is performed using LEDs 16NRa and 16NRb emitting light in two narrow bands within the 15R wavelength band will be described.
  • each filter of the color filter 15 of the image sensor 14 (more specifically, a CMOS sensor) cannot separate the return light of the two narrow-band lights, so that time-division illumination is performed with a combination capable of color separation.
  • imaging Specifically, illumination and imaging are performed in a time-sharing manner divided into LED16NBa, LED16NGa, and LED16NRb, and LED16NBb, LED16NGb, and LED16NRb.
  • each filter includes a single narrowband light. Therefore, the filters are sufficiently color-separated under the illumination light of each narrowband light. It is possible to acquire a captured NBI image.
  • One image can be acquired. Accordingly, the surgeon can select and display an image to be displayed on the monitor 5 from the input unit 36, for example.
  • NRa, NGb, and NBa images may be input to the R, G, and B channels of the monitor 5 and displayed in color. In this case, an image other than the display can be displayed.
  • the display surface of the monitor 5 is set to a two-screen display mode in which, for example, two endoscopic images are displayed side by side on the left and right, for example, images of NRa, NGb, NBa are displayed on one screen and NRb is displayed on the other screen.
  • NGa, NBb images may be displayed in color.
  • the number of monitors 5 may be two, and the NRa, NGb, and NBa images may be displayed on one monitor, and the NRb, NGa, and NBb images may be displayed in color on the other monitor. According to this modification, when NBI observation is performed, it is possible to display an NBI image that better meets the operator's request.
  • FIG. 10 An excitation light cut filter 51 that cuts excitation light between the objective lens 13 and the imaging element 14 in the endoscope 2 shown in FIG.
  • the image pickup device 14 is a pixel binning circuit or a pixel binning unit that constitutes a pixel addition reading unit that adds and reads a plurality of adjacent pixels in addition to normal reading of reading out signals of all the captured pixels one pixel at a time. 52.
  • the read control unit 31e in the control circuit 31 applies the image sensor driving signal via the image sensor driver 21 and also performs imaging for all the pixels that have imaged the image sensor 14.
  • a pixel binning control signal that is read by adding signals is applied to the image sensor 14, and read control is performed by adding and reading output signals of a plurality of pixels such as adjacent two or four pixels. That is, the read control unit 31e includes a pixel binning control unit 52a.
  • the fluorescence observation endoscope 2B is an endoscope dedicated to fluorescence observation that does not have the mode switch 34.
  • the video processor 4B of the present embodiment has a function of further performing signal processing for the fluorescence observation mode in the video processor 4 of FIG.
  • the light source device 3 has the same configuration as that in FIG. 1, and the control circuit 31 allows the light source device 3 to emit excitation light corresponding to the fluorescence observation mode when the fluorescence observation endoscope 2B is connected. Control is performed to generate and reference light.
  • the illumination unit emits reference light and excitation light as illumination light
  • the imaging unit performs fluorescence observation for imaging reflected light and fluorescence of the reference light as return light from the subject.
  • the illumination control unit 31c reads the fluorescence signal of the fluorescence for the readout period for reading the return signal of the reflected light imaged by the imaging unit.
  • the readout period is shortened by the pixel binning control means, and the excitation light irradiation period for irradiating the excitation light is controlled to be increased only during the shortened period. A specific example of this is shown in FIG. FIG.
  • FIG. 11 is an explanatory diagram of the overall operation according to this embodiment.
  • FIG. 11A shows the filter characteristics of the color filter 15 which is the same as that in FIG.
  • FIG. 11B shows the light intensity of the excitation light and the reference light, and the transmission characteristics of the excitation light cut filter 51.
  • FIG. 11B also shows a characteristic example of the autofluorescence wavelength band.
  • the autofluorescence wavelength band is mainly the G wavelength band, and a part of the autofluorescence wavelength band extends to the R wavelength band. Since the wavelength band of G includes the wavelength band of the reference light, it is difficult to capture images by sufficiently separating the autofluorescence and the reference light. For this reason, in this embodiment, illumination of excitation light and reference light is performed by time division. Further, the irradiation time of the excitation light is lengthened to increase the light intensity as shown in FIG. In this case, the sensitivity is also improved by pixel binning. Note that FIG.
  • FIG. 11D shows the light intensity with respect to the reference light (returned light) irradiated at a timing different from that of the excitation light.
  • an image signal of an autofluorescence image is obtained by adding a G image component and an R image component.
  • the B image component is almost zero.
  • only the G image component is used as the image signal of the reference light image because the B image component and the R image component are almost zero.
  • FIG. 12A shows the timing of illumination or irradiation (exposure) of illumination light (excitation light), and the CMOS sensor is read as shown in FIG. 12B in synchronization with this illumination.
  • the illumination period in one frame period Tf, in the case of a fluorescent image, the illumination period is longer than that in the case of acquiring a reference light image (reflected light image), and this illumination period becomes the non-readout period Tnr1 of the fluorescent image.
  • the non-reading period (illumination period) Tnr2 is shorter.
  • the reference light image since a bright image is obtained, all pixels are read out in the readout period Tr2 without performing pixel binning.
  • readout is performed in a short readout period Tr1 using pixel binning as described above.
  • the number of added pixels when adding pixels by pixel binning is set to 4, and the readout period Tr1 is shortened to 1 ⁇ 4 of the readout period Tr2. Then, the shortened period is assigned to the excitation light illumination period, and the excitation light illumination period is lengthened.
  • one frame period in which excitation light irradiation and subsequent (fluorescence) pixel reading are performed is the same as one frame period in which reference light irradiation and subsequent (reference light image) pixel reading are performed. It is set to be one frame period Tf.
  • the fluorescence image and the reference light image are stored in the memory group 26a and the memory group 26b as shown in FIG. 12C.
  • the reference light image and the fluorescence image stored in the memory group 26a and the memory group 26b are output to the R, G, and B channels of the monitor 5 as shown in FIG.
  • the reference light image are superimposed and displayed in pseudo color.
  • the present embodiment in the case of the endoscope 2 shown in FIG. 1 as in the first embodiment, the function and effect of the first embodiment are obtained, and the inside for fluorescence observation shown in FIG. When the endoscope 2B is connected, fluorescence observation can be performed.
  • This modification employs an excitation light cut filter 51 ′ (see FIG. 13B) having different transmission characteristics for cutting off the excitation light of the excitation light cut filter 51 in the fluorescence observation endoscope 2B shown in FIG. ing.
  • a fluorescence observation endoscope (hereinafter referred to as 2B ′) using spectral characteristics slightly different from those described above is adopted for the R, G, B filters 15R, 15G, and 15B of the color filter 15.
  • the light source device 3 shown in FIG. 10 further includes an LED that generates near-infrared (IR) excitation light.
  • FIG. 13A shows the spectral characteristics of the R, G, and B filters 15R ′, 15G ′, and 15B ′ of the color filter 15 employed in the fluorescence observation endoscope 2B ′.
  • FIG. 13B shows white light, reference light (15NG), IR excitation light, IR fluorescence light intensity, and transmission characteristics (transmitted light intensity) of the excitation light cut filter 51 ′.
  • the reference light (15NG) is also referred to as G reference light.
  • the excitation light cut filter 51 ′ cuts the periphery including the wavelength band of the IR excitation light, and the shorter wavelength side (the wavelength band of visible light). And long wavelength side (IR fluorescence wavelength side).
  • the R, G, B filters 15R ′, 15G ′, and 15B ′ transmit the longer wavelength side than the respective wavelength bands, that is, have the characteristic of having sensitivity even on the longer wavelength side. The thing is adopted.
  • the white light WBI observation mode and the fluorescence observation mode are performed in a time-sharing manner.
  • the simultaneous illumination method can be adopted when only the WBI observation mode or only the fluorescence observation mode is performed.
  • the R, G, B filters 15R ′, 15G ′, 15B ′ are employed, and the signal intensity characteristics as shown in FIG. , B images are acquired and output to the monitor 5 as they are as shown in FIG.
  • FIG. 13D shows the IR excitation light and the reference light (NG light) are simultaneously irradiated, and the IR fluorescence on the longer wavelength side than the IR excitation light is imaged by the CMOS sensor.
  • the light intensity of IR fluorescence is indicated by a dotted line.
  • FIG. 13F shows an example of signal intensity characteristics when an image is captured by a CMOS sensor using the R, G, B filters 15R ′, 15G ′, and 15B ′ shown in FIG.
  • FIG. 13H shows an example of signal intensity obtained by color separation of the signal output of FIG. 13F by the color separation circuit 27a.
  • FIG. 14 shows the operation contents using the timing chart according to this modification.
  • the white light WBI observation mode and the fluorescence observation mode are performed in a time-sharing manner.
  • the imaging method is the same as in the case of time division in the first embodiment (in the case of FIG. 9). That is, when the NG light + NRb light in FIG. 9 is replaced with white light, and the NRa light in FIG. 9 is replaced with IR excitation light and G reference light, FIGS. 14A and 14B are FIGS. Same as (B).
  • the memory group 26a stores an image signal of white light (R, G, B reflected light, more broadly R, G, B return light) as shown in FIG.
  • the memory group 26b stores image signals of IR fluorescence and G reference light. Further, the IR fluorescence and G reference light image signals in the memory group 26b are separated as shown in FIG.
  • the fluorescence observation image is displayed on the monitor 5 in a pseudo color manner in a state in which IR fluorescence, G reference light, and G reference light are assigned to the R, G, and B channels.
  • the white light image is displayed in color in a state where the R, G, B reflected light images are assigned (input) to the R, G, B channels of the monitor 5.
  • this modification has been described in the case where white light observation and IR fluorescence observation are performed in parallel, only IR fluorescence observation is performed as this modification (second modification of the second embodiment).
  • the fluorescence observation image can be continuously obtained by simultaneously irradiating IR excitation light and G reference light. In this case, it is possible to take an image as in the case of the simultaneous illumination of the first embodiment (in the case of FIG. 8).
  • An endoscope apparatus 1C shown in FIG. 15 is different from the endoscope apparatus 1 shown in FIG. 1 in that the imaging element 14 in the endoscope 2 is changed to an interlaced CCD 14C as an interlaced imaging element.
  • 4 is configured using a memory unit 26 including four memory groups 26a, 26b, 26c, and 26d. The rest of the configuration is the same as in FIG. 1, and in FIG. 15, only the components different from those in FIG. 1 are shown in a simplified manner.
  • the control circuit 31 performs illumination control so that the order of irradiating two types of illumination light is changed every frame period so that there is no omission in each field. Imaging control (signal processing) is performed.
  • the control circuit 31 (the read control unit 31e) has two or more different wavelength bands irradiated by the illumination unit when the imaging unit uses an interlaced image sensor.
  • the illumination light is controlled to be irradiated in two time divisions, the pixels of the odd-numbered line and even-numbered line in the interlaced image sensor are continuously used in the period in which the illumination light is irradiated twice in the field period unit.
  • Read control means for reading out automatically.
  • the interlaced CCD 14C will be described as being capable of performing exposure and reading with one field pixel on an odd line and one field pixel on an even line, respectively.
  • FIG. 16 is a timing chart for explaining the operation of this embodiment.
  • FIG. 16 As described above, for example, when illumination of NG light + NRb light and illumination of Na light are performed in the even and odd fields in the first frame so as not to cause omission of fields in each frame, FIG. As shown in (B), in the second frame, Na light is illuminated in the even field, and NG light + NRb light is illuminated in the odd field. The field period of the even field and odd field is indicated by Tfi. Image signals captured by the interlaced CCD 14C by such illumination are stored in the four memory groups 26a to 26d as shown in FIG.
  • the memory groups 26a and 26d store NG and NRb image signals picked up under illumination of the NG light + NRb light even field and odd field, and the memory groups 26b and 26c store the NRa light even.
  • the NRa image signals captured under the illumination of the field and odd field are stored.
  • the NG and NRb image signals captured under the illumination of NG light + NRb light are color-separated as shown in FIG. 16D by the color separation calculation of the color separation circuit 27a.
  • the NRa image signal imaged under the illumination of the NRa light is output to the subsequent stage as shown in FIG. 16C as shown in FIG. Then, the NBI image is displayed on the monitor 5 for each field period as shown in FIG. According to this embodiment, even when the interlaced CCD 14C is used, an NBI image having a resolution of one frame can be displayed by performing time-division illumination in which the illumination light irradiation order is changed in units of feeds.
  • illumination control corresponding to the transmission wavelength characteristics of the color filter 15 of the image sensor can be appropriately performed as in the first embodiment.
  • the surgeon can smoothly perform endoscopy with a simple operation.
  • control is performed so as to change the order of irradiating illumination light in a time-division manner in the two field period Tfi in one frame period Tf. You may make it replace.
  • the control circuit 31 (the read control unit 31e) is configured to illuminate light of two or more different wavelength bands irradiated by the illumination unit when the image capture unit uses an interlaced image sensor.
  • the pixels of the odd-numbered lines or even-numbered lines in the interlaced image pickup device are continuously applied in the period in which the illumination light is irradiated twice in time-division field units.
  • the illumination light is alternately performed with NG light + NRb light and NRa light in units of one field period Tfi with a period of one frame period Tf.
  • FIG. 17B when imaging is performed by the CCD 14C, reading twice in the same even field and odd field is repeated every frame period Tf.
  • NRa light is emitted in the even field period. Irradiate.
  • NG light + NRb light is irradiated in the odd field period, and then NRa light is irradiated in the odd field period.
  • the signal read from the CCD 14C is stored in the memory groups 26a-26d as shown in FIG. Further, in the image signals stored in the memory groups 26a to 26d, the NG and NRb image signals picked up under the illumination of NG light + NRb light are subjected to color separation calculation by the color separation circuit 27a as shown in FIG. Color separated. Also, the NRa image signal imaged under the illumination of the NRa light is output to the subsequent stage as shown in FIG. 17C as shown in FIG. Then, the NBI image is displayed on the monitor 5 in units of field periods as shown in FIG. In the case of FIG.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)

Abstract

 内視鏡装置は、被検体に対して白色光又は複数の波長帯域の光の照明光を照射可能な照明部と、複数のフィルタからなるカラーフィルタを有し、被検体からの戻り光を撮像する撮像部と、撮像部により複数のフィルタにおける少なくとも1つのフィルタの透過波長帯域内に2つ以上の複数の波長帯域の戻り光を撮像する場合には、照明部が照明光を2つ以上に時分割して照射し、複数のフィルタにおける少なくとも2つ以上の波長帯域内にそれぞれ1つ以下の戻り光が含まれる状態で戻り光を撮像する場合には、照明部が2つ以上の複数の波長帯域の照明光を同時に照射するように制御する照明制御部と、を備える。

Description

内視鏡装置
 本発明はカラーモザイクフィルタを備えた撮像素子を用いて撮像を行う内視鏡装置に関する。
 挿入部の先端部に撮像素子を備えた内視鏡は、医療用分野及び工業用分野において広く用いられている。 
 近年、撮像素子の画素数の高画素化により、撮像素子にカラーフィルタを設けたカラー用撮像素子は、白色照明のもとでカラー撮像ができると共に、面順次照明を必要とするカラーフィルタを設けてないモノクロ用撮像素子よりも色ずれやフレームレートの低下に対する問題を回避できるメリットを有する。 
 一方、白色光の照明のもとで通常の内視鏡検査を行う用途で使用される他に、特殊な照明光の下で内視鏡検査を行うニーズもある。
 例えば、日本国特開2010-184047号公報の従来例は、R,G,Bのカラーフィルタを備えた電荷結合素子(CCDと略記)を用いて、通常照明光による通常観察と特殊光照明による特殊光観察を行う内視鏡装置を開示している。 
 同時撮影モードが選択された場合、通常照明光用光源、特殊照明光用光源は、CCDの蓄積期間単位で、通常照明光と特殊照明光とを交互に、または同時に照射する。インターライントランスファ型でのCCDは、第2n回目の撮像動作では、第2n-1回目の撮像動作で、受光素子から垂直CCDに信号電荷を読み出し転送した後から、直ちに受光素子への電荷蓄積を開始する。電荷蓄積後、CCDは、読み出しパルスに応じて読み出し転送を行う。読み出し転送後、CCDは、第2n-1回目の撮像動作による信号電荷の水平転送が終了するまで、信号電荷を垂直CCDに保持する。
 しかしながら、上記従来例は、例えばRの波長帯域内において2つの狭帯域の照明光を特殊光として照射した場合において、この特殊光の照射に対応した戻り光で撮像を行う場合には、CCDに設けたR,G,Bのカラーフィルタでは2つの狭帯域の戻り光を十分に分離できない欠点がある。 
 本発明は上述した点に鑑みてなされたもので、撮像手段が有するカラーフィルタの透過波長特性に対応して照明光の照明制御を適切に行うことができる内視鏡装置を提供することを目的とする。
 本発明の一態様の内視鏡装置は、被検体に対して白色光又は複数の異なる波長帯域の光からなる照明光を照射可能な照明部と、複数の異なる波長帯域の光をそれぞれ透過する複数のフィルタからなるカラーフィルタを有し、前記照明部による前記照明光の照射に基づき、前記被検体からの戻り光を撮像する撮像部と、前記撮像部により前記複数のフィルタにおける少なくとも1つのフィルタの透過波長帯域に対して、当該透過波長帯域内に含まれる少なくとも2つ以上の複数の波長帯域の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明部が照射する照明光を2つ以上に時分割して照射するように制御し、前記撮像部により前記複数のフィルタにおける少なくとも波長帯域が異なる2つ以上のフィルタの透過波長帯域内にそれぞれ1つ以下の戻り光が含まれる状態で、2つ以上の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明部が照射する2つ以上の複数の波長帯域の照明光を同時に照射するように制御する照明制御部と、を備える。
図1は本発明の第1の実施形態の内視鏡装置の全体構成を示す図。 図2は撮像素子に設けられたカラーフィルタの構成例を示す図。 図3はカラーフィルタの透過特性と、光源ユニットを構成する白色LEDの発光特性及び狭帯域のLEDの発光特性を示す図。 図4はメモリ部周辺部の構成例を示すブロック図。 図5Aは1つの透過波長帯域内に2つの波長帯域の照明光を含む状態で、戻り光に対する色分離演算を行った場合の分光特性例を示す図。 図5Bは2つの異なる透過波長帯域内にそれぞれ1つの波長帯域の照明光を含む状態で戻り光に対する色分離演算を行った場合の分光特性例を示す図。 図5Cは1つの透過波長帯域内に1つの波長帯域の照明光を含む状態で戻り光に対する色分離演算を行った場合の分光特性例を示す図。 図6は第1の実施形態における照明及び撮像動作の説明図。 図7は第1の実施形態の全体的な動作内容を示すフローチャート。 図8は同時照明方式の状態で撮像を行った場合の動作の説明図。 図9は時分割方式の状態で撮像を行った場合の動作の説明図。 図10は本発明の第2の実施形態の内視鏡装置の全体構成を示す図。 図11は第2の実施形態における蛍光観察を行う場合の説明図。 図12は第2の実施形態における蛍光観察を行う場合の説明用タイミング図。 図13は第2の実施形態の第1変形例の動作説明図。 図14は第1変形例の動作説明のタイミング図。 図15は本発明の第3の実施形態の内視鏡装置の概略の構成を示す図。 図16は第3の実施形態における動作説明用のタイミング図。 図17は第3の実施形態の変形例の動作説明用のタイミング図。
 以下、図面を参照して本発明の実施形態を説明する。 
(第1の実施形態)
 図1に示すように本発明の第1の実施形態の内視鏡装置1は、被検体内に挿入される内視鏡2と、着脱自在に接続される内視鏡2に照明光を供給する光源装置3と、内視鏡2の撮像手段により撮像された撮像信号に対する信号処理を行う信号処理装置としてのビデオプロセッサ4と、このビデオプロセッサ4から出力される画像信号を表示するモニタ5と、画像信号を記録するファイリング装置6とを有する。 
 内視鏡2は、被検体内に挿入される挿入部7と、この挿入部7の後端(基端)に設けられた操作部8とを有し、操作部8から延出されたライトガイド9の先端のライトガイドコネクタ9aは、光源装置3に着脱自在に接続される。光源装置3から出射される照明光は、ライトガイドコネクタ9aのライトガイド9の入射端面に入射される。 
入射された照明光は、ライトガイド9により、操作部8,挿入部7内を経て挿入部7の先端部11に配置されたライトガイド9の先端面から照明窓に取り付けられた照明レンズ12を経て外部に出射され、(被検体内の部位としての)患部等の被写体に照明光を照射して、被写体を照明する。
 照明窓に隣接して先端部11には観察窓が設けられ、この観察窓には被写体からの戻り光(反射光)を屈折させて、その光学像を結像する対物レンズ13が取り付けられ、その結像位置には撮像手段としての撮像素子14の撮像面が配置されている。この撮像素子14の撮像面には光学的に色分離するカラーフィルタ15が設けてある。 
 図2は、カラーフィルタ15の構成を示す。撮像素子14の撮像面14aには、光電変換する受光素子を構成する画素14bが2次元的に配置され、各画素14bの前には、赤(R),緑(G),青(B)の波長帯域の光をそれぞれ透過するR,G,Bフィルタ15R,15G,15Bが画素単位で規則的に配置されて改良ベイヤー方式のカラーフィルタ15が形成されている。なお、図2の場合には、縦方向の4画素分と横方向の2画素分から8画素が色分離するカラーフィルタ15の単位となる配列画素となり、ビデオプロセッサ4においては単位となる配列画素毎にR,G,B信号を生成する。
 図3(A)は、カラーフィルタ15を構成するR,G,Bフィルタ15R,15G,15Bの波長に対する透過特性を示す。また、図3(A)は、カラーフィルタ15を備えた撮像素子14における波長に対する感度の特性を示すことにもなる。そして、後述するように撮像素子ドライバ21からの撮像素子駆動信号の印加により、撮像素子14は、R,G,Bフィルタ15R,15G,15Bで色分離し、光電変換した信号を戻り光信号として出力する。 
 図1に示すように光源装置3は、複数の発光ダイオードユニット(LEDユニットと略記)16と、LEDユニット16を駆動するLED駆動回路17と、LED駆動回路17に駆動用の電源を供給する電源回路18と、LEDユニット16の照明光を集光してライトガイド9に入射させるコンデンサレンズ19とを備える。
 LEDユニット16は、通常光観察モード(WBI観察モードと略記)で通常光観察(WBI観察と略記)を行うための白色光を発生する白色LED16Wと、狭帯域光観察モード(NBI観察モードと略記)で狭帯域光観察(NBI観察と略記)を行うための複数の異なる狭帯域光を発生する複数の狭帯域LEDとしての4つのLED16NB、LED16NG、LED16NRa、LED16NRbとを有する。 
 LEDユニット16は、NBI観察モード用の(光源手段又は)照明手段として、B,Gの各波長帯域中で狭帯域に発光するLED16NB、LED16NG、Rの波長帯域中で狭帯域にそれぞれ発光するLED16NR1、LED16NR2とを有する。 
 また、LEDユニット16は、白色LED16W、LED16NB、LED16NG、LED16NR1、LED16NR2の光路前に配置されたミラー20a、ハーフミラー20b-20eを有する。
 白色LED16Wの白色光は、ミラー20aで反射された後、ハーフミラー20b-20dを透過し、ハーフミラー20eで反射された後、コンデンサレンズ19で集光されてライトガイド9に入射される。また、LED16NBの狭帯域の光は、ハーフミラー20bで反射された後、ハーフミラー20c,20dを透過し、ハーフミラー20eで反射された後、コンデンサレンズ19を経てライトガイド9に入射される。 
 また、LED16NGの狭帯域の光は、ハーフミラー20cで反射された後、ハーフミラー20dを透過し、ハーフミラー20eで反射され後、コンデンサレンズ19を経てライトガイド9に入射される。また、LED16NR1の狭帯域の光は、ハーフミラー20dで反射された後、ハーフミラー20eで反射され、コンデンサレンズ19を経てライトガイド9に入射される。また、LED16NR2の狭帯域の光は、ハーフミラー20eを透過し、コンデンサレンズ19を経てライトガイド9に入射される。
 図3(B)は、白色LED16W、LED16NB、LED16NG、LED16NRa、LED16NRbの発光特性を示す。白色LED16Wは、可視の波長帯域(ほぼ380nm-750nm)をカバーする発光特性を有する。これに対して、LED16NB、LED16NG、LED16NRa、LED16NRbは、それぞれB,Gの波長帯域、Rの波長帯域で狭帯域にで発光する発光特性を有する。 
 この場合、Bフィルタ15B,Gフィルタ15Gの各波長帯域には、それぞれLED16NB、LED16NGの狭帯域の光が1つ含まれる。これに対して、Rフィルタ15Rの波長帯域内には、2つのLED16NRa、LED16NRbの狭帯域の光が2つ含まれると共に、短波長側のLED16NRaによる光はGフィルタ15Gの波長帯域内においてもかなりの割合の成分が含まれる。換言すると、LED16NRaの光で照射された被写体からの戻り光は、Rフィルタ15RおよびGフィルタ15Gの主に2つの波長帯域内の成分として抽出されることになる。
 ここで、LED16NBとLED16NGに着目すると、それぞれの戻り光は、カラーフィルタ15における、主にBフィルタ15BとGフィルタ15Gの透過波長帯域内に対応した波長であり、同時に撮像した場合に後述する色分離演算で、実質的にLED16NBとLED16NGの2つの波長帯域成分に分離することができる。 
 このため、後述するように、本実施形態においては、例えば2つの狭帯域の光を用いて狭帯域光観察(NBI観察と略記)を行う場合、制御回路31は、LED16NB、LED16NGとを同時に照射して、撮像素子14による撮像を行うように照明制御する。なお、このように2つ又は2つ以上の複数の波長帯域のLEDを同時に発光させて同時に照射することを同時照射モード又は同時照明モードとも言う。
 一方、LED16NG、LED16NRa、LED16NRbの3つの狭帯域の光を用いてNBI観察を行う場合には、前述したように、LED16NRaの光で照射された被写体からの戻り光が、Rフィルタ15RおよびGフィルタ15Gの主に2つの波長帯域内の成分として抽出されることになる。前記3つの戻り光を同時に撮像してしまうと、後述する色分離演算を行っても、LED16NRaによる戻り光を他の2つの戻り光と実質的に分離することができない。従って、LED16NG及びLED16NRbと、LED16NRaとは時分割で照射して、撮像素子14による撮像を行う。このように2つ又は2つ以上の複数の波長帯域のLEDをそれぞれ時分割で照射することを時分割照明モード又は時分割照明モードとも言う。なお、時分割で照射される照明光は、LED16NRaの照明光(NRa光とも言う)のように1つの照明光の場合や、LED16NGの照明光(NG光とも言う)及びLED16NRbの照明光(NRb光とも言う)のように2つの照明光の場合等がある。 
 なお、LED16NG及びLED16NRbは、LED16NB及びLED16NGの場合と同様に同時に照射して、撮像素子14による撮像を行うように照明制御手段の機能を持つ制御回路31は、照明制御する。 
 また、操作部8から延出された信号ケーブル10の端部に設けた信号コネクタ10aは、ビデオプロセッサ4に着脱自在に接続される。
 図1に示すように撮像素子14は、ビデオプロセッサ4内に設けた撮像素子ドライバ21からの撮像素子駆動信号の印加により、撮像面14aに結像された(戻り光による)光学像を光電変換した戻り光信号としての撮像信号又は画像信号を出力する。 
 この画像信号は、アンプ22で増幅された後、前処理回路23で相関二重サンプリング処理等の前処理が行われる。この前処理回路23の出力信号は、A/D変換回路24に入力され、アナログの信号からデジタルの信号に変換される。このA/D変換回路24の出力信号は、カラーフィルタ15のR,G,Bフィルタの配列に応じて切り替えられるセレクタ25を介してメモリ部26を構成するRメモリ26R、Gメモリ26G、Bメモリ26BにR,G,Bの信号成分が格納される。この場合、カラーフィルタ15の単位となる配列画素においては、同じ画素のR,G,Bの信号として同じアドレスブロックとして管理されるメモリセルに格納される。 
 メモリ部26からの出力信号は、画像処理回路27に入力され、色分離演算手段を構成する色分離回路27aによる色分離等の画像処理された後、D/A変換回路部28を構成するD/A変換回路28R,28G,28Bに入力される。
 色分離回路27aは、撮像手段が撮像した戻り光信号に対して、撮像手段が有するカラーフィルタ15を構成する複数のフィルタが有する透過波長帯域に対応した複数からなる所定の波長帯域(具体的にはR,G,Bの波長帯域)における独立した画像成分に分離するための色分離演算を行う。なお、色分離演算の詳細については後述する。
 D/A変換回路28R,28G,28Bによりデジタルの信号からアナログの画像信号に変換されてモニタ5のR,G,Bのチャンネルに出力され、モニタ5の表示面には撮像素子14により撮像した被写体像に対応する画像が内視鏡画像として表示される。なお、D/A変換回路28R,28G,28Bの出力信号は、符号化回路29により圧縮のための符号化された後、ファイリング装置6により記録される。 
 また、ビデオプロセッサ4は、ビデオプロセッサ4、内視鏡装置1全体の動作の制御を行う制御回路31と、所定のタイミングで動作させるタイミング信号を生成するタイミングジェネレータ(TGと略記)32と、調光回路33とを有する。
 調光回路33は、画像処理回路27の出力信号から基準の明るさに調光するための調光信号を生成して、LED駆動回路17に出力する。この調光回路33は、画像処理回路27の出力信号から基準の明るさの差分信号となる調光信号により、LED駆動回路17を介してLEDユニット16の発光量、換言すると被写体の照明光量を調整し、基準の明るさの画像が得られるように調光する。 
 また、内視鏡2の例えば操作部8には、術者等のユーザが通常光(白色光)によるWBI観察モードと、NBI観察モードとの切替(又は一方の選択)を行うモード切替スイッチ34と、内視鏡2固有の識別情報(IDと略記)を記憶したスコープIDメモリ35とが設けてある。
 モード切替スイッチ34には、WBI観察モードと、NBI観察モードとの切替の他に、NBI観察モードにおいてさらに複数の狭帯域(本実施形態では、4つのLED16NB,16NG,16NRa,16NRbによる4つの狭帯域)におけるいずれの狭帯域光を用いてNBI観察を行うか否かを選択する選択スイッチ34aが設けてある。なお、選択スイッチ34aによる選択機能を含めてモード切替スイッチ34が観察モードの切替又は選択を行うと定義しても良い。 
 ユーザがモード切替スイッチ34を操作して一方のモードへの切替指示をすると、そのモード切替指示信号は制御回路31に入力され、制御回路31は、モード切替指示信号に対応したモード切替制御動作を行うモード切替制御部31aの機能を持つ。なお、このモード切替制御部31aは、選択スイッチ34aによる選択された波長帯域でのNBI観察を行うように複数のLEDから発光させるLEDを選択する制御を行うNBI波長帯域選択制御部の機能も持つ。 
 また、制御回路31は、調光回路33が調光信号を生成する場合、内視鏡2固有のIDを参照して、その内視鏡2に搭載された撮像素子14の特性及びこの撮像素子14のカラーフィルタ15を構成するR,G,Bフィルタの透過波長特性に応じて、調光パラメータ制御を行う調光パラメータ制御部31bの機能を持つ。
 本実施形態においては、スコープIDメモリ35は、このスコープIDメモリ35を備えた内視鏡2におけるカラーフィルタ15を有する撮像素子14の情報、少なくともカラーフィルタ15を構成するR,G,Bフィルタの透過波長特性(透過波長帯域)を特定することができる情報を格納する情報格納部を形成している。 
 また、制御回路31は、内視鏡2がビデオプロセッサ4に接続された場合、上記のようにIDを読み出し、その内視鏡2に搭載された撮像素子14の特性及びこの撮像素子14のカラーフィルタ15の特性と、モード切替スイッチ34等により指示された観察モードに応じて光源装置3内のLEDユニット16による照明制御を行う照明制御部31cの機能を持つ。 
 照明制御部31cは、撮像素子14のカラーフィルタ15の透過波長帯域を考慮して、観察モードに対応した照明を行う場合、複数の波長帯域の照明光を同時に照射する同時照明方式で照明を行うか、複数の波長帯域の照明光を時分割で照射する時分割方式で照明を行うかを決定(判定)して照明制御を行う。
 具体的には、本実施形態においては、カラーフィルタ15は、Rフィルタ15Rを有するが、この波長帯域は、狭帯域の2つのLED16NRa,16NRbの波長帯域を含むため、2つのLED16NRa,16NRbで同時に照明を行った場合には、それぞれの反射光又は戻り光をRフィルタ15Rにより分離することができない。 
 そのため、本実施形態においては、制御回路31の照明制御部31cは、狭帯域の2つのLED16NRa,16NRbを照明光に用いてNBI観察を行う場合には、狭帯域の2つのLED16NRa,16NRbを時分割で照明を行うように照明制御する。 
 また、狭帯域のLED16GとLED16NRaの場合においても、両波長帯域が近接しているため、Gフィルタ15GとRフィルタ15Rとで十分に分離し難いため、制御回路31の照明制御部31cは、LED16GとLED16NRaとの照明光を用てNBI観察を行う場合にも、時分割で照明を行うように照明制御する。
 これに対して、例えば狭帯域LED16NBとLED16NGの照明光を用いてNBI観察(撮像)する場合、それぞれの戻り光をBフィルタ15BとGフィルタ15Gとにより十分に色分離できるため、LED16NBとLED16NGの照明光を用いる場合には、制御回路31の照明制御部31cは、LED16NBとLED16NGの照明光を同時に発光させて、該照明光を被写体に同時に照射するように照明制御する。 
 なお、制御回路31は、照明制御を行う場合、LEDユニット16のLEDの構成及び発光(照明)特性も参照する。例えば、LED駆動回路17は、LEDユニット16の狭帯域LEDとしての4つのLED16NB、LED16NG、LED16NRa、LED16NRbの発光する波長帯域の情報を制御回路31に出力し、制御回路31は、その情報を参照して同時方式又は時分割で照明(照射)を行うかを決定した後、照明制御を行う。このようにすることにより、種類が異なる光源装置3を用いて内視鏡装置1を構成する場合にも、適切に対処できる。
 なお、制御回路31の照明制御部31cが、例えば判定部(決定部)31f等の機能を兼ねるようにしても良い。また、LED駆動回路17がLEDユニット16の発光波長の情報を制御回路31に入力する場合に限定されるものでなく、例えばビデオプロセッサ4に設けた情報を入力する入力部36からユーザ等がビデオプロセッサ4と共に使用される光源装置3におけるLEDユニット16の発光波長帯域の情報を制御回路31に入力するようにしても良い。また、光源装置3に光源装置3の動作を制御する光源制御回路を設け、この光源制御回路がLEDユニット16の発光波長帯域の情報を制御回路31に入力する構成にしても良い。なお、同じ光源装置3が常時使用される場合には、内視鏡検査毎に光源装置3の情報を参照する必要性は無い。
 また、制御回路31は、内視鏡2に搭載された撮像素子14の特性及びこの撮像素子14のカラーフィルタ15の特性と、モード切替スイッチ34の操作により指示された観察モードに応じて撮像素子14による撮像動作及び撮像動作による撮像信号に対する信号処理の動作を制御する撮像制御部(又は撮像&信号処理制御部)31dの機能を持つ。また、制御回路31は、同時照明を行った場合には、撮像素子14により1フレーム期間内で連続的に戻り光信号を読み出し、時分割照明を行った場合には、撮像素子14により1フレーム期間内で所定期間だけ読出を行うように読出制御を行う読み出し制御部31eの機能も持つ。なお、この動作は、後述する図8及び図9が代表例となる。
 また、制御回路31は、照明制御部31c等の制御動作を行うために、観察モードに対応した照明制御と撮像制御を行うための判定部(又は決定部)31fの機能を持つ。また、判定部31により、観察モードに対応した照明と撮像を行う情報を格納する照明情報格納部としてのメモリ37を有する。なお、メモリ37は、例えばフラッシュメモリ等のように、不揮発性で書き換え可能な記録媒体で構成される。 
 制御回路31は、例えば初期設定の状態において、ビデオプロセッサ4に接続された内視鏡2の(カラーフィルタ15を備えた撮像素子14)の情報と、この内視鏡が接続されて使用される光源装置3のLEDユニット16の情報とから各観察モードに対応した同時照明又は時分割照明を行う情報と、撮像素子14を用いて対応する撮像動作等の制御を行う場合の情報とをメモリ37に格納する。そして、実際に観察モードが指示(指定)された場合、メモリ37から対応する情報を読み出し、照明及び撮像の制御を行う。
 なお、制御回路31が、モード切替制御部31a、調光パラメータ制御部31b、照明制御部31c、撮像制御部31d、読み出し制御部31e、判定部31fを備えた構成にしているが、制御回路31の外部にモード切替制御部31a-判定部31fの機能を有する電子回路等を設けるようにしても良い。また、制御回路31、モード切替制御部31a-判定部31fを中央演算処理装置(CPU)を用いて構成しても良いし、専用の電子回路やFPGA(Field Programmable Gate Array)等を用いて構成しても良い。 
 図4はWBI観察モードなどにおいてR,G,Bの成分信号を格納するメモリ部26の周辺部の構成を示す。本実施形態においては、メモリ部26は、第1メモリ群26aと、第2メモリ群26bとを備える。なお、白色光のもとで撮像を行うWBI観察モードでは、第2メモリ群26bを用いなくても良い。後述するNBI観察モードでは第2メモリ群26bを使用する場合がある。 
 撮像素子14の出力信号に対して、制御回路31は、例えばTG32を介してセレクタ25の切替を画素単位でR,G,Bの成分信号となるように切替を制御して、メモリ部26を構成する一方のメモリ群26aのR,G,Bメモリ26R,26G,26Bに格納する。 
 そして、1フレーム分、第1メモリ群26aに格納した後、同時に読み出し、R,G,Bの成分信号を画像処理回路27で輪郭強調等した後、調光回路33と後段側に出力する。調光回路33は、R,G,Bの成分信号から調光信号を生成して、光源装置3側に出力し、基準の明るさとなるようにLED駆動回路17を介して白色LED16Wの発光量を調整する。モニタ5には、R,G,Bの画像信号により、被写体の画像がカラー表示される。
 図4の構成の場合には、セレクタ25の切替により、R,G,Bの成分信号に切り替えるようにしているが、画像処理回路27内の色分離回路27aを用いることによって、より忠実に戻り光の波長特性を反映したR,G,Bの画像信号に分離するようにしても良い。 
 本実施例におけるNBI観察モードにおいては、波長の異なる複数の狭帯域の光を照明し、戻り光を撮像する構成となっているが、実際にカラーフィルタを通して撮像されるRGBの信号は、それぞれのフィルタの透過帯域の戻り光だけでなく、異なる色のフィルタに対応した戻り光の波長帯域成分も含んでいる。これは、撮像素子のカラーフィルタが、実際にはRGBの色の帯域以外の波長帯域に対してもある程度の透過率を有していることに起因する。ここでは、1つの画像信号の中に、波長帯域の異なる複数の戻り光の成分を含んでいるような状態を混色と呼ぶ。 
 本実施形態においては、特にNBI観察モードにおいては、色分離回路27aを構成するマトリクス変換を行うマトリクス回路を用いて、混色したRGB信号を独立した波長成分に分離するための色分離の演算を行う。 
 NBI観察モードの場合において、撮像素子14からビデオプロセッサ4内のセレクタ25を経て画像処理回路27に入力されるR,G,Bの成分信号Iに対して、色分離演算を行うためのマトリクスMを積算すると,単位行列Sとなるように、マトリクス変換回路を構成するマトリクスMが以下のように設定される。
 M・I=S (1)
 例えば、3つの波長帯域の照明光のもとで撮像素子14により撮像し、セレクタ25等を経たR,G,Bの成分信号を3バンド(帯域)の光成分に分離したいときは、以下の(2)式のようになる。 
 [数式2]
Figure JPOXMLDOC01-appb-I000001
 なお、(2)式におけるMij(i,j=1,2,3)はマトリクス係数を示し、またIJ,λiは、J(=R,G,B)がJフィルタを用いた波長λiの信号成分を示す。
 (2)式ではマトリクス適用後の信号がバンド毎の成分に分離されたように見える。しかし、上記3つの波長帯域の照明光が例えば波長が540nm,600nm,630nmの3バンドの狭帯域の光である場合、その戻り光を分離しようとすると、図5Aに示すように意図しない波長帯域で歪みが生じてしまう。 
 この原因は、600nmと630nmの照明光の場合における被写体からの戻り光が、いずれもRフィルタ15Rの透過波長帯域内において最大に近い感度を有することに起因する。従って、この場合には、600nmと630nmの光の同時照明のもとでは、有効に色分離できないことになる。 
 このため、例えば600nmの光だけ、他の光(540nmと630nm)とは別のタイミングで時分割で照明し、かつ撮像するようにすると、各光の戻り光を分離して撮像できる。
 この場合には、540nmと630nmの2バンドの光を、同時に照明をすることになるので、色分離の演算式は(3)式のようになる。 
 [数式3]
Figure JPOXMLDOC01-appb-I000002
 この場合のマトリクスMは、2行3列の非対称行列となるため、マトリクス係数を求めるための式は、以下の(4)式のように信号Iの擬似逆行列Iを用いて求めることができる。 
 M=S・I+   (4)
 (3)式の色分離の演算により色分離した信号の分光特性をグラフ化したものを図5Bに示す。図5Bに示すように540nmと630nmの狭帯域波長の照明光を同時に照射した場合においては、その戻り光を十分に分離できていることが分かる。また、図5Cは600nmの狭帯域波長の照明光だけ独立した時間に照射した場合におけるその戻り光を撮像した場合のマトリクス変換後の出力信号の分光特性を示す。この場合には、混色の課題は発生しない。
 このように本実施形態においては、色分離回路27aにおいて十分に色分離できる場合に対応する複数の波長帯域の照明光の場合には同時照明を行い、これに対して十分には色分離できない場合に対応する複数の波長帯域の照明光の場合には時分割で照明を行うように照明(及び撮像)を制御する。 
 図6は、本実施形態の全体的な動作の説明図を示す。図6(A)は、図3(A)に示したカラーフィルタ15のR,G,Bフィルタの分光特性を示し、図6(B)は図3(B)に示したLED16NBと16NGの発光させた場合の光強度の特性を示す。図面中では、簡略化してNB,NGで示している。そして、両LED16NBと16NGの同時照明のもとで、撮像素子14で撮像した場合の信号強度の特性例を図6(C)に示す。 
 そして、この場合には、色分離回路27aにより色分離演算した場合の信号強度の特性例は図6(D)のようになり、十分に色分離した画像信号が得られる。
 一方、図6(A)のカラーフィルタ15を用いて、図6(B)のLEDとは異なり、図6(E)に示す光強度の特性を持つLED16NG,16NRa,16NRbでの撮像を行う場合には、これらを同時照明した状態で、撮像素子14で撮像した場合の信号強度の特性例は図6(F)に示すようになる。 
 この場合には、例えばRフィルタ15Rによる信号強度は、NRa光とNRb光に対する信号強度の差が小さい状態となるため、図5A等において説明したように色分離が不十分となる状態となる(この状態を図6(G)において混色発生で示している)。このため、本実施形態においては、図6(E)の照明光の場合には時分割で照明を行う。
 このような構成の内視鏡装置1は、被検体に対して白色光及び複数の異なる波長帯域の光からなる照明光を照射可能な照明手段としてのLEDユニット16(ライトガイド9及び照明レンズ12)と、複数の異なる波長帯域の光をそれぞれ透過する複数のフィルタ15R,15G,15Bからなるカラーフィルタ15を有し、前記照明手段による前記照明光の照射に基づき、前記被検体からの戻り光を撮像する撮像手段としての撮像素子14と、前記撮像手段により前記複数のフィルタ15R,15G,15Bを用いて撮像する場合において、前記複数のフィルタ15R,15G,15Bにおける少なくとも1つのフィルタ15Rの透過波長帯域に対して、当該透過波長帯域内に含まれる少なくとも2つ以上の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明手段が照射する照明光(具体例としてはLED16NRa,16NRb)を2つ以上に時分割して照射するように制御し、前記撮像手段により前記複数のフィルタ15R,15G,15Bを用いて撮像する場合において、前記複数のフィルタにおける少なくとも2つ以上のフィルタ15G,15Bの透過波長帯域内にそれぞれ1つ以下の戻り光が含まれる状態で、2つ以上の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明手段が照射する2つ以上の波長帯域の照明光(具体例としてはLED16NG,16NB)を同時に照射するように制御する照明制御手段としての照明制御部31cとを備えることを特徴とする。なお、本実施例では、RGBの原色カラーフィルタを備えた撮像素子を用いた構成を示しているが、Mg+Cy、G+Ye、G+Cy、Mg+Yeなどの補色カラーフィルタを備えた補色カラーイメージセンサーであっても同様である。この場合、例えば(2)式、(3)式におけるマトリクスのj成分は1~4の成分を有することになり、信号IにおけるRGB成分は上述した4種類のフィルタ成分として表現されることになる。
 次に本実施形態の動作を説明する。図7は、本実施形態の代表的な動作内容を示す。図1に示すように内視鏡2のライトガイドコネクタ9a及び信号コネクタ10aを光源装置3及びビデオプロセッサ4に接続して、光源装置3及びビデオプロセッサ4の電源を投入して、内視鏡装置1を動作状態にする。制御回路31は、最初のステップS1においてスコープIDメモリ35から接続された内視鏡2の情報を読み出す。 
 また、光源装置3のLEDユニット16を構成する複数のLEDの発光波長特性の情報を(LED駆動回路17等から)読み出す。 
 そして、ステップS2において制御回路31の判定部31fは、内視鏡2に搭載されたカラーフィルタ15の透過波長特性の情報と、光源装置3のLEDユニット16を構成するLEDの発光波長帯域の情報とから、複数の観察モードに対応した照明及び撮像を行う場合、同時照明が可能か否かの判定を行い、同時照明が可能な観察モードの情報と時分割で照明することが必要な観察モードの情報とをメモリ37に格納する。
 換言すると、判定部31fは、各観察モードに照明方式(照明モード)を対応付けた情報をメモリ37に格納する。 
 また、ステップS3において制御回路31は、撮像素子14の特性等に応じて調光パラメータ等の設定を行う。ステップS3において、さらにホワイトバランスの調整を行う。このようにして初期設定の処理が終了すると、ステップS4において制御回路31は、WBIの観察モードに設定する。このステップS4において、制御回路31は、光源装置3のLEDユニット16の白色LED16Wのみを発光させ、白色光で被写体を照明する状態に設定する。また、制御回路31は、白色光の照明光の照射のもとで、カラーフィルタ15を用いて同時式の撮像を行うように制御する。 
 この同時式の撮像により、以下のようにモニタ5には、WBIの観察モードのカラー画像が表示される。
 この場合には、白色光の照射のもとでの被写体からの戻り光を、カラーフィルタ15を備えた撮像素子14は、R,G,Bフィルタ15R,15G,15BによってR,G,B光に色分離したR,G,Bの画像信号を出力する。R,G,Bの画像信号は、アンプ22,前処理、A/D変換等を経た後、さらにセレクタ25を経てメモリ部26に格納される。 
 この場合、セレクタ25は画素単位で切り替えられ、R,G,Bの成分信号がメモリ部26(一方のメモリ群26a)のR,G,Bメモリ26R,26G,26Bに格納される。そして、1フレーム分、第1メモリ群26aに格納された後、同時に読み出され、R,G,Bの画像信号を画像処理回路27で輪郭強調等した後、調光回路33と後段側に出力する。調光回路33は、R,G,Bの画像信号から調光信号を生成して、光源装置3側に出力し、基準の明るさとなるようにLED駆動回路17を介して白色LED16Wの発光量を調整する。そして、モニタ5には、R,G,Bの画像信号により、被写体の画像がカラー表示される。
 図7におけるステップS6において制御回路31は、モード切替スイッチ34により、WBI観察モードからNBI観察モードへの切替が行われたか否かをモニタし、切替が行われていない場合には、ステップS5の処理に戻る。 
 術者は、WBI観察モードにおいて患部等を観察し、その表層付近の血管の走行状態をより詳細に観察することを望むような場合には、モード切替スイッチ34を操作して、NBI観察モードに切り替えるようにすると良い。
 また、本実施形態において、術者はNBI観察モードに切り替えた場合、さらに、複数の波長帯域の照明光におけるいずれの波長帯域の照明光を用いてNBI観察を行うかの選択も行う。術者により選択が行われていない場合には、制御回路31は、選択を促す表示を行うようにしても良い。或いは、所定時間内に選択が行われない場合にはデフォルトで設定された標準的な波長帯域の照明光を用いるように設定するようにしても良い。
 ステップS6においてWBI観察モードからNBI観察モードへの切替が行われた場合には、次のステップS7において制御回路31は、選択スイッチ34aにより術者等が選択したNBI観察を行う波長帯域の情報を取得する。 
 さらに次のステップS8において制御回路31は、この情報に対応する照明方式の情報をメモリ37から読み出す。 
 そして、次のステップS9において制御回路31は、メモリ37から読み出した情報により、照明方式が同時照明方式に該当するか否かの判定を行う。 
 同時照明方式に該当する判定結果の場合には、ステップS10において制御回路31の照明制御部31cは、LED駆動回路17を介して選択されたNBI観察モードに対応する複数のLEDを同時に発光させて、同時照明を行うように制御する。
 また、ステップS11において制御回路31の撮像制御部31dは、同時照明に対応した撮像動作を行うようにビデオプロセッサ4の各部を制御する。そして、ステップS12に示すようにモニタ5には、同時照明方式で撮像したNBI観察モードの画像が表示される。 
 また、次のステップS13において制御回路31は、例えば入力部36から内視鏡検査を終了する指示操作が行われたか否かを判定し、終了する指示操作が行われた場合には、図7の処理を終了する。 
 一方、終了の指示操作が行われない場合には、次のステップS14において制御回路31は、術者が選択スイッチ34aによりNBI観察モードにおける波長帯域の変更操作が行われたか否かの判定を行う。
 変更する操作が行われない判定結果の場合には、ステップS10の処理の戻り同様の処理が続行される。一方、波長変更の操作がされた場合には、さらにステップS15において制御回路31は、モード切替スイッチ34によりNBI観察モードからWBI観察モードへの切替操作がされたか否かを判定する。 
 モード切替スイッチ34によるWBI観察モードへの切替でなく、波長変更の操作のみの判定結果の場合には、ステップS7の処理に戻る。これに対して、WBI観察モードへの切替操作の判定結果の場合には、ステップS4の処理に戻り、WBI観察モードに設定して上述した処理が繰り返される。
 一方、ステップS9において同時照明方式でなく、時分割照明方式該当する判定結果の場合には、ステップS16において制御回路31の照明制御部31cは、LED駆動回路17を介して選択されたNBI観察モードに対応する複数のLEDを時分割で発光させて、時分割照明を行うように制御する。
 また、ステップS17において制御回路31の撮像制御部31dは、時分割照明に対応した撮像動作を行うようにビデオプロセッサ4の各部を制御する。そして、ステップS18に示すようにモニタ5には、時分割照明方式で撮像したNBI観察モードの画像が表示される。 
 また、次のステップS19において制御回路31は、例えば入力部36から内視鏡検査を終了する指示操作が行われたか否かを判定し、終了する指示操作が行われた場合には、図7の処理を終了する。 
 ステップS19において終了の指示操作が行われない場合には、次のステップS20において制御回路31は、術者が選択スイッチ34aによりNBI観察モードにおける波長帯域の変更操作が行われたか否かの判定を行う。変更する操作が行われない判定結果の場合には、ステップS16の処理の戻り、同様の処理が続行される。
 一方、波長変更の操作がされた場合には、さらにステップS21において制御回路31は、モード切替スイッチ34によりNBI観察モードからWBI観察モードへの切替操作がされたか否かを判定する。モード切替スイッチ34によるWBI観察モードへの切替でなく、波長変更の操作のみの判定結果の場合には、ステップS7の処理に戻る。これに対して、WBI観察モードへの切替操作の判定結果の場合には、ステップS4の処理に戻り、WBI観察モードに設定して上述した処理が繰り返される。 
 次に同時照明方式の場合の動作を説明する。図8はLED16NB,16NGを用いた場合のNBI観察モードの動作を示す。なお、以下の説明では撮像素子14として、CMOSセンサを用いた場合で説明する。なお、図8の横軸はそれぞれ時間tを示す。この場合には、制御部31の照明制御部31cは、照明手段を構成するLEDユニット16のLED16NB,16NGが2つの波長帯域の照明光を同時に照射するように制御した場合であり、撮像素子14により撮像した戻り光信号を1フレーム期間内で連続的に読み出しを行う。
 この場合には、図8(A)に示すようにLED16NB,16NGが同時に発光した照明光としてのLED16NBの光及びLED16NGの光(NB光+NG光と略記)となる。同時照明のもとで、撮像素子14としてのCMOSセンサを用いた場合の読み出しの様子は図8(B)のようになる。 
 図8(B)においてCMOSセンサの各水平ライン方向に順次読み出す。図8(B)における横線で示す期間が1フレーム分の画像を取得するために照明を行う照明期間(露光期間)Tdとなり、露光期間Tdの次に2本の斜線で示すその水平方向の短い期間が1水平ラインの読み出し期間となる。また、水平ライン全体(つまり1フレーム分の画像)を読み出す期間が読み出し期間Trとなり、図8(B)の場合には読み出し期間Trは、1フレーム分の画像を取得する1フレーム期間Tfと一致する。 
 この場合には、読み出しを行わない非読み出し期間を有しない連続読み出し(ローリングシャッター)方式で撮像する。 
 図8の場合には、非読み出し期間を有さない連続読み出しを行うので、高速のフレームレートでの撮像及び画像表示が可能になる。
 例えば、1フレーム期間(読み出し期間)Tfが1/60secであった場合、60P(プログレッシブ)のフレームレートでNB光とNG光のバンド画像が一斉に更新される。なお、図8(B)において示す各フレーム期間Tfにおける0,1,2,3,4は、それぞれ第0、第1,第2,第3,第4フレームを示す。また、図8(C)、図8(D)、図8(E)における0,1,…も対応するフレームの画像を示す。後述する図9、図12等においても同様である。 
 また、図8(C)は、メモリ部26の一方のメモリ群26aにNB光のもとで取得したNB画像とNG光のもとで取得したNG画像とが格納される様子を示す。 
 また、図8(D)は、色分離回路27aによる色分離演算後のNB画像及びNG画像を示す。 
 また、図8(E)は、色分離回路27aによる色分離演算後のNB画像及びNG画像をモニタ5に表示する表示例を示す。本実施形態においては、モニタ5のR,G,Bチャンネルにそれぞれ(NG光の)NG画像、(NB光の)NB画像、NB画像を入力して、カラー表示している。なお、図8(E)における例えばR:NG(0)は、RチャンネルのNG画像が第0フレームであることを示す。
 また、図9は図5B、図5Cで説明した同時照明と時分割を組み合わせた照明方式の場合の動作を示す。この場合には図9(A)に示すようにNG光とNRb光を同時に照射(照明)する期間とNRa光のみを照射する期間と時分割して行うと共に、読み出しを行わない非読み出し期間Tnrも設けている。 
 この場合には、非読み出し期間Tnrと読み出しを行う読み出し期間Trとの和が1フレーム期間Tfとなる。例えば、第1フレーム(図9(B)中の1)における非読み出し期間Tnrにおいては、NG光とNRb光との同時照明が行われ、この期間後にCMOSセンサの読み出しが行われる読み出し期間Trとなる。また、1フレーム期間Tfにおける所定期間となる読み出し期間Tr以外となる非読み出し期間Tnr中に照明光を照射するようにしている。図9の場合には、照明光を照射する期間を非読み出し期間Tnrと一致させた場合で示している。 
 また、この読み出し期間Trの後に、第2フレーム(図9(B)中の2)におけるNRa光の照明が行われ、この期間後にCMOSセンサの読み出しが行われる読み出し期間Trとなる。また、この読み出し期間Trの後に、第3フレーム(図9(B)中の3)におけるNG光とNRb光との同時照明が行われ、この期間後にCMOSセンサの読み出しが行われる読み出し期間Trとなる。このような時分割(間欠)の照明及び撮像が繰り返される。
 また、この場合には、図9(C)に示すようにNG光とNRb光との同時照明のもとで撮像された画像信号はメモリ群26aに格納され、NRa光の照明のもとで撮像された画像信号はメモリ群26bに格納される。なお、例えばHG,NRbにおける-1,NRaにおける-2は、それぞれ第0フレームの1つ前、第0フレームの2つ前をそれぞれ示す。 
 そして、NG光とNRb光との同時照明のもとで撮像された画像信号は、図9(D)に示すように色分離演算手段としての色分離回路27aにより色分離演算され、NG画像とNRb画像に分離される。 
 また、モニタ5のR,G,Bチャンネルには、図9(E)に示すように色分離された画像信号成分が入力され、NG,Nra,Nrbの狭帯域照明のもとで撮像されたNBI画像が擬似カラー表示される。 
 この場合、CMOSセンサの全画素読み出しの読み出し期間Trが図8の場合と同様に1/60secとした場合、非読み出し期間Tnrを同じく1/60secとすると、1フレーム期間Tfは1/30secとなり、30Pのフレームレートで(Ng,NRb)の画像と、NRaの画像が交互に取得される。
 図9(E)に示した例では、交互に取得した両画像を擬似カラー表示している。なお、図8の場合に比較すると、フレームレートが低くなるため、図8のモードから図9のモードの切替に連動して、図9の場合にはCMOSセンサの画素加算を行うピクセルビニングを行い、この画素加算により撮像する画素数を減らすと共に、画素加算により感度を向上させるようにしても良い。 
 例えば、読み出し期間Trを1/120sec、非読み出し期間Tnrも1/120secとすることにより、60Pの表示が可能になる。 
 このように動作する本実施形態によれば、撮像手段を構成する撮像素子14が有するカラーフィルタ15の透過波長特性に対応した照明制御(同時方式の照明又は時分割方式の照明)を適切に行うことができる内視鏡装置1を提供することができる。
 つまり、内視鏡検査を行う場合に(術者等の選択により)実際に照射することが必要とされる異なる複数の波長帯域の照明光に対して、撮像素子14のカラーフィルタ15のR,G,Bフィルタ15R,15G,15Bの透過波長特性に応じて、カラーフィルタ15によって戻り光を十分に色分離できる場合の複数の波長帯域の照明光の場合には同時方式の照明を行い、カラーフィルタ15によって戻り光を色分離できない場合の複数の波長帯域の照明光の場合には時分割方式の照明を行い、確実に色分離した画像を取得できるように制御するので、術者が内視鏡検査を円滑に行うことができる。 
 また、本実施形態によれば、上記同時方式の照明及び時分割方式の照明に応じて、撮像素子14の駆動及び撮像素子14の出力信号に対する信号処理を行うようにしているので、利便性の高い内視鏡装置1を提供できる。
 本実施形態の第1変形例として、Bフィルタ15Bの波長帯域内に2つの狭帯域で発光するLED16NBa,16NBb、Gフィルタ15Gの波長帯域内に2つの狭帯域で発光するLED16NGa,16NGb、Rフィルタ15Rの波長帯域内に2つの狭帯域で発光するLED16NRa,16NRbを用いて、NBI観察を行う場合を説明する。 
 上述した説明から分かるように、撮像素子14(より具体的にはCMOSセンサ)のカラーフィルタ15の各フィルタは2つの狭帯域光の戻り光を分離できないため、色分離できる組み合わせで時分割の照明及び撮像を行う。
 具体的には、LED16NBa、LED16NGa、LED16NRbと、LED16NBb、LED16NGb、LED16NRbとに分けて時分割で照明及び撮像を行う。
 このように時分割で行うようにした場合には、各フィルタにはそれぞれ1つの狭帯域光が含まれる状態になるため、十分に色分離して、各狭帯域光の照明光のもとで撮像したNBI画像を取得することが可能となる。 
 この場合には、LED16NBa、LED16NGa、LED16NRbの照明のもとでのNBa画像、NGa画像、NRa画像と、LED16NBb、LED16NGb、LED16NRbの照明のもとでのNBb画像、NGb画像、NRb画像との6つの画像を取得できる。従って、術者は、例えば入力部36からモニタ5に表示する画像を選択して表示させることもできる。例えば、モニタ5のR,G,BチャンネルにNRa,NGb,NBaの画像を入力し、これらをカラー表示させるようにようにしても良い。この場合、このような表示以外の画像を表示させることもできる。
 また、モニタ5の表示面を、例えば左右に2つの内視鏡画像を並列して表示する2画面表示モードにして、例えば一方の画面ではNRa,NGb,NBaの画像を、他方の画面ではNRb,NGa,NBbの画像をカラー表示するようにしても良い。 
 また、モニタ5を2つにして、一方のモニタにNRa,NGb,NBaの画像を、他方のモニタにNRb,NGa,NBbの画像をカラー表示するようにしても良い。 
 本変形例によれば、NBI観察を行う場合、より術者の要望に対応したNBI画像の表示が可能になる。
 (第2の実施形態)
 次に図10を参照して本発明の第2の実施形態を説明する。本実施形態は、蛍光観察を行うことができるようにした内視鏡装置1Bである。本内視鏡装置1Bは、図1に示した内視鏡2の他に、図10に示すような蛍光観察用内視鏡2Bを接続して蛍光観察を行うことができるようにしている。 
 この蛍光観察用内視鏡2Bは、図1に示した内視鏡2において、対物レンズ13と撮像素子14との間に励起光をカットする励起光カットフィルタ51が設けている。また、この撮像素子14は、撮像した全画素の信号を1画素づつ読み出す通常の読み出しの他に、隣接する複数の画素を加算して読み出す画素加算読み出し手段を構成するピクセルビニング回路又はピクセルビニング部52を備えている。
 また、本実施形態のビデオプロセッサ4Bにおいては、制御回路31における例えば読み出し制御部31eは、撮像素子ドライバ21を介して撮像素子駆動信号を印加すると共に、撮像素子14の撮像を行った全画素の信号を加算して読み出すピクセルビニング制御信号を撮像素子14に印加して、隣接する2画素又は4画素等の複数画素の出力信号を加算して読み出す読み出し制御を行う。つまり、読み出し制御部31eは、ピクセルビニング制御部52aを有する。また、この蛍光観察用内視鏡2Bは、モード切替スイッチ34を有しない蛍光観察専用の内視鏡である。 
 また、本実施形態のビデオプロセッサ4Bは、図1のビデオプロセッサ4において、さらに蛍光観察モードに対する信号処理を行う機能を有し、スコープIDメモリ35の情報を参照して、この蛍光観察用内視鏡2Bに対応した信号処理をする。また、光源装置3は、図1の場合と同じ構成であり、制御回路31は、蛍光観察用内視鏡2Bが接続された場合には、光源装置3が蛍光観察モードに対応した励起光の発生と、参照光の発生とを行うように制御する。
 この場合、後述するように照明手段により照明光として参照光と励起光とを照射して、撮像手段が被検体からの戻り光として参照光の反射光と蛍光とを撮像する蛍光観察を行う蛍光観察モードの場合において、参照光と励起光とを時分割で照射する場合、照明制御部31cは、撮像手段で撮像した反射光の戻り信号を読み出す読み出し期間に対して、蛍光の蛍光信号を読み出す読み出し期間をピクセルビニング制御手段により短縮し、短縮した期間だけ、励起光を照射する励起光照射期間を増大するように制御する。この具体例は図12となる。 
 図11は本実施形態による全体的な動作の説明図を示す。図11(A)は、図3(A)と同じカラーフィルタ15のフィルタ特性を示す。また、図11(B)は、励起光と参照光の光強度、及び励起光カットフィルタ51の透過特性を示す。
 また、図11(B)において、自家蛍光の波長帯域の特性例も示している。本実施形態においては、自家蛍光の波長帯域は主にGの波長帯域で、一部がRの波長帯域にも及ぶ特性となる。このGの波長帯域は参照光の波長帯域を含むため、自家蛍光と参照光とを十分に分離して撮像することが困難になる。 
 このため、本実施形態においては、励起光と参照光の照明を時分割で行う。また、励起光の照射時間を長くして図11(C)に示すように光強度を大きくする。また、この場合、ピクセルビニングで感度も向上させる。なお、図11(D)は、励起光と異なるタイミングで照射される参照光(の戻り光)に対する光強度を示す。 
 このように時分割の照明により、自家蛍光の画像の画像信号を図11(E)に示すように取得すると共に、図11(F)に示すように参照光の画像の画像信号とを取得する。
 図11(E)に示すように自家蛍光の画像の画像信号としては、G画像成分とR画像成分とを加算したものを用いる。なお、B画像成分は殆ど0となる。 
 また、図11(F)に示すように参照光の画像の画像信号としては、B画像成分とR画像成分は殆ど0となるため、G画像成分のみを用いる。 
 次に本実施形態の動作を図12のタイミング図を参照して説明する。 
 自家蛍光は、通常画像又はNBI画像に比較すると非常に暗い画像となるため、できるだけ照明時間(照射時間)を長くすることが望まれる。本実施形態では、自家蛍光の画像を取得する場合、励起光の照明時間を大きく(長く)すると共に、ピクセルビニングを利用して信号強度を増大し、かつ読み出し画素数を低減して、その分読み出し時間を短縮する。
 図12(A)は照明光(励起光)の照明又は照射(露光)のタイミングを示し、この照明に同期して図12(B)に示すようにCMOSセンサの読み出しを行う。 
 1フレーム期間Tfにおいて、蛍光画像の場合には参照光画像(反射光画像)を取得する場合よりも長くした照明期間にし、この照明期間が蛍光画像の非読み出し期間Tnr1となる。また、参照光画像の場合には、より短い非読み出し期間(照明期間)Tnr2となる。 
 また、参照光画像の場合には、明るい画像が得られるので、ピクセルビニングを行わないで全画素を読み出し期間Tr2で読み出しを行う。これに対して蛍光画像の場合には、上記のようにピクセルビニングを利用して、短い読み出し期間Tr1で読み出しを行う。例えば、ピクセルビニングにより画素加算する場合の画素の加算数を4に設定して、読み出し期間Tr1を読み出し期間Tr2の1/4に短縮する。そして、短縮した期間分を励起光の照明期間に割り当て、励起光の照明期間を長くする。このようにして、励起光の照射と、その後の(蛍光の)画素読み出しを行った1フレーム期間が参照光の照射と、その後の(参照光画像の)画素読み出しを行った1フレーム期間と同じ1フレーム期間Tfとなるように設定している。
 図12(A)、図12(B)に示したような照明及び読み出しにより、メモリ群26aとメモリ群26bには図12(C)に示すように蛍光画像と参照光画像が格納される。メモリ群26aとメモリ群26bの格納されえた参照光画像と蛍光画像は、図12(D)に示すようにモニタ5のR,G,Bチャンネルにに出力され、モニタ5の表示面に蛍光画像と参照光画像が重畳されて擬似カラー表示される。 
 本実施形態によれば、第1の実施形態のように図1に示した内視鏡2の場合には、第1の実施形態の作用効果を有すると共に、図10に示した蛍光観察用内視鏡2Bが接続された場合には蛍光観察を行うことができる。 
 なお、本実施形態においては、励起光と参照光とを時分割で照射して蛍光画像と参照光画像とを取得して、表示する場合を説明したが、近赤外の蛍光をカラーイメージセンサ、つまりカラーフィルタを備えた撮像素子14を用いて蛍光観察することもできる。以下、本実施形態の第1変形例を説明する。
 本変形例は、図10に示した蛍光観察用内視鏡2Bにおいて、励起光カットフィルタ51の励起光カットする透過特性が異なる励起光カットフィルタ51′(図13(B)参照)を採用している。また、カラーフィルタ15のR,G,Bフィルタ15R,15G,15Bも上述したものと若干異なる分光特性のものを用いた蛍光観察用内視鏡(以下、2B′)を採用している。
 また、本変形例においては、図10に示す光源装置3において、さらに近赤外(IR)の励起光を発生するLEDを有する。 
 図13(A)は、この蛍光観察用内視鏡2B′に採用されたカラーフィルタ15のR,G,Bフィルタ15R′,15G′,15B′の分光特性を示す。また、図13(B)は、白色光、参照光(15NG)、IRの励起光、IR蛍光の光強度と、励起光カットフィルタ51′の透過特性(透過光強度)と、を示す。なお、参照光(15NG)をG参照光とも記す。
 本変形例においては、図13(B)に示すように励起光カットフィルタ51′は、IRの励起光の波長帯域を含むその周辺をカットし、それより短波長側(可視光の波長帯域)と長波長側(IR蛍光波長側)を透過する特性に設定されている。 
 また、図13(A)に示すようにR,G,Bフィルタ15R′,15G′,15B′は、それぞれの波長帯域よりも長波長側を透過する、つまり長波長側でも感度を有する特性のものを採用している。 
 そして、本変形例においては図13(C)、図13(D)に示すように、白色光によるWBI観察モード時と、蛍光観察モード時とを時分割で行う。換言すると、WBI観察モードのみ、又は蛍光観察モードのみを行う場合に対しては同時照明方式を採用することができるようにしている。 
 そして、白色光によるWBI観察モード時の場合には、R,G,Bフィルタ15R′,15G′,15B′を採用して、図13(E)に示すような信号強度の特性でR,G,B画像を取得し、図13(G)に示すようにそのままモニタ5に出力する。
 一方、蛍光観察モード時においては、図13(D)に示すようにIR励起光と、参照光(NG光)を同時に照射し、IR励起光よりも長波長側のIR蛍光をCMOSセンサで撮像する。図13(D)ではIR蛍光の光強度を点線で示している。そして、図13(F)は、図13(A)で示したR,G,Bフィルタ15R′,15G′,15B′を用いたCMOSセンサで撮像した場合の信号強度の特性例を示す。 
 また、図13(H)は、図13(F)の信号出力を色分離回路27aにより色分離した信号強度例を示す。
 また、図14は、本変形例によるタイミング図を用いた動作内容を示す。上記のように白色光によるWBI観察モード時と、蛍光観察モード時とを時分割で行う。撮像方式は、第1の実施形態における時分割の場合(図9の場合)と同様となる。 
 つまり、図9におけるNG光+NRb光を白色光、図9におけるNRa光をIR励起光、G参照光と置換すると、図14(A)、図14(B)は図9(A)、図9(B)と同様となる。また、この場合には、メモリ群26aには、図14(C)のように白色光(R,G,B反射光、より広義にはR,G,B戻り光)の画像信号が格納され、メモリ群26bには、IR蛍光、G参照光の画像信号が格納される。 
 また、メモリ群26bのIR蛍光、G参照光の画像信号は色分離演算により、図14(D)のように分離される。
 そして、モニタ5には、例えば図14(E)に示すように蛍光観察画像は、R,G,BチャンネルにIR蛍光、G参照光、G参照光が割り当てられた状態で擬似カラー表示される。一方、白色光画像は、R,G,B反射光画像がモニタ5のR,G,Bチャンネルに割り当てられた(入力された)状態でカラー表示される。 
 本変形例によれば、蛍光観察を行う場合、励起光と参照光を同時に照射して、同時に撮像した画像信号を色分離して蛍光観察画像として表示できる。
 なお、本変形例は白色光観察とIR蛍光観察とを並行して行う場合で説明しているが、この変形例(第2の実施形態の第2変形例)として、IR蛍光観察のみを行う場合には、IR励起光とG参照光を同時に照射して連続的に上記蛍光観察画像を得ることができる。この場合には、第1の実施形態の同時照明の場合(図8の場合)と同様に撮像することが可能となる。
 (第3の実施形態)
 次に図15を参照して本発明の第3の実施形態を説明する。第1の実施形態及び第2の実施形態においては撮像面14aの画素全体を読み出し可能なプログレッシブ式の撮像素子14を備えた内視鏡2、2Bの場合で説明した。これに対して本実施形態は、図1の内視鏡装置1において、プログレッシブ式の撮像素子14を備えた内視鏡2の代わりに、撮像面14aの画素全体(1フレーム分の画素)を読み出す場合、偶数ラインと奇数ラインとに分けて読み出しを行うインターレース式の電荷結合素子(CCDと略記)14Cを有する内視鏡2Cを用いてWBI及びNBI観察を行うことができるようにした内視鏡装置1Cである。 
 図15に示す内視鏡装置1Cは、図1に示した内視鏡装置1において、内視鏡2における撮像素子14がインターレース式の撮像素子としてのインターレース式CCD14Cに変更され、また、ビデオプロセッサ4におけるメモリ部26が4つのメモリ群26a,26b,26c,26dを備えたメモリ部26を用いて構成されている。その他は、図1と同様の構成であり、図15においては、図1と異なる構成部分のみを明示するように簡略化して示している。
 インターレース式CCD14Cを使用する場合には、偶奇フィールド(even/oddフィールド)で交互に読み出しを行うため、第1の実施形態において説明したようにNBI観察モードにおいてNG光+NRb光とNRa光のような2種類の光を交互に照射することを繰り返すと、片方の光が偶奇フィールドのいずれか一方の画像信号しか得られない状態となる。 
 このため、本実施形態においては、1フレーム期間毎に2種類の照明光を照射する順番を入れ替えて各フィールドでの抜けが無いように制御回路31は、照明制御を行い、その照明に対応した撮像制御(信号処理)を行う。 
 このため本実施形態においては、制御回路31(の読み出し制御部31e)は、撮像手段がインタレース式撮像素子を用いた構成の場合、照明手段が照射する2つ以上の複数の異なる波長帯域の照明光を2つに時分割して照射するように制御した場合、照明光を時分割でフィールド期間単位で2回照射した期間において前記インタレース式撮像素子における奇数ラインと偶数ラインの画素を連続的に読み出す読み出し制御手段を備える。 
 なお、本実施形態(及び後述する変形例)において、インターレース式CCD14Cは、奇数ラインの1フィールド画素と偶数ラインの1フィールド画素とでそれぞれ露光及び読み出しが行えるものとして説明する。
 図16は、本実施形態の動作説明用のタイミング図を示す。上述したように各フレームにおいてフィールドの抜けが発生しないように例えば第1フレームにおいてNG光+NRb光の照明と、Na光の照明をeven、oddフィールドで行った場合には、図16(A)、(B)に示すように第2フレームにおいてはevenフィールドでNa光の照明、oddフィールドでNG光+NRb光の照明を行う。なお、evenフィールド及びoddフィールドのフィールド期間をTfiで示している。 
 このような照明によりインターレース式CCD14Cで撮像した画像信号を図16(C)に示すように4つのメモリ群26a-26dに格納する。例えば、メモリ群26a、26dには、NG光+NRb光のevenフィールドとoddフィールドの照明のもとで撮像したNG,NRbの画像信号が格納され、メモリ群26b、26cには、NRa光のevenフィールドとoddフィールドの照明のもとでそれぞれ撮像したNRaの画像信号が格納される。
 また、NG光+NRb光の照明のもとで撮像したNG,NRbの画像信号は、色分離回路27aの色分離演算により図16(D)のように色分離される。 
 また、NRa光の照明のもとで撮像したNRaの画像信号は、図16(D)に示すように図16(C)のまま後段側に出力される。 
 そして、モニタ5には、例えば図16(E)に示すようにフィールド期間単位でNBI画像を表示する。 
 本実施形態によれば、インターレース式CCD14Cを用いた場合にも、フィード単位で照明光を照射する順序を変更した時分割照明をすることにより1フレーム分の解像度を持つNBI画像の表示ができる。
 また、本実施形態においても、第1の実施形態のように撮像素子のカラーフィルタ15の透過波長特性に対応した照明制御を適切に行うことができる。術者は、簡単な操作で内視鏡検査を円滑に行うことができる。 
 上記のように本実施形態においては1フレーム期間Tfにおける2フィールド期間Tfiにおいて、時分割で照明光を照射する順序を入れ替えるように制御していたが、本実施形態の変形例として、読み出すラインを入れ替えるようにしても良い。 
 本変形例においては、制御回路31(の読み出し制御部31e)は、撮像手段がインタレース式撮像素子を用いた構成の場合、照明手段が照射する2つ以上の複数の異なる波長帯域の照明光を2つに時分割して照射するように制御した場合、照明光を時分割でフィールド期間単位で2回照射した期間において前記インタレース式撮像素子における奇数ライン又は偶数ラインの画素を連続的に2回繰り返し読み出す読み出し制御手段を備える。
 本変形例においては、図17(A)に示すように照明光を1フレーム期間Tfを周期として、NG光+NRb光と、NRa光とを1フィールド期間Tfi単位で交互に行う。 
 この場合、図17(B)に示すようにCCD14Cにより撮像を行う場合、同じevenフィールド及びoddフィールドで2回づつ読み出しを行うことを1フレーム期間Tf毎に繰り返し行う。 
 図17のように2種類の照明光で照射する場合、図17(A)に示すように第1フレームにおいては、NG光+NRb光をevenフィールド期間において照射した後、NRa光をevenフィールド期間において照射する。続く第2フレームにおいては、NG光+NRb光をoddフィールド期間において照射した後、NRa光をoddフィールド期間において照射するようにする。
 そして、各フィードにおいて、CCD14Cから読み出した信号を図17(C)に示すようにメモリ群26a-26dに格納する。また、メモリ群26a-26dに格納した画像信号においてNG光+NRb光の照明のもとで撮像したNG,NRbの画像信号は、色分離回路27aの色分離演算により図17(D)のように色分離される。 
 また、NRa光の照明のもとで撮像したNRaの画像信号は、図17(D)に示すように図17(C)のまま後段側に出力される。 
 そして、モニタ5には、例えば図17(E)に示すようにフィールド期間単位でNBI画像を表示する。図16の場合には、1つの波長帯域の画像が更新されるのに1フィールド期間を要するタイミングの場合と、3フィールド期間を要するタイミングの場合とが混在して、画像の更新レートが不規則であったが、本変形例の方式では常に2フィールド期間(つまり1フレーム期間)に1回更新されるので、動画を表示する場合、動画表示の不規則性(又は不連続性)を解消できる利点を有する。その他、第3の実施形態と同様の効果を有する。 
 なお、上述した変形例の場合を含む実施形態を部分的に組み合わせる等して構成される実施形態も本発明に属する。
 本出願は、2013年2月12日に日本国に出願された特願2013-024727号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (9)

  1.  被検体に対して白色光又は複数の異なる波長帯域の光からなる照明光を照射可能な照明部と、
     複数の異なる波長帯域の光をそれぞれ透過する複数のフィルタからなるカラーフィルタを有し、前記照明部による前記照明光の照射に基づき、前記被検体からの戻り光を撮像する撮像部と、
     前記撮像部により前記複数のフィルタにおける少なくとも1つのフィルタの透過波長帯域に対して、当該透過波長帯域内に含まれる少なくとも2つ以上の複数の波長帯域の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明部が照射する照明光を2つ以上に時分割して照射するように制御し、
     前記撮像部により前記複数のフィルタにおける少なくとも波長帯域の異なる2つ以上のフィルタの透過波長帯域内にそれぞれ1つ以下の戻り光が含まれる状態で、2つ以上の戻り光を撮像する場合には、前記2つ以上の戻り光に対応して前記照明部が照射する2つ以上の複数の波長帯域の照明光を同時に照射するように制御する照明制御部と、
     を備えることを特徴とする内視鏡装置。
  2.  前記照明制御部により前記照明部が照射する2つ以上の複数の波長帯域の照明光を同時に照射するように制御した場合、前記撮像部で撮像した戻り光信号を1フレーム期間内で連続的に読み出しを行い、
     前記照明制御部により前記照明部が照射する2つ以上の複数の波長帯域の照明光を2つ以上に時分割して照射するように制御した場合、前記撮像部で撮像した戻り光信号を1フレーム期間内で所定期間だけ読み出しを行う読み出し制御部を更に備えることを特徴とする請求項1に記載の内視鏡装置。
  3.  前記照明制御部により前記照明部が照射する複数の波長帯域の照明光を2つ以上の複数に時分割して照射するように制御した場合、前記照明部は前記1フレーム期間内の前記所定期間以外の期間中に照明光を照射することを特徴とする請求項2に記載の内視鏡装置。
  4.  前記撮像部をインタレース式撮像素子を用いた構成の場合、前記照明制御部により前記照明部が照射する2つ以上の複数の異なる波長帯域の照明光を2つに時分割して照射するように制御した場合、照明光を時分割でフィールド期間単位で2回照射した期間において前記インタレース式撮像素子における奇数ライン又は偶数ラインの画素を連続的に2回繰り返し読み出す読み出し制御部を更に備えることを特徴とする請求項1に記載の内視鏡装置。
  5.  前記撮像部において撮像した戻り光信号に対して、前記カラーフィルタを構成する複数のフィルタが有する各透過波長帯域に対応した独立した画像成分にそれぞれ分離するための色分離演算を行う色分離演算部を更に備えることを特徴とする請求項1に記載の内視鏡装置。
  6.  前記撮像部と、前記撮像部における前記カラーフィルタの情報を特定可能とする情報を格納した情報格納部とを備えた内視鏡と、前記内視鏡が着脱自在に接続され、前記撮像部を駆動すると共に、前記撮像部の戻り光信号に対する画像処理を行う信号処理装置と、前記内視鏡に照明光を供給する前記照明部を備えた光源装置とを有し、前記照明制御部は、前記信号処理装置に接続された内視鏡における前記情報格納部から読み出した前記情報に基づいて、前記光源装置が同時に照射、又は時分割で照射する照明光を決定する制御を行うことを特徴とする請求項1に記載の内視鏡装置。
  7.  更に、観察モードを切り替える観察モード切替スイッチを有し、前記観察モード切替スイッチにより切り替えられた観察モードで必要となる照明光の波長帯域の情報と、前記複数のカラーフィルタの透過波長帯域の情報とから前記照明制御部は、前記光源装置が同時に照射、又は時分割で照射する照明光を決定する制御を行うことを特徴とする請求項6に記載の内視鏡装置。
  8.  更に、前記撮像部により前記戻り光信号を読み出す場合、前記撮像部を構成する撮像素子の複数画素の信号を加算して読み出す画素加算読み出し部を有し、
     前記照明部により前記照明光として参照光と励起光とを照射して、前記撮像部が前記被検体からの戻り光として前記参照光の反射光と蛍光とを撮像する蛍光観察を行う蛍光観察モードの場合において、前記参照光と前記励起光とを時分割で照射する場合、
     前記照明制御部は、前記撮像部で撮像した前記反射光の戻り信号を読み出す読み出し期間に対して、前記蛍光の蛍光信号を読み出す読み出し期間を前記画素加算読み出し部により短縮し、短縮した期間だけ、前記励起光を照射する励起光照射期間を増大するように制御することを特徴とする請求項3に記載の内視鏡装置。
  9.  前記情報格納部は、前記情報として、前記撮像部における前記カラーフィルタを構成する前記複数のフィルタの各透過波長帯域の範囲の情報を含むことを特徴とする請求項6に記載の内視鏡装置。
PCT/JP2013/083613 2013-02-12 2013-12-16 内視鏡装置 WO2014125724A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014534301A JP5698878B2 (ja) 2013-02-12 2013-12-16 内視鏡装置
EP13874864.5A EP2896354A4 (en) 2013-02-12 2013-12-16 ENDOSCOPE DEVICE
CN201380053368.8A CN104717917B (zh) 2013-02-12 2013-12-16 内窥镜装置
US14/452,866 US9326664B2 (en) 2013-02-12 2014-08-06 Endoscope apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013024727 2013-02-12
JP2013-024727 2013-02-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/452,866 Continuation US9326664B2 (en) 2013-02-12 2014-08-06 Endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2014125724A1 true WO2014125724A1 (ja) 2014-08-21

Family

ID=51353743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/083613 WO2014125724A1 (ja) 2013-02-12 2013-12-16 内視鏡装置

Country Status (5)

Country Link
US (1) US9326664B2 (ja)
EP (1) EP2896354A4 (ja)
JP (1) JP5698878B2 (ja)
CN (1) CN104717917B (ja)
WO (1) WO2014125724A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016123755A (ja) * 2015-01-06 2016-07-11 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2016131837A (ja) * 2015-01-22 2016-07-25 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム、及び内視鏡システム
WO2016147436A1 (ja) * 2015-03-17 2016-09-22 オリンパス株式会社 生体観察システム
WO2017216878A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
WO2017216883A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
JP2017225736A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2017225755A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2018033719A (ja) * 2016-08-31 2018-03-08 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
US10638077B2 (en) 2017-04-14 2020-04-28 Canon Kabushiki Kaisha Imaging device and control method
JP2020099694A (ja) * 2018-12-20 2020-07-02 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッドLeica Instruments (Singapore) Pte. Ltd. 特に顕微鏡および内視鏡のための、蛍光発光性蛍光体のhdrモノクローム画像を作成するためのシステムおよび方法
JP2021029510A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 撮像装置
US10958852B2 (en) 2018-10-19 2021-03-23 Canon Kabushiki Kaisha Imaging apparatus and control method having a plurality of synchronized light source devices
JPWO2020174572A1 (ja) * 2019-02-26 2021-12-16 オリンパス株式会社 内視鏡装置、プログラム、内視鏡装置の制御方法及び処理装置
WO2024043171A1 (ja) * 2022-08-23 2024-02-29 Hoya株式会社 光源装置、および内視鏡システム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104168814B (zh) * 2012-03-28 2016-08-17 富士胶片株式会社 摄像装置以及具备该摄像装置的内窥镜装置
JP6103824B2 (ja) * 2012-06-04 2017-03-29 オリンパス株式会社 蛍光内視鏡装置
CN106456272B (zh) * 2014-03-17 2020-03-31 直观外科手术操作公司 包括非白光总体照明器的外科手术系统
EP3123921A4 (en) * 2014-07-09 2018-01-03 Olympus Corporation Endoscopic device
CN108289599B (zh) * 2015-11-25 2020-08-11 奥林巴斯株式会社 内窥镜系统和拍摄方法
JP6639920B2 (ja) * 2016-01-15 2020-02-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用信号処理装置、及び医療用観察システム
JP6654051B2 (ja) * 2016-01-15 2020-02-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察システム
CN108601510B (zh) 2016-01-27 2020-07-24 奥林巴斯株式会社 内窥镜观察方法和内窥镜装置
WO2017208542A1 (ja) 2016-05-30 2017-12-07 オリンパス株式会社 処理装置、設定方法およびプログラム
JP6360988B1 (ja) * 2016-09-05 2018-07-18 オリンパス株式会社 内視鏡および内視鏡システム
WO2018229831A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
WO2018229832A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
WO2018229834A1 (ja) * 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
WO2018229833A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
JP7093409B2 (ja) 2018-06-05 2022-06-29 オリンパス株式会社 内視鏡システム
CN112236067A (zh) 2018-06-05 2021-01-15 奥林巴斯株式会社 内窥镜系统
JP2022082298A (ja) * 2020-11-20 2022-06-01 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60262001A (ja) * 1984-06-09 1985-12-25 Olympus Optical Co Ltd 計測用内視鏡
JP2010184047A (ja) 2009-02-12 2010-08-26 Fujifilm Corp 内視鏡、内視鏡駆動方法、並びに内視鏡システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2823558B2 (ja) * 1987-04-07 1998-11-11 オリンパス光学工業株式会社 電子内視鏡装置
US4878113A (en) * 1987-08-11 1989-10-31 Olympus Optical Co., Ltd. Endoscope apparatus
JP2837884B2 (ja) * 1989-09-13 1998-12-16 オリンパス光学工業株式会社 電子内視鏡装置
JP5393446B2 (ja) * 2007-02-26 2014-01-22 オリンパスメディカルシステムズ株式会社 画像取得装置
JP2009291347A (ja) * 2008-06-04 2009-12-17 Fujifilm Corp 光源装置およびこれを用いた内視鏡装置
JP5160343B2 (ja) * 2008-08-22 2013-03-13 オリンパスメディカルシステムズ株式会社 撮像システム及び内視鏡システム
JP4585050B1 (ja) * 2009-03-30 2010-11-24 オリンパスメディカルシステムズ株式会社 蛍光観察装置
WO2010143692A1 (ja) * 2009-06-10 2010-12-16 オリンパスメディカルシステムズ株式会社 カプセル型内視鏡装置
JP5452300B2 (ja) * 2010-03-19 2014-03-26 富士フイルム株式会社 電子内視鏡システム、電子内視鏡用のプロセッサ装置、電子内視鏡システムの作動方法、病理観察装置および病理顕微鏡装置
JP5405373B2 (ja) * 2010-03-26 2014-02-05 富士フイルム株式会社 電子内視鏡システム
JP5606120B2 (ja) * 2010-03-29 2014-10-15 富士フイルム株式会社 内視鏡装置
JP5508959B2 (ja) * 2010-06-30 2014-06-04 富士フイルム株式会社 内視鏡装置
JP5616303B2 (ja) * 2010-08-24 2014-10-29 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの作動方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60262001A (ja) * 1984-06-09 1985-12-25 Olympus Optical Co Ltd 計測用内視鏡
JP2010184047A (ja) 2009-02-12 2010-08-26 Fujifilm Corp 内視鏡、内視鏡駆動方法、並びに内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2896354A4

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016123755A (ja) * 2015-01-06 2016-07-11 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2016131837A (ja) * 2015-01-22 2016-07-25 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム、及び内視鏡システム
WO2016147436A1 (ja) * 2015-03-17 2016-09-22 オリンパス株式会社 生体観察システム
JPWO2016147436A1 (ja) * 2015-03-17 2017-04-27 オリンパス株式会社 生体観察システム
CN107405056A (zh) * 2015-03-17 2017-11-28 奥林巴斯株式会社 活体观察系统
US10631720B2 (en) 2015-03-17 2020-04-28 Olympus Corporation Biological observation and light color component separation system
JPWO2017216883A1 (ja) * 2016-06-14 2019-04-04 オリンパス株式会社 内視鏡装置
US11399706B2 (en) 2016-06-14 2022-08-02 Olympus Corporation Endoscope apparatus for switching between one-substance observation mode and two-substance observation mode based on input of selection of desired observation mode
WO2017216878A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
JPWO2017216878A1 (ja) * 2016-06-14 2019-04-11 オリンパス株式会社 内視鏡装置
WO2017216883A1 (ja) * 2016-06-14 2017-12-21 オリンパス株式会社 内視鏡装置
JP2017225755A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2017225736A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2018033719A (ja) * 2016-08-31 2018-03-08 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
US10638077B2 (en) 2017-04-14 2020-04-28 Canon Kabushiki Kaisha Imaging device and control method
US10958852B2 (en) 2018-10-19 2021-03-23 Canon Kabushiki Kaisha Imaging apparatus and control method having a plurality of synchronized light source devices
JP2020099694A (ja) * 2018-12-20 2020-07-02 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッドLeica Instruments (Singapore) Pte. Ltd. 特に顕微鏡および内視鏡のための、蛍光発光性蛍光体のhdrモノクローム画像を作成するためのシステムおよび方法
US11083368B2 (en) 2018-12-20 2021-08-10 Leica Instruments (Singapore) Pte. Ltd. System and method, in particular for microscopes and endoscopes, for creating HDR monochrome images of a fluorescing fluorophore
JPWO2020174572A1 (ja) * 2019-02-26 2021-12-16 オリンパス株式会社 内視鏡装置、プログラム、内視鏡装置の制御方法及び処理装置
JP7137684B2 (ja) 2019-02-26 2022-09-14 オリンパス株式会社 内視鏡装置、プログラム、内視鏡装置の制御方法及び処理装置
JP2021029510A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 撮像装置
JP7402637B2 (ja) 2019-08-22 2023-12-21 キヤノン株式会社 撮像装置、その制御方法及びプログラム
WO2024043171A1 (ja) * 2022-08-23 2024-02-29 Hoya株式会社 光源装置、および内視鏡システム

Also Published As

Publication number Publication date
US20150022647A1 (en) 2015-01-22
EP2896354A4 (en) 2016-08-31
CN104717917B (zh) 2016-11-02
CN104717917A (zh) 2015-06-17
JPWO2014125724A1 (ja) 2017-02-02
US9326664B2 (en) 2016-05-03
EP2896354A1 (en) 2015-07-22
JP5698878B2 (ja) 2015-04-08

Similar Documents

Publication Publication Date Title
JP5698878B2 (ja) 内視鏡装置
US8500632B2 (en) Endoscope and endoscope apparatus
JP5259882B2 (ja) 撮像装置
JP5925169B2 (ja) 内視鏡システム及びその作動方法並びに内視鏡用光源装置
US8823789B2 (en) Imaging apparatus
JP5143293B2 (ja) 内視鏡装置
WO2016147436A1 (ja) 生体観察システム
JP6047467B2 (ja) 内視鏡システム及びその作動方法
JP7219208B2 (ja) 内視鏡装置
JP5981056B2 (ja) 内視鏡装置
JP5930474B2 (ja) 内視鏡システム及びその作動方法
JP5041936B2 (ja) 生体観測装置
CN111093459A (zh) 内窥镜装置、图像处理方法以及程序
JP6245710B2 (ja) 内視鏡システム及びその作動方法
JP6137892B2 (ja) 撮像システム
CN111712177B (zh) 图像处理装置、内窥镜系统、图像处理方法及记录介质
JP2011177532A (ja) 内視鏡装置
US11774772B2 (en) Medical image processing device, medical observation system, and image processing method
JP2607506B2 (ja) 内視鏡用撮像装置
CN115280212A (zh) 医疗观察系统、控制装置及控制方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014534301

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13874864

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013874864

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE