WO2013145409A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2013145409A1
WO2013145409A1 PCT/JP2012/078743 JP2012078743W WO2013145409A1 WO 2013145409 A1 WO2013145409 A1 WO 2013145409A1 JP 2012078743 W JP2012078743 W JP 2012078743W WO 2013145409 A1 WO2013145409 A1 WO 2013145409A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image signal
wavelength
image
narrowband
Prior art date
Application number
PCT/JP2012/078743
Other languages
English (en)
French (fr)
Inventor
五十嵐 誠
徹緒 野波
Original Assignee
オリンパスメディカルシステムズ株式会社
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社, オリンパス株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2013522028A priority Critical patent/JP5362149B1/ja
Priority to CN201280026794.8A priority patent/CN103582445B/zh
Priority to EP12872387.1A priority patent/EP2700349A4/en
Priority to US13/896,881 priority patent/US9277190B2/en
Publication of WO2013145409A1 publication Critical patent/WO2013145409A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to an endoscope apparatus, and more particularly to an endoscope apparatus capable of displaying blood vessels inside a subject.
  • the endoscope apparatus includes an endoscope, an image processing apparatus connected to the endoscope, and an observation monitor.
  • the lesioned part is imaged by an imaging element provided at the distal end of the endoscope insertion part, and the image is displayed on the monitor. The surgeon can perform diagnosis or necessary treatment while looking at the image displayed on the monitor.
  • Some endoscope apparatuses can perform not only normal light observation using white light but also special light observation using special light such as infrared light in order to observe internal blood vessels.
  • infrared endoscope apparatus for example, indocyanine green (ICG) having absorption peak characteristics in near-infrared light having a wavelength of around 805 nm is injected into a patient's blood as a drug. Then, the subject is irradiated with infrared light having wavelengths of about 805 nm and about 930 nm in a time division manner from the light source device. The signal of the subject image captured by the CCD is input to the processor of the infrared endoscope apparatus.
  • ICG indocyanine green
  • the processor converts an image around a wavelength of 805 nm into a green signal (G) and an image around a wavelength of 930 nm.
  • G green signal
  • B blue signal
  • ESD Endoscopic Submucosal Dissection
  • ESD Endoscopic Submucosal Dissection
  • ESD Endoscopic Submucosal Dissection
  • the operator confirms the position of such a blood vessel and performs treatment such as incision. Blood vessels that can cause severe bleeding run from the submucosa to the intrinsic muscle layer. When severe bleeding occurs in procedures such as ESD, the operation time becomes longer because hemostasis must be performed each time.
  • the present invention has been made in view of the above-described problems, and provides an endoscope apparatus that can clearly display blood vessels in the deep mucosa without performing a complicated operation of drug administration. Objective.
  • An endoscope apparatus includes an illumination unit that irradiates a subject with at least one illumination light having a predetermined wavelength band, and a return from the subject based on irradiation of the illumination unit.
  • An imaging unit that captures light, and a first image signal having a peak wavelength of spectral characteristics between a wavelength band including a maximum value and a wavelength band including a minimum value in absorption characteristics of biological tissue after imaging by the imaging unit;
  • the first image signal is based on the difference between the first image signal and the second image signal having a lower peak value of the spectral characteristic in which the value of the absorption characteristic is lower than that of the first image signal and the scattering characteristic of the living tissue is suppressed.
  • An image processing unit that generates an image signal that has been subjected to enhancement correction by performing a process of enhancing the image signal, and a display unit that displays an image based on the image signal subjected to the enhancement correction.
  • FIG. 1 is a configuration diagram showing a configuration of an endoscope apparatus according to a first embodiment of the present invention. It is a figure which shows the structure of the rotation filter 14 in connection with 1st Embodiment. It is a figure for demonstrating the flow of the whole process in the narrow-band light observation in connection with 1st Embodiment. It is a figure which shows the light absorption characteristic of the venous blood in connection with 1st Embodiment. It is a figure for demonstrating the propagation volume of the light in the biological tissue of 1st narrow-band light NL1 ((lambda) 1) and 2nd narrow-band light NL2 ((lambda) 2) in connection with 1st Embodiment.
  • the spectral characteristic for demonstrating the case where the spectral estimation image signal of three narrow-band lights is estimated from the image signal of one wide-band light and the image signal of two narrow-band lights in connection with 2nd Embodiment is shown.
  • FIG. It is a figure for demonstrating the flow of a process with respect to the image obtained from the image pick-up element 2 in the image process part 101B of the modification 1 of 3rd Embodiment.
  • interband calculation is performed between an image signal Rn of narrowband light in the vicinity of a wavelength of 630 nm ( ⁇ 2) and one spectral estimation image signal e1 according to Modification 1 of the third embodiment. It is a figure which shows a spectral characteristic.
  • FIG. 35 is a graph showing the intensity (logarithmically displayed pixel values) on Line-A in each image on the vertical axis for a plurality of monochrome images in FIG. 34.
  • FIG. 1 is a configuration diagram showing a configuration of an endoscope apparatus according to the present embodiment.
  • an endoscope apparatus 1 includes an electronic device having a CCD 2 that is an imaging device as a biological image information acquisition unit or a biological image information acquisition unit that is inserted into a body cavity and images tissue in the body cavity.
  • the endoscope apparatus 1 has two modes, a normal light observation mode and a narrow band light observation mode. In the following description, since the normal light observation mode of the endoscope apparatus 1 is the same as the conventional normal light observation mode, description of the configuration of the normal light observation mode is omitted, and mainly the narrowband light observation mode. explain.
  • the CCD 2 constitutes an imaging unit or imaging means that receives the return light of the illumination light applied to the subject and images the subject.
  • the light source device 4 as an illuminating means or an illuminating unit includes a xenon lamp 11 that emits illumination light (white light), a heat ray cut filter 12 that blocks heat rays of white light, and a light amount of white light that passes through the heat ray cut filter 12.
  • the xenon lamp 11, the rotary filter 14, and the light guide 15 constitute an irradiation unit or irradiation means for illuminating the subject with illumination light.
  • FIG. 2 is a diagram showing the configuration of the rotary filter 14.
  • the rotary filter 14 is a filter that transmits light from the xenon lamp 11 that is a light source.
  • the rotary filter 14 as a wavelength band limiting unit or wavelength band limiting means is configured in a disc shape and has a structure with the center as a rotation axis, and has two filter groups. .
  • R (red) filter units 14 r and G (green) filter units that constitute a filter set for outputting surface-sequential light having spectral characteristics for normal light observation along the circumferential direction.
  • the 14g, B (blue) filter unit 14b is arranged as the first filter group.
  • three filters 14-600, 14-630, and 14-540 that transmit light of a predetermined narrowband wavelength along the circumferential direction are used as a second filter group. Has been placed.
  • the filter 14-600 is configured to transmit light having a wavelength near 600 nm ( ⁇ 1) as narrowband light.
  • the filter 14-630 is configured to transmit light having a wavelength near 630 nm ( ⁇ 2) as narrowband light.
  • the filter 14-540 is configured to transmit light in the vicinity of a wavelength of 540 nm ( ⁇ 3) as narrowband light.
  • near means a distribution having a central wavelength of 600 nm and a width in the range of, for example, 20 nm (that is, wavelengths from 590 nm to 610 nm before and after the wavelength of 600 nm) when the wavelength is near 600 nm. It means that it has narrow band light. The same applies to the other wavelengths, wavelength 630 nm and wavelength 540 nm described later.
  • the rotary filter 14 is disposed on the optical path from the xenon lamp 11 that is the emitting part of the illumination light to the imaging surface of the CCD 2, and in each mode, at least two (here, three) of the plurality of wavelength bands of the illumination light.
  • the wavelength band is limited to be narrowed.
  • the control circuit 17 controls the motor 18 for rotating the rotary filter 14 to control the rotation of the rotary filter 14.
  • a rack 19a is connected to the motor 18, a motor (not shown) is connected to the pinion 19b, and the rack 19a is attached so as to be screwed to the pinion 19b.
  • the control circuit 17 can move the rotary filter 14 in the direction indicated by the arrow d by controlling the rotation of the motor connected to the pinion 19b. Therefore, the control circuit 17 puts the first filter group on the optical path in the normal light observation mode and the second filter group on the optical path in the narrow-band light observation mode according to a mode switching operation by the user described later.
  • the motor connected to the pinion 19b is controlled so as to be positioned.
  • electric power is supplied from the power supply unit 10 to a motor (not shown) connected to the xenon lamp 11, the diaphragm device 13, the rotary filter motor 18, and the pinion 19b.
  • the illumination unit or the illumination unit irradiates the subject with at least one illumination light having a predetermined wavelength band (here, three narrow-band lights).
  • a predetermined wavelength band here, three narrow-band lights.
  • at least one of the three illumination lights (here, three) is a narrow band light for highlighting a blood vessel in a depth of 1 to 2 mm from the surface layer, and the remaining one is a subject's subject.
  • the narrow-band light as the third illumination light that can be transmitted by a predetermined distance from the surface layer portion, here, only in the vicinity of the surface layer.
  • the video processor 7 includes a CCD driver circuit 20 that is a CCD driver, an amplifier 22, a process circuit 23, an A / D converter 24, a white balance circuit (hereinafter referred to as WB) 25, a selector 100, an image processing unit 101, and a selector. 102, ⁇ correction circuit 26, enlargement circuit 27, enhancement circuit 28, selector 29, synchronization memories 30, 31, 32, image processing circuit 33, D / A converters 34, 35, 36, timing generator (hereinafter referred to as T.30).
  • G) 37 a mode switching circuit 42, a dimming circuit 43, a dimming control parameter switching circuit 44, a control circuit 200, and a combining circuit 201 as a display image generating means or a display image generating unit.
  • the CCD drive circuit 20 drives the CCD 2 provided in the electronic endoscope 3 and outputs to the CCD 2 a frame sequential imaging signal synchronized with the rotation of the rotary filter 14.
  • the amplifier 22 amplifies a surface sequential imaging signal obtained by imaging the tissue in the body cavity by the CCD 2 via the objective optical system 21 provided at the tip of the electronic endoscope 3.
  • the process circuit 23 performs correlated double sampling, noise removal, and the like on the frame sequential imaging signal via the amplifier 22.
  • the A / D converter 24 converts the frame sequential imaging signal that has passed through the process circuit 23 into a digital sequential frame sequential image signal.
  • W. B25 is equivalent to the brightness of the R signal of the image signal and the B signal of the image signal with respect to the G signal of the image signal, for example, with respect to the frame sequential image signal digitized by the A / D converter 24.
  • the gain is adjusted as described above, and white balance processing is executed.
  • the white balance adjustment in B25 is performed on the basis of the brightness of the return light of the narrow band light near the wavelength of 600 nm.
  • the selector 100 is a W.W.
  • the frame sequential image signal from B25 is distributed to each unit in the image processing unit 101 and output.
  • the image processing unit 101 is an image signal processing unit or image signal processing means for converting the RGB image signals for normal light observation or the three image signals for narrow band light observation from the selector 100 into display image signals. It is.
  • the image processing unit 101 outputs image signals in the normal light observation mode and the narrow band light observation mode to the selector 102 in accordance with the selection signal SS from the control circuit 200 based on the mode signal.
  • the selector 102 sequentially outputs the frame sequential image signals of the normal light observation image signal and the narrowband light observation image signal from the image processing unit 101 to the ⁇ correction circuit 26 and the synthesis circuit 201.
  • the ⁇ correction circuit 26 performs ⁇ correction processing on the frame sequential image signal from the selector 102 or the synthesis circuit 201.
  • the enlargement circuit 27 enlarges the frame sequential image signal that has been subjected to the ⁇ correction processing by the ⁇ correction circuit 26.
  • the enhancement circuit 28 performs edge enhancement processing on the frame sequential image signal that has been enlarged by the enlargement circuit 27.
  • the selector 29 and the synchronization memories 30, 31, and 32 are for synchronizing the frame sequential image signals from the enhancement circuit 28.
  • the image processing circuit 33 reads out the frame sequential image signals stored in the synchronization memories 30, 31, 32, and performs a moving image color misregistration correction process.
  • the D / A converters 34, 35, 36 convert the image signal from the image processing circuit 33 into an RGB analog video signal and output it to the observation monitor 5.
  • T.A. G 37 receives a synchronization signal synchronized with the rotation of the rotary filter 14 from the control circuit 17 of the light source device 4, and outputs various timing signals to each circuit in the video processor 7.
  • the electronic endoscope 2 is provided with a mode switching switch 41 for switching between the normal light observation mode and the narrow-band light observation mode, and the output of the mode switching switch 41 is the mode switching in the video processor 7. It is output to the circuit 42.
  • the mode switching circuit 42 of the video processor 7 outputs a control signal to the dimming control parameter switching circuit 44 and the control circuit 200.
  • the dimming circuit 43 controls the diaphragm device 13 of the light source device 4 and performs appropriate brightness control based on the dimming control parameter from the dimming control parameter switching circuit 44 and the imaging signal passed through the process circuit 23. ing.
  • Each circuit in the video processor 7 executes a predetermined process according to the designated mode. Processing corresponding to each of the normal light observation mode and the narrow band light observation mode is executed, and the normal monitor image or the narrow band light observation image is displayed on the observation monitor 5.
  • the observation monitor 5 is a display means or a display unit that displays an image based on the enhanced and corrected image signal.
  • FIG. 3 is a diagram for explaining the overall processing flow in the narrow-band light observation according to the present embodiment.
  • the surgeon inserts the insertion portion of the endoscope into the body cavity and positions the distal end portion of the insertion portion of the endoscope near the lesioned portion under the normal light observation mode.
  • the operator operates the mode switch 41 to observe a relatively thick blood vessel that travels from the submucosal layer to the intrinsic muscle layer and has a diameter of, for example, 1 to 2 mm. Then, the endoscope apparatus 1 is switched to the narrow band light observation mode.
  • control circuit 17 of the endoscope apparatus 1 controls the motor connected to the pinion 19b so that the light transmitted through the second filter group is emitted from the light source device 4. The position of the rotary filter 14 is moved. Further, the control circuit 200 also controls various circuits in the video processor 7 so as to perform image processing for observation with a narrow band wavelength.
  • illumination light of a narrow-band wavelength is emitted from the distal end portion of the insertion portion of the endoscope 3 from the illumination light generation unit 51, passes through the mucosa layer, The blood vessel 61 traveling through the submucosa and the proper muscle layer is irradiated.
  • the illumination light generation part 51 is comprised including the light source device 4, the rotation filter 14, the light guide 15, etc., and radiate
  • narrowband light having a wavelength of about 600 nm, narrowband light having a wavelength of about 630 nm, and narrowband light having a wavelength of about 540 nm are emitted from the light source device 4 sequentially and sequentially to irradiate the subject. Is done.
  • Reflected light of narrowband light having a wavelength of about 600 nm, narrowband light having a wavelength of about 630 nm, and narrowband light having a wavelength of about 540 nm is received by the reflected light receiving unit 52 that is a CCD 2.
  • the CCD 2 outputs an imaging signal of each reflected light and is supplied to the selector 100 via the amplifier 22 and the like.
  • the selector 100 is a T.W. According to a predetermined timing from G37, the first image signal P1 near the wavelength of 600 nm, the second image signal P2 near the wavelength of 630 nm, and the third image signal P3 near the wavelength of 540 nm are held, and an image processing unit 101.
  • the image processing unit 101 includes an enhancement processing unit 101a and a color conversion processing unit 101b for the narrowband light observation mode.
  • an endoscopic device 1 is used to incision and exfoliate the submucosal layer on the inner wall of the digestive tract such as the stomach, esophagus, large intestine, etc. You must not cut the thick blood vessels.
  • the surgeon can clearly draw a blood vessel below the surface of the living tissue.
  • the enhancement processing unit 101a of the image processing unit 101 in FIG. 1 performs later-described image processing for image enhancement of the blood vessel 61, and the color conversion processing unit 101b converts each image signal to each RGB channel of the observation monitor 5. Assign and supply to selector 102.
  • a relatively thick blood vessel 61 in the deep mucosa is displayed with high contrast. Therefore, the surgeon can perform ESD on the lesioned part while paying attention to the blood vessel 61 displayed on the observation monitor 5 and traveling through the submucosa and the proper muscle layer.
  • FIG. 4 is a diagram showing light absorption characteristics of venous blood. The vertical axis in FIG.
  • the three narrow-band illumination lights are also affected by the scattering characteristics of the living tissue itself, but the scattering characteristics of the living tissue itself are substantially monotonically decreasing with increasing wavelength. This will be explained as the tissue absorption characteristics.
  • venous blood contains oxygenated hemoglobin (HbO 2 ) and reduced hemoglobin (Hb) (hereinafter simply referred to as hemoglobin) in a ratio of approximately 60:40 to 80:20.
  • HbO 2 oxygenated hemoglobin
  • Hb reduced hemoglobin
  • FIG. 4 shows the absorption characteristics of venous blood light for each wavelength from 400 nm to about 800 nm. In the range from 550 nm to 750 nm, the absorption coefficient shows a maximum value at a point of about a wavelength of 576 nm, and a point at a wavelength of 730 nm. Indicates the minimum value.
  • Narrow band light in the vicinity of a wavelength of 600 nm (hereinafter, referred to as first narrow band light NL1) has a maximum value ACmin (here, absorption coefficient at a wavelength of 576 nm) to a minimum value ACmin (here, absorption coefficient at a wavelength of 730 nm) of absorption characteristics of hemoglobin. )
  • ACmin absorption coefficient at a wavelength of 576 nm
  • ACmin absorption coefficient at a wavelength of 730 nm
  • Narrow band light having a wavelength of around 630 nm (hereinafter referred to as second narrow band light NL2) is also light within the wavelength band R from the maximum value ACmax to the minimum value ACmin of the absorption characteristic of hemoglobin, but the first narrowband light. It is light in a wavelength band that is longer than the wavelength of NL1, has a low absorption coefficient, and suppresses the scattering characteristics of living tissue. Suppressing the scattering characteristic means that the scattering coefficient is lowered toward the long wavelength side.
  • the light source device 4 includes the first illumination light NL1 having the peak wavelength of the spectral characteristics between the wavelength band including the maximum value ACmax and the wavelength band including the minimum value ACmin in the absorption characteristics of the living tissue, and the first illumination light.
  • Second illumination light NL2 having a peak wavelength of a spectral characteristic in which the value of the absorption characteristic is lower than the image signal P1 by NL1 and the scattering characteristic of the living tissue is suppressed is irradiated.
  • Narrow band light with a wavelength of around 540 nm (hereinafter referred to as third narrow band light NL3) is light in a wavelength band outside the wavelength band R from the maximum value ACmax to the minimum value ACmin of the absorption characteristic of hemoglobin. Illumination light that can be transmitted by a predetermined distance from the surface layer portion of the surface.
  • the CCD 2 outputs an imaging signal for each image of the three narrow band lights. Therefore, each image includes a plurality of pixel signals based on the return lights of the first, second, and third narrowband lights NL1, NL2, and NL3.
  • FIG. 5 is a diagram for explaining the light propagation volume in the living tissue of the first narrowband light NL1 ( ⁇ 1) and the second narrowband light NL2 ( ⁇ 2).
  • Each of the first narrowband light NL1 and the second narrowband light NL2 repeats the multiple scattering process in the living tissue, and as a result, is emitted from the mucosal surface as return light.
  • the first narrowband light NL1 and the second narrowband light NL2 have mean free paths MFP1 and MFP2, respectively.
  • the mean free path MFP1 of the first narrowband light NL1 is shorter than the mean free path MFP2 of the second narrowband light NL2.
  • the first narrowband light NL1 having a wavelength of 600 nm ( ⁇ 1) reaches the vicinity of the blood vessel 61, and the second narrowband light NL2 having a wavelength of 630 nm ( ⁇ 2) is slightly smaller than the blood vessel 61.
  • a relatively deep blood vessel image can be highlighted.
  • the two narrow-band lights used in the present embodiment that is, the first narrow-band light NL1 and the second narrow-band light NL2 image the blood vessel 61 in the deep part of the living tissue from the mucosal surface 62. Therefore, the light is relatively long-wavelength within the wavelength band of visible light. Therefore, both the first narrow-band light NL1 and the second narrow-band light NL2 can relatively reach the vicinity of the blood vessel 61 located deep in the living tissue from the mucosal surface 62.
  • narrowband light near a wavelength of 600 nm ( ⁇ 1) is used as the first narrowband light NL1
  • narrowband light near a wavelength of 630 nm ( ⁇ 2) is used as the second narrowband light NL2. It has been.
  • the two narrowband lights used in the present embodiment are lights having a relatively small wavelength difference between the two narrowband lights.
  • light having a small difference between the mean free paths MFP1 and MFP2 of the two narrowband lights, that is, the first narrowband light NL1 and the second narrowband light NL2 is selected.
  • the mean free path is the average travel distance of light and is a function of the scattering coefficient.
  • the two narrow-band lights used in the present embodiment are lights having a relatively small wavelength difference between the two narrow-band lights.
  • a light having a relatively large difference in absorption between the two narrow-band lights is selected.
  • narrowband light near the wavelength of 600 nm ( ⁇ 1) is used as the first narrowband light NL1
  • narrowband light near the wavelength of 630 nm ( ⁇ 2) is used as the second narrowband light NL2.
  • the difference between the molar extinction coefficient DA1 of the first narrowband light NL1 and the molar extinction coefficient DA2 of the second narrowband light NL2 is a wavelength band of 650 nm or more (for example, around 700 nm wavelength). ) Is larger than the difference in absorption when two narrowband lights having the same wavelength difference (for example, 30 nm) (for example, narrowband light having a wavelength of about 700 nm and narrowband light having a wavelength of about 730 nm) are selected.
  • the two narrowband lights used in the present embodiment that is, the first narrowband light NL1 and the second narrowband light NL2
  • it is not desired to display for example, a capillary blood vessel having a depth of several hundred microns from the surface layer is not displayed. Therefore, a relatively thick blood vessel having a depth of 1 to 2 mm to be displayed. Only can be displayed with low noise emphasis.
  • the wavelength difference between the two narrow-band lights is large, for example, the wavelength 600 nm and the wavelength 680 nm
  • the deep portion is the same as in the combination where the wavelength difference is small (for example, the wavelength 600 nm and the wavelength 630 nm). Blood vessels can be displayed with high contrast.
  • FIG. 34 is a schematic diagram of an image obtained by photographing the abdominal cavity of an animal using a spectroscopic endoscope apparatus capable of irradiating narrow-band illumination light in a time series with a center wavelength of 10 nm.
  • the blood vessel V1 and the blood vessel V2 in the image are thick blood vessels that run from the upper left direction to the lower right direction in the image.
  • the blood vessel V1 is located deeper from the mucosal surface than the blood vessel V2.
  • a total of 15 patterns of monochrome images were taken in 10 nm steps from 540 nm to 680 nm.
  • FIG. 35 is a graph in which the vertical axis represents the intensity (logarithmically displayed pixel values) on Line-A in each of the plurality of monochrome images in FIG.
  • the horizontal axis in FIG. 35 is the position of the pixel on Line-A in each image.
  • the blood vessel V1 has a pixel position in the vicinity of 25 to 50, and the blood vessel V2 has a pixel position in the vicinity of 75 to 110.
  • the illumination wavelength at which the intensity is attenuated in both the blood vessel V2 present in the relatively shallow portion and the blood vessel V1 located in the deep portion that is, the wavelength at which the illumination light is strongly absorbed in the blood vessel V1 and the blood vessel V2, From FIG. 35, it can be seen that it is approximately 590 nm to 620 nm.
  • narrow-band light of about 590 nm to 620 nm is important wavelength information.
  • the blood vessel V1 exists in a portion about 1 mm to 2 mm deep from the mucosal surface.
  • the result of this experiment is substantially the same as the theoretical calculation result by Beer-Lambert (a relatively thick blood vessel can be displayed with high contrast by using narrow-band light between 15 nm before and after a wavelength of 600 nm). .
  • the illuminating means or the illuminating unit including the light source device 4 has illumination light having a peak wavelength of spectral characteristics between the wavelength band including the maximum value ACmax and the wavelength band of the minimum value ACmin in the absorption characteristics of living tissue.
  • Narrow-band light NL1 and illumination light NL2 that has a peak wavelength of spectral characteristics with a low value in the absorption characteristic of the return light by the narrow-band light NL1 and suppressed scattering characteristics of living tissue To do.
  • the illuminating means or illuminating unit including the light source device 4 also irradiates the third illuminating light NL3 that can be transmitted by a predetermined distance from the surface layer of the subject.
  • FIG. 6 is a diagram illustrating an example of an endoscopic image for explaining the highlighted display of blood vessels in the endoscopic image.
  • a blood vessel at a depth of 1 to 2 mm from the surface layer portion is not displayed on the endoscope image EI of the observation monitor 5 or is difficult to be displayed in the captured endoscope image EI. .
  • the blood vessel is displayed on the endoscopic image EI.
  • the processing of the image processing unit 101 will be described on the assumption that a blood vessel 61 (shown by a dotted line) exists below the stomach mucosal surface.
  • Respective images by the two narrowband lights NL1 and NL2 are input to the image processing unit 101.
  • Each image is composed of a plurality of lines, and each line includes a plurality of pixels.
  • the enhancement processing unit 101a performs the following processing for each line of each image.
  • an interband calculation is performed on two images obtained by irradiation with the first narrowband light NL1 and the second narrowband light NL2 so as to expand the contrast of the deep blood vessel 61. .
  • FIG. 7 is a diagram showing the luminance level of the pixel value of a certain line LL in FIG.
  • the horizontal axis in FIG. 7 indicates the pixel positions arranged along the line direction in the endoscopic image EI, and the vertical axis indicates the luminance value of the pixel at each pixel position.
  • the luminance value distribution RL1 indicated by the solid line is the luminance profile of the return light of the first narrowband light NL1, that is, the luminance value distribution
  • the luminance value distribution RL2 indicated by the alternate long and short dash line is the second narrowband light NL2. This is the luminance value distribution of the return light.
  • the line LL includes n pixels from the left, and the range of pixel positions PP1 to PP2 on the line LL is a range where the blood vessel 61 exists.
  • the luminance value distribution RL1 of the first narrowband light NL1 is low in the range RV from the pixel position PP1 to PP2 where the blood vessel 61 exists. This is because the first narrow-band light NL1 is strongly absorbed by the hemoglobin of the blood vessel 61. Also in the lines other than the line LL, the luminance value of the return light of the first narrowband light NL1 is low in the range RV where the blood vessel 61 exists.
  • the luminance value is substantially the same including the range RV from the pixel position PP1 to PP2 where the blood vessel 61 exists. This is because the second narrowband light NL2 passes through the blood vessel 1 and reaches the inside of the living tissue without being affected by absorption so much and returns. In the lines other than the line LL, the luminance value of the return light of the second narrowband light NL2 is substantially the same in the range including the range RV where the blood vessel 61 exists.
  • the average value of the luminance values of the plurality of pixels on the line LL (hereinafter referred to as average luminance) for the return light of the first narrowband light NL1 is indicated by a dotted line AV1
  • the second The average luminance of the luminance values of a plurality of pixels on the line LL with respect to the return light of the narrow band light NL2 is indicated by a dotted line AV2. Therefore, the enhancement processing unit 101a performs the processing of the following equation (1) for each pixel for each line shown in FIG.
  • U (Im ( ⁇ 1) / Im ( ⁇ 2)) ⁇ K ⁇ 1 Expression (1)
  • U is the luminance ratio
  • Im is the luminance for each pixel
  • Im ( ⁇ 1) is the luminance value of the return light of the narrowband light near the wavelength of 600 nm ( ⁇ 1)
  • Im ( ⁇ 2) Is a luminance value of the return light of narrowband light in the vicinity of a wavelength of 630 nm ( ⁇ 2)
  • K is a correction coefficient.
  • the value of the following equation (2) may be used.
  • K (AVE ( ⁇ 2) / AVE ( ⁇ 1)) (2)
  • AVE is the average luminance of each line
  • AVE ( ⁇ 1) is the average value of the luminance values of the return light of the narrowband light near the wavelength of 600 nm ( ⁇ 1)
  • AVE ( ⁇ 2) is the wavelength of 630 nm. This is the average value of the luminance values of the return light of the narrowband light near ( ⁇ 2).
  • a dotted line AV1 indicates a line of AVE ( ⁇ 1)
  • a dotted line AV2 indicates a line of AVE ( ⁇ 2).
  • the average luminance of the two images obtained by the irradiation with the first narrowband light NL1 and the second narrowband light NL2 is adjusted by the correction coefficient K.
  • FIG. 8 is a diagram showing the level of the luminance ratio U for each pixel on the line LL in FIG.
  • the horizontal axis in FIG. 8 indicates the pixel positions arranged along the line direction in the endoscopic image EI, and the vertical axis indicates the luminance ratio U of the pixels at each pixel position.
  • the expression (1) includes minus 1 ( ⁇ 1)
  • the distribution of the luminance ratio U is a distribution with 0 as a reference. That is, in FIG. 8, the luminance value distribution RL3 indicated by the dotted line can be said to be a distribution obtained by correcting the luminance value of the return light of the first narrowband light NL1.
  • the calculation by the following equation (3) is performed on the luminance ratio U.
  • FIG. 9 is a diagram showing the level of the emphasized luminance ratio V for each pixel on the line LL in FIG.
  • the horizontal axis in FIG. 9 indicates the pixel positions arranged along the line direction in the endoscopic image EI, and the vertical axis indicates the luminance ratio U of the pixels at each pixel position. That is, in FIG.
  • the luminance value distribution RL4 indicated by the solid line can be said to be a distribution obtained by correcting the luminance value distribution RL3 indicated by the dotted line, as indicated by the one-dot chain line arrow A1. From the luminance ratio V calculated by the equation (3), the luminance value is calculated by the following equation (4).
  • ImA ( ⁇ 1) Im ( ⁇ 1) ⁇ (V + 1) (4)
  • ImA ( ⁇ 1) is a luminance value after correction of the luminance value of the return light of the narrow-band light near the wavelength of 600 nm ( ⁇ 1).
  • the luminance value ImA ( ⁇ 1) emphasized by the above equation (4) in the line LL is as shown in FIG.
  • FIG. 10 is a diagram illustrating the level of the emphasized luminance value of the return light of the narrowband light near the wavelength of 600 nm ( ⁇ 1) for each pixel of the line LL in FIG.
  • the horizontal axis in FIG. 10 indicates the pixel positions arranged along the line direction in the endoscopic image EI, and the vertical axis indicates the luminance value AB of the pixel at each pixel position.
  • the luminance value distribution RL5 indicated by the solid line can be said to be a distribution obtained by correcting the luminance value distribution RL1 indicated by the two-dot chain line.
  • the enhancement processing unit 101a outputs an enhanced corrected image signal BEP1 ( ⁇ 1) obtained by enhancing and correcting the first image signal P1 ( ⁇ 1) by interband calculation.
  • the emphasis processing may be performed by the following method.
  • the blood vessel image is enhanced by obtaining the ratio of the luminance value of each pixel of the image of two wavelengths and multiplying the luminance ratio by a correction coefficient.
  • each pixel value is divided, and the division result is expressed as the first image.
  • the blood vessel image may be enhanced by multiplying the pixel value obtained by the irradiation of the narrowband light NL1.
  • ImA1 ( ⁇ 1) Im ( ⁇ 1) ⁇ (Im ( ⁇ 1) / Im ( ⁇ 2)) (5)
  • ImA1 ( ⁇ 1) is a luminance value after correction of the luminance value of the return light of the narrowband light near the wavelength of 600 nm ( ⁇ 1).
  • the contrast of a deep blood vessel can also be obtained by enhancement processing using division such as Expression (5).
  • the emphasis processing may be performed by the following method. For two images obtained by irradiation with the first narrowband light NL1 and the second narrowband light NL2, for example, as shown in the following equation (6), each pixel value is subtracted, and the subtraction result May be multiplied by the pixel value obtained by the irradiation of the first narrowband light NL1 to enhance the blood vessel image.
  • ImA2 ( ⁇ 1) Im ( ⁇ 1) ⁇
  • ImA2 ( ⁇ 1) is the brightness value of the return light of the narrowband light near the corrected wavelength of 600 nm ( ⁇ 1).
  • the contrast of deep blood vessels can also be achieved by enhancement processing using subtraction as in equation (6).
  • the image processing unit 101a has the first peak wavelength of the spectral characteristic between the wavelength band including the maximum value ACmax and the wavelength band of the minimum value ACmin in the absorption characteristics of the living tissue after imaging by the imaging unit or the imaging unit.
  • Image signal P1 ( ⁇ 1) and a second image signal P2 having a peak wavelength of spectral characteristics in which the value of the absorption characteristics is lower than that of the first image signal P1 ( ⁇ 1) and the scattering characteristics of the living tissue are suppressed.
  • An image processing unit or an image processing unit is configured to generate an image signal subjected to enhancement correction by performing processing for enhancing the first image signal P1 ( ⁇ 1) based on a change amount, that is, a difference with ( ⁇ 2).
  • the color conversion processing unit 101b receives the second image signal P2 ( ⁇ 2), the third image signal P3 ( ⁇ 3), and the enhanced corrected image signal BEP1 ( ⁇ 1). In the color conversion processing unit 101b, a process of assigning the second image signal P2 ( ⁇ 2), the third image signal P3 ( ⁇ 3), and the enhanced corrected image signal BEP1 ( ⁇ 1) to the RGB channel is performed.
  • the luminance value Im ( ⁇ 3) of the signal P3 ( ⁇ 3) is assigned to the RGB channel.
  • the relatively thick blood vessel 61 in the deep part is displayed in a slightly reddish color, so that it is easy for the operator to understand. Further, since narrow band light having a wavelength of about 540 nm is used as the third narrow band light NL3, capillaries and hemorrhages existing in a relatively shallow region from the surface of the living tissue are displayed in substantially yellow.
  • the deep blood vessel 61 is displayed in a slightly blue or blue-green color, and the capillaries in the surface layer are also displayed in red to brown, so that it is easy for the operator to understand.
  • the following equation (10) may be used instead of the above equation (7).
  • is approximately 1.0 to 1.5
  • is approximately 2.0 to 2.6
  • the color tone of the deep blood vessel is blue-green
  • the color tone of the mucous membrane is similar to that of normal observation, so that the operator can easily observe without stress.
  • is a numerical value of approximately 2.3 to 2.7
  • is approximately 2.3 to 2.7
  • narrowband light near a wavelength of 540 nm is used as a B channel
  • narrowband light near a wavelength of 630 nm is used as a G channel
  • narrowband light near a wavelength of 600 nm ie, an enhanced correction image.
  • the signal BEP1 ( ⁇ 1)) may be assigned to the R channel.
  • narrowband light having a wavelength of about 540 nm may be assigned to the B channel and G channel, and narrowband light having a wavelength of about 600 nm or narrowband light having a wavelength of about 630 nm may be assigned to the R channel.
  • the color balance adjustment will be described.
  • Narrowband Light near a wavelength of 540 nm is assigned to the B channel
  • Narrowband Light near the wavelength of 600 nm is assigned to the G channel
  • Narrowband Light near the wavelength of 630 nm is assigned to the R channel as shown in Equation (7)
  • the R channel It is desirable to amplify the B channel signal with respect to the above signal.
  • the signal intensity of the narrow band light near the wavelength of 600 nm is not corrected, and the signal intensity of the narrow band light near the wavelength of 540 nm assigned to the B channel is 0. 0 of the signal intensity of the narrow band light near the wavelength of 630 nm assigned to the R channel.
  • the two signals are adjusted to be 7 to 2.5 times.
  • the color conversion process may be performed after the color balance adjustment, or the color balance process may be performed after the color conversion process.
  • the difference in color tone between the mucous membrane, white-colored fibrous tissue, yellow bleeding, black carbonized region, and blood vessels whose color tone is red to magenta is thicker. It is possible to obtain a display image that is easier to perform.
  • Such a color balance adjustment circuit for color balance adjustment is disclosed in W.W. You may provide in the front
  • the color balance adjustment circuit outputs the signal of the narrow band light near the wavelength of 540 nm allocated to the B channel.
  • the signal of the narrowband light near the wavelength of 630 nm to be assigned to the R channel is about 0.6 to 1.0 times.
  • the color balance adjustment may be performed in the color conversion processing unit 101b, or may be performed by adjusting the intensity of illumination light in the light source device 4, or for each color of the color filter of the image sensor.
  • the transmission may be adjusted.
  • FIG. 11 is a diagram for explaining a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101.
  • three images from the image sensor 2 are input to the image processing unit 101 as first to third image signals P1, P2, and P3.
  • enhancement processing by interband calculation is performed on the two image signals P1 and P2 by the enhancement processing unit 101a.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the second image signal P2, the third image signal P3, and the enhancement-corrected image signal BEP1 ( ⁇ 1) obtained by the enhancement processing. And output to the observation monitor 5.
  • the two narrow band lights having the absorption characteristics as described above between the maximum value and the minimum value of the absorption characteristics of the living tissue as shown in FIG.
  • enhancement processing By performing enhancement processing on the two returned light images, relatively thick blood vessels in a relatively deep part of the biological mucous membrane are emphasized and displayed on the screen of the observation monitor 5. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the endoscope apparatus 1 it is possible to display blood vessels in a portion close to the surface layer portion of the biological mucosa using the third narrowband light NL3.
  • the third narrow-band light NL3 near the wavelength of 540 nm is used, the state of the capillary blood vessel in the surface layer portion is displayed on the screen of the observation monitor 5 simultaneously with the thick blood vessel. Therefore, the surgeon uses the endoscopic image on the screen of the observation monitor 5 not only for the treatment but also for the diagnosis of living tissue, for example, cancer, from the state of the capillary blood vessels, for example, the degree of concentration or dispersion of the blood capillaries.
  • the present invention can be used for the presence diagnosis of cancer, the range diagnosis for specifying the range of cancer, and the differential diagnosis for determining benign or malignant of the affected part. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels.
  • the light source device 4 described above generates illumination light in a desired wavelength band using the xenon lamp 11, the rotary filter 14, and the like.
  • the light source device 4 Consists of a plurality of light emitting diodes (LEDs) that emit desired wavelengths, for example, RGB wavelengths corresponding to the first filter group, and wavelengths near 600 nm and 630 nm corresponding to the second filter group. You may comprise so that the light emission part 11A which has the light emitting diode group 11a may be included. In that case, the light emitting unit 11A and the light guide 15 constitute an irradiation unit that irradiates the subject with illumination light.
  • LEDs light emitting diodes
  • a light emitting unit 11 ⁇ / b> A indicated by a dotted line is provided in the light source device 4 instead of the xenon lamp 11, the heat ray cut filter 12, the aperture device 13, the rotary filter 14, and the like. Furthermore, the light source device 4 is provided with a drive circuit 11b for driving each light emitting diode of the light emitting unit 11A at a predetermined timing according to each mode.
  • a light emitting unit 11A having a plurality of LEDs 11a receives power from the power supply 10 and is controlled and driven by the drive circuit 11b under a control signal from the control circuit 17. Even if such a light source device is used or the endoscope device 1 described above is configured, the same effect as described above can be obtained.
  • the light emitting unit 11A may use a laser diode (LD) that emits a predetermined plurality of narrowband lights.
  • LD laser diode
  • the CCD 2 is not a monochrome image sensor, but an RGB color filter or a complementary color system color wave limiting unit or wavelength band limiting unit. Even if a filter is provided, the same effect as described above can be obtained.
  • the second narrow-band light NL2 shown in FIG. 4 may be light in a wavelength band longer than the minimum value ACmin (here, the absorption coefficient at a wavelength of 730 nm) of the absorption characteristic of hemoglobin. That is, the wavelength of the second narrowband light NL2 is a wavelength band in which the absorption coefficient is lower than that of the first narrowband light NL1, and the scattering characteristics of the living tissue are suppressed, for example, 740 nm, 770 nm, Even when 805 nm, 810 nm, 850 nm, 870 nm, 880 nm, 910 nm, 940 nm, 1020 nm, and 1300 nm are used, the same effect as described above can be obtained (for example, the narrowband light NL2 is set to any wavelength of 740 nm to 1300 nm) In the case of setting, the narrowband light NL1 is set to a wavelength of 576 nm or more and at least
  • At least one narrow-band light is actually irradiated onto the living tissue as illumination light, and the above-described enhancement processing is performed on the image of the return light. Then, without actually irradiating the living tissue with at least one narrowband light, image information of the return light of each narrowband light is obtained by so-called spectral estimation, and the spectral image signal of each wavelength obtained by the spectral estimation is obtained. On the other hand, the enhancement process as described above is performed.
  • the first and second narrowband lights NL1 and NL2 are generated by an illumination device having a light emitting element such as a rotary filter or a light emitting diode, and images of their return lights.
  • image signals corresponding to the first and second narrowband lights NL1 and NL2 are obtained by the spectral estimation process, and the spectral signal obtained by the spectral estimation is obtained. Enhancement processing is performed on the estimated image signal.
  • FIG. 12 is a configuration diagram illustrating a configuration of an endoscope apparatus 1A according to the second embodiment.
  • the light source device 4 ⁇ / b> A includes a lamp 11 ⁇ / b> B that emits white light, a heat ray cut filter 12, and a diaphragm device 13. Illumination light from the light source device 4A is irradiated to the subject via the light guide 15.
  • the lamp 11B may emit light other than white light.
  • the image sensor 2A provided at the distal end of the insertion portion of the endoscope 3 is a color image sensor.
  • the imaging device 2A is, for example, a color CCD, and has an RGB color filter on the imaging surface.
  • the return light from the subject is received by each pixel unit on the imaging surface via an RGB color filter, which is a wavelength band limiting unit or wavelength band limiting unit, and RGB image signals of three colors are output from the image sensor 2A. Is done.
  • the selector 100A outputs the three RGB image signals to the image processing unit 101A.
  • the image processing unit 101A has a spectral estimation unit, and outputs a spectral estimation image signal near a wavelength of 600 nm, a spectral estimation image signal near a wavelength of 630 nm, and a spectral estimation image signal near a wavelength of 540 nm in the narrowband light observation mode. To do.
  • FIG. 13 is a diagram for explaining the overall processing flow in narrowband light observation according to the present embodiment.
  • the image processing unit 101A includes a spectral estimation unit 101c in addition to the enhancement processing unit 101a and the color conversion processing unit 101b.
  • the spectral estimation unit 101c from the three RGB images, the first spectral estimation image signal e1 near the wavelength 600nm, the second spectral estimation image signal e2 near the wavelength 630nm, and the third spectral estimation near the wavelength 540nm.
  • the image signal e3 is extracted by spectral estimation processing and output to the enhancement processing unit 101a.
  • the spectral estimation unit 101c calculates an n-dimensional spectral image by matrix calculation based on a priori information given in advance from three inputs, and calculates the calculated n-dimensional spectral estimated image signal. E1, e2, e3 are output selectively from among them.
  • the spectral estimation unit 101c calculates and outputs a spectral estimation image signal e1 near a wavelength of 600 nm, a spectral estimation image signal e2 near a wavelength of 630 nm, and a spectral estimation image signal e3 near a wavelength of 540 nm using matrix calculation or the like. It is configured.
  • FIG. 14 is a diagram illustrating spectral characteristics for explaining a case where three narrow-band light spectral image signals e1, e2, and e3 are estimated from three wide-band light image signals B, G, and R.
  • the three broadband lights B, G, and R in FIG. 14 are obtained by the color filter of the image sensor 2A, and the image signals of the three broadband lights B, G, and R are input to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates the spectral estimation image signals e1, e2, and e3 of the narrowband light from the image signals B, G, and R of the three broadband lights by spectral estimation processing. From the image signals B, G, and R of the broadband light having the wavelength band as shown in FIG. 14, the spectral estimation image signal e1 of the narrowband light near the wavelength of 600 nm, the spectral estimation image signal e2 of the narrowband light near the wavelength of 630 nm, and A spectral estimation image signal e3 of narrowband light in the vicinity of a wavelength of 540 nm is obtained by spectral estimation processing.
  • spectral estimation image signals e1 and e2 of two narrowband lights between the wavelength band R of the maximum value ACmax and the minimum value ACmin in FIG. 4 and spectral estimation image signals e3 of narrowband light outside the wavelength band R and Is obtained by spectral estimation, and the spectral estimated image signals e1, e2, e3 are supplied to the enhancement processing unit 101a.
  • At least two spectral estimated image signals e1, e2 are obtained from image signals of two broadband lights among the three broadband lights, for example, image signals of the broadband lights G, R. e3) may be obtained by spectral estimation processing.
  • three (or two) broadband light image signals are not obtained by using the color filter of the color imaging device, but the light source device obtains an image signal having spectral characteristics as shown in FIG.
  • the return light of the three (or two) illumination lights generated by arranging the first group of filters having the sensitivity characteristics on the optical path may be applied to the monochrome image pickup device to obtain it.
  • the spectral estimation unit 101c generates and outputs at least two spectral estimation image signals e1 and e2 by spectral estimation processing based on at least two imaging signals of return light from the subject. Furthermore, the spectral estimation unit 101c also performs spectral estimation processing on the spectral estimation image signal e3 corresponding to the return light based on the irradiation of illumination light that can be transmitted by a predetermined distance from the surface layer portion of the subject based on the at least two imaging signals. Generates and outputs. As described above, the processing in the enhancement processing unit 101a and the color conversion processing unit 101b is the same as that in the first embodiment.
  • a modified example of spectral estimation will be described.
  • a plurality of narrowband light spectral image signals are estimated from a plurality of wideband light image signals.
  • the present invention is not limited to this method, and the following method may be used.
  • the first method is to estimate three spectral image signals from two wideband light image signals and one narrowband light image signal. Since an image signal of narrowband light is used, the accuracy of spectral estimation can be increased.
  • FIG. 15 is a diagram illustrating spectral characteristics for explaining a case where three narrow-band light spectral image signals are estimated from two wide-band light image signals and one narrow-band light image signal.
  • B and G are broadband light
  • R is narrowband light.
  • three spectral estimated image signals e1, e2, and e3 are estimated from the two broadband light image signals B and G and one narrowband light image signal Rn.
  • Three image signals of two broadband lights B and G and one narrowband light Rn may be obtained by a color filter of the image sensor 2A having spectral characteristics as shown in FIG.
  • a return filter of three illumination lights that is, illumination lights of two broadband lights B and G and one narrowband light Rn
  • a rotary filter as shown in FIG. You may try to get it.
  • three image signals of two broadband light and one narrow band light may be obtained by the color filter of the image sensor 2A, or the light source device may have two or more illuminations.
  • the wavelength band of at least one illumination light (Rn) of the two or more illumination lights may be narrower than the wavelength bands of the other illumination lights (B, G).
  • the spectral estimation unit 101c estimates the spectral estimation image signals e1, e2, and e3 of the three narrowband lights from the image signals Rn of the two broadband lights B and G and the image signal Rn of the single narrowband light by spectral estimation processing. . From two wideband light B and G image signals having a wavelength band as shown in FIG. 15 and one narrowband light image signal Rn, a spectrally estimated image signal e1 of narrowband light near a wavelength of 600 nm, a wavelength near 630 nm. A spectral estimated image signal e2 of narrowband light and a spectral image signal e3 of narrowband light near a wavelength of 540 nm are estimated.
  • At least two spectral estimated image signals e1, e2 are obtained from one broadband light image signal (for example, broadband light G image signal) and one narrowband light Rn image signal.
  • e1, e2 are obtained from one broadband light image signal (for example, broadband light G image signal) and one narrowband light Rn image signal.
  • e2, e3 may be obtained by spectral estimation processing.
  • one narrowband light Rn includes narrowband light near a wavelength of 600 nm, but may include narrowband light near a wavelength of 630 nm. Furthermore, one narrowband light Rn may not include narrowband light having a wavelength near 600 nm or narrowband light having a wavelength near 630 nm, as indicated by a one-dot chain line in FIG.
  • FIG. 16 is a diagram illustrating spectral characteristics for explaining a case where one narrowband light Rn does not include the narrowband light of the estimated spectral estimation image signal. As shown in FIG.
  • a spectral estimation image signal e21 of narrowband light and a spectral estimation image signal e3 of narrowband light having a wavelength near 540 nm are obtained by spectral estimation processing.
  • the second method estimates three spectral estimation image signals from one broadband light image signal and two narrowband image signals.
  • FIG. 17 is a diagram showing spectral characteristics for explaining a case where three narrow-band light spectral estimation image signals are estimated from one wide-band light image signal and two narrow-band light image signals.
  • narrow band light is used for B and G
  • wide band light is used for R.
  • three spectral estimated image signals e1, e2, and e31 are estimated from two narrowband light image signals Bn and Gn and one broadband light R image signal.
  • the spectral estimation image signal e31 is an image signal of narrowband light having a wavelength near 460 nm.
  • Three image signals of two narrowband lights Bn and Gn and one broadband light R may be obtained by a color filter of the image sensor 2A having spectral characteristics as shown in FIG.
  • a return filter of three illumination lights that is, two narrow-band lights Bn and Gn and one broad-band light R
  • a rotary filter as shown in FIG. You may try to get it.
  • the spectral estimation unit 101c estimates the spectral estimation image signals e1, e2, e31 of the narrowband light from the two narrowband light image signals Bn, Gn and the single broadband light image signal R by spectral estimation processing. . From two narrowband light image signals Bn and Gn having a wavelength band as shown in FIG. 17 and one wideband light image signal R, a spectral estimated image signal e1 of narrowband light having a wavelength of about 600 nm, a wavelength of about 630 nm. A spectrally estimated image signal e2 of narrowband light and a spectrally estimated image signal e31 of narrowband light in the vicinity of a wavelength of 460 nm are estimated.
  • At least two spectral estimated image signals e1 and e2 are generated from one narrowband light image signal (for example, an image signal of the broadband light Gn) and one broadband light image signal R. , e2, e31) may be obtained by spectral estimation processing.
  • one broadband light R includes a narrowband light having a wavelength of about 600 nm and a narrowband light having a wavelength of about 630 nm, but only one of them includes, for example, only a narrowband light having a wavelength of about 630 nm. May be.
  • one broadband light R may not include a narrowband light having a wavelength near 600 nm or a narrowband light having a wavelength near 630 nm.
  • three spectral image signals are estimated from three narrow-band light image signals.
  • FIG. 18 is a diagram showing spectral characteristics for explaining a case where three narrow-band light spectral estimation image signals are estimated from three narrow-band light image signals.
  • narrowband light is used for B, G, and R.
  • three spectral estimation image signals e1, e21, e31 are estimated from the three narrowband light image signals B, G, R.
  • the three narrow-band lights Bn, Gn, Rn may be obtained by a color filter of the image sensor 2A having spectral characteristics as shown in FIG. 18, or as shown in FIG. 2 in the light source device. It may be generated using a rotary filter and obtained by applying return light of three illumination lights (that is, illumination lights of three narrow-band lights B, G, and R) to a monochrome image pickup device.
  • the spectral estimation unit 101c estimates three spectral estimation image signals e1, e21, and e31 from the three narrowband light image signals Bn, Gn, and Rn by spectral estimation processing. From three narrowband light image signals Bn, Gn, and Rn having wavelength bands as shown in FIG. 18, a spectrally estimated image signal e1 of narrowband light near a wavelength of 600 nm and a spectrally estimated image of narrowband light near a wavelength of 650 nm. A spectral estimation image signal e31 of the narrowband light near the signal e21 and the wavelength of 460 nm is estimated.
  • At least two spectral estimated image signals e1, e21 are spectrally separated from two narrowband light image signals, for example, narrowband light image signals Bn, Gn. You may make it obtain by an estimation process.
  • the at least one narrowband light may include the wavelength of the narrowband light of the estimated spectral estimation image.
  • the narrowband light Rn does not include the narrowband light near the wavelength of 600 nm and the narrowband light near the wavelength of 630 nm, but includes only the narrowband light near the wavelength of 600 nm, for example. May be.
  • the narrowband light Bn does not include narrowband light near the wavelength of 460 nm, but the narrowband light Bn may include narrowband light near the wavelength of 460 nm.
  • the fourth method estimates three spectral estimation image signals from four narrowband light image signals.
  • FIG. 19 is a diagram showing spectral characteristics for explaining a case where three narrow-band light spectral image signals are estimated from four narrow-band light image signals.
  • narrowband light is used for Bn, Gn, and Rn.
  • Rn two narrowband lights are used.
  • three spectral estimation image signals e1, e21, e31 are estimated from the image signals of the four narrowband lights Bn, Gn, Rn.
  • the four narrow-band lights Bn, Gn, Rn1, and Rn2 may be obtained by the color filter of the image sensor 2A having the spectral characteristics as shown in FIG. 19, or alternatively, the light source device shown in FIG. It may be generated by using such a rotating filter, and the return light of the four illumination lights (that is, the illumination lights of the four narrow-band lights Bn, Gn, Rn1, and Rn2) may be applied to the monochrome image sensor to obtain it. .
  • the spectral estimation unit 101c estimates the spectral estimation image signals e1, e21, and e31 of the three narrowband lights from the image signals of the four narrowband lights Bn, Gn, Rn1, and Rn2 by spectral estimation processing. From four narrowband light image signals Bn, Gn, Rn1, and Rn2 having wavelength bands as shown in FIG. 19, a spectral estimation image signal e1 of narrowband light near a wavelength of 600 nm and a narrowband light spectrum near a wavelength of 650 nm The estimated image signal e21 and the spectral estimated image signal e31 of narrowband light in the vicinity of a wavelength of 460 nm are estimated.
  • three spectral estimation image signals are estimated from four or more narrowband light image signals. Spectral estimation accuracy is improved. Therefore, at least two spectral estimated image signals e1, e21 (here, three spectral estimated image signals e1, e21) are obtained from four or more narrowband light image signals, for example, image signals of narrowband light Bn, Gn, Rn1, Rn2. , e31) may be obtained by spectral estimation processing.
  • two or more of the plurality of narrowband lights may include the wavelength of the narrowband light of the estimated spectral estimation image.
  • the narrowband light Rn does not include narrowband light near the wavelength of 650 nm, but may include narrowband light near the wavelength of 650 nm.
  • the narrowband light Bn does not include narrowband light near the wavelength of 460 nm, but the narrowband light Bn may include narrowband light near the wavelength of 460 nm.
  • FIG. 20 is a diagram for explaining the flow of processing for an image obtained from the image sensor 2 in the image processing unit 101A of the present embodiment. As shown in FIG.
  • three images that is, first to third image signals P1, P2, and P3 are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates three spectral estimation image signals e1, e2, and e3 from the input two or three image signals.
  • the enhancement processing unit 101a performs enhancement processing by interband calculation on two spectral image signals e1, e2.
  • the color conversion processing unit 101b performs channel assignment on the second spectral estimated image signal e2, the third spectral estimated image signal e3, and the enhanced corrected image signal BEP1 ( ⁇ 1) obtained by the enhancement process.
  • a color conversion process is performed and output to the observation monitor 5.
  • the color filter provided on the surface of the image sensor has been described as an example of an RGB system, but the color filter may be a complementary color system.
  • the wavelength of the second spectral estimation signal e2 or e21 shown in FIGS. 14 to 19 is light in a wavelength band longer than the minimum value ACmin (here, the absorption coefficient at a wavelength of 730 nm) of the absorption characteristic of hemoglobin in FIG. It may be. That is, the wavelength of the second spectral estimation signal e2 or e21 is a wavelength band in which the absorption coefficient is lower than the wavelength of the first spectral estimation signal e1 and the scattering characteristics of the living tissue are suppressed.
  • ACmin the absorption coefficient at a wavelength of 730 nm
  • the same effect as described above can be obtained (for example, the second spectral estimation signal e2 or
  • the wavelength of the first spectral estimation signal e1 is set to any wavelength of 576 nm or more and at least 630 nm or less).
  • a relatively thick blood vessel in a relatively deep part of the biological mucous membrane is enhanced and displayed on the screen of the observation monitor 5. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the endoscope apparatus 1A described above can display blood vessels in a portion close to the surface layer of the biological mucous membrane using the third spectral estimation image signal e3, the state of the capillary blood vessels, for example, capillary It can also be used for diagnosis of living tissues, for example, diagnosis of the presence of cancer, range diagnosis for identifying the range of cancer, and differential diagnosis for judging benign or malignant diseased areas from the degree of concentration or dispersion of blood vessels it can. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels. In addition to the third spectral estimation image signal e3, the fourth and fifth images obtained by spectral estimation may also be used to perform color conversion processing and display on the observation monitor 5. .
  • the biological tissue is actually irradiated with at least one narrowband light as illumination light, and the above-described enhancement processing is performed on the image of the return light.
  • the image information of the return light of each narrow band light is obtained by so-called spectral estimation, and the spectral estimation image signal of each wavelength obtained by the spectral estimation is obtained.
  • the image signal of the return light of the actual illumination light of the narrowband light and the spectral estimation image signal obtained by the spectral estimation are processed in the third embodiment.
  • the above-described enhancement process is performed.
  • FIG. 21 is a diagram showing a configuration of the rotary filter 14A of the present embodiment.
  • the rotary filter 14A only has an RGB filter section that constitutes a filter set for outputting frame sequential light having spectral characteristics for normal light observation.
  • the return light of the frame sequential BGR light is received by the monochrome imaging device 2.
  • FIG. 22 is a diagram for explaining the overall processing flow in the special light observation mode according to the present embodiment.
  • the image processing unit 101B includes an enhancement processing unit 101a, a color conversion processing unit 101b, and a spectral estimation unit 101c.
  • the spectral estimation unit 101c is configured to output at least one spectral estimation image signal from two or three image signals in RGB. e is generated, and enhancement processing by interband calculation is performed between one image signal in RGB and the spectral estimation image signal.
  • a first spectral estimation image signal e1 near a wavelength of 600 nm and a third spectral estimation image signal e3 near a wavelength of 540 nm are obtained.
  • FIG. 23 is a diagram for explaining a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101B according to the present embodiment.
  • three images that is, first to third image signals B, G, and R are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates two spectral estimation image signals e1 and e3 from the input two or three images.
  • the enhancement processing unit 101a performs enhancement processing by interband calculation on the image signal R and the spectral image signal e1 of the two spectral estimation image signals e1 and e3 obtained by the spectral estimation unit 101c.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the spectral estimation image signal e3, the enhancement-corrected image signal BEP1 ( ⁇ 1) obtained by the enhancement processing, and the image signal R, and performs observation. Output to the monitor 5. Note that the processing in the enhancement processing unit 101a and the color conversion processing unit 101b is the same as that in the first embodiment.
  • FIG. 24 is a diagram showing spectral characteristics for explaining the case where two narrowband light spectral estimation image signals e1 and e3 are estimated from three (or two) wideband light image signals B, G, and R. It is.
  • the enhancement processing unit 101a receives the image signal R based on the real light of the broadband light R from the reflected light receiving unit 52 and the spectral estimation image signal e1 near the wavelength of 600 nm output from the spectral estimation unit 101c. Is done.
  • the spectral image signal e1 is a spectral estimation image signal of one narrow band light between the wavelength band R of the maximum value ACmax and the minimum value ACmin in FIG.
  • the enhancement processing unit 101a performs enhancement processing by the above-described interband calculation between the input image signal R and the spectral estimation image signal e1, and performs color conversion processing on the enhanced corrected image signal BEP1 ( ⁇ 1). Output to the unit 101b.
  • the spectral estimation unit 101c generates and spectrally estimates at least one spectral image signal e1 by signal processing based on at least two imaging signals of return light from the subject, and the enhancement processing unit 101a
  • the signal e1 and the image signal of the return light imaged by the imaging device 2 that is the imaging means or imaging unit are subjected to processing for enhancing the spectral image signal e1, and the enhanced image signal is generated and output. .
  • the color conversion processing unit 101b includes a spectral estimation image signal e3 output from the spectral estimation unit 101c, an enhanced corrected image signal BEP1 ( ⁇ 1) enhanced by the enhancement processing unit 101a, and a real image signal R. Entered. As described above, the processing in the color conversion processing unit 101b is the same as the processing described in the first embodiment.
  • the three broadband lights B, G, and R in FIG. 23 may be obtained by the color filter of the image sensor 2A. That is, the three broadband lights B, G, and R may be obtained by using the light source device 4A described in the second embodiment and the color filter of the image sensor 2A. Therefore, also with the endoscope apparatus 1B of the present embodiment, the same effects as those of the endoscope apparatuses 1 and 1A described above can be obtained.
  • the wavelength of the signal having wavelength information on the longer wavelength side is the minimum of the absorption characteristic of hemoglobin in FIG.
  • Light in a wavelength band longer than the value ACmin here, the absorption coefficient at a wavelength of 730 nm
  • the wavelength of the signal having wavelength information on the longer wavelength side is a wavelength band in which the absorption coefficient is lower than the wavelength of the other signal and the scattering characteristics of the living tissue are suppressed, for example, 740 nm, 770 nm, 805 nm.
  • the same effect as described above can be obtained (for example, the wavelength of a signal having wavelength information on the longer wavelength side is 740 nm to When setting to any wavelength of 1300 nm, the wavelength of the other signal is set to any wavelength of 576 nm or more and at least 630 nm or less).
  • the interband calculation is performed between the image signal of the broadband light R and the spectral estimation image signal e1, but the present invention is not limited to this method, and the following modified method may be used.
  • the first method is to perform interband calculation between one narrowband light image signal Rn and the spectral estimation image signal e2.
  • FIG. 25 is a diagram showing spectral characteristics for explaining a case where interband calculation is performed between an image signal Rn of narrowband light in the vicinity of a wavelength of 600 nm ( ⁇ 1) and one spectral estimation image signal e2.
  • one narrow-band light is a narrow-band light Rn near a wavelength of 600 nm ( ⁇ 1), which is a realistic image signal.
  • One spectral estimation image signal is narrow (narrow wavelength around 630 nm estimated by spectral estimation) from three (or two) of two broadband light image signals B and G and one narrowband light image signal Rn.
  • the real image signal of the narrow band light since the real image signal of the narrow band light is used, the thick blood vessels in the deep part are displayed more emphasized than in the case of using the real image signal of the wide band as in FIG. The
  • FIG. 26 is a diagram for describing a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101B according to the first modification of the present embodiment.
  • three images that is, first to third image signals B, G, and Rn are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates two spectral estimation image signals e2 and e3 from the input three (or two) image signals.
  • the enhancement processing unit 101a performs enhancement processing by interband calculation on the image signal Rn and the spectral image signal e2 of the two spectral estimation image signals e2 and e3 obtained by the spectral estimation unit 101c.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the spectral estimation image signal e3, the enhancement-corrected image signal BEP1 ( ⁇ 1) obtained by the enhancement processing, and the image signal Rn to perform observation. Output to the monitor 5.
  • FIG. 27 is a diagram illustrating spectral characteristics for explaining a case where interband calculation is performed between an image signal Rn of narrowband light in the vicinity of a wavelength of 630 nm ( ⁇ 2) and one spectral estimation image signal e1.
  • the image signal in the processing for the image obtained from the image sensor 2 in the image processing unit 101B is an image signal shown in parentheses in FIG. That is, the enhancement processing unit 101a outputs the enhanced correction image signal BEP1 ( ⁇ 1), and the color conversion processing unit 101b performs color conversion processing by channel assignment on the enhancement corrected image signal BEP1 ( ⁇ 1) and the image signal Rn. Apply.
  • Three image signals of two broadband lights B and G and one narrowband light Rn have spectral characteristics as shown in FIG. 25 or FIG. 27 and use a rotary filter as shown in FIG. 2 in the light source device.
  • the return light of the three illumination lights (that is, the illumination lights of the two broadband lights B and G and the one narrowband light R) can be obtained by being applied to the monochrome imaging device.
  • three image signals of two broadband lights B and G and one narrowband light R may be obtained by a color filter of the image sensor 2A having spectral characteristics as shown in FIG. 25 or FIG. .
  • the spectral estimation unit 101c performs two spectral estimation image signals e1 (or e2) and e3 from the two wideband light image signals B and G and one narrowband light image signal Rn by spectral estimation processing. Is estimated.
  • a spectrally estimated image signal e1) of band light and a spectrally estimated image signal e3 of narrowband light having a wavelength near 540 nm are estimated.
  • the spectral estimated image signal e3 the enhanced corrected image signal BEP2 ( ⁇ 2) (or the enhanced corrected image signal BEP1 ( ⁇ 1)) obtained by the enhancement process, and the image signal Rn are output. Then, color conversion processing by channel assignment is performed and output to the observation monitor 5.
  • At least two spectral estimated image signals e2 (or e1) and e3 may be obtained by spectral estimation processing from the two broadband light image signals B and G, or one broadband light B (or At least two spectral estimation image signals e2 (or e1) and e3 may be obtained by spectral estimation processing from G) and one narrowband light image signal Rn.
  • FIG. 28 is a diagram showing spectral characteristics for explaining a case where one spectral estimated image signal e2 is estimated from three narrowband light image signals Bn, Gn, Rn.
  • the three narrowband lights are a narrowband light Rn near a wavelength of 600 nm, a narrowband light Gn near a wavelength of 540 nm, and a narrowband light Bn near a wavelength of 415 nm, which are realistic image signals.
  • One spectral image signal is a spectral estimation image signal e2 of narrowband light near a wavelength of 630 nm, and between the image signals of the narrowband light Rn near wavelength of 600 nm and the spectral estimation image signal e2 of narrowband light near a wavelength of 630 nm. The interband calculation is performed.
  • the two narrowband lights for example, illumination of narrowband light Gn near a wavelength of 540 nm and narrowband light Rn near a wavelength of 600 nm is irradiated, and the wavelength of the obtained two image signals Gn and Rn A spectral estimation image signal e2 of narrowband light near 630 nm is spectrally estimated, and an interband calculation is performed between the realistic image signal of the narrowband light Rn near wavelength 600 nm and the spectral estimation image signal e2. Also good.
  • FIG. 29 is a diagram for describing a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101B according to the second modification of the present embodiment.
  • three image signals that is, first to third image signals Bn, Gn, Rn are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates two spectral estimation image signals e2 from the input three (or two) image signals.
  • the enhancement processing unit 101a performs enhancement processing by interband calculation on the spectral estimation image signal e2 and the narrowband light Rn obtained by the spectral estimation unit 101c.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the two narrow-band lights Rn and Gn and the enhancement-corrected image signal BEP2 ( ⁇ 2) obtained by the enhancement processing, and thereby the observation monitor 5 Output to.
  • FIG. 30 is a diagram illustrating spectral characteristics for explaining a case where interband calculation is performed between an image signal Rn of narrowband light in the vicinity of a wavelength of 630 nm ( ⁇ 2) and one spectral estimation image signal e1.
  • the image signal in the processing for the image obtained from the image sensor 2 in the image processing unit 101B is an image signal shown in parentheses in FIG. That is, the enhancement processing unit 101a outputs the enhanced correction image signal BEP1 ( ⁇ 1), and the color conversion processing unit 101b performs color conversion processing by channel assignment on the enhancement corrected image signal BEP1 ( ⁇ 1) and the image signal Rn. Apply. Furthermore, the three narrowband light image signals Bn, Gn, Rn may be obtained by a color filter of the image sensor 2A having spectral characteristics as shown in FIG.
  • the color conversion processing unit 101b adds the image signal Bn of the narrowband light to the image signal of the two narrowband lights Gn and Rn and the spectral estimation image signal e1 (or e2), and further adds the image signal Bn of the four image signals. Color conversion processing may be performed. Alternatively, in addition to the narrow-band light image signal Bn, or using the fourth and fifth spectral estimation image signals obtained by spectral estimation different from the narrow-band light image signal Bn, color conversion processing is performed. Then, it may be displayed on the observation monitor 5.
  • the color filter when the color filter provided on the surface of the image sensor is used, the RGB type has been described as an example.
  • the color filter may be a complementary color filter. .
  • a relatively thick blood vessel in a relatively deep part of the biological mucous membrane is enhanced and displayed on the screen of the observation monitor 5. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the endoscope apparatus 1A described above can also display blood vessels in a portion close to the surface layer of the biological mucous membrane. Therefore, based on the state of the capillaries, for example, the degree of concentration or dispersion of the capillaries, the diagnosis of living tissue, for example, the diagnosis of the presence of cancer or the range diagnosis for identifying the range of cancer, It can also be used for differential diagnosis to determine malignancy. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels.
  • Modification 1 the light absorption characteristic of venous blood is taken as an example, and two narrowband lights are selected based on the characteristic, but the light absorption characteristic of arterial blood or Based on the light absorption characteristics of blood that combines both venous blood and arterial blood, at least two narrowband lights as described above may be selected.
  • the wavelength of each of the first narrowband light NL1 and the second narrowband light NL2 is 600 nm.
  • the light in the vicinity and the light in the vicinity of 630 nm are used.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 are preferably wavelengths in the range of 580 to 620 nm, respectively.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 are each 600 nm.
  • the light is not limited to light in the vicinity and light in the vicinity of a wavelength of 630 nm, and light of any wavelength may be used.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 respectively, the light near the wavelength 610 nm and the light near the wavelength 645 nm, or the light near the wavelength 630 nm and the light near the wavelength 660 nm are used. Also good.
  • the wavelength of the third narrowband light NL3 is not limited to this.
  • the wavelength of the third narrowband light NL3 light having a wavelength near 415 nm or light having a wavelength of 460 nm shorter than the wavelength 540 nm may be used.
  • light having a wavelength of about 415 nm or light having a wavelength of 460 nm, which is shorter than light having a wavelength of about 540 nm is desirable.
  • Modification 4 In the light source device of each embodiment and each modification described above (including the modification of each embodiment), it has been described that a lamp, LED, LD, or the like of a heat source is used, but other means are used. Also good. For example, a tunable laser may be used as the light source means or the light source unit, or broadband light may be generated by exciting a phosphor with an LED or LD, and the light may be used.
  • Modification 5 In the endoscope apparatus of each embodiment and each modification described above (including the modification of each embodiment), when radiating narrowband light, for example, narrowband light near a wavelength of 600 nm is generated by a laser, Narrow band light around a wavelength of 630 nm may be generated by an LED. Further, narrow band light near a wavelength of 600 nm may be generated by an LED, and narrow band light near a wavelength of 630 nm may be generated by a laser. When laser light is used, noise in the depth direction can be reduced.
  • FIG. 31 is a diagram for explaining a configuration of a processing unit that generates one of two narrowband lights from the other.
  • FIG. 32 is a diagram showing spectral characteristics for explaining the pseudo-generated narrowband light.
  • the first image signal P1 of the return light of the narrow band light near the wavelength of 600 nm is input to the filter calculation unit 103, and the filter calculation unit 103, for example, has a light and dark overall density with respect to the input first image signal P1.
  • the second image signal P2 is output as a pseudo image by performing filtering so that the difference between the two is reduced and the edge portion is inconspicuous.
  • the enhancement processing unit 101a performs enhancement processing on the first image signal P1 and the second image signal P2 that is a pseudo image.
  • the emphasis process may be performed by generating the other pseudo image from one image to be enhanced.
  • a pseudo image corresponding to the narrowband light near the wavelength of 630 nm is generated from the first image signal P1 of the return light of the narrowband light near the wavelength of 600 nm, but the narrowband near the wavelength of 630 nm is generated.
  • a pseudo image corresponding to the narrow-band light near the wavelength of 600 nm may be generated.
  • a pseudo image is generated with respect to a real return light image of illumination light, but one spectral estimation image in the second or third embodiment is replaced with another spectral estimation. You may use the pseudo image produced
  • FIG. 33 is a diagram illustrating the light absorption characteristics of venous blood for explaining the seventh modification.
  • one performs the enhancement processing on the first combination of the narrowband light NL1 near the wavelength 600 nm and the narrowband light NL2 near the wavelength 630 nm.
  • One is to perform enhancement processing on the second combination of the narrowband light NL12 near the wavelength of 650 nm and the narrowband light NL22 near the wavelength of 680 nm.
  • Which combination is selected can be selected by the user. For example, by selecting a mode, the user can select which combination is used for display.
  • a combination of a narrowband light near a wavelength of 615 nm and a narrowband light near a wavelength of 645 nm, a combination of a narrowband light near a wavelength of 630 nm and a narrowband light near a wavelength of 660 nm, or the like may be used.
  • the wavelength used is shifted to the longer wavelength side compared to the first combination, so that a deeper image is emphasized. Therefore, if the surgeon wants to emphasize deeper blood vessels, or if blood, bile, urine, etc. are attached to the mucosal surface of the living body, the desired blood vessel is emphasized by selecting the second combination. It can be displayed.
  • the enhancement processing for two or more combinations can be performed by increasing the number of combinations of rotation filters in the light source device or by increasing the number of spectral estimation image signals estimated by the spectral estimation processing.
  • wavelength near 580 nm and a wavelength near 630 nm and a wavelength near 590 nm and a wavelength near 630 nm there are two combinations of a wavelength near 580 nm and a wavelength near 630 nm and a wavelength near 590 nm and a wavelength near 630 nm. Is preferred.
  • the surgeon can select a longer wavelength side combination (for example, near a wavelength of 650 nm) when the concentration of blood or the like adhering to the mucosal surface of the living body is high. And a combination near the wavelength of 680 nm), and when the blood vessel is in a relatively shallow portion, or when the concentration of blood adhering to the mucosal surface of the living body is low, the combination on the shorter wavelength side ( For example, it is possible to highlight a desired blood vessel by selecting a combination of a wavelength near 580 nm and a wavelength near 630 nm.
  • the wavelength difference between the two narrowband lights for enhancement processing is constant, but one is fixed and the other is variable. It may be.
  • the narrowband light near a wavelength of 600 nm is fixed, and the other narrowband light can be arbitrarily set from a wavelength near 630 nm to near 730 nm. You may be able to do it.
  • the other narrow-band light near the wavelength of 730 nm may be fixed, and the variable from the wavelength near 590 nm to the narrow-band light near 620 nm may be set arbitrarily.
  • the narrowband light near 600 nm may be fixed, and the other narrowband light may be arbitrarily set in a wavelength band of 730 nm or more. In this way, by fixing one of the wavelength differences between the two narrow-band lights and making the other variable, it is possible to display a blood vessel in a desired region more emphasized.
  • Modification 9 In each of the above-described embodiments and modifications (including the modifications of each embodiment), three images are obtained and a narrowband image is displayed on the observation monitor 5.
  • a display image may be generated by appropriately selecting from four images so that an eye image is obtained.
  • the endoscope apparatus has a narrow-band light observation mode in addition to the normal light observation mode, and the operator performs various treatments by switching from the normal light observation mode to the narrow-band light observation mode when necessary.
  • a display image in each observation mode can be easily obtained.
  • a fourth image is obtained using a light source device that can further irradiate blue narrow-band light (or broadband light) having a wavelength shorter than 540 nm.
  • the light source device illuminates a first combination of light of the fourth wavelength and narrowband light near the wavelength of 600 nm, and a second combination of narrowband light near the wavelength of 540 nm and narrowband light near the wavelength of 630 nm. Illuminate the subject alternately with light. It is to be noted that illumination light of a combination of the fourth wavelength light, the narrow band light near the wavelength of 540 nm and the narrow band light near the wavelength of 600 nm and the illumination light of the narrow band light near the wavelength of 630 nm are alternately irradiated on the subject. It may be.
  • the return light of each illumination light is received by an image sensor having an RGB color filter.
  • the return light of the fourth wavelength is imaged in the B band of the color filter, and the return light of the narrow band light near the wavelength of 600 nm is imaged in the R band.
  • the color filter of the image sensor may be a complementary color type.
  • the image sensor may be a monochrome image sensor.
  • the normal image for the normal light observation mode includes four light beams of the fourth wavelength, the narrow band light near the wavelength 540 nm, the narrow band light near the wavelength 600 nm, and the narrow band light near the wavelength 630 nm. It is generated using an image of the return light.
  • the first narrowband light image is assigned to the B and G channels
  • the fourth wavelength light image signal is assigned to the R channel
  • the narrowband light image signal near the wavelength of 540 nm is assigned to the R channel.
  • the image is generated using two images of light of four wavelengths and narrowband light near a wavelength of 540 nm.
  • a second narrowband light image is generated using three images of a narrowband light having a wavelength near 540 nm, a narrowband light having a wavelength near 600 nm, and a narrowband light having a wavelength near 630 nm. Note that an image signal of narrowband light having a wavelength near 600 nm is subjected to enhancement processing.
  • a normal image for normal light observation and a narrow band light image for narrow band light observation can be displayed simultaneously, or a normal image and a narrow band light image can be superimposed and displayed.
  • the normal light image and the first narrowband light image (or the second narrowband light image) are displayed in parallel, or the first narrowband light image and the second narrowband light image are displayed in parallel.
  • an image signal of four wavelengths of light is used as a B channel, an image signal of a narrow band of light near a wavelength of 540 nm and an image signal of a narrow band of light near a wavelength of 600 nm as a G channel, and an image signal of a narrow band of light near a wavelength of 600 nm (or (Narrowband light image signal near 600 nm wavelength and Narrowband light image signal near 630 nm wavelength) are assigned to the R channel, and the superposition of the blood vessel information in the deep part added to the normal image generates an image and the observation monitor 5 can also be displayed.
  • the image signal of the fourth wavelength light is set to the B channel
  • the image signal of the fourth wavelength light and the image signal of the narrow band light near the wavelength of 600 nm are set to the G channel
  • the image signal of the narrow band light near the wavelength of 600 nm is set.
  • Or narrowband light image signal near wavelength 600 nm and narrowband light image signal near wavelength 630 nm are assigned to the R channel to generate an image that emphasizes both the blood vessels in the surface layer and the deep blood vessels. It can also be displayed on the observation monitor 5.
  • the image signal of the fourth wavelength may be generated by spectral estimation.
  • a normal image and a narrowband light image can be displayed in parallel or superimposed.
  • the blood vessels in the deep mucosa are clearly displayed without the complicated operation of drug administration.
  • a possible endoscopic device can be provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)

Abstract

 内視鏡装置1は、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する光源装置4と、光源装置4の照射に基づく被検体からの戻り光を撮像する撮像素子2と、ビデオプロセッサ7と、観察モニタ5とを含む。ビデオプロセッサ7は、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の画像信号NL1と、その第1の画像信号NL1よりも吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の画像信号NL2と、の差異に基づいて第1の画像信号NL1を強調する処理を施して強調補正した画像信号を生成する。

Description

内視鏡装置
 本発明は、内視鏡装置に関し、特に、被検体内部の血管を表示することが可能な内視鏡装置に関する。
 従来より、医療分野において、内視鏡を用いた低侵襲な各種検査や手術が行われている。術者は、体腔内に内視鏡を挿入し、内視鏡挿入部の先端部に設けられた撮像装置により撮像された被写体を観察し、必要に応じて処置具チャンネル内に挿通した処置具を用いて病変部に対して処置をすることができる。内視鏡を用いた手術は、開腹等をすることがないため、患者の身体的負担が少ないというメリットがある。
 内視鏡装置は、内視鏡と、内視鏡に接続された画像処理装置と、観察モニタとを含んで構成される。内視鏡挿入部の先端部に設けられた撮像素子により病変部が撮像され、そのモニタにその画像が表示される。術者は、そのモニタに表示された画像を見ながら、診断あるいは必要な処置を行うことができる。
 また、内視鏡装置には、白色光を用いた通常光観察だけでなく、内部の血管を観察するために、赤外光等の特殊光を用いた特殊光観察ができるものもある。 
 赤外内視鏡装置の場合、例えば、波長805nm付近の近赤外光に吸収ピークの特性を持つインドシアニングリーン(ICG)が薬剤として患者の血中に注入される。そして、光源装置から波長805nm付近及び930nm付近の赤外光を時分割で被写体に照射する。CCDで撮像された被写体像の信号は、赤外内視鏡装置のプロセッサに入力される。例えば、日本特開2000-41942号公報に開示のように、このような赤外内視鏡装置に関しては、プロセッサは、波長805nm付近の像を緑色信号(G)に、波長930nm付近の像を青色信号(B)に、割り当てて、モニタに出力する装置が、提案されている。ICGにより吸収の多い画像805nm付近の赤外光の像を、緑色に割り当てているので、術者は、ICG投与時の赤外画像をコントラスト良く観察できる。
 例えば、内視鏡を用いて、病変部の存在する粘膜下層を切開し、剥離する粘膜下層剥離術(以下、ESD(Endoscopic Submucosal Dissection)という)等では、電気メスなどによって粘膜中の比較的太い血管を切ってしまわないように、術者は、そのような血管の位置を確認して、切開等の処置を行う。重度の出血を起こすおそれのある血管は、粘膜下層から固有筋層を走行している。ESD等の手技において重度の出血が発生した場合、その都度止血作業をしなければならないので、手術時間が長くなってしまう。
 しかし、上述した赤外内視鏡装置を用いて、血管の位置を確認するためには、上述したように、ICG等の薬剤を静脈注射するという煩雑な作業が必要となる。 
 また、上記赤外内視鏡装置の場合、照明光の波長が近赤外光の波長であるため、画像における血管がぼやけてしまうという問題もある。
 そこで、本発明は、上述した問題に鑑みて成されたものであり、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することを目的とする。
 本発明の一態様の内視鏡装置は、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する照明部と、前記照明部の照射に基づく前記被検体からの戻り光を撮像する撮像部と、前記撮像部による撮像後、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の画像信号と、その第1の画像信号よりも前記吸収特性における値が低くかつ前記生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の画像信号と、の差異に基づいて前記第1の画像信号を強調する処理を施して強調補正した画像信号を生成する画像処理部と、前記強調補正した画像信号に基づき画像表示を行う表示部と、を備える。 
本発明の第1の実施の形態に関わる内視鏡装置の構成を示す構成図である。 第1の実施の形態に関わる回転フィルタ14の構成を示す図である。 第1の実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。 第1の実施の形態に関わる静脈血の光の吸収特性を示す図である。 第1の実施の形態に関わる、第1の狭帯域光NL1(λ1)と第2の狭帯域光NL2(λ2)の生体組織内における光の伝播ボリュームを説明するための図である。 第1の実施の形態に関わる、内視鏡画像における血管の強調表示を説明するための内視鏡画像の例を示す図である。 図6中のあるラインLLの画素値の輝度レベルを示す図である。 図6中のラインLLの画素毎の輝度比Uのレベルを示す図である。 図6中のラインLLの画素毎の強調された輝度比Vのレベルを示す図である。 図6中のラインLLの画素毎の波長600nm(λ1)付近の狭帯域光の戻り光の強調された輝度値のレベルを示す図である。 第1の実施の形態に関わる、画像処理部101における撮像素子2から得られた画像に対する処理の流れを説明するための図である。 第2の実施の形態に関わる内視鏡装置1Aの構成を示す構成図である。 第2の実施の形態に関わる、狭帯域光観察における全体の処理の流れを説明するための図である。 第2の実施の形態に関わる、3つの広帯域光の画像信号B,G,Rから3つの狭帯域光の分光画像信号e1,e2,e3を推定する場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、2つの広帯域光の画像信号と1つの狭帯域光の画像信号から、3つの狭帯域光の分光画像信号を推定する場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、1つの狭帯域光Rnが、推定される分光推定画像信号の狭帯域光を含まない場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、1つの広帯域光の画像信号と2つの狭帯域光の画像信号から、3つの狭帯域光の分光推定画像信号を推定する場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、3つの狭帯域光の画像信号から、3つの狭帯域光の分光推定画像信号を推定する場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、4つの狭帯域光の画像信号から、3つの狭帯域光の分光画像信号を推定する場合を説明するための分光特性を示す図である。 第2の実施の形態に関わる、画像処理部101Aにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 第3の実施の形態に関わる、回転フィルタ14Aの構成を示す図である。 第3の実施の形態に関わる、特殊光観察モードにおける全体の処理の流れを説明するための図である。 第3の実施の形態に関わる、画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 第3の実施の形態に関わる、3つ(あるいは2つ)の広帯域光の画像信号B,G,Rから2つの狭帯域光の分光推定画像信号e1,e3を推定する場合を説明するための分光特性を示す図である。 第3の実施の形態に関わる、波長600nm(λ1)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e2との間でバンド間演算を行う場合を説明するための分光特性を示す図である。 第3の実施の形態の変形例1の画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 第3の実施の形態の変形例1に関わる、波長630nm(λ2)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e1との間でバンド間演算を行う場合を説明するための分光特性を示す図である。 第3の実施の形態の変形例2に関わる、3つの狭帯域光の画像信号Bn,Gn,Rnから1つの分光推定画像信号e2を推定する場合を説明するための分光特性を示す図である。 第3の実施の形態の変形例2の画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 第3の実施の形態の変形例2に関わる、波長630nm(λ2)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e1との間でバンド間演算を行う場合を説明するための分光特性を示す図である。 各実施の形態について共通の変形例6に関する、2つの狭帯域光の一方から、他方を生成する処理部の構成を説明するための図である。 各実施の形態について共通の変形例6に関する、擬似的に生成される狭帯域光を説明するための分光特性を示す図である。 各実施の形態について共通の変形例7を説明するための、静脈血の光の吸収特性を示す図である 狭帯域照明光を中心波長10nm刻みで時系列的に照射可能な分光内視鏡装置を用いて動物の腹腔内を撮影した画像の模式図である。 図34の複数のモノクロ画像に対して各画像中のLine-A上の強度(対数表示された画素値)を縦軸に示したグラフである。
 以下、図面を参照して本発明の実施の形態を説明する。 
(第1の実施の形態)
(内視鏡装置の構成)
 以下、図面を参照して本発明の実施の形態を説明する。 
 まず、本実施の形態に関わる内視鏡装置の構成を説明する。図1は、本実施の形態に関わる内視鏡装置の構成を示す構成図である。
 図1に示すように、本実施の形態の内視鏡装置1は、体腔内に挿入し体腔内組織を撮像する生体画像情報取得手段あるいは生体画像情報取得部として撮像素子であるCCD2を有する電子内視鏡3と、電子内視鏡3に照明光を供給する光源装置4と、電子内視鏡3のCCD2からの撮像信号を信号処理して内視鏡画像を観察モニタ5に表示するビデオプロセッサ7とから構成される。内視鏡装置1は、通常光観察モードと狭帯域光観察モードの2つのモードを有する。なお、以下の説明では、内視鏡装置1の通常光観察モードは、従来の通常光観察モードと同じであるので、通常光観察モードの構成の説明は省略し、主として狭帯域光観察モードについて説明する。
 CCD2は、被検体に照射された照明光の戻り光を受光して被検体を撮像する撮像部あるいは撮像手段を構成する。 
 照明手段あるいは照明部としての光源装置4は、照明光(白色光)を発光するキセノンランプ11と、白色光の熱線を遮断する熱線カットフィルタ12と、熱線カットフィルタ12を介した白色光の光量を制御する絞り装置13と、照明光を面順次光にする帯域制限手段あるいは帯域制限部としての回転フィルタ14と、電子内視鏡3内に配設されたライトガイド15の入射面に回転フィルタ14を介した面順次光を集光させる集光レンズ16と、回転フィルタ14の回転を制御する制御回路17とを備えて構成される。キセノンランプ11、回転フィルタ14及びライトガイド15が、被検体に対して照明光を照明する照射部あるいは照射手段を構成する。
 図2は、回転フィルタ14の構成を示す図である。回転フィルタ14は、光源であるキセノンランプ11からの光を透過するフィルタである。波長帯域制限部あるいは波長帯域制限手段としての回転フィルタ14は、図2に示すように、円盤状に構成され、中心を回転軸とした構造となっており、2つのフィルタ群を有している。回転フィルタ14の外周側には、周方向に沿って、通常光観察用の分光特性の面順次光を出力するためのフィルタ組を構成するR(赤)フィルタ部14r,G(緑)フィルタ部14g,B(青)フィルタ部14bが、第1のフィルタ群として、配置されている。
 回転14の内周側には、周方向に沿って、3つの所定の狭帯域波長の光を透過させる3つのフィルタ14-600,14-630,14-540が、第2のフィルタ群として、配置されている。
 フィルタ14-600は、狭帯域光として、波長600nm(λ1)付近の光を透過させるように構成されている。フィルタ14-630は、狭帯域光として、波長630nm(λ2)付近の光を透過させるように構成されている。フィルタ14-540は、狭帯域光として、波長540nm(λ3)付近の光を透過させるように構成されている。
 ここで「付近」とは、波長600nm付近の場合は、中心波長が600nmで、波長600nmを中心に、幅が、例えば20nm(すなわち波長600nmの前後である波長590nmから610nm)の範囲の分布を有する狭帯域光であることを意味する。他の波長である、波長630nm、及び後述する波長540nmについても同様である。
 回転フィルタ14は、照明光の出射部であるキセノンランプ11からCCD2の撮像面に至る光路上に配置され、各モードにおいて、照明光の複数の波長帯域のうち少なくとも2つ(ここでは3つ)の波長帯域を狭めるように制限する。 
 そして、制御回路17は、回転フィルタ14を回転させるためのモータ18を制御して、回転フィルタ14の回転を制御する。
 モータ18には、ラック19aが接続され、ピニオン19bには、図示しないモータが接続され、ラック19aは、ピニオン19bに螺合するように取り付けられている。制御回路17は、ピニオン19bに接続されたモータの回転を制御することによって、回転フィルタ14を矢印dで示す方向に移動することができる。よって、制御回路17は、後述するユーザによるモード切替操作に応じて、通常光観察モードのときは第1のフィルタ群を、狭帯域光観察モードのときは第2のフィルタ群を、光路上に位置させるようにピニオン19bに接続されたモータを制御する。 
 なお、キセノンランプ11、絞り装置13、回転フィルタモータ18、及びピニオン19bに接続されたモータ(図示せず)には電源部10より電力が供給される。
 よって、光源装置4は 狭帯域光観察モードのとき、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光(ここでは、3つの狭帯域光)を照射する照明手段あるいは照明部を構成する。ここでは、3つの照明光のうち少なくとも1つ(ここでは3つ)は、表層から1~2mmの深部の血管を強調表示するための狭帯域光であり、残りの1つは、被検体の表層部から所定の距離だけ、ここでは表層近傍の範囲だけ、透過可能な第3の照明光としての狭帯域光である。
 ビデオプロセッサ7は、CCDドライバであるCCD駆動回路20、アンプ22、プロセス回路23、A/D変換器24、ホワイトバランス回路(以下、W.Bという)25、セレクタ100、画像処理部101、セレクタ102、γ補正回路26、拡大回路27、強調回路28、セレクタ29、同時化メモリ30、31,32、画像処理回路33、D/A変換器34,35,36、タイミングジェネレータ(以下、T.Gという)37、モード切替回路42、調光回路43、調光制御パラメータ切替回路44、制御回路200、及び、表示画像生成手段あるいは表示画像生成部としての合成回路201を備えて構成される。
 CCD駆動回路20は、電子内視鏡3に設けられたCCD2を駆動し、回転フィルタ14の回転に同期した面順次の撮像信号をCCD2に出力させるものである。また、アンプ22は電子内視鏡3の先端に設けられている対物光学系21を介してCCD2により体腔内組織を撮像した面順次の撮像信号を増幅するものである。
 プロセス回路23は、アンプ22を介した面順次の撮像信号に対して相関2重サンプリング及びノイズ除去等を行う。A/D変換器24は、プロセス回路23を経た面順次の撮像信号をデジタル信号の面順次の画像信号に変換する。
 W.B25は、A/D変換器24によりデジタル化された面順次の画像信号に対して、例えば画像信号のG信号を基準に画像信号のR信号と画像信号のB信号の明るさが同等となるようにゲイン調整を行い、ホワイトバランス処理を実行する。 
 なお、W.B25におけるホワイトバランス調整は、波長600nm付近の狭帯域光の戻り光の輝度を基準に行われる。 
 セレクタ100は、W.B25からの面順次の画像信号を画像処理部101内の各部に振り分けて出力する。
 画像処理部101は、前記セレクタ100からの通常光観察用のRGBの画像信号又は狭帯域光観察用の3つの画像信号を、表示用の画像信号に変換する画像信号処理部あるいは画像信号処理手段である。画像処理部101は、モード信号に基づく制御回路200からの選択信号SSに応じて、通常光観察モード時及び狭帯域光観察モード時の画像信号を、セレクタ102へ出力する。 
 セレクタ102は、画像処理部101からの通常光観察用画像信号と狭帯域光観察用画像信号の面順次の画像信号をγ補正回路26及び合成回路201に順次出力する。
 γ補正回路26は、セレクタ102あるいは合成回路201からの面順次の画像信号に対してγ補正処理を施す。拡大回路27は、γ補正回路26にてγ補正処理された面順次の画像信号を拡大処理する。強調回路28は、拡大回路27にて拡大処理された面順次の画像信号に輪郭強調処理を施す。セレクタ29及び同時化メモリ30、31,32は、強調回路28からの面順次の画像信号を同時化するためのものである。
 画像処理回路33は、同時化メモリ30、31,32に格納された面順次の各画像信号を読み出し、動画色ずれ補正処理等を行う。D/A変換器34,35,36は、画像処理回路33からの画像信号を、RGBのアナログの映像信号に変換し観察モニタ5に出力する。T.G37は、光源装置4の制御回路17から、回転フィルタ14の回転に同期した同期信号を入力し、各種タイミング信号を上記ビデオプロセッサ7内の各回路に出力する。
 また、電子内視鏡2には、通常光観察モード及び狭帯域光観察モードの切替のためのモード切替スイッチ41が設けられており、このモード切替スイッチ41の出力がビデオプロセッサ7内のモード切替回路42に出力されるようになっている。ビデオプロセッサ7のモード切替回路42は、制御信号を調光制御パラメータ切替回路44及び制御回路200に出力するようになっている。調光回路43は、調光制御パラメータ切替回路44からの調光制御パラメータ及びプロセス回路23を経た撮像信号に基づき、光源装置4の絞り装置13を制御し適正な明るさ制御を行うようになっている。
 ビデオプロセッサ7内の各回路は、指定されたモードに応じた所定の処理を実行する。通常光観察モードと狭帯域光観察モードのそれぞれに応じた処理が実行されて、観察モニタ5には、通常光観察用画像あるいは狭帯域光観察画像が表示される。観察モニタ5は、後述するように、強調補正した画像信号に基づき画像表示を行う表示手段あるいは表示部である。
(狭帯域光観察の全体の処理の流れ)
 次に、本実施の形態における狭帯域光観察の全体の大まかな流れを簡単に説明する。図3は、本実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。 
 術者は、内視鏡の挿入部を体腔内に挿入し、通常光観察モード下で、内視鏡挿入部の先端部を病変部近傍に位置させる。術者は、処置対象の病変部を確認すると、粘膜下層から固有筋層を走行する、比較的太い、例えば直径が1~2mmの、深部の血管を観察するために、モード切替スイッチ41を操作して、内視鏡装置1を狭帯域光観察モードに切り替える。
 狭帯域光観察モード下では、内視鏡装置1の制御回路17は、第2のフィルタ群を透過した光を、光源装置4から出射するように、ピニオン19bに接続されたモータを制御して、回転フィルタ14の位置を移動させる。さらに、制御回路200も、狭帯域波長による観察のための画像処理を行うように、ビデオプロセッサ7内の各種回路を制御する。
 図3に示すように、狭帯域光観察モードでは、照明光発生部51から、狭帯域波長の照明光が、内視鏡3の挿入部の先端部から出射され、粘膜層を透過して、粘膜下層及び固有筋層を走行する血管61に照射される。ここで、照明光発生部51は、光源装置4、回転フィルタ14、ライトガイド15等を含んで構成され、内視鏡挿入部の先端から照明光を出射する。回転フィルタ14の回転により、波長600nm付近の狭帯域光、波長630nm付近の狭帯域光、及び波長540nm付近の狭帯域光が、連続的にかつ順番に光源装置4から出射されて、被写体に照射される。
 波長600nm付近の狭帯域光、波長630nm付近の狭帯域光、及び波長540nm付近の狭帯域光の反射光は、それぞれCCD2である反射光受光部52により受光される。CCD2は、それぞれの反射光の撮像信号を出力し、アンプ22等を介して、セレクタ100へ供給される。セレクタ100は、T.G37からの所定のタイミングに応じて、波長600nm付近の第1の画像信号P1、波長630nm付近の第2の画像信号P2及び波長540nm付近の第3の画像信号P3を保持して、画像処理部101に供給する。画像処理部101は、狭帯域光観察モードのための、強調処理部101aと色変換処理部101bを含む。
 内視鏡装置1を用いて、例えば胃、食道、大腸などの消化管の内壁の病変部の存在する粘膜下層を切開し、剥離するESDでは、術者は、電気メスなどによって組織中の比較的太い血管を切ってしまわないようにしなければならない。術者は、内視鏡装置1を狭帯域光観察モードに設定すると、生体組織の表面下の血管を明瞭に描画することができる。
 図1の画像処理部101の強調処理部101aにおいて、血管61の画像強調のための後述する画像処理を行い、色変換処理部101bにおいて、各画像信号を、観察モニタ5のRGBの各チャンネルに割り当て、セレクタ102に供給する。その結果、観察モニタ5の画面5a上には、粘膜深部の比較的太い血管61が、高いコントラストで表示される。よって、術者は、観察モニタ5に表示された、粘膜下層及び固有筋層を走行する血管61に注意しながら、病変部にESDを施すことができる。 
 ここで、静脈血の光の吸収特性について説明する。図4は、静脈血の光の吸収特性を示す図である。図4の縦軸は、モル吸光係数(cm-1/M)であり、横軸は、波長である。なお、3つの狭帯域光の照明光は、生体組織自体の散乱特性の影響も受けるが、生体組織自体の散乱特性は、波長の増加に対して略単調減少であるため、図4を、生体組織の吸収特性として説明する。
 一般に、静脈血には、酸化ヘモグロビン(HbO2)と還元ヘモグロビン(Hb)(以下、両者を合わせて単にヘモグロビンという)が、略60:40~80:20の割合で含まれている。光はヘモグロビンにより吸収されるが、その吸収係数は、光の波長毎で異なっている。図4は、400nmから略800nmまでの波長毎の静脈血の光の吸収特性を示し、550nmから、750nmの範囲において、吸収係数は、略波長576nmの点で極大値を示し、波長730nmの点で極小値を示している。
 狭帯域光観察モードでは、3つの狭帯域光が照射され、それぞれの戻り光が、CCD2において受光される。 
 波長600nm付近の狭帯域光(以下、第1の狭帯域光NL1という)は、ヘモグロビンの吸収特性の極大値ACmax(ここでは波長576nmにおける吸収係数)から極小値ACmin(ここでは波長730nmにおける吸収係数)の波長帯域R内の波長帯域の光である。
 波長630nm付近の狭帯域光(以下、第2の狭帯域光NL2という)も、ヘモグロビンの吸収特性の極大値ACmaxから極小値ACminの波長帯域R内の光であるが、第1の狭帯域光NL1の波長よりも長く、吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域の光である。散乱特性が抑制されているとは、散乱係数が、長波長側に向かって低くなっていることを意味する。
 すなわち、光源装置4は、生体組織の吸収特性において極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で分光特性のピーク波長を有する第1の照明光NL1と、第1の照明光NL1による画像信号P1より吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の照明光NL2と、を照射する。
 波長540nm付近の狭帯域光(以下、第3の狭帯域光NL3という)は、ヘモグロビンの吸収特性の極大値ACmaxから極小値ACminの波長帯域R外の波長帯域の光であり、被検体の粘膜表面の表層部から所定の距離だけ透過可能な照明光である。 
 CCD2は、3つの狭帯域光の各画像の撮像信号を出力する。よって、各画像は、第1、第2及び第3の狭帯域光NL1,NL2,NL3の各戻り光に基づく、複数の画素信号を含む。
 さらに、照明光である第1の狭帯域光NL1と第2の狭帯域光NL2の生体組織内における光の伝播について説明する。図5は、第1の狭帯域光NL1(λ1)と第2の狭帯域光NL2(λ2)の生体組織内における光の伝播ボリュームを説明するための図である。第1の狭帯域光NL1と第2の狭帯域光NL2のそれぞれは、生体組織内で多重散乱過程を繰り返しし、その結果戻り光として粘膜表面から出射される。第1の狭帯域光NL1と第2の狭帯域光NL2は、それぞれ平均自由行程MFP1,MFP2を有する。そして、第1の狭帯域光NL1の平均自由行程MFP1は、第2の狭帯域光NL2の平均自由行程MFP2よりも短い。
 図5に示すように、波長600nm(λ1)の第1の狭帯域光NL1は、血管61の近傍まで到達し、波長630nm(λ2)の第2の狭帯域光NL2は、血管61よりもわずかに深い位置まで到達する。このような2つの狭帯域光を用い、かつ後述するような強調処理を行うことによって、比較的深部の血管画像の強調表示が可能となる。
 そのため、2つの狭帯域光は、次の要件を満たす光が使用される。 
 まず、本実施の形態で使用される2つの狭帯域光、すなわち第1の狭帯域光NL1と第2の狭帯域光NL2は、粘膜表面62から生体組織内の深部にある血管61を画像化するために、可視光の波長帯域内では、比較的、長波長光である。よって、第1の狭帯域光NL1と第2の狭帯域光NL2は、共に比較的、粘膜表面62から生体組織内の深部にある血管61の近辺まで到達することができる。そのため、本実施の形態では、第1の狭帯域光NL1として、波長600nm(λ1)付近の狭帯域光が、第2の狭帯域光NL2として、波長630nm(λ2)付近の狭帯域光が用いられている。
 さらに、本実施の形態で使用される2つの狭帯域光、すなわち第1の狭帯域光NL1と第2の狭帯域光NL2は、2つの狭帯域光の波長差が比較的小さい光である。言い換えると、2つの狭帯域光、すなわち第1の狭帯域光NL1と第2の狭帯域光NL2の平均自由行程MFP1,MFP2の差が小さい光が選択される。平均自由行程は、光の平均的な進達距離であり、散乱係数の関数である。
 さらに、本実施の形態で使用される2つの狭帯域光、すなわち第1の狭帯域光NL1と第2の狭帯域光NL2は、2つの狭帯域光の波長差が比較的小さい光であっても、2つの狭帯域光の吸収の差は、比較的大きい光が選択される。本実施の形態では、第1の狭帯域光NL1として、波長600nm(λ1)付近の狭帯域光が、第2の狭帯域光NL2として、波長630nm(λ2)付近の狭帯域光が用いられており、図4に示すように、第1の狭帯域光NL1のモル吸光係数DA1と、第2の狭帯域光NL2のモル吸光係数DA2の差は、波長650nm以上の波長帯域(例えば波長700nm付近)において、同じ波長差(例えば30nm)の2つの狭帯域光(例えば、波長700nm付近の狭帯域光と波長730nm付近の狭帯域光)を選択した場合の吸収の差よりは、大きい。
 すなわち、本実施の形態で使用される2つの狭帯域光、すなわち第1の狭帯域光NL1と第2の狭帯域光NL2は、2つの狭帯域光の波長差が比較的小さく、かつ2つの狭帯域光の吸収の差は比較的大きい光である。このような2つの狭帯域光を用いることで、表示させたくない、例えば、表層から数百ミクロンの深さの毛細血管等が表示されなくなるので、表示させたい1~2mm深部の比較的太い血管のみを低ノイズで強調して表示されることができる。ただし、例えば波長600nmと波長680nmのように2つの狭帯域光の波長差が大きくとも、吸収の差そのものが大きければ前述の波長差が小さい組み合わせ(例えば、波長600nmと波長630nm)と同様に深部血管を高コントラストに表示させることができる。
 図34は狭帯域照明光を中心波長10nm刻みで時系列的に照射可能な分光内視鏡装置を用いて動物の腹腔内を撮影した画像の模式図である。具体的には、540nm、600nm、630nmの各モノクロ画像を各々Bチャンネル、Gチャンネル、Rチャンネルに割り当てた画像を示す。画像中の血管V1、及び、血管V2は画像中の左上方向から右下方向に走行する太い血管である。血管V2よりも血管V1の方が粘膜表面から深くに位置する。ここでは、540nmから680nmに渡って10nmステップで計15パターンのモノクロ画像を撮影した。
 図35は図34の複数のモノクロ画像に対して各画像中のLine-A上の強度(対数表示された画素値)を縦軸に示したグラフである。図35の横軸は各画像中のLine-A上の画素の位置である。血管V1は画素の位置が25~50付近、血管V2は画素の位置が75~110付近に存在する。比較的浅部に存在する血管V2、及び、深部に位置する血管V1の両方の血管において強度が減衰している照明波長、つまり、血管V1および血管V2において照明光が強く吸収される波長は、図35から略590nm~620nmであることが分かる。
 したがって、比較的浅い部分から深部に存在する血管を検知するには、略590nm~620nmの狭帯域光が重要な波長情報となる。血管V1は粘膜表面からおよそ1mm~2mm程度深い部分に存在する。なお、本実験結果は、前記のBeer-Lambertによる理論計算結果(波長600nmの前後15nmの間の狭帯域光を用いることによって、比較的太い血管が高いコントラストで表示可能となる)と略一致する。
 以上のように、光源装置4を含む照明手段あるいは照明部は、生体組織の吸収特性において極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で、分光特性のピーク波長を有する照明光である狭帯域光NL1と、狭帯域光NL1による戻り光の吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有する照明光である照明光NL2と、を照射する。
 さらに、光源装置4を含む照明手段あるいは照明部は、被検体の表層部から所定の距離だけ透過可能な第3の照明光NL3も照射する。
(画像処理部の強調処理)
 次に、画像処理部101における処理について説明する。図6は、内視鏡画像における血管の強調表示を説明するための内視鏡画像の例を示す図である。 
 通常光観察モードでは、撮像された内視鏡画像EI内には、表層部から1~2mmの深部の血管は、観察モニタ5の内視鏡画像EI上には表示されない、または、表示されにくい。
 これに対して、狭帯域光観察モードでは、撮像された内視鏡画像EI内に深部の血管が存在すると、血管は内視鏡画像EI上に表示される。図6に示すように、胃の粘膜表面下に、血管61(点線で示す)が存在するとして、画像処理部101の処理について説明する。
 2つの狭帯域光NL1,NL2によるそれぞれの画像が、画像処理部101へ入力される。各画像は、複数のラインから構成され、各ラインは、複数の画素を含む。 
 強調処理部101aは、各画像のライン毎に次の処理を行う。強調処理部101aでは、深部の血管61のコントラストを拡大するように、第1の狭帯域光NL1と第2の狭帯域光NL2の照射により得られた2つの画像について、バンド間演算が行われる。
 バンド間演算について、図6と図7を用いて説明する。 
 図7は、図6中のあるラインLLの画素値の輝度レベルを示す図である。図7の横軸は、内視鏡画像EIにおけるライン方向に沿って並んだ画素位置を示し、縦軸は、各画素位置の画素の輝度値を示す。図7において、実線で示す輝度値分布RL1は、第1の狭帯域光NL1の戻り光の輝度プロファイルすなわち輝度値分布であり、一点鎖線で示す輝度値分布RL2は、第2の狭帯域光NL2の戻り光の輝度値分布である。一点鎖線で示す輝度値分布RL2の輝度が実線で示す輝度値分布RL1の輝度より高いのは、第1の狭帯域光NL1よりも、第2の狭帯域光NL2のヘモグロビンの吸収係数が低いからである。ここでは、図6に示すように、ラインLLは、左からn個の画素を含み、ラインLL上の画素位置PP1からPP2の範囲が、血管61の存在する範囲である。
 この場合、図7に示すように、第1の狭帯域光NL1の輝度値分布RL1では、輝度値は、血管61の存在する画素位置PP1からPP2の範囲RVでは低くなる。これは、第1の狭帯域光NL1が血管61のヘモグロビンによって強く吸収されるためである。ラインLL以外のラインにおいても、第1の狭帯域光NL1の戻り光の輝度値は、血管61の存在する範囲RVでは低くなる。
 また、第2の狭帯域光NL2の輝度値分布RL2では、図7に示すように、輝度値は、血管61の存在する画素位置PP1からPP2の範囲RVも含めて、略同じである。これは、第2の狭帯域光NL2は、血管1を透過して吸収の影響をあまり受けずに生体組織の内部まで到達して戻ってくるからである。ラインLL以外のラインにおいても、第2の狭帯域光NL2の戻り光の輝度値は、血管61の存在する範囲RVを含む範囲において、略同じである。
 なお、図7において、第1の狭帯域光NL1の戻り光についての、ラインLL上の複数の画素の輝度値の平均値(以下、平均輝度という)は、点線AV1で示され、第2の狭帯域光NL2の戻り光についての、ラインLL上の複数の画素の輝度値の平均輝度は、点線AV2で示されている。 
 そこで、強調処理部101aは、図7のように示されるライン毎の各画素について、次の式(1)の処理を行う。
 U=(Im(λ1)/Im(λ2))×K-1     ・・・式(1)
 ここで、Uは、輝度比であり、Imは、画素毎の輝度であり、Im(λ1)は、波長600nm(λ1)付近の狭帯域光の戻り光の輝度値であり、Im(λ2)は、波長630nm(λ2)付近の狭帯域光の戻り光の輝度値であり、Kは、補正係数であり、例えば、次の式(2)の値を用いてもよい。
 K=(AVE(λ2)/AVE(λ1))       ・・・式(2)
 ここで、AVEは、各ラインの平均輝度であり、AVE(λ1)は、波長600nm(λ1)付近の狭帯域光の戻り光の輝度値の平均値であり、AVE(λ2)は、波長630nm(λ2)付近の狭帯域光の戻り光の輝度値の平均値である。図7において、点線AV1が、AVE(λ1)の線を示し、点線AV2が、AVE(λ2)の線を示す。
 そして、補正係数Kにより、第1の狭帯域光NL1と第2の狭帯域光NL2の照射により得られた2つの画像の平均輝度が調整される。
 ラインLLにおける上記式(1)により算出した輝度比Uは、図8のようになる。図8は、図6中のラインLLの画素毎の輝度比Uのレベルを示す図である。図8の横軸は、内視鏡画像EIにおけるライン方向に沿って並んだ画素位置を示し、縦軸は、各画素位置の画素の輝度比Uを示す。式(1)にマイナス1(-1)が含まれるので、輝度比Uの分布は、0を基準とした分布となる。すなわち、図8において、点線で示す輝度値分布RL3は、第1の狭帯域光NL1の戻り光の輝度値を補正した分布ということができる。 
 輝度比Uに対して次の式(3)による演算が行われる。
 V=U×R                   ・・・式(3)
 ここで、Vは、補正した輝度比を示し、Rは、血管強調レベルを指定するパラメータである強調係数である。 
 ラインLLにおける上記式(3)により強調された輝度比Vは、図9のようになる。図9は、図6中のラインLLの画素毎の強調された輝度比Vのレベルを示す図である。図9の横軸は、内視鏡画像EIにおけるライン方向に沿って並んだ画素位置を示し、縦軸は、各画素位置の画素の輝度比Uを示す。すなわち、図9において、実線で示す輝度値分布RL4は、一点鎖線の矢印A1で示すように、点線で示す輝度値分布RL3を強調する補正をした分布ということができる。
 式(3)により算出された輝度比Vから、次の式(4)により輝度値が算出される。
 ImA(λ1)=Im(λ1)×(V+1)         ・・・式(4)
 ここで、ImA(λ1)は、波長600nm(λ1)付近の狭帯域光の戻り光の輝度値の補正後の輝度値である。 
 ラインLLにおける上記式(4)により強調された輝度値ImA(λ1)は、図10のようになる。図10は、図6中のラインLLの画素毎の波長600nm(λ1)付近の狭帯域光の戻り光の強調された輝度値のレベルを示す図である。図10の横軸は、内視鏡画像EIにおけるライン方向に沿って並んだ画素位置を示し、縦軸は、各画素位置の画素の輝度値ABを示す。すなわち、図10において、実線で示す輝度値分布RL5は、2点鎖線で示す輝度値分布RL1を強調する補正をした分布ということができる。その結果、強調処理部101aは、第1の画像信号P1(λ1)をバンド間演算により強調補正した強調補正画像信号BEP1(λ1)を出力する。
 なお、強調処理は、次のような方法によって行ってもよい。上述した強調処理は、2つの波長の画像の各画素の輝度値の比率を求め、輝度比に対して補正係数を乗算等することによって、血管画像の強調を行っているが、第1の狭帯域光NL1と第2の狭帯域光NL2の照射により得られた2つの画像について、例えば、次の式(5)に示すように、各画素値の除算を行い、その除算結果を、第1の狭帯域光NL1の照射により得られた画素値に乗算して、血管画像の強調を行うようにしてもよい。
 ImA1(λ1)=Im(λ1)×(Im(λ1)/Im(λ2))    ・・・式(5)
 ここで、ImA1(λ1)は、波長600nm(λ1)付近の狭帯域光の戻り光の輝度値の補正後の輝度値である。 
 式(5)のような除算を用いた強調処理によっても、深部の血管のコントラストをすることができる。
 さらになお、強調処理は、次のような方法によって行ってもよい。第1の狭帯域光NL1と第2の狭帯域光NL2の照射により得られた2つの画像について、例えば、次の式(6)に示すように、各画素値の減算を行い、その減算結果の絶対値を、第1の狭帯域光NL1の照射により得られた画素値に乗算して、血管画像の強調を行うようにしてもよい。
 ImA2(λ1)=Im(λ1)×|Im(λ2)-Im(λ1)|    ・・・式(6)
 ここで、ImA2(λ1)は、補正した波長600nm(λ1)付近の狭帯域光の戻り光の輝度値である。 
 式(6)のような減算を用いた強調処理によっても、深部の血管のコントラストをすることができる。
 従って、画像処理部101aは、撮像手段あるいは撮像部による撮像後、生体組織の吸収特性において、極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で分光特性のピーク波長を有する第1の画像信号P1(λ1)と、その第1の画像信号P1(λ1)よりも吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の画像信号P2(λ2)と、の変化量すなわち差異に基づいて第1の画像信号P1(λ1)を強調する処理を施して強調補正した画像信号を生成する画像処理手段あるいは画像処理部を構成する。
(画像処理部の色変換処理)
 次に、色変換処理部101bにおける処理について説明する。色変換処理部101bには、第2の画像信号P2(λ2)と、第3の画像信号P3(λ3)と、強調補正画像信号BEP1(λ1)が入力される。 
 色変換処理部101bでは、第2の画像信号P2(λ2)と、第3の画像信号P3(λ3)と、強調補正画像信号BEP1(λ1)とを、RGBチャンネルに割り当てる処理が行われる。
 ここでは、例えば、次の式(7)により、強調補正画像信号BEP1(λ1)の輝度値ImA(λ1)、第2の画像信号P2(λ2)の輝度値Im(λ2)及び第3の画像信号P3(λ3)の輝度値Im(λ3)が、RGBチャンネルに割り当てられる。
Figure JPOXMLDOC01-appb-M000001
 式(7)によれば、深部の比較的太い血管61は、やや赤っぽい色で表示されるので、術者に分かり易い。 
 また、第3の狭帯域光NL3として波長540nm付近の狭帯域光を用いているので、比較的生体組織の表面から浅い領域に存在する毛細血管や出血は、略黄色で表示される。
 なお、色変換処理101bでは、上記の式(7)に代えて、次の式(8)を用いてもよい。
Figure JPOXMLDOC01-appb-M000002
 式(8)によれば、深部の血管61は、やや青色あるいは青緑色で示されると共に、表層の毛細血管も赤色~茶色で表示されるので、術者に分かり易い。
 さらになお、色変換処理101bでは、上記の式(7)に代えて、次の式(9)を用いてもよい。
Figure JPOXMLDOC01-appb-M000003
 さらになお、色変換処理101bでは、上記の式(7)に代えて、次の式(10)を用いてもよい。ここでαは略1.0~1.5、βは略2.0~2.6、γは略2.5~3.3の数値をとる(例えば、α:β:γ=0.56:1.00:1.17)。この場合、深部血管の色調は青緑色、粘膜の色調は通常観察と類似するため術者がストレスなく観察しやすい。また、αは略2.3~2.7、βは略2.3~2.7、γは略1.7~2.1の数値(例えば、α:β:γ=1.00:1.00:0.76)とすることで、表層および深部の血管の観察が容易となる。
Figure JPOXMLDOC01-appb-M000004
 なお、色変換処理部101bにおけるチャンネル割当ての他の例について説明する。例えば、治療時には、上記式(7)に代えて、波長540nm付近の狭帯域光をBチャンネルに、波長630nm付近の狭帯域光をGチャンネルに、波長600nm付近の狭帯域光(すなわち強調補正画像信号BEP1(λ1))をRチャンネルに割り当てるようにしてもよい。
 また、診断時には、波長540nm付近の狭帯域光をBチャンネルとGチャンネルに、波長600nm付近の狭帯域光もしくは波長630nm付近の狭帯域光をRチャンネルに割り当てるようにしてもよい。
 ここで、色バランス調整について説明する。 
 例えば、式(7)のように、波長540nm付近の狭帯域光をBチャンネルに、波長600nm付近の狭帯域光をGチャンネルに、波長630nm付近の狭帯域光をRチャンネルに割り当てる場合、Rチャンネルの信号に対して、Bチャンネルの信号を増幅することが望ましい。波長600nm付近の狭帯域光の信号強度は、補正しないで、Bチャンネルに割り当てられる波長540nm付近の狭帯域光の信号強度が、Rチャンネルに割り当てる波長630nm付近の狭帯域光の信号強度の0.7~2.5倍になるように、2つの信号が調整される。なお、色バランス調整を行った後に色変換処理を行ってもよいし、色変換処理後に色バランス処理を行ってもよい。
 これにより、粘膜、白色調の繊維組織、黄色の出血、黒色の炭化領域、及び、色調が赤色からマゼンダ色の太い血管の間における色調の差がより顕著になり、術者にとって処置あるいは診断が、よりし易い表示画像を得ることができる。
 このような色バランス調整のための色バランス調整回路は、図1のW.B25の前段に設けてもよい。その場合、波長540nm付近の狭帯域光と波長630nm付近の狭帯域光の照明光の強度が略等しいときは、色バランス調整回路は、Bチャンネルに割り当てられる波長540nm付近の狭帯域光の信号を、0.7~1.5倍程度し、Rチャンネルに割り当てる波長630nm付近の狭帯域光の信号を、0.6~1.0倍程度にする。 
 なお、色バランス調整は、色変換処理部101bにおいて行うようにしてもよいし、あるいは光源装置4において照明光の強度を調整して行うようにしてもよいし、撮像素子のカラーフィルタの各色の透過度を調整して行うようにしてもよい。
(画像処理部における全体の処理の流れ)
 次に、画像処理部101における撮像素子2から得られた画像に対する処理の流れを説明する。図11は、画像処理部101における撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図11に示すように、撮像素子2からの3つの画像は、第1から第3の画像信号P1,P2,P3として、画像処理部101に入力される。入力された3つの画像のうち、2つの画像信号P1とP2に対して、バンド間演算による強調処理が強調処理部101aで行われる。色変換処理部101bは、第2の画像信号P2と第3の画像信号P3と、強調処理されて得られた強調補正画像信号BEP1(λ1)とに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 以上のように、図4に示したような生体組織の吸収特性の極大値から極小値の間における上述したような吸収特性を有する2つの狭帯域光を、生体粘膜に照射して、その得られた2つの戻り光の画像に対して、強調処理を行うことにより、生体粘膜の比較的深部にある、比較的太い血管が強調され、観察モニタ5の画面上に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、上述した内視鏡装置1では、第3の狭帯域光NL3を用いて、生体粘膜の表層部に近い部分にある血管も表示可能となっている。 
 例えば、波長540nm付近の第3の狭帯域光NL3を用いているので、表層部の毛細血管の状態も、太い血管と同時に、観察モニタ5の画面上に表示される。よって、術者は、観察モニタ5の画面上の内視鏡画像を、処置だけでなく、毛細血管の状態、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。
 なお、上述した光源装置4は、キセノンランプ11と回転フィルタ14等を用いて、所望の波長帯域の照明光を生成するが、内視鏡装置1においては、点線で示すように、光源装置4は、所望の波長、例えば、第1のフィルタ群に対応するRGBの各波長と、第2のフィルタ群に対応する600nm付近と630nm付近の各波長を出射する複数の発光ダイオード(LED)からなる発光ダイオード群11aを有する発光部11Aを含むように構成してもよい。その場合、発光部11A及びライトガイド15が、被写体に照明光を照射する照射部を構成する。
 例えば、図1において、キセノンランプ11、熱線カットフィルタ12、絞り装置13,回転フィルタ14等の代わりに、光源装置4に、点線で示す発光部11Aを設ける。さらに、光源装置4には、発光部11Aの各発光ダイオードを、各モードに応じて、所定のタイミングで駆動するための駆動回路11bが設けられる。複数のLED11aを有する発光部11Aが、電源10から電源を受け、制御回路17からの制御信号の下で、駆動回路11bにより制御されて駆動される。 
 このような光源装置を用いても、上述した内視鏡装置1を構成しても、上述した効果と同様の効果を得ることができる。 
 なお、発光部11Aは、所定の複数の狭帯域光を出射するレーザダイオード(LD)を用いてもよい。
 また、光源装置にキセノン光源、LED、LDの何れを搭載した場合においても、CCD2はモノクロ撮像素子でなく、波長帯域制限手段あるいは波長帯域制限部としての、RGBカラーフィルタ、もしくは、補色系のカラーフィルタを設けても上述した効果と同等の効果を得ることができる。
 また、図4に示す第2の狭帯域光NL2はヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、第2の狭帯域光NL2の波長は、第1の狭帯域光NL1の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、狭帯域光NL2を740nm~1300nmのいずれかの波長に設定する場合、狭帯域光NL1は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。なお、第2の狭帯域光NL2は、光源装置としてキセノン光源、LED、LDの何れを搭載した場合でも生成することができる。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(第2の実施の形態)
 第1の実施の形態では、少なくとも1つの狭帯域光を照明光として生体組織に実際に照射して、その戻り光の画像に対して上述した強調処理が行われているが、本実施の形態では、生体組織に少なくとも1つの狭帯域光を実際に照射しないで、いわゆる分光推定により各狭帯域光の戻り光の画像情報を得て、その分光推定により得られた各波長の分光画像信号に対して上述したような強調処理が行われる。すなわち、上述した第1の実施の形態では、第1と第2の狭帯域光NL1,NL2は、回転フィルタあるいは発光ダイオードなどの発光素子を有する照明装置により生成されて、それらの戻り光の画像に対して強調処理が行われるが、本実施の形態では、第1と第2の狭帯域光NL1,NL2に対応する画像信号を、分光推定処理により得て、その分光推定により得られた分光推定画像信号に対して強調処理が行われる。
 図12は、第2の実施の形態に関わる内視鏡装置1Aの構成を示す構成図である。図12において、図1と同じ構成要素については、同一符号を付して説明は省略する。 
 図12に示すように、光源装置4Aは、白色光を出射するランプ11Bと、熱線カットフィルタ12及び絞り装置13を含んで構成される。光源装置4Aからの照明光は、ライトガイド15を介して、被写体へ照射される。なお、ランプ11Bは、白色光以外の光を出射するものでもよい。
 内視鏡3の挿入部の先端に設けられた撮像素子2Aは、カラー撮像素子である。撮像素子2Aは、例えばカラーCCDであり、撮像面上に、RGBのカラーフィルタを有する。被写体からの戻り光は、波長帯域制限手段あるいは波長帯域制限部である、RGBのカラーフィルタを介して撮像面の各画素部により受光され、RGBの3色の画像信号が、撮像素子2Aから出力される。 
 セレクタ100Aは、RGBの3つの画像信号を、画像処理部101Aに出力する。画像処理部101Aは、分光推定部を有し、狭帯域光観察モードのときは、波長600nm付近の分光推定画像信号、波長630nm付近の分光推定画像信号及び波長540nm付近の分光推定画像信号を出力する。
 図13は、本実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。図13において、図3と同じ構成要素は、同一符号を付して説明は省略する。画像処理部101Aは、強調処理部101aと色変換処理部101bに加えて、分光推定部101cを含む。分光推定部101cは、RGBの3つの画像から、波長600nm付近の第1の分光推定画像信号e1と、波長630nm付近の第2の分光推定画像信号e2と、波長540nm付近の第3の分光推定画像信号e3を、分光推定処理により抽出して強調処理部101aへ出力する。
 具体的には、分光推定部101cは、3入力から、予め与えられている先験情報に基づいてn次元の分光画像をマトリックス演算により算出して、算出されたn次元の分光推定画像信号の中から選択的にe1,e2,e3を出力する。分光推定部101cは、マトリックス演算等を用いて、波長600nm付近の分光推定画像信号e1と波長630nm付近の分光推定画像信号e2と波長540nm付近の分光推定画像信号e3を算出して出力するように構成されている。
 分光推定部101cから出力された第1、第2及び第3の分光推定画像信号についてのその後の強調処理部101a及び色変換処理部101bにおける処理は、上述した第1の実施の形態で説明した処理と同じである。
 図14は、3つの広帯域光の画像信号B,G,Rから3つの狭帯域光の分光画像信号e1,e2,e3を推定する場合を説明するための分光特性を示す図である。図14における3つの広帯域光B,G,Rは撮像素子2Aのカラーフィルタにより得られ、その3つの広帯域光B,G,Rの画像信号が分光推定部101cに入力される。
 分光推定部101cは、分光推定処理により、3つの広帯域光の画像信号B,G,Rから3つの狭帯域光の分光推定画像信号e1,e2,e3を推定する。図14に示すような波長帯域を有する広帯域光の画像信号B,G,Rから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長630nm付近の狭帯域光の分光推定画像信号e2及び波長540nm付近の狭帯域光の分光推定画像信号e3が分光推定処理により得られる。ここでは、図4における極大値ACmaxと極小値ACminの波長帯域R間の2つの狭帯域光の分光推定画像信号e1,e2と、その波長帯域R外の狭帯域光の分光推定画像信号e3とが分光推定により得られ、分光推定画像信号e1,e2,e3は、強調処理部101aに供給される。
 なお、3つの広帯域光のうちの2つの広帯域光の画像信号、例えば広帯域光G,Rの画像信号から、少なくとも2つの分光推定画像信号e1,e2(ここでは3つの分光画像信号e1,e2,e3)を分光推定処理により、得るようにしてもよい。
 さらになお、3つ(あるいは2つ)の広帯域光の画像信号は、カラー撮像素子のカラーフィルタを用いて得るのではなく、光源装置において、図14に示したような分光特性の画像信号が得られる感度特性を有する回転フィルタの第1群のフィルタを光路上に配置して生成した3つ(あるいは2つ)の照明光の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 以上のように、分光推定部101cは、被検体からの戻り光の少なくとも2つの撮像信号に基づき、分光推定処理によって、少なくとも2つの分光推定画像信号e1,e2を生成して出力する。さらに、分光推定部101cは、その少なくとも2つの撮像信号に基づき、被検体の表層部から所定の距離だけ透過可能な照明光の照射に基づく戻り光に対応する分光推定画像信号e3も分光推定処理によって生成して出力する。そして、上述したように、強調処理部101aと色変換処理部101bにおける処理は、第1の実施の形態と同様である。
 よって、本実施の形態の内視鏡装置1Aによっても、上述した内視鏡装置1と効果と同様の効果を得ることができる。
 次に、分光推定についての変形例について説明する。 
 上述した分光推定の処理では、複数の広帯域光の画像信号から複数の狭帯域光の分光画像信号が推定されているが、このような方法に限らず、次のような方法でもよい。
 第1の方法は、2つの広帯域光の画像信号と1つの狭帯域光の画像信号から、3つの分光画像信号を推定するものである。狭帯域光の画像信号を用いるので、分光推定の精度を高くすることができる。
 図15は、2つの広帯域光の画像信号と1つの狭帯域光の画像信号から、3つの狭帯域光の分光画像信号を推定する場合を説明するための分光特性を示す図である。図15に示すように、B,Gについては広帯域光であり、Rについて狭帯域光が用いられる。分光推定部101cでは、2つの広帯域光の画像信号B,Gと1つの狭帯域光の画像信号Rnから、3つの分光推定画像信号e1,e2,e3が推定される。
 2つの広帯域光B,Gと1つの狭帯域光Rnの3つの画像信号は、図15に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよいし、あるいは、光源装置において図2に示したような回転フィルタを用いて生成して、3つの照明光(すなわち2つの広帯域光B,Gと1つの狭帯域光Rnの照明光)の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 なお、図16から図19においても、撮像素子2Aのカラーフィルタによって、2つの広帯域光と1つの狭帯域光の3つの画像信号を得るようにしてもよいし、光源装置が2つ以上の照明光を照射することによって、2つ以上の照明光のうち少なくとも1つの照明光(Rn)の波長帯域が他の照明光(B,G)の波長帯域よりも狭くなるようにしてもよい。
 分光推定部101cは、分光推定処理により、2つの広帯域光B,Gの画像信号と1つの狭帯域光の画像信号Rnから3つの狭帯域光の分光推定画像信号e1,e2,e3を推定する。図15に示すような波長帯域を有する2つの広帯域光B,Gの画像信号と1つの狭帯域光の画像信号Rnから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長630nm付近の狭帯域光の分光推定画像信号e2及び波長540nm付近の狭帯域光の分光画像信号e3が推定される。
 なお、1つの広帯域光の画像信号(例えば広帯域光Gの画像信号)と1つの狭帯域光Rnの画像信号から、少なくとも2つの分光推定画像信号e1,e2(ここでは3つの分光画像信号e1,e2,e3)を分光推定処理により、得るようにしてもよい。
 また、図15では、1つの狭帯域光Rnは、波長600nm付近の狭帯域光を含むが、波長630nm付近の狭帯域光を含むものであってもよい。さらに、1つの狭帯域光Rnは、図15において、一点鎖線で示すような、波長600nm付近の狭帯域光も波長630nm付近の狭帯域光も含まないものであってもよい。 
 図16は、1つの狭帯域光Rnが、推定される分光推定画像信号の狭帯域光を含まない場合を説明するための分光特性を示す図である。図16に示すように、ここでは、2つの広帯域光の画像信号B,Gと1つの狭帯域光の画像信号Rnから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長650nm付近の狭帯域光の分光推定画像信号e21及び波長540nm付近の狭帯域光の分光推定画像信号e3が分光推定処理により得られている。
 第2の方法は、1つの広帯域光の画像信号と2つの狭帯域光の画像信号から、3つの分光推定画像信号を推定するものである。
 図17は、1つの広帯域光の画像信号と2つの狭帯域光の画像信号から、3つの狭帯域光の分光推定画像信号を推定する場合を説明するための分光特性を示す図である。図17に示すように、B,Gについては狭帯域光であり、Rについて広帯域光が用いられる。分光推定部101cでは、2つの狭帯域光の画像信号Bn,Gnと1つの広帯域光Rの画像信号から、3つの分光推定画像信号e1,e2,e31が推定される。分光推定画像信号e31は、波長460nm付近の狭帯域光の画像信号である。
 2つの狭帯域光Bn,Gnと1つの広帯域光Rの3つの画像信号は、図17に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよいし、あるいは、光源装置において図2に示したような回転フィルタを用いて生成して、3つの照明光(すなわち2つの狭帯域光Bn,Gnと1つの広帯域光Rの照明光)の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 分光推定部101cは、分光推定処理により、2つの狭帯域光の画像信号Bn,Gnと1つの広帯域光の画像信号Rから3つの狭帯域光の分光推定画像信号e1,e2,e31を推定する。図17に示すような波長帯域を有する2つの狭帯域光の画像信号Bn,Gnと1つの広帯域光の画像信号Rから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長630nm付近の狭帯域光の分光推定画像信号e2及び波長460nm付近の狭帯域光の分光推定画像信号e31が推定される。
 なお、1つの狭帯域光の画像信号(例えば広帯域光Gnの画像信号)と1つの広帯域光の画像信号Rから、少なくとも2つの分光推定画像信号e1,e2(ここでは3つの分光推定画像信号e1,e2,e31)を分光推定処理により、得るようにしてもよい。
 また、図17では、1つの広帯域光Rは、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光を含むが、いずれか一方、例えば波長630nm付近の狭帯域光のみを含むものであってもよい。
 さらに、1つの広帯域光Rは、波長600nm付近の狭帯域光も波長630nm付近の狭帯域光も含まないものであってもよい。 
 第3の方法は、3つの狭帯域光の画像信号から、3つの分光画像信号を推定するものである。
 図18は、3つの狭帯域光の画像信号から、3つの狭帯域光の分光推定画像信号を推定する場合を説明するための分光特性を示す図である。図18に示すように、B,G,Rについて狭帯域光が用いられる。分光推定部101cでは、3つの狭帯域光の画像信号B,G,Rから、3つの分光推定画像信号e1,e21,e31が推定される。
 3つの狭帯域光Bn,Gn,Rnは、図18に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよいし、あるいは、光源装置において図2に示したような回転フィルタを用いて生成して、3つの照明光(すなわち3つの狭帯域光B,G,Rの照明光)の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 分光推定部101cは、分光推定処理により、3つの狭帯域光の画像信号Bn,Gn,Rnから3つの分光推定画像信号e1,e21,e31を推定する。図18に示すような波長帯域を有する3つの狭帯域光の画像信号Bn,Gn,Rnから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長650nm付近の狭帯域光の分光推定画像信号e21及び波長460nm付近の狭帯域光の分光推定画像信号e31が推定される。
 なお、2つの狭帯域光の画像信号、例えば狭帯域光の画像信号Bn,Gnから、少なくとも2つの分光推定画像信号e1,e21(ここでは3つの分光推定画像信号e1,e21,e31)を分光推定処理により、得るようにしてもよい。
 また、少なくとも1つの狭帯域光は、推定される分光推定画像の狭帯域光の波長を含んでもよい。例えば、図18では、狭帯域光Rnは、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光を含まないが、いずれか一方、例えば波長600nm付近の狭帯域光のみを含むものであってもよい。さらに、図18では、狭帯域光Bnは、波長460nm付近の狭帯域光を含まないが、狭帯域光Bnは、波長460nm付近の狭帯域光を含むものであってもよい。 
 第4の方法は、4つの狭帯域光の画像信号から、3つの分光推定画像信号を推定するものである。
 図19は、4つの狭帯域光の画像信号から、3つの狭帯域光の分光画像信号を推定する場合を説明するための分光特性を示す図である。図19に示すように、Bn,Gn,Rnについて狭帯域光が用いられる。但し、Rnについては、2つの狭帯域光が用いられる。分光推定部101cでは、4つの狭帯域光Bn,Gn,Rnの画像信号から、3つの分光推定画像信号e1,e21,e31が推定される。
 4つの狭帯域光Bn,Gn,Rn1,Rn2は、図19に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよいし、あるいは、光源装置において図2に示したような回転フィルタを用いて生成して、4つの照明光(すなわち4つの狭帯域光Bn,Gn,Rn1、Rn2の照明光)の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 分光推定部101cは、分光推定処理により、4つの狭帯域光Bn,Gn,Rn1,Rn2の画像信号から3つの狭帯域光の分光推定画像信号e1,e21,e31を推定する。図19に示すような波長帯域を有する4つの狭帯域光の画像信号Bn,Gn, Rn1,Rn2から、波長600nm付近の狭帯域光の分光推定画像信号e1、波長650nm付近の狭帯域光の分光推定画像信号e21及び波長460nm付近の狭帯域光の分光推定画像信号e31が推定される。
 4つ以上の狭帯域光の画像信号から、3つの分光推定画像信号を推定した方が、3つの狭帯域光の画像信号から、3つの狭帯域光の画像信号を推定する場合に比べて、分光推定精度は向上する。よって、4以上の狭帯域光の画像信号、例えば狭帯域光Bn,Gn ,Rn1,Rn2の画像信号から、少なくとも2つの分光推定画像信号e1,e21(ここでは3つの分光推定画像信号e1,e21,e31)を分光推定処理により、得るようにしてもよい。
 また、複数の狭帯域光のうち2つ以上が、推定される分光推定画像の狭帯域光の波長を含んでもよい。例えば、図19では、狭帯域光Rnは、波長650nm付近の狭帯域光を含まないが、波長650nm付近の狭帯域光を含むものであってもよい。さらに、図19では、狭帯域光Bnは、波長460nm付近の狭帯域光を含まないが、狭帯域光Bnは、波長460nm付近の狭帯域光を含むものであってもよい。 
 図20は、本実施の形態の画像処理部101Aにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図20に示すように、撮像素子2から、3つの画像、すなわち、第1から第3の画像信号P1,P2,P3が、分光推定部101cに入力される。分光推定部101cは、入力された2つ又は3つの画像信号から、3つの分光推定画像信号e1,e2,e3を推定して生成する。
 分光推定部101cで得られた3つの分光画像信号e1,e2,e3のうち、2つの分光画像信号e1,e2に対して、バンド間演算による強調処理が強調処理部101aで行われる。色変換処理部101bは、第2の分光推定画像信号e2と、第3の分光推定画像信号e3と、強調処理されて得られた強調補正画像信号BEP1(λ1)とに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 なお、本第2の実施の形態において、撮像素子の表面に設けられるカラーフィルタについては、RGB系のものを例として説明したが、カラーフィルタは、補色系のカラーフィルタでもよい。
 また、図14~図19に示す第2の分光推定信号e2、もしくは、e21の波長は図4のヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、第2の分光推定信号e2、もしくは、e21の波長は、第1の分光推定信号e1の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、第2の分光推定信号e2、もしくは、e21の波長を740nm~1300nmのいずれかの波長に設定する場合、第1の分光推定信号e1の波長は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。
 本実施の形態の内視鏡においても、上述した強調処理を行うことにより、生体粘膜の比較的深部にある、比較的太い血管が強調され、観察モニタ5の画面上に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、第3の分光推定画像信号e3を用いて、上述した内視鏡装置1Aは、生体粘膜の表層に近い部分にある血管も表示可能となっているので、毛細血管の状態、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。 
 なお、第3の分光推定画像信号e3に加えて、さらに分光推定して得られた第4,第5の画像も用いて、色変換処理して、観察モニタ5に表示するようにしてもよい。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(第3の実施の形態)
 第1の実施の形態では、少なくとも1つの狭帯域光を照明光として生体組織に実際に照射して、その戻り光の画像に対して上述した強調処理が行われ、第2の実施の形態では、生体組織に3つの狭帯域光を実際に照射しないで、いわゆる分光推定により各狭帯域光の戻り光の画像情報を得て、その分光推定により得られた各波長の分光推定画像信号に対して上述したような強調処理が行われるが、本第3の実施の形態では、狭帯域光の実際の照明光の戻り光の画像信号と、分光推定により得られた分光推定画像信号とに対して上述した強調処理が行われる。 
 本実施の形態の内視鏡装置1Bの構成は、図1に示した内視鏡装置1の構成と同じであるが、本実施の形態の回転フィルタ14Aの構成は異なっている。図21は、本実施の形態の回転フィルタ14Aの構成を示す図である。図21に示すように、回転フィルタ14Aは、通常光観察用の分光特性の面順次光を出力するためのフィルタ組を構成するRGBのフィルタ部を有するだけである。面順次のBGRの光の戻り光は、モノクロの撮像素子2において受光される。
 図22は、本実施の形態に関わる特殊光観察モードにおける全体の処理の流れを説明するための図である。図22において、図13と同じ構成要素は、同一符号を付して説明は省略する。画像処理部101Bは、強調処理部101aと色変換処理部101bと分光推定部101cを含むが、分光推定部101cは、RGB中の2つ又は3つの画像信号から、少なくとも1つの分光推定画像信号eを生成し、RGB中の1つの画像信号と、分光推定画像信号との間でバンド間演算による強調処理が行われる。
 ここでは、具体的には、RGB中の3つ(あるいは2つ)の画像信号から、波長600nm付近の第1の分光推定画像信号e1と、波長540nm付近の第3の分光推定画像信号e3を、分光推定処理により推定して強調処理部101aへ出力する。
 図23は、本実施の形態に関わる画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図23に示すように、撮像素子2から、3つの画像、すなわち、第1から第3の画像信号B,G,Rが、分光推定部101cに入力される。分光推定部101cは、入力された2つ又は3つの画像から、2つの分光推定画像信号e1,e3を推定して生成する。
 画像信号Rと、分光推定部101cで得られた2つの分光推定画像信号e1,e3のうち分光画像信号e1とに対して、バンド間演算による強調処理が強調処理部101aで行われる。色変換処理部101bは、分光推定画像信号e3と、強調処理されて得られた強調補正画像信号BEP1(λ1)と、画像信号Rとに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。 
 なお、強調処理部101aと色変換処理部101bにおける処理は、第1の実施の形態と同様である。
 図24は、3つ(あるいは2つ)の広帯域光の画像信号B,G,Rから2つの狭帯域光の分光推定画像信号e1,e3を推定する場合を説明するための分光特性を示す図である。 
 そして、強調処理部101aには、反射光受光部52からの広帯域光Rのリアルな光に基づく画像信号Rと、分光推定部101cから出力された波長600nm付近の分光推定画像信号e1とが入力される。分光画像信号e1は、図4における極大値ACmaxと極小値ACminの波長帯域R間の1つの狭帯域光の分光推定画像信号である。
 強調処理部101aは、入力された画像信号Rと分光推定画像信号e1との間で、上述したバンド間演算による強調処理を行い、強調処理された強調補正画像信号BEP1(λ1)を色変換処理部101bへ出力する。
 すなわち、分光推定部101cは、被検体からの戻り光の少なくとも2つの撮像信号に基づき、少なくとも1つの分光画像信号e1を信号処理によって分光推定して生成し、強調処理部101aは、その分光画像信号e1と、撮像手段あるいは撮像部である撮像素子2により撮像された戻り光の画像信号に対して、分光画像信号e1を強調する処理を施してその強調された画像信号を生成して出力する。
 色変換処理部101bには、分光推定部101cから出力された分光推定画像信号e3と、強調処理部101aにより強調処理された強調補正画像信号BEP1(λ1)と、リアルな画像信号Rとが、入力される。上述したように、色変換処理部101bにおける処理は、上述した第1の実施の形態で説明した処理と同じである。
 なお、図23における3つの広帯域光B,G,Rは撮像素子2Aのカラーフィルタにより得るようにしてもよい。すなわち、第2の実施の形態で説明したような光源装置4Aと、撮像素子2Aのカラーフィルタを用いて、3つの広帯域光B,G,Rを得るようにしてもよい。 
 よって、本実施の形態の内視鏡装置1Bによっても、上述した内視鏡装置1及び1Aと効果と同様の効果を得ることができる。
 また、信号処理によって分光推定された分光画像信号e1と撮像部で撮像された戻り光の画像信号において、より長波長側の波長情報を有する信号の波長は、図4におけるヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、より長波長側の波長情報を有する信号の波長は、他方の信号の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、より長波長側の波長情報を有する信号の波長を740nm~1300nmのいずれかの波長に設定する場合、他方の信号の波長は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。
 次に、バンド間演算に用いられるリアルな画像信号と分光推定画像信号の変形例について説明する。上述した例では、広帯域光Rの画像信号と分光推定画像信号e1との間でバンド間演算を行っているが、このような方法に限らず、次のような変形例の方法でもよい。
(変形例1)
 第1の方法は、1つの狭帯域光の画像信号Rnと分光推定画像信号e2との間でバンド間演算を行うものである。
 図25は、波長600nm(λ1)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e2との間でバンド間演算を行う場合を説明するための分光特性を示す図である。図25に示すように、1つの狭帯域光は、波長600nm(λ1)付近の狭帯域光Rnであり、リアルな画像信号である。1つの分光推定画像信号は、2つの広帯域光の画像信号B,Gと1つの狭帯域光の画像信号Rnの中から3つ(あるいは2つ)から、分光推定により推定した波長630nm付近の狭帯域光の分光推定画像信号e2であり、狭帯域光の画像信号Rnと分光画像信号e2間で、バンド間演算が行われる。図25の場合は、狭帯域光のリアルの画像信号を用いているので、図24の場合のように広帯域のリアルの画像信号を用いる場合よりは、深部の太い血管がより強調されて表示される。
 図26は、本実施の形態の変形例1の画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図26に示すように、撮像素子2から、3つの画像、すなわち、第1から第3の画像信号B,G,Rnが、分光推定部101cに入力される。分光推定部101cは、入力された3つ(あるいは2つ)の画像信号から、2つの分光推定画像信号e2,e3を推定して生成する。
 画像信号Rnと、分光推定部101cで得られた2つの分光推定画像信号e2,e3のうち分光画像信号e2とに対して、バンド間演算による強調処理が強調処理部101aで行われる。色変換処理部101bは、分光推定画像信号e3と、強調処理されて得られた強調補正画像信号BEP1(λ1)と、画像信号Rnとに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 なお、波長630nm(λ2)付近の狭帯域光Rnと1つの分光推定画像信号e1との間でバンド間演算を行うようにしてもよい。図27は、波長630nm(λ2)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e1との間でバンド間演算を行う場合を説明するための分光特性を示す図である。この場合における、画像処理部101Bにおける撮像素子2から得られた画像に対する処理における画像信号は、図26において、括弧で示した画像信号である。すなわち、強調処理部101aは、強調補正画像信号BEP1(λ1)を出力し、色変換処理部101bは、強調補正画像信号BEP1(λ1)と画像信号Rnとに対して、チャンネル割り当てによる色変換処理を施す。
 2つの広帯域光B,Gと1つの狭帯域光Rnの3つの画像信号は、図25あるいは図27に示すような分光特性を有する、光源装置において図2に示したような回転フィルタを用いて生成されて、3つの照明光(すなわち2つの広帯域光B,Gと1つの狭帯域光Rの照明光)の戻り光をモノクロの撮像素子に当てて、得ることができる。
 なお、2つの広帯域光B,Gと1つの狭帯域光Rの3つの画像信号は、図25あるいは図27に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよい。
 以上のように、分光推定部101cは、分光推定処理により、2つの広帯域光の画像信号B,Gと1つの狭帯域光の画像信号Rnから2つの分光推定画像信号e1(あるいはe2),e3を推定する。図25又は図27の場合、2つの広帯域光B,Gの画像信号と1つの狭帯域光Rnの画像信号から、波長630nm付近の狭帯域光の分光推定画像信号e2(あるいは波長600nm付近の狭帯域光の分光推定画像信号e1)及び波長540nm付近の狭帯域光の分光推定画像信号e3が推定される。
 そして、色変換処理部101bでは、分光推定画像信号e3と、強調処理されて得られた強調補正画像信号BEP2(λ2)(あるいは強調補正画像信号BEP1(λ1))と、画像信号Rnとに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 なお、2つの広帯域光の画像信号B,Gから、少なくとも2つの分光推定画像信号e2(又はe1),e3を分光推定処理により、得るようにしてもよいし、あるいは1つの広帯域光B(又はG)と1つの狭帯域光の画像信号Rnから、少なくとも2つの分光推定画像信号e2(又はe1),e3を分光推定処理により、得るようにしてもよい。
(変形例2)
 さらに、3つの狭帯域光の画像信号Bn,Gn,Rnから1つの分光画像信号e2を推定し、1つの狭帯域光の画像信号Rnと1つの分光推定画像信号e2との間でバンド間演算を行うようにしてもよい。図28は、3つの狭帯域光の画像信号Bn,Gn,Rnから1つの分光推定画像信号e2を推定する場合を説明するための分光特性を示す図である。
 図28に示すように、3つの狭帯域光は、波長600nm付近の狭帯域光Rn、波長540nm付近の狭帯域光Gn、波長415nm付近の狭帯域光Bnであり、リアルな画像信号である。1つの分光画像信号は、波長630nm付近の狭帯域光の分光推定画像信号e2であり、波長600nm付近の狭帯域光Rnと波長630nm付近の狭帯域光の分光推定画像信号e2の画像信号間で、バンド間演算が行われる。
 なお、2つの狭帯域光として、例えば、波長540nm付近の狭帯域光Gnと波長600nm付近の狭帯域光Rnの照明を照射し、得られた2つの画像信号Gn, Rnの画像信号から、波長630nm付近の狭帯域光の分光推定画像信号e2を分光推定し、波長600nm付近の狭帯域光Rnのリアルな画像信号と、分光推定画像信号e2との間で、バンド間演算を行うようにしてもよい。
 図29は、本実施の形態の変形例2の画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図29に示すように、撮像素子2から、3つの画像信号、すなわち、第1から第3の画像信号Bn,Gn,Rnが、分光推定部101cに入力される。分光推定部101cは、入力された3つ(あるいは2つ)の画像信号から、2つの分光推定画像信号e2を推定して生成する。
 分光推定部101cで得られた分光推定画像信号e2と狭帯域光Rnに対して、バンド間演算による強調処理が強調処理部101aで行われる。色変換処理部101bは、2つの狭帯域光Rn,Gnと、強調処理されて得られた強調補正画像信号BEP2(λ2)とに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 なお、波長600nm付近の狭帯域光Rnの代わりに、波長630nm付近の狭帯域光Rnを用い、分光推定により波長600nm付近の分光推定画像信号e1を得て、波長630nm付近の狭帯域光Rと波長600nm付近の分光推定画像信号e1の画像信号間で、バンド間演算が行うようにしてもよい。図30は、波長630nm(λ2)付近の狭帯域光の画像信号Rnと1つの分光推定画像信号e1との間でバンド間演算を行う場合を説明するための分光特性を示す図である。この場合における、画像処理部101Bにおける撮像素子2から得られた画像に対する処理における画像信号は、図29において、括弧で示した画像信号である。すなわち、強調処理部101aは、強調補正画像信号BEP1(λ1)を出力し、色変換処理部101bは、強調補正画像信号BEP1(λ1)と画像信号Rnとに対して、チャンネル割り当てによる色変換処理を施す。 
 さらになお、3つの狭帯域光の画像信号Bn,Gn,Rnは、図28或いは図30に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよい。
 なお、色変換処理部101bでは、2つの狭帯域光Gn,Rnの画像信号と、分光推定画像信号e1(又はe2)に、さらに狭帯域光の画像信号Bnも加えて、4つの画像信号から色変換処理が行われてもよい。あるいは、狭帯域光の画像信号Bnに加えてもしくは狭帯域光の画像信号Bnとは別の、分光推定して得られた第4,第5の分光推定画像信号も用いて、色変換処理して、観察モニタ5に表示するようにしてもよい。
 なお、本第3の実施の形態及び各変形例において、撮像素子の表面に設けられるカラーフィルタを用いる場合、RGB系のものを例として説明したが、カラーフィルタは、補色系のカラーフィルタでもよい。
 本実施の形態の内視鏡においても、上述した強調処理を行うことにより、生体粘膜の比較的深部にある、比較的太い血管が強調され、観察モニタ5の画面上に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、第3の狭帯域光NL3に対応する分光推定画像信号e3または狭帯域光Gnを用いて、上述した内視鏡装置1Aは、生体粘膜の表層に近い部分にある血管も表示可能となっているので、毛細血管の状態、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(各実施の形態について共通の変形例)
(変形例1)
 上述した3つの実施の形態及びそれぞれの各変形例では、静脈血の光吸収特性を例に挙げてその特性に基づいて、2つの狭帯域光が選択されているが、動脈血の光吸収特性あるいは静脈血と動脈血の両方を合わせた血の光吸収特性に基づいて、上述したような、少なくとも2つの狭帯域光を選択するようにしてもよい。
(変形例2)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置では、第1の狭帯域光NL1と第2の狭帯域光NL2の波長として、それぞれ波長600nm付近の光と波長630nm付近の光を用いているが、第1の狭帯域光NL1と第2の狭帯域光NL2の波長としては、好ましくは、それぞれ波長580~620nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光と波長610~730nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光であり、さらにより好ましくは、それぞれ波長585~615nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光と波長620~640nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光である。
 従って、吸収特性の極大値から極小値の間で上述したような吸収特性を有する波長の光であれば、第1の狭帯域光NL1と第2の狭帯域光NL2の波長は、それぞれ波長600nm付近の光と波長630nm付近の光に限定されず、どの波長の光でもよい。例えば、第1の狭帯域光NL1と第2の狭帯域光NL2の波長として、それぞれ、波長610nm付近の光と波長645nm付近の光、あるいは波長630nm付近の光と波長660nm付近の光を用いてもよい。
(変形例3)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置では、第3の狭帯域光NL3として、生体組織の表層の毛細血管を表示させるために、波長540nm付近の光を用いているが、第3の狭帯域光NL3の波長は、これに限定されない。例えば、第3狭帯域光NL3の波長として、波長540nmよりも短い波長415nm付近の光や波長460nm付近の光を用いてもよい。特に、生体組織の表層の情報を得るためには、波長540nm付近の光よりも短い波長415nm付近の光や波長460nmの光が望ましい。
(変形例4)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の光源装置では、熱光源のランプ、LED、LD等が用いられることが述べたが、他の手段を用いてもよい。例えば、光源手段あるいは光源部としては、波長可変レーザを用いてもよいし、LEDあるいはLDで蛍光体を励起して、ブロードバンド光を生成して、その光を用いてもよい。
(変形例5)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置において、狭帯域光を照射する場合、例えば波長600nm付近の狭帯域光はレーザにより生成し、波長630nm付近の狭帯域光は、LEDにより生成するようにしてもよい。また、波長600nm付近の狭帯域光はLEDにより生成し、波長630nm付近の狭帯域光は、レーザにより生成するようにしてもよい。レーザ光を用いると、深さ方向におけるノイズを少なくすることができる。
(変形例6)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)では、2つの狭帯域光について強調処理が行われるが、強調処理される2つの狭帯域光の一方は、擬似的に生成してもよい。図31は、2つの狭帯域光の一方から、他方を生成する処理部の構成を説明するための図である。図32は、擬似的に生成される狭帯域光を説明するための分光特性を示す図である。
 波長600nm付近の狭帯域光の戻り光の第1の画像信号P1が、フィルタ演算部103に入力され、フィルタ演算部103は、入力された第1の画像信号P1に対して、例えば全体に濃淡の差が少なくなり、かつエッジ部を目立たなくするようなフィルタリングを行って、第2の画像信号P2の疑似画像として出力する。強調処理部101aは、第1の画像信号P1と、疑似画像である第2の画像信号P2とに対して強調処理を行う。
 このような処理により、強調処理を行う一方の画像から他方の疑似画像を生成して、強調処理を行うようにしてもよい。 
 なお、図32では、波長600nm付近の狭帯域光の戻り光の第1の画像信号P1から、波長630nm付近の狭帯域光に対応する疑似画像を生成しているが、波長630nm付近の狭帯域光の戻り光の第1の画像信号P1と波長540nm付近の狭帯域光の戻り光の第3の画像信号P3から、波長600nm付近の狭帯域光に対応する疑似画像を生成してもよい。
 さらになお、図32では、リアルな照明光の戻り光の画像に対して、疑似画像を生成しているが、第2あるいは第3の実施の形態における一の分光推定画像を、他の分光推定画像からフィルタ演算部103により生成した疑似画像を用いても良い。一の疑似画像である分光推定画像と、他の分光推定画像あるいはリアルな画像との間で、強調処理が行われる。 
 以上のように、疑似画像を用いて、強調処理を行うようにしてもよい。
(変形例7)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)では、2つの狭帯域光の画像に対して1つの強調処理結果が得られているが、さらに2つ以上の強調処理結果が得られるようにしてもよい。
 図33は、本変形例7を説明するための、静脈血の光の吸収特性を示す図である。図33では、2つの強調処理結果を得られるように、1つは、波長600nm付近の狭帯域光NL1と波長630nm付近の狭帯域光NL2の第1の組合せに対して強調処理を行い、もう一つは、波長650nm付近の狭帯域光NL12と波長680nm付近の狭帯域光NL22の第2の組合せに対して強調処理を行うものである。いずれの組合せを選択するかは、ユーザが選択できるようにして、例えば、モード選択により、ユーザは、いずれの組合せで表示を行うかを選択することができる。
 なお、もう一つの組合せとしては、波長615nm付近の狭帯域光と波長645nm付近の狭帯域光の組合せ、波長630nm付近の狭帯域光と波長660nm付近の狭帯域光の組合せ、等の組合せでもよい。
 第2の組合せの場合、使用される波長は、第1の組合せに比べて長波長側へシフトしているので、より深部の画像が強調される。よって、術者がより深部の血管を強調させたい場合、生体の粘膜表面に血液、胆汁、尿などが付着しているような場合、第2の組合せを選択することによって、所望の血管を強調表示させることが可能となる。 
 2つ以上の組合せのための強調処理は、光源装置における回転フィルタの組合せを増やす、あるいは、分光推定処理により推定される分光推定画像信号の数を増やすことによって、行うことができる。
 狭帯域光の波長の組合せとしては、粘膜表面から比較的浅い血管を強調表示させる場合には、波長580nm付近と波長630nm付近の組合せと波長590nm付近と波長630nm付近の組合せの2つを有することが好ましい。
 また、狭帯域光の波長の組合せとしては、粘膜表面からより深部の血管、あるいは血液等の下の粘膜の下の血管を強調表示指せる場合には、波長600nm付近と波長630nm付近の組合せと波長650nm付近と波長680nm付近の組合せの2つを有することが好ましい。
 上述した例では、2つの組合せであるが、3つ以上の組合せでもよい。3つの場合、例えば、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光の第1の組合せと、波長650nm付近の狭帯域光と波長680nm付近の狭帯域光の第2の組合せと、波長700nm付近の狭帯域光と波長730nm付近の狭帯域光の第3の組合せである。
 以上のように、複数の強調処理結果が得られるので、術者は、生体の粘膜表面に付着している血液等の濃度が高い場合には、より長波長側の組合せ(例えば、波長650nm付近と波長680nm付近の組合せ)を選択し、さらには、血管が比較的浅い部分に有る場合、生体の粘膜表面に付着している血液等の濃度が低い場合には、より短波長側の組合せ(例えば、波長580nm付近と波長630nm付近の組合せ)を選択することによって、所望の血管を強調表示させることが可能となる。
(変形例8)
 上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)では、強調処理のための2つの狭帯域光の波長差は一定であるが、一方を固定し、他方を可変にしてもよい。
 例えば、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光の場合、波長600nm付近の狭帯域光は固定し、他方の狭帯域光は、波長630nm付近から730nm付近まで可変で任意に設定できるようにしてもよい。あるいは、他方の波長730nm付近の狭帯域光は固定し、波長590nm付近から620nm付近の狭帯域光までを可変で任意に設定できるようにしてもよい。なお、600nm付近の狭帯域光は固定し、他方の狭帯域光は、730nm以上の波長帯域で任意に設定できるようにしてもよい。
 このように、2つの狭帯域光の波長差の一方を固定し、他方を可変にすることによって、所望の領域の血管をより強調して表示させることができる。
(変形例9)
 また、上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)では、3つの画像を得て、狭帯域画像を観察モニタ5に表示しているが、さらに、4つ目の画像も得るようにして、4つの画像の中から適宜選択して表示画像を生成するようにしてもよい。
 内視鏡装置は、通常光観察モードに加えて狭帯域光観察モードを有し、術者は、必要な場面で、通常光観察モードから狭帯域光観察モードへ切り替えて、各種処置を行う。4つ目の画像を加えることにより、各観察モードの表示画像を容易に得ることができる。
 例えば、波長540nmよりも波長が短い青色の狭帯域光(あるいは広帯域光でもよい)の照明光もさらに照射可能な光源装置を用い、4つ目の画像を得る。光源装置は、その第4波長の光と波長600nm付近の狭帯域光の第1の組合せの照明光と、波長540nm付近の狭帯域光と波長630nm付近の狭帯域光の第2の組合せの照明光とを交互に、被写体に照射する。なお、第4波長の光と波長540nm付近の狭帯域光と波長600nm付近の狭帯域光の組合せの照明光と、波長630nm付近の狭帯域光の照明光とを交互に、被写体に照射するようにしてもよい。
 そして、各照明光の戻り光を、RGBのカラーフィルタを有する撮像素子で受光する。例えば、第4波長の戻り光は、カラーフィルタのB帯域で、波長600nm付近の狭帯域光の戻り光は、R帯域で撮像される。なお、撮像素子のカラーフィルタは、補色系のものであってもよい。さらになお、撮像素子は、モノクロの撮像素子でもよい。
 各帯域の画像は分離されるので、ビデオプロセッサ7内では、4つのモノクロ画像が得られる。なお、各画像を得るために、各光の画像信号に対して、適切な色バランス調整は行われる。
 そして、ビデオプロセッサ7内では、通常光観察モード用の通常画像は、第4波長の光、波長540nm付近の狭帯域光、波長600nm付近の狭帯域光及び波長630nm付近の狭帯域光の4つの戻り光の画像を用いて、生成される。
 また、ビデオプロセッサ7内では、第1の狭帯域光画像を、第4波長の光の画像信号をBとGチャンネルに割り当て、波長540nm付近の狭帯域光の画像信号をRチャンネルに割り当て、第4波長の光と波長540nm付近の狭帯域光の2つの画像を用いて生成する。
 さらに、ビデオプロセッサ7内では、第2の狭帯域光画像を、波長540nm付近の狭帯域光、波長600nm付近の狭帯域光及び波長630nm付近の狭帯域光の3つの画像を用いて生成する。 
 なお、波長600nm付近の狭帯域光の画像信号は、強調処理されている。
 そして、術者による画像表示指示に応じて、上記のようにして生成された画像が選択されて観察モニタ5に表示される。 
 このような構成によれば、通常光観察用の通常画像と、狭帯域光観察用の狭帯域光画像の同時表示、あるいは通常画像と狭帯域光画像の重畳表示を行うこともできる。例えば、通常光画像と第1の狭帯域光画像(あるいは第2の狭帯域光画像)の並列表示、あるいは、第1の狭帯域光画像と第2の狭帯域光画像の並列表示を行うことができる。
 さらに、第4波長の光の画像信号をBチャンネルに、波長540nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号をRチャンネルに割り当てることによって、あるいは第4波長の光の画像信号をBチャンネルに、波長540nm付近の狭帯域光の画像信号と波長600nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号(あるいは波長600nm付近の狭帯域光の画像信号と波長630nm付近の狭帯域光の画像信号と)をRチャンネルに割り当てることによって、通常画像に深部の血管情報を付加した重畳が画像を生成して観察モニタ5に表示することもできる。
 さらにあるいは、第4波長の光の画像信号をBチャンネルに、第4波長の光の画像信号と波長600nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号(あるいは波長600nm付近の狭帯域光の画像信号と波長630nm付近の狭帯域光の画像信号と)をRチャンネルに割り当てることによって、表層の血管と深部の血管の両方を強調した画像を生成して観察モニタ5に表示することもできる。
 なお、4つ目の波長の画像信号は、分光推定により生成するようにしてもよい。 
 以上のように、本変形例9によれば、通常画像と狭帯域光画像の並列表示、あるいは重畳表示が可能となる。
 以上のように、上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

 本出願は、2012年3月30日に日本国に出願された特願2012-82286号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (13)

  1.  被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する照明部と、
     前記照明部の照射に基づく前記被検体からの戻り光を撮像する撮像部と、
     前記撮像部による撮像後、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の画像信号と、その第1の画像信号よりも前記吸収特性における値が低くかつ前記生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の画像信号と、の差異に基づいて前記第1の画像信号を強調する処理を施して強調補正した画像信号を生成する画像処理部と、
     前記強調補正した画像信号に基づき画像表示を行う表示部と、
    を備えることを特徴とする内視鏡装置。
  2.  前記照明部は、前記生体組織の前記吸収特性において前記極大値を含む波長帯域から前記極小値における波長帯域の間で分光特性のピーク波長を有する第1の照明光と、前記第1の画像信号より前記吸収特性における値が低くかつ前記生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の照明光と、を照射することを特徴とする請求項1に記載の内視鏡装置。
  3.  前記照明部は、前記被検体の表層部から所定の距離だけ透過可能な第3の照明光を照射し
     前記画像処理部は、前記第1の画像信号、前記第2の画像信号、及び前記第3の照明光の照射に基づき前記撮像部により撮像した第3の画像信号に基づいて、前記強調補正した画像信号を生成することを特徴とする請求項2に記載の内視鏡装置。
  4.  前記内視鏡装置は、通常光観察モードと狭帯域光観察モードを有し、
     前記照明部は、前記狭帯域光観察モードのときに、前記第1の照明光と前記第2の照明光と、を照射することを特徴とする請求項2又は3に記載の内視鏡装置。
  5.  前記照明部は、光源からの光を透過させるための前記通常光観察モード用のフィルタと前記狭帯域光観察モード用のフィルタを有し、
     前記照明部は、前記狭帯域光観察モードのときに、前記光源からの光を前記狭帯域光観察モード用のフィルタを通して出射することによって、前記第1の照明光と前記第2の照明光と、を照射することを特徴とする請求項4に記載の内視鏡装置。
  6.  前記被検体からの前記戻り光の少なくとも2つの撮像信号に基づき、分光推定処理によって、前記第1の画像信号と前記第2の画像信号として、少なくとも2つの分光推定画像信号を、生成して出力する分光推定部を有し、
     前記画像処理部は、前記2つの分光推定画像信号に基づいて、前記強調補正した画像信号を生成することを特徴とする請求項1に記載の内視鏡装置。
  7.  前記分光推定部は、前記少なくとも2つの撮像信号に基づき、前記被検体の表層部から所定の距離だけ透過可能な第3の照明光の照射に基づく戻り光に対応する分光推定画像信号を前記分光推定処理によって生成して、第3の画像信号として出力し、
     前記画像処理部は、前記第1の画像信号、前記第2の画像信号、及び前記第3の画像信号に基づいて、前記強調補正した画像信号を生成することを特徴とする請求項6に記載の内視鏡装置。
  8.  前記照明部は、2つ以上の照明光を照射し、前記2つ以上の照明光のうち少なくとも1つの照明光の波長帯域は、他の照明光の波長帯域よりも狭いことを特徴とする請求項6又は7に記載の内視鏡装置。
  9.  前記被検体からの前記戻り光の少なくとも2つの撮像信号に基づき、少なくとも1つの分光画像信号を信号処理によって分光推定して、前記第1の画像信号と前記第2の画像信号の一方を生成する分光推定部を有し、
     前記画像処理部は、前記1つの分光画像信号を前記第1の画像信号と前記第2の画像信号の一方とし、前記撮像部により撮像された前記戻り光の画像信号を前記第1の画像信号と前記第2の画像信号の他方として、前記第1の画像信号を強調する処理を施して前記強調補正した画像信号を生成することを特徴とする請求項1に記載の内視鏡装置。
  10.  前記他方は、前記照明部により照射された狭帯域光を、前記撮像部により撮像された前記戻り光の画像信号であることを特徴とする請求項9に記載の内視鏡装置。
  11.  前記第1の照明光は、波長585nmから615nm付近の狭帯域光であり、前記第2の照明光は、波長610nmから730nm付近の狭帯域光であることを特徴とする請求項1から3のいずれか1つに記載の内視鏡装置。
  12.  前記第1の照明光は、波長600nm付近の狭帯域光であり、前記第2の照明光は、波長630nm付近の狭帯域光であることを特徴とする請求項1から3のいずれか1つに記載の内視鏡装置。
  13.  前記第1の照明光は、波長600nm付近の狭帯域光であり、前記第2の照明光は、波長730nm以降の波長帯域においてピーク波長を有する狭帯域光であることを特徴とする請求項1から3のいずれか1つに記載の内視鏡装置。
PCT/JP2012/078743 2012-03-30 2012-11-06 内視鏡装置 WO2013145409A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013522028A JP5362149B1 (ja) 2012-03-30 2012-11-06 内視鏡装置
CN201280026794.8A CN103582445B (zh) 2012-03-30 2012-11-06 内窥镜装置
EP12872387.1A EP2700349A4 (en) 2012-03-30 2012-11-06 ENDOSCOPIC DEVICE
US13/896,881 US9277190B2 (en) 2012-03-30 2013-05-17 Endoscope apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012082286 2012-03-30
JP2012-082286 2012-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/896,881 Continuation US9277190B2 (en) 2012-03-30 2013-05-17 Endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2013145409A1 true WO2013145409A1 (ja) 2013-10-03

Family

ID=49258747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078743 WO2013145409A1 (ja) 2012-03-30 2012-11-06 内視鏡装置

Country Status (5)

Country Link
US (1) US9277190B2 (ja)
EP (1) EP2700349A4 (ja)
JP (1) JP5362149B1 (ja)
CN (1) CN103582445B (ja)
WO (1) WO2013145409A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051455A1 (ja) * 2015-09-24 2017-03-30 オリンパス株式会社 内視鏡装置
WO2017199535A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 生体観察システム
JP2017213307A (ja) * 2016-06-02 2017-12-07 Hoya株式会社 画像処理装置および電子内視鏡システム
WO2018020560A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
US10891743B2 (en) 2016-06-22 2021-01-12 Olympus Corporation Image processing device, operation method performed by image processing device and computer readable recording medium for performing different enhancement processings based on context of update determined from latest image acquired
EP4095802A1 (en) 2021-05-24 2022-11-30 FUJI-FILM Corporation Medical image processing device, endoscope system, and medical image processing device operation method
US11882995B2 (en) 2017-02-01 2024-01-30 Olympus Corporation Endoscope system

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036759A (ja) 2012-08-17 2014-02-27 Hoya Corp 電子内視鏡システムおよび内視鏡用光源装置
CN105324064B (zh) 2013-05-30 2017-10-27 Hoya株式会社 生成示出生物组织中生物物质浓度分布图像的方法和装置
JP2015211727A (ja) 2014-05-01 2015-11-26 オリンパス株式会社 内視鏡装置
JP6204314B2 (ja) 2014-09-03 2017-09-27 Hoya株式会社 電子内視鏡システム
JP6356051B2 (ja) 2014-11-21 2018-07-11 Hoya株式会社 分析装置及び分析装置の作動方法
CN107405056B (zh) * 2015-03-17 2020-06-30 奥林巴斯株式会社 活体观察系统
WO2019171703A1 (ja) * 2018-03-05 2019-09-12 オリンパス株式会社 内視鏡システム
JP7090699B2 (ja) * 2018-05-17 2022-06-24 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2019234815A1 (ja) 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
CN113543689A (zh) * 2019-03-19 2021-10-22 奥林巴斯株式会社 内窥镜装置、内窥镜装置的工作方法以及程序
US11232570B2 (en) 2020-02-13 2022-01-25 Olympus Corporation System and method for diagnosing severity of gastritis
US11024031B1 (en) * 2020-02-13 2021-06-01 Olympus Corporation System and method for diagnosing severity of gastric cancer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01308531A (ja) * 1988-02-08 1989-12-13 Olympus Optical Co Ltd 内視鏡装置
JP2000041942A (ja) 1998-07-31 2000-02-15 Olympus Optical Co Ltd 内視鏡装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2010142547A (ja) * 2008-12-22 2010-07-01 Fujifilm Corp 内視鏡画像処理装置および方法ならびにプログラム。

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4959710A (en) 1988-03-01 1990-09-25 Olympus Optical Co., Ltd. Electronic endoscope whereby the position of the insertable part can be known by a transmitted light outside a body
EP1302152B1 (en) 2000-07-21 2013-03-20 Olympus Corporation Endoscope apparatus
US20090075391A1 (en) * 2003-01-17 2009-03-19 Newton Laboratories, Inc. Spectroscopic diagnostic method and system based on scattering of polarized light
WO2005031436A1 (en) * 2003-09-26 2005-04-07 Tidal Photonics, Inc. Apparatus and methods relating to expanded dynamic range imaging endoscope systems
WO2006025334A1 (ja) * 2004-08-30 2006-03-09 Olympus Corporation 内視鏡装置
US20090091614A1 (en) * 2005-05-13 2009-04-09 Olympus Medical Systems Corp. Biological observation apparatus
US8998802B2 (en) * 2006-05-24 2015-04-07 Olympus Medical Systems Corp. Endoscope, endoscopic apparatus, and examination method using endoscope
US20090289200A1 (en) * 2008-05-22 2009-11-26 Fujifilm Corporation Fluorescent image obtainment method and apparatus, fluorescence endoscope, and excitation-light unit
JP5250342B2 (ja) * 2008-08-26 2013-07-31 富士フイルム株式会社 画像処理装置およびプログラム
JP5393554B2 (ja) * 2010-03-23 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5616304B2 (ja) * 2010-08-24 2014-10-29 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの作動方法
JP5405445B2 (ja) * 2010-12-17 2014-02-05 富士フイルム株式会社 内視鏡装置
CN103153158B (zh) * 2010-12-17 2015-09-23 奥林巴斯医疗株式会社 内窥镜装置
JP5485191B2 (ja) * 2011-01-19 2014-05-07 富士フイルム株式会社 内視鏡装置
CN103501681B (zh) * 2011-09-20 2015-11-25 奥林巴斯医疗株式会社 图像处理装置以及内窥镜系统
US20130113904A1 (en) * 2011-11-08 2013-05-09 Capso Vision, Inc. System and Method for Multiple Viewing-Window Display of Computed Spectral Images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01308531A (ja) * 1988-02-08 1989-12-13 Olympus Optical Co Ltd 内視鏡装置
JP2000041942A (ja) 1998-07-31 2000-02-15 Olympus Optical Co Ltd 内視鏡装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2010142547A (ja) * 2008-12-22 2010-07-01 Fujifilm Corp 内視鏡画像処理装置および方法ならびにプログラム。

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2700349A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051455A1 (ja) * 2015-09-24 2017-03-30 オリンパス株式会社 内視鏡装置
JPWO2017051455A1 (ja) * 2015-09-24 2018-07-12 オリンパス株式会社 内視鏡装置
WO2017199535A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 生体観察システム
JP6293392B1 (ja) * 2016-05-19 2018-03-14 オリンパス株式会社 生体観察システム
JP2017213307A (ja) * 2016-06-02 2017-12-07 Hoya株式会社 画像処理装置および電子内視鏡システム
US10891743B2 (en) 2016-06-22 2021-01-12 Olympus Corporation Image processing device, operation method performed by image processing device and computer readable recording medium for performing different enhancement processings based on context of update determined from latest image acquired
WO2018020560A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JPWO2018020560A1 (ja) * 2016-07-25 2019-05-09 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
US11361406B2 (en) 2016-07-25 2022-06-14 Olympus Corporation Image processing apparatus, image processing method, and non-transitory computer readable recording medium
US11882995B2 (en) 2017-02-01 2024-01-30 Olympus Corporation Endoscope system
EP4095802A1 (en) 2021-05-24 2022-11-30 FUJI-FILM Corporation Medical image processing device, endoscope system, and medical image processing device operation method

Also Published As

Publication number Publication date
EP2700349A4 (en) 2015-08-26
US20130293693A1 (en) 2013-11-07
JP5362149B1 (ja) 2013-12-11
EP2700349A1 (en) 2014-02-26
US9277190B2 (en) 2016-03-01
JPWO2013145409A1 (ja) 2015-12-10
CN103582445A (zh) 2014-02-12
CN103582445B (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP5362149B1 (ja) 内視鏡装置
JP5404968B1 (ja) 内視鏡装置
JP5355827B1 (ja) 内視鏡装置
JP5427318B1 (ja) 内視鏡装置
JP5215506B2 (ja) 内視鏡装置
JP5496075B2 (ja) 内視鏡診断装置
JP5167440B2 (ja) 内視鏡装置
JP5159904B2 (ja) 内視鏡診断装置
JP5757891B2 (ja) 電子内視鏡システム、画像処理装置、画像処理装置の作動方法及び画像処理プログラム
WO2017104046A1 (ja) 内視鏡装置
JP2012125395A (ja) 内視鏡装置
JP6342598B1 (ja) 画像処理装置
CN111295124B (zh) 内窥镜系统、内窥镜图像的生成方法和处理器
WO2021111539A1 (ja) 内視鏡装置及び観察方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013522028

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872387

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE