WO2013145407A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2013145407A1
WO2013145407A1 PCT/JP2012/078741 JP2012078741W WO2013145407A1 WO 2013145407 A1 WO2013145407 A1 WO 2013145407A1 JP 2012078741 W JP2012078741 W JP 2012078741W WO 2013145407 A1 WO2013145407 A1 WO 2013145407A1
Authority
WO
WIPO (PCT)
Prior art keywords
wavelength
light
image
image signal
band
Prior art date
Application number
PCT/JP2012/078741
Other languages
English (en)
French (fr)
Inventor
五十嵐 誠
徹緒 野波
平 健二
Original Assignee
オリンパスメディカルシステムズ株式会社
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社, オリンパス株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to EP12872860.7A priority Critical patent/EP2719317A4/en
Priority to JP2013525024A priority patent/JP5427318B1/ja
Priority to CN201280036603.6A priority patent/CN103717118B/zh
Priority to US13/909,389 priority patent/US8939901B2/en
Publication of WO2013145407A1 publication Critical patent/WO2013145407A1/ja
Priority to US14/550,147 priority patent/US9775497B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]

Definitions

  • the present invention relates to an endoscope apparatus, and more particularly to an endoscope apparatus capable of displaying blood vessels inside a subject.
  • the endoscope apparatus includes an endoscope, an image processing apparatus connected to the endoscope, and an observation monitor.
  • the lesioned part is imaged by an imaging element provided at the distal end of the endoscope insertion part, and the image is displayed on the monitor. The surgeon can perform diagnosis or necessary treatment while looking at the image displayed on the monitor.
  • Some endoscope apparatuses can perform not only normal light observation using white light but also special light observation using special light such as infrared light in order to observe internal blood vessels.
  • infrared endoscope apparatus for example, indocyanine green (ICG) having absorption peak characteristics in near-infrared light having a wavelength of around 805 nm is injected into a patient's blood as a drug. Then, the subject is irradiated with infrared light having wavelengths of about 805 nm and about 930 nm in a time division manner from the light source device. The signal of the subject image captured by the CCD is input to the processor of the infrared endoscope apparatus.
  • ICG indocyanine green
  • the processor converts an image around a wavelength of 805 nm into a green signal (G) and an image around a wavelength of 930 nm.
  • G green signal
  • B blue signal
  • ESD Endoscopic Submucosal Dissection
  • ESD Endoscopic Submucosal Dissection
  • ESD Endoscopic Submucosal Dissection
  • the operator confirms the position of such a blood vessel and performs treatment such as incision. Blood vessels that can cause severe bleeding run from the submucosa to the intrinsic muscle layer. When severe bleeding occurs in procedures such as ESD, the operation time becomes longer because hemostasis must be performed each time.
  • the present invention has been made in view of the above-described problems, and provides an endoscope apparatus that can clearly display blood vessels in the deep mucosa without performing a complicated operation of drug administration. Objective.
  • An endoscope apparatus includes an illumination unit that irradiates a subject with at least one illumination light having a predetermined wavelength band, and a return from the subject based on irradiation of the illumination unit.
  • An imaging unit that images light, and after imaging by the imaging unit, a first wavelength band having a peak wavelength of spectral characteristics between a wavelength band including a maximum value and a wavelength band at a minimum value in absorption characteristics of biological tissue
  • An image output unit that outputs a first image signal; and a display unit that displays an image based on the first image signal.
  • FIG. 1 is a configuration diagram showing a configuration of an endoscope apparatus according to a first embodiment of the present invention. It is a figure which shows the structure of the rotary filter 14 in connection with the 1st Embodiment of this invention. It is a figure for demonstrating the flow of the whole process in the narrow-band light observation in connection with the 1st Embodiment of this invention. It is a figure which shows the light absorption characteristic of the venous blood in connection with the 1st Embodiment of this invention.
  • the table which shows the result calculated about the combination in case the diameter of the capillary blood vessel CB is 0.01 mm and 0.1 mm and the diameter of the thick blood vessel BV is 1 mm and 2 mm in connection with the first embodiment of the present invention. is there. It is a figure which shows the example of the endoscopic image for demonstrating the display example of the blood vessel in the endoscopic image in the narrow-band light observation mode in connection with the 1st Embodiment of this invention. It is a figure for demonstrating the example of the image obtained by imaging in the narrow-band light observation mode the state which is related with the 1st Embodiment of this invention, and the mucous membrane surface is covered with blood, and is bleeding.
  • FIG. 1 It is a block diagram which shows the structure of 1 A of endoscope apparatuses in connection with the 2nd Embodiment of this invention. It is a figure for demonstrating the flow of the whole process in the narrow-band light observation in connection with the 2nd Embodiment of this invention.
  • FIG. 10 is a diagram for explaining an example of transition of image display at the time of magnified observation according to Modification 9; It is a schematic diagram of the image which image
  • FIG. 1 is a configuration diagram showing a configuration of an endoscope apparatus according to the present embodiment.
  • an endoscope apparatus 1 includes an electronic device having a CCD 2 that is an imaging device as a biological image information acquisition unit or a biological image information acquisition unit that is inserted into a body cavity and images tissue in the body cavity.
  • the endoscope apparatus 1 has two modes, a normal light observation mode and a narrow band light observation mode. In the following description, since the normal light observation mode of the endoscope apparatus 1 is the same as the conventional normal light observation mode, description of the configuration of the normal light observation mode is omitted, and mainly the narrowband light observation mode. explain.
  • the CCD 2 constitutes an imaging unit or imaging means that receives the return light of the illumination light applied to the subject and images the subject.
  • the light source device 4 as an illuminating unit controls the amount of white light that passes through the xenon lamp 11 that emits illumination light (white light), the heat ray cut filter 12 that blocks the heat ray of white light, and the heat ray cut filter 12.
  • a control circuit 17 that controls the rotation of the rotary filter 14.
  • the xenon lamp 11, the rotary filter 14, and the light guide 15 constitute an irradiation unit or irradiation means for illuminating the subject with illumination light.
  • FIG. 2 is a diagram showing the configuration of the rotary filter 14.
  • the rotary filter 14 is a filter that transmits light from the xenon lamp 11 that is a light source.
  • the rotary filter 14 as a wavelength band limiting unit or wavelength band limiting means is configured in a disc shape and has a structure with the center as a rotation axis, and has two filter groups. .
  • R (red) filter units 14 r and G (green) filter units that constitute a filter set for outputting surface-sequential light having spectral characteristics for normal light observation along the circumferential direction.
  • the 14g, B (blue) filter unit 14b is arranged as the first filter group.
  • three filters 14-600, 14-630, and 14-540 that transmit light of a predetermined narrowband wavelength along the circumferential direction are used as a second filter group. Has been placed.
  • the filter 14-600 is configured to transmit light having a wavelength near 600 nm ( ⁇ 1) as narrowband light.
  • the filter 14-630 is configured to transmit light having a wavelength near 630 nm ( ⁇ 2) as narrowband light.
  • the filter 14-540 is configured to transmit light in the vicinity of a wavelength of 540 nm ( ⁇ 3) as narrowband light.
  • near means a distribution having a central wavelength of 600 nm and a width in the range of, for example, 20 nm (that is, wavelengths from 590 nm to 610 nm before and after the wavelength of 600 nm) when the wavelength is near 600 nm. It means that it has narrow band light. The same applies to the other wavelengths, wavelength 630 nm and wavelength 540 nm described later.
  • the rotary filter 14 is disposed on an optical path from the xenon lamp 11 that is an emission part of the illumination light to the imaging surface of the CCD 2, and at least one of a plurality of wavelength bands of illumination light (here, three) in each mode.
  • the wavelength band is limited to be narrowed.
  • the control circuit 17 controls the motor 18 for rotating the rotary filter 14 to control the rotation of the rotary filter 14.
  • a rack 19a is connected to the motor 18, a motor (not shown) is connected to the pinion 19b, and the rack 19a is attached so as to be screwed to the pinion 19b.
  • the control circuit 17 can move the rotary filter 14 in the direction indicated by the arrow d by controlling the rotation of the motor connected to the pinion 19b. Therefore, the control circuit 17 puts the first filter group on the optical path in the normal light observation mode and the second filter group on the optical path in the narrow-band light observation mode according to a mode switching operation by the user described later.
  • the motor connected to the pinion 19b is controlled so as to be positioned.
  • electric power is supplied from the power supply unit 10 to a motor (not shown) connected to the xenon lamp 11, the diaphragm device 13, the rotary filter motor 18, and the pinion 19b.
  • the illumination unit or the illumination unit irradiates the subject with at least one illumination light having a predetermined wavelength band (here, three narrow-band lights).
  • a predetermined wavelength band here, three narrow-band lights.
  • one of the three illumination lights is a narrow-band light for clearly displaying a deep blood vessel of 1 to 2 mm from the surface layer portion of the mucous membrane, and the remaining two are displaying deep blood vessels.
  • the light source device 4 when the light source device 4 is in the narrow-band light observation mode, the light source device 4 irradiates at least one illumination light through a band limiting unit or a band limiting unit that limits to the first wavelength band (described later) or It is an illumination part.
  • the video processor 7 includes a CCD driver circuit 20 that is a CCD driver, an amplifier 22, a process circuit 23, an A / D converter 24, a white balance circuit (hereinafter referred to as WB) 25, a selector 100, an image processing unit 101, and a selector. 102, ⁇ correction circuit 26, enlargement circuit 27, enhancement circuit 28, selector 29, synchronization memories 30, 31, 32, image processing circuit 33, D / A converters 34, 35, 36, timing generator (hereinafter referred to as T.30).
  • G) 37 a mode switching circuit 42, a dimming circuit 43, a dimming control parameter switching circuit 44, a control circuit 200, and a combining circuit 201 as a display image generating means or a display image generating unit.
  • the CCD drive circuit 20 drives the CCD 2 provided in the electronic endoscope 3 and outputs to the CCD 2 a frame sequential imaging signal synchronized with the rotation of the rotary filter 14.
  • the amplifier 22 amplifies a surface sequential imaging signal obtained by imaging the tissue in the body cavity by the CCD 2 via the objective optical system 21 provided at the tip of the electronic endoscope 3.
  • polarizing plates may be disposed in a crossed Nicol state on the front surface of the CCD 2 that is the image sensor and on the front surface of the light guide 15, respectively. Due to the two polarization edges in the crossed Nicols state, the CCD 2 can image light mainly from the deep mucosa without receiving the reflected light from the mucosal surface.
  • the process circuit 23 performs correlated double sampling, noise removal, and the like on the frame sequential imaging signal via the amplifier 22.
  • the A / D converter 24 converts the frame sequential imaging signal that has passed through the process circuit 23 into a digital sequential frame sequential image signal.
  • W. B25 is equivalent to the brightness of the R signal of the image signal and the B signal of the image signal with respect to the G signal of the image signal, for example, with respect to the frame sequential image signal digitized by the A / D converter 24.
  • the gain is adjusted as described above, and white balance processing is executed.
  • the white balance adjustment in B25 is performed on the basis of the brightness of the return light of the narrow band light near the wavelength of 600 nm.
  • the selector 100 is a W.W.
  • the frame sequential image signal from B25 is distributed to each unit in the image processing unit 101 and output.
  • the image processing unit 101 is an image signal processing unit or image signal processing means for converting the RGB image signals for normal light observation or the three image signals for narrow band light observation from the selector 100 into display image signals. It is.
  • the image processing unit 101 outputs image signals in the normal light observation mode and the narrow band light observation mode to the selector 102 in accordance with the selection signal SS from the control circuit 200 based on the mode signal.
  • the selector 102 sequentially outputs the frame sequential image signals of the normal light observation image signal and the narrowband light observation image signal from the image processing unit 101 to the ⁇ correction circuit 26 and the synthesis circuit 201.
  • the ⁇ correction circuit 26 performs ⁇ correction processing on the frame sequential image signal from the selector 102 or the synthesis circuit 201.
  • the enlargement circuit 27 enlarges the frame sequential image signal that has been subjected to the ⁇ correction processing by the ⁇ correction circuit 26.
  • the enhancement circuit 28 performs edge enhancement processing on the frame sequential image signal that has been enlarged by the enlargement circuit 27.
  • the selector 29 and the synchronization memories 30, 31, and 32 are for synchronizing the frame sequential image signals from the enhancement circuit 28.
  • the image processing circuit 33 reads out the frame sequential image signals stored in the synchronization memories 30, 31, 32, and performs a moving image color misregistration correction process.
  • the D / A converters 34, 35, 36 convert the image signal from the image processing circuit 33 into an RGB analog video signal and output it to the observation monitor 5.
  • T.A. G 37 receives a synchronization signal synchronized with the rotation of the rotary filter 14 from the control circuit 17 of the light source device 4, and outputs various timing signals to each circuit in the video processor 7.
  • the electronic endoscope 2 is provided with a mode switching switch 41 for switching between the normal light observation mode and the narrow-band light observation mode, and the output of the mode switching switch 41 is the mode switching in the video processor 7. It is output to the circuit 42.
  • the mode switching circuit 42 of the video processor 7 outputs a control signal to the dimming control parameter switching circuit 44 and the control circuit 200.
  • the dimming circuit 43 controls the diaphragm device 13 of the light source device 4 and performs appropriate brightness control based on the dimming control parameter from the dimming control parameter switching circuit 44 and the imaging signal passed through the process circuit 23. ing.
  • Each circuit in the video processor 7 executes a predetermined process according to the designated mode. Processing corresponding to each of the normal light observation mode and the narrow band light observation mode is executed, and the normal monitor image or the narrow band light observation image is displayed on the observation monitor 5.
  • the observation monitor 5 is a display means or display unit for displaying an image based on an image signal of a relatively thick blood vessel having a diameter of about 1 to 2 mm in a deep mucosa of about 1 to 2 mm from the surface layer of the mucosa. It is.
  • FIG. 3 is a diagram for explaining the overall processing flow in the narrow-band light observation according to the present embodiment.
  • the surgeon inserts the insertion portion of the endoscope into the body cavity and positions the distal end portion of the insertion portion of the endoscope near the lesioned portion under the normal light observation mode.
  • the operator operates the mode switch 41 to observe a relatively thick blood vessel that travels from the submucosal layer to the intrinsic muscle layer and has a diameter of, for example, 1 to 2 mm. Then, the endoscope apparatus 1 is switched to the narrow band light observation mode.
  • control circuit 17 of the endoscope apparatus 1 controls the motor connected to the pinion 19b so that the light transmitted through the second filter group is emitted from the light source device 4. The position of the rotary filter 14 is moved. Further, the control circuit 200 also controls various circuits in the video processor 7 so as to perform image processing for observation with a narrow band wavelength.
  • illumination light of a narrow-band wavelength is emitted from the distal end portion of the insertion portion of the endoscope 3 from the illumination light generation unit 51, passes through the mucosa layer, The blood vessel 61 traveling through the submucosa and the proper muscle layer is irradiated.
  • the illumination light generation part 51 is comprised including the light source device 4, the rotation filter 14, the light guide 15, etc., and radiate
  • narrowband light having a wavelength of about 600 nm, narrowband light having a wavelength of about 630 nm, and narrowband light having a wavelength of about 540 nm are emitted from the light source device 4 sequentially and sequentially to irradiate the subject. Is done.
  • Reflected light of narrowband light having a wavelength of about 600 nm, narrowband light having a wavelength of about 630 nm, and narrowband light having a wavelength of about 540 nm is received by the reflected light receiving unit 52 that is a CCD 2.
  • the CCD 2 outputs an imaging signal of each reflected light and is supplied to the selector 100 via the amplifier 22 and the like.
  • the selector 100 is a T.W. According to a predetermined timing from G37, the first image signal P1 near the wavelength of 600 nm, the second image signal P2 near the wavelength of 630 nm, and the third image signal P3 near the wavelength of 540 nm are held, and an image processing unit 101.
  • the image processing unit 101 includes a color conversion processing unit 101b for the narrowband light observation mode.
  • an endoscopic device 1 in which an endoscopic device 1 is used to incision and exfoliate the submucosal layer on the inner wall of the gastrointestinal tract such as the stomach, esophagus, and large intestine, the operator can compare the tissues in the tissue using an electric knife or the like. You must not cut the thick blood vessels. When the operator sets the endoscope apparatus 1 to the narrow-band light observation mode, the surgeon can clearly draw a blood vessel below the surface of the living tissue.
  • each image signal is assigned to each RGB channel of the observation monitor 5 and supplied to the selector 102.
  • a relatively thick blood vessel 61 in the deep mucosa is displayed with high contrast. Therefore, the surgeon can perform ESD on the lesioned part while paying attention to the blood vessel 61 displayed on the observation monitor 5 and traveling through the submucosa and the proper muscle layer.
  • FIG. 4 is a diagram showing light absorption characteristics of venous blood. The vertical axis in FIG.
  • the three narrow-band illumination lights are also affected by the scattering characteristics of the living tissue itself, but the scattering characteristics of the living tissue itself are substantially monotonically decreasing with increasing wavelength. This will be explained as the tissue absorption characteristics.
  • venous blood contains oxygenated hemoglobin (HbO 2 ) and reduced hemoglobin (Hb) (hereinafter simply referred to as hemoglobin) in a ratio of approximately 60:40 to 80:20.
  • HbO 2 oxygenated hemoglobin
  • Hb reduced hemoglobin
  • FIG. 4 shows light absorption characteristics of venous blood for each wavelength from 400 nm to about 800 nm. In the range from 550 nm to 750 nm, the absorption coefficient shows a maximum value at a point of about a wavelength of 576 nm, and has a wavelength of about 730 nm. The minimum value is indicated by a point.
  • the narrow-band light observation mode In the narrow-band light observation mode, three narrow-band lights are emitted, and each return light is received by the CCD 2.
  • Narrow band light in the vicinity of a wavelength of 600 nm (hereinafter, referred to as first narrow band light NL1) has a maximum value ACmin (here, absorption coefficient at a wavelength of 576 nm) to a minimum value ACmin (here, absorption coefficient at a wavelength of 730 nm) of absorption characteristics of hemoglobin. )
  • ACmin absorption coefficient at a wavelength of 576 nm
  • minimum value ACmin here, absorption coefficient at a wavelength of 730 nm
  • Narrow band light having a wavelength of around 630 nm (hereinafter referred to as second narrow band light NL2) is also light within the wavelength band R from the maximum value ACmax to the minimum value ACmin of the absorption characteristic of hemoglobin, but the first narrowband light. It is light in a wavelength band that is longer than the wavelength of NL1, has a low absorption coefficient, and suppresses the scattering characteristics of living tissue. Suppressing the scattering characteristic means that the scattering coefficient is lowered toward the long wavelength side.
  • the light source device 4 irradiates the first illumination light NL1 having the peak wavelength of the spectral characteristics between the wavelength band including the maximum value ACmax and the wavelength band of the minimum value ACmin in the absorption characteristics of the living tissue.
  • the light source device 4 has the second illumination light NL2 having a peak wavelength of the spectral characteristic in which the value of the absorption characteristic is lower than the image signal P1 by the first illumination light NL1 and the scattering characteristic of the living tissue is suppressed. Also irradiate.
  • the light source device 4 also irradiates narrow band light having a wavelength near 540 nm (hereinafter referred to as third narrow band light NL3).
  • the third narrowband light NL3 is light in a wavelength band outside the wavelength band R from the maximum value ACmax to the minimum value ACmin of the absorption characteristic of hemoglobin, and can be transmitted by a predetermined distance from the surface layer portion of the mucosal surface of the subject. Illumination light.
  • each image includes a plurality of pixel signals based on the return lights of the first, second, and third narrowband lights NL1, NL2, and NL3.
  • FIG. 5 is a diagram for explaining the light propagation volume in the living tissue of the first narrowband light NL1 ( ⁇ 1) and the second narrowband light NL2 ( ⁇ 2).
  • Each of the first narrowband light NL1 and the second narrowband light NL2 repeats the multiple scattering process in the living tissue, and as a result, is emitted from the mucosal surface as return light.
  • the first narrowband light NL1 and the second narrowband light NL2 have mean free paths MFP1 and MFP2, respectively.
  • the mean free path MFP1 of the first narrowband light NL1 is shorter than the mean free path MFP2 of the second narrowband light NL2.
  • the first narrowband light NL1 near the wavelength 600 nm ( ⁇ 1) reaches the vicinity of the blood vessel 61, and the second narrowband light NL2 near the wavelength 630 nm ( ⁇ 2) is transmitted from the blood vessel 61. Also reach a slightly deeper position. Therefore, by using the first narrowband light NL1, it is possible to display a relatively thick blood vessel having a diameter of 1 to 2 mm, which is in a relatively deep part of 1 to 2 mm below the surface layer of the biological mucous membrane. Furthermore, as will be described later, a thicker blood vessel can be displayed even with the second narrowband light NL2 near the wavelength of 630 nm ( ⁇ 2).
  • FIG. 6 is a diagram for explaining a theoretical basis for displaying a relatively thick blood vessel that is relatively deep below the surface layer of the biological mucous membrane.
  • the relatively thick blood vessel is indicated by BV and the capillary blood vessel is indicated by CB.
  • a simplified model is used in which the return light with respect to the incident light is transmitted light with respect to the incident light, and the wavelength at which the light amount of the return light is maximized is determined for the capillary blood vessels.
  • the transmittance which is the ratio of the output light intensity I L to the input light intensity I 0 of the light input to the capillary CB, is Lambert Beer (Beer ⁇ From Lambert's law, it is expressed by the following equation (1).
  • L [m] is a propagation distance (meter) that is the diameter of the capillary CB, L> 0, and ⁇ [m ⁇ 1 ] is an absorption coefficient per unit meter, and ⁇ > 0. is there.
  • the transmittance which is the ratio of the output light intensity I mL to the input light intensity I 0, of the light input to the blood vessel BV having a diameter mL is expressed by the following equation (2).
  • m is m> 1
  • mL [m] is a propagation distance (meter) which is the diameter of the blood vessel BV.
  • the transmittance difference f ( ⁇ ) always takes a positive value. Differentiating both sides of this formula (3) by ⁇ , the following formula (4) is arranged.
  • the right side of the expression (4) becomes 0 when the condition of the following expression (5) is satisfied. From the expression (5) through the expression (6), the condition is expressed by the expression (7). .
  • f takes the maximum value, that is, the contrast of the blood vessel BV becomes the maximum value.
  • FIG. 7 is a graph showing the function of f. As shown in FIG. 7, in order to maximize the transmittance of two transmitted lights having different optical path differences, it is necessary to select the absorption coefficient ⁇ in Expression (7).
  • the absorption coefficient per mole ⁇ a [m ⁇ 1 M ⁇ 1 ] is expressed by the following equation (10) from the equations (7) and (9).
  • f is the maximum value f Take max .
  • the reference value of hemoglobin concentration c is estimated to be approximately 2.0 ⁇ 10 ⁇ 3 [M].
  • the hemoglobin concentration standard value for men is 12.4 to 17.0 g / dl
  • the molar mass of hemoglobin is 6.6 ⁇ 10 4 g / mol.
  • the wavelength at which the value on the vertical axis is the value of Equation (11) is approximately 600 nm. That is, by using the first narrow-band light NL1 having a wavelength of 600 nm ( ⁇ 1), a relatively thick blood vessel that is relatively deep below the surface layer of the biological mucous membrane can be displayed with the highest contrast.
  • the wavelength band of the first narrowband light NL1 is a wavelength at which the difference in light transmittance between the capillary blood vessel under the biological mucosa of the subject and the blood vessel having a diameter larger than the capillary blood vessel is equal to or greater than a predetermined value. It is a band.
  • FIG. 8 is a diagram showing the light absorption characteristics of oxygenated hemoglobin (HbO 2 ) and reduced hemoglobin (Hb).
  • the solid line graph indicates the absorption characteristic of oxidized hemoglobin (HbO 2 )
  • the one-dot chain line indicates the absorption characteristic of reduced hemoglobin (Hb).
  • the wavelength satisfying the above equation (11) is about 590 nm indicated by the PP1 point in the case of oxygenated hemoglobin (HbO 2 ), and about 602 nm indicated by the point PP2 in the case of reduced hemoglobin (Hb). It turns out that it is. It should be noted that when there is no light scattering, the optical path length and the blood vessel thickness match, but when the light scattering cannot be ignored, the optical path length and the blood vessel thickness do not match.
  • the diameters of deep blood vessels BV and surface capillaries CB vary. Therefore, the same calculation as described above was performed when the diameters of the deep blood vessel BV and the surface capillary CB were changed.
  • FIG. 9 is a table showing the results calculated for combinations when the diameter of the capillary CB is 0.01 mm and 0.1 mm and when the diameter of the thick blood vessel BV is 1 mm and 2 mm. From FIG. 9, the average wavelength is about 590 nm for oxidized hemoglobin (HbO 2 ) and about 603 nm for reduced hemoglobin (Hb).
  • HbO 2 oxidized hemoglobin
  • Hb reduced hemoglobin
  • the minimum wavelength in FIG. 9 is 586 nm, and the maximum wavelength is 614 nm. Therefore, from FIG. 9, the range of light in which relatively thick blood vessels can be displayed with high contrast is from 585 nm which is the minimum wavelength to 615 nm which is the maximum wavelength. That is, by using narrow-band light between 15 nm before and after the wavelength of 600 nm in the range indicated by the dotted line in FIG. 8, relatively thick blood vessels can be displayed with high contrast.
  • FIG. 27 is a schematic diagram of an image obtained by photographing the abdominal cavity of an animal using a spectroscopic endoscope apparatus capable of irradiating narrow-band illumination light in a time series with a center wavelength of 10 nm.
  • the blood vessel V1 and the blood vessel V2 in the image are thick blood vessels that run from the upper left direction to the lower right direction in the image.
  • the blood vessel V1 is located deeper from the mucosal surface than the blood vessel V2.
  • a total of 15 patterns of monochrome images were taken in 10 nm steps from 540 nm to 680 nm.
  • FIG. 28 is a graph in which the vertical axis represents the intensity (logarithmically displayed pixel values) on Line-A in each of the plurality of monochrome images in FIG.
  • the horizontal axis in FIG. 28 represents the position of the pixel on Line-A in each image.
  • the blood vessel V1 has a pixel position in the vicinity of 25 to 50
  • the blood vessel V2 has a pixel position in the vicinity of 75 to 110.
  • the illumination wavelength at which the intensity is attenuated in both the blood vessel V2 present in the relatively shallow portion and the blood vessel V1 located in the deep portion that is, the wavelength at which the illumination light is strongly absorbed in the blood vessel V1 and the blood vessel V2, From FIG. 28, it can be seen that it is approximately 590 nm to 620 nm.
  • narrow-band light of about 590 nm to 620 nm is important wavelength information.
  • the blood vessel V1 exists in a portion about 1 mm to 2 mm deep from the mucosal surface.
  • the result of this experiment is substantially the same as the theoretical calculation result by Beer-Lambert (a relatively thick blood vessel can be displayed with high contrast by using narrow-band light between 15 nm before and after a wavelength of 600 nm). .
  • the illuminating means or illuminating unit including the light source device 4 for displaying a relatively deep deep blood vessel from the surface layer of the biological mucous membrane with a good contrast is minimized from the wavelength band including the maximum value ACmax in the absorption characteristics of the biological tissue.
  • Narrow band light NL1 which is illumination light having a peak wavelength of spectral characteristics, is irradiated between wavelength bands at the value ACmin.
  • an image signal of narrowband light having a wavelength of around 600 nm is generated here, but as described above, there are variations in the diameter of the blood vessel and various depths, so that as shown in FIG.
  • an image signal having a predetermined wavelength width between the wavelength band including the maximum value and the wavelength band including the maximum value in the absorption characteristics of the living tissue, and the peak wavelength of the spectral characteristics in the wavelength band Blood vessels deep in the mucosa can be displayed.
  • the light source device 4 has a peak wavelength of the spectral characteristic in which the value of the absorption characteristic of the return light by the first narrowband light NL1 is low and the scattering characteristic of the living tissue is suppressed, and the first narrowband light NL1.
  • the narrow-band light NL2 that is illumination light having a wavelength band different from the first wavelength band and the third narrow-band light NL3 that can be transmitted by a predetermined distance from the surface layer of the subject are also irradiated.
  • the narrowband light NL2 is a narrowband light for obtaining an image of a blood vessel deeper than the blood vessel displayed by the narrowband light NL1
  • the narrowband light NL3 is a narrowband light for obtaining an image of a capillary blood vessel in the surface layer portion. Band light.
  • FIG. 10 is a diagram illustrating an example of an endoscopic image for explaining a display example of blood vessels in the endoscopic image in the narrow-band light observation mode.
  • a blood vessel at a depth of 1 to 2 mm from the surface layer portion is not displayed on the endoscope image EI of the observation monitor 5 or is difficult to be displayed in the captured endoscope image EI. .
  • the image processing unit 101 has a predetermined peak wavelength of spectral characteristics between the wavelength band including the maximum value ACmax and the wavelength band at the minimum value ACmin in the absorption characteristics of the living tissue after imaging by the imaging unit or the imaging unit.
  • An image output means or an image output unit for outputting the image signal P1 ( ⁇ 1) in the wavelength band is configured.
  • the surface of the mucosa is not only displayed by a relatively thick blood vessel in the deep mucosa but also by bleeding from the mucosa. In the state covered with blood, the state of the bleeding flow can also be displayed.
  • the bleeding site i.e., the bleeding point
  • the bleeding point on the mucosal surface under the blood can be easily found, so that the surgeon can quickly perform the hemostasis treatment.
  • FIG. 11 is a diagram for explaining an example of an image obtained by imaging the state where the mucous membrane surface is covered with blood and bleeding in the narrow-band light observation mode.
  • FIG. 12 is a diagram for explaining a state in which the mucosal surface is covered with blood and bleeding.
  • FIG. 11 there is a case where bleeding from a bleeding point 72 on the mucosal surface 71a of the mucous membrane 71 causes the mucosal surface 71a to be covered with the bleeding blood 73 (shown by a dotted line).
  • the narrow band light near the wavelength of 600 nm is transmitted through the blood 73 and the blood flowing from the bleeding point 72 on the mucosal surface 71a is displayed.
  • the density (that is, concentration) of blood ejected from the bleeding point 72 is high near the bleeding point 72. Therefore, since the blood flow BF flowing out from the bleeding point 72 can be visually recognized, the bleeding point 72 below the blood 73 can be specified, and the surgeon can quickly perform hemostasis treatment on the bleeding point 72. As a result, the operation time is shortened.
  • FIG. 13 is a diagram for explaining an example of an image obtained by imaging the blood pool portion on the mucosal surface in the narrow-band light observation mode.
  • the blood pool in the body can be mixed with bleeding and water by treatment. Such a blood reservoir is only observed in the red color of blood in white light observation.
  • the narrowband light near the wavelength of 600 nm is transmitted through the blood 73 containing water in the blood reservoir, and below the mucosal surface 71a.
  • a blood vessel 61 is displayed. Therefore, when the narrow-band light observation mode is set during the operation, the blood vessel 61 under the mucosal surface under the blood reservoir can be seen on the observation monitor.
  • the image processing unit 101 includes a color conversion processing unit 101b and executes color conversion processing.
  • the color conversion processor 101b receives the first image signal P1 ( ⁇ 1), the second image signal P2 ( ⁇ 2), and the third image signal P3 ( ⁇ 3).
  • FIG. 14 is a block diagram for explaining the configuration of the image processing unit 101.
  • Three image signals from the image sensor are input to the color conversion processing unit 101b.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the first image signal P1 ( ⁇ 1), the second image signal P2 ( ⁇ 2), and the third image signal P3 ( ⁇ 3), Output to the observation monitor 5.
  • the color conversion processing unit 101b In order to display the deep blood vessel 61 with high contrast by the narrowband light NL1 near the wavelength of 600 nm, the color conversion processing unit 101b outputs the first image signal P1 ( ⁇ 1) so as to be output to the observation monitor 5 as a monochrome image.
  • the first image signal P1 ( ⁇ 1) may be input to the monochrome image display circuit and output to the observation monitor 5 as a monochrome image.
  • the image processing unit 101 is an image output unit or image output unit that outputs the first image signal P1 ( ⁇ 1) based on the image signal obtained by imaging the return light by the imaging unit or the CCD 2 that is the imaging unit.
  • the color conversion processing unit 101b uses at least one of the second image signal P2 ( ⁇ 2) and the third image signal P3 ( ⁇ 3) in addition to the first image signal P1 ( ⁇ 1). Conversion processing may be performed.
  • modifications 1 to 3 of the color conversion processing of the color conversion processing unit 101b will be described.
  • the color conversion processing unit 101b performs processing of the following expression (12), and the luminance value ImA ( ⁇ 1) of the first image signal P1 ( ⁇ 1) and the second image signal P2 ( ⁇ 2).
  • the luminance value Im ( ⁇ 2) and the luminance value Im ( ⁇ 3) of the third image signal P3 ( ⁇ 3) are assigned to the G, R, and B channels, respectively.
  • the relatively thick blood vessel 61 in the deep part is displayed in a slightly reddish color, so that it is easy for the operator to understand.
  • FIG. 15 is a diagram for explaining a display example of an endoscopic image using three image signals.
  • a deep blood vessel 61 shown by a solid line is displayed in a slightly reddish color
  • a blood vessel 61A deeper than the blood vessel 61 (shown by an alternate long and short dash line) is displayed in blue to black
  • a capillary vessel 61B shown by a dotted line is Displayed in nearly yellow.
  • the mucous membrane of living tissue and blood on the mucosal surface are also displayed in a substantially yellow color.
  • the third narrowband light NL3 is light having a wavelength near 540 nm, but in order to obtain surface layer information, blue light having a shorter wavelength, for example, light having a wavelength near 460 nm or a wavelength near 415 nm may be used.
  • narrow-band light NL1 having a high absorption near wavelength 600nm to the G channel and narrow-band light NL2 having a wavelength lower than 630nm lower than narrow-band light NL1 to the R channel deep blood vessels 61 and 61A Each can be displayed in a color (slightly reddish) different from the surface color of the living tissue. Even if blood due to bleeding is present on the mucosal surface of the living tissue, the deep blood vessel 61 and the deep blood vessel 61A are displayed in different colors, so that they are easily visible to the operator.
  • the bleeding point 72 described with reference to FIGS. 11 and 12 alternately changes between yellow and orange. This is because the blood density (that is, concentration) at the bleeding point 72 or the thickness of the blood layer dynamically changes during bleeding. In a place far from the bleeding point 72, the blood density or the blood layer thickness does not change dynamically, so that the color tone of the blood remains yellow or orange.
  • the color tone in the image changes in the vicinity of the bleeding point 72, so that the operator can easily recognize the bleeding point 72 by the color change. Further, the operator can also recognize the thickness of the blood 73 layer by the change of yellow and orange.
  • the first image signal P1 ( ⁇ 1), the second image signal P2 ( ⁇ 2), and the third image signal P3 ( ⁇ 3) may be assigned to the G, B, and R channels, respectively. Good.
  • a display image similar to the image obtained by the color conversion process of the above equation (12) is performed by adjusting the intensity of each image signal such as multiplying each value of the matrix of the equation (12) by a coefficient. Can be displayed on the observation monitor 5.
  • the deep blood vessel 61 is displayed in a slightly blue or blue-green color, and the capillaries in the surface layer are also displayed in red, so that it is easy for the operator to understand.
  • the following equation (15) may be used instead of the above equation (12).
  • is approximately 1.0 to 1.5
  • is approximately 2.0 to 2.6
  • the color tone of the deep blood vessel is blue-green
  • the color tone of the mucous membrane is similar to that of normal observation, so that the operator can easily observe without stress.
  • is a numerical value of approximately 2.3 to 2.7
  • is approximately 2.3 to 2.7
  • narrowband light near the wavelength of 540 nm is assigned to the B channel
  • narrowband light near the wavelength of 630 nm is assigned to the G channel
  • narrowband light near the wavelength of 600 nm is assigned to the R channel. You may do it.
  • narrowband light having a wavelength of about 540 nm may be assigned to the B channel and G channel, and narrowband light having a wavelength of about 600 nm or narrowband light having a wavelength of about 630 nm may be assigned to the R channel.
  • the color balance adjustment will be described.
  • the R channel It is desirable to amplify the B channel signal with respect to the above signal.
  • the signal intensity of narrowband light near the wavelength of 600 nm is not corrected, and the signal intensity of narrowband light near the wavelength of 540 nm assigned to the B channel is 0. 0 of the signal intensity of narrowband light near the wavelength of 630 nm assigned to the R channel.
  • the two signals are adjusted to be 7 to 2.5 times.
  • the color conversion process may be performed after the color balance adjustment, or the color balance process may be performed after the color conversion process.
  • Such a color balance adjustment circuit for color balance adjustment is disclosed in W.W. You may provide in the front
  • the color balance adjustment circuit outputs the signal of the narrow band light near the wavelength of 540 nm allocated to the B channel.
  • the signal of the narrowband light near the wavelength of 630 nm to be assigned to the R channel is about 0.6 to 1.0 times.
  • the color balance adjustment may be performed in the color conversion processing unit 101b, or may be performed by adjusting the intensity of illumination light in the light source device 4, or for each color of the color filter of the image sensor.
  • the transmission may be adjusted.
  • the color conversion processing unit 101b assigns the first image signal P1 ( ⁇ 1) to the G and B channels and assigns the second image signal P2 ( ⁇ 2) to the R channel. May be performed.
  • the endoscopic image EI bleeding and deep blood vessels are displayed in a slightly reddish color, mucous membranes are displayed in whitish, and surface capillaries are not substantially displayed.
  • the color conversion processing unit 101b performs a process of assigning the first image signal P1 ( ⁇ 1) to the R channel and assigning the third image signal P3 ( ⁇ 3) to the G and B channels. It may be.
  • the endoscopic image EI bleeding and mucous membranes are displayed in a slightly reddish color, and deep blood vessels are displayed in a greenish color.
  • the gain of each channel may be adjusted.
  • the gain of the G and B channels to which the third image signal P3 ( ⁇ 3) is assigned is 1.3 to 1.5 times higher than the gain of the R channel to which the first image signal P1 ( ⁇ 1) is assigned.
  • bleeding and mucous membranes are displayed in reddish colors, and deep blood vessels are displayed in blue to green colors.
  • the gain of the G and B channels to which the third image signal P3 ( ⁇ 3) is assigned and the gain of the R channel to which the first image signal P1 ( ⁇ 1) is assigned are increased in the order of B, R, and G. If so, bleeding and mucous membranes are displayed in brown, and deep blood vessels are displayed in blue to green colors.
  • the gain of the G and B channels to which the third image signal P3 ( ⁇ 3) is assigned and the gain of the R channel to which the first image signal P1 ( ⁇ 1) is assigned are in the order of B, G, and R. If it is set to be high, bleeding and mucous membranes are displayed in reddish colors, and deep blood vessels are displayed in greenish colors.
  • the relatively thick blood vessel in the deep mucosa is clearly displayed using the first image signal P1 among the three image signals from the image sensor 2.
  • the endoscope apparatus 1 can be realized.
  • the narrow-band light having the absorption characteristics as described above between the maximum value and the minimum value of the absorption characteristics of the living tissue as shown in FIG. A relatively thick blood vessel in a relatively deep part of the biological mucous membrane is emphasized by the image and displayed on the screen of the observation monitor 5. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the color conversion processing unit 101b uses two or three of the first to third image signals P1, P2, and P3, and the first image signal P1, the second image signal P2, and the like. If channels are assigned to the third image signal P3 and output to the observation monitor 5, relatively deep blood vessels, capillaries on the mucosal surface layer, and the like can be displayed.
  • the endoscope apparatus 1 it is possible to display blood vessels in a portion close to the surface layer portion of the biological mucosa using the third narrowband light NL3.
  • the third narrow-band light NL3 near the wavelength of 540 nm is used, the state of the capillary blood vessel in the surface layer portion is displayed on the screen of the observation monitor 5 simultaneously with the thick blood vessel.
  • the second narrowband light NL2 near the wavelength of 630 nm is used, the state of the deeper blood vessel is also displayed on the screen of the observation monitor 5.
  • the surgeon uses the endoscopic image on the screen of the observation monitor 5 not only for the treatment but also for the diagnosis of living tissue, for example, cancer, from the state of the capillary blood vessels, for example, the degree of concentration or dispersion of the blood capillaries.
  • the present invention can be used for the presence diagnosis of cancer, the range diagnosis for specifying the range of cancer, and the differential diagnosis for determining benign or malignant of the affected part. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels.
  • the light source device 4 described above generates illumination light in a desired wavelength band using the xenon lamp 11, the rotary filter 14, and the like.
  • the light source device 4 Consists of a plurality of light emitting diodes (LEDs) that emit desired wavelengths, for example, RGB wavelengths corresponding to the first filter group, and wavelengths near 600 nm and 630 nm corresponding to the second filter group. You may comprise so that the light emission part 11A which has the light emitting diode group 11a may be included. In that case, the light emitting unit 11A and the light guide 15 constitute an irradiation unit that irradiates the subject with illumination light.
  • LEDs light emitting diodes
  • a light emitting unit 11 ⁇ / b> A indicated by a dotted line is provided in the light source device 4 instead of the xenon lamp 11, the heat ray cut filter 12, the aperture device 13, the rotary filter 14, and the like. Furthermore, the light source device 4 is provided with a drive circuit 11b for driving each light emitting diode of the light emitting unit 11A at a predetermined timing according to each mode.
  • a light emitting unit 11A having a plurality of LEDs 11a receives power from the power supply 10 and is controlled and driven by the drive circuit 11b under a control signal from the control circuit 17. Even if such a light source device is used or the endoscope device 1 described above is configured, the same effect as described above can be obtained.
  • the light emitting unit 11A may use a laser diode (LD) that emits a predetermined plurality of narrowband lights.
  • LD laser diode
  • the CCD 2 is not a monochrome imaging element, but as a wavelength band limiting unit or a wavelength band limiting unit that transmits the first narrowband light NL1. Even if an RGB color filter or a complementary color filter is provided, the same effect as described above can be obtained.
  • the second narrow-band light NL2 shown in FIG. 4 may be light in a wavelength band longer than the minimum value ACmin (here, the absorption coefficient at a wavelength of 730 nm) of the absorption characteristic of hemoglobin. That is, the wavelength of the second narrowband light NL2 is a wavelength band in which the absorption coefficient is lower than that of the first narrowband light NL1, and the scattering characteristics of the living tissue are suppressed, for example, 740 nm, 770 nm, Even if 805 nm, 810 nm, 50850 nm, 870 nm, 880 nm, 910 nm, 940 nm, 1020 nm, and 1300 nm can be used, the same effect as described above can be obtained (for example, narrowband light NL2 can be obtained at any wavelength of 740 nm to 1300 nm).
  • ACmin the absorption coefficient at a wavelength of 730 nm
  • the narrowband light NL1 is set to a wavelength of 576 nm or more and at least 630 nm or less).
  • the second narrowband light NL2 can be generated when any of a xenon light source, an LED, and an LD is mounted as a light source device.
  • the biological tissue is actually irradiated with at least one narrowband light including the first narrowband light NL1 as illumination light, and the color conversion process described above is performed on the image of the return light.
  • at least one narrowband light is not actually irradiated onto the living tissue, and image information of the return light of each narrowband light is obtained by so-called spectral estimation, and the spectral estimation is performed.
  • the color conversion processing as described above is performed on the obtained spectral image signal of each wavelength.
  • the first narrowband light NL1 is generated by an illumination device having a light emitting element such as a rotary filter or a light emitting diode, and color conversion is performed on an image of the return light.
  • an image signal corresponding to the first narrowband light NL1 is obtained by spectral estimation processing, and color conversion processing is performed on the spectral estimation image signal obtained by the spectral estimation. Is done.
  • FIG. 16 is a configuration diagram illustrating a configuration of an endoscope apparatus 1A according to the second embodiment.
  • the light source device 4 ⁇ / b> A includes a lamp 11 ⁇ / b> B that emits white light, a heat ray cut filter 12, and a diaphragm device 13. Illumination light from the light source device 4A is irradiated to the subject via the light guide 15.
  • the lamp 11B may emit light other than white light.
  • the image sensor 2A provided at the distal end of the insertion portion of the endoscope 3 is a color image sensor.
  • the imaging device 2A is, for example, a color CCD, and has an RGB color filter on the imaging surface.
  • the return light from the subject is received by each pixel unit on the imaging surface via an RGB color filter, which is a wavelength band limiting unit or wavelength band limiting unit, and RGB image signals of three colors are output from the image sensor 2A. Is done.
  • the selector 100A outputs the three RGB image signals to the image processing unit 101A.
  • the image processing unit 101A includes a spectral estimation unit, and outputs a spectral estimation image signal having a wavelength near 600 nm in the narrow-band light observation mode.
  • the spectral estimation unit of the image processing unit 101A has three image signals, specifically, a spectral estimation image signal near a wavelength of 600 nm, a spectral estimation image signal near a wavelength of 630 nm, and a wavelength in the narrow-band light observation mode.
  • a spectral estimation image signal around 540 nm is output.
  • FIG. 17 is a diagram for explaining the overall processing flow in narrowband light observation according to the present embodiment.
  • the image processing unit 101A includes a spectral estimation unit 101c in addition to the color conversion processing unit 101b. That is, the image processing unit 101A configures an image output unit or an image output unit that generates and outputs a first image signal by performing spectral estimation processing on the imaging signal of the return light.
  • the spectral estimation unit 101c from the three RGB images, the first spectral estimation image signal e1 near the wavelength of 600 nm, the second spectral estimation image signal e2 near the wavelength of 630 nm, and the third spectral estimation near the wavelength of 540 nm.
  • the spectral estimation image signal e3 is extracted by spectral estimation processing and output to the color conversion processing unit 101b.
  • the spectral estimation unit 101c calculates an n-dimensional spectral image by matrix calculation based on a priori information given in advance from three inputs, and calculates the calculated n-dimensional spectral estimated image signal. E1, e2, e3 are output selectively from among them.
  • the spectral estimation unit 101c calculates and outputs a spectral estimation image signal e1 near a wavelength of 600 nm, a spectral estimation image signal e2 near a wavelength of 630 nm, and a spectral estimation image signal e3 near a wavelength of 540 nm using matrix calculation or the like. It is configured.
  • the subsequent processing in the color conversion processing unit 101b for the first, second, and third spectral estimation image signals output from the spectral estimation unit 101c is the same as the processing described in the first embodiment. .
  • FIG. 18 is a diagram showing spectral characteristics for explaining a case where three narrow-band light spectral image signals e1, e2, and e3 are estimated from three wide-band light image signals B, G, and R.
  • the three broadband lights B, G, R in FIG. 18 are obtained by the color filter of the image sensor 2A, and the image signals of the three broadband lights B, G, R are input to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates at least one spectral estimated image signal e1 of narrowband light from the three broadband image signals B, G, R by spectral estimation processing.
  • a broadband light image signal B, G, R having a wavelength band as shown in FIG. 18 a spectrally estimated image signal e1 of narrowband light near a wavelength of 600 nm, a spectrally estimated image of narrowband light near a wavelength of 630 nm.
  • a spectral estimation image signal e3 of the signal e2 and the narrowband light in the vicinity of the wavelength of 540 nm is obtained by spectral estimation processing.
  • spectral estimation image signals e1 and e2 of two narrowband lights between the wavelength band R of the maximum value ACmax and the minimum value ACmin in FIG. 4 and spectral estimation image signals e3 of narrowband light outside the wavelength band R and Is obtained by spectral estimation, and the spectral estimated image signals e1, e2, e3 are supplied to the color conversion processing unit 101b.
  • At least one spectral estimated image signal e1 (here, three spectral image signals e1, e2, e3) is derived from image signals of two broadband lights out of the three broadband lights, for example, image signals of the broadband lights G and R. May be obtained by spectral estimation processing.
  • the spectral estimated image signal e1 (here, the three spectral estimated image signals e1, e2, e3) is spectrally separated from the image signal of the narrowband light as shown in FIG. 19 instead of the broadband light as shown in FIG. You may make it obtain by an estimation process.
  • FIG. 19 is a diagram illustrating spectral characteristics for explaining a case where three narrowband light spectral estimation image signals e1, e21, and e31 are estimated from image signals of three narrowband lights Bn, Gn, and Rn. .
  • three spectral estimated image signals that is, a spectral estimated image signal e1 of narrowband light in the vicinity of a wavelength of 600 nm, are obtained from the three narrowband light image signals Bn, Gn, and Rn.
  • the spectral estimation image signal e2 of the narrowband light near the wavelength of 630 nm and the spectral estimation image signal e3 of the narrowband light near the wavelength of 540 nm are estimated.
  • At least one spectral estimation image signal e1 may be obtained by spectral estimation from at least one narrowband light and at least one broadband light. That is, at least one of the three broadband lights in FIG. 18 may be narrowband light, or at least one of the three narrowband lights in FIG. 19 may be broadband light.
  • the three narrow-band lights Bn, Gn, Rn may be obtained by a color filter of the image pickup element 2A having spectral characteristics as shown in FIG. 18 or FIG. It is generated using a rotary filter as shown in Fig. 3, and the return light of the three illumination lights (that is, the illumination lights of the three narrow-band lights Bn, Gn, and Rn) is applied to a monochrome image sensor so as to be obtained. Good.
  • three (or two) broadband light image signals are not obtained by using the color filter of the color imaging device, but are obtained by the light source device in an image having spectral characteristics as shown in FIG. 18 or FIG.
  • the return light of the three (or two) illumination lights generated by arranging the first group of filters having the sensitivity characteristics for obtaining the signal on the optical path is applied to the monochrome image sensor to obtain it. It's okay.
  • FIG. 20 is a diagram for explaining a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101A according to the present embodiment.
  • three images that is, first to third image signals P1, P2, and P3 are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates three spectral estimation image signals e1, e2, and e3 from the input two or three image signals.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the first spectral estimation image signal e1, the second spectral estimation image signal e2, and the third spectral estimation image signal e3. Output to the observation monitor 5.
  • the color filter provided on the surface of the image sensor has been described as an example of an RGB system, but the color filter may be a complementary color system.
  • a relatively thick blood vessel that is relatively deep in the biological mucous membrane is clearly displayed on the screen of the observation monitor 5 by performing the color conversion process described above. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the endoscope apparatus 1A described above can also display blood vessels in a portion close to the surface layer of the biological mucous membrane. Endoscopic images on the screen are identified not only for treatment but also for the state of capillaries, for example, the degree of concentration or dispersion of capillaries, diagnosis of living tissue, for example, the presence diagnosis of cancer and the range of cancer Therefore, it can be used for range diagnosis for diagnosis and differential diagnosis for judging benign or malignant of an affected part. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels.
  • the wavelength of the second spectral estimation image e2 is a wavelength band in which the absorption coefficient is lower than that of the first spectral estimation image e1 and the scattering characteristics of the living tissue are suppressed, for example, 740 nm, 770 nm, Even if 805 nm, 810 nm, 850 nm, 870 nm, 880 nm, 910 nm, 940 nm, 1020 nm, and 1300 nm are used, the same effect as described above can be obtained (for example, the wavelength of the second spectral estimation image e2 is 740 nm to 1300 nm).
  • the wavelength of the first spectral estimation image e1 is set to any wavelength of 576 nm or more and at least 630
  • the fourth and fifth images obtained by spectral estimation may also be used to perform color conversion processing and display on the observation monitor 5. .
  • the biological tissue is actually irradiated with at least one narrowband light including the first narrowband light NL1 as illumination light, and the color conversion process described above is performed on the image of the return light.
  • the biological tissue is not actually irradiated with the three narrowband lights including the first narrowband light NL1, but the image information of the return light of each narrowband light by so-called spectral estimation.
  • the color conversion processing as described above is performed on the spectral estimation image signal of each wavelength obtained by the spectral estimation.
  • the actual illumination light of the narrowband light is obtained. The above-described color conversion processing is performed on the image signal of the return light and the spectral estimation image signal obtained by spectral estimation.
  • FIG. 21 is a diagram illustrating a configuration of the rotary filter 14A according to the present embodiment.
  • the rotary filter 14A only has an RGB filter section that constitutes a filter set for outputting frame sequential light having spectral characteristics for normal light observation.
  • the return light of the frame sequential BGR light is received by the monochrome imaging device 2.
  • FIG. 22 is a diagram for explaining the overall processing flow in the special light observation mode according to the present embodiment.
  • the image processing unit 101B includes a color conversion processing unit 101b and a spectral estimation unit 101c.
  • the spectral estimation unit 101c generates at least one spectral estimation image signal e from two or three image signals in RGB, Color conversion processing is performed on one image signal in RGB and the spectral estimation image signal.
  • a first spectral estimated image signal e1 near a wavelength of 600 nm and a third spectral estimated image signal e3 near a wavelength of 540 nm are obtained.
  • FIG. 23 is a diagram for explaining a flow of processing for an image obtained from the image sensor 2 in the image processing unit 101B according to the present embodiment.
  • three images that is, first to third image signals B, G, and R are input from the image sensor 2 to the spectral estimation unit 101c.
  • the spectral estimation unit 101c estimates and generates two spectral estimation image signals e1 and e3 from the input two or three images.
  • the color conversion processing unit 101b performs color conversion processing by channel assignment on the spectral estimation image signal e1, the spectral estimation image signal e3, and the image signal R, and outputs the result to the observation monitor 5. Note that the processing in the color conversion processing unit 101b is the same as that in the first embodiment.
  • FIG. 24 is a diagram showing spectral characteristics for explaining a case where the spectral estimation image signal e1 of at least one narrowband light is estimated from the image signals B, G, and R of three (or two) broadband lights. is there.
  • two narrow-band light spectral estimation image signals e1 and e3 are estimated from the three broadband light image signals B, G, and R.
  • the spectral estimation unit 101c generates spectral image signals e1, e3 based on at least two imaging signals (here, three imaging signals B, G, R) of the return light from the subject. Spectral estimation is generated by signal processing, and output.
  • the color conversion processing unit 101b receives the spectral estimation image signals e1 and e3 output from the spectral estimation unit 101c and the real image signal R. As described above, the processing in the color conversion processing unit 101b is the same as the processing described in the first embodiment.
  • the thick blood vessel 61 under the mucous membrane can be clearly displayed, and the other two. If at least one of the image signals, that is, the spectral image signal e3 and the real image signal R is color-converted and displayed, not only the thick blood vessel 61 under the mucous membrane but also the surface blood capillaries and the deeper ones A thick blood vessel can also be displayed on the observation monitor 5.
  • the third image signal near the wavelength of 540 nm is obtained by spectral estimation.
  • the second image signal near the wavelength of 630 nm is obtained by spectral estimation, and the image signal B is obtained as a real image. It may be used.
  • the illumination light for obtaining a realistic image signal may be the narrowband light described with reference to FIG.
  • the three broadband lights B, G, and R in FIG. 23 may be obtained by the color filter of the image sensor 2A. That is, the three broadband lights B, G, and R may be obtained by using the light source device 4A described in the second embodiment and the color filter of the image sensor 2A. Therefore, also with the endoscope apparatus 1B of the present embodiment, the same effects as those of the endoscope apparatuses 1 and 1A described above can be obtained.
  • the color filter when the color filter provided on the surface of the image sensor is used, the RGB type has been described as an example.
  • the color filter may be a complementary color filter.
  • a relatively thick blood vessel that is relatively deep in the biological mucous membrane is clearly displayed on the screen of the observation monitor 5. Therefore, the surgeon can confirm a relatively thick blood vessel and perform a desired treatment such as ESD.
  • the endoscope apparatus 1A described above can also display blood vessels in a portion close to the surface layer of the biological mucous membrane. Therefore, the surgeon can use the endoscopic image on the screen of the observation monitor 5 not only for the treatment but also for the diagnosis of the living tissue, for example, the diagnosis of the presence of cancer based on the degree of concentration or dispersion of the capillaries. It can also be used for range diagnosis for specifying the range of cancer and cancer, and for differential diagnosis for determining benign or malignant of the affected area. Furthermore, it is also possible to perform a depth of diagnosis that is conscious of deeper blood vessels.
  • the wavelength of the second narrowband light NL2 or the second spectral estimated image signal e2 is light in a wavelength band longer than the minimum value ACmin (here, the absorption coefficient at a wavelength of 730 nm) of the absorption characteristic of hemoglobin in FIG. It may be. That is, the wavelength of the second narrowband light NL2 or the second spectral estimated image signal e2 has a lower absorption coefficient than the wavelength of the first narrowband light NL1 or the first spectral estimated image signal e1.
  • 740 nm, 770 nm, 805 nm, 810 nm, 850 nm, 870 nm, 880 nm, 910 nm, 940 nm, 1020 nm, and 1300 nm are used in the wavelength band in which the scattering characteristics of living tissue are suppressed.
  • the wavelength of the second narrowband light NL2 or the second spectral estimation image signal e2 is set to any one of 740 nm to 1300 nm, the first narrowband light NL1,
  • the wavelength of the first spectral estimation image signal e1 is set to any wavelength of 576 nm or more and at least 630 nm or less).
  • Modification 1 the light absorption characteristic of venous blood is taken as an example, and two narrowband lights are selected based on the characteristic, but the light absorption characteristic of arterial blood or Based on the light absorption characteristics of blood that combines both venous blood and arterial blood, at least two narrowband lights as described above may be selected.
  • the wavelength of each of the first narrowband light NL1 and the second narrowband light NL2 is 600 nm.
  • the light in the vicinity and the light in the vicinity of 630 nm are used.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 are preferably wavelengths in the range of 580 to 620 nm, respectively.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 are each 600 nm.
  • the light is not limited to light in the vicinity and light in the vicinity of a wavelength of 630 nm, and light of any wavelength may be used.
  • the wavelengths of the first narrowband light NL1 and the second narrowband light NL2 respectively, the light near the wavelength 610 nm and the light near the wavelength 645 nm, or the light near the wavelength 630 nm and the light near the wavelength 660 nm are used. Also good.
  • the wavelength of the third narrowband light NL3 is not limited to this.
  • the wavelength of the third narrowband light NL3 light having a wavelength near 415 nm or light having a wavelength of 460 nm shorter than the wavelength 540 nm may be used.
  • light having a wavelength near 415 nm or light having a wavelength of 460 nm is preferable, which is shorter than light having a wavelength near 540 nm.
  • Modification 4 In the light source device of each embodiment and each modification described above (including the modification of each embodiment), it has been described that a lamp, LED, LD, or the like of a heat source is used, but other means are used. Also good. For example, a tunable laser may be used as the light source means or the light source unit, or broadband light may be generated by exciting a phosphor with an LED or LD, and the light may be used.
  • Modification 5 In the endoscope apparatus of each embodiment and each modification described above (including the modification of each embodiment), when radiating narrowband light, for example, narrowband light near a wavelength of 600 nm is generated by a laser, Narrow band light around a wavelength of 630 nm may be generated by an LED. Further, narrow band light near a wavelength of 600 nm may be generated by an LED, and narrow band light near a wavelength of 630 nm may be generated by a laser. When laser light is used, noise in the depth direction can be reduced.
  • a relatively thick blood vessel in the deep mucosa is clearly displayed by an image of narrow-band light in the vicinity of a wavelength of 600 nm.
  • an image of a narrowband light having a longer wavelength may be used.
  • the observation monitor 5 is displayed with the combination of the wavelength near 600 nm and the wavelength near 630 nm as described above.
  • other combinations are prepared in advance, and the operator can select a desired combination from a plurality of combinations. A combination may be selected.
  • the surgeon can clearly display a blood vessel having a desired depth while changing the depth of the blood vessel by selecting a combination, and further deeper by using the second image signal. Blood vessels can also be displayed and observed.
  • FIG. 25 is a diagram showing light absorption characteristics of venous blood for explaining the sixth modification.
  • one of the two combinations is a first combination of a narrowband light NL1 near a wavelength of 600 nm and a narrowband light NL2 near a wavelength of 630 nm, and the other is a narrowband light NL12 near a wavelength of 650 nm.
  • Which combination is selected can be selected by the user. For example, by selecting a mode, the user can select which combination is used for display.
  • a combination of a narrowband light near a wavelength of 615 nm and a narrowband light near a wavelength of 645 nm, a combination of a narrowband light near a wavelength of 630 nm and a narrowband light near a wavelength of 660 nm, or the like may be used.
  • the wavelength used is shifted to the longer wavelength side compared to the first combination, so that a deeper image is clearly displayed. Therefore, when the surgeon wants to display a deeper blood vessel, or when blood, bile, urine, etc. are attached to the surface of the mucous membrane of the living body, by selecting the second combination, It becomes possible to display blood vessels clearly.
  • the two wavelengths of each combination preferably have approximately the same wavelength difference in order to obtain similar contrast.
  • the combination of two or more can be realized by increasing the number of rotation filter combinations in the light source device or increasing the number of spectral estimation image signals estimated by the spectral estimation processing.
  • wavelength near 580 nm and a wavelength near 630 nm As a combination of wavelengths of narrowband light, when a relatively shallow blood vessel is clearly displayed from the mucosal surface, there are two combinations of a wavelength near 580 nm and a wavelength near 630 nm, a wavelength near 590 nm, and a wavelength near 630 nm. It is preferable.
  • a combination of wavelengths of narrow band light in the case where a deeper blood vessel from the mucosal surface or a blood vessel under the mucous membrane under the blood or the like is clearly displayed, a combination of a wavelength near 600 nm and a wavelength near 630 nm is used. It is preferable to have two combinations of a wavelength near 650 nm and a wavelength near 680 nm.
  • the operator can select a combination of longer wavelengths (for example, a wavelength around 650 nm) when the concentration of blood or the like adhering to the mucosal surface of the living body is high.
  • a combination near the wavelength 680 nm) and when the blood vessel is in a relatively shallow portion, or when the concentration of blood or the like adhering to the mucosal surface of the living body is low, the combination on the shorter wavelength side (for example, By selecting a combination of a wavelength near 580 nm and a wavelength near 630 nm, a desired blood vessel can be clearly displayed.
  • the wavelength difference between the two narrowband lights of the first image signal NL1 and the second image signal NL2 is constant.
  • One may be fixed and the other variable.
  • the narrowband light near a wavelength of 600 nm is fixed, and the other narrowband light can be arbitrarily set from a wavelength near 630 nm to near 730 nm. You may be able to do it.
  • the other narrow-band light near the wavelength of 730 nm may be fixed, and the variable from the wavelength near 590 nm to the narrow-band light near 620 nm may be set arbitrarily.
  • the narrowband light near 600 nm may be fixed, and the other narrowband light may be arbitrarily set in a wavelength band of 730 nm or more.
  • Modification 8 In each of the above-described embodiments and modifications (including the modifications of each embodiment), three images are obtained and a narrowband image is displayed on the observation monitor 5. A display image may be generated by appropriately selecting from four images so that an eye image is obtained.
  • the endoscope apparatus has a narrow-band light observation mode in addition to the normal light observation mode, and the operator performs various treatments by switching from the normal light observation mode to the narrow-band light observation mode when necessary.
  • a display image in each observation mode can be easily obtained.
  • a fourth image is obtained using a light source device that can further irradiate blue narrow-band light (or broadband light) having a wavelength shorter than 540 nm.
  • the light source device illuminates a first combination of light of the fourth wavelength and narrowband light near the wavelength of 600 nm, and a second combination of narrowband light near the wavelength of 540 nm and narrowband light near the wavelength of 630 nm. Illuminate the subject alternately with light. It is to be noted that illumination light of a combination of the fourth wavelength light, the narrow band light near the wavelength of 540 nm and the narrow band light near the wavelength of 600 nm and the illumination light of the narrow band light near the wavelength of 630 nm are alternately irradiated on the subject. It may be.
  • the return light of each illumination light is received by an image sensor having an RGB color filter.
  • the return light of the fourth wavelength is imaged in the B band of the color filter, and the return light of the narrow band light near the wavelength of 600 nm is imaged in the R band.
  • the color filter of the image sensor may be a complementary color type.
  • the image sensor may be a monochrome image sensor.
  • the normal image for the normal light observation mode includes four light beams of the fourth wavelength, the narrow band light near the wavelength 540 nm, the narrow band light near the wavelength 600 nm, and the narrow band light near the wavelength 630 nm. It is generated using an image of the return light.
  • the first narrowband light image is assigned to the B and G channels
  • the fourth wavelength light image signal is assigned to the R channel
  • the narrowband light image signal near the wavelength of 540 nm is assigned to the R channel.
  • the image is generated using two images of light of four wavelengths and narrowband light near a wavelength of 540 nm.
  • a second narrowband light image is generated using three images of a narrowband light having a wavelength near 540 nm, a narrowband light having a wavelength near 600 nm, and a narrowband light having a wavelength near 630 nm. Note that an image signal of narrow-band light near a wavelength of 600 nm is displayed with high contrast.
  • a normal image for normal light observation and a narrow band light image for narrow band light observation can be displayed simultaneously, or a normal image and a narrow band light image can be superimposed and displayed.
  • the normal light image and the first narrowband light image (or the second narrowband light image) are displayed in parallel, or the first narrowband light image and the second narrowband light image are displayed in parallel.
  • an image signal of four wavelengths of light is used as a B channel, an image signal of a narrow band of light near a wavelength of 540 nm and an image signal of a narrow band of light near a wavelength of 600 nm as a G channel, and an image signal of a narrow band of light near a wavelength of 600 nm (or (Narrowband light image signal near 600 nm wavelength and Narrowband light image signal near 630 nm wavelength) are assigned to the R channel, and the superposition of the blood vessel information in the deep part added to the normal image generates an image and the observation monitor 5 can also be displayed.
  • the image signal of the fourth wavelength light is set to the B channel
  • the image signal of the fourth wavelength light and the image signal of the narrow band light near the wavelength of 600 nm are set to the G channel
  • the image signal of the narrow band light near the wavelength of 600 nm is set.
  • Or narrowband light image signal near 600 nm wavelength and narrowband light image signal near 630 nm wavelength is assigned to the R channel to generate an image with high contrast in both the superficial and deep blood vessels. It can also be displayed on the observation monitor 5.
  • the image signal of the fourth wavelength may be generated by spectral estimation.
  • the normal image and the narrowband light image can be displayed in parallel or superimposed.
  • a narrow-band light image in the narrow-band light observation mode that clearly displays thick blood vessels in the deep mucosa until the surgeon identifies the lesion and then incises and peels it off. It can be displayed on the observation monitor 5. Note that the narrow-band light image in the narrow-band light observation mode and the normal light image in the normal light observation mode are displayed in parallel on the observation monitor 5 from the time the surgeon specifies the lesioned part until the incision and separation. May be.
  • the surgeon performs hemostasis while viewing the narrow band light image (or the parallel display of the narrow band light image and the normal light image) displayed on the observation monitor 5.
  • the narrow band light image or the parallel display of the narrow band light image and the normal light image displayed on the observation monitor 5.
  • bleeding there may be a bleeding point under the blood, and it may be better to perform the hemostatic treatment while viewing the narrow-band light image.
  • the surgeon can check the hemostasis state after the hemostasis treatment is completed by looking at the normal light image.
  • the operator can check the hemostasis state after the hemostasis procedure is completed by changing the endoscope device to the normal light observation mode and observing the normal light image. 5 can be performed.
  • the lesion is observed. While displaying the normal light image or the conventional narrow-band light image (image corresponding to the narrow-band light near the wavelength of 415 nm and near the wavelength of 540 nm) on the observation monitor 5, the lesion part is enlarged and displayed as necessary. In-depth diagnosis may be performed.
  • the surgeon performs a diagnosis of the depth of the lesion by enlarging a conventional narrow-band light image (an image corresponding to a narrow-band light having a wavelength of about 415 nm and a wavelength of about 540 nm).
  • a new narrowband light image is displayed on the observation monitor 5 together with the conventional narrowband light image by using the endoscope apparatus according to each embodiment and each modification (including the modification of each embodiment). By doing so, the surgeon can more accurately diagnose the depth of the lesion.
  • FIG. 26 is a diagram for explaining an example of transition of image display at the time of magnified observation of the modified example 9.
  • the surgeon observes or diagnoses the lesion while displaying an ordinary light image or a conventional narrow-band light image (an image corresponding to narrow-band light having a wavelength of about 415 nm and a wavelength of about 540 nm) EI1 on the observation monitor 5.
  • an ordinary light image or a conventional narrow-band light image an image corresponding to narrow-band light having a wavelength of about 415 nm and a wavelength of about 540 nm
  • the observation monitor 5 can not only display an enlarged conventional narrowband light image (an image corresponding to a narrowband light near a wavelength of 415 nm and 540 nm) EI2, According to the operator's instruction, the conventional narrowband light image (image corresponding to narrowband light near wavelength 415 nm and wavelength 540 nm) EI1 and a new narrowband light image (for example, narrowband light near wavelength 600 nm) It is also possible to display an image EI3 including (image).
  • This image EI3 includes a conventional narrowband light image (an image corresponding to narrowband light having a wavelength of about 415 nm and a wavelength of about 540 nm) and a new narrowband light image (for example, an image corresponding to a narrowband light having a wavelength of about 600 nm). May be displayed in parallel, or a conventional narrowband light image (an image corresponding to a narrowband light near a wavelength of 415 nm and a wavelength near 540 nm) and a new narrowband light image (for example, a narrowband light near a wavelength of 600 nm). A corresponding image) may be superimposed and displayed. Since the image EI3 includes an image of a deeper blood vessel from the mucosal surface, the surgeon can more accurately diagnose the depth of the lesion such as cancer.
  • the blood vessels in the deep mucosa are clearly displayed without the complicated operation of drug administration.
  • a possible endoscopic device can be provided.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 内視鏡装置1は、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する光源装置4と、光源装置4からの照明光の照射に基づく被検体からの戻り光を撮像するCCD2と、CCD2による撮像後、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の波長帯域の第1の画像信号P1を出力する画像処理部101と、第1の画像信号に基づき画像表示を行う観察モニタ5と、を備える。

Description

内視鏡装置
 本発明は、内視鏡装置に関し、特に、被検体内部の血管を表示することが可能な内視鏡装置に関する。
 従来より、医療分野において、内視鏡を用いた低侵襲な各種検査や手術が行われている。術者は、体腔内に内視鏡を挿入し、内視鏡挿入部の先端部に設けられた撮像装置により撮像された被写体を観察し、必要に応じて処置具チャンネル内に挿通した処置具を用いて病変部に対して処置をすることができる。内視鏡を用いた手術は、開腹等をすることがないため、患者の身体的負担が少ないというメリットがある。
 内視鏡装置は、内視鏡と、内視鏡に接続された画像処理装置と、観察モニタとを含んで構成される。内視鏡挿入部の先端部に設けられた撮像素子により病変部が撮像され、そのモニタにその画像が表示される。術者は、そのモニタに表示された画像を見ながら、診断あるいは必要な処置を行うことができる。
 また、内視鏡装置には、白色光を用いた通常光観察だけでなく、内部の血管を観察するために、赤外光等の特殊光を用いた特殊光観察ができるものもある。 
 赤外内視鏡装置の場合、例えば、波長805nm付近の近赤外光に吸収ピークの特性を持つインドシアニングリーン(ICG)が薬剤として患者の血中に注入される。そして、光源装置から波長805nm付近及び930nm付近の赤外光を時分割で被写体に照射する。CCDで撮像された被写体像の信号は、赤外内視鏡装置のプロセッサに入力される。例えば、日本特開2000-41942号公報に開示のように、このような赤外内視鏡装置に関しては、プロセッサは、波長805nm付近の像を緑色信号(G)に、波長930nm付近の像を青色信号(B)に、割り当てて、モニタに出力する装置が、提案されている。ICGにより吸収の多い画像805nm付近の赤外光の像を、緑色に割り当てているので、術者は、ICG投与時の赤外画像をコントラスト良く観察できる。
 例えば、内視鏡を用いて、病変部の存在する粘膜下層を切開し、剥離する粘膜下層剥離術(以下、ESD(Endoscopic Submucosal Dissection)という)等では、電気メスなどによって粘膜中の比較的太い血管を切ってしまわないように、術者は、そのような血管の位置を確認して、切開等の処置を行う。重度の出血を起こすおそれのある血管は、粘膜下層から固有筋層を走行している。ESD等の手技において重度の出血が発生した場合、その都度止血作業をしなければならないので、手術時間が長くなってしまう。
 しかし、上述した赤外内視鏡装置を用いて、血管の位置を確認するためには、上述したように、ICG等の薬剤を静脈注射するという煩雑な作業が必要となる。 
 また、上記赤外内視鏡装置の場合、照明光の波長が近赤外光の波長であるため、画像における血管がぼやけてしまうという問題もある。
 そこで、本発明は、上述した問題に鑑みて成されたものであり、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することを目的とする。
 本発明の一態様の内視鏡装置は、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する照明部と、前記照明部の照射に基づく前記被検体からの戻り光を撮像する撮像部と、前記撮像部による撮像後、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の波長帯域の第1の画像信号を出力する画像出力部と、前記第1の画像信号に基づき画像表示を行う表示部と、を備える。
本発明の第1の実施の形態に関わる内視鏡装置の構成を示す構成図である。 本発明の第1の実施の形態に関わる回転フィルタ14の構成を示す図である。 本発明の第1の実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。 本発明の第1の実施の形態に関わる静脈血の光の吸収特性を示す図である。 本発明の第1の実施の形態に関わる、第1の狭帯域光NL1(λ1)と第2の狭帯域光NL2(λ2)の生体組織内における光の伝播ボリュームを説明するための図である。 本発明の第1の実施の形態に関わる、生体粘膜の表層下の比較的に深部にある、比較的太い血管が表示可能となる理論的な根拠を説明するための図である。 本発明の第1の実施の形態に関わるfの関数を示すグラフである。 本発明の第1の実施の形態に関わる、酸化ヘモグロビン(HbO2)と還元ヘモグロビン(Hb)の光の吸収特性を示す図である。 本発明の第1の実施の形態に関わる、毛細血管CBの径が0.01mmと0.1mmの場合と、太い血管BVの径が1mmと2mmの場合の組み合わせについて算出した結果を示すテーブルである。 本発明の第1の実施の形態に関わる、狭帯域光観察モードにおける内視鏡画像における血管の表示例を説明するための内視鏡画像の例を示す図である。 本発明の第1の実施の形態に関わる、粘膜表面が血液で覆われて出血している状態を狭帯域光観察モードで撮像して得られた画像の例を説明するための図である。 本発明の第1の実施の形態に関わる、粘膜表面が血液で覆われて出血している状態を説明するための図である。 本発明の第1の実施の形態に関わる、粘膜表面の血液溜まり部を狭帯域光観察モードで撮像して得られた画像の例を説明するための図である。 本発明の第1の実施の形態に関わる、画像処理部101の構成を説明するためのブロック図である。 本発明の第1の実施の形態に関わる、3つの画像信号を用いた内視鏡画像の表示例を説明するための図である。 本発明の第2の実施の形態に関わる内視鏡装置1Aの構成を示す構成図である。 本発明の第2の実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。 本発明の第2の実施の形態に関わる、3つの広帯域光の画像信号B,G,Rから3つの狭帯域光の分光画像信号e1,e2,e3を推定する場合を説明するための分光特性を示す図である。 本発明の第2の実施の形態に関わる、3つの狭帯域光Bn,Gn,Rnの画像信号から、3つの狭帯域光の分光推定画像信号e1,e21,e31を推定する場合を説明するための分光特性を示す図である。 本発明の第2の実施の形態に関わる画像処理部101Aにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 本発明の第3の実施の形態に関わる回転フィルタ14Aの構成を示す図である。 本発明の第3の実施の形態に関わる特殊光観察モードにおける全体の処理の流れを説明するための図である。 本発明の第3の実施の形態に関わる画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 本発明の第3の実施の形態に関わる、3つ(あるいは2つ)の広帯域光の画像信号B,G,Rから少なくとも1つの狭帯域光の分光推定画像信号e1を推定する場合を説明するための分光特性を示す図である。 変形例6を説明するための、静脈血の光の吸収特性を示す図である。 変形例9の拡大観察時における画像表示の遷移例を説明するための図である。 狭帯域照明光を中心波長10nm刻みで時系列的に照射可能な分光内視鏡装置を用いて動物の腹腔内を撮影した画像の模式図である。 図27の複数のモノクロ画像に対して各画像中のLine-A上の強度(対数表示された画素値)を縦軸に示したグラフである。
 以下、図面を参照して本発明の実施の形態を説明する。 
(第1の実施の形態)
(内視鏡装置の構成)
 以下、図面を参照して本発明の実施の形態を説明する。 
 まず、本実施の形態に関わる内視鏡装置の構成を説明する。図1は、本実施の形態に関わる内視鏡装置の構成を示す構成図である。
 図1に示すように、本実施の形態の内視鏡装置1は、体腔内に挿入し体腔内組織を撮像する生体画像情報取得手段あるいは生体画像情報取得部として撮像素子であるCCD2を有する電子内視鏡3と、電子内視鏡3に照明光を供給する光源装置4と、電子内視鏡3のCCD2からの撮像信号を信号処理して内視鏡画像を観察モニタ5に表示するビデオプロセッサ7とから構成される。内視鏡装置1は、通常光観察モードと狭帯域光観察モードの2つのモードを有する。なお、以下の説明では、内視鏡装置1の通常光観察モードは、従来の通常光観察モードと同じであるので、通常光観察モードの構成の説明は省略し、主として狭帯域光観察モードについて説明する。
 CCD2は、被検体に照射された照明光の戻り光を受光して被検体を撮像する撮像部あるいは撮像手段を構成する。 
 照明手段としての光源装置4は、照明光(白色光)を発光するキセノンランプ11と、白色光の熱線を遮断する熱線カットフィルタ12と、熱線カットフィルタ12を介した白色光の光量を制御する絞り装置13と、照明光を面順次光にする帯域制限手段あるいは帯域制限部としての回転フィルタ14と、電子内視鏡3内に配設されたライトガイド15の入射面に回転フィルタ14を介した面順次光を集光させる集光レンズ16と、回転フィルタ14の回転を制御する制御回路17とを備えて構成される。キセノンランプ11、回転フィルタ14及びライトガイド15が、被検体に対して照明光を照明する照射部あるいは照射手段を構成する。
 図2は、回転フィルタ14の構成を示す図である。回転フィルタ14は、光源であるキセノンランプ11からの光を透過するフィルタである。波長帯域制限部あるいは波長帯域制限手段としての回転フィルタ14は、図2に示すように、円盤状に構成され、中心を回転軸とした構造となっており、2つのフィルタ群を有している。回転フィルタ14の外周側には、周方向に沿って、通常光観察用の分光特性の面順次光を出力するためのフィルタ組を構成するR(赤)フィルタ部14r,G(緑)フィルタ部14g,B(青)フィルタ部14bが、第1のフィルタ群として、配置されている。
 回転14の内周側には、周方向に沿って、3つの所定の狭帯域波長の光を透過させる3つのフィルタ14-600,14-630,14-540が、第2のフィルタ群として、配置されている。
 フィルタ14-600は、狭帯域光として、波長600nm(λ1)付近の光を透過させるように構成されている。フィルタ14-630は、狭帯域光として、波長630nm(λ2)付近の光を透過させるように構成されている。フィルタ14-540は、狭帯域光として、波長540nm(λ3)付近の光を透過させるように構成されている。
 ここで「付近」とは、波長600nm付近の場合は、中心波長が600nmで、波長600nmを中心に、幅が、例えば20nm(すなわち波長600nmの前後である波長590nmから610nm)の範囲の分布を有する狭帯域光であることを意味する。他の波長である、波長630nm、及び後述する波長540nmについても同様である。
 回転フィルタ14は、照明光の出射部であるキセノンランプ11からCCD2の撮像面に至る光路上に配置され、各モードにおいて、照明光の複数の波長帯域のうち少なくとも1つ(ここでは3つ)の波長帯域を狭めるように制限する。 
 そして、制御回路17は、回転フィルタ14を回転させるためのモータ18を制御して、回転フィルタ14の回転を制御する。
 モータ18には、ラック19aが接続され、ピニオン19bには、図示しないモータが接続され、ラック19aは、ピニオン19bに螺合するように取り付けられている。制御回路17は、ピニオン19bに接続されたモータの回転を制御することによって、回転フィルタ14を矢印dで示す方向に移動することができる。よって、制御回路17は、後述するユーザによるモード切替操作に応じて、通常光観察モードのときは第1のフィルタ群を、狭帯域光観察モードのときは第2のフィルタ群を、光路上に位置させるようにピニオン19bに接続されたモータを制御する。 
 なお、キセノンランプ11、絞り装置13、回転フィルタモータ18、及びピニオン19bに接続されたモータ(図示せず)には電源部10より電力が供給される。
 よって、光源装置4は 狭帯域光観察モードのとき、被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光(ここでは、3つの狭帯域光)を照射する照明手段あるいは照明部を構成する。ここでは、3つの照明光のうち1つは、粘膜の表層部から1~2mmの深部の血管を明瞭に表示するための狭帯域光であり、残りの2つは、さらに深部の血管を表示するための狭帯域光と、表層部近傍の範囲の毛細血管を表示するための狭帯域光である。そのために、光源装置4は 狭帯域光観察モードのとき、第1の波長帯域(後述する)に制限する帯域制限手段あるいは帯域制限部を介して少なくとも1つ以上の照明光を照射する照明手段あるいは照明部である。
 ビデオプロセッサ7は、CCDドライバであるCCD駆動回路20、アンプ22、プロセス回路23、A/D変換器24、ホワイトバランス回路(以下、W.Bという)25、セレクタ100、画像処理部101、セレクタ102、γ補正回路26、拡大回路27、強調回路28、セレクタ29、同時化メモリ30、31,32、画像処理回路33、D/A変換器34,35,36、タイミングジェネレータ(以下、T.Gという)37、モード切替回路42、調光回路43、調光制御パラメータ切替回路44、制御回路200、及び、表示画像生成手段あるいは表示画像生成部としての合成回路201を備えて構成される。
 CCD駆動回路20は、電子内視鏡3に設けられたCCD2を駆動し、回転フィルタ14の回転に同期した面順次の撮像信号をCCD2に出力させるものである。また、アンプ22は電子内視鏡3の先端に設けられている対物光学系21を介してCCD2により体腔内組織を撮像した面順次の撮像信号を増幅するものである。
 なお、撮像素子であるCCD2の前面及びライトガイド15の前面に、それぞれ偏光板を、クロスニコルの状態で配設してもよい。クロスニコルの状態の2つの偏光端により、CCD2は、粘膜表面の反射光を受光しないで、主に粘膜深部からの光を撮像することができる。
 プロセス回路23は、アンプ22を介した面順次の撮像信号に対して相関2重サンプリング及びノイズ除去等を行う。A/D変換器24は、プロセス回路23を経た面順次の撮像信号をデジタル信号の面順次の画像信号に変換する。
 W.B25は、A/D変換器24によりデジタル化された面順次の画像信号に対して、例えば画像信号のG信号を基準に画像信号のR信号と画像信号のB信号の明るさが同等となるようにゲイン調整を行い、ホワイトバランス処理を実行する。 
 なお、W.B25におけるホワイトバランス調整は、波長600nm付近の狭帯域光の戻り光の輝度を基準に行われる。 
 セレクタ100は、W.B25からの面順次の画像信号を画像処理部101内の各部に振り分けて出力する。
 画像処理部101は、前記セレクタ100からの通常光観察用のRGBの画像信号又は狭帯域光観察用の3つの画像信号を、表示用の画像信号に変換する画像信号処理部あるいは画像信号処理手段である。画像処理部101は、モード信号に基づく制御回路200からの選択信号SSに応じて、通常光観察モード時及び狭帯域光観察モード時の画像信号を、セレクタ102へ出力する。 
 セレクタ102は、画像処理部101からの通常光観察用画像信号と狭帯域光観察用画像信号の面順次の画像信号をγ補正回路26及び合成回路201に順次出力する。
 γ補正回路26は、セレクタ102あるいは合成回路201からの面順次の画像信号に対してγ補正処理を施す。拡大回路27は、γ補正回路26にてγ補正処理された面順次の画像信号を拡大処理する。強調回路28は、拡大回路27にて拡大処理された面順次の画像信号に輪郭強調処理を施す。セレクタ29及び同時化メモリ30、31,32は、強調回路28からの面順次の画像信号を同時化するためのものである。
 画像処理回路33は、同時化メモリ30、31,32に格納された面順次の各画像信号を読み出し、動画色ずれ補正処理等を行う。D/A変換器34,35,36は、画像処理回路33からの画像信号を、RGBのアナログの映像信号に変換し観察モニタ5に出力する。T.G37は、光源装置4の制御回路17から、回転フィルタ14の回転に同期した同期信号を入力し、各種タイミング信号を上記ビデオプロセッサ7内の各回路に出力する。
 また、電子内視鏡2には、通常光観察モード及び狭帯域光観察モードの切替のためのモード切替スイッチ41が設けられており、このモード切替スイッチ41の出力がビデオプロセッサ7内のモード切替回路42に出力されるようになっている。ビデオプロセッサ7のモード切替回路42は、制御信号を調光制御パラメータ切替回路44及び制御回路200に出力するようになっている。調光回路43は、調光制御パラメータ切替回路44からの調光制御パラメータ及びプロセス回路23を経た撮像信号に基づき、光源装置4の絞り装置13を制御し適正な明るさ制御を行うようになっている。
 ビデオプロセッサ7内の各回路は、指定されたモードに応じた所定の処理を実行する。通常光観察モードと狭帯域光観察モードのそれぞれに応じた処理が実行されて、観察モニタ5には、通常光観察用画像あるいは狭帯域光観察画像が表示される。観察モニタ5は、後述するように、粘膜の表層部から1~2mm程度の粘膜深部における、直径が1~2mm程度の比較的太い血管の画像信号に基づいて画像表示を行う表示手段あるいは表示部である。
(狭帯域光観察の全体の処理の流れ)
 次に、本実施の形態における狭帯域光観察の全体の大まかな流れを簡単に説明する。 
 図3は、本実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。 
 術者は、内視鏡の挿入部を体腔内に挿入し、通常光観察モード下で、内視鏡挿入部の先端部を病変部近傍に位置させる。術者は、処置対象の病変部を確認すると、粘膜下層から固有筋層を走行する、比較的太い、例えば直径が1~2mmの、深部の血管を観察するために、モード切替スイッチ41を操作して、内視鏡装置1を狭帯域光観察モードに切り替える。
 狭帯域光観察モード下では、内視鏡装置1の制御回路17は、第2のフィルタ群を透過した光を、光源装置4から出射するように、ピニオン19bに接続されたモータを制御して、回転フィルタ14の位置を移動させる。さらに、制御回路200も、狭帯域波長による観察のための画像処理を行うように、ビデオプロセッサ7内の各種回路を制御する。
 図3に示すように、狭帯域光観察モードでは、照明光発生部51から、狭帯域波長の照明光が、内視鏡3の挿入部の先端部から出射され、粘膜層を透過して、粘膜下層及び固有筋層を走行する血管61に照射される。ここで、照明光発生部51は、光源装置4、回転フィルタ14、ライトガイド15等を含んで構成され、内視鏡挿入部の先端から照明光を出射する。回転フィルタ14の回転により、波長600nm付近の狭帯域光、波長630nm付近の狭帯域光、及び波長540nm付近の狭帯域光が、連続的にかつ順番に光源装置4から出射されて、被写体に照射される。
 波長600nm付近の狭帯域光、波長630nm付近の狭帯域光、及び波長540nm付近の狭帯域光の反射光は、それぞれCCD2である反射光受光部52により受光される。CCD2は、それぞれの反射光の撮像信号を出力し、アンプ22等を介して、セレクタ100へ供給される。セレクタ100は、T.G37からの所定のタイミングに応じて、波長600nm付近の第1の画像信号P1、波長630nm付近の第2の画像信号P2及び波長540nm付近の第3の画像信号P3を保持して、画像処理部101に供給する。画像処理部101は、狭帯域光観察モードのための色変換処理部101bを含む。
 内視鏡装置1を用いて、例えば胃、食道、大腸などの消化管の内壁の病変部の存在する粘膜下層を切開し、剥離するESDでは、術者は、電気メスなどによって組織中の比較的太い血管を切ってしまわないようにしなければならない。術者は、内視鏡装置1を狭帯域光観察モードに設定すると、生体組織の表面下の血管を明瞭に描画することができる。
 図1の画像処理部101の色変換処理部101bにおいて、各画像信号を、観察モニタ5のRGBの各チャンネルに割り当て、セレクタ102に供給する。その結果、観察モニタ5の画面5a上には、粘膜深部の比較的太い血管61が、高いコントラストで表示される。よって、術者は、観察モニタ5に表示された、粘膜下層及び固有筋層を走行する血管61に注意しながら、病変部にESDを施すことができる。 
 ここで、静脈血の光の吸収特性について説明する。図4は、静脈血の光の吸収特性を示す図である。図4の縦軸は、モル吸光係数(cm-1/M)であり、横軸は、波長である。なお、3つの狭帯域光の照明光は、生体組織自体の散乱特性の影響も受けるが、生体組織自体の散乱特性は、波長の増加に対して略単調減少であるため、図4を、生体組織の吸収特性として説明する。
 一般に、静脈血には、酸化ヘモグロビン(HbO2)と還元ヘモグロビン(Hb)(以下、両者を合わせて単にヘモグロビンという)が、略60:40~80:20の割合で含まれている。光はヘモグロビンにより吸収されるが、その吸収係数は、光の波長毎で異なっている。図4は、400nmから略800nmまでの波長毎の静脈血の光の吸収特性を示し、550nmから、750nmの範囲において、吸収係数は、略波長576nmの点で極大値を示し、略波長730nmの点で極小値を示している。
 狭帯域光観察モードでは、3つの狭帯域光が照射され、それぞれの戻り光が、CCD2において受光される。
 波長600nm付近の狭帯域光(以下、第1の狭帯域光NL1という)は、ヘモグロビンの吸収特性の極大値ACmax(ここでは波長576nmにおける吸収係数)から極小値ACmin(ここでは波長730nmにおける吸収係数)の波長帯域R内の波長帯域の光である。
 波長630nm付近の狭帯域光(以下、第2の狭帯域光NL2という)も、ヘモグロビンの吸収特性の極大値ACmaxから極小値ACminの波長帯域R内の光であるが、第1の狭帯域光NL1の波長よりも長く、吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域の光である。散乱特性が抑制されているとは、散乱係数が、長波長側に向かって低くなっていることを意味する。
 すなわち、光源装置4は、生体組織の吸収特性において極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で分光特性のピーク波長を有する第1の照明光NL1を照射する。
 さらに、ここでは、光源装置4は、第1の照明光NL1による画像信号P1より吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有する第2の照明光NL2も照射する。
 さらに、光源装置4は、波長540nm付近の狭帯域光(以下、第3の狭帯域光NL3という)も照射する。第3の狭帯域光NL3は、ヘモグロビンの吸収特性の極大値ACmaxから極小値ACminの波長帯域R外の波長帯域の光であり、被検体の粘膜表面の表層部から所定の距離だけ透過可能な照明光である。
 CCD2は、3つの狭帯域光の各画像の撮像信号を出力する。よって、各画像は、第1、第2及び第3の狭帯域光NL1,NL2,NL3の各戻り光に基づく、複数の画素信号を含む。
 さらに、照明光である第1の狭帯域光NL1と第2の狭帯域光NL2の生体組織内における光の伝播について説明する。図5は、第1の狭帯域光NL1(λ1)と第2の狭帯域光NL2(λ2)の生体組織内における光の伝播ボリュームを説明するための図である。第1の狭帯域光NL1と第2の狭帯域光NL2のそれぞれは、生体組織内で多重散乱過程を繰り返し、その結果、戻り光として粘膜表面から出射される。第1の狭帯域光NL1と第2の狭帯域光NL2は、それぞれ平均自由行程MFP1,MFP2を有する。そして、第1の狭帯域光NL1の平均自由行程MFP1は、第2の狭帯域光NL2の平均自由行程MFP2よりも短い。
 図5に示すように、波長600nm(λ1)付近の第1の狭帯域光NL1は、血管61の近傍まで到達し、波長630nm(λ2)付近の第2の狭帯域光NL2は、血管61よりもわずかに深い位置まで到達する。よって、この第1の狭帯域光NL1を用いることによって、生体粘膜の表層下の1~2mmの比較的に深部にある、直径が1~2mmの比較的太い血管が表示可能となっている。 
 さらに、後述するように、波長630nm(λ2)付近の第2の狭帯域光NL2によっても、さらに深部のより太い血管が表示可能となっている。
 ここで、この波長600nm(λ1)付近の第1の狭帯域光NL1を用いることによって、生体粘膜の表層下の比較的に深部にある、比較的太い血管が高いコントラストで表示可能となる理論的な根拠について説明する。
 図6は、生体粘膜の表層下の比較的に深部にある、比較的太い血管が表示可能となる理論的な根拠を説明するための図である。図6において、比較的太い血管がBVで、毛細血管はCBで示されている。
 ここでは、入射光に対する戻り光を、入射光に対する透過光とした簡素化したモデルとし、毛細血管に対して、最も戻り光の光量が最大になる波長を求める。
 図6に示すように、毛細血管CBを媒質とした場合に、毛細血管CBに入力する光の入力光強度Iに対する出力光強度ILの比率である透過率は、ランベルト・ベール(Beer-Lambert)の法則から、次の式(1)で示される。
Figure JPOXMLDOC01-appb-M000001
 ここで、L[m]は、毛細血管CBの直径である伝搬距離(メートル)で、L>0であり、μ[m-1]は、単位メートル当たりの吸収係数であり、μ>0である。
 同様に、図6に示すように、直径mLの血管BVに入力する光の入力光強度Iに対する出力光強度ImLの比率である透過率は、次の式(2)で示される。
Figure JPOXMLDOC01-appb-M000002
 ここで、mは、m>1であり、mL[m]は、血管BVの直径である伝搬距離(メートル)である。
 伝搬距離Lの透過率と伝搬距離mLの透過率の差f(μ)は、上記の式(1)と(2)から、次の式(3)により表される。
Figure JPOXMLDOC01-appb-M000003
 透過率の差f(μ)は、常に正の値をとる。 
 この式(3)の両辺をμで微分すると、次の式(4)のように整理される。
Figure JPOXMLDOC01-appb-M000004
 式(4)の右辺が0になるには、次の式(5)の条件を満たす場合であり、式(5)から、式(6)を経て、その条件は、式(7)で表される。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 式(7)に示すμの値を採る場合に、fが最大値をとる、すなわち血管BVのコントラスが最大値となる。
 ここで、式(7)を式(3)に代入すると、fの最大値fmaxは、次の式(8)で示す値となる。
Figure JPOXMLDOC01-appb-M000008
 図7は、fの関数を示すグラフである。図7に示すように、光路差の異なる2つの透過光の透過率を最大化するためには、式(7)の吸収係数μを選択する必要がある。
 μ[m-1-1]を1モル当たりの吸収係数とし、c[M]を吸収物質の濃度(モル)(モル吸収係数)とすると、式(1)は、次の式(9)で表される。
Figure JPOXMLDOC01-appb-M000009
 1モル当たりの吸収係数μ[m-1-1]は、式(7)と式(9)から、次の式(10)で表される、この場合に、fは、最大値fmaxをとる。
Figure JPOXMLDOC01-appb-M000010
 例えば、Lが0.1mm(すなわち直径が0.1mm)の毛細血管CBと、mが10(すなわち直径が1mm)の太い血管BVの2種類の血管を想定した場合、ヘモグロビン濃度の基準値からcは、略2.0×10-3[M]と推定される。なお、ここでは、男性のヘモグロビン濃度基準値が12.4~17.0g/dlで、ヘモグロビンの質量モル濃度が6.6×104g/molとした。
 この値を、式(10)に代入すると、吸収係数μa[m-1-1]は、次の式(11)に示す通りとなる。
Figure JPOXMLDOC01-appb-M000011
 図4において、縦軸の値が式(11)の値になる波長は、略600nmである。すなわち、波長600nm(λ1)の第1の狭帯域光NL1を用いることによって、生体粘膜の表層下の比較的に深部にある、比較的太い血管が最も高いコントラストで表示可能となる。 
 以上のように、第1の狭帯域光NL1の波長帯域は、被検体の生体粘膜下の毛細血管と毛細血管よりも太い径を有する血管の光の透過率の差が所定値以上となる波長帯域である。 図8は、酸化ヘモグロビン(HbO2)と還元ヘモグロビン(Hb)の光の吸収特性を示す図である。図8において、実線のグラフが、酸化ヘモグロビン(HbO2)の吸収特性を示し、一点鎖線のグラフが、還元ヘモグロビン(Hb)の吸収特性を示す。図8から、上記の式(11)を満たす波長は、酸化ヘモグロビン(HbO2)の場合は、PP1の点で示す約590nmで、還元ヘモグロビン(Hb)の場合は、PP2の点で示す約602nmであることが分かる。なお、光の散乱が無い場合は、光路長と血管の太さは一致するが、光の散乱が無視できない場合は、光路長と血管の太さは一致しないことに注意する必要がある。
 深部の血管BVと表層の毛細血管CBの径には、バラツキがある。そこで、上記の同様の計算を、深部の血管BVと表層の毛細血管CBのそれぞれの径を変更した場合について行った。
 図9は、毛細血管CBの径が0.01mmと0.1mmの場合と、太い血管BVの径が1mmと2mmの場合の組み合わせについて算出した結果を示すテーブルである。図9から、式(11)を満たす波長は、平均値として、酸化ヘモグロビン(HbO2)の場合は、約590nmで、還元ヘモグロビン(Hb)の場合は、約603nmである。
 また、図9における最小波長は586nmであり、最大波長は614nmである。よって、図9から、比較的太い血管が高いコントラストで表示可能となる光の範囲は、最小波長である585nmから、最大波長である615nmである。すなわち、図8において点線で示す範囲にある波長600nmの前後15nmの間の狭帯域光を用いることによって、比較的太い血管が高いコントラストで表示可能となる。
 図27は狭帯域照明光を中心波長10nm刻みで時系列的に照射可能な分光内視鏡装置を用いて動物の腹腔内を撮影した画像の模式図である。具体的には、540nm、600nm、630nmの各モノクロ画像を各々Bチャンネル、Gチャンネル、Rチャンネルに割り当てた画像を示す。画像中の血管V1、及び、血管V2は画像中の左上方向から右下方向に走行する太い血管である。血管V2よりも血管V1の方が粘膜表面から深くに位置する。ここでは、540nmから680nmに渡って10nmステップで計15パターンのモノクロ画像を撮影した。
 図28は図27の複数のモノクロ画像に対して各画像中のLine-A上の強度(対数表示された画素値)を縦軸に示したグラフである。図28の横軸は各画像中のLine-A上の画素の位置である。血管V1は画素の位置が25~50付近、血管V2は画素の位置が75~110付近に存在する。比較的浅部に存在する血管V2、及び、深部に位置する血管V1の両方の血管において強度が減衰している照明波長、つまり、血管V1および血管V2において照明光が強く吸収される波長は、図28から略590nm~620nmであることが分かる。
 したがって、比較的浅い部分から深部に存在する血管を検知するには、略590nm~620nmの狭帯域光が重要な波長情報となる。血管V1は粘膜表面からおよそ1mm~2mm程度深い部分に存在する。なお、本実験結果は、前記のBeer-Lambertによる理論計算結果(波長600nmの前後15nmの間の狭帯域光を用いることによって、比較的太い血管が高いコントラストで表示可能となる)と略一致する。
 以上のように、生体粘膜の表層から比較的深部の太い血管をコントラスト良く表示するために光源装置4を含む照明手段あるいは照明部は、生体組織の吸収特性において極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で、分光特性のピーク波長を有する照明光である狭帯域光NL1を照射する。
 なお、ここでは、波長600nm付近の狭帯域光の画像信号を生成しているが、上述したように、血管の径のバラツキ等があること、さらに深さも種々あることから、図4に示すような、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、所定の波長幅を有して、分光特性のピーク波長を波長帯域の画像信号を生成することによって、粘膜深部の血管を表示させることができる。
 さらに、光源装置4は、第1の狭帯域光NL1による戻り光の吸収特性における値が低くかつ生体組織の散乱特性が抑制された分光特性のピーク波長を有しかつ第1の狭帯域光NL1の波長帯域とは異なる波長帯域の照明光である狭帯域光NL2と、被検体の表層部から所定の距離だけ透過可能な第3の狭帯域光NL3も照射する。
 狭帯域光NL2は、狭帯域光NL1で表示する血管よりもさらに深部の血管の画像を得るための狭帯域光であり、狭帯域光NL3は、表層部の毛細血管の画像を得るための狭帯域光である。
 次に、画像処理部101における処理について説明する。図10は、狭帯域光観察モードにおける内視鏡画像における血管の表示例を説明するための内視鏡画像の例を示す図である。 
 通常光観察モードでは、撮像された内視鏡画像EI内には、表層部から1~2mmの深部の血管は、観察モニタ5の内視鏡画像EI上には表示されない、または、表示されにくい。
 これに対して、狭帯域光観察モードでは、撮像された内視鏡画像EI内に深部の血管が存在すると、図10に示すように、血管61は内視鏡画像EI上に表示される。 
 従って、画像処理部101は、撮像手段あるいは撮像部による撮像後、生体組織の吸収特性において、極大値ACmaxを含む波長帯域から極小値ACminにおける波長帯域の間で分光特性のピーク波長を有する所定の波長帯域の画像信号P1(λ1)を出力する画像出力手段あるいは画像出力部を構成する。
 また、出願人の行った実験によれば、上記のような狭帯域光NL1を用いて画像を生成すると、粘膜深部の比較的太い血管の表示だけでなく、粘膜からの出血により、粘膜表面が血液で覆われた状態において、出血の流れの状態も表示可能である。
 従来は、白色光観察では、粘膜表面が血液で覆われてしまうと、出血を起こしている場所、すなわち出血点、が見えないので、術者は、その出血を止める処置を迅速に行うことができない。これに対して、本実施の形態によれば、血液の下の粘膜表面の出血点を探し出し易くなるので、術者は、迅速に止血処置を行うことができる。
 図11は、粘膜表面が血液で覆われて出血している状態を狭帯域光観察モードで撮像して得られた画像の例を説明するための図である。図12は、粘膜表面が血液で覆われて出血している状態を説明するための図である。
 図11に示すように、粘膜71の粘膜表面71a上の出血点72から出血して、粘膜表面71aは出血した血液73(点線で示す)により覆われてしまう場合がある。上記の狭帯域光観察モードで血液73を観察すると、図11に示すように、波長600nm付近の狭帯域光は血液73を透過して、粘膜表面71a上の出血点72から流れる血液が表示される。これは、出血点72から噴出する血液の密度(すなわち濃度)は、出血点72付近では高いからである。よって、出血点72から流れ出る血液の流れBFが視認できるので、血液73の下の出血点72を特定することができ、術者がその出血点72に対して止血処置を迅速に行うことができ、ひいては、手術時間の短時間化に繋がる。
 さらにまた、上記のような狭帯域光NL1を用いて画像を生成すると、体内に血液溜まりがあったとしても、粘膜下の血管も表示可能である。図13は、粘膜表面の血液溜まり部を狭帯域光観察モードで撮像して得られた画像の例を説明するための図である。体内における血液の溜まり部は、処置により出血と水が混ざってできる。そのような血液溜まり部は、白色光観察では、血液の赤色で観察されるだけである。
 上記の狭帯域光観察モードで血液溜まり部74を観察すると、図13に示すように、波長600nm付近の狭帯域光は血液溜まり部の水を含む血液73を透過して、粘膜表面71a下の血管61が表示される。 
 よって、術中に狭帯域光観察モードにすると、観察モニタには、血液溜まり部の下の粘膜表面下の血管61を見ることができる。
 次に、画像処理部101の処理について説明する。画像処理部101は、色変換処理部101bを有し、色変換処理を実行する。
(画像処理部の色変換処理)
 次に、色変換処理部101bにおける処理について説明する。色変換処理部101bには、第1の画像信号P1(λ1)と、第2の画像信号P2(λ2)と、第3の画像信号P3(λ3)が入力される。
 図14は、画像処理部101の構成を説明するためのブロック図である。撮像素子からの3つの画像信号は、色変換処理部101bに入力される。色変換処理部101bは、第1の画像信号P1(λ1)、第2の画像信号P2(λ2)及び第3の画像信号P3(λ3)に対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 波長600nm付近の狭帯域光NL1により、深部の血管61をコントラスト高く表示するために、色変換処理部101bは、モノクロ画像として観察モニタ5に出力するように、第1の画像信号P1(λ1)を、BGRの3チャンネルに割当てる。なお、モノクロ画像表示回路がある場合には、第1の画像信号P1(λ1)をモノクロ画像表示回路に入力して、モノクロ画像として観察モニタ5に出力するようにしてもよい。
 その結果、狭帯域光観察モードにおいて、内視鏡画像EI上で、図10に示す血管61はモノクロでコントラスト高く表示される。また、図11の血液の流れBFや、図13の血液溜まり下の血管もモノクロでコントラスト高く表示される。 
 従って、画像処理部101は、撮像手段あるいは撮像部であるCCD2により戻り光を撮像して得られた画像信号に基づいて第1の画像信号P1(λ1)を出力する画像出力手段あるいは画像出力部を構成する。
 なお、色変換処理部101bにおいて、第1の画像信号P1(λ1)に加えて、第2の画像信号P2(λ2)と第3の画像信号P3(λ3)の少なくとも1つを用いて、色変換処理を行うようにしてもよい。以下、色変換処理部101bの色変換処理の変形例1~3を説明する。
 まず、変形例1について説明する。 
 変形例1の色変換処理部101bでは、第1の画像信号P1(λ1)と、第2の画像信号P2(λ2)と、第3の画像信号P3(λ3)とを、それぞれG,R,Bのチャンネルに割り当てる処理が行われる。
 ここでは、例えば、色変換処理部101bでは次の式(12)の処理が行われ、第1の画像信号P1(λ1)の輝度値ImA(λ1)、第2の画像信号P2(λ2)の輝度値Im(λ2)及び第3の画像信号P3(λ3)の輝度値Im(λ3)が、それぞれG,R,Bチャンネルに割り当てられる。
Figure JPOXMLDOC01-appb-M000012
 式(12)によれば、深部の比較的太い血管61は、やや赤っぽい色で表示されるので、術者に分かり易い。
 図15は、3つの画像信号を用いた内視鏡画像の表示例を説明するための図である。実線で示す深部の血管61は、やや赤っぽい色で表示され、さらに血管61よりもさらに深い血管61A(一点鎖線で示す)は、青色~黒色で表示され、点線で示す毛細血管61Bは、略黄色で表示される。特に、生体組織の粘膜、さらに粘膜表面上の血も、略黄色で表示される。
 なお、ここでは、第3の狭帯域光NL3は、波長540nm付近の光であるが、表層情報を得るために、より波長の短い青色の光、例えば波長460nm付近や波長415nm付近の光でもよい。 
 吸収度が高い波長600nm付近の狭帯域光NL1をGチャンネルに、吸収度が狭帯域光NL1よりも低い波長630nm付近の狭帯域光NL2をRチャンネルに割り当てることにより、深部の血管61と61Aのそれぞれを、生体組織の表層色とは異なる色(やや赤っぽい色)で表示できる。 
 また、生体組織の粘膜表面上に出血による血があっても、深部の血管61及びさらに深部の血管61Aは、異なる色で表示されるので、術者にとって視認し易い。
 3つの画像信号を用いた場合、図11及び図12で説明した出血点72は、黄色と橙色が交互に変化する。これは、出血点72における血液の密度(すなわち濃度)、もしくは血液層の厚みが、出血時には、ダイナミックに変化するからである。また、出血点72から遠い場所では、血液の密度もしくは血液層の厚みはダイナミックには変化しないので、血液の色調は、黄色もしくは橙色のままとなる。
 このように、3つの画像信号を用いた場合、出血点72付近では、画像中の色調が変化するので、術者は、出血点72を色調変化により認識し易い。また、血液73の層の厚さも、黄色と橙色の変化により、術者は認識することもできる。
 3つの画像信号を用いた場合、図13で説明した出血下の血管だけでなく、血液中の異物の視認性が改善されるという効果も生じる。これは、Rチャンネルの帯域信号に最も重みを付けて調光した場合、波長600nm付近と波長630nm付近の2つの狭帯域光の光は、吸収特性が弱いため、血液を透過し易いので、通常光観察モード時の白色光観察時の画像よりも、血液中の異物が見えやすくなる。波長600nm付近と波長630nm付近の2つの狭帯域光の光は、血液だけでなく、胆汁、尿なども透過し易いので、これらの液体中の異物、もしくは液下の異物も見え易い。
 なお、第1の画像信号P1(λ1)と、第2の画像信号P2(λ2)と、第3の画像信号P3(λ3)とを、それぞれG, B, Rのチャンネルに割り当てるようにしてもよい。その場合、式(12)のマトリックスの各値に係数を乗算する等の各画像信号の強度調整等を行うことによって、上記の式(12)の色変換処理により得られる画像と同様の表示画像を観察モニタ5に表示させることができる。
 なお、色変換処理101bでは、上記の式(12)に代えて、次の式(13)を用いてもよい。
Figure JPOXMLDOC01-appb-M000013
 式(13)によれば、深部の血管61は、やや青色あるいは青緑色で示されると共に、表層の毛細血管も赤っぽく表示されるので、術者に分かり易い。
 さらになお、色変換処理101bでは、上記の式(12)に代えて、次の式(14)を用いてもよい。
Figure JPOXMLDOC01-appb-M000014
 さらになお、色変換処理101bでは、上記の式(12)に代えて、次の式(15)を用いてもよい。ここでαは略1.0~1.5、βは略2.0~2.6、γは略2.5~3.3の数値をとる(例えば、α:β:γ=0.56:1.00:1.17)。この場合、深部血管の色調は青緑色、粘膜の色調は通常観察と類似するため術者がストレスなく観察しやすい。また、αは略2.3~2.7、βは略2.3~2.7、γは略1.7~2.1の数値(例えば、α:β:γ=1.00:1.00:0.76)とすることで、表層および深部の血管の観察が容易となる。
Figure JPOXMLDOC01-appb-M000015
 なお、色変換処理部101bにおけるチャンネル割当ての他の例について説明する。例えば、治療時には、上記式(12)に代えて、波長540nm付近の狭帯域光をBチャンネルに、波長630nm付近の狭帯域光をGチャンネルに、波長600nm付近の狭帯域光をRチャンネルに割り当てるようにしてもよい。
 また、診断時には、波長540nm付近の狭帯域光をBチャンネルとGチャンネルに、波長600nm付近の狭帯域光もしくは波長630nm付近の狭帯域光をRチャンネルに割り当てるようにしてもよい。
 ここで、色バランス調整について説明する。 
 例えば、式(12)のように、波長540nm付近の狭帯域光をBチャンネルに、波長600nm付近の狭帯域光をGチャンネルに、波長630nm付近の狭帯域光をRチャンネルに割り当てる場合、Rチャンネルの信号に対して、Bチャンネルの信号を増幅することが望ましい。波長600nm付近の狭帯域光の信号強度は、補正しないで、Bチャンネルに割り当てられる波長540nm付近の狭帯域光の信号強度が、Rチャンネルに割り当てる波長630nm付近の狭帯域光の信号強度の0.7~2.5倍になるように、2つの信号が調整される。なお、色バランス調整を行った後に色変換処理を行ってもよいし、色変換処理後に色バランス処理を行ってもよい。
 これにより、粘膜、白色調の繊維組織、黄色の出血、黒色の炭化領域、及び、色調が赤色からマゼンダ色の太い血管の間における色調の差がより顕著になり、術者にとって処置あるいは診断が、よりし易い表示画像を得ることができる。
 このような色バランス調整のための色バランス調整回路は、図1のW.B25の前段に設けてもよい。その場合、波長540nm付近の狭帯域光と波長630nm付近の狭帯域光の照明光の強度が略等しいときは、色バランス調整回路は、Bチャンネルに割り当てられる波長540nm付近の狭帯域光の信号を、0.7~1.5倍程度し、Rチャンネルに割り当てる波長630nm付近の狭帯域光の信号を、0.6~1.0倍程度にする。 
 なお、色バランス調整は、色変換処理部101bにおいて行うようにしてもよいし、あるいは光源装置4において照明光の強度を調整して行うようにしてもよいし、撮像素子のカラーフィルタの各色の透過度を調整して行うようにしてもよい。
 次に変形例2について説明する。ここでは、特に言及しない限り、色バランスの調整のためのゲイン調整は行っていない、すなわちそれぞれのゲインは1とする。 
 変形例2では、3つの画像信号のうちの2つの画像信号に対してチャンネル割当てが行われる。
 一つの例として、変形例2の色変換処理部101bでは、第1の画像信号P1(λ1)をG,Bのチャンネルに割り当て、第2の画像信号P2(λ2)をRのチャンネルに割り当てる処理が行われるようにしてもよい。 
 このような割当ての場合、内視鏡画像EIでは、出血や深部の血管は、やや赤っぽい色で表示され、粘膜は、白っぽく表示され、表層の毛細血管は、略表示されない。
 変形例3として、色変換処理部101bにおいて、第1の画像信号P1(λ1)をRのチャンネルに割り当て、第3の画像信号P3(λ3)をG,Bのチャンネルに割り当てる処理が行われるようにしてもよい。 
 このような割当ての場合、内視鏡画像EIでは、出血や粘膜は、やや赤っぽい色で表示され、深部の血管は緑系の色で表示される。
 また、この場合、各チャンネルのゲイン調整をしてもよい。例えば、第3の画像信号P3(λ3)を割り当てるG,Bのチャンネルのゲインを、第1の画像信号P1(λ1)を割り当てるRのチャンネルのゲインよりも、1.3倍から1.5倍程度にすると、出血や粘膜は、赤っぽい色で表示され、深部の血管は青系から緑系の色で表示される。
 例えば、第3の画像信号P3(λ3)を割り当てるG,Bのチャンネルのゲインと、第1の画像信号P1(λ1)を割り当てるRのチャンネルのゲインとを、B,R,Gの順で高くなるように設定すると、出血や粘膜は、茶色で表示され、深部の血管は青系から緑系の色で表示される。
 さらに、例えば、第3の画像信号P3(λ3)を割り当てるG,Bのチャンネルのゲインと、第1の画像信号P1(λ1)を割り当てるRのチャンネルのゲインとを、B,G,Rの順で高くなるように設定すると、出血や粘膜は、赤っぽい色で表示され、深部の血管は緑系の色で表示される。
 以上のように、上述した実施の形態によれば、撮像素子2からの3つの画像信号の中から、第1の画像信号P1を用いて、粘膜深部の比較的太い血管を明瞭に表示する内視鏡装置1を実現することができる。
 すなわち、図4に示したような生体組織の吸収特性の極大値から極小値の間における上述したような吸収特性を有する狭帯域光を、生体粘膜に照射して、その得られた戻り光の画像により、生体粘膜の比較的深部にある、比較的太い血管が強調され、観察モニタ5の画面上に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、第1から第3の画像信号P1,P2,P3の中の2つ又は3つの画像信号を用いて、色変換処理部101bにおいて、第1の画像信号P1、第2の画像信号P2及び第3の画像信号P3に対して、チャンネル割り当てを行って、観察モニタ5へ出力するようにすれば、比較的深い血管、粘膜表層の毛細血管等も表示することができる。
 すなわち、上述した内視鏡装置1では、第3の狭帯域光NL3を用いて、生体粘膜の表層部に近い部分にある血管も表示可能となっている。 
 例えば、波長540nm付近の第3の狭帯域光NL3を用いているので、表層部の毛細血管の状態も、太い血管と同時に、観察モニタ5の画面上に表示される。さらに、波長630nm付近の第2の狭帯域光NL2を用いているので、より深部の血管の状態も一緒に、観察モニタ5の画面上に表示される。
 よって、術者は、観察モニタ5の画面上の内視鏡画像を、処置だけでなく、毛細血管の状態、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。
 なお、上述した光源装置4は、キセノンランプ11と回転フィルタ14等を用いて、所望の波長帯域の照明光を生成するが、内視鏡装置1においては、点線で示すように、光源装置4は、所望の波長、例えば、第1のフィルタ群に対応するRGBの各波長と、第2のフィルタ群に対応する600nm付近と630nm付近の各波長を出射する複数の発光ダイオード(LED)からなる発光ダイオード群11aを有する発光部11Aを含むように構成してもよい。その場合、発光部11A及びライトガイド15が、被写体に照明光を照射する照射部を構成する。
 例えば、図1において、キセノンランプ11、熱線カットフィルタ12、絞り装置13,回転フィルタ14等の代わりに、光源装置4に、点線で示す発光部11Aを設ける。さらに、光源装置4には、発光部11Aの各発光ダイオードを、各モードに応じて、所定のタイミングで駆動するための駆動回路11bが設けられる。複数のLED11aを有する発光部11Aが、電源10から電源を受け、制御回路17からの制御信号の下で、駆動回路11bにより制御されて駆動される。 
 このような光源装置を用いても、上述した内視鏡装置1を構成しても、上述した効果と同様の効果を得ることができる。 
 なお、発光部11Aは、所定の複数の狭帯域光を出射するレーザダイオード(LD)を用いてもよい。
 また、光源装置にキセノン光源、LED、LDの何れを搭載した場合においても、CCD2はモノクロ撮像素子でなく、第1の狭帯域光NL1を透過する波長帯域制限手段あるいは波長帯域制限部としての、RGBカラーフィルタ、もしくは、補色系のカラーフィルタを設けても上述した効果と同等の効果を得ることができる。
 また、図4に示す第2の狭帯域光NL2はヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、第2の狭帯域光NL2の波長は、第1の狭帯域光NL1の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、狭帯域光NL2を740nm~1300nmのいずれかの波長に設定する場合、狭帯域光NL1は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。なお、第2の狭帯域光NL2は、光源装置としてキセノン光源、LED、LDの何れを搭載した場合でも生成することができる。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(第2の実施の形態)
 第1の実施の形態では、第1の狭帯域光NL1を含む少なくとも1つの狭帯域光を照明光として生体組織に実際に照射して、その戻り光の画像に対して上述した色変換処理が行われているが、本実施の形態では、生体組織に少なくとも1つの狭帯域光を実際に照射しないで、いわゆる分光推定により各狭帯域光の戻り光の画像情報を得て、その分光推定により得られた各波長の分光画像信号に対して上述したような色変換処理が行われる。すなわち、上述した第1の実施の形態では、第1の狭帯域光NL1は、回転フィルタあるいは発光ダイオードなどの発光素子を有する照明装置により生成されて、それらの戻り光の画像に対して色変換処理が行われるが、本実施の形態では、第1の狭帯域光NL1に対応する画像信号を、分光推定処理により得て、その分光推定により得られた分光推定画像信号に対して色変換処理が行われる。
 図16は、第2の実施の形態に関わる内視鏡装置1Aの構成を示す構成図である。図16において、図1と同じ構成要素については、同一符号を付して説明は省略する。なお、図16においても、CCD2の前面及びライトガイド15の前面に、それぞれ偏光板を、クロスニコルの状態で配設してもよい。 
 図16に示すように、光源装置4Aは、白色光を出射するランプ11Bと、熱線カットフィルタ12及び絞り装置13を含んで構成される。光源装置4Aからの照明光は、ライトガイド15を介して、被写体へ照射される。なお、ランプ11Bは、白色光以外の光を出射するものでもよい。
 内視鏡3の挿入部の先端に設けられた撮像素子2Aは、カラー撮像素子である。撮像素子2Aは、例えばカラーCCDであり、撮像面上に、RGBのカラーフィルタを有する。被写体からの戻り光は、波長帯域制限手段あるいは波長帯域制限部である、RGBのカラーフィルタを介して撮像面の各画素部により受光され、RGBの3色の画像信号が、撮像素子2Aから出力される。 
 セレクタ100Aは、RGBの3つの画像信号を、画像処理部101Aに出力する。画像処理部101Aは、分光推定部を有し、狭帯域光観察モードのときは、波長600nm付近の分光推定画像信号を出力する。ここでは、画像処理部101Aの分光推定部は、狭帯域光観察モードのときは、3つの画像信号、具体的には波長600nm付近の分光推定画像信号、波長630nm付近の分光推定画像信号及び波長540nm付近の分光推定画像信号を出力する。
 図17は、本実施の形態に関わる狭帯域光観察における全体の処理の流れを説明するための図である。図17において、図3と同じ構成要素は、同一符号を付して説明は省略する。画像処理部101Aは、色変換処理部101bに加えて、分光推定部101cを含む。すなわち、画像処理部101Aは、戻り光の撮像信号に対して分光推定処理を行うことによって、第1の画像信号を生成して出力する画像出力手段あるいは画像出力部を構成する。ここでは、分光推定部101cは、RGBの3つの画像から、波長600nm付近の第1の分光推定画像信号e1と、波長630nm付近の第2の分光推定画像信号e2と、波長540nm付近の第3の分光推定画像信号e3を、分光推定処理により抽出して色変換処理部101bへ出力する。
 具体的には、分光推定部101cは、3入力から、予め与えられている先験情報に基づいてn次元の分光画像をマトリックス演算により算出して、算出されたn次元の分光推定画像信号の中から選択的にe1,e2,e3を出力する。分光推定部101cは、マトリックス演算等を用いて、波長600nm付近の分光推定画像信号e1と波長630nm付近の分光推定画像信号e2と波長540nm付近の分光推定画像信号e3を算出して出力するように構成されている。
 分光推定部101cから出力された第1、第2及び第3の分光推定画像信号についてのその後の色変換処理部101bにおける処理は、上述した第1の実施の形態で説明した処理と同じである。
 図18は、3つの広帯域光の画像信号B,G,Rから3つの狭帯域光の分光画像信号e1,e2,e3を推定する場合を説明するための分光特性を示す図である。図18における3つの広帯域光B,G,Rは撮像素子2Aのカラーフィルタにより得られ、その3つの広帯域光B,G,Rの画像信号が分光推定部101cに入力される。
 分光推定部101cは、分光推定処理により、3つの広帯域光の画像信号B,G,Rから、少なくとも1つの狭帯域光の分光推定画像信号e1を推定する。ここでは、図18に示すような波長帯域を有する広帯域光の画像信号B,G,Rから、波長600nm付近の狭帯域光の分光推定画像信号e1、波長630nm付近の狭帯域光の分光推定画像信号e2及び波長540nm付近の狭帯域光の分光推定画像信号e3が分光推定処理により得られる。ここでは、図4における極大値ACmaxと極小値ACminの波長帯域R間の2つの狭帯域光の分光推定画像信号e1,e2と、その波長帯域R外の狭帯域光の分光推定画像信号e3とが分光推定により得られ、分光推定画像信号e1,e2,e3は、色変換処理部101bに供給される。
 なお、3つの広帯域光のうちの2つの広帯域光の画像信号、例えば広帯域光G,Rの画像信号から、少なくとも1つの分光推定画像信号e1(ここでは3つの分光画像信号e1,e2,e3)を分光推定処理により、得るようにしてもよい。
 さらにまた、図18に示すような広帯域光でなく、図19に示すような狭帯域光の画像信号から、分光推定画像信号e1(ここでは3つの分光推定画像信号e1,e2,e3)を分光推定処理により、得るようにしてもよい。
 図19は、3つの狭帯域光Bn,Gn,Rnの画像信号から、3つの狭帯域光の分光推定画像信号e1,e21,e31を推定する場合を説明するための分光特性を示す図である。図19に示すように、分光推定部101cでは、3つの狭帯域光の画像信号Bn,Gn,Rnから、3つの分光推定画像信号、すなわち、波長600nm付近の狭帯域光の分光推定画像信号e1、波長630nm付近の狭帯域光の分光推定画像信号e2及び波長540nm付近の狭帯域光の分光推定画像信号e3を推定する。
 なお、少なくとも1つの狭帯域光と少なくとも1つの広帯域光から、少なくとも1つの分光推定画像信号e1を分光推定して得るようにしてもよい。すなわち、図18の3つの広帯域光の少なくとも一つが狭帯域光であったり、図19の3つの狭帯域光の少なくとも一つが広帯域光であったりしてもよい。
 また、3つの狭帯域光Bn,Gn,Rnは、図18あるいは図19に示すような分光特性を有する撮像素子2Aのカラーフィルタにより得られるようにしてもよいし、あるいは、光源装置において図2に示したような回転フィルタを用いて生成して、3つの照明光(すなわち3つの狭帯域光Bn,Gn,Rnの照明光)の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 さらになお、3つ(あるいは2つ)の広帯域光の画像信号は、カラー撮像素子のカラーフィルタを用いて得るのではなく、光源装置において、図18あるいは図19に示したような分光特性の画像信号が得られる感度特性を有する回転フィルタの第1群のフィルタを光路上に配置して生成した3つ(あるいは2つ)の照明光の戻り光をモノクロの撮像素子に当てて、得るようにしてよい。
 よって、本実施の形態の内視鏡装置1Aによっても、上述した内視鏡装置1と効果と同様の効果を得ることができる。
 図20は、本実施の形態に関わる画像処理部101Aにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図20に示すように、撮像素子2から、3つの画像、すなわち、第1から第3の画像信号P1,P2,P3が、分光推定部101cに入力される。分光推定部101cは、入力された2つ又は3つの画像信号から、3つの分光推定画像信号e1,e2,e3を推定して生成する。
 色変換処理部101bは、第1の分光推定画像信号e1と、第2の分光推定画像信号e2と、第3の分光推定画像信号e3とに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。
 なお、本第2の実施の形態において、撮像素子の表面に設けられるカラーフィルタについては、RGB系のものを例として説明したが、カラーフィルタは、補色系のカラーフィルタでもよい。
 本実施の形態の内視鏡においても、上述した色変換処理を行うことにより、生体粘膜の比較的深部にある、比較的太い血管が、観察モニタ5の画面上に明瞭に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、第3の分光推定画像信号e3を用いて、上述した内視鏡装置1Aは、生体粘膜の表層に近い部分にある血管も表示可能となっているので、術者は、観察モニタ5の画面上の内視鏡画像を、処置だけでなく、毛細血管の状態、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。 
 また、図18もしくは図19に示す第2の分光推定画像e2の波長は図4のヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、第2の分光推定画像e2の波長は、第1の分光推定画像e1の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、第2の分光推定画像e2の波長を740nm~1300nmのいずれかの波長に設定する場合、第1の分光推定画像e1の波長は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。
 なお、第3の分光推定画像信号e3に加えて、さらに分光推定して得られた第4,第5の画像も用いて、色変換処理して、観察モニタ5に表示するようにしてもよい。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(第3の実施の形態)
 第1の実施の形態では、第1の狭帯域光NL1を含む少なくとも1つの狭帯域光を照明光として生体組織に実際に照射して、その戻り光の画像に対して上述した色変換処理が行われ、第2の実施の形態では、生体組織に、第1の狭帯域光NL1を含む3つの狭帯域光を実際に照射しないで、いわゆる分光推定により各狭帯域光の戻り光の画像情報を得て、その分光推定により得られた各波長の分光推定画像信号に対して上述したような色変換処理が行われるが、本第3の実施の形態では、狭帯域光の実際の照明光の戻り光の画像信号と、分光推定により得られた分光推定画像信号とに対して上述した色変換処理が行われる。 
 本実施の形態の内視鏡装置1Bの構成は、図1に示した内視鏡装置1の構成と同じであるが、本実施の形態の回転フィルタ14Aの構成は異なっている。図21は、本実施の形態に関わる回転フィルタ14Aの構成を示す図である。図21に示すように、回転フィルタ14Aは、通常光観察用の分光特性の面順次光を出力するためのフィルタ組を構成するRGBのフィルタ部を有するだけである。面順次のBGRの光の戻り光は、モノクロの撮像素子2において受光される。
 図22は、本実施の形態に関わる特殊光観察モードにおける全体の処理の流れを説明するための図である。図22において、図17と同じ構成要素は、同一符号を付して説明は省略する。画像処理部101Bは、色変換処理部101bと分光推定部101cを含むが、分光推定部101cは、RGB中の2つ又は3つの画像信号から、少なくとも1つの分光推定画像信号eを生成し、RGB中の1つの画像信号と、分光推定画像信号に対して色変換処理が行われる。
 ここでは、具体的には、RGB中の3つ(あるいは2つ)の画像信号から、波長600nm付近の第1の分光推定画像信号e1と、波長540nm付近の第3の分光推定画像信号e3が、分光推定処理により推定されて色変換部101bへ出力される。
 図23は、本実施の形態に関わる画像処理部101Bにおける撮像素子2から得られた画像に対する処理の流れを説明するための図である。 
 図23に示すように、撮像素子2から、3つの画像、すなわち、第1から第3の画像信号B,G,Rが、分光推定部101cに入力される。分光推定部101cは、入力された2つ又は3つの画像から、2つの分光推定画像信号e1,e3を推定して生成する。
 色変換処理部101bは、分光推定画像信号e1と、分光推定画像信号e3と、画像信号Rとに対して、チャンネル割り当てによる色変換処理を施して、観察モニタ5へ出力する。 
 なお、色変換処理部101bにおける処理は、第1の実施の形態と同様である。
 図24は、3つ(あるいは2つ)の広帯域光の画像信号B,G,Rから少なくとも1つの狭帯域光の分光推定画像信号e1を推定する場合を説明するための分光特性を示す図である。なお、ここでは、3つの広帯域光の画像信号B,G,Rから2つの狭帯域光の分光推定画像信号e1,e3が推定される。
 そして、図23に示すように、分光推定部101cは、被検体からの戻り光の少なくとも2つの撮像信号(ここでは3つの撮像信号B,G,R)に基づき、分光画像信号e1,e3を信号処理によって分光推定して生成し、出力する。
 色変換処理部101bには、分光推定部101cから出力された分光推定画像信号e1,e3と、リアルな画像信号Rとが、入力される。上述したように、色変換処理部101bにおける処理は、上述した第1の実施の形態で説明した処理と同じである。
 よって、分光推定により得られた分光画像信号e1のみを、上述したようにモノクロ表示するように色変換処理をすれば、粘膜下の太い血管61を明瞭に表示することができると共に、他の2つの画像信号、すなわち分光画像信号e3とリアルな画像信号R、の少なくとも一つも含めて色変換処理して表示すれば、粘膜下の太い血管61だけでなく、表層の毛細血管や、さらに深部の太い血管も併せて観察モニタ5に表示可能となる。
 なお、上述した例では、波長540nm付近の第3の画像信号を分光推定により得ているが、波長630nm付近の第2の画像信号を分光推定により得て、リアルな画像として、画像信号Bを用いてもよい。
 さらに、リアルな画像信号を得るための照明光は、図19で説明した狭帯域光であってもよい。 
 さらになお、図23における3つの広帯域光B,G,Rは撮像素子2Aのカラーフィルタにより得るようにしてもよい。すなわち、第2の実施の形態で説明したような光源装置4Aと、撮像素子2Aのカラーフィルタを用いて、3つの広帯域光B,G,Rを得るようにしてもよい。 
 よって、本実施の形態の内視鏡装置1Bによっても、上述した内視鏡装置1及び1Aと効果と同様の効果を得ることができる。
 なお、本第3の実施の形態において、撮像素子の表面に設けられるカラーフィルタを用いる場合、RGB系のものを例として説明したが、カラーフィルタは、補色系のカラーフィルタでもよい。
 本実施の形態の内視鏡においても、上述した処理を行うことにより、生体粘膜の比較的深部にある、比較的太い血管が、観察モニタ5の画面上に明瞭に表示される。よって、術者は、比較的太い血管も見ながら確認して、ESD等の所望の処置を行うことができる。
 また、第3の狭帯域光NL3に対応する分光推定画像信号e3または狭帯域光Gnを用いて、上述した内視鏡装置1Aは、生体粘膜の表層に近い部分にある血管も表示可能となっているので、術者は、観察モニタ5の画面上の内視鏡画像を、処置だけでなく、例えば、毛細血管の集中度あるいは分散度の程度から、生体組織の診断、例えば癌の存在診断や癌の範囲を特定するための範囲診断、また、患部の良悪性を判断する鑑別診断にも利用することができる。さらに、より深部の血管を意識した深達度診断等を行うこともできる。 
 また、第2の狭帯域光NL2、もしくは、第2の分光推定画像信号e2の波長は図4におけるヘモグロビンの吸収特性の極小値ACmin(ここでは波長730nmにおける吸収係数)よりも長い波長帯域の光であってもよい。つまり、第2の狭帯域光NL2、もしくは、第2の分光推定画像信号e2の波長は、第1の狭帯域光NL1、もしくは、第1の分光推定画像信号e1の波長よりも吸収係数が低く、かつ生体組織の散乱特性が抑制された波長帯域である、例えば、740nm, 770nm, 805nm, 810nm, 850nm, 870nm, 880nm, 910nm, 940nm, 1020nm, 1300nmを用いても上述した効果と同等の効果を得ることができる(例えば、第2の狭帯域光NL2、もしくは、第2の分光推定画像信号e2の波長を740nm~1300nmのいずれかの波長に設定する場合、第1の狭帯域光NL1、もしくは、第1の分光推定画像信号e1の波長は576nm以上で、かつ、少なくとも630nm以下の何れかの波長を設定する)。
 以上のように、上述した本実施の形態によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
(各実施の形態について共通の変形例)
(変形例1)
 上述した3つの実施の形態及びそれぞれの各変形例では、静脈血の光吸収特性を例に挙げてその特性に基づいて、2つの狭帯域光が選択されているが、動脈血の光吸収特性あるいは静脈血と動脈血の両方を合わせた血の光吸収特性に基づいて、上述したような、少なくとも2つの狭帯域光を選択するようにしてもよい。
(変形例2)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置では、第1の狭帯域光NL1と第2の狭帯域光NL2の波長として、それぞれ波長600nm付近の光と波長630nm付近の光を用いているが、第1の狭帯域光NL1と第2の狭帯域光NL2の波長としては、好ましくは、それぞれ波長580~620nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光と波長610~730nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光であり、さらにより好ましくは、それぞれ波長585~615nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光と波長620~640nmの範囲の波長であって所定の幅の範囲の分布を有する狭帯域光である。
 従って、吸収特性の極大値から極小値の間で上述したような吸収特性を有する波長の光であれば、第1の狭帯域光NL1と第2の狭帯域光NL2の波長は、それぞれ波長600nm付近の光と波長630nm付近の光に限定されず、どの波長の光でもよい。例えば、第1の狭帯域光NL1と第2の狭帯域光NL2の波長として、それぞれ、波長610nm付近の光と波長645nm付近の光、あるいは波長630nm付近の光と波長660nm付近の光を用いてもよい。
(変形例3)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置では、第3の狭帯域光NL3として、生体組織の表層の毛細血管を表示させるために、波長540nm付近の光を用いているが、第3の狭帯域光NL3の波長は、これに限定されない。例えば、第3狭帯域光NL3の波長として、波長540nmよりも短い波長415nm付近の光や波長460nm付近の光を用いてもよい。特に、生体組織の表層の情報を得るためには、波長540nm付近の光よりも短い波長415nm付近の光や波長460nmの光が望ましい。
(変形例4)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の光源装置では、熱光源のランプ、LED、LD等が用いられることが述べたが、他の手段を用いてもよい。例えば、光源手段あるいは光源部としては、波長可変レーザを用いてもよいし、LEDあるいはLDで蛍光体を励起して、ブロードバンド光を生成して、その光を用いてもよい。
(変形例5)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)の内視鏡装置において、狭帯域光を照射する場合、例えば波長600nm付近の狭帯域光はレーザにより生成し、波長630nm付近の狭帯域光は、LEDにより生成するようにしてもよい。また、波長600nm付近の狭帯域光はLEDにより生成し、波長630nm付近の狭帯域光は、レーザにより生成するようにしてもよい。レーザ光を用いると、深さ方向におけるノイズを少なくすることができる。
(変形例6)
 上述した各実施の形態及び各変形例(各実施の形態の変形例を含む)では、波長600nm付近の狭帯域光の画像により、粘膜深部の比較的太い血管を明瞭に表示するようにしているが、より深部の血管を明瞭に表示するために、より長い波長の狭帯域光の画像も用いることができるようにしてもよい。そして、その場合、上述した波長600nm付近と波長630nm付近の組み合わせで、観察モニタ5に表示させていたが、他の組み合わせも予め用意しておき、術者が複数の組み合わせの中から、所望の組み合わせを選択できるようにしてもよい。
 内視鏡装置1(或いは1A,1B)が、2つの表示画像の組み合わせとして、波長600nm付近の第1の画像信号NL1と波長630nm付近の第2の画像信号NL2を用いる第1の組み合わせと、波長650nm付近の第1の画像信号NL12と波長680nm付近の第2の画像信号NL22を用いる第2の組み合わせとを有し、術者は、2つの組み合わせの中から所望の組み合わせを選択するようにする。
 このような構成によれば、術者は、組み合わせを選択することによって、血管の深さを変えながら、所望の深さの血管を明瞭に表示させ、かつ第2の画像信号によりさらにより深部の血管も併せて表示させて観察することが可能となる。
 図25は、本変形例6を説明するための、静脈血の光の吸収特性を示す図である。図25では、2つの組み合わせの1つは、波長600nm付近の狭帯域光NL1と波長630nm付近の狭帯域光NL2の第1の組合せであり、もう一つは、波長650nm付近の狭帯域光NL12と波長680nm付近の狭帯域光NL22の第2の組合せである。いずれの組合せを選択するかは、ユーザが選択できるようにして、例えば、モード選択により、ユーザは、いずれの組合せで表示を行うかを選択することができる。
 なお、もう一つの組合せとしては、波長615nm付近の狭帯域光と波長645nm付近の狭帯域光の組合せ、波長630nm付近の狭帯域光と波長660nm付近の狭帯域光の組合せ、等の組合せでもよい。
 第2の組合せの場合、使用される波長は、第1の組合せに比べて長波長側へシフトしているので、より深部の画像が明瞭に表示される。よって、術者がより深部の血管を表示させたい場合、生体の粘膜表面に血液、胆汁、尿などが付着しているような場合、第2の組合せを選択することによって、所望の深さの血管を明瞭に表示させることが可能となる。 
 各組合せの2つの波長は、同じようなコントラストを得るようにするために、略同じ波長差を有していることが好ましい。
 2つ以上の組合せは、光源装置における回転フィルタの組合せを増やす、あるいは、分光推定処理により推定される分光推定画像信号の数を増やすことによって、実現することができる。
 狭帯域光の波長の組合せとしては、粘膜表面から比較的浅い血管を明瞭に表示させる場合には、波長580nm付近と波長630nm付近の組合せと波長590nm付近と波長630nm付近の組合せの2つを有することが好ましい。
 また、狭帯域光の波長の組合せとしては、粘膜表面からより深部の血管、あるいは血液等の下の粘膜の下の血管を明瞭に表示させる場合には、波長600nm付近と波長630nm付近の組合せと波長650nm付近と波長680nm付近の組合せの2つを有することが好ましい。
 上述した例では、2つの組合せであるが、3つ以上の組合せでもよい。3つの場合、例えば、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光の第1の組合せと、波長650nm付近の狭帯域光と波長680nm付近の狭帯域光の第2の組合せと、波長700nm付近の狭帯域光と波長730nm付近の狭帯域光の第3の組合せである。
 以上のように、複数の表示結果が得られるので、術者は、生体の粘膜表面に付着している血液等の濃度が高い場合には、より長波長側の組合せ(例えば、波長650nm付近と波長680nm付近の組合せ)を選択し、さらには、血管が比較的浅い部分に有る場合、生体の粘膜表面に付着している血液等の濃度が低い場合には、より短波長側の組合せ(例えば、波長580nm付近と波長630nm付近の組合せ)を選択することによって、所望の血管を明瞭に表示させることが可能となる。
(変形例7)
 上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)では、第1の画像信号NL1と第2の画像信号NL2の2つの狭帯域光の波長差は一定であるが、一方を固定し、他方を可変にしてもよい。
 例えば、波長600nm付近の狭帯域光と波長630nm付近の狭帯域光の場合、波長600nm付近の狭帯域光は固定し、他方の狭帯域光は、波長630nm付近から730nm付近まで可変で任意に設定できるようにしてもよい。あるいは、他方の波長730nm付近の狭帯域光は固定し、波長590nm付近から620nm付近の狭帯域光までを可変で任意に設定できるようにしてもよい。なお、600nm付近の狭帯域光は固定し、他方の狭帯域光は、730nm以上の波長帯域で任意に設定できるようにしてもよい。
 このように、2つの狭帯域光の波長差の一方を固定し、他方を可変にすることによって、所望の領域の血管をより明瞭に表示させることができる。
(変形例8)
 また、上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)では、3つの画像を得て、狭帯域画像を観察モニタ5に表示しているが、さらに、4つ目の画像も得るようにして、4つの画像の中から適宜選択して表示画像を生成するようにしてもよい。
 内視鏡装置は、通常光観察モードに加えて狭帯域光観察モードを有し、術者は、必要な場面で、通常光観察モードから狭帯域光観察モードへ切り替えて、各種処置を行う。4つ目の画像を加えることにより、各観察モードの表示画像を容易に得ることができる。
 例えば、波長540nmよりも波長が短い青色の狭帯域光(あるいは広帯域光でもよい)の照明光もさらに照射可能な光源装置を用い、4つ目の画像を得る。光源装置は、その第4波長の光と波長600nm付近の狭帯域光の第1の組合せの照明光と、波長540nm付近の狭帯域光と波長630nm付近の狭帯域光の第2の組合せの照明光とを交互に、被写体に照射する。なお、第4波長の光と波長540nm付近の狭帯域光と波長600nm付近の狭帯域光の組合せの照明光と、波長630nm付近の狭帯域光の照明光とを交互に、被写体に照射するようにしてもよい。
 そして、各照明光の戻り光を、RGBのカラーフィルタを有する撮像素子で受光する。例えば、第4波長の戻り光は、カラーフィルタのB帯域で、波長600nm付近の狭帯域光の戻り光は、R帯域で撮像される。なお、撮像素子のカラーフィルタは、補色系のものであってもよい。さらになお、撮像素子は、モノクロの撮像素子でもよい。
 各帯域の画像は分離されるので、ビデオプロセッサ7内では、4つのモノクロ画像が得られる。なお、各画像を得るために、各光の画像信号に対して、適切な色バランス調整は行われる。
 そして、ビデオプロセッサ7内では、通常光観察モード用の通常画像は、第4波長の光、波長540nm付近の狭帯域光、波長600nm付近の狭帯域光及び波長630nm付近の狭帯域光の4つの戻り光の画像を用いて、生成される。
 また、ビデオプロセッサ7内では、第1の狭帯域光画像を、第4波長の光の画像信号をBとGチャンネルに割り当て、波長540nm付近の狭帯域光の画像信号をRチャンネルに割り当て、第4波長の光と波長540nm付近の狭帯域光の2つの画像を用いて生成する。
 さらに、ビデオプロセッサ7内では、第2の狭帯域光画像を、波長540nm付近の狭帯域光、波長600nm付近の狭帯域光及び波長630nm付近の狭帯域光の3つの画像を用いて生成する。 
 なお、波長600nm付近の狭帯域光の画像信号は、高いコントラストで表示される。
 そして、術者による画像表示指示に応じて、上記のようにして生成された画像が選択されて観察モニタ5に表示される。 
 このような構成によれば、通常光観察用の通常画像と、狭帯域光観察用の狭帯域光画像の同時表示、あるいは通常画像と狭帯域光画像の重畳表示を行うこともできる。例えば、通常光画像と第1の狭帯域光画像(あるいは第2の狭帯域光画像)の並列表示、あるいは、第1の狭帯域光画像と第2の狭帯域光画像の並列表示を行うことができる。
 さらに、第4波長の光の画像信号をBチャンネルに、波長540nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号をRチャンネルに割り当てることによって、あるいは第4波長の光の画像信号をBチャンネルに、波長540nm付近の狭帯域光の画像信号と波長600nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号(あるいは波長600nm付近の狭帯域光の画像信号と波長630nm付近の狭帯域光の画像信号と)をRチャンネルに割り当てることによって、通常画像に深部の血管情報を付加した重畳が画像を生成して観察モニタ5に表示することもできる。
 さらにあるいは、第4波長の光の画像信号をBチャンネルに、第4波長の光の画像信号と波長600nm付近の狭帯域光の画像信号をGチャンネルに、波長600nm付近の狭帯域光の画像信号(あるいは波長600nm付近の狭帯域光の画像信号と波長630nm付近の狭帯域光の画像信号と)をRチャンネルに割り当てることによって、表層の血管と深部の血管の両方を高いコントラストにした画像を生成して観察モニタ5に表示することもできる。
 なお、4つ目の波長の画像信号は、分光推定により生成するようにしてもよい。 
 以上のように、本変形例8によれば、通常画像と狭帯域光画像の並列表示、あるいは重畳表示が可能となる。
(変形例9)
 さらに、上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)に係る内視鏡装置を用いて、通常光観察モードの通常光画像と、狭帯域光観察モードの狭帯域光画像を並列表示させるようにしてもよい。
 例えば、ESD等の処置を行う場合、術者が病変部を特定してから、切開して剥離するまでは、粘膜深部の太い血管を明瞭に表示する狭帯域光観察モードの狭帯域光画像を観察モニタ5に表示させることができる。なお、術者が病変部を特定してから、切開して剥離するまでは、狭帯域光観察モードの狭帯域光画像と通常光観察モードの通常光画像を観察モニタ5に並列表示させるようにしてもよい。
 術者は、観察モニタ5に表示された狭帯域光画像(あるいは狭帯域光画像と通常光画像の並列表示)を見ながら、止血処置を行う。上述したように、出血しているときには、血液下に出血点がある場合もあり、止血処置は、狭帯域光画像を見ながら行う方がよい場合があるからである。
 狭帯域光画像と通常光画像の並列表示がされているとき、術者は、止血処置が終了した後の止血の状態の確認は、通常光画像を見て行うことができる。狭帯域光画像のみが表示されているときは、術者は、止血処置が終了した後の止血の状態の確認は、内視鏡装置を通常光観察モードに変更して通常光画像を観察モニタ5に表示させて、行うことができる。
 また、従来より、白色光下の画像による通常光観察、及び波長415nm付近と540nm付近の狭帯域光を用いた従来の狭帯域光観察も行われているが、これらの観察モードに、上記の各実施の形態及び各変形例(各実施の形態の変形例も含む)に係る粘膜深部の血管を明瞭に表示する新たな狭帯域光観察モードを加えることにより、例えば病変の深達度診断が、より有効に行うことができる。
 内視鏡診断では、病変部の観察が行われる。通常光画像あるいは従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)を観察モニタ5に表示させながら、必要に応じて、病変部を拡大表示して、病変の深達度診断が行われる場合がある。
 この場合、従来は、従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)を拡大して、術者は、病変の深達度診断を行っている。 
 しかし、各実施の形態及び各変形例(各実施の形態の変形例も含む)に係る内視鏡装置を用いて、従来の狭帯域光画像と共に新たな狭帯域光画像も観察モニタ5に表示させるようにすれば、術者は、病変の深達度診断をより精度良く行うことができる。
 図26は、変形例9の拡大観察時における画像表示の遷移例を説明するための図である。まず、術者は、通常光画像あるいは従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)EI1を観察モニタ5に表示させながら、病変部の観察あるいは診断を行う。診断中に、拡大表示を指示すると、観察モニタ5に、拡大された従来の狭帯域光画像(波長415nm付近と540nm付近の狭帯域光に対応する画像)EI2を表示させることができるだけでなく、術者の指示により、従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)EI1と新たな狭帯域光画像(例えば、波長600nm付近の狭帯域光に対応する画像)を含む画像EI3を表示させることも可能となる。
 この画像EI3は、従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)と新たな狭帯域光画像(例えば、波長600nm付近の狭帯域光に対応する画像)を並列表示した画像でもよいし、従来の狭帯域光画像(波長415nm付近と波長540nm付近の狭帯域光に対応する画像)と新たな狭帯域光画像(例えば、波長600nm付近の狭帯域光に対応する画像)を重畳表示した画像でもよい。 
 画像EI3は粘膜表面からより深い血管の画像も含むので、術者は、癌などの病変の深達度診断をより精度よく行うことができる。
 以上のように、上述した各実施の形態及び各変形例(各実施の形態の変形例も含む)によれば、薬剤投与という煩雑な作業をすることなく、かつ粘膜深部の血管を明瞭に表示可能な内視鏡装置を提供することができる。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

 本出願は、2012年3月30日に日本国に出願された特願2012-82288号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (14)

  1.  被検体に対し、所定の波長帯域を有する少なくとも1つ以上の照明光を照射する照明部と、
     前記照明部の照射に基づく前記被検体からの戻り光を撮像する撮像部と、
     前記撮像部による撮像後、生体組織の吸収特性において極大値を含む波長帯域から極小値における波長帯域の間で、分光特性のピーク波長を有する第1の波長帯域の第1の画像信号を出力する画像出力部と、
     前記第1の画像信号に基づき画像表示を行う表示部と、
    を備えることを特徴とする内視鏡装置。
  2.  前記照明部は、前記第1の波長帯域に制限する帯域制限部を介して前記少なくとも1つ以上の照明光を照射し、
     前記画像出力部は、前記撮像部により前記戻り光を撮像して得られた画像信号に基づいて前記第1の画像信号を出力することを特徴とする請求項1に記載の内視鏡装置。
  3.  前記撮像部は、前記戻り光を、前記第1の波長帯域に制限する帯域制限部を介して受光して撮像し、
     前記画像出力部は、前記撮像部により前記戻り光を撮像して得られた画像信号に基づいて前記第1の画像信号を出力することを特徴とする請求項1に記載の内視鏡装置。
  4.  前記画像出力部は、前記戻り光の撮像信号に対して分光推定処理を行うことによって、前記第1の画像信号を生成して出力することを特徴とする請求項1に記載の内視鏡装置。
  5.  前記第1の波長帯域は、前記被検体の生体粘膜内の毛細血管と前記毛細血管よりも太い径を有する血管の光の透過率の差が所定値以上となる波長帯域であることを特徴とする請求項1から4のいずれか1つに記載の内視鏡装置。
  6.  前記第1の波長帯域は、波長585nmから波長615nmの範囲に前記分光特性のピーク波長を有することを特徴とする請求項1から4のいずれか1つに記載の内視鏡装置。
  7.  前記画像出力部は、分光特性のピーク波長を有し、かつ前記第1の波長帯域とは異なる第2の波長帯域を有する第2の画像信号も出力し、
     前記表示部は、前記第1の画像信号と前記第2の画像信号に基づき前記画像表示を行うことを特徴とする請求項1から4のいずれか1つに記載の内視鏡装置。
  8.  前記画像出力部は、分光特性のピーク波長を有し、かつ前記第1の波長帯域とは異なる波長帯域に対して分光推定処理を行うことによって、第2の画像信号を生成して出力することを特徴とする請求項1に記載の内視鏡装置。
  9.  前記画像出力部は、分光特性のピーク波長を有し、かつ前記第1の波長帯域とは異なる第2の波長帯域を有する第2の画像信号を生成して出力することを特徴とする請求項4に記載の内視鏡装置。
  10.  前記第2の波長帯域は、波長610nmから波長730nmの範囲で前記分光特性のピーク波長を有することを特徴とする請求項7に記載の内視鏡装置。
  11.  前記第2の波長帯域は、波長730nm以降の波長帯域に前記分光特性のピーク波長を有することを特徴とする請求項7に記載の内視鏡装置。
  12.  前記第2の波長帯域は、波長400nmから波長585以下の範囲で前記分光特性のピーク波長を有することを特徴とする請求項7に記載の内視鏡装置。
  13.  前記画像出力部は、前記第1の波長帯域とは異なる第2及び第3の波長帯域を有し、かつ分光特性のピーク波長を有する第2及び第3の画像信号も出力し、
     前記表示部は、前記第1、前記第2及び前記第3の画像信号に基づき前記画像表示を行うことを特徴とする請求項1から4のいずれか1つに記載の内視鏡装置。
  14.  前記内視鏡装置は、通常光観察モードと狭帯域光観察モードを有し、
     前記画像出力部は、前記狭帯域光観察モードのときに、前記第1の画像信号を出力することを特徴とする請求項2又は3に記載の内視鏡装置。
PCT/JP2012/078741 2012-03-30 2012-11-06 内視鏡装置 WO2013145407A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP12872860.7A EP2719317A4 (en) 2012-03-30 2012-11-06 ENDOSCOPE
JP2013525024A JP5427318B1 (ja) 2012-03-30 2012-11-06 内視鏡装置
CN201280036603.6A CN103717118B (zh) 2012-03-30 2012-11-06 内窥镜装置
US13/909,389 US8939901B2 (en) 2012-03-30 2013-06-04 Endoscope apparatus for outputting signals corresponding to first and second narrowband wavelength bands
US14/550,147 US9775497B2 (en) 2012-03-30 2014-11-21 Endoscope apparatus for outputting signals corresponding to first and second narrowband wavelength bands

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-082288 2012-03-30
JP2012082288 2012-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/909,389 Continuation US8939901B2 (en) 2012-03-30 2013-06-04 Endoscope apparatus for outputting signals corresponding to first and second narrowband wavelength bands

Publications (1)

Publication Number Publication Date
WO2013145407A1 true WO2013145407A1 (ja) 2013-10-03

Family

ID=49258745

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078741 WO2013145407A1 (ja) 2012-03-30 2012-11-06 内視鏡装置

Country Status (5)

Country Link
US (2) US8939901B2 (ja)
EP (1) EP2719317A4 (ja)
JP (1) JP5427318B1 (ja)
CN (1) CN103717118B (ja)
WO (1) WO2013145407A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173737A (ja) * 2014-03-13 2015-10-05 オリンパス株式会社 生体観察システム
JP2016158838A (ja) * 2015-02-27 2016-09-05 富士フイルム株式会社 内視鏡システム、内視鏡プロセッサ装置、及び、内視鏡システムの作動方法
WO2017199509A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 生体観察システム
US10034600B2 (en) 2015-03-17 2018-07-31 Olympus Corporation Endoscope apparatus with spectral intensity control
JP6392486B1 (ja) * 2017-02-01 2018-09-19 オリンパス株式会社 内視鏡システム
WO2019171703A1 (ja) * 2018-03-05 2019-09-12 オリンパス株式会社 内視鏡システム
WO2019198576A1 (ja) * 2018-04-11 2019-10-17 富士フイルム株式会社 医療画像処理装置
US20200394792A1 (en) * 2019-06-13 2020-12-17 Boston Scientific Scimed, Inc. Methods and apparatus to detect bleeding vessels
US10893810B2 (en) 2016-11-01 2021-01-19 Olympus Corporation Image processing apparatus that identifiably displays bleeding point region

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6008812B2 (ja) * 2013-09-27 2016-10-19 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2015167929A1 (en) * 2014-04-28 2015-11-05 Cardiofocus, Inc. System and method for visualizing tissue with an icg dye composition during ablation procedures
JP2015211727A (ja) * 2014-05-01 2015-11-26 オリンパス株式会社 内視鏡装置
JP6529518B2 (ja) * 2014-12-15 2019-06-12 オリンパス株式会社 撮像装置およびカプセル型内視鏡
JP6243364B2 (ja) * 2015-01-26 2017-12-06 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP5974204B1 (ja) * 2015-03-17 2016-08-23 オリンパス株式会社 内視鏡装置
CN106999077A (zh) * 2015-04-21 2017-08-01 奥林巴斯株式会社 医疗装置、医疗装置的工作方法
WO2018180068A1 (en) * 2017-03-29 2018-10-04 Sony Corporation Medical imaging device and endoscope
JP6839773B2 (ja) 2017-11-09 2021-03-10 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法及びプロセッサ
CN107913052A (zh) * 2017-12-26 2018-04-17 成都华微晶视科技有限公司 一种可探测微创手术出血点的内窥镜及其成像处理方法
US11803979B2 (en) * 2017-12-27 2023-10-31 Cilag Gmbh International Hyperspectral imaging in a light deficient environment
JP7059353B2 (ja) * 2018-03-05 2022-04-25 オリンパス株式会社 内視鏡システム
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11276148B2 (en) 2019-06-20 2022-03-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US20200397239A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11337596B2 (en) 2019-06-20 2022-05-24 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11516388B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11291358B2 (en) 2019-06-20 2022-04-05 Cilag Gmbh International Fluorescence videostroboscopy of vocal cords
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11288772B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11122967B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11071443B2 (en) 2019-06-20 2021-07-27 Cilag Gmbh International Minimizing image sensor input/output in a pulsed laser mapping imaging system
US11986160B2 (en) 2019-06-20 2024-05-21 Cllag GmbH International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US10952619B2 (en) 2019-06-20 2021-03-23 Ethicon Llc Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11280737B2 (en) 2019-06-20 2022-03-22 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11877065B2 (en) 2019-06-20 2024-01-16 Cilag Gmbh International Image rotation in an endoscopic hyperspectral imaging system
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
DE102020116473A1 (de) 2020-06-23 2021-12-23 Olympus Winter & Ibe Gmbh Verfahren zur endoskopischen Bildgebung, endoskopisches Bildgebungssystem und Softwareprogrammprodukt
CN116869461B (zh) * 2023-07-24 2024-04-16 深圳科思明德医疗科技有限公司 内窥镜系统、内窥镜图像的处理方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041942A (ja) 1998-07-31 2000-02-15 Olympus Optical Co Ltd 内視鏡装置
JP2002095635A (ja) * 2000-07-21 2002-04-02 Olympus Optical Co Ltd 内視鏡装置
JP2005296200A (ja) * 2004-04-08 2005-10-27 Olympus Corp 内視鏡用画像処理装置
JP2006341077A (ja) * 2005-05-13 2006-12-21 Olympus Medical Systems Corp 生体観測装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5001556A (en) * 1987-09-30 1991-03-19 Olympus Optical Co., Ltd. Endoscope apparatus for processing a picture image of an object based on a selected wavelength range
US4914512A (en) * 1988-01-19 1990-04-03 Kabushiki Kaisha Toshiba Electronic endoscope apparatus capable of displaying hemoglobin concentration on color image
US5078150A (en) * 1988-05-02 1992-01-07 Olympus Optical Co., Ltd. Spectral diagnosing apparatus with endoscope
EP2319390B1 (en) 2000-07-21 2016-04-20 Olympus Corporation Endoscope apparatus
US7172553B2 (en) * 2001-05-16 2007-02-06 Olympus Corporation Endoscope system using normal light and fluorescence
US7530947B2 (en) * 2004-05-28 2009-05-12 Olympus Corporation Lesion portion determining method of infrared observing system
EP1698272B1 (en) * 2005-03-04 2012-12-05 FUJIFILM Corporation Endoscope and image processing device
WO2006120794A1 (ja) 2005-05-11 2006-11-16 Olympus Medical Systems Corp. 生体観測装置用信号処理装置
US8301229B2 (en) * 2005-05-12 2012-10-30 Olympus Medical Systems Corp. Biological observation display apparatus for presenting color or spectral images
JP4849985B2 (ja) * 2006-07-21 2012-01-11 富士フイルム株式会社 電子内視鏡システム
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5591570B2 (ja) * 2010-03-23 2014-09-17 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP2011200410A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp キャリブレーション手段を備えた内視鏡システムおよびそのキャリブレーション方法
JP5405373B2 (ja) * 2010-03-26 2014-02-05 富士フイルム株式会社 電子内視鏡システム
JP5597021B2 (ja) * 2010-04-15 2014-10-01 オリンパス株式会社 画像処理装置及びプログラム
JP2012016545A (ja) * 2010-07-09 2012-01-26 Fujifilm Corp 内視鏡装置
JP5303012B2 (ja) * 2010-12-15 2013-10-02 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置及び内視鏡システムの作動方法
JP5554253B2 (ja) * 2011-01-27 2014-07-23 富士フイルム株式会社 電子内視鏡システム
JP5451802B2 (ja) * 2011-04-01 2014-03-26 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの校正方法
CN102274000B (zh) * 2011-05-16 2014-06-11 易定容 窄带多光谱荧光阴道检查装置
US9568423B2 (en) * 2011-10-21 2017-02-14 Acea Biosciences, Inc. System and method for detecting multiple-excitation-induced light in a flow channel
WO2013145410A1 (ja) * 2012-03-30 2013-10-03 オリンパスメディカルシステムズ株式会社 内視鏡装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041942A (ja) 1998-07-31 2000-02-15 Olympus Optical Co Ltd 内視鏡装置
JP2002095635A (ja) * 2000-07-21 2002-04-02 Olympus Optical Co Ltd 内視鏡装置
JP2005296200A (ja) * 2004-04-08 2005-10-27 Olympus Corp 内視鏡用画像処理装置
JP2006341077A (ja) * 2005-05-13 2006-12-21 Olympus Medical Systems Corp 生体観測装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2719317A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173737A (ja) * 2014-03-13 2015-10-05 オリンパス株式会社 生体観察システム
JP2016158838A (ja) * 2015-02-27 2016-09-05 富士フイルム株式会社 内視鏡システム、内視鏡プロセッサ装置、及び、内視鏡システムの作動方法
US10034600B2 (en) 2015-03-17 2018-07-31 Olympus Corporation Endoscope apparatus with spectral intensity control
WO2017199509A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 生体観察システム
JPWO2017199509A1 (ja) * 2016-05-19 2018-06-07 オリンパス株式会社 生体観察システム
US10893810B2 (en) 2016-11-01 2021-01-19 Olympus Corporation Image processing apparatus that identifiably displays bleeding point region
JP6392486B1 (ja) * 2017-02-01 2018-09-19 オリンパス株式会社 内視鏡システム
US11882995B2 (en) 2017-02-01 2024-01-30 Olympus Corporation Endoscope system
WO2019171703A1 (ja) * 2018-03-05 2019-09-12 オリンパス株式会社 内視鏡システム
US11723513B2 (en) 2018-03-05 2023-08-15 Olympus Corporation Endoscope system and image processing method
WO2019198576A1 (ja) * 2018-04-11 2019-10-17 富士フイルム株式会社 医療画像処理装置
JPWO2019198576A1 (ja) * 2018-04-11 2021-04-08 富士フイルム株式会社 医療画像処理装置
US11979543B2 (en) 2018-04-11 2024-05-07 Fujifilm Corporation Medical image processing apparatus
US20200394792A1 (en) * 2019-06-13 2020-12-17 Boston Scientific Scimed, Inc. Methods and apparatus to detect bleeding vessels

Also Published As

Publication number Publication date
CN103717118B (zh) 2017-03-29
JP5427318B1 (ja) 2014-02-26
JPWO2013145407A1 (ja) 2015-12-10
CN103717118A (zh) 2014-04-09
US8939901B2 (en) 2015-01-27
US9775497B2 (en) 2017-10-03
EP2719317A4 (en) 2015-05-06
EP2719317A1 (en) 2014-04-16
US20130324797A1 (en) 2013-12-05
US20150105616A1 (en) 2015-04-16

Similar Documents

Publication Publication Date Title
JP5427318B1 (ja) 内視鏡装置
JP5404968B1 (ja) 内視鏡装置
JP5355827B1 (ja) 内視鏡装置
JP5362149B1 (ja) 内視鏡装置
JP5167440B2 (ja) 内視鏡装置
JP5496075B2 (ja) 内視鏡診断装置
JP5215506B2 (ja) 内視鏡装置
JP5159904B2 (ja) 内視鏡診断装置
WO2011010534A1 (ja) 透過率調整装置、観察装置、及び観察システム
WO2017104046A1 (ja) 内視鏡装置
US10893810B2 (en) Image processing apparatus that identifiably displays bleeding point region
JP6839773B2 (ja) 内視鏡システム、内視鏡システムの作動方法及びプロセッサ
JP2012120572A (ja) 内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013525024

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872860

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012872860

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE