WO2015152327A1 - 観察画像取得システム及び観察画像取得方法 - Google Patents

観察画像取得システム及び観察画像取得方法 Download PDF

Info

Publication number
WO2015152327A1
WO2015152327A1 PCT/JP2015/060333 JP2015060333W WO2015152327A1 WO 2015152327 A1 WO2015152327 A1 WO 2015152327A1 JP 2015060333 W JP2015060333 W JP 2015060333W WO 2015152327 A1 WO2015152327 A1 WO 2015152327A1
Authority
WO
WIPO (PCT)
Prior art keywords
image information
light
region
observation
image
Prior art date
Application number
PCT/JP2015/060333
Other languages
English (en)
French (fr)
Inventor
和昭 田村
伊藤 毅
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to DE112015001158.7T priority Critical patent/DE112015001158T5/de
Priority to CN201580016610.3A priority patent/CN106132275B/zh
Publication of WO2015152327A1 publication Critical patent/WO2015152327A1/ja
Priority to US15/281,709 priority patent/US10582842B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14556Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases by fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device

Definitions

  • the present invention relates to an observation image acquisition system and an observation image acquisition method for performing observation with, for example, white light, or light with a wavelength different from the wavelength of white light, for example, observation with special light for observing a specific target substance.
  • Patent Document 1 discloses a light source device that emits white light and light in a specific narrow wavelength range (hereinafter referred to as special light) by a combination of an excitation light source having different wavelengths and a plurality of wavelength conversion members, and the light source device. Images of each reflected light from the subject when white light and special light are emitted from the image, and each image acquired by the imaging is processed to generate and display a white light image and a special light image.
  • An endoscope apparatus is disclosed.
  • Patent Document 1 analytically obtains emphasized image information by narrowband light from white light image information including narrowband light (blue, green) and broadband light and special light image information. Is generated and displayed.
  • one of the extracted narrowband light is blue LD light for white illumination light, which does not match the wavelength (blood vessel absorption peak) for displaying a blood vessel with good contrast, for example.
  • the illumination light detected by each color pixel is extracted from the same wavelength range, for example, in order to generate an enhanced image of a blood vessel or the like, the amount of information is small and effective for diagnosis of the blood vessel or the like. There are difficult aspects to get images.
  • the present invention generates enhanced image information of a target substance from image information obtained by irradiating the observation target with light of a specific color pixel and having a different wavelength range in consideration of the absorption characteristics of the target substance present in the observation target. It is another object of the present invention to provide an observation image acquisition system and an observation image acquisition method capable of acquiring white light or special light observation images with high contrast of the target substance.
  • An observation image acquisition system includes a first light in a wavelength region that does not include a wavelength region in which an absorption peak of a target substance included in an observation target exists, and a wavelength region in which the absorption peak exists.
  • a light source unit that irradiates the observation target with the second light, an imaging unit that images the observation target and acquires image information, and calculates the image information acquired by the imaging unit to calculate the target substance
  • An image acquisition unit that generates enhanced image information that enhances the image, and the image acquisition unit includes first image information acquired by the imaging unit when the observation target is irradiated with the first light.
  • an enhanced image information generation unit that generates the enhanced image information based on second image information acquired by the imaging unit when the observation target is irradiated with the second light.
  • the emphasized image information of the target substance is obtained from image information obtained by irradiating the observation target with light having a specific color pixel and having a different wavelength range.
  • an observation image acquisition system and an observation image acquisition method capable of acquiring a white light or special light observation image with high contrast of the target substance.
  • FIG. 1 is a configuration diagram showing a first embodiment of an observation image acquisition system according to the present invention.
  • FIG. 2 is a specific configuration diagram showing a wavelength conversion unit in the apparatus.
  • FIG. 3 is a diagram showing excitation / fluorescence spectrum characteristics of a YAG phosphor used in the wavelength conversion unit in the apparatus.
  • FIG. 4 is a diagram showing excitation / fluorescence spectral characteristics of a sialon phosphor used in the wavelength conversion unit in the apparatus.
  • FIG. 5 is a diagram showing the spectral sensitivity characteristics of the image sensor that constitutes the imaging apparatus in the apparatus.
  • FIG. 6 is a diagram showing an absorption coefficient serving as an index of the absorption intensity of hemoglobin in a blood vessel as a subject in the apparatus.
  • FIG. 1 is a configuration diagram showing a first embodiment of an observation image acquisition system according to the present invention.
  • FIG. 2 is a specific configuration diagram showing a wavelength conversion unit in the apparatus.
  • FIG. 3 is a diagram showing ex
  • FIG. 7 is an observation image generation / display float chart of the apparatus.
  • FIG. 8 is a diagram illustrating the absorption characteristics of biological tissue, the intensity of excitation light, and the light receiving sensitivity characteristics of each color pixel of the imaging apparatus in the apparatus.
  • FIG. 9 is a schematic diagram showing one method of generating emphasized image information (B3) in the same apparatus.
  • FIG. 10 is a schematic diagram showing another method for generating the emphasized image information (B3) in the apparatus.
  • FIG. 11 is an operation timing chart when the white light enhanced observation image and the special light enhanced observation image are alternately displayed in the apparatus.
  • FIG. 12 is a diagram illustrating intensities with respect to wavelengths of white light and special light when illumination light is generated using a blue LED in the apparatus.
  • FIG. 13 is a block diagram showing a second embodiment of an observation image acquisition system according to the present invention.
  • the relationship between the blue-green-red color region and the visible light wavelength range is such that the blue region is a wavelength region of 380 nm to 500 nm, the green region is a wavelength region of 500 nm to 600 nm, and the red region is a wavelength of 600 nm to 600 nm.
  • the region is 780 nm.
  • FIG. 1 shows a configuration diagram of an observation image acquisition system 1.
  • the system 1 generates emphasized image information that highlights and highlights the contrast of the target substance present in the observation target.
  • the observation target is, for example, a subject 2 such as a human body and includes a living tissue 4.
  • the target substance is hemoglobin that exists in the observation target and flows through the surface blood vessel 3 present in the surface layer portion in the living tissue 4 of the subject 2 and the middle layer blood vessel 5 present in a site deeper than the surface blood vessel 3.
  • hemoglobin is used as the target substance, but another substance existing in the body may be used, or a fluorescent probe administered from outside the body may be used.
  • the absorption wavelength range of the fluorescent probe is preferably matched to the wavelength of the excitation light.
  • the system 1 includes a light source device 6 that irradiates the subject 2 with illumination light, an imaging device (imaging unit) 7 that images reflected light from the subject 2, and the subject 2.
  • An image acquisition device (image acquisition unit) 8 for generating image information of the subject an image display device (image display unit) 9 for displaying an image of the subject 2, and an observation mode input device (for setting the observation mode of the system 1)
  • An observation mode input unit) 10 and a system control device 11 that controls the operation of the light source device 6, the imaging device 7, and the image acquisition device 8 according to the observation mode set in the observation mode input device 10.
  • the light source device 6 includes first light (first illumination light) Q1 having a peak wavelength in a wavelength region that does not include a wavelength region in which an absorption peak of hemoglobin flowing in the subject 2 such as a human body exists, and absorption of hemoglobin.
  • the subject 2 is irradiated with second light (second illumination light) Q2 having a peak wavelength in a wavelength region where a peak exists.
  • the light source device 6 includes a first excitation light source 20, a second excitation light source 21, a light source control unit 22, a light guide unit 23, and a wavelength conversion unit 24.
  • the first excitation light source 20 includes a first semiconductor laser (LD) that emits blue laser light having an emission peak wavelength of 450 nm ( ⁇ 1) and a half width of several nm or less. In the first excitation light source 20, the blue laser light component contained in the emitted blue laser light is used as the first excitation light.
  • the first excitation light source 20 is referred to as a first semiconductor laser 20.
  • the second excitation light source 21 includes a second semiconductor laser (LD) that emits a blue-violet laser beam having an emission peak wavelength of 415 nm ( ⁇ 2) and a half-value width of several nm or less.
  • LD second semiconductor laser
  • the blue-violet laser light component included in the emitted laser light is used as the second excitation light.
  • the second excitation light source 21 is hereinafter referred to as a second semiconductor laser 21.
  • the light source control unit 22 controls each drive current supplied to the first semiconductor laser 20 and the second semiconductor laser 21 and drives the first semiconductor laser 20 and the second semiconductor laser 21 such as a pulse. Drive or continuous drive control is performed.
  • the light guide 23 guides the blue laser light emitted from the first semiconductor laser 20 and the blue-violet laser light emitted from the second semiconductor laser 21 to the wavelength conversion unit 24.
  • the light guide unit 23 includes a first optical fiber 25, a second optical fiber 26, an optical multiplexing unit 27, and a third optical fiber 28.
  • the first optical fiber 25 is optically connected between the first semiconductor laser 20 and an optical multiplexing unit (2 ⁇ 1 optical coupler: 2 inputs-1 output) 27.
  • the first optical fiber 25 guides blue laser light emitted from the first semiconductor laser 20 to the optical multiplexing unit 27.
  • the second optical fiber 26 is optically connected between the second semiconductor laser 21 and the optical multiplexing unit 27.
  • the second optical fiber 26 guides the blue-violet laser light emitted from the second semiconductor laser 21 to the optical multiplexing unit 27.
  • the optical multiplexing unit 27 includes blue laser light from the first semiconductor laser 20 guided by the first optical fiber 25 and blue light from the second semiconductor laser 21 guided by the second optical fiber 26.
  • the purple laser beam is combined and output to the third optical fiber 28.
  • the third optical fiber 28 is optically connected between the optical multiplexing unit 27 and the wavelength conversion unit 24.
  • the third optical fiber 28 guides the blue laser light, the blue-violet laser light, or the combined light of the blue-violet laser light and the blue-violet laser light output from the optical multiplexing unit 27 to the wavelength conversion unit 24. .
  • the optical multiplexing unit 27 transmits only the blue laser light to the third optical fiber. To 28. Further, when the blue laser light is not emitted from the first semiconductor laser 20 and the blue-violet laser light is emitted from the second semiconductor laser 21, the optical multiplexing unit 27 transmits only the blue-violet laser light to the third laser beam. Output to the optical fiber 28.
  • a coupling lens (not shown) is provided between the first semiconductor laser 20 and the first optical fiber 25 and between the second semiconductor laser 21 and the second optical fiber 26, respectively. These coupling lenses converge the blue laser light emitted from the first semiconductor laser 20 or converge the blue-violet laser light emitted from the second semiconductor laser 21, respectively. And the first optical fiber 25 and the coupling efficiency between the second semiconductor laser 21 and the second optical fiber 26 are improved.
  • the wavelength conversion unit 24 is connected to the emission end side of the third optical fiber 28.
  • the wavelength conversion unit 24 is excited by irradiation with blue laser light, blue-violet laser light, or combined light of blue laser light and blue-violet laser light emitted from the third optical fiber 28.
  • the wavelength conversion unit 24 is excited by blue laser light to convert the wavelength to white light Q1, and is excited by blue-violet laser light to convert the wavelength to special light Q2.
  • FIG. 2 shows a specific configuration diagram of the wavelength conversion unit 24.
  • the wavelength conversion unit 24 includes a holder 30, a glass member 31 as a light transmission member, a first phosphor 32 as a first wavelength conversion member, and a second phosphor as a second wavelength conversion member. 33.
  • the holder 30 is formed with a tapered holding hole 34, and the small diameter side is an incident end for laser light, and the large diameter side is an emission end for emitting light whose wavelength is converted.
  • the holding hole 34 is formed so that the diameter continuously increases from the incident end toward the exit end.
  • a glass member 31, a first phosphor 32, and a second phosphor 33 are provided from an entrance end on the small diameter side to an exit end on the large diameter side.
  • a reflection member is formed on the inner peripheral surface of the holding hole 34. This reflecting member specularly reflects or diffuses blue laser light or blue-violet laser light excitation light, yellow fluorescence emitted by the first phosphor 32, and green fluorescence emitted by the second phosphor 33. reflect.
  • the first phosphor 32 absorbs blue laser light having a wavelength of 450 nm ( ⁇ 1) emitted from the first semiconductor laser 20 and emits fluorescence in a wavelength region exhibiting yellow (hereinafter referred to as yellow fluorescence).
  • the first phosphor 32 is made of, for example, a YAG: Ce phosphor (hereinafter referred to as a YAG phosphor).
  • FIG. 3 shows the excitation / fluorescence spectral characteristics of the YAG phosphor.
  • This YAG phosphor emits yellow fluorescence with strong emission intensity when excited with blue laser light having a wavelength of around 450 nm ( ⁇ 1) in the visible light region.
  • This yellow fluorescence spectrum has a broad spectrum having a peak at a wavelength of 575 nm ( ⁇ 3) and a half width of 130 nm.
  • the second phosphor 33 absorbs blue-violet laser light having a wavelength of 415 nm and emits fluorescence in a wavelength region exhibiting green (hereinafter referred to as green fluorescence).
  • the second phosphor 33 is made of Eu (europium) activated sialon phosphor (hereinafter referred to as sialon phosphor).
  • FIG. 4 shows the excitation / fluorescence spectral characteristics of the sialon phosphor.
  • the second phosphor 33 emits green fluorescence having a stronger emission intensity as it is closer to the near-ultraviolet wavelength region.
  • This green fluorescence spectrum has a broad spectrum having a peak at a wavelength of 540 nm ( ⁇ 4) and a half width of 95 nm.
  • the first and second phosphors 32 and 33 are formed by dispersing a powdery fluorescent material in a sealing material such as silicone resin or glass and solidifying the sealing material.
  • the thicknesses of the first and second phosphors 32 and 33 and the concentration of the powder phosphor mixed with the sealing material are predetermined conditions in consideration of the characteristics of the excitation light absorption rate and wavelength conversion efficiency of the phosphor. Set to That is, the thicknesses of the first and second phosphors 32 and 33 and the concentration of the powder phosphor convert the blue laser light into white light Q1 that is a mixture of the blue laser light and yellow fluorescence, and a blue-violet laser.
  • the predetermined conditions for converting the light into special light Q2 by mixing the blue-violet laser light and green fluorescence are set.
  • the white light Q1 includes spectral components in a blue region, a green region, and a red region.
  • the special light Q2 includes spectral components in a blue region and a green region.
  • the special light Q2 is for highlighting a target substance such as hemoglobin on the display image.
  • the peak wavelength of the special light Q2 exists in a wavelength region closer to the absorption peak of the target substance such as hemoglobin than the peak wavelength of the white light Q1.
  • the wavelength region where the absorption peak of the target substance such as hemoglobin exists is a specific color region, the emission of the special light Q2 in the specific color region
  • the spectral component has an intensity equal to or higher than the emission spectral component of the white light Q1.
  • the glass member 31 is formed of a glass having a high transmittance as a light transmitting member and a silicone resin.
  • the glass member 31 emits blue laser light emitted from the emission end of the optical fiber 28, blue-violet laser light, mixed light of the blue laser light and blue-violet laser light, and the first phosphor 32.
  • the transmitted yellow fluorescence and the green fluorescence emitted from the second phosphor 33 are transmitted.
  • the imaging device 7 acquires the image information by imaging the subject 2 to be observed as described above.
  • the imaging device 7 is formed by arranging a plurality of imaging elements (CCDs) in the vertical and horizontal directions. These image sensors are assigned to the pixels of the blue (B) region, the green (G) region, and the red (R) region, respectively. That is, the imaging device 7 has a plurality of B pixels having a sensitivity peak at a wavelength of 460 nm ( ⁇ b) in the B color region and a wavelength of 540 nm in the G color region (as in the spectral sensitivity characteristic of the imaging device shown in FIG. a plurality of G pixels having a sensitivity peak at ⁇ g) and a plurality of R pixels having a sensitivity peak at a wavelength of 630 nm ( ⁇ r) in the R color region.
  • CCDs imaging elements
  • the imaging device 7 When the imaging device 7 irradiates the observation target such as the subject 2 with the white light Q1, the white light image is used as the first image information for each of the B color region, the G color region, and the R color region. Information (B1, G1, R1) is acquired.
  • the imaging device 7 uses the special light image information (B2, B2) as the second image information for each of the B color region, the G color region, and the R color region. G2, R2) is acquired.
  • the white light Q1 is a mixed color light of blue laser light and yellow fluorescence emitted from the first phosphor 32.
  • the special light Q2 is a mixed color light of blue-violet laser light and green fluorescence emitted from the second phosphor 33.
  • the white light Q1 and the special light Q2 correspond to the wavelength region where the absorption peak of the target substance such as hemoglobin exists as described above, and are the wavelength regions having the maximum light receiving sensitivity among the wavelength regions of the imaging device 7.
  • the bandwidth of the emission spectrum is different in the color region.
  • the white light Q1 and the special light Q2 do not overlap in emission spectrum in the specific color region.
  • the absorption characteristic of the blood vessel in the subject 2 is larger in the absorption amount of the blue-violet laser light than in the absorption amount of the blue laser light.
  • the sensitivity characteristic of each CCD of the image pickup device 7 is higher in sensitivity to blue laser light than in sensitivity to blue-violet laser light.
  • the blue violet laser light in the B color region needs a higher spectral intensity than the blue laser light. To do.
  • the sum of the product of the illumination light spectrum P ( ⁇ ) of the white light Q1 and the sensitivity characteristic b ( ⁇ ) of the B pixel of the image sensor is defined as the first blue level B1.
  • the sum of the product of the illumination light spectrum Q ( ⁇ ) of the special light Q2 and the sensitivity characteristic b ( ⁇ ) of the B pixel of the image sensor is defined as a second blue level B2.
  • the following equation (1) shows the first blue level B1 and the second blue level B2. ... (1) Therefore, in order to obtain a blue image having substantially the same S / N between the white light Q1 and the special light Q2, a blue laser in which the first blue level B1 and the second blue level B2 are substantially the same level. It is preferable to obtain the ratio between the light and the blue-violet laser light, and switch the white light Q1 and the special light Q2 so as to obtain this ratio and irradiate the subject 2 with the light.
  • the product of the illumination light spectrum P ( ⁇ ) of the white light Q1 and the sensitivity characteristic g ( ⁇ ) of the G pixel of the image sensor is the first green level G1.
  • the first red level R1 is obtained by multiplying the illumination light spectrum P ( ⁇ ) of the white light Q1 by the sensitivity characteristic r ( ⁇ ) of the R pixel of the image sensor.
  • a product obtained by multiplying the illumination light spectrum Q ( ⁇ ) of the special light Q2 by the sensitivity characteristic g ( ⁇ ) of the G pixel of the image sensor is a second green level G2.
  • a product obtained by multiplying the illumination light spectrum Q ( ⁇ ) of the special light Q2 by the sensitivity characteristic r ( ⁇ ) of the R pixel of the image sensor is a second red level R2.
  • the image acquisition device 8 calculates the image information acquired by the imaging of the imaging device 7 and generates enhanced image information that highlights the contrast of the target substance such as hemoglobin with a high contrast.
  • the image acquisition device 8 includes a first memory 40, a second memory 41, an enhanced image information generation device 42, a first developing unit 43, and a second developing unit 44.
  • the emphasized image information generation device 42 includes an image calculation unit 45 and a third memory 46.
  • white light image information (first image information acquired by imaging of the imaging device 7 when the first semiconductor laser 20 is driven to irradiate the subject 2 with the white light Q1) ( B1, G1, R1) are temporarily stored.
  • the white light image information (B1, G1, R1) is acquired by the B color region, the G color region, and the R color region of the imaging device 7 when the subject 2 is irradiated with the white light that is the first light.
  • special light image information second image information acquired by imaging by the imaging device 7 when the second semiconductor laser 21 is driven and the subject 2 is irradiated with the special light Q2 ( B2, G2, R2) are temporarily stored.
  • the special light image information (B2, G2, R2) is acquired by the B color region, the G color region, and the R color region of the imaging device 7 when the subject 2 is irradiated with the special light that is the second light.
  • the enhanced image information generation device 42 includes white light image information (B1, G1, R1) stored in the first memory 40 and special light image information (B2, G2, R2) stored in the second memory 41. Based on the above, for example, the enhanced image information (B3) that highlights the contrast of the surface blood vessel 3 with high hemoglobin as the target substance is generated.
  • the emphasized image information generation device 42 includes an image calculation unit 45 and a third memory 46, and among these, the image calculation unit 45 includes the white light image information (B 1, G 1, R 1) and the special light image.
  • the image calculation unit 45 performs a predetermined calculation on the selected first color image information (B1) and second color image information (B2) to increase the contrast of, for example, the surface blood vessel 3 in which hemoglobin exists. Emphasized image information (B3) to be highlighted is generated.
  • the image calculation unit 45 stores the generated emphasized image information (B3) in the third memory 46.
  • This enhanced image information (B3) has a higher contrast of the superficial blood vessel 3 than the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2).
  • An instruction to select the first color image information (B1) or the second color image information (B2) in the B color region is issued from the system control device 11 to the emphasized image information generation device 42.
  • the image calculation unit 45 has an absorption difference indicating a difference in absorption of hemoglobin as a target substance from the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2). Information is extracted, and this absorption difference information is added to special light image information (B2, G2, R2) having strong hemoglobin absorption to generate enhanced image information (B3).
  • the image calculation unit 45 performs a calculation for obtaining a difference between the first color image information (B1) and the second color image information (B2) in the same wavelength region, for example, the B color region, and obtains the difference information.
  • the image calculation unit 45 selects one of the extracted absorption difference information, the first color image information (B1) of the B color region, and the second color image information (B2) (B1 or A calculation for obtaining a difference from B2) is performed to generate emphasized image information (B3).
  • the image calculation unit 45 performs image noise reduction processing only on image information other than hemoglobin from the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2).
  • the enhanced image information (B3) is generated from the image information subjected to the image noise reduction process.
  • the image calculation unit 45 extracts luminance information that is equal to or greater than a threshold for luminance information in the same wavelength region, for example, the B color region, included in the special light image information (B2, G2, R2).
  • the image calculation unit 45 performs a calculation for obtaining a difference between the extracted luminance information and the luminance information of the same wavelength region, for example, the B color region, included in the white light image information (B1, G1, R1) to obtain the luminance information.
  • the image calculation unit 45 performs calculation for obtaining a difference between the luminance information and the luminance information of the B area included in the special light image information (B2, G2, R2) to generate the emphasized image information (B3).
  • the first developing unit 43 includes partial image information (G1, R1) of the white light image information (B1, G1, R1) stored in the first memory 40 and the enhancement stored in the third memory 46. Predetermined image processing is performed on the image information (B3) to generate white light enhanced image information (B3, G1, R1), and the white color image of the white light enhanced image information (B3, G1, R1) Output a signal.
  • the first developing unit 43 generates a white light normal observation image from the white light image information (B1, G1, R1), and outputs a white color video signal of the white light normal observation image (B1, G1, R1). .
  • the white light-enhanced image information (here, B3, G1, and R1) is applied to the surface layer portion of the target substance, for example, the living tissue 4 of the subject 2 while the color of the observation target maintains the condition of the white light image. Only the hemoglobin flowing in the surface blood vessel 3 present and the middle blood vessel 5 existing deeper than the surface blood vessel 3 can be emphasized.
  • the white light enhanced image can enhance the target substance without losing the white light image information of the asymmetric substance such as the mucous membrane.
  • the second developing unit 44 includes part of the image information (G2) of the special light image information (B2, G2, R2) stored in the second memory 41 and the emphasized image information stored in the third memory 46. (B3) is subjected to predetermined image processing to generate special light enhanced image information (B3, G2), and a special color video signal of the special light enhanced image information (B3, G2) is output.
  • the second developing unit 44 includes part of the image information (R2) of the special light image information (B2, G2, R2) stored in the second memory 41 and the enhanced image stored in the third memory 46.
  • the special light enhanced image information (B3, R2) is generated by performing predetermined image processing on the information (B3), and the special color video signal of the special light enhanced image information (B3, R2) is output. May be.
  • the second developing unit 44 generates special light normal observation image information (B2, G2) from a part of the image information (B2, G2) of the special light image information (B2, G2, R2).
  • a special color video signal of the observation image (B2, G2) is output.
  • the special light image information (B3, R2) and special light normal observation image information (B2, G2) are generated by irradiating the subject 2 with the special light Q2 only in the blue region and the green region.
  • this special light image information is obtained by utilizing the fact that the depth of the special light Q2 entering from the surface of the living tissue 4 and the light scattering characteristics of the special light Q2 have different properties. 3 and the middle layer blood vessel 5 and the like existing deeper than the surface blood vessel 3 can be observed with good contrast, and the discovery of cancer and the like can be facilitated.
  • the first and second developing units 33 and 34 include a white light enhanced observation image (B3, G1, R1), a white light normal observation image (B1, G1, R1), and a special light enhanced observation image (B3, R2). And a white balance coefficient, a color conversion coefficient, and the like for determining each color information with the special light normal observation image (B2, G2) are stored in a storage unit (not shown).
  • the first and second developing units 33 and 34 perform other image processing necessary for image generation, such as noise reduction, structure enhancement, and color conversion, using a white balance coefficient or a color conversion coefficient.
  • first and second developing units 33 and 34 are configured so that the color of the white light enhanced observation image (B3, G1, R1) and the white light normal observation image (B1, G1, R1) and the special light enhanced observation image ( B3, R2) and observation mode color adjustment parameters for aligning the hues of the special light normal observation images (B2, G2) are stored in a storage unit (not shown).
  • the first and second developing units 33 and 34 use the observation mode color adjustment parameter and apply the observation mode color adjustment parameter to various image processes.
  • the image display device 9 includes a display such as a CRT or a liquid crystal.
  • the image display device 9 inputs a video signal of the white light enhanced observation image (B3, G1, R1) or the white light normal observation image (B1, G1, R1) output from the first developing unit 43, and displays the image. Show on the display.
  • the image display device 9 inputs a video signal of the special light enhanced observation image (B3, R2) or the special light normal observation image (B2, G2) and displays the image on the display.
  • the absorption characteristics of the subject 2 will be described with reference to an absorption coefficient that is an index of the absorption intensity of hemoglobin in the blood vessel shown in FIG.
  • the human subject 2 is roughly divided into two types of tissues having different absorption characteristics between the blood vessels 3 and 5 such as the surface blood vessels 3 and the middle layer blood vessels 5 and the living tissue 4 such as the mucous membrane.
  • the absorption intensity of hemoglobin in the blood vessels 3 and 5 is different in the visible light region of the wavelength band 380 nm to 780 nm at different wavelengths near the wavelength 415 nm ( ⁇ h1) and near the wavelength 540 nm ( ⁇ h2). With a peak.
  • the absorption intensity of hemoglobin has the property that the absorption intensity in the vicinity of a wavelength of 415 nm ( ⁇ h1) is the largest.
  • NBI narrow band observation
  • NBI narrow band observation of an endoscope observes light of two wavelengths including a wavelength region of wavelength ⁇ h1 and wavelength ⁇ h2, for example, light having a wavelength of approximately 400 nm to 440 nm and light having a wavelength of approximately 525 nm to 555 nm.
  • ⁇ h1 and wavelength ⁇ h2 for example, light having a wavelength of approximately 400 nm to 440 nm and light having a wavelength of approximately 525 nm to 555 nm.
  • NBI observes blood vessels 3, 5 and the like with good contrast by utilizing the fact that light of two wavelengths has different properties of the depth of light that penetrates from the surface of living tissue 4 and the scattering characteristics. This is a technique (special light observation) that facilitates the discovery of cancer and the like.
  • the absorption characteristics of hemoglobin show a tendency that the absorption intensity rapidly decreases as the wavelength becomes longer from the wavelength ⁇ h1.
  • the absorption intensity of hemoglobin decreases to about one fifth at a wavelength difference of 35 nm between these wavelengths of 450 nm and 415 nm.
  • the living tissue 4 in the subject 2 such as a human body often shows red from skin color.
  • the absorption characteristics of the living tissue 4 are such that the absorption coefficient gradually decreases from the blue region to the red region, becomes smaller than the absorption coefficient of hemoglobin near the wavelength of 415 nm in the blue region, and absorbs hemoglobin near the wavelength of 450 nm. Some organizations are larger than the coefficient.
  • the system control device 11 is composed of a computer including a CPU, RAM, ROM and the like.
  • the system control device 11 generates a white light enhanced observation image (B3, G1, R1) and a special light enhanced observation image (B3, R2) by executing an observation image generation display program stored in a ROM or the like.
  • an operation command is issued to each of the light source device 6, the imaging device 7, and the image acquisition device 8.
  • the observation mode input device 10 receives the user's operation and sets the observation mode of the system 1 and the order of the observation mode.
  • the observation mode input device 10 sets, for example, a mode for generating and displaying a white light enhanced observation image (B3, G1, R1) by a user operation, and then sets a special light enhanced observation image (B3, G2). ) Is generated and displayed.
  • the special light enhanced observation image (B3, G2) may be generated and displayed, and then the white light enhanced observation image (B3, G1, R1) may be generated and displayed.
  • the system control device 11 issues a command to drive the first semiconductor laser 20 to the light source control unit 22 in step S1.
  • the first semiconductor laser 20 emits blue laser light having an emission peak wavelength of 450 nm ( ⁇ 1) and a half-value width of several nm or less.
  • the blue laser light is incident on the first optical fiber 25 of the light guide section 23, the blue laser light is guided from the first optical fiber 25 by the optical multiplexing section 27 and the third optical fiber 28, and the first excitation light.
  • the first semiconductor laser 20 emits blue laser light having an emission peak wavelength of 450 nm ( ⁇ 1) and a half-value width of several nm or less.
  • the first phosphor 32 of the wavelength conversion unit 24 When the first phosphor 32 of the wavelength conversion unit 24 is irradiated with blue laser light, the first phosphor 32 is excited by absorbing the blue laser light and emits yellow fluorescence.
  • This yellow fluorescence spectrum has a broad spectrum having a peak at a wavelength of 575 nm ( ⁇ 2) and a half width of 130 nm.
  • the first phosphor 32 transmits part of the blue laser light without contributing to yellow fluorescence. Thereby, the first phosphor 32 emits white light Q1 in which yellow fluorescence and a part of the blue laser light are mixed, and the subject 2 is irradiated with the white light Q1.
  • the white light Q1 is applied to the surface blood vessel 3 existing in the living tissue 4 in the irradiation region W of the white light Q1 in the subject 2 by being irradiated on the subject 2. As shown in FIG. 8, the white light Q1 is partially absorbed according to the absorption characteristics of the surface blood vessel 3 through which hemoglobin flows and the living tissue 4 such as mucous membrane, and the remaining part is scattered and reflected. Of these, the reflected light from the superficial blood vessel 3 and the living tissue 4 enters the imaging device 7.
  • the imaging device 7 receives reflected light from the surface blood vessel 3 and the living tissue 4 and receives the reflected light by the B color region, the G color region, and the R color region of the CCD, and the three colors for each of these BGR colors.
  • Image information that is, white light image information (B1, G1, R1) is output.
  • the white light image information (B1, G1, R1) is sent to the image acquisition device 8 and stored in the first memory 40 of the device 8.
  • the white light image information (B1, G1, R1) is stored in the first memory 40 as three pieces of image information (B1) (G1) (R1).
  • the light receiving sensitivity characteristic of the B color pixel of the imaging device 7 exists in the wavelength region of 380 nm to 540 nm as shown in FIG. Thereby, the reflected light from the surface blood vessel 3 and the biological tissue 4 received by the B color pixel becomes a short wavelength region of blue laser light and yellow fluorescence.
  • the component mainly received by the B color pixel is blue laser light.
  • step S2 the system controller 11 performs color information for generating enhanced image information (B3), such as white light image information (B1, G1, R1) and special light image information (B2, G2, R2). ), For example, the first color image information (B1) and the second color image information (B2) in the B color region as the reference image information for generating the emphasized image information. Instruct the generation device 42.
  • the image calculation unit 45 of the emphasized image information generation device 42 obtains, for example, the first color image information (B1) of the B color region from the white light image information (B1, G1, R1) stored in the first memory 40. select.
  • the image calculation unit 45 obtains, for example, the color image information (G1, R1) of the G and R color areas, which are reference image information that is not used for generating the enhanced image information (B3), from the white light image information (B1, G1, R1).
  • the color image information (G1, R1) is selected and transmitted to the first developing unit 43.
  • the system control device 11 issues a command to drive the second semiconductor laser 21 to the light source control unit 22 in step S3 parallel to the processing of step S1.
  • the second semiconductor laser 21 emits a blue-violet laser beam having an emission peak wavelength of 415 nm ( ⁇ 2) and a half-value width of several nm or less.
  • the blue-violet laser light is incident on the second optical fiber 26 of the light guide 23, it is guided from the first optical fiber 26 by the optical multiplexing unit 27 and the third optical fiber 28, and the second excitation light The light is irradiated to the wavelength conversion unit 24 as light.
  • the second phosphor 33 of the wavelength conversion unit 24 When the second phosphor 33 of the wavelength conversion unit 24 is irradiated with blue-violet laser light, the second phosphor 33 is excited by absorbing the blue-violet laser light and emits green fluorescence.
  • This green fluorescence spectrum has a broad spectrum having a peak at a wavelength of 540 nm ( ⁇ 4) and a half width of 95 nm.
  • the second phosphor 33 transmits part of the blue-violet laser light without contributing to the green fluorescence.
  • the second phosphor 33 emits special light Q2 in which green fluorescence and a part of the blue-violet laser beam are mixed, and the subject 2 is irradiated with the special light Q2.
  • the special light Q2 is irradiated onto the subject 2 to irradiate the surface blood vessel 3 existing in the living tissue 4 within the irradiation region W of the special light Q2 in the subject 2.
  • a part of the special light Q2 is absorbed according to the absorption characteristics of the surface blood vessel 3 through which hemoglobin flows and the living tissue 4 such as the mucous membrane, and the remaining part is scattered and reflected.
  • the reflected light from the superficial blood vessel 3 and the living tissue 4 enters the imaging device 7.
  • the imaging device 7 receives reflected light from the surface blood vessel 3 and the living tissue 4 and receives the reflected light by the B color region, the G color region, and the R color region of the CCD, and the three colors for each of these BGR colors.
  • Image information that is, special light image information (B2, G2, R2) is output.
  • the special light image information (B2, G2, R2) is sent to the image acquisition device 8 and stored in the second memory 41 of the device 8.
  • the special light image information (B2, G2, R2) is stored in the second memory 41 as image information (B2) (G2) (R2) of each of the three sheets.
  • the light receiving sensitivity characteristic of the B color pixel of the imaging device 7 is present in the wavelength region 380 nm to 540 nm. Therefore, the reflected light from the surface blood vessel 3 and middle blood vessel 5 received by the B color pixel is blue-violet. It becomes laser light and green fluorescence. That is, the color component received by the B color pixel is mainly blue-violet laser light.
  • step S4 the image calculation unit 45 generates color information for generating enhanced image information (B3) from the special light image information (B2, G2, R2) stored in the second memory 41, for example, the above-mentioned Similarly, the second color image information (B2) in the B color area is selected.
  • the image calculation unit 45 converts, for example, the second color image information (G2, R2) of the G and R color areas as the special light image information (B2) as the reference image information that is not used to generate the emphasized image information (B3). , G2, R2), and transmits the special light image information (G2, R2) to the second developing unit 44.
  • step S ⁇ b> 5 the image calculation unit 45 performs white light image information (B 1, G 1, R 1) stored in the first memory 40 and special light image information (B 2) stored in the second memory 41. , G2, R2).
  • the image calculation unit 45 is a first color image in the same wavelength region, for example, a B color region, included in the read white light image information (B1, G1, R1) and special light image information (B2, G2, R2).
  • Information (B1) and second color image information (B2) are selected.
  • the image calculation unit 45 performs a predetermined calculation on the first color image information (B1) of the B color region and the second color image information (B2) of the same color region, for example, a surface blood vessel in which hemoglobin exists 3 is generated, and the enhanced image information (B3) is stored in the third memory 46.
  • This enhanced image information (B3) has higher contrast of the surface blood vessel 3 than the first color image information (B1) and the second color image information (B2).
  • the surface blood vessel 3 is displayed on the image display device 9 such as a CRT or a liquid crystal display, the surface blood vessel 3 is obtained by irradiating the subject 2 with white light (when emitting blue laser light).
  • the second color image information (B2) acquired by irradiating special light is displayed relatively darker than the information (B1). This is because hemoglobin flowing in the superficial blood vessel 3 easily absorbs blue-violet laser light (special light).
  • the biological tissue 4 When the biological tissue 4 is displayed on the image display device 9 such as a CRT or a liquid crystal display, the biological tissue 4 has a smaller absorption characteristic of the wavelength difference between the blue-violet laser beam and the blue laser beam than the absorption characteristic of hemoglobin.
  • the display images of the color image information (B2) and the first color image information (B1) are compared, the image of the living tissue 4 has a smaller luminance difference than the image of the surface blood vessel 3. Therefore, the contrast of the superficial blood vessel 3 with respect to the biological tissue 4 is higher than the image of the first color image information (B1) acquired by irradiating the white light with the second color image information ( B2) is higher.
  • the image calculation unit 45 includes the second color image information (B2) in the B wavelength region in the same wavelength region, that is, the special light image information (B2, G2, R2), and the white light image information (B1, G1, R1).
  • the image calculation unit 45 sets a threshold value for the difference information (Y1), and extracts absorption difference information (second intermediate information) Y2 (> T1) equal to or greater than the threshold value (T1) from the difference information (Y1). .
  • the image calculation unit 45 performs a calculation for obtaining a difference between the second color image information (B2) and the extracted absorption difference information (Y2) to emphasize the contrast of the surface blood vessel 3 in which hemoglobin is present, for example.
  • the enhanced image information (B3) has a higher contrast of the surface blood vessel 3 than the white light image information (first color image information B1) and the special light image information (second color image information B2).
  • the image calculation unit 45 sets a threshold value (T2) that is an average luminance value for the luminance information of the same wavelength region, for example, the B color region included in the special light image information (B2, G2, R2), and the second Luminance information (third intermediate information) Y3 (> T2) greater than or equal to the threshold (T2) is extracted from the color image information (B2).
  • the threshold value (T2) that is the average luminance value is calculated from the pixel luminance values of the second color image information (B2) that has a large amount of hemoglobin absorption.
  • the image calculation unit 45 performs a calculation to obtain a difference between the luminance information (B2) of the B region included in the special light image information (B2, G2, R2) and the luminance information (fourth intermediate information) Y4, thereby performing hemoglobin.
  • the image calculation unit 45 is included in, for example, the first color image information (B1) of the B color region and the special light image information (B2, G2, R2) included in the white light image information (B1, G1, R1). Intermediate image information is obtained by performing image processing for reducing noise in the biological tissue part 4 (not less than a predetermined luminance value) from two images corresponding to the second color image information (B2) of the B region. Then, the image calculation unit 45 may generate the enhanced image information (B3) by synthesizing the intermediate image information and the second color image information (B2) of the B area. This enhanced image information (B3) also has high contrast of the superficial blood vessel 3.
  • the image calculation unit 45 uses the first color image information (B1) included in the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2).
  • An edge is obtained by performing image processing for extracting the boundary (over a predetermined light / dark difference) between the surface blood vessel 3 and the living tissue 4 from two images corresponding to the first color image information (B2) of the included B region.
  • An extracted intermediate image is generated.
  • the image calculation unit 45 synthesizes the intermediate image from which the edge has been extracted and the first color image information (B2) of the region B to create a surface blood vessel 3 and a middle blood vessel 5 deeper than the surface blood vessel 3.
  • Blood vessel emphasized image information (B3) displayed in different colors may be generated.
  • step S6 the first developing unit 43 reads part of the image information (G1, R1) from the white light image information (B1, G1, R1) stored in the first memory 40, and 3 The enhanced image information (B3) stored in the memory 46 is read out.
  • the first developing unit 43 performs predetermined image processing on the image information (G1, R1) and the enhanced image information (B3) to generate white light enhanced image information (B3, G1, R1).
  • a white color video signal of the white light enhanced image information (B3, G1, R1) is output.
  • the white color video signal of the white light enhanced image information (B3, G1, R1) is sent to the image display device 9.
  • step S7 the image display device 9 receives the white color video signal output from the first developing unit 43, processes the white color video signal into a display signal, and outputs white light enhanced image information ( B3, G1, R1) images are displayed on a display such as a CRT or a liquid crystal display.
  • a display such as a CRT or a liquid crystal display.
  • step S8 the second developing unit 44 reads part of the image information (G2) of the special light image information (B2, G2, R2) stored in the second memory 41 and the third memory 46.
  • the emphasized image information (B3) stored in is read.
  • the second developing unit 44 performs predetermined image processing on the image information (G2) and the emphasized image information (B3) to generate special light enhanced image information (B3, G2), and this special light enhancement.
  • a special color video signal of image information (B3, G2) is output.
  • the video signal of the special light enhanced image information (B3, G2) is sent to the image display device 9.
  • step S9 the image display device 9 receives the special color video signal output from the second developing unit 44, processes the special color video signal into a display signal, and performs special light enhanced image information (The image of B3, G2) is displayed on a display such as a CRT or a liquid crystal display.
  • the first developing unit 43 generates a white light normal observation image from the white light image information (B1, G1, R1), and outputs a white color video signal of the white light normal observation image (B1, G1, R1).
  • the image display device 9 receives the white color video signal output from the first developing unit 43, processes the white color video signal into a display signal, and converts the white light normal observation image (B1, G1, R1) into a CRT. Or display on a liquid crystal display.
  • the second developing unit 44 generates special light normal observation image information (B2, G2) from a part of the image information (B2, G2) of the special light image information (B2, G2, R2), and this special light normal observation.
  • a special color video signal of information (B2, G2) is output.
  • the image display device 9 receives the special color video signal output from the second developing unit 44, processes the special color video signal into a display signal, and generates an image of the special light normal observation image information (B2, G2). It is displayed on a display such as a CRT or a liquid crystal display.
  • the second developing unit 44 includes part of the image information (R2) of the special light image information (B2, G2, R2) stored in the second memory 41 and the emphasized image information stored in the third memory 46. (B3) is subjected to predetermined image processing to generate special light enhanced image information (B3, R2), and a special color video signal of the special light enhanced image information (B3, R2) is output. Also good. As a result, the image of the special light enhanced image information (B3, R2) is displayed on the image display device 9 on a display such as a CRT or a liquid crystal display.
  • the first developing unit 33 generates special light enhancement observation information (B3, G2) and special light normal observation information (B2, G2).
  • the second developing unit 34 generates white light enhancement observation information (B3, G1, R1) and white light normal observation information (B1, G1, R1).
  • the first developing unit 33 and the second developing unit 34 respectively use other image processing necessary for image generation using a white balance coefficient or a color conversion coefficient, for example, noise reduction, structure enhancement, color conversion, etc. I do.
  • the first developing unit 33 performs various processes based on the observation mode color adjustment parameters for aligning the hues of the white light enhanced observation image (B3, G1, R1) and the white light normal observation image (B1, G1, R1). Apply to image processing.
  • the second developing unit 34 stores observation mode color adjustment parameters for aligning the hues of the special light enhanced observation image (B3, R2) and the special light normal observation image (B2, G2), and the observation.
  • the mode color adjustment parameter is applied to various types of image processing.
  • the subject 2 is irradiated with two types of illumination light, that is, the first illumination light Q1 of white light and the first illumination light Q2 of special light, and white light normal observation information (B1, G1, R1). ) And special light normal observation information (B2, G2), white light enhanced image information (B3, G1, R1) and special light enhanced image information (B3, G2) that can be displayed with higher contrast of blood vessels. it can.
  • the operation timing for alternately displaying the white light enhanced image information (B3, G1, R1) and the special light enhanced image information (B3, G2) will be described with reference to FIG.
  • the subject 2 is irradiated with white light Q 1 from the wavelength conversion unit 24.
  • the wavelength conversion unit 24 irradiates the subject 2 with special light Q ⁇ b> 2 that is a mixture of blue-violet laser light and green fluorescence.
  • the white light Q1 and the special light Q2 are switched every frame period, and the subject 2 is irradiated alternately.
  • FIG. 11 shows the first to third frame periods.
  • the subject 2 is irradiated with the white light Q1, and the white light image information (B1, G1, R1) is acquired by the imaging device 7.
  • the special light Q2 is already irradiated on the subject 2, and the special light image information (B2, G2, R2) is acquired by the imaging device 7. Yes.
  • the emphasized image information generation device 42 uses the same wavelength region included in the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2), for example, B
  • the first color image information (B1) and the second color image information (B2) in the color area are selected.
  • the enhanced image information generation device 42 performs a predetermined calculation on the first color image information (B1) and the second color image information (B2) to obtain the contrast of, for example, the surface blood vessel 3 in which hemoglobin exists. Emphasized image information (B3) to be highly highlighted is generated.
  • white is obtained by the calculation of the enhanced image information (B3) acquired in the previous frame period and the white light image information (B1, G1, R1) acquired in the present frame period F1.
  • Light-enhanced image information (B3, G1, R1) is generated.
  • the subject 2 is irradiated with the special light Q2, and the special light image information (B2, G2, R2) is acquired by the imaging device 7.
  • the frame period F1 immediately before the second frame period F2 as described above, the subject 2 is irradiated with the white light Q1, and the white light image information (B1, G1, R1) is captured by the imaging device 7. Has been acquired.
  • the emphasized image information generation device 42 includes the first B color regions included in the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2), respectively.
  • One color image information (B1) and second color image information (B2) are selected.
  • the enhanced image information generation device 42 performs a predetermined calculation on the first color image information (B1) and the second color image information (B2) to obtain the contrast of, for example, the surface blood vessel 3 in which hemoglobin exists. Emphasized image information (B3) to be highly highlighted is generated.
  • the special light enhanced image information (B3, G2, R2) is generated by the calculation of the special light image information (B2, G2, R2) and the enhanced image information (B3).
  • the white light Q1 and the special light Q2 are switched every frame period and alternately irradiated onto the subject 2, thereby the white light observation enhanced image (B3, G1, R1) and the special light observation enhanced image ( B3, G2, R2) are alternately generated every frame period.
  • the white light image information (B1, G1, R1) and the special light image information (B2, G2, R1) are considered in consideration of the absorption characteristics of hemoglobin present in the subject 2.
  • R2) and first color image information (B1) and second color image information (B2) in the same wavelength region, for example, B color region, respectively, are selected, and these first color image information (B1) And second color image information (B2), a predetermined calculation is performed to generate enhanced image information (B3) that emphasizes, for example, the surface blood vessel 3 in which the target substance such as hemoglobin is present.
  • the contrast of the surface blood vessel 3 can be made higher than the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2).
  • the image of the enhanced image information (B3) in which the contrast of the superficial blood vessel 3 is increased can be displayed on the image display device 9 such as a CRT or a liquid crystal display.
  • white light image information (B1, G1, R1) and special light image information (B2, G2, R2) are obtained by irradiating the target substance such as hemoglobin with white light Q1 and special light Q2, which have different absorptions. Since the predetermined calculation is performed on the information (B1, G1, R1) (B2, G2, R2), it is possible to acquire the enhanced image information (B3) with low image noise and high SN ratio. it can.
  • the living tissue 4 has less absorption characteristics of the wavelength difference between the blue-violet laser light and the blue laser light than the absorption characteristics of hemoglobin.
  • the image of the living tissue 4 has a smaller difference in luminance than the image of the surface blood vessel 3, and the contrast of the surface blood vessel 3 by the first color image information (B1) acquired by irradiating white light.
  • the contrast of the superficial blood vessel 3 by the second color image information (B2) acquired by irradiating special light can be enhanced.
  • difference information Y1 between the special light image information (B2) in the B color area and the white light image information (B1) in the B color area is extracted.
  • the absorption difference information Y2 that is equal to or greater than the threshold is extracted from the difference information Y1, and the contrast of, for example, the superficial blood vessel 3 in which hemoglobin is present is enhanced and highlighted from the difference between the absorption difference information Y2 and the special light image information (B2).
  • the enhanced image information (B3) to be generated is generated.
  • luminance information (Y3) that is equal to or higher than a threshold is extracted from the luminance information of the B color region included in the special light image information (B2, G2, R2), and the luminance information (Y3) and B
  • the luminance information (Y4) of the difference from the luminance information (B1) of the color area is obtained, and the surface blood vessel 3 in which hemoglobin exists is emphasized from the difference between the luminance information (Y4) and the luminance information (B2) of the B area.
  • Emphasized image information (B3) is generated.
  • the emphasized image information (B3) generated by these methods can obtain the emphasized image information (B3) that highlights the contrast of the superficial blood vessel 3 higher than the normal image generated from one illumination light. If this enhanced image information (B3) is displayed on the image display device 9 such as a CRT or liquid crystal display, the superficial blood vessel 3 can be easily identified and effective for diagnosis.
  • the white light normal observation image (B1, G1, R1) can be generated by the first developing unit 43, and the special light normal observation image information (B2, G2) can be generated by the second developing unit 44.
  • the white light normal observation image (B1, G1, R1) can be generated by the first developing unit 43
  • the special light normal observation image information (B2, G2) can be generated by the second developing unit 44.
  • the white light normal observation image (B1, G1, R1) can be displayed on the image display device 9 at a desired timing.
  • the image acquisition device 8 generates the white light enhanced image information (B3, G1, R1) based on the enhanced image information (B3) and the white light image information (B1, G1, R1).
  • the contrast of only the superficial blood vessel 3 through which the target substance such as hemoglobin flows, while maintaining the condition of the white light image information (B1, G1, R1) for the color of the observation target such as the subject 2 by the information (B3, G1, R1) Can be highly highlighted.
  • the white light-enhanced image (B3, G1, R1) increases the contrast of the target substance such as the surface blood vessel 3 through which hemoglobin flows without losing the white light image information (B1, G1, R1) of the non-target substance such as the mucous membrane. Can be highlighted.
  • the first embodiment may be modified as follows.
  • the white light Q1 is generated using the blue laser, but the spectrum of the white light using the blue LED light emitted from the blue light emitting diode (LED), that is, the spectrum from the blue region to the green region. You may produce
  • FIG. 12 shows the intensity with respect to the wavelengths of the white light Q1 and the special light Q2 when illumination light is generated using a blue LED.
  • a blue-violet laser having a wavelength of 415 nm is used.
  • a blue-violet laser having a wavelength region from 400 nm to 435 nm in which the absorption characteristic of hemoglobin is about twice or more larger than the wavelength of 450 nm of the blue laser for generating the white light Q1. May be generated using
  • a green phosphor or a red phosphor capable of exciting blue fluorescence may be used as the phosphor mounted on the wavelength conversion unit 24. These green phosphors and red phosphors are preferably mounted on the wavelength conversion unit 24 under a concentration condition such that white light is emitted when blue light is incident on the wavelength conversion unit 24.
  • the image acquisition device 8 generates a white light normal observation image (B1, G1, R1) or / and special light normal observation image information (B2, G2), and these white light normal observation images (B1, G1, R1) or / And special light normal observation image information (B2, G2) and white light enhanced image information (B3, G1, R1) or / and special light enhanced image information (B3, G2) are displayed on an image display device 9 such as a monitor.
  • FIG. 13 shows a configuration diagram of the observation image acquisition system 1.
  • the light source device 6 irradiates the subject 2 with first light (first illumination light) Q1 and special light Q3 that is a mixed light of blue-violet laser light and green laser light.
  • the light source device 6 includes the first pumping light source 20 including the first semiconductor laser (LD) that emits blue laser light and the second semiconductor laser (LD) that emits blue-violet laser light.
  • a third excitation light source 50 is included.
  • the third excitation light source 50 includes a third semiconductor laser (LD) that emits green laser light having an emission peak wavelength of 540 nm.
  • the third semiconductor laser (LD) is referred to as a third semiconductor laser 50.
  • the wavelength conversion unit 24 is excited by the blue laser light emitted from the third optical fiber 28 and converts the wavelength into white light Q1.
  • the wavelength conversion unit 24 emits the transmitted blue-violet laser light and green laser light as the special light Q3 while being hardly excited by irradiation with the mixed light of the blue-violet laser light and the green laser light.
  • the wavelength conversion unit 24 includes a holder 30, a glass member 31 as a light transmission member, and a first phosphor 32 as a first wavelength conversion member.
  • This wavelength conversion unit 24 mounts only the first phosphor 32 except for the second phosphor 33 from the wavelength conversion unit 24 in the first embodiment.
  • the first phosphor 32 absorbs blue laser light emitted from the first semiconductor laser 20 and emits yellow fluorescence. Even when the first phosphor 32 is irradiated with the green laser light emitted from the third semiconductor laser 50, the first phosphor 32 transmits the green laser light and is not excited.
  • the white light image information is used as the first image information for each of the B color region, the G color region, and the R color region.
  • (B1, G1, R1) is acquired.
  • the white light image information (B1, G1, R1) is stored in the first memory 40.
  • the special light image information (B4, G4) is used as the third image information for each of the B color region, the G color region, and the R color region. , R4).
  • the special light image information (B4, G4, R4) is stored in the second memory 41.
  • the enhanced image information generation device 42 includes white light image information (B1, G1, R1) stored in the first memory 40 and special light image information (B4, G4, R4) stored in the second memory 41. Based on the above, for example, the enhanced image information (B3) that highlights the contrast of the surface blood vessel 3 with high hemoglobin as the target substance is generated.
  • the image calculation unit 45 of the enhanced image information generation device 42 has the same wavelength region included in the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4), for example, For example, first color image information (B1) and second color image information (B4) in the B color region are selected as reference image information for generating emphasized image information.
  • the image calculation unit 45 performs a predetermined calculation on the first color image information (B1) and the second color image information (B4) to enhance the contrast of, for example, the superficial blood vessel 3 in which hemoglobin exists.
  • the emphasized image information (B3) to be displayed is generated.
  • the image calculation unit 45 stores the generated emphasized image information (B3) in the third memory 46.
  • This enhanced image information (B3) has a higher contrast of the superficial blood vessel 3 than the white light image information (B1, G1, R1) and the special light image information (B2, G2, R2).
  • the image calculation unit 45 includes first color image information (for example, G color region) of the same wavelength region included in the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4). G1) and second color image information (G4) are selected.
  • the image calculation unit 45 performs a predetermined calculation on the first color image information (G1) and the second color image information (G4) to enhance the contrast of, for example, the middle blood vessel 5 in which hemoglobin exists.
  • the emphasized image information (G5) to be displayed is generated.
  • the image calculation unit 45 stores the generated emphasized image information (G5) in the third memory 46.
  • This enhanced image information (G5) has a higher contrast of the middle-layer blood vessel 5 than the white light image information (B1, G1, R1).
  • the first developing unit 43 includes partial image information (R1) of the white light image information (B1, G1, R1) stored in the first memory 40, and enhanced image information stored in the third memory 46. (B3) and the enhanced image information (G5) stored in the third memory 46 are subjected to predetermined image processing to generate white light enhanced image information (B3, G5, R1). A white color video signal of light enhanced image information (B3, G5, R1) is output.
  • the second developing unit 44 performs predetermined image processing on the enhanced image information (B3) stored in the third memory 46 and the enhanced image information (G5) stored in the third memory 46.
  • the special light enhanced image information (B3, G5) is generated, and the special color video signal of the special light enhanced image information (B3, G5) is output.
  • the image display device 9 inputs a video signal of the white light enhanced observation image (B3, G5, R1) output from the first developing unit 43 and displays the image on a display such as a CRT or a liquid crystal display.
  • the image display device 9 inputs the video signal of the special light enhanced observation image (B3, G5) and displays the image on the display.
  • the first semiconductor laser 20 emits blue laser light.
  • the blue laser light is guided by the light guide unit 23 and applied to the wavelength conversion unit 24.
  • the first phosphor 32 of the wavelength conversion unit 24 emits yellow fluorescence when irradiated with blue laser light, transmits part of the blue laser light, and mixes the yellow fluorescence and part of the blue laser light.
  • White light Q1 is emitted.
  • the white light Q1 is applied to the subject 2.
  • the imaging device 7 receives the reflected light from the surface blood vessel 3 and the living tissue 4, and receives the reflected light by the B color region, the G color region, and the R color region of the CCD, and the white light image information (B1,. G1, R1) is output.
  • the white light image information (B1, G1, R1) is stored in the first memory 40.
  • the image calculation unit 45 of the enhanced image information generation device 42 selects, for example, the first color image information (B1) of the B color region from the white light image information (B1, G1, R1) stored in the first memory 40. To do.
  • the second semiconductor laser 21 emits blue-violet laser light.
  • the third semiconductor laser emits green laser light.
  • the mixed light of the blue-violet laser light and the green laser light is guided by the light guide 23 and applied to the wavelength conversion unit 24. Even if the first phosphor 32 of the wavelength conversion unit 24 is irradiated with the blue-violet laser light emitted from the second semiconductor laser 21 and the green laser light emitted from the third semiconductor laser 50, Almost not excited. As a result, the components of blue-violet laser light and green laser light are transmitted and irradiated onto the subject 2 as special light Q3.
  • the imaging device 7 acquires special light image information (B4, G4, R4) for each pixel region of the B color region, the G color region, and the R color region when the subject 2 is irradiated with the special light Q3. .
  • the special light image information (B4, G4, R4) is stored in the second memory 41.
  • the enhanced image information generation device 42 includes white light image information (B1, G1, R1) stored in the first memory 40 and special light image information (B4, G4, R4) stored in the second memory 41. Based on the above, for example, the enhanced image information (B3) that highlights the contrast of the surface blood vessel 3 with high hemoglobin as the target substance is generated.
  • the image calculation unit 45 of the enhanced image information generation device 42 has the same wavelength region included in the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4), for example, First color image information (B1) and second color image information (B4) in the B color region are selected.
  • the image calculation unit 45 performs a predetermined calculation on the first color image information (B1) and the second color image information (B4) to enhance the contrast of, for example, the superficial blood vessel 3 in which hemoglobin exists.
  • the emphasized image information (B3) to be displayed is generated.
  • the image calculation unit 45 stores the generated emphasized image information (B3) in the third memory 46.
  • This enhanced image information (B3) has a higher contrast of the superficial blood vessel 3 than the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4).
  • the image calculation unit 45 includes first color image information (for example, G color region) of the same wavelength region included in the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4). G1) and second color image information (G4) are selected.
  • the image calculation unit 45 performs a predetermined calculation on the first color image information (G1) and the second color image information (G4) to enhance the contrast of, for example, the middle blood vessel 5 in which hemoglobin exists.
  • the emphasized image information (G5) to be displayed is generated.
  • the image calculation unit 45 stores the generated emphasized image information (G5) in the third memory 46. In this enhanced image information (G5), the contrast of the middle blood vessel 5 is higher than the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4).
  • the first developing unit 43 includes partial image information (R1) of the white light image information (B1, G1, R1) stored in the first memory 40, and enhanced image information stored in the third memory 46. (B3) and the enhanced image information (G5) stored in the third memory 46 are subjected to predetermined image processing to generate white light enhanced image information (B3, G5, R1). A white color video signal of light enhanced image information (B3, G5, R1) is output.
  • the image display device 9 inputs a white color video signal of the white light enhanced observation image (B3, G5, R1) output from the first developing unit 43 and displays the image on a display such as a CRT or a liquid crystal display.
  • the second developing unit 44 performs predetermined image processing on the enhanced image information (B3) stored in the third memory 46 and the enhanced image information (G5) stored in the third memory 46.
  • the special light enhanced image information (B3, G5) is generated, and the special color video signal of the special light enhanced image information (B3, G5) is output.
  • the image display device 9 inputs a special color video signal of the special light enhanced observation image (B3, G5) and displays the image on the display.
  • the third semiconductor laser 50 that emits green laser light having an emission peak wavelength of 540 nm is provided, and the absorption characteristics of hemoglobin present in the subject 2 are taken into consideration.
  • the enhanced image information (B3) that highlights the contrast of the superficial blood vessel 3 high, it is included in the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4), respectively.
  • the color image information (G1) and the color image information (G4) in the same wavelength region, for example, the G color region, are selected and a predetermined calculation is performed, and the contrast of, for example, the middle-layer blood vessel 5 in which the target substance such as hemoglobin exists Emphasized image information (G5) to be highly highlighted is generated.
  • the contrast of the middle-layer blood vessel 5 can be made higher than the white light image information (B1, G1, R1) and the special light image information (B4, G4, R4).
  • An image of the enhanced image information (G5) in which the contrast of the middle-layer blood vessel 5 is increased, that is, an image of the white light enhanced image information (B3, G5, R1) and the special light enhanced image information (B3, G5) is displayed on a CRT or a liquid crystal display. The image can be displayed on the image display device 9 of the display.
  • the first developing unit 43 may output a video signal of the white light normal observation image (B1, G1, R1) in the same manner as described above.
  • this white light normal observation image (B1, G1, R1) the contrast of the superficial blood vessel 3 can be increased, and the image of the enhanced image information (B3) with the high contrast of the superficial blood vessel 3 can be converted into a CRT or liquid crystal. Or the like can be displayed on the image display device 9 of the display.
  • the second developing unit 44 includes a part of the special light image information (B4, G4, R4) stored in the second memory 41 (B4) and the emphasized image information stored in the third memory 46. (G5) may be subjected to predetermined image processing to output a special light enhanced image information (B4, G5) video signal. With this special light enhanced image information (B4, G5), an image of enhanced image information (G5) in which the contrast of the middle blood vessel 5 is increased can be displayed on the image display device 9.
  • the second embodiment may be modified as follows.
  • Enhanced image information (G5) is generated from the color image information (G4).
  • the generated emphasized image information (G5) may be displayed on the image display device 9 such as a CRT or a liquid crystal display.
  • the enhanced image information (G5) it is possible to observe an image that highlights the contrast of, for example, the middle-layer blood vessel 5 in which a target substance such as hemoglobin is present.
  • the second developing unit 44 includes a part of the special light image information (B4, G4, R4) stored in the second memory 41 (B4) and the emphasized image information stored in the third memory 46. (G5) is subjected to predetermined image processing to generate special light enhanced image information (B4, G5), and a special color video signal of the special light enhanced image information (B4, G5) is output. Also good. According to the special light normal observation image (B4, G5), an image of the enhanced image information (G5) in which the contrast of the middle-layer blood vessel 5 is increased can be displayed on the image display device 9. The second developing unit 44 generates partial image information (B4, G4) of the special light image information (B4, G4, R4), and the special color video signal of the special light normal observation image (B4, G4).
  • the image of the enhanced image information in which the contrast of only the surface blood vessel 3 and the middle blood vessel 5 or only the middle blood vessel 5 is increased is displayed on the image display device 9 such as a CRT or a liquid crystal display. it can.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • 1 observation image acquisition system
  • 7 imaging device
  • 2 subject
  • 3 surface blood vessel
  • 4 biological tissue
  • 5 middle blood vessel
  • 6 light source device
  • 8 image acquisition device
  • 9 image display device
  • 10 Observation mode input device
  • 11 system control device
  • 20 first excitation light source (first semiconductor laser)
  • 21 second excitation light source (second semiconductor laser)
  • 22 light source control unit
  • 23 light guide Part
  • 24 wavelength conversion unit
  • 25 first optical fiber
  • 26 second optical fiber
  • 27 optical multiplexing part
  • 28 third optical fiber
  • 30 holder
  • 31 glass member
  • 32 first 1 phosphor
  • 33 second phosphor
  • 34 holding hole
  • 40 first memory
  • 41 second memory
  • 44 second developing Unit
  • 45 image calculation unit
  • 46 third memory
  • 50 third excitation light source ( 3 of the semiconductor laser).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 観察画像取得システムは、光源部(6)と、撮像部(7)と、画像取得部(8)とを含む。前記光源部(6)は、観察対象中に含まれる対象物質の吸収ピークが存在する波長領域を含まない波長領域の第1の光と、前記吸収ピークが存在する波長領域の第2の光とを前記観察対象に照射する。前記画像取得部(8)は、前記第1の光を前記観察対象に照射したときに前記撮像部(7)により取得される第1の画像情報と、前記第2の光を前記観察対象に照射したときに前記撮像部(7)により取得される第2の画像情報とに基づいて前記対象物質を強調する強調画像情報を生成する強調画像情報生成部を含む。

Description

観察画像取得システム及び観察画像取得方法
 本発明は、例えば白色光による観察、又は白色光の波長とは異なる波長の光、例えば特定の対象物質を観察するための特殊光による観察などを行う観察画像取得システム及び観察画像取得方法に関する。
 現在、小型の固体光源から光を出力し、この光を光ファイバ先端に配置した波長変換部材に照射して波長変換し、この波長変換によって光を所望の照射パターンや色へ変化させる発光装置、又は当該発光装置を用いた内視鏡装置が開発されている。 
 例えば特許文献1は、波長の異なる励起光源と複数の波長変換部材との組合せにより白色光と特定の狭い波長域の光(以下、特殊光と称する)とを射出する光源装置と、この光源装置から白色光と特殊光とを射出したときの被検体からの各反射光を撮像し、これら撮像により取得される各画像を画像処理して白色光画像と特殊光画像とを生成し表示する内視鏡装置とについて開示する。
 又、特許文献1は、狭帯域光(青色、緑色)と広帯域光とを含む白色光画像情報と、特殊光画像情報とから狭帯域光による強調画像情報を解析的に求め、例えば血管強調画像を生成して表示することを開示する。
特開2009-297141号公報
 しかしながら、特許文献1は、抽出される狭帯域光の1つが白色照明光用の青色LD光であり、例えば血管をコントラスト良く表示するための波長(血管の吸収ピーク)と合っていない。また、特許文献1は、各色画素で検出される照明光が同じ波長範囲から抽出されるので、例えば血管等の強調画像を生成するためにはその情報量が少なく、血管等の診断に有効な画像を取得するには難しい面がある。
 本発明は、観察対象中に存在する対象物質の吸収特性を考慮して、特定の色画素で波長領域の異なる光を観察対象に照射して撮像した画像情報から対象物質の強調画像情報を生成し、対象物質のコントラストが高い白色光もしくは特殊光観察画像を取得できる観察画像取得システム及び観察画像取得方法を提供することを目的とする。
 本発明の主要な局面に係る観察画像取得システムは、観察対象中に含まれる対象物質の吸収ピークが存在する波長領域を含まない波長領域の第1の光と、前記吸収ピークが存在する波長領域の第2の光とを前記観察対象に照射する光源部と、前記観察対象を撮像して画像情報を取得する撮像部と、前記撮像部により取得された前記画像情報を演算して前記対象物質を強調する強調画像情報を生成する画像取得部とを具備し、前記画像取得部は、前記第1の光を前記観察対象に照射したときに前記撮像部により取得される第1の画像情報と、前記第2の光を前記観察対象に照射したときに前記撮像部により取得される第2の画像情報とに基づいて前記強調画像情報を生成する強調画像情報生成部を含む。
 本発明によれば、観察対象中に存在する対象物質の吸収特性を考慮して、特定の色画素で波長領域の異なる光を観察対象に照射して撮像した画像情報から対象物質の強調画像情報を生成し、対象物質のコントラストが高い白色光もしくは特殊光観察画像を取得できる観察画像取得システム及び観察画像取得方法を提供できる。
図1は、本発明に係る観察画像取得システムの第1の実施の形態を示す構成図である。 図2は、同装置における波長変換ユニットを示す具体的な構成図である。 図3は、同装置における波長変換ユニットに用いるYAG蛍光体の励起・蛍光スペクトル特性を示す図である。 図4は、同装置における波長変換ユニットに用いるサイアロン蛍光体の励起・蛍光スペクトル特性を示す図である。 図5は、同装置における撮像装置を構成する撮像素子の分光感度特性を示す図である。 図6は、同装置における被検体としての血管内のヘモグロビンの吸収強度の指標となる吸収係数を示す図である。 図7は、同装置における観察画像生成表示フロートチャートである。 図8は、同装置における生体組織の吸収特性や励起光の強度、撮像装置の各色画素の受光感度特性を示す図である。 図9は、同装置における強調画像情報(B3)生成の一手法を示す模式図である。 図10は、同装置における強調画像情報(B3)生成の他の手法を示す模式図である。 図11は、同装置において白色光強調観察画像と特殊光強調観察画像とを交互に表示するときの動作タイミング図である。 図12は、同装置における青色LEDを用いて照明光を生成したときの白色光と特殊光との波長に対する強度を示す図である。 図13は、本発明に係る観察画像取得システムの第2の実施の形態を示す構成図である。
[第1の実施の形態] 
 以下、本発明の第1の実施の形態について図面を参照して説明する。本実施の形態において、青緑赤の色領域と可視光波長範囲との関係は、青色領域を波長380nm~500nmの領域とし、緑色領域を波長500nm~600nmの領域とし、赤色領域を波長600nm~780nmの領域とする。
 図1は観察画像取得システム1の構成図を示す。本システム1は、観察対象中に存在する対象物質のコントラストを高く強調表示する強調画像情報を生成する。ここで、観察対象は、例えば人体等の被検体2であり、生体組織4を含む。対象物質は、観察対象中に存在し、被検体2の生体組織4内の表層部に存在する表層血管3及びこの表層血管3よりも深い部位に存在する中層血管5に流れるヘモグロビンである。 
 本実施の形態では、対象物質としてヘモグロビンを用いたが、他の体内に存在する物質を用いても良いし、体外より投与する蛍光プローブを用いても良い。この場合、蛍光プローブの吸収波長域は、励起光の波長に合わせるのが良い。蛍光プローブは、被検体外より投与され特定の波長に反応して発光する。 
 本システム1の構成を説明すると、本システム1は、被検体2に照明光を照射する光源装置6と、被検体2からの反射光を撮像する撮像装置(撮像部)7と、被検体2の画像情報を生成する画像取得装置(画像取得部)8と、被検体2の画像を表示する画像表示装置(画像表示部)9と、本システム1の観察モードを設定する観察モード入力装置(観察モード入力部)10と、この観察モード入力装置10に設定された観察モードに従って光源装置6と撮像装置7と画像取得装置8とをそれぞれ動作制御するシステム制御装置11とを含む。
 光源装置6は、人体等の被検体2中に流れるヘモグロビンの吸収ピークが存在する波長領域を含まない波長領域にピーク波長を有する第1の光(第1の照明光)Q1と、ヘモグロビンの吸収ピークが存在する波長領域にピーク波長を有する第2の光(第2の照明光)Q2とを被検体2に照射する。この光源装置6は、第1励起光源20と、第2励起光源21と、光源制御部22と、導光部23と、波長変換ユニット24とを含む。 
 第1励起光源20は、発光ピーク波長が450nm(λ1)、半値幅が数nm以下の青色のレーザ光を射出する第1の半導体レーザ(LD)を含む。この第1励起光源20では、射出する青色レーザ光に含まれる青色のレーザ光成分を第1の励起光とする。この第1励起光源20は、以下、第1の半導体レーザ20と称する。
 第2励起光源21は、発光ピーク波長が415nm(λ2)、半値幅が数nm以下の青紫色のレーザ光を射出する第2の半導体レーザ(LD)を含む。この第2励起光源21では、射出するレーザ光に含まれる青紫色のレーザ光成分を第2の励起光とする。この第2励起光源21は、以下、第2の半導体レーザ21と称する。 
 光源制御部22は、第1の半導体レーザ20及び第2の半導体レーザ21に供給する各駆動電流を制御し、かつこれら第1の半導体レーザ20及び第2の半導体レーザ21の駆動方式、例えばパルス駆動又は連続駆動の制御を行う。
 導光部23は、第1の半導体レーザ20から射出される青色レーザ光と、第2の半導体レーザ21から射出される青紫色レーザ光とを波長変換ユニット24に導光する。この導光部23は、第1の光ファイバ25と、第2の光ファイバ26と、光合波部27と、第3の光ファイバ28とを含む。 
 第1の光ファイバ25は、第1の半導体レーザ20と光合波部(2×1の光カプラー:2入力-1出力)27との間に光学的に接続されている。この第1の光ファイバ25は、第1の半導体レーザ20から射出される青色レーザ光を光合波部27に導光する。 
 第2の光ファイバ26は、第2の半導体レーザ21と光合波部27との間に光学的に接続されている。この第2の光ファイバ26は、第2の半導体レーザ21から射出される青紫色レーザ光を光合波部27に導光する。
 光合波部27は、第1の光ファイバ25により導光された第1の半導体レーザ20からの青色レーザ光と、第2の光ファイバ26により導光された第2の半導体レーザ21からの青紫色レーザ光とを合波して第3の光ファイバ28に出力する。 
 第3の光ファイバ28は、光合波部27と波長変換ユニット24との間に光学的に接続されている。この第3の光ファイバ28は、光合波部27から出力される青色レーザ光、青紫色レーザ光、又はこれら青紫色レーザ光と青紫色レーザ光との合波光を波長変換ユニット24に導光する。
 従って、光合波部27は、第1の半導体レーザ20から青色レーザ光が射出され、第2の半導体レーザ21から青紫色レーザ光の射出が無ければ、当該青色レーザ光のみを第3の光ファイバ28に出力する。又、光合波部27は、第1の半導体レーザ20から青色レーザ光の射出が無く、第2の半導体レーザ21から青紫色レーザ光が射出されると、当該青紫色レーザ光のみを第3の光ファイバ28に出力する。
 上記第1乃至第3の光ファイバ25、26、28は、それぞれ例えばコア径50μm、開口数FNA=0.2を有するマルチモード光ファイバである。 
 第1の半導体レーザ20と第1の光ファイバ25との間と、第2の半導体レーザ21と第2の光ファイバ26との間とには、それぞれ図示されない結合レンズが設けられている。これら結合レンズは、それぞれ第1の半導体レーザ20から射出される青色レーザ光を収束し、又は第2の半導体レーザ21から射出される青紫色レーザ光を収束することによって、第1の半導体レーザ20と第1の光ファイバ25との間と、第2の半導体レーザ21と第2の光ファイバ26との間との各結合効率を良くする。
 波長変換ユニット24は、第3の光ファイバ28の射出端側に接続されている。この波長変換ユニット24は、第3の光ファイバ28から射出される青色レーザ光、青紫色レーザ光、又は青色レーザ光と青紫色レーザ光との合波光の照射により励起される。この波長変換ユニット24は、青色レーザ光により励起されて白色光Q1に波長変換し、青紫色レーザ光により励起されて特殊光Q2に波長変換する。
 図2は波長変換ユニット24の具体的な構成図を示す。この波長変換ユニット24は、ホルダ30と、光透過部材としてのガラス部材31と、第1の波長変換部材としての第1の蛍光体32と、第2の波長変換部材としての第2の蛍光体33とを含む。 
 ホルダ30は、テーパー形状の保持穴34が形成され、小径側をレーザ光の入射端とし、大径側を波長変換した光を射出する射出端とする。保持穴34は、入射端から射出端に向かって径の大きさが連続して大きくなるように形成されている。この保持穴34内には、小径側の入射端から大径側の射出端に向かってガラス部材31、第1の蛍光体32、第2の蛍光体33が設けられている。保持穴34の内周面には、反射部材が形成されている。この反射部材は、青色レーザ光や青紫色レーザ光の励起光、第1の蛍光体32により発光される黄色の蛍光、及び第2の蛍光体33により発光される緑色の蛍光を正反射又は拡散反射する。
 第1の蛍光体32は、第1の半導体レーザ20から射出される波長450nm(λ1)の青色レーザ光を吸収して黄色を呈する波長領域の蛍光(以下、黄色蛍光と称する)を発する。この第1の蛍光体32は、例えばYAG:Ce蛍光体(以下、YAG蛍光体と称する)から成る。 
 図3はYAG蛍光体の励起・蛍光スペクトル特性を示す。このYAG蛍光体は、可視光領域の中で波長450nm(λ1)付近の青色レーザ光で励起されると、強い発光強度の黄色蛍光を発光する。この黄色蛍光スペクトルは、ピークが波長575nm(λ3)に存在し、半値幅が130nmのブロードなスペクトルを有する。
 第2の蛍光体33は、波長415nmの青紫色レーザ光を吸収して緑色を呈する波長領域の蛍光(以下、緑色蛍光と称する)を発光する。この第2の蛍光体33は、Eu(ユーロピウム)賦活のサイアロン系蛍光体(以下、サイアロン蛍光体)から成る。 
 図4はサイアロン蛍光体の励起・蛍光スペクトル特性を示す。この第2の蛍光体33は、近紫外波長域に近いほど強い発光強度の緑色蛍光を発光する。この緑色蛍光スペクトルは、ピークが波長540nm(λ4)に存在し、半値幅が95nmのブロードなスペクトルを有する。
 第1及び第2の蛍光体32、33は、それぞれ粉末形状の蛍光材をシリコーン樹脂やガラスなどの封止材料に分散させ、封止材料を固化させることにより形成される。これら第1及び第2の蛍光体32、33の厚さ及び封止材料に混合される粉末蛍光体の濃度は、蛍光材の励起光吸収率や波長変換効率の特性等を考慮した所定の条件に設定される。すなわち、第1及び第2の蛍光体32、33の厚さ及び粉末蛍光体の濃度は、青色レーザ光を当該青色レーザ光と黄色蛍光との混色による白色光Q1に変換し、かつ青紫色レーザ光を当該青紫色レーザ光と緑色蛍光との混色による特殊光Q2に変換するための所定の条件に設定される。 
 白色光Q1は、青色領域と、緑色領域と、赤色領域とにスペクトル成分を含む。 
 特殊光Q2は、青色領域と、緑色領域とにスペクトル成分を含む。特殊光Q2は、表示画像上においてヘモグロビン等の対象物質を強調表示するためのものである。この特殊光Q2のピーク波長は、白色光Q1のピーク波長よりもヘモグロビン等の対象物質の吸収ピークに近い波長領域に存在する。 
 ヘモグロビン等の対象物質の吸収ピークが存在する波長領域に対応し、撮像装置7の各波長領域のうち最大受光感度を有する波長領域を特定色領域とすると、当該特定色領域における特殊光Q2の発光スペクトル成分は、白色光Q1の発光スペクトル成分と同等以上の強度を有する。
 ガラス部材31は、光透過部材として透過率が高いガラス、及びシリコーン樹脂により形成される。このガラス部材31は、光ファイバ28の射出端から射出される青色レーザ光と、青紫色レーザ光と、これら青色レーザ光と青紫色レーザ光との混合光と、第1の蛍光体32から放射される黄色蛍光と、第2の蛍光体33から放射される緑色蛍光とを透過する。
 撮像装置7は、上記の通り観察対象である被検体2を撮像して画像情報を取得する。この撮像装置7は、複数の撮像素子(CCD)を縦横方向に配列して成る。これら撮像素子は、それぞれ青色(B)領域と、緑色(G)領域と、赤色(R)領域との各画素に割り当てられる。すなわち、撮像装置7は、図5に示す撮像素子の分光感度特性のように、B色領域内の波長460nm(λb)に感度ピークを有する複数のB画素と、G色領域内の波長540nm(λg)に感度ピークを有する複数のG画素と、R色領域内の波長630nm(λr)に感度ピークを有する複数のR画素とを含む。
 この撮像装置7は、白色光Q1を被検体2等の観察対象に照射したときに、B色領域とG色領域とR色領域との各画素領域毎に第1の画像情報として白色光画像情報(B1、G1、R1)を取得する。 
 この撮像装置7は、特殊光Q2を被検体2に照射したときに、B色領域とG色領域とR色領域との各画素領域毎に第2の画像情報として特殊光画像情報(B2、G2、R2)を取得する。
 ここで、白色光Q1と特殊光Q2との強度比率について説明する。 
 白色光Q1は、青色レーザ光と、第1の蛍光体32から発せられる黄色蛍光との混色光である。 
 特殊光Q2は、青紫色レーザ光と、第2の蛍光体33から発せられる緑色蛍光との混色光である。 
 これら白色光Q1と特殊光Q2とは、上記の通りヘモグロビン等の対象物質の吸収ピークが存在する波長領域に対応し、撮像装置7の各波長領域のうち最大受光感度を有する波長領域である特定色領域において発光スペクトルの帯域幅が異なる。 
 これら白色光Q1と特殊光Q2とは、同特定色領域において発光スペクトルが互いに重ならない。 
 被検体2内の血管の吸収特性は、青色レーザ光の吸収量よりも青紫色レーザ光の吸収量の方が多い。
 一方、撮像装置7の各CCDの感度特性は、青紫色レーザ光に対する感度よりも青色レーザ光に対する感度の方が高い。この感度特性により白色光Q1と特殊光Q2とで略同じS/Nの青色画像を取得するためには、少なくともB色領域の青紫色レーザ光は、青色レーザ光よりも高いスペクトル強度を必要とする。 
 さらに、白色光Q1と特殊光Q2とで略同じS/Nの青色画像を取得するためには、白色光Q1と特殊光Q2とを切り替えて照射するのが好ましい。すなわち、白色光Q1の照明光スペクトルP(λ)と撮像素子のB画素の感度特性b(λ)とを掛け合わせたものの積算を第1の青色レベルB1とする。特殊光Q2の照明光スペクトルQ(λ)と撮像素子のB画素の感度特性b(λ)とを掛け合わせたものの積算を第2の青色レベルB2とする。 
 次式(1)は第1の青色レベルB1と第2の青色レベルB2とを示す。 
Figure JPOXMLDOC01-appb-M000001
                        …(1)
 従って、白色光Q1と特殊光Q2とで略同じS/Nの青色画像を取得するためには、第1の青色レベルB1と第2の青色レベルB2とが略同じレベルになるような青色レーザ光と青紫色レーザ光との比率を求め、この比率になるように白色光Q1と特殊光Q2とを切り替えて被検体2に照射するのが好ましい。
 上記同様に、白色光Q1の照明光スペクトルP(λ)と撮像素子のG画素の感度特性g(λ)とを掛け合わせたものは、第1の緑色レベルG1とする。同白色光Q1の照明光スペクトルP(λ)と撮像素子のR画素の感度特性r(λ)とを掛け合わせたもの、第1の赤色レベルR1とする。 
 特殊光Q2の照明光スペクトルQ(λ)と撮像素子のG画素の感度特性g(λ)とを掛け合わせたものは、第2の緑色レベルG2とする。同特殊光Q2の照明光スペクトルQ(λ)と撮像素子のR画素の感度特性r(λ)とを掛け合わせたものは、第2の赤色レベルR2とする。
 画像取得装置8は、撮像装置7の撮像により取得された画像情報を演算してヘモグロビン等の対象物質のコントラストを高く強調表示する強調画像情報を生成する。この画像取得装置8は、第1メモリ40と、第2メモリ41と、強調画像情報生成装置42と、第1現像部43と、第2現像部44とを含む。このうち強調画像情報生成装置42は、画像演算部45と、第3メモリ46とを含む。
 第1メモリ40には、第1の半導体レーザ20を駆動して被検体2に白色光Q1を照射したときに撮像装置7の撮像により取得される第1の画像情報としての白色光画像情報(B1、G1、R1)が一時保存される。この白色光画像情報(B1、G1、R1)は、第1の光である白色光を被検体2に照射したときに撮像装置7のB色領域とG色領域とR色領域とにより取得される画像情報を示す。 
 第2メモリ41には、第2の半導体レーザ21を駆動して被検体2に特殊光Q2を照射したときに撮像装置7の撮像により取得される第2の画像情報としての特殊光画像情報(B2、G2、R2)が一時保存される。この特殊光画像情報(B2、G2、R2)は、第2の光である特殊光を被検体2に照射したときに撮像装置7のB色領域とG色領域とR色領域とにより取得される画像情報を示す。
 強調画像情報生成装置42は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)と、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)とに基づいて対象物質であるヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。
 具体的に、強調画像情報生成装置42は、画像演算部45と、第3メモリ46とを含み、このうちの画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれる同一波長領域、例えば強調画像情報生成用の基準画像情報として例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを選択する。画像演算部45は、選択した第1の色画像情報(B1)と第2の色画像情報(B2)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。
 この画像演算部45は、生成した強調画像情報(B3)を第3メモリ46に保存する。この強調画像情報(B3)は、白色光画像情報(B1、G1、R1)及び特殊光画像情報(B2、G2、R2)よりも表層血管3のコントラストが高くなる。B色領域の第1の色画像情報(B1)又は第2の色画像情報(B2)の選択の指示は、システム制御装置11から強調画像情報生成装置42に発せられる。
 ここで、強調画像情報(B3)の生成の具体例として2つの手法を説明する。 
 第1の手法として、画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とから対象物質であるヘモグロビンの吸収の差分を示す吸収差分情報を抽出し、この吸収差分情報をヘモグロビンの吸収が強い特殊光画像情報(B2、G2、R2)に付加して強調画像情報(B3)を生成する。 
 具体的に、画像演算部45は、同一波長領域、例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)との差分を求める演算を行って差分情報を抽出し、当該差分情報に対して閾値以上の吸収差分情報を抽出する。画像演算部45は、当該抽出された吸収差分情報と、B色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とのうち何れか一方の画像情報(B1又はB2)との差分を求める演算を行って強調画像情報(B3)を生成する。
 第2の手法として、画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とからヘモグロビン以外の画像情報のみに画像ノイズ低減処理を行い、当該画像ノイズ低減処理した画像情報から強調画像情報(B3)を生成する。 
 具体的に、画像演算部45は、特殊光画像情報(B2、G2、R2)に含まれる同一波長領域、例えばB色領域の輝度情報に対して閾値以上の輝度情報を抽出する。画像演算部45は、当該抽出された輝度情報と、白色光画像情報(B1、G1、R1)に含まれる同一波長領域、例えばB色領域の輝度情報との差分を求める演算を行って輝度情報を求める。画像演算部45は、当該輝度情報と特殊光画像情報(B2、G2、R2)に含まれるB領域の輝度情報との差分を求める演算を行って強調画像情報(B3)を生成する。
 第1現像部43は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)の一部の画像情報(G1、R1)と、第3メモリ46に保存されている強調画像情報(B3)とに対して所定の画像処理を行って白色光の強調画像情報(B3、G1、R1)を生成し、この白色光強調画像情報(B3、G1、R1)の白色カラー映像信号を出力する。 
 この第1現像部43は、白色光画像情報(B1、G1、R1)から白色光通常観察画像を生成し、この白色光通常観察画像(B1、G1、R1)の白色カラー映像信号を出力する。 
 ここで、白色光強調画像情報(ここではB3、G1、R1)は、観察対象の色合いが白色光画像の条件を保ったままで、対象物質、例えば被検体2の生体組織4内の表層部に存在する表層血管3及びこの表層血管3よりも深い部位に存在する中層血管5に流れるヘモグロビンのみを強調することができる。この白色光強調画像は、粘膜など非対称物質の白色光画像情報を失わずに、上記対象物質を強調することができる。
 第2現像部44は、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)の一部の画像情報(G2)と、第3メモリ46に保存されている強調画像情報(B3)とに対して所定の画像処理を行って特殊光の強調画像情報(B3、G2)を生成し、この特殊光強調画像情報(B3、G2)の特殊カラー映像信号を出力する。この第2現像部44は、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)の一部の画像情報(R2)と、第3メモリ46に保存されている強調画像情報(B3)とに対して所定の画像処理を行って特殊光強調画像情報(B3、R2)を生成し、この特殊光強調画像情報(B3、R2)の特殊カラー映像信号を出力するようにしてもよい。 
 この第2現像部44は、特殊光画像情報(B2、G2、R2)の一部の画像情報(B2、G2)から特殊光通常観察画像情報(B2、G2)を生成し、この特殊光通常観察画像(B2、G2)の特殊カラー映像信号を出力する。 
 これら特殊光強調画像情報(B3、R2)及び特殊光通常観察画像情報(B2、G2)の特殊光画像情報は、青色領域と緑色領域のみの特殊光Q2を被検体2に照射して生成される。この特殊光画像情報は、後述するように生体組織4の表面から内部に侵入する特殊光Q2の深さと、この特殊光Q2の光の散乱特性が異なる性質を持つこととを利用して表層血管3と、この表層血管3よりも深い部位に存在する中層血管5等とをコントラスト良く観察でき、癌等の発見を容易にできるものである。
 第1と第2現像部33、34は、白色光強調観察画像(B3、G1、R1)と、白色光通常観察画像(B1、G1、R1)と、特殊光強調観察画像(B3、R2)と、特殊光通常観察画像(B2、G2)との各色情報を決定するホワイトバランス係数や色変換係数などを図示しない記憶部に保存している。これら第1と第2現像部33、34は、ホワイトバランス係数又は色変換係数などを用いて画像生成に必要なその他の画像処理、例えばノイズ低減、構造強調、色変換などを行う。 
 さらに、第1と第2現像部33、34は、白色光強調観察画像(B3、G1、R1)と白色光通常観察画像(B1、G1、R1)との色合いと、特殊光強調観察画像(B3、R2)と特殊光通常観察画像(B2、G2)との色合いとを揃えるための観察モード色調整パラメータを図示しない記憶部に保存している。これら第1と第2現像部33、34は、観察モード色調整パラメータを用いて当該観察モード色調整パラメータを各種の画像処理に適用する。
 画像表示装置9は、CRTや液晶等のディスプレイを含む。画像表示装置9は、第1現像部43から出力される白色光強調観察画像(B3、G1、R1)又は白色光通常観察画像(B1、G1、R1)の映像信号を入力してその画像をディスプレイに表示する。 
 画像表示装置9は、特殊光強調観察画像(B3、R2)又は特殊光通常観察画像(B2、G2)の映像信号を入力してその画像をディスプレイに表示する。
 被検体2の吸収特性について図6に示す血管内のヘモグロビンの吸収強度の指標となる吸収係数を参照して説明する。 
 人体の被検体2は、大きく分けて表層血管3や中層血管5などの血管3、5と、例えば粘膜などの生体組織4との少なくとも吸収特性が異なる2種類の組織が存在する。図6に示すように血管3、5内のヘモグロビンの吸収強度は、波長帯域380nm~780nmの可視光領域において、波長415nm付近(λh1)と、波長540nm付近(λh2)との異なる波長に吸収強度ピークを持つ。このヘモグロビンの吸収強度は、波長415nm(λh1)付近の吸収強度が最も大きくなるという性質を持つ。
 一般に内視鏡のNBI(狭帯域観察)は、波長λh1と波長λh2との波長領域を含む2つの波長の光、例えばおよそ波長400nm~440nmの光と、およそ波長525nm~555nmの光とを観察光として使用する。さらに、NBIは、2つの波長の光が生体組織4の表面から内部へ侵入する光の深さ、および散乱特性が異なる性質を持つことを利用して、血管3、5等をコントラスト良く観察し、癌等の発見を容易にする技術(特殊光観察)である。
 一方、ヘモグロビンの吸収特性は、波長λh1から長波長側になるにつれて吸収強度が急激に低下する傾向を示す。例えば、ヘモグロビンの吸収強度は、波長450nmの吸収係数と波長415nm(λh1)とを比較した場合、これら波長450nmと波長415nmとの波長差35nmでおよそ5分の1まで低下する。
 これに対して人体等の被検体2内の生体組織4は、肌色から赤色を示すものが多い。この生体組織4の吸収特性は、一例として、青色領域から赤色領域にかけて吸収係数が緩やかに低下し、かつ青色領域の波長415nm付近においてヘモグロビンの吸収係数よりも小さくなり、波長450nm付近ではヘモグロビンの吸収係数より大きい組織も存在するものとなっている。
 システム制御装置11は、CPUやRAM、ROM等を含むコンピュータから成る。システム制御装置11は、ROM等に格納されている観察画像生成表示プログラムを実行することにより、白色光強調観察画像(B3、G1、R1)と特殊光強調観察画像(B3、R2)とを生成・表示するために光源装置6と撮像装置7と画像取得装置8とにそれぞれ動作指令を発する。
 次に、上記の如く構成されたシステム1による白色光強調観察画像(B3、G1、R1)と特殊光強調観察画像(B3、G2)との生成・表示の動作について図7に示す観察画像生成表示フロートチャートに従って説明する。 
 観察モード入力装置10は、ユーザの操作を受けて本システム1の観察モードの設定及び当該の観察モードの順序を設定する。この観察モード入力装置10は、ユーザの操作によって例えば、先ず、白色光強調観察画像(B3、G1、R1)を生成・表示するモードを設定し、次に、特殊光強調観察画像(B3、G2)を生成・表示するモードを設定したとする。特殊光強調観察画像(B3、G2)を生成・表示し、次に白色光強調観察画像(B3、G1、R1)を生成・表示するように設定してもよい。
 システム制御装置11は、ステップS1において、光源制御部22に対して第1の半導体レーザ20を駆動する指令を発する。この第1の半導体レーザ20は、図8に示すように発光ピーク波長が450nm(λ1)、半値幅が数nm以下の青色レーザ光を射出する。この青色レーザ光は、導光部23の第1の光ファイバ25に入射すると、この第1の光ファイバ25から光合波部27、第3の光ファイバ28により導光され、第1の励起光として波長変換ユニット24に照射される。
 この波長変換ユニット24の第1の蛍光体32は、青色レーザ光が照射されると、この青色レーザ光を吸収して励起され、黄色蛍光を発する。この黄色蛍光スペクトルは、ピークが波長575nm(λ2)に存在し、半値幅が130nmのブロードなスペクトルを有する。これと共に第1の蛍光体32は、青色レーザ光の一部が黄色蛍光に寄与せずに透過する。これにより、第1の蛍光体32からは、黄色蛍光と青色レーザ光の一部とが混色された白色光Q1が射出され、この白色光Q1が被検体2に照射される。
 この白色光Q1は、被検体2に照射されることにより、この被検体2における白色光Q1の照射領域W内の生体組織4に存在する表層血管3に照射される。この白色光Q1は、図8に示すようにヘモグロビンの流れる表層血管3、及び粘膜などの生体組織4の吸収特性に従ってその一部が吸収され、かつ残りの一部が散乱、反射される。このうち表層血管3や生体組織4からの反射光は、撮像装置7に入射する。
 この撮像装置7は、表層血管3や生体組織4からの反射光を入射し、この反射光をCCDのB色領域とG色領域とR色領域とにより受光し、これらBGR色毎の3つの画像情報すなわち白色光画像情報(B1、G1、R1)を出力する。この白色光画像情報(B1、G1、R1)は、画像取得装置8に送られ、同装置8の第1メモリ40に保存される。白色光画像情報(B1、G1、R1)は、3枚の画像情報(B1)(G1)(R1)として第1メモリ40に保存される。
 撮像装置7のB色画素の受光感度特性は、図8に示すように波長領域380nm~540nmに存在する。これにより、B色画素が受光する表層血管3及び生体組織4からの反射光は、青色レーザ光と黄色蛍光の短波長領域になる。但し、B色画素は、波長520nm付近の感度が低いので、主にB色画素により受光される成分は青色レーザ光になる。
 次に、システム制御装置11は、ステップS2において、強調画像情報(B3)を生成するための色情報、例えば白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれる同一波長領域、例えば強調画像情報生成用の基準画像情報として例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを強調画像情報生成装置42に指示する。 
 この強調画像情報生成装置42の画像演算部45は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)から例えばB色領域の第1の色画像情報(B1)を選択する。 
 この画像演算部45は、強調画像情報(B3)の生成に使用しない基準画像情報の例えばG、R色領域の色画像情報(G1、R1)を白色光画像情報(B1、G1、R1)から選択し、この色画像情報(G1、R1)を第1現像部43に送信する。
 一方、システム制御装置11は、上記ステップS1の処理に並行するステップS3において、光源制御部22に対して第2の半導体レーザ21を駆動する指令を発する。この第2の半導体レーザ21は、図8に示すように発光ピーク波長が415nm(λ2)、半値幅が数nm以下の青紫色のレーザ光を射出する。この青紫色レーザ光は、導光部23の第2の光ファイバ26に入射すると、この第1の光ファイバ26から光合波部27、第3の光ファイバ28により導光され、第2の励起光として波長変換ユニット24に照射される。
 この波長変換ユニット24の第2の蛍光体33は、青紫色レーザ光が照射されると、この青紫色レーザ光を吸収して励起され、緑色蛍光を発する。この緑色蛍光スペクトルは、ピークが波長540nm(λ4)に存在し、半値幅が95nmのブロードなスペクトルを有する。これと共に第2の蛍光体33は、青紫色レーザ光の一部が緑色蛍光に寄与せずに透過する。これにより、第2の蛍光体33からは、緑色蛍光と青紫色レーザ光の一部とが混色された特殊光Q2が射出され、この特殊光Q2が被検体2に照射される。
 この特殊光Q2は、被検体2に照射されることにより、この被検体2における特殊光Q2の照射領域W内の生体組織4に存在する表層血管3に照射される。この特殊光Q2は、図8に示すようにヘモグロビンの流れる表層血管3、粘膜などの生体組織4の吸収特性に従ってその一部が吸収され、かつ残りの一部が散乱、反射される。このうち表層血管3や生体組織4からの反射光は、撮像装置7に入射する。
 この撮像装置7は、表層血管3や生体組織4からの反射光を入射し、この反射光をCCDのB色領域とG色領域とR色領域とにより受光し、これらBGR色毎の3つの画像情報すなわち特殊光画像情報(B2、G2、R2)を出力する。この特殊光画像情報(B2、G2、R2)は、画像取得装置8に送られ、同装置8の第2メモリ41に保存される。なお、特殊光画像情報(B2、G2、R2)は、3枚の各色の画像情報(B2)(G2)(R2)として第2メモリ41に保存される。
 撮像装置7のB色画素の受光感度特性は、図8に示すように波長領域380nm~540nmに存在するので、B色画素が受光する表層血管3や中層血管5からの反射光は、青紫色レーザ光と緑色蛍光とになる。すなわち、B色画素により受光される色成分は、主に青紫色レーザ光になる。
 次に、画像演算部45は、ステップS4において、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)から強調画像情報(B3)を生成するための色情報、例えば上記同様に、B色領域の第2の色画像情報(B2)を選択する。この画像演算部45は、強調画像情報(B3)を生成するために使用しない基準画像情報としての例えばG、R色領域の第2の色画像情報(G2、R2)を特殊光画像情報(B2、G2、R2)から選択し、この特殊光画像情報(G2、R2)を第2現像部44に送信する。
 次に、画像演算部45は、ステップS5において、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)と、第2メモリ41に保存されている特殊光画像情報(B2,G2、R2)とを読み出す。 
 画像演算部45は、読み出した白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれる同一波長領域、例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを選択する。 
 画像演算部45は、B色領域の第1の色画像情報(B1)と同色領域の第2の色画像情報(B2)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3を強調する強調画像情報(B3)を生成し、この強調画像情報(B3)を第3メモリ46に保存する。この強調画像情報(B3)は、第1の色画像情報(B1)及び第2の色画像情報(B2)よりも表層血管3のコントラストが高いものとなる。
 ここで、白色光による第1の色画像情報(B1)と特殊光による第2の色画像情報(B2)との差について説明する。 
 表層血管3をCRTや液晶ディスプレイ等の画像表示装置9に表示した場合、この表層血管3は、白色光(青色レーザ光の射出時)を被検体2に照射して取得した第1の色画像情報(B1)よりも、特殊光(青紫色レーザ光の射出時)を照射して取得した第2の色画像情報(B2)の方が相対的に暗く表示される。表層血管3に流れるヘモグロビンは、青紫色レーザ光(特殊光)を吸収し易いためである。
 生体組織4をCRTや液晶ディスプレイ等の画像表示装置9に表示した場合、生体組織4は、青紫色レーザ光と青色レーザ光との波長差の吸収特性がヘモグロビンの吸収特性より少ないので、第2の色画像情報(B2)と第1の色画像情報(B1)との表示画像を比較すると、生体組織4の画像の方が表層血管3の画像よりも輝度の差の少ないものとなる。 
 従って、生体組織4に対する表層血管3のコントラストは、白色光を照射して取得した第1の色画像情報(B1)による画像よりも、特殊光を照射して取得した第2の色画像情報(B2)の方が高くなる。
 次に、強調画像情報(B3)を生成する一手法について図9を参照して具体的に説明する。 
 画像演算部45は、上記同一波長領域、すなわち特殊光画像情報(B2、G2、R2)におけるB色領域の第2の色画像情報(B2)と、白色光画像情報(B1、G1、R1)におけるB色領域の第1の色画像情報(B1)との差分を求める演算を行って差分情報(第1の中間情報)Y1(=B2-B1)を抽出する。 
 画像演算部45は、差分情報(Y1)に対して閾値を設定し、この差分情報(Y1)から閾値(T1)以上の吸収差分情報(第2の中間情報)Y2(>T1)を抽出する。
 画像演算部45は、第2の色画像情報(B2)と、上記抽出された吸収差分情報(Y2)との差分を求める演算を行ってヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報B3(=B2-Y2)を生成する。この強調画像情報(B3)は、白色光画像情報(第1の色画像情報B1)及び特殊光画像情報(第2の色画像情報B2)よりも表層血管3のコントラストが高いものとなる。 
 この画像演算部45は、第1の色画像情報(B1)と上記抽出された吸収差分情報(第1の中間情報)Y2との差分を求める演算を行って強調画像情報(B3=B1-Y2)を生成してもよい。
 次に、強調画像情報(B3)を生成する他の手法について図10を参照して具体的に説明する。 
 画像演算部45は、特殊光画像情報(B2、G2、R2)に含まれる同一波長領域、例えばB色領域の輝度情報に対して平均輝度値である閾値(T2)を設定し、第2の色画像情報(B2)から閾値(T2)以上の輝度情報(第3の中間情報)Y3(>T2)を抽出する。上記平均輝度値である閾値(T2)は、ヘモグロビンの吸収量が大きい第2の色画像情報(B2)の各画素輝度値から算出される。 
 画像演算部45は、白色光画像情報(B1、G1、R1)に含まれる同一波長領域、例えばB色領域の第1の色画像情報(B1)と、上記抽出された輝度情報(第3の中間情報)Y3との差分を求める演算を行って輝度情報(第4の中間情報)Y4(=B1-Y3)を求める。
 画像演算部45は、特殊光画像情報(B2、G2、R2)に含まれるB領域の輝度情報(B2)と上記輝度情報(第4の中間情報)Y4との差分を求める演算を行ってヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3=B2-Y4)を生成するようにしてもよい。 
 このように他の手法により生成された強調画像情報(B3)でも、白色光画像情報(第1の色画像情報B1)及び特殊光画像情報(第2の色画像情報B2)よりも表層血管3のコントラストが高いものとなる。
 その他の強調画像情報(B3)の生成手法についても説明する。 
 画像演算部45は、白色光画像情報(B1、G1、R1)に含まれる例えばB色領域の第1の色画像情報(B1)と、特殊光画像情報(B2、G2、R2)に含まれるB領域の第2の色画像情報(B2)とに対応する2枚の画像から生体組織部4(所定の輝度値以上)のノイズを低減する画像処理を行って中間画像情報を求める。そして、画像演算部45は、当該中間画像情報と上記B領域の第2の色画像情報(B2)とを画像合成して強調画像情報(B3)を生成してもよい。この強調画像情報(B3)も表層血管3のコントラストが高いものとなる。
 さらに、他の方法として、画像演算部45は、白色光画像情報(B1、G1、R1)に含まれる第1の色画像情報(B1)と、特殊光画像情報(B2、G2、R2)に含まれるB領域の第1の色画像情報(B2)とに対応する2枚の画像から表層血管3と生体組織4との境界(所定の明暗差以上)を抽出する画像処理を行ってエッジを抽出した中間画像を生成する。そして、画像演算部45は、当該エッジを抽出した中間画像と上記B領域の第1の色画像情報(B2)とを画像合成して表層血管3とこの表層血管3よりも深層の中層血管5とを異なる色で表示した血管強調画像情報(B3)を生成してもよい。
 次に、第1現像部43は、ステップS6において、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)から一部の画像情報(G1、R1)を読み出すと共に、第3メモリ46に保存されている強調画像情報(B3)を読み出す。第1現像部43は、これら画像情報(G1、R1)と強調画像情報(B3)とに対して所定の画像処理を行って白色光の強調画像情報(B3、G1、R1)を生成し、この白色光強調画像情報(B3、G1、R1)の白色カラー映像信号を出力する。この白色光強調画像情報(B3、G1、R1)の白色カラー映像信号は、画像表示装置9に送られる。
 次に、この画像表示装置9は、ステップS7において、第1現像部43から出力される白色カラー映像信号を入力し、この白色カラー映像信号を表示用信号に処理して白色光強調画像情報(B3、G1、R1)の画像をCRTや液晶等のディスプレイに表示する。
 一方、第2現像部44は、ステップS8において、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)の一部の画像情報(G2)を読み取ると共に、第3メモリ46に保存されている強調画像情報(B3)を読み取る。第2現像部44は、これら画像情報(G2)と強調画像情報(B3)とに対して所定の画像処理を行って特殊光の強調画像情報(B3、G2)を生成し、この特殊光強調画像情報(B3、G2)の特殊カラー映像信号を出力する。この特殊光強調画像情報(B3、G2)の映像信号は、画像表示装置9に送られる。
 次に、この画像表示装置9は、ステップS9において、第2現像部44から出力される特殊カラー映像信号を入力し、この特殊カラー映像信号を表示用信号に処理して特殊光強調画像情報(B3、G2)の画像をCRTや液晶等のディスプレイに表示する。
 第1現像部43は、白色光画像情報(B1、G1、R1)から白色光通常観察画像を生成し、この白色光通常観察画像(B1、G1、R1)の白色カラー映像信号を出力する。 
 画像表示装置9は、第1現像部43から出力される白色カラー映像信号を入力し、この白色カラー映像信号を表示用信号に処理して白色光通常観察画像(B1、G1、R1)をCRTや液晶等のディスプレイに表示する。 
 第2現像部44は、特殊光画像情報(B2、G2、R2)の一部の画像情報(B2、G2)から特殊光通常観察画像情報(B2、G2)を生成し、この特殊光通常観察情報(B2、G2)の特殊カラー映像信号を出力する。 
 画像表示装置9は、第2現像部44から出力される特殊カラー映像信号を入力し、この特殊カラー映像信号を表示用信号に処理して特殊光通常観察画像情報(B2、G2)の画像をCRTや液晶等のディスプレイに表示する。
 第2現像部44は、第2メモリ41に保存されている特殊光画像情報(B2、G2、R2)の一部の画像情報(R2)と、第3メモリ46に保存されている強調画像情報(B3)とに対して所定の画像処理を行って特殊光強調画像情報(B3、R2)を生成し、この特殊光強調画像情報(B3、R2)の特殊カラー映像信号を出力するようにしてもよい。これにより、画像表示装置9には、特殊光強調画像情報(B3、R2)の画像がCRTや液晶等のディスプレイに表示される。
 このように第1現像部33は、特殊光強調観察情報(B3、G2)と特殊光通常観察情報(B2、G2)とを生成する。第2現像部34は、白色光強調観察情報(B3、G1、R1)と白色光通常観察情報(B1、G1、R1)とを生成する。この生成時に、第1現像部33と第2現像部34とは、それぞれホワイトバランス係数又は色変換係数などを用いて画像生成に必要なその他の画像処理、例えばノイズ低減、構造強調、色変換などを行う。
 さらに、第1現像部33は、白色光強調観察画像(B3、G1、R1)と白色光通常観察画像(B1、G1、R1)との色合いを揃えるための観察モード色調整パラメータに基づいて各種の画像処理に適用する。 
 同様に、第2現像部34は、特殊光強調観察画像(B3、R2)と特殊光通常観察画像(B2、G2)との色合いを揃えるための観察モード色調整パラメータを保存し、かつ当該観察モード色調整パラメータを各種の画像処理に適用する。
 以上の動作により被検体2に2種類の照明光、すなわち白色光の第1の照明光Q1と特殊光の第1の照明光Q2とを照射して白色光通常観察情報(B1、G1、R1)及び特殊光通常観察情報(B2、G2)よりも血管のコントラストを高く強調表示できる白色光強調画像情報(B3、G1、R1)及び特殊光強調画像情報(B3、G2)を取得することができる。
 次に、白色光強調画像情報(B3、G1、R1)と特殊光強調画像情報(B3、G2)とを交互に表示するための動作タイミングについて図11を参照して説明する。 
 第1の半導体レーザ20から青色レーザ光を射出することにより波長変換ユニット24からは、白色光Q1が被検体2に照射される。 
 第2の半導体レーザ21から青紫色レーザ光を射出することにより波長変換ユニット24からは、青紫色レーザ光と緑色蛍光との混合による特殊光Q2が被検体2に照射される。 
 これら白色光Q1と特殊光Q2とは、1フレーム期間毎に切り替わり、交互に被検体2に照射される。図11は第1乃至第3のフレーム期間までを示す。
 第1のフレーム期間F1では、白色光Q1が被検体2に照射され、撮像装置7の撮像により白色光画像情報(B1、G1、R1)が取得される。 
 この第1のフレーム期間F1の1つ前のフレーム期間では、既に、特殊光Q2が被検体2に照射され、撮像装置7の撮像により特殊光画像情報(B2、G2、R2)が取得されている。
 1つ前のフレーム期間では、強調画像情報生成装置42は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれる同一波長領域、例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを選択する。強調画像情報生成装置42は、これら第1の色画像情報(B1)と第2の色画像情報(B2)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成している。 
 従って、第1のフレーム期間F1では、前のフレーム期間で取得された強調画像情報(B3)と、本フレーム期間F1で取得された白色光画像情報(B1、G1、R1)との演算により白色光強調画像情報(B3、G1、R1)が生成される。
 次に、第2のフレーム期間F2では、特殊光Q2が被検体2に照射され、撮像装置7の撮像により特殊光画像情報(B2、G2、R2)が取得される。 
 この第2のフレーム期間F2の1つ前のフレーム期間F1では、上記説明の通り白色光Q1が被検体2に照射され、撮像装置7の撮像により白色光画像情報(B1、G1、R1)が取得されている。
 同第2のフレーム期間F2では、強調画像情報生成装置42は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれるB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを選択する。強調画像情報生成装置42は、これら第1の色画像情報(B1)と第2の色画像情報(B2)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。
 従って、同第2のフレーム期間F2では、特殊光画像情報(B2、G2、R2)と、強調画像情報(B3)との演算により特殊光強調画像情報(B3、G2、R2)が生成される。 
 これ以降、白色光Q1と特殊光Q2とが1フレーム期間毎に切り替わって交互に被検体2に照射されることにより、白色光観察強調画像(B3、G1、R1)と特殊光観察強調画像(B3、G2、R2)とが1フレーム期間毎に交互に生成される。
 このように上記第1の実施の形態によれば、被検体2中に存在するヘモグロビンの吸収特性を考慮し、白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とにそれぞれ含まれる同一波長領域、例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B2)とを選択し、これら第1の色画像情報(B1)と第2の色画像情報(B2)とに対して所定の演算を実行し、ヘモグロビン等の対象物質が存在する例えば表層血管3を強調する強調画像情報(B3)を生成する。これにより、白色光画像情報(B1、G1、R1)及び特殊光画像情報(B2、G2、R2)よりも表層血管3のコントラストを高くすることができる。この表層血管3のコントラストを高くした強調画像情報(B3)の画像は、CRT又は液晶等のディスプレイの画像表示装置9に表示することができる。
 特に、ヘモグロビン等の対象物質に対してそれぞれ吸収が異なる白色光Q1と特殊光Q2とを照射して白色光画像情報(B1、G1、R1)と特殊光画像情報(B2、G2、R2)とを取得し、これら情報(B1、G1、R1)(B2、G2、R2)に対して所定の演算を行うので、画像ノイズが少なく、SN比の高い強調画像情報(B3)を取得することができる。 
 生体組織4は、青紫色レーザ光と青色レーザ光との波長差の吸収特性がヘモグロビンの吸収特性より少ない。これにより、生体組織4の画像の方が表層血管3の画像よりも輝度の差の少なくなり、白色光を照射して取得した第1の色画像情報(B1)による表層血管3のコントラストよりも、特殊光を照射して取得した第2の色画像情報(B2)による表層血管3のコントラストの方を高く強調できる。
 強調画像情報(B3)を生成する手法としては、一手法として、B色領域の特殊光画像情報(B2)と、同B色領域の白色光画像情報(B1)との差分情報Y1を抽出し、この差分情報Y1に対して閾値以上の吸収差分情報Y2を抽出し、この吸収差分情報Y2と特殊光画像情報(B2)との差分からヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。 
 他の手法としては、特殊光画像情報(B2、G2、R2)に含まれる例えばB色領域の輝度情報に対して閾値以上の輝度情報(Y3)を抽出し、この輝度情報(Y3)とB色領域の輝度情報(B1)との差分の輝度情報(Y4)を求め、この輝度情報(Y4)とB領域の輝度情報(B2)との差分からヘモグロビンが存在する例えば表層血管3を強調する強調画像情報(B3)を生成する。
 これら手法により生成された強調画像情報(B3)は、1つの照明光から生成した通常画像よりも、表層血管3のコントラストを高く強調表示する強調画像情報(B3)を得ることができる。この強調画像情報(B3)をCRTや液晶等のディスプレイの画像表示装置9に表示すれば、表層血管3を識別し易く、かつ診断に有効とすることができる。
 第1現像部43により白色光通常観察画像(B1、G1、R1)を生成し、第2現像部44により特殊光通常観察画像情報(B2、G2)を生成できるので、これら生成した白色光通常観察画像(B1、G1、R1)と特殊光通常観察画像情報(B2、G2)との表示タイミングを制御することにより、観察モードの条件に応じて当該白色光通常観察画像(B1、G1、R1)と特殊光通常観察画像情報(B2、G2)とを所望のタイミングで画像表示装置9に表示できる。
 画像取得装置8は、強調画像情報(B3)と白色光画像情報(B1、G1、R1)とに基づいて白色光強調画像情報(B3、G1、R1)を生成するので、この白色光強調画像情報(B3、G1、R1)によって被検体2等の観察対象の色合いが白色光画像情報(B1、G1、R1)の条件を保ったままで、ヘモグロビン等の対象物質の流れる表層血管3のみのコントラストを高く強調表示することができる。 
 白色光強調画像(B3、G1、R1)によって粘膜などの非対象物質の白色光画像情報(B1、G1、R1)を失わずに、ヘモグロビン等が流れる表層血管3等の対象物質のコントラストを高く強調表示することができる。
 なお、上記第1の実施の形態は、次のように変形してもよい。 
 上記第1の実施の形態では、青色レーザを用いて白色光Q1を生成したが、青色の発光ダイオード(LED)から発する青色LED光を用いて白色光のスペクトル、すなわち青色領域から緑色領域にかけてスペクトル成分を有する白色光Q1を生成してもよい。図12は青色LEDを用いて照明光を生成したときの白色光Q1と特殊光Q2との波長に対する強度を示す。 
 特殊光Q2は、波長415nmの青紫色レーザを使用したが、白色光Q1を生成するための青色レーザの波長450nmよりもヘモグロビンの吸収特性が約2倍以上大きい波長領域400nmから435nmの青紫色レーザを使用して生成してもよい。
 波長変換ユニット24に搭載する蛍光体は、青色の蛍光を励起可能な緑蛍光体や赤色蛍光体を用いてもよい。これら緑蛍光体や赤色蛍光体は、波長変換ユニット24に青色光を入射したときに白色光を発光するような濃度条件で当該波長変換ユニット24に搭載するのがよい。 
 画像取得装置8は、白色光通常観察画像(B1、G1、R1)又は/及び特殊光通常観察画像情報(B2、G2)を生成し、これら白色光通常観察画像(B1、G1、R1)又は/及び特殊光通常観察画像情報(B2、G2)と、白色光強調画像情報(B3、G1、R1)又は/及び特殊光強調画像情報(B3、G2)とをモニタ等の画像表示装置9に並べて表示してもよい。 
 白色光強調観察画像(B3、G1、R1)と特殊光強調観察画像(B3、G2)とを交互に繰り返して生成する以外に、観察モード入力装置10の設定方法により、所定のタイミング条件のみ白色光Q1と特殊光Q2とを照射し強調観察画像を表示してもよい。
[第2の実施の形態] 
 次に、本発明の第2の実施の形態について図面を参照して説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。 
 図13は観察画像取得システム1の構成図を示す。光源装置6は、第1の光(第1の照明光)Q1と、青紫色レーザ光と緑色レーザ光との混合光による特殊光Q3を被検体2に照射する。光源装置6は、上記の通り、青色のレーザ光を射出する第1の半導体レーザ(LD)を含む第1励起光源20と、青紫色のレーザ光を射出する第2の半導体レーザ(LD)を含む第2励起光源21と、光源制御部22と、導光部23と、波長変換ユニット24とに加え、第3励起光源50を含む。 
 第3励起光源50は、発光ピーク波長が540nmの緑色のレーザ光を射出する第3の半導体レーザ(LD)を含む。以下、第3の半導体レーザ(LD)を第3の半導体レーザ50と称する。
 波長変換ユニット24は、第3の光ファイバ28から射出される青色レーザ光により励起されて白色光Q1に波長変換する。 
 この波長変換ユニット24は、青紫色レーザ光と緑色レーザ光との混合光の照射では殆ど励起されずに、透過した青紫色レーザ光と緑色レーザ光を特殊光Q3として射出する。
 この波長変換ユニット24は、ホルダ30と、光透過部材としてのガラス部材31と、第1の波長変換部材としての第1の蛍光体32とを含む。この波長変換ユニット24は、上記第1の実施の形態における波長変換ユニット24から第2の蛍光体33を除き、第1の蛍光体32のみを搭載する。第1の蛍光体32は、第1の半導体レーザ20から射出される青色レーザ光を吸収して黄色蛍光を発する。この第1の蛍光体32は、第3の半導体レーザ50から射出される緑色レーザ光が照射されても、当該緑色レーザ光を透過し、励起されない。
 撮像装置7は、白色光Q1を被検体2等の観察対象に照射したときに、B色領域とG色領域とR色領域との各画素領域毎に第1の画像情報として白色光画像情報(B1、G1、R1)を取得する。この白色光画像情報(B1、G1、R1)は、第1メモリ40に保存される。 
 撮像装置7は、特殊光Q3を被検体2に照射したときに、B色領域とG色領域とR色領域との各画素領域毎に第3の画像情報として特殊光画像情報(B4、G4、R4)を取得する。特殊光画像情報(B4、G4、R4)は、第2メモリ41に保存される。
 強調画像情報生成装置42は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)と、第2メモリ41に保存されている特殊光画像情報(B4、G4、R4)とに基づいて対象物質であるヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。
 具体的に、強調画像情報生成装置42の画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えば強調画像情報生成用の基準画像情報として例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B4)とを選択する。画像演算部45は、これら第1の色画像情報(B1)と第2の色画像情報(B4)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。 
 この画像演算部45は、生成した強調画像情報(B3)を第3メモリ46に保存する。この強調画像情報(B3)は、白色光画像情報(B1、G1、R1)及び特殊光画像情報(B2、G2、R2)よりも表層血管3のコントラストが高くなる。
 画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えばG色領域の第1の色画像情報(G1)と第2の色画像情報(G4)とを選択する。画像演算部45は、これら第1の色画像情報(G1)と第2の色画像情報(G4)とに対して所定の演算を実行してヘモグロビンが存在する例えば中層血管5のコントラストを高く強調表示する強調画像情報(G5)を生成する。 
 この画像演算部45は、生成した強調画像情報(G5)を第3メモリ46に保存する。この強調画像情報(G5)は、白色光画像情報(B1、G1、R1)よりも中層血管5のコントラストが高くなる。
 第1現像部43は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)の一部の画像情報(R1)と、第3メモリ46に保存されている強調画像情報(B3)と、同第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って白色光強調画像情報(B3、G5、R1)を生成し、この白色光強調画像情報(B3、G5、R1)の白色カラー映像信号を出力する。 
 第2現像部44は、第3メモリ46に保存されている強調画像情報(B3)と、同第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って特殊光強調画像情報(B3、G5)を生成し、この特殊光強調画像情報(B3、G5)の特殊カラー映像信号を出力する。 
 画像表示装置9は、第1現像部43から出力される白色光強調観察画像(B3、G5、R1)の映像信号を入力してその画像をCRTや液晶等のディスプレイに表示する。 
 画像表示装置9は、特殊光強調観察画像(B3、G5)の映像信号を入力してその画像をディスプレイに表示する。
 次に、上記の如く構成されたシステム1の動作について説明する。 
 第1の半導体レーザ20は、青色レーザ光を射出する。この青色レーザ光は、導光部23により導光されて波長変換ユニット24に照射される。この波長変換ユニット24の第1の蛍光体32は、青色レーザ光の照射により黄色蛍光を発すると共に、青色レーザ光の一部を透過し、これら黄色蛍光と青色レーザ光の一部とを混色した白色光Q1を射出する。この白色光Q1は被検体2に照射される。
 撮像装置7は、表層血管3や生体組織4からの反射光を入射し、この反射光をCCDのB色領域とG色領域とR色領域とにより受光してその白色光画像情報(B1、G1、R1)を出力する。この白色光画像情報(B1、G1、R1)は、第1メモリ40に保存される。 
 強調画像情報生成装置42の画像演算部45は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)から例えばB色領域の第1の色画像情報(B1)を選択する。
 一方、第2の半導体レーザ21は、青紫色レーザ光を射出する。これと共に、第3の半導体レーザは、緑色レーザ光を射出する。これら青紫色レーザ光と緑色レーザ光との混合光は、導光部23により導光されて波長変換ユニット24に照射される。 
 この波長変換ユニット24の第1の蛍光体32は、第2の半導体レーザ21から射出される青紫色レーザ光と、第3の半導体レーザ50から射出される緑色レーザ光とが照射されても、殆ど励起されない。これにより、青紫色レーザ光と緑色レーザ光との成分が透過して特殊光Q3として被検体2に照射される。
 撮像装置7は、特殊光Q3を被検体2に照射したときに、B色領域とG色領域とR色領域との各画素領域毎の特殊光画像情報(B4、G4、R4)を取得する。この特殊光画像情報(B4、G4、R4)は、第2メモリ41に保存される。 
 強調画像情報生成装置42は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)と、第2メモリ41に保存されている特殊光画像情報(B4、G4、R4)とに基づいて対象物質であるヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。
 具体的に、強調画像情報生成装置42の画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えばB色領域の第1の色画像情報(B1)と第2の色画像情報(B4)とを選択する。画像演算部45は、これら第1の色画像情報(B1)と第2の色画像情報(B4)とに対して所定の演算を実行してヘモグロビンが存在する例えば表層血管3のコントラストを高く強調表示する強調画像情報(B3)を生成する。この画像演算部45は、生成した強調画像情報(B3)を第3メモリ46に保存する。この強調画像情報(B3)は、白色光画像情報(B1、G1、R1)及び特殊光画像情報(B4、G4、R4)よりも表層血管3のコントラストが高くなる。
 画像演算部45は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えばG色領域の第1の色画像情報(G1)と第2の色画像情報(G4)とを選択する。画像演算部45は、これら第1の色画像情報(G1)と第2の色画像情報(G4)とに対して所定の演算を実行してヘモグロビンが存在する例えば中層血管5のコントラストを高く強調表示する強調画像情報(G5)を生成する。この画像演算部45は、生成した強調画像情報(G5)を第3メモリ46に保存する。この強調画像情報(G5)は、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とよりも中層血管5のコントラストが高くなる。
 第1現像部43は、第1メモリ40に保存されている白色光画像情報(B1、G1、R1)の一部の画像情報(R1)と、第3メモリ46に保存されている強調画像情報(B3)と、同第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って白色光強調画像情報(B3、G5、R1)を生成し、この白色光強調画像情報(B3、G5、R1)の白色カラー映像信号を出力する。 
 画像表示装置9は、第1現像部43から出力される白色光強調観察画像(B3、G5、R1)の白色カラー映像信号を入力してその画像をCRTや液晶等のディスプレイに表示する。 
 第2現像部44は、第3メモリ46に保存されている強調画像情報(B3)と、同第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って特殊光強調画像情報(B3、G5)を生成し、この特殊光強調画像情報(B3、G5)の特殊カラー映像信号を出力する。 
 画像表示装置9は、特殊光強調観察画像(B3、G5)の特殊カラー映像信号を入力してその画像をディスプレイに表示する。
 このように上記第2の実施の形態によれば、発光ピーク波長が540nmの緑色のレーザ光を射出する第3の半導体レーザ50を設け、被検体2中に存在するヘモグロビンの吸収特性を考慮し、表層血管3のコントラストを高く強調表示する強調画像情報(B3)の生成に加えて、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えばG色領域の色画像情報(G1)と色画像情報(G4)とを選択して所定の演算を実行し、ヘモグロビン等の対象物質が存在する例えば中層血管5のコントラストを高く強調表示する強調画像情報(G5)を生成する。これにより、白色光画像情報(B1、G1、R1)及び特殊光画像情報(B4、G4、R4)よりも中層血管5のコントラストを高くすることができる。この中層血管5のコントラストを高くした強調画像情報(G5)の画像、すなわち白色光強調画像情報(B3、G5、R1)及び特殊光強調画像情報(B3、G5)の画像をCRTや液晶等のディスプレイの画像表示装置9に表示することができる。
 これに加えて、第1現像部43は、上記同様に、白色光通常観察画像(B1、G1、R1)の映像信号を出力するようにしてもよい。この白色光通常観察画像(B1、G1、R1)であれば、表層血管3のコントラストを高くすることができ、この表層血管3のコントラストを高くした強調画像情報(B3)の画像をCRTや液晶等のディスプレイの画像表示装置9に表示できる。
 第2現像部44は、第2メモリ41に保存されている特殊光画像情報(B4、G4、R4)の一部の画像情報(B4)と、第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って特殊光の強調画像情報(B4、G5)の映像信号を出力するようにしてもよい。この特殊光強調画像情報(B4、G5)であれば、中層血管5のコントラストを高くした強調画像情報(G5)の画像を画像表示装置9に表示できる。
 なお、上記第2の実施の形態は、次のように変形してもよい。 
 本実施の形態では、白色光画像情報(B1、G1、R1)と特殊光画像情報(B4、G4、R4)とにそれぞれ含まれる同一波長領域、例えばG色領域の色画像情報(G1)と色画像情報(G4)とから強調画像情報(G5)を生成する。これにより、当該生成された強調画像情報(G5)は、CRT又は液晶等のディスプレイの画像表示装置9に表示してもよい。強調画像情報(G5)であれば、ヘモグロビン等の対象物質が存在する例えば中層血管5のコントラストを高く強調表示する画像を観察できる。
 第2現像部44は、第2メモリ41に保存されている特殊光画像情報(B4、G4、R4)の一部の画像情報(B4)と、第3メモリ46に保存されている強調画像情報(G5)とに対して所定の画像処理を行って特殊光強調画像情報(B4、G5)を生成し、この特殊光強調画像情報(B4、G5)の特殊カラー映像信号を出力するようにしてもよい。この特殊光通常観察画像(B4、G5)によれば、中層血管5のコントラストを高くした強調画像情報(G5)の画像を画像表示装置9に表示できる。 
 この第2現像部44は、特殊光画像情報(B4、G4、R4)の一部の画像情報(B4、G4)を生成し、この特殊光通常観察画像(B4、G4)の特殊カラー映像信号を出力するようにしてもよい。 
 従って、上記第2の実施の形態によれば、表層血管3と中層血管5や、中層血管5のみのコントラストを高くした強調画像情報の画像をCRTや液晶等のディスプレイの画像表示装置9に表示できる。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 1:観察画像取得システム、7:撮像装置、2:被検体、3:表層血管、4:生体組織、5:中層血管、6:光源装置、8:画像取得装置、9:画像表示装置、10:観察モード入力装置、11:システム制御装置、20:第1励起光源(第1の半導体レーザ)、21:第2励起光源(第2の半導体レーザ)、22:光源制御部、23:導光部、24:波長変換ユニット、25:第1の光ファイバ、26:第2の光ファイバ、27:光合波部、28:第3の光ファイバ、30:ホルダ、31:ガラス部材、32:第1の蛍光体、33:第2の蛍光体、34:保持穴、40:第1メモリ、41:第2メモリ、42:強調画像情報生成装置、43:第1現像部、44:第2現像部、45:画像演算部、46:第3メモリ、50:第3励起光源(第3の半導体レーザ)。

Claims (22)

  1.  観察対象中に含まれる対象物質の吸収ピークが存在する波長領域を含まない波長領域の第1の光と、前記吸収ピークが存在する波長領域の第2の光とを前記観察対象に照射する光源部と、
     前記観察対象を撮像して画像情報を取得する撮像部と、
     前記撮像部により取得された前記画像情報を演算して前記対象物質を強調する強調画像情報を生成する画像取得部と、
    を具備し、
     前記画像取得部は、前記第1の光を前記観察対象に照射したときに前記撮像部により取得される第1の画像情報と、前記第2の光を前記観察対象に照射したときに前記撮像部により取得される第2の画像情報とに基づいて前記強調画像情報を生成する強調画像情報生成部を含む、
    ことを特徴とする観察画像取得システム。
  2.  前記強調画像情報生成部は、前記第1の画像情報と前記第2の画像情報とに含まれる同一波長領域の第1の色画像情報と第2の色画像情報とを選択し、これら第1の色画像情報と第2の色画像情報とを演算して前記対象物質を強調する前記強調画像情報を生成することを特徴とする請求項1記載の観察画像取得システム。
  3.  前記強調画像情報生成部は、前記第1の画像情報及び前記第2の画像情報のコントラストよりも前記対象物質のコントラストが高い前記強調画像情報を生成することを特徴とする請求項1又は2記載の観察画像取得システム。
  4.  前記第2の光のピーク波長は、前記第1の光のピーク波長よりも前記対象物質の吸収ピークに近い波長領域に存在し、
     前記対象物質の吸収ピークが存在する波長領域に対応し、前記撮像部の各波長領域のうち最大受光感度を有する前記波長領域を特定色領域とすると、当該特定色領域における前記第2の光の発光スペクトル成分は、前記第1の光の発光スペクトル成分と同等以上の強度を有する、
    ことを特徴とする請求項1乃至3のうちいずれか1項記載の観察画像取得システム。
  5.  前記第1の光は、白色光であり、
     前記撮像部は、前記白色光が前記観察対象に照射されたときに前記第1の画像情報として白色光画像情報を取得し、
     前記画像取得部は、前記強調画像情報と前記白色光画像情報とに基づいて白色光強調画像情報を生成する、
    ことを特徴とする請求項1乃至4のうちいずれか1項記載の観察画像取得システム。
  6.  前記第2の光は、前記対象物質を強調するための特殊光であり、
     前記撮像部は、前記特殊光が前記観察対象に照射されたときに前記第2の画像情報として特殊光画像情報を取得し、
     前記画像取得部は、前記強調画像情報と前記特殊光画像情報とに基づいて特殊光強調画像情報を生成する、
    ことを特徴とする請求項1乃至4のうちいずれか1項記載の観察画像取得システム。
  7.  前記撮像部は、青色領域と緑色領域と赤色領域との各画素領域を含み、前記第1の光を前記観察対象に照射したときに前記画素領域毎に前記第1の画像情報を取得し、前記第2の光を前記観察対象に照射したときに前記画素領域毎に前記第2の画像情報を取得し、
     前記強調画像情報生成部は、前記第1と前記第2の画像情報とにそれぞれ含まれる前記同一波長領域の前記第1と前記第2の画像情報とを選択し、これら第1と第2の画像情報を演算して前記強調画像情報を生成する、
    ことを特徴とする請求項1記載の観察画像取得システム。
  8.  前記強調画像情報生成部は、前記第1の画像情報と前記第2の画像情報とから前記対象物質の吸収の差分を示す吸収差分情報を抽出し、当該吸収差分情報を前記対象物質の吸収が強い前記第2の画像情報に付加して前記強調画像情報を生成することを特徴とする請求項1乃至3のうちいずれか1項記載の観察画像取得システム。
  9.  前記第1の光は、青色領域と、緑色領域と、赤色領域とにスペクトル成分を含む白色光であり、
     前記第2の光は、前記青色領域と、前記緑色領域とにスペクトル成分を含む特殊光であり、
     前記撮像部は、前記白色光を前記観察対象に照射したときに前記第1の画像情報を取得し、前記特殊光を前記観察対象に照射したときに前記第2の画像情報を取得し、
     前記強調画像情報生成部は、前記同一波長領域の前記第1と前記第2の画像情報との差分を求める演算を行って前記差分情報を抽出し、当該差分情報に対して閾値以上の吸収差分情報を抽出し、当該抽出された吸収差分情報と前記同一波長領域の前記第1又は前記第2の画像情報のうち何れか一方の画像情報との差分を求める演算を行って前記強調画像情報を生成する、
    ことを特徴とする請求項8記載の観察画像取得システム。
  10.  前記強調画像情報生成部は、前記第1の画像情報と前記第2の画像情報とから前記対象物質以外の画像情報のみに画像ノイズ低減処理を行い、当該画像ノイズ低減処理した画像情報から前記強調画像情報を生成することを特徴とする請求項1乃至3のうちいずれか1項記載の観察画像取得システム。
  11.  前記第1の光は、青色領域と、緑色領域と、赤色領域とにスペクトル成分を含む白色光であり、
     前記第2の光は、前記青色領域と、前記緑色領域とにスペクトル成分を含む特殊光であり、
     前記撮像部は、前記白色光を前記観察対象に照射したときに前記第1の画像情報を取得し、前記特殊光を前記観察対象に照射したときに前記第2の画像情報を取得し、
     前記強調画像情報生成部は、前記第2の画像情報に含まれる前記同一波長領域の輝度情報に対して閾値以上の輝度情報を抽出し、前記第1の画像情報に含まれる前記同一波長領域の輝度情報と前記抽出された輝度情報との差分を求める演算を行って差分情報を求め、前記第2の画像情報に含まれる前記青色領域の輝度情報と前記差分情報との差分を求める演算を行って前記強調画像情報を生成する、
    ことを特徴とする請求項10記載の観察画像取得システム。
  12.  前記同一波長領域は、青色領域であることを特徴とする請求項8乃至11のうちいずれか1項記載の観察画像取得システム。
  13.  前記第1と前記第2の光は、前記特定色領域において前記発光スペクトルの帯域幅が異なることを特徴とする請求項4記載の観察画像取得システム。
  14.  前記第1と前記第2の光は、前記特定色領域において前記発光スペクトルが互いに重ならないことを特徴とする請求項4又は10記載の観察画像取得システム。
  15.  前記対象物質の吸収ピークが存在する波長領域に対応し、前記撮像部の各波長領域のうち最大受光感度を有する前記波長領域を特定色領域とすると、
     前記光源部は、前記特定色領域内に含まれる青色領域内に第1のピーク波長を含む第1の発光スペクトルを発光する第1の半導体レーザと、
     前記特定色領域内に含まれる前記青紫色領域内に第2のピーク波長を含む第2の発光スペクトルを発光する第2の半導体レーザと、
     前記第1の半導体レーザから発光される前記第1の発光スペクトルの一部を吸収して緑色領域と赤色領域とを含むブロードな蛍光スペクトルを発光し、当該蛍光スペクトルと前記第1の発光スペクトルとの混合光を前記第1の光として前記観察対象に照射し、かつ前記第2の発光スペクトルを前記第2の光として前記観察対象に照射する波長変換部材と、
    を含むことを特徴とする請求項1記載の観察画像取得システム。
  16.  前記第1の半導体レーザは、前記青色領域内に含まれる波長領域440nm~460nmに第1のピーク波長を有する前記第1の発光スペクトルを発光し、
     前記第2の半導体レーザは、前記青色領域内に含まれる波長領域400nm~440nmに第2のピーク波長を有する前記第2の発光スペクトルを発光する、
    ことを特徴とする請求項15記載の観察画像取得システム。
  17.  前記第1の光は、青色領域と、緑色領域と、赤色領域とにスペクトル成分を含む白色光であり、
     前記第2の光は、前記青色領域と、前記緑色領域とにスペクトル成分を含む特殊光であり、
     前記撮像部は、前記白色光を前記観察対象に照射したときに前記第1の画像情報を取得し、前記特殊光を前記観察対象に照射したときに前記第2の画像情報を取得し、
     前記画像取得部は、前記強調画像情報と、前記第1の画像情報に含まれる前記青色領域、前記緑色領域又は前記赤色領域の画像情報のうちいずれか1つの画像情報とを演算して所定のカラー画像である第1の観察画像情報を構築し、かつ前記強調画像情報と、前記第2の画像情報に含まれる前記青色領域又は前記緑色領域の画像情報のうちいずれか1つの画像情報とを演算して所定のカラー画像である第2の観察画像情報を構築する、
    ことを特徴とする請求項1記載の観察画像取得システム。
  18.  前記光源部は、前記第1の光と前記第2の光とを繰り返し前記観察対象に照射し、
     前記撮像部は、前記第1の光が前記観察対象に照射される毎に前記第1の画像情報として第1のフレーム画像を取得し、前記第2の光が前記観察対象に照射される毎に前記第2の画像情報として第2のフレーム画像を取得し、
     前記強調情報生成部は、前記撮像部により繰り返し取得される前記第1のフレーム画像と前記第2のフレーム画像とに基づいて前記第1の光に関する第1の前記強調画像情報と前記第2の光に関する第2の前記強調画像情報とを生成し、
     前記画像取得部は、前記第1の強調画像情報に基づいて第1の観察画像情報を順次構築し、前記第2の強調画像情報に基づいて第2の観察画像情報を順次構築する、
    ことを特徴とする請求項1記載の観察画像取得システム。
  19.  前記光源部は、前記特定色領域内に含まれる青色領域内の青色レーザ光を射出する第1の半導体レーザと、
     前記特定色領域内に含まれる青紫色領域内の青紫色レーザ光を射出する第2の半導体レーザと、
     前記特定色領域内に含まれる緑色領域内の緑色レーザ光を射出する第3の半導体レーザと、
     前記青色レーザ光により励起されて白色光に波長変換し、かつ前記青紫色レーザ光と前記緑色レーザ光との混合光の照射により特殊光に波長変換する波長変換ユニットと、
    を含み、
     前記撮像部は、青色領域と緑色領域と赤色領域との各画素領域を含み、前記白色光が前記観察対象に照射されたときに前記画素領域毎に前記第1の画像情報として白色光画像情報を取得し、かつ前記特殊光が前記観察対象に照射されたとき前記画素領域毎に前記第2の画像情報として特殊光画像情報を取得し、
     前記強調画像情報生成部は、前記白色光画像情報と前記特殊光画像情報とにそれぞれ含まれる前記同一波長領域である少なくとも前記緑色領域の前記第1と前記第2の画像情報とを選択し、これら第1と第2の画像情報から前記白色光と前記特殊光の各強調画像情報を生成する、
    ことを特徴とする請求項1記載の観察画像取得システム。
  20.  前記強調画像情報生成部は、前記同一波長領域として前記緑色領域と前記青色領域との前記第1と前記第2の画像情報とを選択し、これら第1と第2の画像情報から前記白色光と前記特殊光の各強調画像情報を生成することを特徴とする請求項19記載の観察画像取得システム。
  21.  観察対象中の対象物質の吸収ピークが存在する波長領域を含まない波長領域の第1の光を前記観察対象に照射し、
     前記第1の光を前記観察対象に照射したときに第1の画像情報を取得し、
     前記吸収ピークが存在する波長領域の第2の光を前記観察対象に照射し、
     前記第2の光を前記観察対象に照射したときに第2の画像情報を取得し、
     前記第1の光を前記観察対象に照射したときに取得される前記第1の画像情報と、前記第2の光を前記観察対象に照射したときに取得される前記第2の画像情報とに基づいて前記対象物質を強調する強調画像情報を生成する、
    ことを特徴とする観察画像取得方法。
  22.  前記強調画像情報の生成は、前記第1の画像情報と前記第2の画像情報とにそれぞれ含まれる同一波長領域の前記各画像情報を選択し、これら画像情報を演算して前記対象物質を強調する前記強調画像情報を生成することを特徴とする請求項21記載の観察画像取得方法。
PCT/JP2015/060333 2014-04-02 2015-04-01 観察画像取得システム及び観察画像取得方法 WO2015152327A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112015001158.7T DE112015001158T5 (de) 2014-04-02 2015-04-01 Beobachtungsbild-Gewinnungssystem und Beobachtungsbild-Gewinnungsverfahren
CN201580016610.3A CN106132275B (zh) 2014-04-02 2015-04-01 观察图像取得系统以及观察图像取得方法
US15/281,709 US10582842B2 (en) 2014-04-02 2016-09-30 Observation image acquiring system and observation image acquiring method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-076278 2014-04-02
JP2014076278A JP6412709B2 (ja) 2014-04-02 2014-04-02 観察画像取得システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/281,709 Continuation US10582842B2 (en) 2014-04-02 2016-09-30 Observation image acquiring system and observation image acquiring method

Publications (1)

Publication Number Publication Date
WO2015152327A1 true WO2015152327A1 (ja) 2015-10-08

Family

ID=54240645

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/060333 WO2015152327A1 (ja) 2014-04-02 2015-04-01 観察画像取得システム及び観察画像取得方法

Country Status (5)

Country Link
US (1) US10582842B2 (ja)
JP (1) JP6412709B2 (ja)
CN (1) CN106132275B (ja)
DE (1) DE112015001158T5 (ja)
WO (1) WO2015152327A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3520673A4 (en) * 2016-10-03 2019-09-18 FUJIFILM Corporation ENDOSCOPE SYSTEM AND METHOD OF OPERATION

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6626783B2 (ja) * 2016-06-02 2019-12-25 Hoya株式会社 画像処理装置および電子内視鏡システム
JP6731065B2 (ja) * 2016-10-27 2020-07-29 富士フイルム株式会社 内視鏡システム及びその作動方法
CN109715042B (zh) * 2016-12-12 2021-11-30 奥林巴斯株式会社 光源装置
JP6774603B2 (ja) * 2017-03-06 2020-10-28 株式会社Jvcケンウッド レーザ光照射検出装置、レーザ光照射検出方法、レーザ光照射検出システム
CN110650670A (zh) 2017-05-23 2020-01-03 奥林巴斯株式会社 照明单元、照明装置及内窥镜系统
WO2019026191A1 (ja) * 2017-08-01 2019-02-07 オリンパス株式会社 撮像装置および制御方法
JP7080195B2 (ja) 2019-02-19 2022-06-03 富士フイルム株式会社 内視鏡システム
EP3945993A4 (en) * 2019-04-04 2023-04-19 NSV, Inc. MEDICAL INSTRUMENTATION USING NARROWBAND IMAGING
JP7025661B2 (ja) * 2019-06-19 2022-02-25 日亜化学工業株式会社 光源装置および画像取得装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011200367A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp 画像撮像方法および装置
JP2012005807A (ja) * 2009-09-24 2012-01-12 Fujifilm Corp 内視鏡装置の制御方法及び内視鏡装置
JP2012125289A (ja) * 2010-12-13 2012-07-05 Fujifilm Corp 内視鏡装置
JP2013034753A (ja) * 2011-08-10 2013-02-21 Fujifilm Corp 内視鏡装置
JP2013244041A (ja) * 2012-05-23 2013-12-09 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像生成方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2017591A1 (en) * 2007-07-18 2009-01-21 Fujifilm Corporation Imaging apparatus
JP2009153712A (ja) * 2007-12-26 2009-07-16 Olympus Corp 光源装置およびそれを備えた内視鏡装置
JP5296396B2 (ja) * 2008-03-05 2013-09-25 オリンパスメディカルシステムズ株式会社 生体内画像取得装置、生体内画像受信装置、生体内画像表示装置およびノイズ除去方法
JP5285967B2 (ja) 2008-06-11 2013-09-11 富士フイルム株式会社 光源装置およびこれを用いた内視鏡装置
JP2011156339A (ja) 2010-01-08 2011-08-18 Fujifilm Corp 医療機器及び内視鏡装置
JP5555002B2 (ja) * 2010-02-10 2014-07-23 オリンパス株式会社 蛍光内視鏡装置
DE102010038742B4 (de) * 2010-07-30 2016-01-21 Globalfoundries Dresden Module One Llc & Co. Kg Verfahren und Halbleiterbauelement basierend auf einer Verformungstechnologie in dreidimensionalen Transistoren auf der Grundlage eines verformten Kanalhalbleitermaterials
JP5451802B2 (ja) 2011-04-01 2014-03-26 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの校正方法
JP2013233219A (ja) * 2012-05-07 2013-11-21 Hoya Corp 光源装置、電子内視鏡装置及びオプティカルチョッパー
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
CN108135459B (zh) * 2015-10-08 2020-11-13 奥林巴斯株式会社 内窥镜装置
CN108601510B (zh) * 2016-01-27 2020-07-24 奥林巴斯株式会社 内窥镜观察方法和内窥镜装置
WO2018105020A1 (ja) * 2016-12-05 2018-06-14 オリンパス株式会社 内視鏡装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005807A (ja) * 2009-09-24 2012-01-12 Fujifilm Corp 内視鏡装置の制御方法及び内視鏡装置
JP2011200367A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp 画像撮像方法および装置
JP2012125289A (ja) * 2010-12-13 2012-07-05 Fujifilm Corp 内視鏡装置
JP2013034753A (ja) * 2011-08-10 2013-02-21 Fujifilm Corp 内視鏡装置
JP2013244041A (ja) * 2012-05-23 2013-12-09 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像生成方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3520673A4 (en) * 2016-10-03 2019-09-18 FUJIFILM Corporation ENDOSCOPE SYSTEM AND METHOD OF OPERATION

Also Published As

Publication number Publication date
DE112015001158T5 (de) 2016-12-08
US10582842B2 (en) 2020-03-10
JP2015196004A (ja) 2015-11-09
CN106132275B (zh) 2020-05-26
CN106132275A (zh) 2016-11-16
US20170014022A1 (en) 2017-01-19
JP6412709B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6412709B2 (ja) 観察画像取得システム
JP5309120B2 (ja) 内視鏡装置
WO2014136706A1 (ja) 被検体観察システム及び方法
US8915844B2 (en) Endoscope diagnostic apparatus
US9814375B2 (en) Light source device and subject observation apparatus as well as light source control method
JP5405445B2 (ja) 内視鏡装置
US9456738B2 (en) Endoscopic diagnosis system
JP6253231B2 (ja) 被検体観察システム及びその方法、カプセル型内視鏡システム
CN108024689B (zh) 内窥镜装置
EP2301416A1 (en) Method of controlling endoscope and endoscope
WO2013035531A1 (ja) 内視鏡システム及び画像表示方法
JP2011206227A (ja) 内視鏡装置
JP5762344B2 (ja) 画像処理装置及び内視鏡システム
JP5997630B2 (ja) 光源装置、及びこれを用いた内視鏡システム
JP2015196004A5 (ja)
JP5147538B2 (ja) 蛍光画像取得装置および蛍光画像取得装置の作動方法
US20160302652A1 (en) Fluorescence observation apparatus
JP2016174976A (ja) 内視鏡システム
JP5570352B2 (ja) 画像撮像装置
JP6454755B2 (ja) 内視鏡システム
JP5965028B2 (ja) 内視鏡システム
JP2020142090A (ja) 内視鏡システム
JP2019048171A (ja) 内視鏡システム
JP2019000148A (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15772643

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112015001158

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15772643

Country of ref document: EP

Kind code of ref document: A1