WO2022113506A1 - 医療用装置及びその作動方法 - Google Patents

医療用装置及びその作動方法 Download PDF

Info

Publication number
WO2022113506A1
WO2022113506A1 PCT/JP2021/035098 JP2021035098W WO2022113506A1 WO 2022113506 A1 WO2022113506 A1 WO 2022113506A1 JP 2021035098 W JP2021035098 W JP 2021035098W WO 2022113506 A1 WO2022113506 A1 WO 2022113506A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
band
light
blood vessel
wavelength band
Prior art date
Application number
PCT/JP2021/035098
Other languages
English (en)
French (fr)
Inventor
雅啓 北原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022565088A priority Critical patent/JPWO2022113506A1/ja
Priority to EP21897484.8A priority patent/EP4254039A4/en
Publication of WO2022113506A1 publication Critical patent/WO2022113506A1/ja
Priority to US18/322,559 priority patent/US20230320578A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/414Evaluating particular organs or parts of the immune or lymphatic systems
    • A61B5/418Evaluating particular organs or parts of the immune or lymphatic systems lymph vessels, ducts or nodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6867Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive specially adapted to be attached or implanted in a specific body part
    • A61B5/6871Stomach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Definitions

  • the present invention relates to a medical device that acquires a plurality of types of images and a method of operating the same.
  • a fluorescent substance such as indocyanine green, which is a fluorescent substance that binds to lipoproteins in blood or lymph
  • the subject is illuminated with the excitation light of the fluorescent substance, and the fluorescent substance is used.
  • Endoscopes have been developed that can visualize blood vessels and lymph vessels by imaging the fluorescence emitted by the fluorescent light, and can obtain a fluorescent image for observing the invasion range of cancer and blood flow insufficiency.
  • the subject is illuminated with near-ultraviolet light and imaged to show the oxygen saturation of the subject (blue).
  • Oxygen saturation image can be obtained.
  • an endoscope has been developed in which an image showing the oxygen saturation of a subject (red oxygen saturation image) can be obtained by illuminating the subject with near-infrared light and performing imaging.
  • Patent Document 1 provides a semiconductor laser that emits visible light, 700 nm laser light, and 980 nm laser light, respectively, in order to acquire both an observation image and a red oxygen saturation image, and provides a subject as one irradiation light.
  • the endoscopic system that irradiates the light is described.
  • the reflected light from the subject is separated (spectroscopically) into light in the band for obtaining an observation image and light in the band for obtaining a red oxygen saturation image (illumination light for oxygen saturation).
  • a configuration is described in which light is incident on different image pickup elements to take an image.
  • An object of the present invention is to provide a medical device and an operation method thereof, which can acquire a plurality of inspection images, reduce costs as much as possible, and reduce the number of parts.
  • the medical device of the present invention is a medical device that illuminates a subject and captures reflected light from the subject.
  • the medical device includes a light source that emits illumination light including a first wavelength band and a first sensing band. It includes a light receiving unit having a first channel for sensing, and an image control processor.
  • the first sensing band is a wavelength band that does not overlap with the first wavelength band or overlaps with a half-value wavelength.
  • the image control processor acquires at least one inspection image based on the light included in the first sensing band.
  • the reflected light includes a first wavelength band and a second wavelength band which is a wavelength band different from the first wavelength band, and the light receiving unit has a second sensing band which is a wavelength band different from the first sensing band. It is preferable that the second sensing channel is provided and the second sensing band is a wavelength band that does not overlap with the second wavelength band or overlaps with the half-value wavelength.
  • the light receiving unit includes a first spectral element that splits the reflected light into a first spectral band and a second spectral band different from the first spectral band, a first image pickup element having a first transmission band, and a first transmission band. It has a second image pickup element having a different second transmission band, the first sensing band is a band based on the first spectral band and the first transmission band, and the second sensing band is the second spectral band and the second spectral band. It is preferably a band based on the transmission band.
  • the second transmission band preferably includes a second A transmission band, a second B transmission band, and a second C transmission band that are different from each other.
  • the first wavelength band is a wavelength band that excites a fluorescent substance and is necessary for calculating oxygen saturation based on the difference in responsiveness to illumination light between oxidized hemoglobin and reduced hemoglobin, and the first sensing band is.
  • the wavelength band including the wavelength band of the fluorescence emitted from the fluorescent substance, and the second sensing band is preferably the wavelength band including the wavelength band necessary for calculating the oxygen saturation.
  • the fluorescent substance receives light including the first wavelength band and emits fluorescence which is light in the second wavelength band, the first channel senses the fluorescence, and the image control processor converts the fluorescence blood vessel image based on the fluorescence into fluorescence. It is preferable to acquire the fluorescence lymphatic vessel image based on the fluorescence lymphatic vessel image as an inspection image, and acquire the blood vessel distribution information from the fluorescence blood vessel image and the lymphatic vessel distribution information from the fluorescence lymphatic vessel image.
  • the image control processor acquires a hemoglobin image based on light in the wavelength band required for calculating oxygen saturation as an inspection image, calculates oxygen saturation from the hemoglobin image, and calculates StO2 distribution information from oxygen saturation. Is preferable.
  • the light source emits normal light
  • the light receiving unit senses the reflected light obtained by irradiating the subject with normal light
  • the image control processor acquires a normal light image based on the normal light and obtains blood vessel distribution information.
  • the light receiving unit senses the wavelength band required for calculating oxygen saturation and the wavelength band of fluorescence, and the image control processor uses a hemoglobin image based on light in the wavelength band required for calculating oxygen saturation and a hemoglobin image based on fluorescence.
  • the fluorescent blood vessel image is acquired as an inspection image
  • the oxygen saturation is calculated from the hemoglobin image
  • the StO2 distribution information is acquired from the oxygen saturation
  • the blood vessel distribution information is acquired from the fluorescent blood vessel image
  • the blood vessel distribution information and the StO2 distribution are obtained. It is preferable to acquire blood vessel visualization StO2 information from the information.
  • the light source emits normal light
  • the light receiving unit senses the reflected light obtained by irradiating the subject with normal light
  • the image control processor acquires a normal light image based on the normal light, and the blood vessel visualization StO2 information. Is usually superimposed on an optical image to generate a blood vessel visualization StO2 image.
  • the light source excites a fluorescent substance and emits light in the wavelength band required for calculating the oxygen saturation and normal light
  • the image control processor is a fluorescence blood vessel image based on fluorescence and a fluorescent lymph tube based on fluorescence.
  • An image, a hemoglobin image based on light in the wavelength band required for calculating oxygen saturation, and a normal light image based on normal light are acquired as inspection images, the oxygen saturation is calculated from the hemoglobin image, and the oxygen saturation is used.
  • Acquire StO2 distribution information acquire blood vessel distribution information from fluorescent blood vessel images, acquire lymphatic vessel distribution information from fluorescent lymphatic vessel images, acquire blood vessel visualization StO2 information from blood vessel distribution information and oxygen saturation, and visualize blood vessels. It is preferable to superimpose the StO2 information and the lymphatic vessel distribution information on a normal optical image to generate a vascular visualization StO2 image.
  • the light receiving unit has a second spectral element that splits the reflected light into at least two or more lights having the same wavelength band, and a first distributed band that cuts the first cut wavelength included in the light dispersed by the second spectral element.
  • the first optical element, the first image pickup element having the first transmission band, and the second cut wavelength which is a wavelength band different from the first cut wavelength included in the light dispersed by the second spectroscopic element, are cut to the first. It has a second optical element having a second distributed band different from the distributed band and a second imaging element having a second transmission band, and the first sensing band is divided into a first distributed band and a first transmission band.
  • the second sensing band is preferably a band based on the second distributed band and the second transmission band.
  • the light receiving unit preferably includes one sensor provided with a first filter corresponding to the first channel and a second filter corresponding to the second channel.
  • the method of operating the medical device of the present invention is the method of operating the medical device that illuminates the subject and captures the reflected light from the subject.
  • the light source emits illumination light including the first wavelength band.
  • the light receiving unit has a first channel for sensing the first sensing band. At least one inspection image is acquired based on the image control processor and the light included in the first sensing band sensed by the first channel.
  • the first sensing band is a wavelength band that does not overlap with the first wavelength band or overlaps with a half-value wavelength.
  • the medical device of the present invention and the operation method thereof, it is possible to provide a medical device capable of acquiring a plurality of inspection images, reducing costs as much as possible, and reducing the number of parts.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a light receiving unit 15, a processor device 16, a display 18, and a console 19.
  • the endoscope 12 is inserted into the subject. Inside the endoscope 12, an optical system for forming an image of a subject and an optical system for irradiating the subject with illumination light are provided.
  • the light source device 14 generates illumination light.
  • the light receiving unit 15 captures an image of the subject.
  • the processor device 16 performs system control, image processing, and the like of the endoscope system 10.
  • the display 18 is a display unit that displays an image captured by the endoscope 12.
  • the console 19 is an input device for inputting settings to the processor device 16 and the like.
  • the light source device 14 includes a light source unit 20 that emits illumination light and a light source control unit 22 that controls the operation of the light source unit 20.
  • the light source unit 20 emits illumination light for illuminating the subject, excitation light used for emitting the illumination light, or the like.
  • the light source unit 20 includes, for example, a light source of a laser diode, an LED (Light Emitting Diode), a xenon lamp, or a halogen lamp, and at least a white illumination light (normal light), a first wavelength band, or a second wavelength band.
  • White includes so-called pseudo-white, which is substantially equivalent to white in imaging a subject using the endoscope 12.
  • the light source unit 20 includes an optical filter or the like for adjusting the wavelength band, spectrum, light amount, etc. of the illumination light or the excitation light, if necessary.
  • the light source unit 20 emits illumination light including the first wavelength band.
  • the first wavelength band is, for example, near-infrared light having a central wavelength of about 780 nm as shown in FIG.
  • the first wavelength band is the wavelength band of the excitation light that excites the fluorescent substance.
  • the fluorescent substance receives the excitation light and emits fluorescence.
  • the fluorescent substance include indocyanine green.
  • the indocyanine green receives the excitation light which is the light of the first wavelength band, and emits fluorescence which is the light including the wavelength of the second wavelength band whose central wavelength is different from that of the first wavelength band as illustrated in FIG.
  • the first wavelength band is also the wavelength of light required to generate an image (hemoglobin image) showing the distribution of hemoglobin contained in the subject.
  • the central wavelength of about 780 nm is a wavelength in which the extinction coefficient differs between oxidized hemoglobin and reduced hemoglobin.
  • the subject is imaged by irradiating the subject with illumination light including light with a central wavelength of about 780 nm, and the tissue blood oxygen saturation (Tissue Oxygen Saturation; StO2) is calculated from the difference in the absorption coefficient between the oxidized hemoglobin and the reduced hemoglobin contained in the subject. do.
  • tissue blood oxygen saturation is referred to as "StO2" or simply "oxygen saturation".
  • the irradiation light including a specific wavelength band functions as the excitation light of the fluorescent substance and further as the light for measuring the oxygen saturation.
  • the light source control unit 22 controls the lighting or extinguishing of each light source constituting the light source unit 20, the amount of light emitted, and the like.
  • the illumination light emitted by the light source unit 20 enters the endoscope 12 via the light guide 24, and passes through an optical system (an optical system for irradiating the subject with the illumination light) built in the endoscope 12.
  • the light is guided to the tip of the endoscope 12 and emitted from the tip of the endoscope 12 toward the subject. After that, the illumination light is applied to the subject, and the reflected light from the subject is guided to the light receiving unit 15 via an optical system (an optical system for forming an image of the subject) built in the endoscope 12.
  • the reflected light from the subject includes at least light in the first wavelength band and light in the second wavelength band which is a wavelength band different from the first wavelength band.
  • the light receiving unit 15 that receives the reflected light from the subject and transmits the image signal includes the first spectroscopic element 31, the first image sensor 41, and the second image pickup, as shown in FIG.
  • the element 42 is provided. Based on the image signals detected by the first image pickup element 41 and the second image pickup element 42, inspection images such as a fluorescent blood vessel image 80, a fluorescent lymphatic vessel image 82, and a hemoglobin image, which will be described later, are generated.
  • the first spectroscopic element 31 is a spectroscopic element such as a dichroic filter, a dichroic mirror, a beam splitter, a half mirror, etc., which reflects light in a specific wavelength band or higher and transmits light in a wavelength band lower than that.
  • the first image sensor and the second image sensor are a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge-Coupled Device) sensor, and the like.
  • the combination of the first spectroscopic element 31 and the first image pickup element is referred to as a first channel
  • the combination of the first spectroscopic element 31 and the second image pickup element 42 is referred to as a second channel.
  • the first channel has the first sensing band.
  • the first sensing band is a wavelength band that does not overlap with the first wavelength band or overlaps with a half-value wavelength.
  • the second channel has a second sensing band.
  • the second sensing band is a wavelength band that does not overlap with the second wavelength band or overlaps with the half-value wavelength.
  • the half-value wavelength means a wavelength at which the sensitivity of the sensor is half of the peak value.
  • the first spectroscopic element 31 disperses the reflected light from the subject into light having a wavelength band of the first spectral band and light having a wavelength band of the second spectral band at a specific wavelength.
  • the light in the first spectral band is reflected by the first spectroscopic element 31, and the light in the second spectral band is transmitted.
  • the reflectance of the first spectroscopic element 31 increases above ( ⁇ X) nm and reaches its maximum at ( ⁇ + Y) nm.
  • the transmittance of the first spectroscopic element 31 decreases at ( ⁇ X) nm or more and becomes the minimum at ( ⁇ + Y) nm. That is, the first spectroscopic element 31 almost completely reflects the light having a wavelength longer than ( ⁇ + Y) nm, and the light having a wavelength band longer than ( ⁇ X) nm is set as the first spectroscopic band. Light in a wavelength band shorter than ⁇ + Y) nm is transmitted to form a second spectral band.
  • the values of ⁇ , X, and Y vary depending on the first spectroscopic element selected.
  • light in the second wavelength band (for example, fluorescence having a central wavelength of about 820 nm) is reflected by the first spectroscopic element and becomes light in the first spectroscopic band.
  • the values of X and Y vary depending on the first spectroscopic element selected.
  • the light in the first wavelength band (for example, the excitation light having a central wavelength of about 780 nm and the light for measuring the oxygen saturation) is transmitted to the first spectroscopic element and is transmitted to the second spectroscopic element. It becomes light in the spectral band.
  • the values of X and Y vary depending on the first spectroscopic element selected.
  • the light in the first spectral band reflected by the first spectral element 31 is incident on the first image pickup element 41.
  • the light in the first spectral band is imaged on the image pickup surface of the first image pickup device 41.
  • the light in the second spectral band transmitted by the first spectroscopic element 31 is incident on the second image pickup element 42.
  • the light in the second spectral band is imaged on the image pickup surface of the second image pickup device 42.
  • the first image sensor 41 has a first transmission band.
  • the first image sensor 41 is a monochrome image sensor provided with no color filter (Bayer filter or the like), and can recognize light in the wavelength band shown in FIG.
  • the second image sensor 42 has a second transmission band.
  • the second image sensor 42 is a color image sensor provided with a color filter (Bayer filter or the like).
  • the second transmission band is divided into a second A transmission band, a second B transmission band, and a second C transmission band, which are different from each other, as shown in FIG.
  • the second A transmission band corresponds to a blue wavelength band
  • the second B transmission band corresponds to a green wavelength band
  • the second C transmission band corresponds to a red wavelength band.
  • the first sensing band possessed by the first channel is the wavelength band of the portion where the first spectral band and the first transmission band overlap, and in FIG. 13, the first spectral band shown by a dotted line and the first one shown by a single point chain line are shown.
  • the solid line portion that overlaps with the transmission band corresponds to the first sensing band.
  • the first image sensor 41 converts the sensed light into a monochrome image signal.
  • the second sensing band possessed by the second channel is the wavelength band of the portion where the second spectral band and the second transmission band overlap, and in FIG. 14, the second spectral band shown by the dotted line, the second A transmission band, and the second transmission band are present.
  • the solid line portion where the 2B transmission band and the second C transmission band overlap corresponds to the second sensing band.
  • the second image sensor 42 converts the sensed light into a color image signal.
  • the color sensor used as the second image sensor 42 may convert the sensed light into a CMY signal instead of converting it into an RBG signal.
  • the light having a central wavelength of about 780 nm which is the wavelength band of the excitation light of the fluorescent substance and the wavelength band of the light required to obtain the hemoglobin image, is defined as the light of the first wavelength band.
  • the reflected light is light in the first wavelength band, which is light reflected from the living body and has a central wavelength of about 780 nm, and light in the second wavelength band, which is fluorescence from a fluorescent substance.
  • Light with a central wavelength of about 820 nm is included.
  • a special excitation light illumination or an oxygen saturation measurement illumination is used by causing the first image pickup element to detect the light in the first spectral band and the second image pickup element to detect the light in the second spectral band.
  • the first image pickup element to detect the light in the first spectral band
  • the second image pickup element to detect the light in the second spectral band.
  • the image signals transmitted from the first image sensor 41 and the second image sensor 42 are transmitted to the image processing unit 61 of the processor device 16.
  • the processor device 16 includes a control unit 59, an image processing unit 61, and a display control unit 66.
  • the functions of the image processing unit 61 and the display control unit 66 are realized by operating the program in the program memory by the control unit 59 composed of the image control processor. The functions of the image processing unit 61 and the display control unit 66 will be described later.
  • the signal converted from the light in the first sensing band into the image signal by the first image pickup element 41 is transmitted to the blood vessel distribution information acquisition unit 102 and / or the lymphatic vessel distribution information acquisition unit 104 in the image processing unit 61.
  • the blood vessel distribution information acquisition unit 102 generates a fluorescent blood vessel image 80 as shown in FIG. 16 based on the image signal received from the first image sensor 41.
  • the localization of indocyanine green is visualized as relatively thin blood vessels 111 such as arterioles, venules, and capillaries, and relatively thick blood vessels 112.
  • the blood vessel distribution information acquisition unit 102 obtains blood vessel distribution information from the generated fluorescent blood vessel image 80.
  • the lymphatic vessel distribution information acquisition unit 104 generates a fluorescent lymphatic vessel image 82 as shown in FIG. 17 based on the image signal received from the first image sensor 41.
  • the localization of indocyanine green is visualized as a relatively thin lymphatic vessel 113 and a relatively thick lymphatic vessel 114.
  • the lymphatic vessel distribution information acquisition unit 104 obtains lymphatic vessel distribution information from the generated fluorescent lymphatic vessel image 82.
  • FIGS. 16 and 17 exemplify images taken by enlarging a part of the stomach 100, which is the subject.
  • Whether to generate an image of either the fluorescent blood vessel image 80 or the fluorescent lymphatic vessel image 82, or both, is set by the user before or during the examination. This is because it is up to a user such as a doctor to decide whether to perform an imaging of blood vessels, an imaging of lymphatic vessels, or an imaging of blood vessels for a subject.
  • a user performs fluorescence imaging with a fluorescent substance
  • the fluorescent substance is administered to a vein or a lymph node.
  • fluoresceography of blood vessels is performed.
  • fluorescence imaging of the lymph vessels is performed.
  • the blood vessel or lymphatic vessel may be automatically determined from the distribution of the fluorescent substance obtained from the blood vessel image 80 or the fluorescent lymphatic vessel image 82.
  • the blood vessel distribution information is a characteristic amount of blood vessels obtained from the fluorescent blood vessel image 80.
  • the feature amount according to the fluorescent blood vessel image 80 is preferably classified by locating the observation target at at least one of the surface layer, the middle layer, and the deep layer.
  • the feature amount is preferably a value obtained from the shape of the observation target, the pixel density, and the like.
  • the items of the feature amount are, for example, the blood vessel density, the shape of the blood vessel, the number of branches of the blood vessel, the thickness of the blood vessel, the length of the blood vessel, the degree of tortuosity of the blood vessel, the depth of invasion of the blood vessel, and the degree of irregularity of the blood vessel.
  • the feature amount is preferably a value obtained by at least one of these or a combination of two or more of these.
  • the item of the feature amount is not limited to this, and may be added as appropriate depending on the usage situation.
  • the lymphatic vessel distribution information is a characteristic amount of lymphatic vessels obtained from the fluorescent lymphatic vessel image 82.
  • the feature amount is preferably a value obtained from the shape of the observation target, the pixel density, and the like.
  • the items of the characteristic amount are, for example, lymphatic vessel density, lymphatic vessel shape, number of lymphatic vessel branches, lymphatic vessel thickness, lymphatic vessel length, lymphatic vessel serpentine degree, lymphatic vessel depth, and lymphatic vessel.
  • the irregularity of the tube is preferably a value obtained by at least one of these or a combination of two or more of these.
  • the item of the feature amount is not limited to this, and may be added as appropriate depending on the usage situation.
  • the location where blood flow insufficiency is occurring the blood flow concentration, what kind of blood vessel and / or lymphatic vessel is, and how. It is possible to visualize whether the distribution is (normally or irregularly).
  • the fluorescent blood vessel image 80 acquired by the blood vessel distribution information acquisition unit 102 may be transmitted to the display control unit 66. It may be transmitted to the superimposed image generation unit 110 described later. Further, it may be transmitted to the blood vessel visualization StO2 information acquisition unit 108, which will be described later.
  • the fluorescent lymphatic vessel image 82 acquired by the lymphatic vessel distribution information acquisition unit 104 may be transmitted to the display control unit 66. It may be transmitted to the superimposed image generation unit 110 described later. Further, the lymphatic vessel distribution information may be transmitted to the superimposed image generation unit 110 together with the fluorescent lymphatic vessel image 82.
  • the oxygen saturation acquisition unit 90 will be described.
  • the signal converted from the light in the second sensing band into the image signal by the second image sensor 42 is transmitted to the oxygen saturation acquisition unit 90 in the image processing unit 61.
  • the hemoglobin image generation unit 91 provided in the oxygen saturation acquisition unit 90 shown in FIG. 18 generates a hemoglobin image based on the image signal received from the second image sensor 42, and the signal ratio calculation unit 92 displays the image.
  • Send information The information calculated by the signal ratio calculation unit 92 and the oxygen saturation calculation table 93 is transmitted to the oxygen saturation calculation unit 94 to obtain the oxygen saturation.
  • the oxygen saturation measurement image processing performed by the oxygen saturation acquisition unit 90 is a processing performed on an image signal obtained by emitting light including a wavelength band of the first wavelength band.
  • the image signal received from the second image pickup element may include a B image signal, a G image signal, and an R image signal based on light in the second A transmission band, the second B transmission band, and the second C transmission band.
  • the signal ratio calculation unit 92 may use, for example, a first signal ratio (B / G) representing the ratio between the B image signal and the G image signal, and a second signal ratio (B / G) representing the ratio between the R image signal and the G image signal.
  • the signal ratio calculation process is performed by calculating R / G), and the signal ratio calculation process result is transmitted to the oxygen saturation calculation unit 94.
  • the oxygen saturation calculation unit 94 calculates the oxygen saturation corresponding to the first signal ratio and the second signal ratio with reference to the signal ratio calculation processing result and the oxygen saturation calculation table 93.
  • the oxygen saturation calculation table 93 stores the correlation between the oxygen saturation and the first signal ratio and the second signal ratio. Specifically, as illustrated in FIG. 19, in a two-dimensional space centered on the first signal ratio (B / G) and the second signal ratio (R / G), the oxygen saturation contour line ELx, It is composed of a two-dimensional table in which EL1, EL2, EL3, ELy, etc. are defined.
  • the isoline ELx has an oxygen saturation of "0%”
  • the equivalence line EL1 has an oxygen saturation of "30%”
  • the equivalence line EL2 has an oxygen saturation of "50%”
  • the equivalence line EL3 has an oxygen saturation. Indicates that is "80%”.
  • the positions and shapes of the contour lines with respect to the first signal ratio (B / G) and the second signal ratio (R / G) are obtained in advance by physical simulation of light scattering. Further, it is preferable that the first signal ratio (B / G) and the second signal ratio (R / G) are log scales.
  • the oxygen saturation is transmitted to the StO2 distribution information acquisition unit 106.
  • the StO2 distribution information acquisition unit 106 acquires StO2 distribution information from the oxygen saturation calculated by the oxygen saturation acquisition unit 90.
  • Oxygen saturation is numerical information based on the distribution of oxidized hemoglobin and reduced hemoglobin. This is applied to the hemoglobin image, and which part of the hemoglobin image is low oxygen is mapped two-dimensionally to roughly map the blood vessels.
  • the visualization of the position is the StO2 distribution information.
  • the StO2 distribution information is transmitted to the blood vessel visualization StO2 information acquisition unit 108. Further, the StO2 distribution image 123 as shown in FIG. 20 in which the StO2 distribution information is superimposed on the hemoglobin image may be generated and transmitted to the display control unit 66.
  • the normal value region 120 in which the oxygen saturation is normal is normal
  • the display of the StO2 distribution information is not limited to this, and the oxygen saturation may be displayed numerically.
  • FIG. 20 illustrates an image taken by enlarging a part of the stomach 100, which is the subject.
  • FIG. 21 summarizes the functions of the oxygen saturation acquisition unit 90 and the StO2 distribution information acquisition unit 106.
  • the oxygen saturation acquisition unit 90 receives the image signal, it generates a hemoglobin image, acquires the oxygen saturation, and transmits it to the StO2 distribution information acquisition unit 106.
  • the StO2 distribution information acquisition unit 106 acquires StO2 distribution information.
  • the StO2 distribution information acquisition unit 106 may generate the StO2 distribution image 123 shown in FIG. Further, the StO2 distribution information may be transmitted to the blood vessel visualization StO2 information acquisition unit 108, which will be described later.
  • the normal light image 130 based on the reflected light obtained by irradiating the subject with normal light is transmitted to the superimposed image generation unit 110.
  • the superimposed image generation unit 110 generates an image as shown in FIGS. 22, 24, 26, 28, and 30 in which information described later is superimposed on a normal optical image 130.
  • the superimposed image generation unit 110 generates a blood vessel superimposed image 131 as shown in FIG. 22, in which blood vessel distribution information is superimposed on a normal optical image 130.
  • the shape, position, size, range, etc. of the blood vessel are visualized on the normal optical image 130.
  • FIG. 22 shows only the thick blood vessel 112.
  • a fluorescent blood vessel image 80 (see FIG. 16) is generated, and blood vessel distribution information is acquired. It is transmitted to the display control unit 66 or the superimposed image generation unit 110.
  • the blood vessel distribution information is usually superimposed on the optical image 130 to generate the blood vessel superimposed image 131 shown in FIG.
  • the superimposed image generation unit 110 generates a lymphatic vessel superimposed image 132 as shown in FIG. 24, in which the lymphatic vessel distribution information is superimposed on the normal optical image 130.
  • the lymphatic vessel superimposition image 132 the shape, position, size, range, etc. of the lymphatic vessels are visualized on the normal optical image 130.
  • FIG. 24 shows only the thick lymphatic vessels 114.
  • a fluorescent lymphatic vessel image 82 (see FIG. 17) is generated and lymphatic vessel distribution information is generated. It is acquired and transmitted to the display control unit 66 or the superimposed image generation unit 110.
  • the lymphatic vessel distribution information is usually superimposed on the optical image 130 to generate the lymphatic vessel superimposed image 132 shown in FIG. 24.
  • the superimposed image generation unit 110 may receive the blood vessel distribution information and the lymphatic vessel distribution information and generate the vessel superimposed image 133 shown in FIG. 26.
  • the flow of images and information is as shown in FIG. 27.
  • Vascular is a general term that combines blood vessels and lymph vessels.
  • the superimposed image generation unit 110 combines the normal optical image 130 with the blood vessel distribution information acquired by the blood vessel visualization StO2 information acquisition unit 108 and the StO2 distribution information to improve the accuracy of the blood vessel visualization StO2 information.
  • the blood vessel visualization StO2 image 134 as shown in FIG. 28.
  • the blood vessel visualization StO2 information acquisition unit 108 receives the StO2 distribution information from the StO2 distribution information acquisition unit 106 and the blood vessel distribution information from the blood vessel distribution information acquisition unit 102, and acquires the blood vessel visualization StO2 information.
  • the blood vessel visualization StO2 information is information that combines information obtained by visualizing the oxygen saturation obtained from the StO2 distribution information and blood vessel properties and three-dimensional distribution information obtained from the blood vessel distribution information, and is information on the position and malignancy of the tumor. , The accuracy of information necessary for determining the infiltration range and the like can be improved.
  • the blood vessel visualization StO2 information is transmitted to the superimposed image generation unit 110.
  • the blood vessel visualization StO2 information is visualized on the normal optical image 130.
  • StO2 distribution information and thick blood vessel 112 are shown, but the display method is not limited to this.
  • the predicted tumor position, malignancy, infiltration range, etc. may be indicated.
  • the blood vessel visualization StO2 information acquisition unit 108 receives the blood vessel distribution information and the StO2 distribution information, and acquires the blood vessel visualization StO2 information.
  • the blood vessel visualization StO2 information is transmitted to the superimposed image generation unit 110, and undergoes a process of generating the blood vessel visualization StO2 image 134 shown in FIG. 28.
  • the superimposed image generation unit 110 generates a vessel visualization StO2 image 135 as shown in FIG. 30, in which blood vessel visualization StO2 information and lymphatic vessel distribution information are superimposed on a normal optical image 130.
  • the vascular visualization StO2 image 135 information that combines blood vessel visualization StO2 information and lymphatic vessel distribution information is visualized on a normal optical image 130.
  • blood vessel visualization StO2 information, thick blood vessel 112, and thick lymphatic vessel 114 are shown, but the display method is not limited to this. Small blood vessels and thin lymphatic vessels may be displayed, and the thickness of the vessels to be displayed can be appropriately set.
  • the flow of images and information for generating the blood vessel visualization StO2 image 135 is as shown in FIG. 31.
  • the blood vessel superimposition image 131, the lymph vessel superimposition image 132, the blood vessel superimposition image 133, the blood vessel visualization StO2 image 134, and the blood vessel visualization StO2 image 135 generated by the superimposition image generation unit 110 are transmitted to the display control unit 66 and displayed on the display 18. The output is displayed.
  • the embodiment having the first spectroscopic element 31, the first image pickup element 41, and the second image pickup element 42 in the light receiving unit 15 has been described.
  • the light receiving unit 15 has a second spectroscopic element 201, a first optical element 202, a second optical element 203, a first image pickup element 41, and a second image pickup element 42 (FIG. See 32).
  • the combination of the first optical element 202 and the first image sensor 41 is referred to as a first channel
  • the combination of the second optical element 203 and the second image sensor 42 is referred to as a second channel.
  • the second spectroscopic element 201 is a spectroscopic element that splits one light having the same wavelength band into light having at least two or more same wavelength bands.
  • Examples of the second spectroscopic element 201 include a plate-type beam splitter, a cube-type beam splitter, and the like.
  • the first optical element 202 is an optical element that reflects or absorbs the light in the wavelength band of the first cut wavelength contained in the light dispersed by the second spectroscopic element 201 and transmits the light in the first dispersed band. It is preferable that the first cut wavelength includes the wavelength band of the first wavelength band completely or up to the half-value wavelength. Examples of the first optical element 202 include a long-pass filter, a band-pass filter, and the like. Further, these may be combined to form the first optical element 202.
  • the wavelength band to be the first cut wavelength can be arbitrarily determined, and the values of X and Y vary depending on the first spectroscopic element selected.
  • the first image sensor 41 is a monochrome image sensor having a first transmission band shown in FIG. 11, as in the first embodiment. Light in the first dispersion band is incident on the first image sensor 41.
  • the first sensing band which is the wavelength band of light sensed by the first image pickup element 41, is a wavelength band in which the first dispersion band and the first transmission band overlap.
  • the first sensing band is the same as that of the first embodiment, and is the band shown by the solid line in FIG. In the case of this embodiment, the alternate long and short dash line in FIG. 13 corresponds to the first transmission band, and the dotted line corresponds to the first dispersion band.
  • the second optical element 203 is an optical element that reflects or absorbs the light in the wavelength band of the second cut wavelength contained in the light dispersed by the second spectroscopic element 203 and transmits the light in the second dispersed band.
  • the second cut wavelength preferably includes the wavelength band of the second wavelength band completely or up to the half-value wavelength.
  • Examples of the second optical element 203 include a short pass filter, a band pass filter, and the like. Further, these may be combined to form the second optical element 203.
  • the wavelength band to be the second cut wavelength can be arbitrarily determined, and the values of X and Y vary depending on the first spectroscopic element selected.
  • the second image sensor 42 is a color image sensor having a second transmission band, as in the first embodiment.
  • the second spectroscopic element 201 disperses the light on the second image sensor 42, and the light that has passed through the second optical element 203 and has become the second dispersed band is incident on the second image sensor 42.
  • the second sensing band which is the wavelength band of light sensed by the second image pickup element 42, is a wavelength band in which the second dispersion band and the second transmission band overlap.
  • the second sensing band is the same as that of the first embodiment, and is the band shown by the solid line in FIG. In the case of this embodiment, the dotted line in FIG. 14 is the second distributed band.
  • the first image sensor 41 and the second image sensor 42 transmit an image signal from the sensed light to the image processing unit 61. Since the functions of the processor device 16 and the image processing unit 61 are the same as those of the first embodiment, the description thereof will be omitted.
  • the filters provided in the first channel and the second channel in the first embodiment and the second embodiment are both popular products or ready-made products.
  • the light receiving unit 15 in the third embodiment is a special arrangement in which the first filter 301 corresponding to the first channel and the second filter 302 corresponding to the second channel are alternately combined and arranged as shown in FIG. 35.
  • a sensor 300 is provided.
  • the first channel has the first sensing band shown by the solid line in FIG. 12 described above, and the second channel has the second sensing band shown by the solid line in FIG. 13 described above.
  • the first channel and the second channel transmit an image signal from the sensed light to the image processing unit 61. Since the functions of the processor device 16 and the image processing unit 61 are common to those of the first embodiment, they are omitted.
  • the present invention is not limited to this, and other medical devices may be used.
  • a rigid mirror or a flexible mirror may be used.
  • a part or all of the image processing unit 61 and / or the control unit 59 of the endoscope system 10 may be provided in a medical image processing device that communicates with, for example, the processor device 16 and cooperates with the endoscope system 10. can.
  • the endoscope system 10 can be provided in a diagnostic support device that acquires an image captured by the endoscope 12 directly from the endoscope system 10 or indirectly from PACS (Picture Archiving and Communication Systems). Further, the endoscope system 10 is used as a medical business support device connected to various inspection devices such as a first inspection device, a second inspection device, ..., Nth inspection device, including the endoscope system 10, and a medical business support device via a network. Of these, a part or all of the image processing unit 61 and / or the control unit 59 may be provided.
  • the hardware structure of the processing unit that executes various processes such as the control unit 59, the image processing unit 61, and the display control unit 66 is as shown below.
  • Various processors For various processors, the circuit configuration is changed after manufacturing CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, and may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the hardware structure of the storage unit is a storage device such as an HDD (hard disk drive) or SSD (solid state drive).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Signal Processing (AREA)
  • Immunology (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

複数の検査画像を取得可能とし、且つ、できる限りのコスト削減及び部品点数の抑制を実現した医療用装置及びその作動方法を提供する。 医療用装置は、被写体を照明し、被写体からの反射光を撮像する医療用装置において、第1波長帯域を含む照明光を発光する光源(20)と、第1感知帯域を感知する第1チャンネルを有する受光部(15)と、画像制御用プロセッサと、を備え、第1感知帯域は、第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域であり、画像制御用プロセッサは、第1チャンネルが感知する第1感知帯域に含まれる光に基づき、少なくとも1以上の検査画像を取得する。

Description

医療用装置及びその作動方法
 本発明は、複数種類の画像を取得する医療用装置及びその作動方法に関する。
 医療分野において、光源装置、内視鏡、及びプロセッサ装置を備える医療用装置が普及している。医療用装置、特に内視鏡の分野では、被写体を照明し、被写体からの反射光を撮像する。内視鏡システムでは、赤色光、緑色光、青色光を含む白色光で被写体を照明することにより、被写体を目視で観察するための画像を得る。
 また、血中又はリンパ中のリポ蛋白質と結合する蛍光物質であるインドシアニングリーン等の蛍光物質を血管又はリンパ節に投与した上で、蛍光物質の励起光を用いて被写体を照明し、蛍光物質が発する蛍光を撮像することで血管やリンパ管を可視化し、癌の浸潤範囲や血流不全を観察するための蛍光画像を得ることができる内視鏡が開発されてきている。
 さらに、照明光の波長帯域によって血中の酸化ヘモグロビンと還元ヘモグロビンの吸光係数が異なる性質を利用し、被写体を近紫外光で照明して撮像を行うことで被写体の酸素飽和度を示す画像(青色酸素飽和度画像)を得られる。また、被写体を近赤外光で照明して撮像を行うことにより、被写体の酸素飽和度を示す画像(赤色酸素飽和度画像)を得られる内視鏡も開発されてきている。
 特許文献1には、観察画像と赤色酸素飽和度画像との両方を取得するために、可視光、700nmのレーザー光、980nmのレーザー光をそれぞれ射出する半導体レーザーを設け、1の照射光として被写体に照射する内視鏡システムについて記載されている。また、被写体からの反射光から、観察画像を得るための帯域の光と、赤色酸素飽和度画像を得るための帯域の光(酸素飽和度用照明光)とに分離(分光)し、それぞれの光を異なる撮像素子に入射させて撮像する構成が記載されている。
特開2010-268838号公報
 医療分野においては、上記のように、励起光によって蛍光物質から発せられる蛍光に基づく蛍光画像と、酸素飽和度用照明光に基づく酸素飽和度画像(特許文献1参照)との両方を取得して、病変部などの診断に活用したいという要望がある。これら蛍光画像及び酸素飽和度画像のような複数の検査画像を取得可能とし、且つ、できる限りのコスト削減及び部品点数の抑制を実現した医療用装置が求められていた。
 本発明は、複数の検査画像を取得可能とし、且つ、できる限りのコスト削減及び部品点数の抑制を実現した医療用装置及びその作動方法を提供することを目的としている。
 本発明の医療用装置は、被写体を照明し、被写体からの反射光を撮像する医療用装置において、医療用装置は、第1波長帯域を含む照明光を発光する光源と、第1感知帯域を感知する第1チャンネルを有する受光部と、画像制御用プロセッサと、を備える。第1感知帯域は、第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域である。画像制御用プロセッサは、第1感知帯域に含まれる光に基づき、少なくとも1以上の検査画像を取得する。
 反射光は、第1波長帯域と、第1波長帯域とは異なる波長帯域である第2波長帯域と、を含み、受光部は、第1感知帯域とは異なる波長帯域である第2感知帯域を感知する第2チャンネルを具備し、第2感知帯域は、第2波長帯域とは重ならない、又は半値波長まで重なる波長帯域であることが好ましい。
 受光部は、反射光を、第1分光帯域と第1分光帯域と異なる第2分光帯域とに分光する第1分光素子、第1透過帯域を有する第1撮像素子、及び、第1透過帯域と異なる第2透過帯域を有する第2撮像素子を有し、第1感知帯域は、第1分光帯域と第1透過帯域とに基づく帯域であり、第2感知帯域は、第2分光帯域と第2透過帯域とに基づく帯域であることが好ましい。第2透過帯域は、互いに異なる第2A透過帯域、第2B透過帯域、及び第2C透過帯域を含むことが好ましい。
 第1波長帯域は、蛍光物質を励起させ、かつ、酸化ヘモグロビンと還元ヘモグロビンとの照明光への応答性の違いに基づいた酸素飽和度の算出に必要な波長帯域であり、第1感知帯域は、蛍光物質から発せられた蛍光の波長帯域を含む波長帯域であり、第2感知帯域は、酸素飽和度の算出に必要な波長帯域を含む波長帯域であることが好ましい。
 蛍光物質は第1波長帯域を含む光を受け、第2波長帯域の光である蛍光を発し、第1チャンネルは、蛍光を感知し、画像制御用プロセッサは、蛍光に基づく蛍光血管画像、蛍光に基づく蛍光リンパ管画像を検査画像として取得し、蛍光血管画像から血管分布情報を、蛍光リンパ管画像からリンパ管分布情報を取得することが好ましい。画像制御用プロセッサは、酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像を検査画像として取得し、ヘモグロビン画像から、酸素飽和度を算出し、酸素飽和度からStO2分布情報を算出することが好ましい。
 光源は、通常光を発光し、受光部は、通常光を被写体に照射して得た反射光を感知し、画像制御用プロセッサは、通常光に基づく通常光画像を取得し、血管分布情報を通常光画像に重畳した血管重畳画像、リンパ管分布情報を通常光画像に重畳したリンパ管重畳画像、血管分布情報及びリンパ管分布情報を通常光画像に重畳した脈管重畳画像のうち、少なくとも1つを生成することが好ましい。
 受光部は、酸素飽和度の算出に必要な波長帯域と蛍光の波長帯域を感知し、画像制御用プロセッサは、酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像と、蛍光に基づく蛍光血管画像を検査画像として取得し、ヘモグロビン画像から、酸素飽和度を算出し、酸素飽和度からStO2分布情報を取得し、蛍光血管画像から血管分布情報を取得し、血管分布情報と、StO2分布情報とから、血管可視化StO2情報を取得することが好ましい。光源は、通常光を発光し、受光部は、通常光を被写体に照射して得た反射光を感知し、画像制御用プロセッサは、通常光に基づく通常光画像を取得し、血管可視化StO2情報を通常光画像に重畳し、血管可視化StO2画像を生成することが好ましい。
 光源は、蛍光物質を励起させ、かつ、酸素飽和度の算出に必要な波長帯域の光と、通常光を発光し、画像制御用プロセッサは、蛍光に基づく蛍光血管画像、蛍光に基づく蛍光リンパ管画像、酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像と、通常光に基づく通常光画像とを検査画像として取得し、ヘモグロビン画像から、酸素飽和度を算出し、酸素飽和度からStO2分布情報を取得し、蛍光血管画像から血管分布情報を、蛍光リンパ管画像からリンパ管分布情報を取得し、血管分布情報と、酸素飽和度とから、血管可視化StO2情報を取得し、血管可視化StO2情報と、リンパ管分布情報とを、通常光画像に重畳し、脈管可視化StO2画像を生成することが好ましい。
 受光部は、反射光を、同一の波長帯域を有する少なくとも2以上の光に分光する第2分光素子、第2分光素子が分光した光に含まれる第1カット波長をカットして第1分散帯域とする第1光学素子、第1透過帯域を有する第1撮像素子、第2分光素子が分光した光に含まれる第1カット波長とは異なる波長帯域である第2カット波長をカットして第1分散帯域とは異なる第2分散帯域とする第2光学素子、及び、第2透過帯域を有する第2撮像素子とを有し、第1感知帯域は、第1分散帯域と第1透過帯域とに基づく帯域であり、第2感知帯域は、第2分散帯域と第2透過帯域とに基づく帯域であることが好ましい。受光部は、第1チャンネルに対応する第1フィルタと、第2チャンネルに対応する第2フィルタとが設けられた1つのセンサを具備することが好ましい。
 本発明の医療用装置の作動方法は、被写体を照明し、被写体からの反射光を撮像する医療用装置の作動方法において、光源は、第1波長帯域を含む照明光を発光する。受光部は、第1感知帯域を感知する第1チャンネルを有する。画像制御用プロセッサと、前記第1チャンネルが感知する第1感知帯域に含まれる光に基づき、少なくとも1以上の検査画像を取得する。第1感知帯域は、第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域である。
 本発明の医療用装置及びその作動方法によれば、複数の検査画像を取得可能とし、且つ、できる限りのコスト削減及び部品点数の抑制を実現した医療用装置を提供することができる。
内視鏡システムの構成図である。 第1波長帯域のスペクトルを示すグラフである。 ICGの励起光及び蛍光のスペクトルを示すグラフである。 第2波長帯域のスペクトルを示すグラフである。 ヘモグロビンの吸光係数を示すグラフである。 第1実施形態における受光部の構成図である。 第1分光素子の特性を示すグラフである。 第1分光素子の特性を示すグラフである。 第1分光帯域の例を示すグラフである。 第2分光帯域の例を示すグラフである。 第1透過帯域を示すグラフである。 第2A透過帯域、第2B透過帯域、及び第2C透過帯域を示すグラフである。 第1感知帯域を示すグラフである。 第2感知帯域を示すグラフである。 画像処理部の機能を示すブロック図である。 蛍光血管画像を示す画像図である。 蛍光リンパ管画像を示す画像図である。 酸素飽和度取得部とStO2分布情報取得部について示すブロック図である。 酸素飽和度算出用グラフである。 StO2分布画像を示す画像図である。 ヘモグロビン画像、酸素飽和度、StO2分布情報、StO2分布画像の関係について示す説明図である。 血管重畳画像を示す画像図である。 蛍光血管画像、血管分布情報、血管重畳画像の関係について示す説明図である。 リンパ管重畳画像を示す画像図である。 蛍光リンパ管画像、リンパ管分布情報、リンパ管重畳画像の関係について示す説明図である。 脈管重畳画像を示す画像図である。 血管分布情報、リンパ管分布情報、脈管重畳画像の関係について示す説明図である。 血管可視化StO2画像を示す画像図である。 血管分布情報、StO2分布情報、血管可視化StO2情報、血管可視化StO2画像の関係について示す説明図である。 脈管可視化StO2画像を示す画像図である。 血管分布情報、StO2分布情報、血管可視化StO2情報、リンパ管分布情報、脈管可視化StO2画像の関係について示す説明図である。 第2実施形態における受光部の構成図である。 第1分散帯域を示すグラフである。 第2分散帯域を示すグラフである。 第3実施形態における受光部の構成図である。 第3実施形態におけるセンサの構成図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、受光部15と、プロセッサ装置16と、ディスプレイ18と、コンソール19と、を備える。
 内視鏡12は、被検体内に挿入される。内視鏡12の内部には、被写体像を結像するための光学系、及び、被写体に照明光を照射するための光学系が設けられている。光源装置14は、照明光を発生する。受光部15は、被写体の撮像を行う。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。ディスプレイ18は、内視鏡12で撮像した画像を表示する表示部である。コンソール19は、プロセッサ装置16等への設定入力等を行う入力デバイスである。
 光源装置14は、照明光を発光する光源部20と、光源部20の動作を制御する光源制御部22と、を備える。
 光源部20は、被写体を照明する照明光、又は、照明光を発光するために使用する励起光等を発光する。光源部20は、例えば、レーザーダイオード、LED(Light Emitting Diode)、キセノンランプ、又は、ハロゲンランプの光源を含み、少なくとも、白色の照明光(通常光)、第1波長帯域、又は第2波長帯域の光を発光する。白色には、内視鏡12を用いた被写体の撮像において実質的に白色と同等な、いわゆる擬似白色を含む。
 また、光源部20は、必要に応じて、照明光又は励起光の波長帯域、スペクトル、又は光量等を調節する光学フィルタ等を含む。
 本実施形態において、光源部20は、第1波長帯域を含む照明光を発する。第1波長帯域は、例えば、図2に示すような中心波長約780nmの近赤外光である。第1波長帯域は、蛍光物質を励起させる励起光の波長帯域である。
 蛍光物質は、図3に示すように、励起光を受けて蛍光を発する。蛍光物質とは、例えば、インドシアニングリーンが挙げられる。インドシアニングリーンは第1波長帯域の光である励起光を受け、図4に例示するように、第1波長帯域とは中心波長が異なる第2波長帯域の波長を含む光である蛍光を発する。
 さらに、第1波長帯域は、被写体が含むヘモグロビンの分布を示す画像(ヘモグロビン画像)の生成に必要な光の波長でもある。図5に示すように、中心波長約780nmは、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長である。この中心波長約780nmの光を含む照明光を照射して被写体の撮像を行い、被写体が含む酸化ヘモグロビンと還元ヘモグロビンとの吸光係数の差によって組織血液酸素飽和度(Tissue Oxygen Saturation; StO2)を算出する。以下、組織血液酸素飽和度のことを、「StO2」又は単に「酸素飽和度」と記載する。
 すなわち、本発明においては、ある特定の波長帯域(第1波長帯域)を含む照射光が、蛍光物質の励起光として、さらに、酸素飽和度を測定するための光として機能する。
 光源制御部22は、光源部20を構成する各光源の点灯又は消灯、及び、発光量等を制御する。光源部20が発光した照明光は、ライトガイド24を介して内視鏡12に入射し、内視鏡12に内蔵された光学系(被写体に照明光を照射するための光学系)を介して内視鏡12の先端に導光され、内視鏡12の先端から被写体に向けて出射される。この後、照明光は被写体に照射され、被写体からの反射光が内視鏡12に内蔵された光学系(被写体像を結像するための光学系)を介して受光部15に案内される。
 被写体からの反射光には、少なくとも第1波長帯域の光と、第1波長帯域とは異なる波長帯域である第2波長帯域の光とが含まれる。
 被写体からの反射光を受光し、画像信号を送信する受光部15は、第1実施形態においては、図6に示すように、第1分光素子31と、第1撮像素子41と、第2撮像素子42と、を備える。第1撮像素子41や第2撮像素子42が検知した画像信号に基づいて、後述する蛍光血管画像80、蛍光リンパ管画像82、ヘモグロビン画像といった検査画像が生成される。
 第1分光素子31は、ダイクロイックフィルタ、ダイクロイックミラー、ビームスプリッタ、ハーフミラー等の、ある特定の波長帯域以上の光を反射し、それ未満の波長帯域の光を透過する分光素子である。第1撮像素子及び第2撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge-Coupled Device)センサ等である。
 ここで、第1分光素子31と第1撮像素子との組み合わせを第1チャンネル、第1分光素子31と第2撮像素子42との組み合わせを第2チャンネルという。
 第1チャンネルは第1感知帯域を有する。第1感知帯域は、第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域である。また、第2チャンネルは第2感知帯域を有する。第2感知帯域は、第2波長帯域とは重ならない、又は半値波長まで重なる波長帯域である。なお、半値波長とは、センサの感度がピーク値の半分となる波長のことを示す。
 第1分光素子31は、被写体からの反射光を、特定の波長において第1分光帯域の波長帯域である光と、第2分光帯域の波長帯域である光に分光する。第1分光帯域の光は第1分光素子31に反射され、第2分光帯域の光は透過される。
 具体的には、図7に示すように、第1分光素子31の反射率は、(λ-X)nm以上で上昇し、(λ+Y)nmで最大となる。一方、図8に示すように、第1分光素子31の透過率は、(λ-X)nm以上で低下し、(λ+Y)nmで最小となる。すなわち、第1分光素子31は、(λ+Y)nmより長い波長の光をほぼ完全に反射し、(λ-X)nmより長い波長帯域の光を第1分光帯域とするものであって、(λ+Y)nmより短い波長帯域の光を透過して第2分光帯域とするものである。なお、λ、X、Yの値は、選択する第1分光素子によって様々である。
 具体的な数値を挙げると、図9に示すように、第2波長帯域の光(例えば、中心波長約820nmの蛍光)は、第1分光素子に反射され、第1分光帯域の光となる。波長帯域の数値的な具体例としては、図9で示すように、λ=(780-X)nmで反射率が上昇し、λ=(780+Y)nmで最大となり、第1分光帯域の光となる。X及びYの値は、選択する第1分光素子によって様々である。
 一方、図10に示すように、第1波長帯域の光(例えば、中心波長約780nmの励起光であり、酸素飽和度を測定するための光)は、第1分光素子に透過され、第2分光帯域の光となる。波長帯域の数値的な具体例としては、図10で示すように、λ=(780-X)nmで透過率が低下し、λ=(780+X)nmで最小となり、第2分光帯域の光となる。X及びYの値は、選択する第1分光素子によって様々である。
 第1分光素子31により反射された第1分光帯域の光は、第1撮像素子41に入射する。第1分光帯域の光は、第1撮像素子41の撮像面に結像される。一方、第1分光素子31により透過された第2分光帯域の光は、第2撮像素子42に入射する。第2分光帯域の光は、第2撮像素子42の撮像面に結像される。
 第1撮像素子41は、第1透過帯域を有する。具体的には、第1撮像素子41は、カラーフィルタ(ベイヤーフィルタ等)が設けられていないモノクロ撮像センサであり、図11に示す波長帯域の光を認識できる。
 第2撮像素子42は、第2透過帯域を有する。具体的には、第2撮像素子42は、カラーフィルタ(ベイヤーフィルタ等)が設けられたカラー撮像センサである。第2透過帯域は、図12に示すような、互いに異なる第2A透過帯域、第2B透過帯域、及び第2C透過帯域に分けられる。例えば、第2A透過帯域は青色の波長帯域、第2B透過帯域は緑色の波長帯域、第2C透過帯域は赤色の波長帯域に相当する。
 第1チャンネルが有する第1感知帯域は、第1分光帯域と第1透過帯域とが重なった部分の波長帯域であり、図13では、点線で示す第1分光帯域と、一点鎖線で示す第1透過帯域とが重なった実線部分が第1感知帯域に相当する。第1撮像素子41は、感知した光をモノクロの画像信号に変換する。
 第2チャンネルが有する第2感知帯域は、第2分光帯域と第2透過帯域とが重なった部分の波長帯域であり、図14では、点線で示す第2分光帯域と、第2A透過帯域、第2B透過帯域、及び第2C透過帯域が重なった実線部分が第2感知帯域に相当する。第2撮像素子42は、感知した光をカラーの画像信号に変換する。なお、第2撮像素子42として用いるカラーセンサは、感知した光をRBG信号にするものでなく、CMY信号に変換するものとしてもよい。
 本実施形態においては、蛍光物質の励起光の波長帯域、かつ、ヘモグロビン画像を得るために必要な光の波長帯域である中心波長約780nmの光である光を、第1波長帯域の光とし、照射光として用いる。この場合、反射光としては、第1波長帯域の光であって、生体からの反射光である中心波長約780nmの光と、第2波長帯域の光であって、蛍光物質からの蛍光である中心波長約820nmの光が含まれる。
 上記構成によって、第1分光帯域の光を第1撮像素子に、第2分光帯域の光を第2撮像素子に感知させることで、特別な励起光照明又は酸素飽和度測定用照明を使用することなく、特定の1の波長帯域の光をもってワンストップで蛍光画像とヘモグロビン画像を得ることができる。
 第1撮像素子41及び第2撮像素子42から送信される画像信号は、プロセッサ装置16の画像処理部61に送信される。プロセッサ装置16は、制御部59、画像処理部61、表示制御部66からなる。プロセッサ装置16においては、画像制御用プロセッサで構成される制御部59により、プログラム用メモリ内のプログラムが動作することで、画像処理部61及び表示制御部66の機能が実現される。画像処理部61及び表示制御部66の機能は後述する。
 以下、図15を参照しながら、画像処理部61の機能について説明する。
 第1撮像素子41によって第1感知帯域の光から画像信号へ変換された信号は、画像処理部61内の血管分布情報取得部102及び/又はリンパ管分布情報取得部104に送信される。血管分布情報取得部102は、第1撮像素子41から受信した画像信号をもとに、図16のような蛍光血管画像80を生成する。蛍光血管画像80では、インドシアニングリーンの局在が細動脈、細静脈、毛細血管のような比較的細い血管111や、比較的太い血管112として可視化される。血管分布情報取得部102は、生成した蛍光血管画像80から血管分布情報を得る。
 リンパ管分布情報取得部104は、第1撮像素子41から受信した画像信号をもとに図17のような蛍光リンパ管画像82を生成する。蛍光リンパ管画像82では、インドシアニングリーンの局在が比較的細いリンパ管113や、比較的太いリンパ管114として可視化される。リンパ管分布情報取得部104は、生成した蛍光リンパ管画像82からリンパ管分布情報を得る。なお、図16及び図17は、被写体である胃100の一部を拡大して撮像した画像を例示している。
 蛍光血管画像80又は蛍光リンパ管画像82のいずれか、又は両方の画像を生成するかは、検査前又は検査中にユーザーによって設定される。被検者に対して血管の造影を行うか、リンパ管の造影を行うか、又は、血管の造影を行うかは医師等のユーザーが決定することであるからである。ユーザーが蛍光物質を用いた蛍光造影を行う際、蛍光物質は、静脈又はリンパ節に投与される。被検者の静脈内に蛍光物質が投与された場合、血管の蛍光造影が行われる。一方、被検者のリンパ節に蛍光物質が投与された場合、リンパ管の蛍光造影が行われる。なお、上記の第1撮像素子41が変換した画像信号の送信先を血管分布情報取得部102及び/又はリンパ管分布情報取得部104にするかの設定は行わず、画像処理部61が、蛍光血管画像80又は蛍光リンパ管画像82から得られた蛍光物質の分布等から自動的に血管又はリンパ管の判断を行ってもよい。
 血管分布情報とは、蛍光血管画像80から得られる血管の特徴量である。蛍光血管画像80に係る特徴量は、観察対象が表層、中層、深層の少なくともいずれか1つに位置することによって分類されることが好ましい。特徴量とは、観察対象の形状や画素密度等から得られる値であることが好ましい。特徴量の項目としては、例えば、血管密度、血管の形状、血管の分岐数、血管の太さ、血管の長さ、血管の蛇行度、血管の深達度、血管の不整度である。特徴量はこれらの少なくともいずれか1つ、もしくは、これらの2以上を組み合わせた値であることが好ましい。なお、特徴量の項目については、この限りではなく、使用状況に応じて適宜追加されてもよい。
 リンパ管分布情報とは、蛍光リンパ管画像82から得られるリンパ管の特徴量である。特徴量とは、観察対象の形状や画素密度等から得られる値であることが好ましい。特徴量の項目としては、例えば、リンパ管密度、リンパ管の形状、リンパ管の分岐数、リンパ管の太さ、リンパ管の長さ、リンパ管の蛇行度、リンパ管の深達度、リンパ管の不整度である。特徴量はこれらの少なくともいずれか1つ、もしくは、これらの2以上を組み合わせた値であることが好ましい。なお、特徴量の項目については、この限りではなく、使用状況に応じて適宜追加されてもよい。
 上記構成により、血管分布情報及び/又はリンパ管分布情報から、血流不全が起きている箇所、血流濃度、どのような性状(太さ・深さ)の血管及び/又はリンパ管がどのように(正常に・不整に)分布しているかを可視化することができる。
 血管分布情報取得部102で取得した蛍光血管画像80は表示制御部66に送信してもよい。後述する重畳画像生成部110に送信してもよい。また、後述する血管可視化StO2情報取得部108に送信してもよい。
 リンパ管分布情報取得部104で取得した蛍光リンパ管画像82は表示制御部66に送信してもよい。後述する重畳画像生成部110に送信してもよい。また、蛍光リンパ管画像82と併せて、リンパ管分布情報を重畳画像生成部110に送信してもよい。
 以下、酸素飽和度取得部90について説明する。
 第2撮像素子42によって第2感知帯域の光から画像信号へ変換された信号は、画像処理部61内の酸素飽和度取得部90に送信される。図18に示す、酸素飽和度取得部90に設けられたヘモグロビン画像生成部91は、第2撮像素子42から受信した画像信号をもとに、ヘモグロビン画像を生成し、信号比算出部92に画像情報を送信する。信号比算出部92において算出された結果と、酸素飽和度算出用テーブル93との情報を酸素飽和度算出部94に送信し、酸素飽和度を得る。
 酸素飽和度取得部90で行われる酸素飽和度測定用画像処理は、第1波長帯域の波長帯域を含む光を発光して得られた画像信号に対して施す処理である。第2撮像素子から受信する画像信号は、第2A透過帯域、第2B透過帯域、及び第2C透過帯域の光に基づくB画像信号、G画像信号、R画像信号が含まれてよい。信号比算出部92は、例えば、B画像信号とG画像信号との比を表す第1信号比(B/G)、及び、R画像信号とG画像信号との比を表す第2信号比(R/G)を算出することで信号比算出処理を行い、信号比算出処理結果を酸素飽和度算出部94に送信する。酸素飽和度算出部94は、信号比算出処理結果と、酸素飽和度算出用テーブル93を参照して、第1信号比及び第2信号比に対応する酸素飽和度を算出する。
 酸素飽和度算出用テーブル93は、酸素飽和度と第1信号比及び第2信号比との相関関係が記憶されている。具体的には、図19に例示するように、第1信号比(B/G)と第2信号比(R/G)を軸とする2次元空間に、酸素飽和度の等値線ELx、EL1、EL2、EL3、ELyなどを定義した2次元テーブルで構成する。等値線ELxは酸素飽和度が「0%」、等値線EL1は酸素飽和度が「30%」、等値線EL2は酸素飽和度が「50%」、等値線EL3は酸素飽和度が「80%」であることを表している。なお、第1信号比(B/G)と第2信号比(R/G)に対する等値線の位置及び形状は、光散乱の物理的なシミュレーションによって予め得られる。また、第1信号比(B/G)と第2信号比(R/G)はlogスケールであることが好ましい。酸素飽和度は、StO2分布情報取得部106に送信される。
 StO2分布情報取得部106は、酸素飽和度取得部90で算出された酸素飽和度から、StO2分布情報を取得する。酸素飽和度は酸化ヘモグロビンと還元ヘモグロビンの分布を基にした数値情報であり、これをヘモグロビン画像に当てはめ、ヘモグロビン画像においてどの部分が低酸素であるかを2次元的にマッピングし、血管の大凡の位置を可視化したものがStO2分布情報である。StO2分布情報は、血管可視化StO2情報取得部108に送信される。また、ヘモグロビン画像にStO2分布情報を重畳した、図20に示すようなStO2分布画像123を生成し、表示制御部66に送信してもよい。
 図20に示すStO2分布画像123からは、酸素飽和度が正常である正常値領域120と、酸素飽和度が高い領域である高酸素領域121と、酸素飽和度が低い領域である低酸素領域122とが、色を分けて可視化される。StO2分布情報の表示はこれに限られず、酸素飽和度を数値等で表示してもよい。なお、図20は、被写体である胃100の一部を拡大して撮像した画像を例示している。
 酸素飽和度取得部90とStO2分布情報取得部106の機能について図21にまとめて示す。酸素飽和度取得部90が画像信号を受信すると、ヘモグロビン画像を生成し、酸素飽和度を取得してStO2分布情報取得部106に送信する。StO2分布情報取得部106は、StO2分布情報を取得する。StO2分布情報取得部106は、図20に示すStO2分布画像123を生成してもよい。また、StO2分布情報は、後述する血管可視化StO2情報取得部108に送信してもよい。
 以下、重畳画像生成部110について説明する。
 通常光を被写体に照射して得た反射光に基づく通常光画像130は、重畳画像生成部110に送信される。重畳画像生成部110は、通常光画像130に後述する情報を重畳した、図22、図24、図26、図28、図30に示すような画像を生成する。
 重畳画像生成部110は、通常光画像130に血管分布情報を重畳した、図22に示すような血管重畳画像131を生成する。血管重畳画像131では、通常光画像130上で血管の形状、位置、大きさ、範囲等が可視化される。図22では簡単のため、太い血管112のみを示す。画像と情報の流れとしては、図23に示すように、血管分布情報取得部102が画像信号を受信すると、蛍光血管画像80(図16参照)が生成されるとともに、血管分布情報が取得され、表示制御部66又は重畳画像生成部110に送信される。血管分布情報は通常光画像130に重畳されて、図22に示す血管重畳画像131が生成される。
 さらに、重畳画像生成部110は、通常光画像130にリンパ管分布情報を重畳した、図24に示すようなリンパ管重畳画像132を生成する。リンパ管重畳画像132では、通常光画像130上でリンパ管の形状、位置、大きさ、範囲等が可視化される。図24では簡単のため、太いリンパ管114のみを示す。画像と情報の流れとしては、図25に示すように、リンパ管分布情報取得部104が画像信号を受信すると、蛍光リンパ管画像82(図17参照)が生成されるとともに、リンパ管分布情報が取得され、表示制御部66又は重畳画像生成部110に送信される。リンパ管分布情報は通常光画像130に重畳されて、図24に示すリンパ管重畳画像132が生成される。
 また、重畳画像生成部110は、血管分布情報と、リンパ管分布情報とを受信し、図26に示す脈管重畳画像133を生成してもよい。画像と情報の流れとしては、図27に示す通りである。脈管とは、血管とリンパ管を合わせた総称のことである。
 さらに、重畳画像生成部110は、通常光画像130に、血管可視化StO2情報取得部108が取得した、血管分布情報と、StO2分布情報とを組み合わせて血管に関する情報を高精度化した血管可視化StO2情報を重畳し、図28に示すような血管可視化StO2画像134を生成する。
 血管可視化StO2情報取得部108は、StO2分布情報取得部106からStO2分布情報を、血管分布情報取得部102から血管分布情報を受信し、血管可視化StO2情報を取得する。血管可視化StO2情報は、StO2分布情報から得られる酸素飽和度を可視化した情報と、血管分布情報から得られる血管の性状と立体的な分布情報とを組み合わせた情報であり、腫瘍の位置、悪性度、浸潤範囲等を判断するために必要な情報の精度を向上させることができる。血管可視化StO2情報は、重畳画像生成部110に送信される。
 重畳画像生成部110が生成する血管可視化StO2画像134では、通常光画像130上で血管可視化StO2情報が可視化される。例えば、図28に例示するように、StO2分布情報と、太い血管112が示されるが、表示方法はこれに限られない。例えば、予想された腫瘍の位置、悪性度、浸潤範囲等を示してもよい。画像と情報の流れとしては、図29に示すように、血管可視化StO2情報取得部108が、血管分布情報と、StO2分布情報とを受信し、血管可視化StO2情報を取得する。血管可視化StO2情報は、重畳画像生成部110に送信され、図28に示す血管可視化StO2画像134を生成するという過程を経る。
 また、重畳画像生成部110は、通常光画像130に血管可視化StO2情報、及び、リンパ管分布情報を重畳した、図30に示すような脈管可視化StO2画像135を生成する。脈管可視化StO2画像135では、通常光画像130上で血管可視化StO2情報と、リンパ管分布情報を組み合わせた情報が可視化される。例えば、図30に例示するように、血管可視化StO2情報と、太い血管112、太いリンパ管114が示されるが、表示方法はこれに限られない。細い血管や細いリンパ管を表示してもよく、どの程度の太さの脈管を表示するかは適宜設定可能である。脈管可視化StO2画像135を生成するための画像と情報の流れとしては、図31に示す通りである。
 重畳画像生成部110が生成した血管重畳画像131、リンパ管重畳画像132、脈管重畳画像133、血管可視化StO2画像134、脈管可視化StO2画像135は、表示制御部66に送信され、ディスプレイ18に出力表示される。
 [第2実施形態]
 上記第1実施形態では、受光部15において第1分光素子31、第1撮像素子41、第2撮像素子42を有する実施形態について説明した。これに対し、第2実施形態においては、受光部15は、第2分光素子201、第1光学素子202、第2光学素子203、第1撮像素子41、及び第2撮像素子42を有する(図32を参照)。
 本実施形態では、第1光学素子202及び第1撮像素子41の組み合わせを第1チャンネル、第2光学素子203及び第2撮像素子42との組み合わせを第2チャンネルという。
 第2分光素子201は、同一の波長帯域を有する1の光を、少なくとも2以上の同一の波長帯域を有する光に分光する分光素子である。第2分光素子201の例としては、プレート型ビームスプリッタ、キューブ型ビームスプリッタ等が挙げられる。
 第1光学素子202は、第2分光素子201が分光した光に含まれる第1カット波長の波長帯域の光を反射又は吸収し、第1分散帯域の光を透過する光学素子である。第1カット波長には、第1波長帯域の波長帯域が完全に、又は半値波長まで含まれることが好ましい。第1光学素子202の例としては、ロングパスフィルタ、バンドパスフィルタ等が挙げられる。また、これらを組み合わせて第1光学素子202としてもよい。
 具体的には、第1光学素子202は、例えば、図33に示すように、第1カット波長であるλ=(780-X)nm未満の光を反射又は吸収する。第1光学素子202の透過率は、λ=(780-X)nm以上の波長帯域で上昇し、λ=(780+Y)nmで最大となる。すなわち、第1分散帯域は、λ=(780-X)nm未満の光が除かれた、λ=(780-X)nm以上の波長帯域である。第1カット波長とする波長帯域は任意に決定でき、また、X及びYの値は、選択する第1分光素子によって様々である。
 第1撮像素子41は、第1実施形態と同様に、図11に示す第1透過帯域を有するモノクロ撮像センサである。第1撮像素子41には、第1分散帯域の光が入射する。第1撮像素子41が感知する光の波長帯域である第1感知帯域は、第1分散帯域と第1透過帯域とが重なった範囲の波長帯域である。第1感知帯域は、具体的には、第1実施形態と同様であり、図13において実線で示す帯域である。本実施形態の場合、図13の一点鎖線は第1透過帯域、点線は第1分散帯域に相当する。
 第2光学素子203は、第2分光素子203が分光した光に含まれる第2カット波長の波長帯域の光を反射又は吸収し、第2分散帯域の光を透過する光学素子である。第2カット波長には、第2波長帯域の波長帯域が完全に、又は半値波長まで含まれることが好ましい。第2光学素子203の例としては、ショートパスフィルタ、バンドパスフィルタ等が挙げられる。また、これらを組み合わせて第2光学素子203としてもよい。
 具体的には、第2光学素子203は、例えば、図34に示すように、第2カット波長であるλ=(780+Y)nm以上の光を反射又は吸収する。第2光学素子203の透過率は、λ=(780-X)nm以上で低下し、λ=(780+Y)nmで最小となる。第2分散帯域の光となる。すなわち、第2分散帯域は、λ=(780+Y)nm以上の光が除かれた、λ=(780-X)nm未満の波長帯域である。第2カット波長とする波長帯域は任意に決定でき、また、X及びYの値は、選択する第1分光素子によって様々である。
 第2撮像素子42は、第1実施形態と同様に、第2透過帯域を有するカラー撮像センサである。第2撮像素子42には、第2分光素子201が分光し、第2光学素子203を透過して第2分散帯域となった光が入射する。第2撮像素子42が感知する光の波長帯域である第2感知帯域は、第2分散帯域と、第2透過帯域とが重なった範囲の波長帯域である。第2感知帯域は、具体的には、第1実施形態と同様であり、図14において実線で示す帯域である。本実施形態の場合、図14の点線は第2分散帯域である。
 第1撮像素子41及び第2撮像素子42は、感知した光から画像信号を画像処理部61に送信する。なお、プロセッサ装置16や画像処理部61の機能に関しては第1実施形態と共通するため、説明を省略する。
 [第3実施形態]
 上記第2実施形態では、受光部15において第1分光素子、第1光学素子、第2光学素子、第1撮像素子、第2撮像素子を有する実施形態について説明した。これに対し、第3実施形態は、図36に示すように、受光部15において、第1チャンネルに対応する第1フィルタと、第2チャンネルに対応する第2フィルタとが1つのセンサに具備される。
 上記第1実施形態及び第2実施形態において第1チャンネル及び第2チャンネルに具備されたフィルタはいずれも普及品又は既製品である。第3実施形態における受光部15は、図35に示すような、第1チャンネルに対応する第1フィルタ301と、第2チャンネルに対応する第2フィルタ302とを交互に組み合わせて配列した、特別なセンサ300を具備する。
 第1チャンネルは前述の図12の実線で示す第1感知帯域を有し、第2チャンネルは前述の図13の実線で示す第2感知帯域を有する。第1チャンネル及び第2チャンネルは、感知した光から画像信号を画像処理部61に送信する。なお、プロセッサ装置16や画像処理部61の機能に関しては第1実施形態と共通するため、省略する。
 また、第1、第2、第3実施形態では、画像処理部61及び制御部59が内視鏡12と接続されている例を説明したが、内視鏡システム10に設けられている例で説明をしたが、本発明はこれに限定されず、他の医療用装置を用いてもよい。この内視鏡12は、硬性鏡又は軟性鏡が用いられてよい。また、内視鏡システム10のうち画像処理部61及び/又は制御部59の一部又は全部は、例えばプロセッサ装置16と通信して内視鏡システム10と連携する医療画像処理装置に設けることができる。例えば、内視鏡システム10から直接的に、又は、PACS(Picture Archiving and Communication Systems)から間接的に、内視鏡12で撮像した画像を取得する診断支援装置に設けることができる。また、内視鏡システム10を含む、第1検査装置、第2検査装置、…、第N検査装置等の各種検査装置と、ネットワークを介して接続する医療業務支援装置に、内視鏡システム10のうち画像処理部61及び/又は制御部59の一部又は全部を設けることができる。
 第1、第2、第3実施形態において、制御部59、画像処理部61、表示制御部66といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) 等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよく、同種又は異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
 10 医療用装置
 12 内視鏡
 14 光源装置
 15 受光部
 16 プロセッサ装置
 18 ディスプレイ
 19 コンソール
 20 光源部
 22 光源制御部
 24 ライドガイド
 31 第1分光素子
 41 第1撮像素子
 42 第2撮像素子
 59 制御部
 61 画像処理部
 66 表示制御部
 90 酸素飽和度取得部
 80 蛍光血管画像
 82 蛍光リンパ管画像
 91 ヘモグロビン画像生成部
 92 信号比算出部
 93 酸素飽和度算出用テーブル
 94 酸素飽和度算出部
 100 胃
 102 血管分布情報取得部
 104 リンパ管分布情報取得部
 106 StO2分布情報取得部
 108 血管可視化StO2情報取得部
 110 重畳画像生成部
 111 細い血管
 112 太い血管
 113 細いリンパ管
 114 太いリンパ管
 120 正常値領域
 121 高酸素領域
 122 低酸素領域
 123 StO2分布画像
 130 通常光画像
 131 血管重畳画像
 132 リンパ管重畳画像
 133 脈管重畳画像
 134 血管可視化StO2画像
 135 脈管可視化StO2画像
 201 第2分光素子
 202 第1光学素子
 203 第2光学素子
 300 センサ
 301 第1フィルタ
 302 第2フィルタ

Claims (14)

  1.  被写体を照明し、前記被写体からの反射光を撮像する医療用装置において、
     第1波長帯域を含む照明光を発光する光源と、
     第1感知帯域を感知する第1チャンネルを有する受光部と、
     画像制御用プロセッサと、
     を備え、
     第1感知帯域は、前記第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域であり、
     前記画像制御用プロセッサは、前記第1感知帯域に含まれる光に基づき、少なくとも1以上の検査画像を取得する医療用装置。
  2.  前記反射光は、前記第1波長帯域と、前記第1波長帯域とは異なる波長帯域である第2波長帯域と、を含み、
     前記受光部は、前記第1感知帯域とは異なる波長帯域である第2感知帯域を感知する第2チャンネルを具備し、
     前記第2感知帯域は、前記第2波長帯域とは重ならない、又は半値波長まで重なる波長帯域である請求項1に記載の医療用装置。
  3.  前記受光部は、前記反射光を、第1分光帯域と前記第1分光帯域と異なる第2分光帯域とに分光する第1分光素子、第1透過帯域を有する第1撮像素子、及び、前記第1透過帯域と異なる第2透過帯域を有する第2撮像素子を有し、
     前記第1感知帯域は、前記第1分光帯域と前記第1透過帯域とに基づく帯域であり、
     前記第2感知帯域は、前記第2分光帯域と前記第2透過帯域とに基づく帯域である請求項2に記載の医療用装置。
  4.  前記第2透過帯域は、互いに異なる第2A透過帯域、第2B透過帯域、及び第2C透過帯域を含む請求項3に記載の医療用装置。
  5.  前記第1波長帯域は、蛍光物質を励起させ、かつ、酸化ヘモグロビンと還元ヘモグロビンとの前記照明光への応答性の違いに基づいた酸素飽和度の算出に必要な波長帯域であり、
     前記第1感知帯域は、前記蛍光物質から発せられた蛍光の波長帯域を含む波長帯域であり、
     前記第2感知帯域は、前記酸素飽和度の算出に必要な波長帯域を含む波長帯域である請求項2ないし4のいずれか1項に記載の医療用装置。
  6.  前記蛍光物質は前記第1波長帯域を含む光を受け、前記第2波長帯域の光である蛍光を発し、
     前記第1チャンネルは、前記蛍光を感知し、
     前記画像制御用プロセッサは、前記蛍光に基づく蛍光血管画像、前記蛍光に基づく蛍光リンパ管画像を前記検査画像として取得し、
     前記蛍光血管画像から血管分布情報を、前記蛍光リンパ管画像からリンパ管分布情報を取得する請求項5に記載の医療用装置。
  7.  前記画像制御用プロセッサは、前記酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像を前記検査画像として取得し、
     前記ヘモグロビン画像から、前記酸素飽和度を算出し、
     前記酸素飽和度からStO2分布情報を算出する請求項5に記載の医療用装置。
  8.  前記光源は、通常光を発光し、
     前記受光部は、前記通常光を前記被写体に照射して得た前記反射光を感知し、
     前記画像制御用プロセッサは、前記通常光に基づく通常光画像を取得し、
     前記血管分布情報を前記通常光画像に重畳した血管重畳画像、前記リンパ管分布情報を前記通常光画像に重畳したリンパ管重畳画像、前記血管分布情報及び前記リンパ管分布情報を前記通常光画像に重畳した脈管重畳画像のうち、少なくとも1つを生成する請求項6に記載の医療用装置。
  9.  前記受光部は、前記酸素飽和度の算出に必要な波長帯域と前記蛍光の波長帯域を感知し、
     前記画像制御用プロセッサは、前記酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像と、前記蛍光に基づく蛍光血管画像を前記検査画像として取得し、
     前記ヘモグロビン画像から、前記酸素飽和度を算出し、
     前記酸素飽和度からStO2分布情報を取得し、
     前記蛍光血管画像から血管分布情報を取得し、
     前記血管分布情報と、前記StO2分布情報とから、血管可視化StO2情報を取得する請求項5に記載の医療用装置。
  10.  前記光源は、通常光を発光し、
     前記受光部は、前記通常光を前記被写体に照射して得た前記反射光を感知し、
     前記画像制御用プロセッサは、前記通常光に基づく通常光画像を取得し、
     前記血管可視化StO2情報を前記通常光画像に重畳し、血管可視化StO2画像を生成する請求項9に記載の医療用装置。
  11.  前記光源は、前記蛍光物質を励起させ、かつ、前記酸素飽和度の算出に必要な波長帯域の光と、通常光を発光し、
     前記画像制御用プロセッサは、前記蛍光に基づく蛍光血管画像、前記蛍光に基づく蛍光リンパ管画像、前記酸素飽和度の算出に必要な波長帯域の光に基づくヘモグロビン画像と、前記通常光に基づく通常光画像とを前記検査画像として取得し、
     前記ヘモグロビン画像から、前記酸素飽和度を算出し、
     前記酸素飽和度からStO2分布情報を取得し、
     前記蛍光血管画像から血管分布情報を、前記蛍光リンパ管画像からリンパ管分布情報を取得し、
     前記血管分布情報と、前記酸素飽和度とから、血管可視化StO2情報を取得し、
     前記血管可視化StO2情報と、前記リンパ管分布情報とを、前記通常光画像に重畳し、脈管可視化StO2画像を生成する請求項5に記載の医療用装置。
  12.  前記受光部は、前記反射光を、同一の波長帯域を有する少なくとも2以上の光に分光する第2分光素子、前記第2分光素子が分光した光に含まれる第1カット波長をカットして第1分散帯域とする第1光学素子、第1透過帯域を有する第1撮像素子、前記第2分光素子が分光した光に含まれる前記第1カット波長とは異なる波長帯域である第2カット波長をカットして前記第1分散帯域とは異なる第2分散帯域とする第2光学素子、及び、第2透過帯域を有する第2撮像素子とを有し、
     前記第1感知帯域は、前記第1分散帯域と前記第1透過帯域とに基づく帯域であり、
     前記第2感知帯域は、前記第2分散帯域と前記第2透過帯域とに基づく帯域である請求項2に記載の医療用装置。
  13.  前記受光部は、前記第1チャンネルに対応する第1フィルタと、前記第2チャンネルに対応する第2フィルタとが設けられた1つのセンサを具備する請求項2に記載の医療用装置。
  14.  被写体を照明し、前記被写体からの反射光を撮像する医療用装置の作動方法において、
     光源は、第1波長帯域を含む照明光を発光し、
     受光部は、第1感知帯域を感知する第1チャンネルを有し、
     画像制御用プロセッサは、前記第1チャンネルが感知する第1感知帯域に含まれる光に基づき、少なくとも1以上の検査画像を取得し、
     前記第1感知帯域は、前記第1波長帯域とは重ならない、又は半値波長まで重なる波長帯域である医療用装置の作動方法。
PCT/JP2021/035098 2020-11-24 2021-09-24 医療用装置及びその作動方法 WO2022113506A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022565088A JPWO2022113506A1 (ja) 2020-11-24 2021-09-24
EP21897484.8A EP4254039A4 (en) 2020-11-24 2021-09-24 MEDICAL DEVICE AND METHOD OF OPERATING THE SAME
US18/322,559 US20230320578A1 (en) 2020-11-24 2023-05-23 Medical apparatus and method for operating medical apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020194753 2020-11-24
JP2020-194753 2020-11-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/322,559 Continuation US20230320578A1 (en) 2020-11-24 2023-05-23 Medical apparatus and method for operating medical apparatus

Publications (1)

Publication Number Publication Date
WO2022113506A1 true WO2022113506A1 (ja) 2022-06-02

Family

ID=81755518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035098 WO2022113506A1 (ja) 2020-11-24 2021-09-24 医療用装置及びその作動方法

Country Status (4)

Country Link
US (1) US20230320578A1 (ja)
EP (1) EP4254039A4 (ja)
JP (1) JPWO2022113506A1 (ja)
WO (1) WO2022113506A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070203413A1 (en) * 2003-09-15 2007-08-30 Beth Israel Deaconess Medical Center Medical Imaging Systems
US20080177140A1 (en) * 2007-01-23 2008-07-24 Xillix Technologies Corp. Cameras for fluorescence and reflectance imaging
JP2010268838A (ja) 2009-05-19 2010-12-02 Hoya Corp 医療用観察システム
JP2012152460A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 医療システム、医療システムのプロセッサ装置、及び画像生成方法
WO2017085793A1 (ja) * 2015-11-17 2017-05-26 オリンパス株式会社 内視鏡システム、画像処理装置、画像処理方法およびプログラム
JP2018514748A (ja) * 2015-02-06 2018-06-07 ザ ユニバーシティ オブ アクロンThe University of Akron 光学撮像システムおよびその方法
WO2019092950A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170224205A1 (en) * 2016-02-04 2017-08-10 Wright State University Light endoscope system for imaging, light delivery, and therapy response monitoring
JP7205821B2 (ja) * 2018-08-24 2023-01-17 キヤノン株式会社 システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070203413A1 (en) * 2003-09-15 2007-08-30 Beth Israel Deaconess Medical Center Medical Imaging Systems
US20080177140A1 (en) * 2007-01-23 2008-07-24 Xillix Technologies Corp. Cameras for fluorescence and reflectance imaging
JP2010268838A (ja) 2009-05-19 2010-12-02 Hoya Corp 医療用観察システム
JP2012152460A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 医療システム、医療システムのプロセッサ装置、及び画像生成方法
JP2018514748A (ja) * 2015-02-06 2018-06-07 ザ ユニバーシティ オブ アクロンThe University of Akron 光学撮像システムおよびその方法
WO2017085793A1 (ja) * 2015-11-17 2017-05-26 オリンパス株式会社 内視鏡システム、画像処理装置、画像処理方法およびプログラム
WO2019092950A1 (ja) * 2017-11-13 2019-05-16 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4254039A4

Also Published As

Publication number Publication date
JPWO2022113506A1 (ja) 2022-06-02
EP4254039A4 (en) 2024-08-07
EP4254039A1 (en) 2023-10-04
US20230320578A1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
JP6204314B2 (ja) 電子内視鏡システム
US10231658B2 (en) Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
US9992428B2 (en) Single-chip sensor multi-function imaging
JP5073579B2 (ja) 撮像装置
EP2122331B1 (en) System for multi- wavelength fluorescence and reflectance imaging
JP5451956B2 (ja) コンパクトな蛍光内視鏡映像システム
JP2020115640A (ja) 単一センサのハイパースペクトル撮像デバイス
US9814375B2 (en) Light source device and subject observation apparatus as well as light source control method
JP6353145B2 (ja) 組織酸素付与測定システム及び方法
JP6866531B2 (ja) 医療画像処理システム及び内視鏡システム
WO2016151672A1 (ja) 生体観察装置
JP2006175052A (ja) 蛍光画像撮像装置
JP2006230657A (ja) 可視化装置
US11033209B2 (en) Hemoglobin measurement from a single vessel
JP4202671B2 (ja) 規格化画像生成方法および装置
JPWO2012132571A1 (ja) 診断システム
JPWO2019059059A1 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
JP2021035549A (ja) 内視鏡システム
JP6615369B2 (ja) 内視鏡システム
WO2022113506A1 (ja) 医療用装置及びその作動方法
JP6850358B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
JP7346357B2 (ja) 内視鏡システム
CN114041737B (zh) 应用于内窥镜的成像装置
JP2004000477A (ja) 蛍光判定方法および装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21897484

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565088

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021897484

Country of ref document: EP

Effective date: 20230626