WO2015045576A1 - 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法 - Google Patents
内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法 Download PDFInfo
- Publication number
- WO2015045576A1 WO2015045576A1 PCT/JP2014/068764 JP2014068764W WO2015045576A1 WO 2015045576 A1 WO2015045576 A1 WO 2015045576A1 JP 2014068764 W JP2014068764 W JP 2014068764W WO 2015045576 A1 WO2015045576 A1 WO 2015045576A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- region
- oxygen saturation
- score
- endoscope system
- disease state
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/14551—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/043—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/044—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0646—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0071—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0084—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/14503—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue invasive, e.g. introduced into the body by a catheter or needle or using implanted sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/14542—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/1459—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
Definitions
- the present invention relates to an endoscope system for obtaining biological function information related to oxygen saturation of blood hemoglobin from an image signal obtained by imaging an observation target in a subject, a processor device of the endoscope system, and an endoscope system.
- the present invention relates to an operating method and an operating method of a processor device.
- the ratio of the first signal light image signal corresponding to the reflected light of the first signal light detected by the sensor and the second signal light image signal corresponding to the reflected light of the second signal light (hereinafter referred to as signal ratio) is If there is no change in the oxygen saturation in the blood vessel, a constant value is maintained, but if a change in the oxygen saturation occurs, it changes accordingly. Therefore, the oxygen saturation can be calculated based on the signal ratio between the first signal light image signal and the second signal light image signal.
- oxygen saturation image image representing oxygen saturation
- the accuracy of the diagnosis based on the oxygen saturation image is largely due to the knowledge and experience (skill level) of the doctor, and the diagnosis results may vary.
- diagnosis results such as the degree of progression (for example, stage classification) may differ depending on the doctor.
- the degree of progression of cancer cannot be diagnosed only with various images provided by an endoscope system such as an oxygen saturation image.
- the present invention relates to an endoscope system that presents information for supporting a doctor so that a more accurate and detailed diagnosis can be performed based on the oxygen saturation level of an observation target, a processor device of the endoscope system, and an endoscope It is an object to provide a method of operating a system and a method of operating a processor device.
- the endoscope system of the present invention includes a light source device, an image sensor, an oxygen saturation calculation unit, a distribution pattern generation unit, a medical condition score calculation unit, and a display unit.
- the light source device irradiates the observation target with light.
- the image sensor images an observation target with reflected light of light emitted from the light source device, and outputs an image signal.
- the oxygen saturation calculation unit calculates the oxygen saturation of the observation target based on the image signal.
- the distribution pattern generation unit generates a distribution pattern representing a distribution related to oxygen saturation.
- the medical condition score calculation unit calculates a medical condition score representing a medical condition to be observed based on the distribution pattern.
- the display unit displays a medical condition score or information based on the medical condition score.
- the pathological score when there is a high oxygen area with a certain level of oxygen saturation in a low oxygen area where the oxygen saturation is less than a certain value is higher than the pathological score when there is no high oxygen area in the low oxygen area Is preferred. Further, when there is a high oxygen region in the low oxygen region, it is preferable that the disease state score is larger as the ratio of the high oxygen region to the low oxygen region is larger.
- the pathology score when there is a high oxygen area with a certain level of oxygen saturation in a low oxygen area where the oxygen saturation is less than a certain value is higher than the pathology score when there is no high oxygen area within the low oxygen area. May be made smaller.
- the disease state score decreases as the ratio of the high oxygen region to the low oxygen region increases.
- the medical condition score calculation unit compares the reference pattern of the specific distribution shape with the distribution pattern calculated by the distribution pattern generation unit, and uses the similarity between the reference pattern and the distribution pattern calculated by the distribution pattern generation unit as the medical condition score. calculate.
- the reference pattern having a specific distribution shape is a pattern in which a high oxygen region having an oxygen saturation level equal to or greater than a certain value is present in a low oxygen region having an oxygen saturation level less than a certain value.
- the distribution pattern generation unit may generate a distribution pattern for a region of interest designated in advance.
- the medical condition score calculation unit calculates a medical condition score for the region of interest.
- the endoscope system may further include a similar clinical data selection unit.
- the similar clinical data selection unit refers to a database in which a plurality of past clinical data is stored in advance, compares the distribution pattern with the clinical data, selects similar clinical data with a similar distribution pattern from the clinical data, and displays the same To display.
- the similar clinical data selection unit displays, for example, an oxygen saturation image included in the similar clinical data on the display unit.
- the endoscope system may further include a treatment effect score calculation unit.
- the treatment effect score calculation unit calculates a treatment effect score representing the treatment effect by a specific treatment method based on the distribution pattern, and displays the treatment effect score on the display unit.
- the endoscope system may further include an automatic storage control unit.
- the automatic storage control unit is generated based on the image signal and the oxygen saturation when the disease state score becomes a value equal to or higher than a specified value. The oxygen saturation image and the medical condition score associated with each other are automatically saved.
- the display unit may display a medical condition score or information based on the medical condition score when the medical condition score is equal to or higher than a specified value.
- the endoscope system of the present invention preferably includes a feature region extraction unit that extracts a feature region to be observed based on an image signal.
- the medical condition score calculation unit calculates the medical condition score based on the distribution pattern of the oxygen saturation in the feature region.
- the feature region extraction unit extracts a feature region to be observed based on, for example, a blue image signal obtained from a blue pixel of an image sensor or a green image signal obtained from a green pixel.
- the characteristic region is a red region
- the disease state score when the oxygen saturation level is higher than a certain value in the red region is preferably larger than the disease state score when there is no high oxygen region in the red region.
- the disease state score is larger as the ratio of the high oxygen region to the red region is larger.
- the characteristic region is a red region, and the disease state score when the oxygen saturation is higher than a certain value in the red region may be smaller than the disease state score when there is no high oxygen region in the red region. good.
- the disease state score may be reduced as the ratio of the high oxygen region to the red region increases.
- a message display control unit that monitors the medical condition score and displays a message corresponding to the medical condition score on the display unit may be provided.
- the processor device of the endoscope system of the present invention includes a light source device for irradiating light to an observation target, an image sensor that images the observation target with reflected light of light irradiated by the light source device, and outputs an image signal;
- An endoscopic system processor device for an endoscopic system having a display unit, comprising an oxygen saturation calculation unit, a distribution pattern generation unit, and a medical condition score calculation unit.
- the oxygen saturation calculation unit calculates the oxygen saturation of the observation target based on the image signal.
- the distribution pattern generation unit generates a distribution pattern representing a distribution related to oxygen saturation.
- the medical condition score calculation unit calculates a medical condition score representing a medical condition to be observed based on the distribution pattern.
- a feature region extraction unit that extracts the feature region to be observed based on the image signal may be provided.
- the medical condition score calculation unit calculates the medical condition score based on the distribution pattern of the oxygen saturation in the feature region.
- the operation method of the endoscope system of the present invention includes a light source device for irradiating light to an observation target, an image sensor that images the observation target with reflected light of light irradiated by the light source device, and outputs an image signal;
- An operation method of an endoscope system including a display unit, and includes an oxygen saturation calculation step, a distribution pattern generation step, a disease state score calculation step, and a display step.
- the oxygen saturation calculation step calculates the oxygen saturation of the observation target based on the image signal.
- the distribution pattern generation step the distribution pattern generation unit generates a distribution pattern representing a distribution related to oxygen saturation.
- the disease state score calculation unit calculates a disease state score representing the disease state to be observed based on the distribution pattern.
- the display step the display unit displays a medical condition score or information based on the medical condition score.
- the feature region extraction unit may include a feature region extraction step for extracting the feature region to be observed based on the image signal.
- the disease state score calculation unit calculates the disease state score based on the distribution pattern of the oxygen saturation in the feature region.
- An operating method of the processor device of the present invention is an operating method of a processor device that processes an image signal obtained by imaging an observation target, an oxygen saturation calculating step, a distribution pattern generating step, a medical condition score calculating step, Is provided.
- the oxygen saturation calculation step the oxygen saturation calculation unit calculates the oxygen saturation of the observation target based on the image signal.
- the distribution pattern generation step the distribution pattern generation unit generates a distribution pattern representing a distribution related to oxygen saturation.
- the disease state score calculation unit calculates a disease state score representing the disease state to be observed based on the distribution pattern.
- the feature region extraction unit may include a feature region extraction step for extracting the feature region to be observed based on the image signal.
- the disease state score calculation unit calculates the disease state score based on the distribution pattern of the oxygen saturation in the feature region.
- the processor device of the endoscope system According to the endoscope system, the processor device of the endoscope system, the operation method of the endoscope system, and the operation method of the processor device of the present invention, more accurate and detailed diagnosis can be performed based on the oxygen saturation. Further information for supporting the physician can be presented.
- the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18 (display unit), and a console 20.
- the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
- the endoscope 12 includes an insertion portion 21 to be inserted into a subject, an operation portion 22 provided at a proximal end portion of the insertion portion 21, a bending portion 23 and a distal end portion provided at the distal end side of the insertion portion 21. 24.
- the angle knob 22a of the operation unit 22 By operating the angle knob 22a of the operation unit 22, the bending unit 23 performs a bending operation. With this bending operation, the distal end portion 24 is directed in a desired direction.
- the operation unit 22 includes a mode switch SW (mode switch) 22b, a zoom operation unit 22c, and a freeze button (not shown) for storing a still image.
- the mode switching SW 22b is used for switching operation between two types of modes, a normal observation mode and a special observation mode.
- the normal observation mode is a mode in which a normal light image in which an observation target in the subject is converted into a full color image is displayed on the monitor 18.
- the special observation mode is a mode in which an oxygen saturation image obtained by imaging the oxygen saturation of blood hemoglobin to be observed is displayed on the monitor 18.
- the zoom operation unit 22c is used for a zoom operation for driving the zoom lens 47 (see FIG. 2) in the endoscope 12 to enlarge the observation target.
- the processor device 16 is electrically connected to the monitor 18 and the console 20.
- the monitor 18 displays images such as normal light images and oxygen saturation images, and information related to these images (hereinafter referred to as image information and the like).
- the console 20 functions as a UI (user interface) that receives input operations such as function settings.
- a recording unit (not shown) for recording image information or the like may be connected to the processor device 16.
- the light source device 14 includes a first blue laser light source (473LD (laser diode)) 34 that emits a first blue laser beam having a center wavelength of 473 nm and a second blue laser beam that emits a second blue laser beam having a center wavelength of 445 nm.
- Two blue laser light sources (445LD) 36 are provided as light emission sources. Light emission of each of the light sources 34 and 36 made of these semiconductor light emitting elements is individually controlled by the light source control unit 40. For this reason, the light quantity ratio of the emitted light from the first blue laser light source 34 and the emitted light from the second blue laser light source 36 can be changed.
- the light source control unit 40 turns on the second blue laser light source 36 in the normal observation mode.
- the first blue laser light source 34 and the second blue laser light source 36 are alternately turned on at intervals of one frame.
- the half width of the first and second blue laser beams is preferably about ⁇ 10 nm.
- the first blue laser light source 34 and the second blue laser light source 36 can use broad area type InGaN laser diodes, and can also use InGaNAs laser diodes or GaNAs laser diodes.
- the light source may be configured to use a light emitter such as a light emitting diode.
- the first and second blue laser beams emitted from the light sources 34 and 36 are transmitted to a light guide (LG) 41 via optical members (all not shown) such as a condenser lens, an optical fiber, and a multiplexer.
- the light guide 41 is built in the universal cord 17 (see FIG. 1) for connecting the light source device 14 and the endoscope 12 and the endoscope 12.
- the light guide 41 propagates the first and second blue laser beams from the light sources 34 and 36 to the distal end portion 24 of the endoscope 12.
- a multimode fiber can be used as the light guide 41.
- a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer serving as an outer shell can be used.
- the distal end portion 24 of the endoscope 12 has an illumination optical system 24a and an imaging optical system 24b.
- the illumination optical system 24a is provided with a phosphor 44 and an illumination lens 45.
- the first and second blue laser beams are incident on the phosphor 44 from the light guide 41.
- the phosphor 44 emits fluorescence when irradiated with the first or second blue laser light. Further, a part of the first or second blue laser light passes through the phosphor 44 as it is. The light emitted from the phosphor 44 is irradiated to the observation target through the illumination lens 45.
- the observation target is irradiated with white light having the spectrum shown in FIG. 3 (second white light).
- the second white light is composed of second blue laser light and green to red second fluorescence excited and emitted from the phosphor 44 by the second blue laser light. Therefore, the wavelength range of the second white light extends to the entire visible light range.
- the special observation mode when the first blue laser light and the second blue laser light are alternately incident on the phosphor 44, the first white light and the second white light having the spectrum shown in FIG. 4 are alternately observed. Subject is irradiated.
- the first white light is composed of first blue laser light and green to red first fluorescence that is excited and emitted from the phosphor 44 by the first blue laser light. Therefore, the first white light has a wavelength range covering the entire visible light range.
- the second white light is the same as the second white light irradiated in the normal observation mode.
- the first fluorescence and the second fluorescence have substantially the same waveform (spectrum shape), and the ratio of the intensity of the first fluorescence (I1 ( ⁇ )) to the intensity of the second fluorescence (I2 ( ⁇ )) (hereinafter referred to as a frame).
- the intensity ratio) is the same at any wavelength ⁇ .
- I2 ( ⁇ 1) / I1 ( ⁇ 1) I2 ( ⁇ 2) / I1 ( ⁇ 2). Since the inter-frame intensity ratio I2 ( ⁇ ) / I1 ( ⁇ ) affects the calculation accuracy of the oxygen saturation, the light source control unit 40 maintains a preset reference inter-frame intensity ratio. It is controlled with high accuracy.
- the phosphor 44 absorbs a part of the first and second blue laser beams and excites and emits green to red light (for example, YAG phosphor or BAM (BaMgAl 10 O 17 )). It is preferable to use a material comprising a phosphor such as.
- a material comprising a phosphor such as
- high intensity first white light and second white light can be obtained with high luminous efficiency.
- the intensity of each white light can be easily adjusted, and changes in color temperature and chromaticity can be kept small.
- the imaging optical system 24b of the endoscope 12 includes an imaging lens 46, a zoom lens 47, and a sensor 48 (see FIG. 2). Reflected light from the observation object enters the sensor 48 via the imaging lens 46 and the zoom lens 47. As a result, a reflected image of the observation object is formed on the sensor 48.
- the zoom lens 47 moves between the tele end and the wide end by operating the zoom operation unit 22c. When the zoom lens 47 moves to the tele end side, the reflected image to be observed is enlarged. On the other hand, when the zoom lens 47 moves to the wide end side, the reflected image to be observed is reduced. Note that when not magnifying observation (non-magnifying observation), the zoom lens 47 is disposed at the wide end. When performing magnified observation, the zoom lens 47 is moved from the wide end to the tele end side by operating the zoom operation unit 22c.
- the sensor 48 is a color image pickup device, picks up a reflected image of an observation target, and outputs an image signal.
- the sensor 48 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
- the sensor 48 has RGB pixels provided with RGB color filters on the imaging surface, and outputs image signals of three colors of R, G, and B by performing photoelectric conversion with pixels of each color of RGB. .
- the B color filter has a spectral transmittance of 380 to 560 nm
- the G color filter has a spectral transmittance of 450 to 630 nm
- the emission intensity of the second blue laser light is much higher than that of the second fluorescence, most of the B image signal output from the B pixel is occupied by the reflected light component of the second blue laser light.
- the first white light when the first white light is irradiated on the observation target in the special observation mode, the first blue laser light and a part of the green component of the first fluorescence are incident on the B pixel, and the first is applied to the G pixel. A part of the green component of the fluorescence is incident, and the red component of the first fluorescence is incident on the R pixel.
- the emission intensity of the first blue laser light is much higher than that of the first fluorescence, most of the B image signal is occupied by the reflected light component of the first blue laser light.
- the light incident component in each RGB pixel when the second white light is irradiated on the observation target in the special observation mode is the same as that in the normal observation mode.
- the sensor 48 may be a so-called complementary color image sensor having C (cyan), M (magenta), Y (yellow), and G (green) complementary color filters on the imaging surface.
- the color conversion unit that performs color conversion from the CMYG four-color image signal to the RGB three-color image signal is any of the endoscope 12, the light source device 14, and the processor device 16. It should be provided in. In this way, even when a complementary color image sensor is used, it is possible to obtain RGB three-color image signals by color conversion from the four-color CMYG image signals.
- the imaging control unit 49 performs imaging control of the sensor 48. As shown in FIG. 6, in the normal observation mode, the observation object illuminated with the second white light is imaged by the sensor 48 for each frame period. Thereby, RGB image signals are output from the sensor 48 for each frame.
- the imaging control unit 49 controls the imaging of the sensor 48 in the special observation mode in the same manner as in the normal observation mode.
- the special observation mode the first white light and the second white light are alternately irradiated on the observation target in synchronization with the imaging frame of the sensor 48. Therefore, as shown in FIG.
- the observation object is imaged with the first white light in the eyes, and the observation object is imaged with the second white light in the next second frame.
- the sensor 48 outputs image signals of each color of RGB in both the first frame and the second frame.
- the RGB image signals obtained in this manner are called R1 image signal, G1 image signal, and B1 image signal, respectively.
- the RGB image signals obtained by imaging with the second white light in the second frame are R2 image signals and G2. This is called an image signal or B2 image signal.
- the oxygen saturation is calculated using the signal ratio B1 / G2 between the B1 image signal and the G2 image signal and the signal ratio R2 / G2 between the R2 image signal and the G2 image signal.
- the signal ratio essential for calculating the oxygen saturation is the signal ratio B1 / G2 between the B1 image signal and the G2 image signal.
- the component (the first blue laser light transmitted through the phosphor 44) that becomes the B1 image signal in the first white light is the first signal light
- the G2 image signal in the second white light is the second signal light.
- the image signals of the respective colors output from the sensor 48 are transmitted to a CDS (correlated double sampling) / AGC (automatic gain control) circuit 50 (see FIG. 2).
- the CDS / AGC circuit 50 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal output from the sensor 48.
- CDS correlated double sampling
- AGC automatic gain control
- the image signal that has passed through the CDS / AGC circuit 50 is converted into a digital image signal by the A / D converter 52.
- the digitized image signal is input to the processor device 16.
- the processor device 16 includes a receiving unit 54, an image processing switching unit 60, a normal observation image processing unit 62, a special observation image processing unit 64, an evaluation unit 65, and an image display signal generation unit 66.
- the receiving unit 54 receives an image signal input from the endoscope 12.
- the receiving unit 54 includes a DSP (Digital Signal Processor) 56 and a noise removing unit 58, and the DSP 56 performs digital signal processing such as color correction processing on the received image signal.
- the noise removal unit 58 performs noise removal processing by, for example, a moving average method or a median filter method on the image signal that has been subjected to color correction processing or the like by the DSP 56.
- the image signal from which the noise has been removed is input to the image processing switching unit 60.
- the image processing switching unit 60 inputs an image signal to the normal observation image processing unit 62 when the mode switching SW 22b is set to the normal observation mode. On the other hand, when the mode switching SW 22 b is set to the special observation mode, the image processing switching unit 60 inputs an image signal to the special observation image processing unit 64.
- the normal observation image processing unit 62 includes a color conversion unit 68, a color enhancement unit 70, and a structure enhancement unit 72.
- the color conversion unit 68 generates RGB image data in which the input RGB image signals for one frame are assigned to R pixels, G pixels, and B pixels, respectively.
- the RGB image data is further subjected to color conversion processing such as 3 ⁇ 3 matrix processing, gradation conversion processing, and three-dimensional LUT processing.
- the color enhancement unit 70 performs various color enhancement processes on the RGB image data that has been subjected to the color conversion process.
- the structure enhancement unit 72 performs structure enhancement processing such as spatial frequency enhancement on the RGB image data that has been subjected to color enhancement processing.
- the RGB image data subjected to the structure enhancement process by the structure enhancement unit 72 is input to the image display signal generation unit 66 as a normal observation image.
- the special observation image processing unit 64 includes an oxygen saturation image generation unit 76 and a structure enhancement unit 78.
- the oxygen saturation image generation unit 76 calculates the oxygen saturation and generates an oxygen saturation image representing the calculated oxygen saturation.
- the structure enhancement unit 78 performs structure enhancement processing such as spatial frequency enhancement processing on the oxygen saturation image input from the oxygen saturation image generation unit 76.
- structure enhancement processing such as spatial frequency enhancement processing on the oxygen saturation image input from the oxygen saturation image generation unit 76.
- the oxygen saturation image that has undergone the structure enhancement processing by the structure enhancement unit 72 is input to the image display signal generation unit 66.
- the evaluation unit 65 acquires the oxygen saturation data calculated by the oxygen saturation image generation unit 76, and generates a distribution pattern representing the distribution related to the oxygen saturation based on the oxygen saturation data. Based on the calculated distribution pattern, a medical condition score representing the medical condition to be observed is calculated.
- the medical condition is, for example, the degree of progression of cancer.
- the image display signal generation unit 66 converts the normal observation image or the oxygen saturation image into a display format signal (display image signal) and inputs it to the monitor 18. As a result, the normal observation image or the oxygen saturation image is displayed on the monitor 18.
- a medical condition score is input from the evaluation unit 65 to the image display signal generation unit 66. For this reason, the image display signal generation unit 66 displays the “disease state score” or “information based on the disease state score (warning message etc.)” on the monitor 18 together with the oxygen saturation image.
- doctors refer to not only the oxygen saturation image but also the display of the “pathology score” or “information based on the pathology score”, so that the tissue with the possibility of lesion can be more objectively accurate and detailed. Can be diagnosed.
- the oxygen saturation image generation unit 76 includes a signal ratio calculation unit 81, a correlation storage unit 82, an oxygen saturation calculation unit 83, and an image generation unit 87.
- the signal ratio calculation unit 81 receives the B1 image signal, the G2 image signal, and the R2 image signal among the image signals for two frames input to the oxygen saturation image generation unit 76.
- the signal ratio calculation unit 81 calculates a signal ratio B1 / G2 between the B1 image signal and the G2 image signal and a signal ratio R2 / G2 between the G2 image signal and the R2 image signal for each pixel.
- the correlation storage unit 82 stores the correlation between the signal ratio B1 / G2 and the signal ratio R2 / G2 and the oxygen saturation. This correlation is stored in a two-dimensional table in which isolines of oxygen saturation are defined on the two-dimensional space shown in FIG. The positions and shapes of the isolines with respect to the signal ratio B1 / G2 and the signal ratio R2 / G2 are obtained in advance by a physical simulation of light scattering, and the interval between the isolines is the blood volume (signal ratio R2 / G2 ). The correlation between the signal ratio B1 / G2 and the signal ratio R2 / G2 and the oxygen saturation is stored on a log scale.
- the above correlation is closely related to the light absorption characteristics, light scattering characteristics, and the like of oxyhemoglobin (graph 90) and reduced hemoglobin (graph 91).
- information on oxygen saturation is easy to handle at wavelengths where the difference in extinction coefficient between oxyhemoglobin and reduced hemoglobin is large, such as the center wavelength of 473 nm of the first blue laser beam.
- the B1 image signal including a signal corresponding to 473 nm light is highly dependent not only on the oxygen saturation but also on the blood volume.
- G2 and R2 / G2 the oxygen saturation can be accurately obtained without depending on the blood volume.
- the oxygen saturation calculation unit 83 refers to the correlation stored in the correlation storage unit 82, and calculates the oxygen saturation corresponding to the signal ratio B1 / G2 and the signal ratio R2 / G2 calculated by the signal ratio calculation unit 81. Calculate for each pixel. For example, when the signal ratio B1 / G2 and the signal ratio R2 / G2 in the specific pixel are B1 * / G2 * and R2 * / G2 * , respectively, referring to the correlation as shown in FIG. 11, the signal ratio B1 * The oxygen saturation corresponding to / G2 * and the signal ratio R2 * / G2 * is “60%”. Therefore, the oxygen saturation calculation unit 83 calculates the oxygen saturation of this pixel as “60%”.
- the signal ratio B1 / G2 and the signal ratio R2 / G2 are hardly increased or extremely decreased.
- the values of the signal ratio B1 / G2 and the signal ratio R2 / G2 hardly exceed the lower limit line 93 with an oxygen saturation of 0%, or conversely fall below the upper limit line 94 with an oxygen saturation of 100%.
- the oxygen saturation calculation unit 83 sets the oxygen saturation to 0%.
- the oxygen saturation is set to 100. %.
- the image generation unit 84 uses the oxygen saturation data calculated by the oxygen saturation calculation unit 83 and the oxygen saturation image obtained by imaging the oxygen saturation using the B2 image signal, the G2 image signal, and the R2 image signal. Is generated. Specifically, the image generation unit 84 applies a gain corresponding to the oxygen saturation to the input original B2 image signal, G2 image signal, and R2 image signal for each pixel, and a B2 image obtained by applying the gain. RGB image data is generated using the signal, the G2 image signal, and the R2 image signal. For example, the image generation unit 84 multiplies all of the B2 image signal, the G2 image signal, and the R2 image signal by the same gain “1” for a pixel having a corrected oxygen saturation of 60% or more.
- the B2 image signal is multiplied by a gain less than “1”, and the G2 image signal and the R2 image signal are gained by “1” or more. Multiply.
- the RGB image data generated using the B1 image signal, the G2 image signal, and the R2 image signal after the gain processing is an oxygen saturation image.
- the high oxygen region (region where the oxygen saturation is 60 to 100%) is expressed in the same color as the normal observation image.
- a low oxygen region where the oxygen saturation is below a specific value (region where the oxygen saturation is 0 to 60%) is represented by a color (pseudo color) different from that of the normal observation image.
- the image generation unit 84 multiplies the gain for pseudo-coloring only the low oxygen region, but the gain corresponding to the oxygen saturation is applied even in the high oxygen region, and the entire oxygen saturation image is obtained.
- a pseudo color may be used.
- the low oxygen region and the high oxygen region are separated by oxygen saturation 60%, this boundary is also arbitrary.
- the evaluation unit 65 includes a distribution pattern generation unit 96, a medical condition score calculation unit 97, and a reference pattern storage unit 98.
- the distribution pattern generation unit 96 acquires oxygen saturation data calculated for each pixel by the oxygen saturation calculation unit 83, and generates a distribution pattern representing a distribution related to oxygen saturation.
- the distribution pattern is, for example, a two-dimensional distribution pattern in which the oxygen saturation of each pixel is arranged like an image, a distribution pattern related to the gradient of oxygen saturation obtained by differentiating the oxygen saturation in a predetermined direction, or the oxygen saturation of each pixel. Is a spatial frequency spectrum obtained by Fourier-transforming a two-dimensional distribution pattern in which images are arranged like an image.
- the distribution pattern generation unit 96 calculates the oxygen saturation distribution as a distribution pattern.
- the distribution pattern generation unit 96 may generate other distribution patterns, or a plurality of distribution patterns. It may be generated.
- the periphery of the cancer tissue 103 in the case of early cancer in which the cancer tissue 103 remains in the mucosal layer 104 without infiltrating the mucosal muscle 105, the periphery of the cancer tissue 103 Although the new blood vessels 103 a are constructed, these new blood vessels 103 a do not reach the thick blood vessel 106 a of the submucosa layer 106. For this reason, as shown in the oxygen saturation distribution 115 and the distribution 116 at the center thereof, the cancer tissue 103 is in a low oxygen region where the oxygen saturation is lower than that of the normal tissue.
- oxygen depletion and oxygen saturation decrease as more cancerous tissue is present, so in early stage cancer, the vicinity of the center of the cancerous tissue 103 is most hypoxic and can be seen along the central X1-X2 cross section.
- the oxygen saturation distribution is U-shaped (or V-shaped).
- the hypoxic state is lower in oxygen saturation than the surrounding normal tissue, but the oxygen supply is abundant in the central portion where the new blood vessel 113a reaches the thick blood vessel 106a of the submucosa layer 106. Therefore, for example, a high oxygen state equivalent to that of a normal tissue is obtained. For this reason, in advanced cancer, a high oxygen region is formed in the central portion, and an annular hypoxic region surrounded by a low oxygen region is observed. Further, when viewed along the central cross section X1-X2, the distribution of oxygen saturation is close to a W-shape with a convex center.
- the distribution pattern generation unit 96 calculates the oxygen saturation distributions 115 and 125 as distribution patterns.
- the gradient of oxygen saturation and the spatial frequency spectrum can be obtained by differentiating the oxygen saturation distributions 115 and 125 or by performing Fourier transform.
- FIG. 13 and FIG. 14 when cancer occurs, a high frequency component is generated in the spatial frequency spectrum of oxygen saturation, and when the cancer progresses and infiltrates the mucosal muscle plate 105, further high frequency component is generated. Arise.
- the medical condition score calculation unit 97 calculates a medical condition score representing a medical condition to be observed based on the distribution pattern calculated by the distribution pattern generation unit 96. Specifically, the distribution pattern calculated by the distribution pattern generation unit 96 is compared with a reference pattern stored in advance in the reference pattern storage unit 98, and the similarity is calculated as a disease state score. In the present embodiment, the distribution pattern generation unit 96 calculates the distribution of oxygen saturation as a distribution pattern, and accordingly, the oxygen saturation generated in the reference pattern storage unit 98 based on past clinical data and the like. A template of the degree distribution is stored in advance as a reference pattern. The medical condition score calculation unit 97 calculates a medical condition score (similarity) by matching the distribution pattern obtained from the distribution pattern generation unit 96 with the reference pattern.
- the reference pattern 130 has a specific oxygen saturation distribution shape having, for example, a high oxygen region 132 having an oxygen saturation level equal to or higher than a certain value in a low oxygen region 131 having an oxygen saturation level lower than a certain value. It is. That is, the reference pattern 130 has an oxygen saturation distribution shape simulating the distribution of oxygen saturation of advanced cancer.
- the constant value of oxygen saturation that distinguishes the low oxygen region 131 and the high oxygen region 132 is determined based on clinical data.
- the oxygen saturation of the outer peripheral portion 133 of the low oxygen region 131 is a value imitating the oxygen saturation of normal tissue.
- the medical condition score calculation unit 97 enlarges or reduces the reference pattern 130 and matches the distribution pattern calculated by the distribution pattern generation unit 96.
- the distribution pattern 125 (see FIG. 14) of advanced cancer having a high oxygen region in a hypoxic region is the standard compared to the distribution pattern 115 (see FIG. 13) of early cancer in which there is no high oxygen region in the low oxygen region. The similarity with the pattern 130 is high. For this reason, a disease state score is large when observing advanced cancer. When there is no cancer, the distribution pattern calculated by the distribution pattern generation unit 96 does not include even the hypoxic region, so the disease state score is even smaller than when observing early cancer.
- the disease state score is high when there is a high oxygen region in the low oxygen region, but the disease state score may be larger as the proportion of the high oxygen region in the low oxygen region is larger. preferable. Since the proportion of the high oxygen region in the hypoxic region corresponds to the range in which the mucosal muscle plate 105 is infiltrated, scoring the disease state score in this way makes the progress of advanced cancer more detailed and objective. Can be evaluated.
- a large disease state score according to the proportion of the high oxygen region in the low oxygen region for example, a plurality of reference patterns in which the area of the high oxygen region 132 is changed are prepared in advance. Matching is performed, and the total lesion score obtained by matching with each reference pattern may be used as the final lesion score.
- a reference pattern in which the ratio of the high oxygen region in the low oxygen region is different from the reference pattern 130 may be generated and used. Further, a value obtained by correcting the similarity obtained by the matching in accordance with the ratio of the high oxygen region in the low oxygen region may be used as the lesion score.
- the medical condition score calculated by the medical condition score calculation unit 97 is input to the image display signal generation unit 66 and displayed on the monitor 18 together with the oxygen saturation image.
- the flow of observation by the endoscope system 10 of the present embodiment will be described along the flowchart of FIG.
- screening is performed from the farthest view state (S10).
- a normal observation image is displayed on the monitor 18.
- the mode switching SW 22b is operated to switch to the special observation mode. (S12).
- a possible lesion site is diagnosed.
- the first and second white lights are alternately irradiated onto the observation target in synchronization with the imaging frame of the sensor 48. Therefore, in the frame irradiated with the first white light, the sensor 48 detects the R1 image signal, G1. An image signal and a B1 image signal are output, and an R2 image signal, a G2 image signal, and a B2 image signal are output in a frame irradiated with the second white light. Based on the image signals for these two frames, the signal ratio calculation unit 81 calculates the signal ratio B1 / G2 and the signal ratio R2 / G2 for each pixel (S13).
- the oxygen saturation calculation unit 83 calculates the oxygen saturation for each pixel based on the signal ratio B1 / G2 and the signal ratio R2 / G2 (S14).
- the image generation unit 87 generates an oxygen saturation image in which a gain corresponding to the oxygen saturation is applied to the B2 image signal, the G2 image signal, and the R2 image signal (S15).
- the distribution pattern generation unit 96 calculates a distribution pattern representing a distribution related to oxygen saturation based on the oxygen saturation data calculated by the oxygen saturation calculation unit 83 (S16), and the disease state score calculation unit 97 further calculates the distribution pattern. Based on this distribution pattern, a medical condition score is calculated (S17).
- the oxygen saturation image and the disease state score thus generated and calculated are displayed on the monitor 18 (S18).
- S18 For example, as shown in FIG. 17, when the diseased tissue is early cancer, an oxygen saturation image 141 in which almost the entire cancer tissue 103 is pseudo-colored and a disease state score “12” are displayed on the monitor 18.
- FIG. 18 when the diseased tissue is advanced cancer, an oxygen saturation image 142 in which a cancer tissue 113 having a normal-colored high-oxygen region in a pseudo-colored low-oxygen region is projected, and a medical condition The score “95” is displayed on the monitor 18.
- the doctor can display the oxygen saturation image displayed on the monitor 18. By observing, it is possible to determine whether the diseased tissue is early cancer or advanced cancer (or not cancer).
- the lesion score that objectively evaluates the possibility of infiltration is displayed on the monitor 18, the possibility of invasion can be grasped more easily by looking at this lesion score. Detailed diagnosis including the degree of cancer progression can be performed accurately and easily.
- the endoscope system 10 not only displays the oxygen saturation image on the monitor 18, but also calculates a lesion score and displays the lesion score on the monitor 18, thereby supporting a doctor's diagnosis. can do.
- the endoscope system 10 can perform the support by calculating and displaying the lesion score in real time while observing the observation target.
- the endoscope system 10 can observe the surface of the observation target and score the degree of progression of the lesion into the observation target (in the depth direction of the lesion).
- Information that supports diagnosis can be presented more quickly (for example, without lowering the frame rate of observation) than when observation is performed for each depth of the observation target, for example.
- the endoscope system 10 generates and displays an oxygen saturation image in which a hypoxic region is pseudo-colored with an oxygen saturation of 60% as a boundary, and further divides the oxygen saturation into finer steps. You may make it pseudo color so that it may become a different color in a stage. For example, by changing the gain by which the image signal is multiplied according to the oxygen saturation, it is possible to display different colors at each stage of the oxygen saturation. In this case, as shown in FIGS. 19 and 20, oxygen saturation images 143 and 144 in which the distribution shape of the oxygen saturation inside the cancer tissue 103 of early cancer and the cancer tissue 113 of advanced cancer are shown in detail are displayed. be able to.
- the endoscope system 10 calculates and displays a disease state score that supports diagnosis of the degree of progression of cancer. However, the endoscope system 10 diagnoses the degree of progression of lesions other than cancer (such as inflammation and ulcers) in the same manner.
- the supporting medical condition score can be calculated and displayed.
- the endoscope system 10 calculates and displays a medical condition score that increases according to the degree of progression of cancer. Conversely, a medical condition score that decreases according to the degree of progression of cancer may be calculated.
- the medical condition score calculation unit 97 may calculate the reciprocal of the similarity between the distribution pattern obtained from the distribution pattern generation unit 96 and the reference pattern as the medical condition score.
- the disease state score is the highest when there is no high oxygen region in the low oxygen region, and the disease state score is small when there is a high oxygen region in the low oxygen region.
- the disease state score is further reduced as the proportion of the high oxygen region in the low oxygen region increases. For this reason, the small disease state score represents the degree of progression of cancer.
- a reference pattern storage unit 98 that stores a reference pattern 130 in advance is provided in the evaluation unit 65, but as shown in FIG. 21, for example, an external network connected to the processor device 16 is provided.
- the reference pattern 130 may be acquired from the database 151.
- maintenance is performed to update data in the reference pattern storage unit 98 even when the reference pattern 130 is updated based on the latest case.
- the lesion score can always be calculated using the optimum reference pattern even if it is not.
- the distribution pattern generation unit 96 and the disease state score calculation unit 97 do not designate areas for calculating the distribution pattern and the lesion score, but the distribution pattern generation unit 96 and the disease state score calculation unit 97 As shown in FIG. 22, a distribution pattern and a lesion score may be calculated for a region of interest 161 designated in advance. In this way, the lesion score can be calculated quickly.
- the region of interest 161 is, for example, a region designated by a doctor while observing the normal observation image 110 or the like (may be an oxygen saturation image).
- the area of interest 161 can be specified by the processor device 16.
- the distribution pattern and the lesion score are calculated for the entire range being observed, and when the region of interest 161 is designated, the distribution pattern and the region of interest for the designated region 161 are calculated. What is necessary is just to calculate a lesion score.
- the region of interest 161 may be automatically performed by the endoscope system 10.
- the evaluation unit 65 is provided with a region-of-interest extraction unit that extracts a region having a predetermined size and a predetermined shape (for example, a quadrangle) including a hypoxic region from the distribution patterns 115 and 125 generated by the distribution pattern generation unit 96 as the region of interest.
- a medical condition score may be calculated for the given region of interest.
- one distribution pattern (distribution shape of oxygen saturation) is calculated in the distribution pattern generation unit 96, and a lesion score corresponding to this is calculated in the disease state score calculation unit 97.
- the total lesion score calculated for each distribution pattern and the lesion score calculated for each distribution pattern are weighted.
- the result calculated using the lesion score calculated for each distribution pattern, such as the added value, may be used as the lesion score to be finally calculated and displayed.
- the endoscope system of the second embodiment further includes a similar clinical data selection unit 201 in the evaluation unit 65.
- Other configurations are the same as those of the endoscope system 10 of the first embodiment.
- the similar clinical data selection unit 201 acquires a medical condition score from the medical condition score calculation unit 97, and a clinical database in which a plurality of clinical data 203 are stored for past cases in which the acquired medical condition score is close to (or coincides with) the lesion score. Select from 202.
- the selected clinical data (hereinafter referred to as similar clinical data) is input to the image display signal generation unit 66.
- the oxygen saturation image 206 included in the similar clinical data is displayed on the monitor 18 along with the oxygen saturation image 142 to be observed.
- the oxygen saturation image 206 of similar clinical data can be presented to the doctor in real time.
- the oxygen saturation image 206 In addition to the oxygen saturation image 206, other types of images such as a normal observation image included in similar clinical data and a narrow-band light image when observed with narrow-band light may be displayed on the monitor 18. Further, when the similar clinical data includes various images, as well as the results of diagnosis such as disease names, the treatments performed, and the effects thereof, these may be displayed on the monitor 18. Various records of these similar cases are also helpful to the doctor's diagnosis.
- the clinical database 202 may be an external database connected to the endoscope system via a network, or may be a database built in the endoscope system (processor device 16).
- the latest one among them may be selected and displayed, or the one with a large number of references may be selected and displayed.
- clinical data to be displayed as similar clinical data may be set in advance for each disease state score. Further, similar clinical data may be selected by narrowing down according to the commonality with the observation object other than the disease state score such as the age and sex of the subject and the observation site.
- one example of similar clinical data is selected, but a plurality of similar clinical data may be selected and displayed on the monitor 18.
- these lists may be displayed on the monitor 18, and an oxygen saturation image or the like of the similar clinical data selected by the doctor from this list may be displayed on the monitor 18. .
- the endoscope system of the third embodiment is obtained by adding a treatment effect score calculation unit 301 to the evaluation unit 65 with respect to the endoscope system 10 of the first embodiment.
- Other configurations are the same as those of the endoscope system 10 of the first embodiment.
- the treatment effect score calculation unit 301 acquires a distribution pattern from the distribution pattern generation unit 96, and calculates a treatment effect score representing a treatment effect by a specific treatment method based on the acquired distribution pattern. Specifically, the therapeutic effect score is calculated based on the distribution pattern (distribution shape of oxygen saturation) and information calculated from the distribution pattern (the area of the hypoxic region, the ratio of the high oxygen region in the hypoxic region, etc.). calculate.
- the therapeutic effect score calculation unit 301 inputs the calculated therapeutic effect score to the image display signal generation unit 66, thereby monitoring the therapeutic effect score 302 along with the oxygen saturation image 142 to be observed as shown in FIG. 18 is displayed.
- Specific treatment methods and their therapeutic effects include, for example, anticancer drugs and their effects, radiation therapy and their effects, surgery and their prognosis (survival rate, likelihood of recurrence and metastasis) when the lesion is cancer. .
- the therapeutic effect score calculation unit 301 treats the anticancer agent when there are many hypoxic regions.
- the effect score is low and there are many high oxygen regions (particularly, the proportion of the high oxygen region in the low oxygen region is large)
- the therapeutic effect score of the anticancer agent is scored high.
- the therapeutic effect score calculation unit 301 sets the therapeutic effect score of radiotherapy when there are many hypoxic regions. Scoring low and scoring a high therapeutic effect score for radiation therapy when there are many high oxygen regions (the proportion of high oxygen regions in the low oxygen region is large).
- the endoscope system of the fourth embodiment is obtained by adding a message display control unit 401 to the evaluation unit 65 with respect to the endoscope system 10 of the first embodiment.
- the configuration is the same as that of the endoscope system 10 of the first embodiment.
- the message display control unit 401 acquires a medical condition score from the medical condition score calculation unit 97, and monitors the acquired value of the medical condition score. For example, the message display control unit 401 inputs information corresponding to a medical condition score such as a warning to the image display signal generation unit 66. As a result, as shown in FIG. 28, a message 402 corresponding to the disease state score is displayed on the monitor 18 along with the oxygen saturation image 142 to be observed. For example, when the disease state score is large, there is a high possibility that the mucosal muscle plate 105 or the submucosal tissue layer 106 has infiltrated. If the disease state score is equal to or higher than a predetermined value, the possibility of infiltration is warned.
- the message 402 to be displayed is preferably displayed.
- the message display control unit 401 always monitors the medical condition score, but the message 402 may not be displayed.
- the message may be displayed only when the symptom score is a specific symptom score, such as when the medical condition score is greater than or equal to (or less than) a specific value or within a predetermined range.
- the endoscope system of the fifth embodiment is obtained by adding an automatic storage control unit 501 to the evaluation unit 65 with respect to the endoscope system 10 of the first embodiment.
- the configuration is the same as that of the endoscope system 10 of the first embodiment.
- the automatic storage control unit 501 acquires a medical condition score from the medical condition score calculation unit 97 and monitors the value. Then, when the medical condition score is equal to or greater than a predetermined specified value, for example, an oxygen saturation image output from the structure enhancement unit 78 is acquired and automatically stored in the storage unit 502. The automatic storage of the oxygen saturation image performed by the automatic storage control unit 501 is executed even when a doctor operating the endoscope system does not perform an operation for storing a still image.
- the oxygen saturation image that is automatically stored is stored in association with a disease state score.
- the medical condition score is recorded as incidental information in the header of the oxygen saturation image, for example.
- the medical condition score is high, there is a high possibility of advanced cancer, and it is usually highly likely that the doctor will save it as a still image. However, even if the doctor forgets to save it as a still image, automatic Since the oxygen saturation image is automatically stored by the storage control unit 501, there is no need to repeat the examination, and the burden on the doctor and the subject is reduced.
- automatic saving by the automatic saving control unit 501 may be executed at regular frame intervals.
- the similar clinical data selection unit 201 of the second embodiment, the treatment effect score calculation unit 301 of the third embodiment, the message display control unit 401 of the fourth embodiment, and the automatic storage control unit 501 of the fifth embodiment Can be used in any combination.
- the endoscope system includes a feature region extraction unit 601 in the evaluation unit 65.
- the medical condition score calculation unit 602 calculates a medical condition score based on the oxygen saturation distribution pattern in the feature region extracted by the feature region extraction unit 601.
- Other configurations are the same as those of the endoscope system 10 of the first embodiment.
- the feature region extraction unit 601 acquires an image signal, and extracts a portion suspected of being a lesion as a feature region to be observed. For example, as illustrated in FIG. 31, the feature region extraction unit 601 extracts a region with a strong redness (hereinafter referred to as a red region) 605 as a feature region based on the acquired image signal.
- a red region a region with a strong redness
- the disease state score calculation unit 602 calculates a disease state score representing a disease state to be observed based on the oxygen saturation distribution pattern in the reddening region 605 extracted by the feature region extraction unit 601. For example, if a distribution pattern having a high oxygen region 607 in a low oxygen region 606 overlaps with the red region 605 as in the oxygen saturation distribution pattern 603, the red region 605 forms a new blood vessel by cancer tissue. Is likely due to. For this reason, by calculating the disease state score based on the oxygen saturation distribution pattern in the reddening region 605, the presence / absence of the cancer tissue and the degree of progression thereof can be expressed particularly accurately by the disease state score.
- the disease state score calculation unit 602 displays a disease state score when the redness region 605 has a high oxygen region with an oxygen saturation level equal to or higher than a certain value, and a disease state score when the redness region 605 does not have a high oxygen region. Larger than. Further, when the red region 605 includes a high oxygen region, the disease state score is increased as the ratio of the high oxygen region to the red region 605 increases. In this way, the degree of cancer progression can be expressed more easily by the disease state score.
- the disease state score calculation unit 602 has a disease state score when the redness region 605 has a high oxygen region with an oxygen saturation level equal to or higher than a certain value smaller than a disease state score when the redness region 605 does not have a high oxygen region. You may do it. In this case, when there is a high oxygen region in the red region 605, the disease state score decreases as the ratio of the high oxygen region to the red region 605 increases. Even in this case, the degree of progression of cancer can be expressed more easily by the disease state score.
- the feature region extraction unit 601 can extract the red region 605 using the B2 image signal or the G2 image signal.
- the B2 image signal and G2 image signal including information on this wavelength band the contrast due to the absorption of hemoglobin greatly appears. This is because it is easy to determine the presence or absence of blood vessels.
- a B1 image signal or a G2 image signal may be used.
- the red region 605 may be extracted based on a plurality of image signals including the R1 (R2) image signal.
- region 605 is extracted as a characteristic area
- the disease state score is input to the image display signal generation unit 66 and displayed on the monitor 18 as in the first embodiment. Therefore, the second to fifth embodiments can be used in combination with the sixth embodiment.
- the light source device 14 of the endoscope system 700 includes an LED (Light Emitting Diode) light source unit 701 instead of the first and second blue laser light sources 34 and 36 and the light source control unit 40.
- An LED light source control unit 704 is provided.
- the phosphor 44 is not provided in the illumination optical system 24 a of the endoscope system 700. Other than that, it is the same as the endoscope system 10 of the first embodiment.
- the LED light source unit 701 includes an R-LED 701a, a G-LED 701b, and a B-LED 701c as light sources that emit light limited to a specific wavelength band.
- the R-LED 701a has a red band light in the red region of 600 to 720 nm (hereinafter simply referred to as red light)
- the G-LED 701b has a green band light in the green region of 480 to 620 nm (hereinafter referred to as “red light”). Simply emits green light).
- the B-LED 701c emits blue band light in the blue region of 400 to 500 nm (hereinafter simply referred to as blue light).
- the LED light source unit 701 has a high-pass filter (HPF) 702 that is inserted into and removed from the optical path of blue light emitted from the B-LED 701c.
- the high pass filter 702 cuts blue light having a wavelength band of 450 nm or less and transmits light having a wavelength band longer than 450 nm.
- the cut-off wavelength (450 nm) of the high-pass filter 702 is a wavelength at which the absorption coefficients of oxyhemoglobin and reduced hemoglobin are substantially equal (see FIG. 10), and the absorption coefficients of oxyhemoglobin and reduced hemoglobin are reversed at this wavelength.
- the correlation stored in the correlation storage unit 82 is a case where the extinction coefficient of oxyhemoglobin is larger than the extinction coefficient of reduced hemoglobin. Therefore, a signal based on a wavelength band equal to or less than the cutoff wavelength is The signal ratio B1 / G2 is lower than the original value measured at 473 nm, causing inaccurate oxygen saturation to be calculated. For this reason, the high-pass filter 702 prevents the observation target from being irradiated with light in a wavelength band equal to or less than the cutoff wavelength when acquiring the B1 image signal for calculating the oxygen saturation.
- the high pass filter 702 is inserted in front of the B-LED 701c in the special observation mode, and is retracted to the retreat position in the normal observation mode.
- the high-pass filter 702 is inserted / removed by the HPF insertion / extraction unit 703 under the control of the LED light source control unit 704.
- the LED light source control unit 704 controls turning on / off of the LEDs 701a to 701c of the LED light source unit 701 and insertion / extraction of the high-pass filter 702. Specifically, as shown in FIG. 34, in the normal observation mode, the LED light source control unit 704 turns on all the LEDs 701a to 701c, and the high-pass filter 702 retracts from the optical path of the B-LED 701c.
- the LED light source control unit 704 inserts the high-pass filter 702 on the optical path of the B-LED 701c.
- the B-LED 701c is turned on and the R-LED 701a and the G-LED 701b are turned off, so that the observation target is irradiated with blue light having a wavelength band of 450 nm or less.
- the R-LED 701a, the G-LED 701b, and the B-LED 701c are all turned on, and the blue light from which the wavelength band of 450 nm or less is cut out of the blue light emitted from the B-LED 701c and the R-LED 701a emits light.
- the observation object is irradiated with white light composed of red light and green light emitted from the G-LED 701b. Accordingly, the sensor 48 outputs a B1 image signal in the first frame, and outputs an R2 image signal, a G2 image signal, and a B2 image signal in the second frame, respectively. Therefore, the subsequent processing can be performed in the same manner as the endoscope system 10 of the first embodiment.
- the observation target is imaged with the high-pass filter 702 inserted in both the first frame and the second frame in the special observation mode, but the high-pass filter 702 is inserted only in the first frame, The high pass filter 702 may be retracted to the eyes. Further, in the first frame in the special observation mode, only the B-LED 701c is turned on and only the blue light is irradiated to the observation target. However, the R-LED 701a and the G-LED 701b are also turned on in the first frame, The signal and the G1 image signal may be output to the sensor 48.
- the light source device 14 of the endoscope system 800 includes a broadband light source 801, a rotary filter 802, and a rotation instead of the first and second blue laser light sources 34 and 36 and the light source control unit 40.
- a filter control unit 803 is provided.
- the sensor 805 of the endoscope system 800 is a monochrome image sensor that is not provided with a color filter. About other than that, it is the same as the endoscope system 10 of 1st Embodiment.
- the broadband light source 801 includes, for example, a xenon lamp, a white LED, and the like, and emits white light whose wavelength band ranges from blue to red.
- the rotary filter 802 includes a normal observation mode filter 810 and a special observation mode filter 811 (see FIG. 37), and the white light emitted from the broadband light source 801 is normally placed on the optical path on which the light guide 41 is incident. It is movable in the radial direction between the first position for the normal observation mode where the filter for observation mode 810 is arranged and the second position for the special observation mode where the filter for special observation mode 811 is arranged.
- the mutual movement of the rotary filter 802 to the first position and the second position is controlled by the rotary filter control unit 803 according to the selected observation mode. Further, the rotary filter 802 rotates according to the imaging frame of the sensor 805 in a state where the rotary filter 802 is disposed at the first position or the second position. The rotation speed of the rotation filter 802 is controlled by the rotation filter control unit 803 according to the selected observation mode.
- the normal observation mode filter 810 is provided on the inner periphery of the rotary filter 802.
- the normal observation mode filter 810 includes an R filter 810a that transmits red light, a G filter 810b that transmits green light, and a B filter 810c that transmits blue light. Therefore, when the rotary filter 802 is arranged at the first position for the normal light observation mode, white light from the broadband light source 801 is selected from the R filter 810a, the G filter 810b, and the B filter 810c according to the rotation of the rotary filter 802. Is incident on.
- the observation object is sequentially irradiated with red light, green light, and blue light according to the transmitted filter, and the sensor 805 images the observation object with these reflected lights, thereby obtaining an R image signal, A G image signal and a B image signal are sequentially output.
- the special observation mode filter 811 is provided on the outer peripheral portion of the rotary filter 802.
- the special observation mode filter 811 includes an R filter 811a that transmits red light, a G filter 811b that transmits green light, a B filter 811c that transmits blue light, and a narrow band that transmits 473 ⁇ 10 nm narrow band light. And a filter 811d. Therefore, when the rotary filter 802 is disposed at the second position for the normal light observation mode, white light from the broadband light source 801 is converted into the R filter 811a, the G filter 811b, the B filter 811c, and the narrow band according to the rotation of the rotary filter 802. The light enters one of the filters 811d.
- the observation target is sequentially irradiated with red light, green light, blue light, and narrowband light (473 nm) according to the transmitted filter, and the sensor 805 images each of the observation targets with these reflected lights.
- an R image signal, a G image signal, a B image signal, and a narrowband image signal are sequentially output.
- the R image signal and the G image signal obtained in the special observation mode correspond to the R1 (or R2) image signal and the G1 (or G2) image signal of the first embodiment.
- the B image signal obtained in the special observation mode corresponds to the B2 image signal of the first embodiment, and the narrowband image signal corresponds to the B1 image signal. Therefore, the subsequent processing can be performed in the same manner as the endoscope system 10 of the first embodiment.
- the oxygen saturation is calculated based on the signal ratio B1 / G2 and the signal ratio R2 / G2, but the oxygen saturation is calculated based only on the signal ratio B1 / G2. May be.
- the correlation storage unit 82 may store the correlation between the signal ratio B1 / G2 and the oxygen saturation.
- an oxygen saturation image obtained by imaging oxygen saturation is generated and displayed.
- a blood volume image obtained by imaging blood volume is generated and displayed. May be. Since the blood volume has a correlation with the signal ratio R2 / G2, a blood volume image in which the blood volume is imaged can be created by assigning a different color according to the signal ratio R2 / G2.
- the oxygen saturation is calculated, but instead of or in addition to this, “blood volume (signal ratio R2 / G2) ⁇ oxygen saturation (%)”.
- Other biological function information such as an oxyhemoglobin index obtained or a reduced hemoglobin index obtained from “blood volume ⁇ (1 ⁇ oxygen saturation) (%)” may be calculated.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Endoscopes (AREA)
Abstract
観察対象の酸素飽和度に基づいて医師をサポートするための情報を提示する。内視鏡システムは、光源装置と、イメージセンサと、酸素飽和度算出部と、分布パターン生成部と、病状スコア算出部と、モニタと、を備える。光源装置は、観察対象に光を照射する。イメージセンサは、光の反射光で観察対象を撮像し、画像信号を出力する。酸素飽和度算出部は、画像信号に基づいて観察対象の酸素飽和度を算出する。分布パターン生成部は、酸素飽和度に関する分布を表す分布パターンを生成する。病状スコア算出部は、分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。モニタは病状スコアまたは病状スコアに基づく情報を表示する。
Description
本発明は、被検体内の観察対象を撮像して得られる画像信号から血中ヘモグロビンの酸素飽和度に関する生体機能情報を求める内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法に関する。
医療分野においては、光源装置、内視鏡及びプロセッサ装置を備える内視鏡システムを用いて診断することが一般的になっている。また、近年においては、生体機能情報の中でも血中ヘモグロビンの酸素飽和度を用いた病変部の診断が行われつつあり、特に、酸素飽和度に基づいて正常組織と癌組織の判別をすることができる(特許文献1,2)。さらに、特許文献1では、照射する光の組み合わせを変えて、観察対象の表層,中層,深層の各酸素飽和度の分布を表示することにより、より詳細な癌組織の状態の判別を可能にしている。
酸素飽和度を取得する方法としては、波長帯域と、酸化ヘモグロビン及び還元ヘモグロビンの吸光係数と、が異なる第1信号光及び第2信号光を交互に粘膜内の血管に照射して、第1及び第2信号光の各反射光を内視鏡先端部のセンサで検出する方法が知られている(特許文献1~3)。
センサで検出した第1信号光の反射光に対応する第1信号光画像信号と、第2信号光の反射光に対応する第2信号光画像信号との比率(以下、信号比という)は、血管内の酸素飽和度に変化がなければ一定値を維持するが、酸素飽和度の変化が生じれば、それにともなって変化する。したがって、第1信号光画像信号と第2信号光画像信号との信号比に基づいて酸素飽和度を算出することができる。
「酸素飽和度」あるいは「酸素飽和度を表す画像(以下、酸素飽和度画像という)」を提示されれば、医師はこれに基づいて癌組織の有無を識別することができる。特に、特許文献1のように、内視鏡システムが観察対象の表層,中層,深層の酸素飽和度の分布を提示すれば、医師は癌組織の識別をより正確に行うことができる。
但し、こうした酸素飽和度画像による診断の正確性は、医師の知識や経験(熟練度)による部分も大きく、診断結果にばらつきが生じることがある。例えば、酸素飽和度画像に基づいて癌組織を発見できるとしても、その進行度(例えば、ステージ分類)等のより詳細な診断結果は、医師によって異なってしまう場合がある。また、酸素飽和度画像等の内視鏡システムが提供する各種画像だけでは癌の進行度を診断できない場合もある。
本発明は、観察対象の酸素飽和度に基づいて、より正確かつ詳細な診断を行えるように医師をサポートするための情報を提示する内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法を提供することを目的とする。
本発明の内視鏡システムは、光源装置と、イメージセンサと、酸素飽和度算出部と、分布パターン生成部と、病状スコア算出部と、表示部と、を備える。光源装置は、観察対象に光を照射する。イメージセンサは、光源装置が照射する光の反射光で観察対象を撮像し、画像信号を出力する。酸素飽和度算出部は、画像信号に基づいて観察対象の酸素飽和度を算出する。分布パターン生成部は、酸素飽和度に関する分布を表す分布パターンを生成する。病状スコア算出部は、分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。表示部は、病状スコアまたは病状スコアに基づく情報を表示する。
酸素飽和度が一定値未満の低酸素領域中に酸素飽和度が一定値以上の高酸素領域がある場合の病状スコアは、低酸素領域中に高酸素領域がない場合の病状スコアよりも大きいことが好ましい。また、低酸素領域中に高酸素領域がある場合、低酸素領域に対する高酸素領域の割合が大きいほど病状スコアが大きいことが好ましい。
逆に、酸素飽和度が一定値未満の低酸素領域中に酸素飽和度が一定値以上の高酸素領域がある場合の病状スコアは、低酸素領域中に高酸素領域がない場合の病状スコアよりも小さくなるようにしても良い。この場合、低酸素領域中に高酸素領域がある場合、低酸素領域に対する高酸素領域の割合が大きいほど病状スコアが小さくなる。
病状スコア算出部は、例えば、特定分布形状の基準パターンと、分布パターン生成部が算出した分布パターンとを比較し、基準パターンと分布パターン生成部が算出した分布パターンとの類似度を病状スコアとして算出する。特定分布形状の基準パターンは、酸素飽和度が一定値未満の低酸素領域中に酸素飽和度が一定値以上の高酸素領域があるパターンである。
また、分布パターン生成部は、予め指定された関心領域について分布パターンを生成しても良い。この場合、病状スコア算出部は、関心領域に対して病状スコアを算出する。
内視鏡システムは、さらに類似臨床データ選出部を備えていても良い。類似臨床データ選出部は、過去の臨床データが予め複数記憶されたデータベースを参照して、分布パターンを臨床データと比較し、臨床データのうち分布パターンが類似する類似臨床データを選出して表示部に表示させる。類似臨床データ選出部は、例えば、類似臨床データに含まれる酸素飽和度画像を表示部に表示させる。
また、内視鏡システムは、さらに治療効果スコア算出部を備えていても良い。治療効果スコア算出部は、分布パターンに基づいて、特定の治療方法による治療効果を表す治療効果スコアを算出し、表示部に表示させる。
また、内視鏡システムは、さらに自動保存制御部を備えていても良い。自動保存制御部は、例えば観察対象の静止画像を保存するフリーズ操作がされなかった場合でも、病状スコアが規定値以上の値になった場合には、画像信号と酸素飽和度に基づいて生成される酸素飽和度画像と病状スコアとを関連付けて、自動的に保存する。
表示部は、病状スコアが規定値以上の場合に病状スコアまたは病状スコアに基づく情報を表示しても良い。
また、本発明の内視鏡システムは、画像信号に基づいて観察対象の特徴領域を抽出する特徴領域抽出部を備えていることが好ましい。この場合、病状スコア算出部は、特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。
特徴領域抽出部は、例えばイメージセンサの青色画素から得られる青色の画像信号または緑色画素から得られる緑色の画像信号に基づいて観察対象の特徴領域を抽出する。
特徴領域は発赤領域であり、発赤領域中に酸素飽和度が一定値以上の高酸素領域がある場合の病状スコアは、発赤領域中に高酸素領域がない場合の病状スコアよりも大きいことが好ましい。また、発赤領域中に高酸素領域がある場合、発赤領域に対する高酸素領域の割合が大きいほど病状スコアが大きいことが好ましい。
特徴領域は発赤領域であり、発赤領域中に酸素飽和度が一定値以上の高酸素領域がある場合の病状スコアを、発赤領域中に高酸素領域がない場合の病状スコアよりも小さくしても良い。この場合、発赤領域中に高酸素領域がある場合、発赤領域に対する高酸素領域の割合が大きいほど病状スコアを小さくすれば良い。
病状スコアを監視し、病状スコアに応じたメッセージを表示部に表示させるメッセージ表示制御部を備えていても良い。
本発明の内視鏡システムのプロセッサ装置は、観察対象に光を照射するための光源装置と、光源装置が照射する光の反射光で観察対象を撮像し、画像信号を出力するイメージセンサと、表示部と、を有する内視鏡システムのための、内視鏡システムのプロセッサ装置であり、酸素飽和度算出部と、分布パターン生成部と、病状スコア算出部と、を備える。酸素飽和度算出部は、画像信号に基づいて観察対象の酸素飽和度を算出する。分布パターン生成部は、酸素飽和度に関する分布を表す分布パターンを生成する。病状スコア算出部は、分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。
また、画像信号に基づいて前記観察対象の特徴領域を抽出する特徴領域抽出部を備えていても良い。この場合、病状スコア算出部は、特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。
本発明の内視鏡システムの作動方法は、観察対象に光を照射するための光源装置と、光源装置が照射する光の反射光で観察対象を撮像し、画像信号を出力するイメージセンサと、表示部と、を有する内視鏡システムの作動方法であり、酸素飽和度算出ステップと、分布パターン生成ステップと、病状スコア算出ステップと、表示ステップと、を備える。酸素飽和度算出ステップでは、酸素飽和度算出部が画像信号に基づいて観察対象の酸素飽和度を算出する。分布パターン生成ステップでは、分布パターン生成部が酸素飽和度に関する分布を表す分布パターンを生成する。病状スコア算出ステップでは、病状スコア算出部が分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。表示ステップでは、表示部が病状スコアまたは病状スコアに基づく情報を表示する。
また、特徴領域抽出部が画像信号に基づいて前記観察対象の特徴領域を抽出する特徴領域抽出ステップを備えていても良い。この場合、病状スコア算出ステップでは、病状スコア算出部は特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。
本発明のプロセッサ装置の作動方法は、観察対象を撮像して得られる画像信号を処理するプロセッサ装置の作動方法であり、酸素飽和度算出ステップと、分布パターン生成ステップと、病状スコア算出ステップと、を備える。酸素飽和度算出ステップでは、酸素飽和度算出部が画像信号に基づいて観察対象の酸素飽和度を算出する。分布パターン生成ステップでは、分布パターン生成部が酸素飽和度に関する分布を表す分布パターンを生成する。病状スコア算出ステップでは、病状スコア算出部が分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。
また、特徴領域抽出部が画像信号に基づいて前記観察対象の特徴領域を抽出する特徴領域抽出ステップを備えていても良い。この場合、病状スコア算出ステップでは、病状スコア算出部は、特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。
本発明の内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法によれば、酸素飽和度に基づいて、より正確かつ詳細な診断を行えるように医師をサポートするための情報をさらに提示することができる。
[第1実施形態]
図1に示すように、第1実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18(表示部)と、コンソール20とを有する。内視鏡12は、光源装置14と光学的に接続されるとともに、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入される挿入部21と、挿入部21の基端部分に設けられた操作部22と、挿入部21の先端側に設けられた湾曲部23及び先端部24とを有している。操作部22のアングルノブ22aを操作することにより、湾曲部23は湾曲動作する。この湾曲動作にともなって、先端部24が所望の方向に向けられる。
図1に示すように、第1実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18(表示部)と、コンソール20とを有する。内視鏡12は、光源装置14と光学的に接続されるとともに、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入される挿入部21と、挿入部21の基端部分に設けられた操作部22と、挿入部21の先端側に設けられた湾曲部23及び先端部24とを有している。操作部22のアングルノブ22aを操作することにより、湾曲部23は湾曲動作する。この湾曲動作にともなって、先端部24が所望の方向に向けられる。
また、操作部22には、アングルノブ22aの他、モード切替SW(モード切替スイッチ)22bと、ズーム操作部22cと、静止画像を保存するためのフリーズボタン(図示しない)と、が設けられている。モード切替SW22bは、通常観察モードと、特殊観察モードの2種類のモード間の切り替え操作に用いられる。通常観察モードは、被検体内の観察対象をフルカラー画像化した通常光画像をモニタ18に表示するモードである。特殊観察モードは、観察対象の血中ヘモグロビンの酸素飽和度を画像化した酸素飽和度画像をモニタ18に表示するモードである。ズーム操作部22cは、内視鏡12内のズームレンズ47(図2参照)を駆動させて、観察対象を拡大させるズーム操作に用いられる。
プロセッサ装置16は、モニタ18及びコンソール20と電気的に接続される。モニタ18は、通常光画像や酸素飽和度画像等の画像、及びこれらの画像に関する情報(以下、画像情報等という)を表示する。コンソール20は、機能設定等の入力操作を受け付けるUI(ユーザインタフェース)として機能する。なお、プロセッサ装置16には、画像情報等を記録する記録部(図示省略)を接続しても良い。
図2に示すように、光源装置14は、中心波長473nmの第1青色レーザ光を発する第1青色レーザ光源(473LD(レーザダイオード))34と、中心波長445nmの第2青色レーザ光を発する第2青色レーザ光源(445LD)36とを発光源として備えている。これらの半導体発光素子からなる各光源34,36の発光は、光源制御部40により個別に制御される。このため、第1青色レーザ光源34の出射光と、第2青色レーザ光源36との出射光の光量比は変更自在になっている。
光源制御部40は、通常観察モードの場合には、第2青色レーザ光源36を点灯させる。これに対して、特殊観察モードの場合には、1フレーム間隔で、第1青色レーザ光源34と第2青色レーザ光源36を交互に点灯させる。なお、第1,第2青色レーザ光の半値幅は±10nm程度にすることが好ましい。また、第1青色レーザ光源34と第2青色レーザ光源36は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオード等の発光体を用いた構成としても良い。
各光源34,36から出射される第1,第2青色レーザ光は、集光レンズ、光ファイバ、合波器等の光学部材(いずれも図示せず)を介してライトガイド(LG)41に入射する。ライトガイド41は、光源装置14及び内視鏡12を接続するユニバーサルコード17(図1参照)と、内視鏡12とに内蔵されている。ライトガイド41は、各光源34,36からの第1,第2青色レーザ光を、内視鏡12の先端部24まで伝搬する。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
内視鏡12の先端部24は、照明光学系24aと撮像光学系24bとを有している。照明光学系24aには、蛍光体44と、照明レンズ45とが設けられている。蛍光体44には、ライトガイド41から第1,第2青色レーザ光が入射する。蛍光体44は、第1または第2青色レーザ光が照射されることで蛍光を発する。また、一部の第1または第2青色レーザ光は、そのまま蛍光体44を透過する。蛍光体44を出射した光は、照明レンズ45を介して観察対象に照射される。
通常観察モードにおいては、第2青色レーザ光が蛍光体44に入射するため、図3に示すスペクトルの白色光(第2白色光)が観察対象に照射される。この第2白色光は、第2青色レーザ光と、この第2青色レーザ光により蛍光体44から励起発光する緑色~赤色の第2蛍光とから構成される。したがって、第2白色光は、波長範囲が可視光全域に及んでいる。
一方、特殊観察モードにおいては、第1青色レーザ光と第2青色レーザ光が蛍光体44に交互に入射することにより、図4に示すスペクトルの第1白色光と第2白色光が交互に観察対象に照射される。第1白色光は、第1青色レーザ光と、この第1青色レーザ光により蛍光体44から励起発光する緑色~赤色の第1蛍光とから構成される。したがって、第1白色光は、波長範囲が可視光全域に及んでいる。第2白色光は、通常観察モード時に照射される第2白色光と同様である。
第1蛍光と第2蛍光は、波形(スペクトルの形状)がほぼ同じであり、第1蛍光の強度(I1(λ))と第2蛍光の強度(I2(λ))の比(以下、フレーム間強度比という)は、何れの波長λにおいても同じである。例えば、I2(λ1)/I1(λ1)=I2(λ2)/I1(λ2)である。このフレーム間強度比I2(λ)/I1(λ)は、酸素飽和度の算出精度に影響を与えるものであるため、光源制御部40により、予め設定された基準フレーム間強度比を維持するように高精度に制御されている。
なお、蛍光体44は、第1及び第2青色レーザ光の一部を吸収して、緑色~赤色に励起発光する複数種類の蛍光体(例えばYAG系蛍光体、あるいはBAM(BaMgAl10O17)等の蛍光体)を含んで構成されるものを使用することが好ましい。また、本実施形態のように、半導体発光素子を蛍光体44の励起光源として用いれば、高い発光効率で高強度の第1白色光及び第2白色光が得られる。また、各白色光の強度を容易に調整できる上に、色温度、色度の変化を小さく抑えることができる。
内視鏡12の撮像光学系24bは、撮像レンズ46、ズームレンズ47及びセンサ48を有している(図2参照)。観察対象からの反射光は、撮像レンズ46及びズームレンズ47を介してセンサ48に入射する。これにより、センサ48に観察対象の反射像が結像される。ズームレンズ47は、ズーム操作部22cを操作することでテレ端とワイド端との間を移動する。ズームレンズ47がテレ端側に移動すると観察対象の反射像が拡大する。一方、ズームレンズ47がワイド端側に移動することで、観察対象の反射像が縮小する。なお、拡大観察をしない場合(非拡大観察時)には、ズームレンズ47はワイド端に配置されている。そして、拡大観察を行う場合には、ズーム操作部22cの操作によってズームレンズ47はワイド端からテレ端側に移動される。
センサ48は、カラーの撮像素子であり、観察対象の反射像を撮像して画像信号を出力する。センサ48は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。また、センサ
48は、撮像面にRGBカラーフィルタが設けられたRGB画素を有しており、RGBの各色の画素で光電変換をすることによってR,G,Bの三色の画像信号を出力する。
48は、撮像面にRGBカラーフィルタが設けられたRGB画素を有しており、RGBの各色の画素で光電変換をすることによってR,G,Bの三色の画像信号を出力する。
図5に示すように、Bカラーフィルタは380~560nmの分光透過率を有しており、Gカラーフィルタは450~630nmの分光透過率を有しており、Rカラーフィルタ580~760nmの分光透過率を有している。したがって、通常観察モード時に第2白色光が観察対象に照射された場合には、B画素には第2青色レーザ光と第2蛍光の緑色成分の一部が入射し、G画素には第2蛍光の緑色成分の一部が入射し、R画素には第2蛍光の赤色成分が入射する。但し、第2青色レーザ光は第2蛍光よりも発光強度が極めて大きいのでB画素から出力するB画像信号の大部分は第2青色レーザ光の反射光成分で占められている。
一方、特殊観察モード時に第1白色光が観察対象に照射された場合には、B画素には第1青色レーザ光と第1蛍光の緑色成分の一部が入射し、G画素には第1蛍光の緑色成分の一部が入射し、R画素には第1蛍光の赤色成分が入射する。但し、第1青色レーザ光は第1蛍光よりも発光強度が極めて大きいので、B画像信号の大部分は第1青色レーザ光の反射光成分で占められている。なお、特殊観察モード時に第2白色光が観察対象に照射されたときのRGB各画素での光入射成分は、通常観察モードの場合と同様である。
なお、センサ48としては、撮像面にC(シアン),M(マゼンタ),Y(イエロー)及びG(グリーン)の補色フィルタを備えた、いわゆる補色イメージセンサを用いても良い。センサ48として補色イメージセンサを用いる場合は、CMYGの四色の画像信号からRGBの三色の画像信号に色変換する色変換部を、内視鏡12、光源装置14またはプロセッサ装置16のいずれかに設けておけば良い。こうすれば補色イメージセンサを用いる場合でも、CMYGの4色の画像信号から色変換によってRGB3色の画像信号を得ることができる。
撮像制御部49はセンサ48の撮像制御を行う。図6に示すように、通常観察モード時には、1フレームの期間毎に、第2白色光で照明された観察対象をセンサ48で撮像する。これにより、1フレーム毎にセンサ48からRGBの各画像信号が出力される。
撮像制御部49は、特殊観察モード時も、通常観察モード時と同様にしてセンサ48の撮像制御を行う。但し、特殊観察モード下ではセンサ48の撮像のフレームに同期して第1白色光と第2白色光が交互に観察対象に照射されるので、図7に示すように、センサ48は、1フレーム目に第1白色光で観察対象を撮像し、次の2フレーム目では第2白色光で観察対象を撮像する。センサ48は、1フレーム目,2フレーム目ともRGBの各色の画像信号を出力するが、依拠する白色光のスペクトルが異なるので、以下では区別のために、1フレーム目に第1白色光で撮像して得られるRGB各色の画像信号をそれぞれR1画像信号,G1画像信号,B1画像信号といい、2フレーム目に第2白色光で撮像して得られるRGB各色の画像信号をR2画像信号,G2画像信号,B2画像信号という。
なお、酸素飽和度の算出には、B1画像信号とG2画像信号の信号比B1/G2と、R2画像信号とG2画像信号の信号比R2/G2が用いられる。これらのうち、酸素飽和度の算出に必須な信号比は、B1画像信号とG2画像信号の信号比B1/G2である。このため、本実施形態では、第1白色光中のB1画像信号になる成分(蛍光体44を透過した第1青色レーザ光)が第1信号光であり、第2白色光中のG2画像信号になる成分(第2蛍光の緑色帯域成分)が第2信号光である。
センサ48から出力される各色の画像信号は、CDS(correlated double sampling)/AGC(automatic gain control)回路50に送信される(図2参照)。CDS/AGC回路50は、センサ48から出力されるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路50を経た画像信号は、A/D変換器52によってデジタル画像信号に変換される。こうしてデジタル化された画像信号はプロセッサ装置16に入力される。
プロセッサ装置16は、受信部54と、画像処理切替部60と、通常観察画像処理部62と、特殊観察画像処理部64と、評価部65と、画像表示信号生成部66とを備えている。受信部54は、内視鏡12から入力される画像信号を受信する。受信部54はDSP(Digital Signal Processor)56とノイズ除去部58とを備えており、DSP56は受信した画像信号に対して色補正処理等のデジタル信号処理を行う。ノイズ除去部58は、DSP56で色補正処理等が施された画像信号に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ除去処理を施す。ノイズが除去された画像信号は、画像処理切替部60に入力される。
画像処理切替部60は、モード切替SW22bが通常観察モードにセットされている場合には、画像信号を通常観察画像処理部62に入力する。一方、モード切替SW22bが特殊観察モードに設定されている場合、画像処理切替部60は、画像信号を特殊観察画像処理部64に入力する。
通常観察画像処理部62は、色変換部68と、色彩強調部70と、構造強調部72とを有する。色変換部68は、入力された1フレーム分のRGBの各画像信号を、それぞれR画素、G画素、B画素に割り当てたRGB画像データを生成する。そして、RGB画像データに対して、さらに3×3のマトリックス処理、階調変換処理、3次元LUT処理等の色変換処理を施す。
色彩強調部70は、色変換処理済みのRGB画像データに対して、各種色彩強調処理を施す。構造強調部72は、色彩強調処理済みのRGB画像データに対して、空間周波数強調等の構造強調処理を施す。構造強調部72で構造強調処理が施されたRGB画像データは、通常観察画像として画像表示信号生成部66に入力される。
特殊観察画像処理部64は、酸素飽和度画像生成部76と、構造強調部78とを有する。酸素飽和度画像生成部76は、酸素飽和度を算出するとともに、算出した酸素飽和度を表す酸素飽和度画像を生成する。
構造強調部78は、酸素飽和度画像生成部76から入力される酸素飽和度画像に対して、空間周波数強調処理等の構造強調処理を施す。構造強調部72で構造強調処理が施された酸素飽和度画像は、画像表示信号生成部66に入力される。
評価部65は、酸素飽和度画像生成部76で算出される酸素飽和度のデータを取得し、この酸素飽和度のデータに基づいて酸素飽和度に関する分布を表す分布パターンを生成する。そして、算出した分布パターンに基づいて観察対象の病状を表す病状スコアを算出する。病状とは、例えば、癌の進行度である。
画像表示信号生成部66は、通常観察画像または酸素飽和度画像を表示用形式の信号(表示用画像信号)に変換し、モニタ18に入力する。これにより、モニタ18には通常観察画像または酸素飽和度画像が表示される。また、画像表示信号生成部66には、評価部65から病状スコアが入力される。このため、画像表示信号生成部66は、酸素飽和度画像とともに、「病状スコア」または「病状スコアに基づく情報(警告メッセージ等)」をモニタ18に表示する。このため、医師は、酸素飽和度画像だけでなく、「病状スコア」または「病状スコアに基づく情報」の表示を参照することで、病変の可能性がある組織を、より客観的で正確かつ詳細に診断することができる。
図8に示すように、酸素飽和度画像生成部76は、信号比算出部81と、相関関係記憶部82と、酸素飽和度算出部83と、画像生成部87と、を備えている。
信号比算出部81には、酸素飽和度画像生成部76に入力される2フレーム分の画像信号のうち、B1画像信号、G2画像信号及びR2画像信号が入力される。信号比算出部81は、B1画像信号とG2画像信号の信号比B1/G2と、G2画像信号とR2画像信号の信号比R2/G2とを、画素毎に算出する。
相関関係記憶部82は、信号比B1/G2及び信号比R2/G2と、酸素飽和度の相関関係を記憶している。この相関関係は、図9に示す二次元空間上に酸素飽和度の等値線を定義した2次元テーブルで記憶されている。信号比B1/G2及び信号比R2/G2に対する、等値線の位置及び形状は、光散乱の物理的なシミュレーションによって予め得られ、各等値線の間隔は、血液量(信号比R2/G2)に応じて変化する。なお、信号比B1/G2及び信号比R2/G2と、酸素飽和度との相関関係は、logスケールで記憶されている。
なお、上記相関関係は、図10に示すように、酸化ヘモグロビン(グラフ90)及び還元ヘモグロビン(グラフ91)の吸光特性や光散乱特性などと密接に関連し合っている。例えば、第1青色レーザ光の中心波長473nmのように、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数の差が大きい波長では、酸素飽和度の情報を取り扱いやすい。しかしながら、473nmの光に対応する信号を含むB1画像信号は、酸素飽和度だけでなく、血液量にも依存度が高い。そこで、B1画像信号に加え、主として血液量に依存して変化する光に対応するR2画像信号と、B1画像信号及びR2画像信号のリファレンス信号となるG2画像信号と、から得られる信号比B1/G2及びR2/G2を用いることで血液量に依存することなく、酸素飽和度を正確に求めることができる。
酸素飽和度算出部83は、相関関係記憶部82に記憶された相関関係を参照し、信号比算出部81で算出された信号比B1/G2及び信号比R2/G2に対応する酸素飽和度を画素毎に算出する。例えば、特定画素における信号比B1/G2及び信号比R2/G2がそれぞれB1*/G2*及びR2*/G2*である場合、図11に示すように、相関関係を参照すると、信号比B1*/G2*及び信号比R2*/G2*に対応する酸素飽和度は「60%」である。したがって、酸素飽和度算出部83は、この画素の酸素飽和度を「60%」と算出する。
なお、信号比B1/G2及び信号比R2/G2が極めて大きくなったり、極めて小さくなったりすることはほとんどない。すなわち、信号比B1/G2や信号比R2/G2の値が、酸素飽和度0%の下限ライン93を上回ったり、反対に酸素飽和度100%の上限ライン94を下回ったりすることはほとんどない。但し、算出する酸素飽和度が下限ライン93を下回ってしまった場合には酸素飽和度算出部83は酸素飽和度を0%とし、上限ライン94を上回ってしまった場合には酸素飽和度を100%とする。また、信号比B1/G2及び信号比R2/G2に対応する点が下限ライン93と上限ライン94の間から外れた場合には、その画素における酸素飽和度の信頼度が低いことが分かるように表示をしたり、酸素飽和度を算出しないようにしたりしても良い。
画像生成部84は、酸素飽和度算出部83で算出された酸素飽和度のデータと、B2画像信号、G2画像信号及びR2画像信号とを用いて、酸素飽和度を画像化した酸素飽和度画像を生成する。具体的には、画像生成部84は、入力される元のB2画像信号,G2画像信号及びR2画像信号に対して、酸素飽和度に応じたゲインを画素毎に施し、ゲインを施したB2画像信号,G2画像信号及びR2画像信号を用いてRGB画像データを生成する。例えば、画像生成部84は、補正酸素飽和度が60%以上の画素ではB2画像信号,G2画像信号及びR2画像信号のいずれにも同じゲイン「1」を乗じる。これに対して、補正酸素飽和度が60%未満の画素では、B2画像信号に対して「1」未満のゲインを乗じ、G2画像信号及びR2画像信号に対しては「1」以上のゲインを乗じる。このゲイン処理後のB1画像信号,G2画像信号及びR2画像信号を用いて生成されたRGB画像データが酸素飽和度画像である。
画像生成部84が生成した酸素飽和度画像では、高酸素の領域(酸素飽和度が60~100%の領域)は、通常観察画像と同様の色で表される。一方、酸素飽和度が特定値を下回る低酸素の領域(酸素飽和度が0~60%の領域)は、通常観察画像とは異なる色(疑似カラー)で表される。
なお、本実施形態では、画像生成部84は、低酸素の領域のみ疑似カラー化するゲインを乗じているが、高酸素領域でも酸素飽和度に応じたゲインを施し、酸素飽和度画像の全体を疑似カラー化しても良い。また、低酸素領域と高酸素領域を酸素飽和度60%で分けているがこの境界も任意である。
図12に示すように、評価部65は、分布パターン生成部96、病状スコア算出部97及び基準パターン記憶部98を備える。
分布パターン生成部96は、酸素飽和度算出部83が画素毎に算出した酸素飽和度のデータを取得し、酸素飽和度に関する分布を表す分布パターンを生成する。分布パターンとは、例えば、各画素の酸素飽和度を画像のように配列した2次元状の分布パターンや、これを所定方向に微分した酸素飽和度の勾配に関する分布パターン、各画素の酸素飽和度を画像のように配列した2次元状の分布パターンをフーリエ変換することにより得られる空間周波数スペクトルである。本実施形態では、分布パターン生成部96は、酸素飽和度の分布を分布パターンとして算出するが、分布パターン生成部96は、他の上記分布パターンを生成しても良いし、複数の分布パターンを生成しても良い。
例えば、図13の通常観察画像101及びその中央の断面102に示すように、癌組織103が粘膜筋板105を浸潤せずに粘膜層104に留まっている早期癌の場合、癌組織103の周辺には新生血管103aが構築されるものの、これらの新生血管103aは粘膜下組織層106の太い血管106aには到達しない。このため、酸素飽和度の分布115やその中央での分布116に示すように、癌組織103は正常組織よりも酸素飽和度が低い低酸素領域になっている。また、癌組織が多い部分ほど酸素が欠乏して酸素飽和度が低下するので、早期癌では、癌組織103の概ね中央近傍が最も低酸素状態になり、中央のX1-X2断面に沿ってみれば、酸素飽和度の分布は、U字(あるいはV字)の分布になる。
一方、図14の通常観察画像110及びその中央の断面112に示すように、癌組織113が粘膜筋板105を浸潤した進行癌の場合、癌組織113の周辺に構築された新生血管113aの一部は粘膜下組織層106の太い血管106aに到達する。このため、酸素飽和度の分布125やその中央での分布126に示すように、新生血管113aが粘膜下組織層106の太い血管106aに到達していない癌組織113の周辺部分では、早期癌である癌組織103と同様に周辺の正常組織よりも酸素飽和度が低い低酸素状態になるが、新生血管113aが粘膜下組織層106の太い血管106aに到達した中央部分では酸素の供給が豊富になるので、例えば正常組織と同等程度の高酸素状態になる。このため、進行癌では、中央部分に高酸素領域が形成され、その周囲が低酸素領域で囲まれた円環状の低酸素領域が観察される。また、中央の断面X1-X2に沿ってみれば、酸素飽和度の分布は、中央が凸になったW字に近い分布になる。
本実施形態では、分布パターン生成部96は、この酸素飽和度の分布115,125を分布パターンとして算出する。酸素飽和度の勾配や空間周波数スペクトルは、上記酸素飽和度の分布115,125を微分し、あるいはフーリエ変換することにより求めることができる。なお、図13及び図14から分かるように、癌が発生すると、酸素飽和度の空間周波数スペクトルには高周波成分が生じ、癌が進行して粘膜筋板105を浸潤した場合に、さらなる高周波成分が生じる。
病状スコア算出部97は、分布パターン生成部96が算出した分布パターンに基づいて、観察対象の病状を表す病状スコアを算出する。具体的には、分布パターン生成部96が算出した分布パターンを、基準パターン記憶部98に予め記憶された基準パターンと比較し、その類似度を病状スコアとして算出する。本実施形態では、分布パターン生成部96は酸素飽和度の分布を分布パターンとして算出するので、これに対応して、基準パターン記憶部98には過去の臨床データ等に基づいて作成された酸素飽和度の分布の雛形が基準パターンとして予め記憶している。病状スコア算出部97は、分布パターン生成部96から得る分布パターンと、基準パターンとのマッチングを行って病状スコア(類似度)を算出する。
図15に示すように、基準パターン130は、例えば酸素飽和度が一定値未満の低酸素領域131中に、酸素飽和度が一定値以上の高酸素領域132を有する特定の酸素飽和度の分布形状である。すなわち、この基準パターン130は、進行癌の酸素飽和度の分布を模した酸素飽和度の分布形状になっている。なお、低酸素領域131や高酸素領域132を区別する酸素飽和度の一定値は、臨床データに基づいて定められている。また、低酸素領域131の外周部分133の酸素飽和度は、正常組織の酸素飽和度を模した値になっている。
病状スコア算出部97は、基準パターン130を拡大あるいは縮小して、分布パターン生成部96が算出した分布パターンとマッチングする。低酸素領域中に高酸素領域がない早期癌の分布パターン115(図13参照)に比べて、低酸素領域中に高酸素領域を有する進行癌の分布パターン125(図14参照)の方が基準パターン130との類似度が高い。このため、病状スコアは進行癌を観察している場合に大きい。なお、癌がない場合には、分布パターン生成部96が算出した分布パターンには低酸素領域すら含まれないので、早期癌を観察している場合よりもさらに病状スコアは小さい。
上記のように、病状スコアは、低酸素領域中に高酸素領域が有る場合に高スコアになるが、さらに、低酸素領域中にある高酸素領域の割合が大きいほど、病状スコアが大きいことが好ましい。低酸素領域中にある高酸素領域の割合は粘膜筋板105が浸潤されている範囲に対応するので、このように病状スコアをスコアリングすれば、進行癌の進行程度をさらに詳細かつ客観的に評価することができる。低酸素領域中にある高酸素領域の割合に応じて大きい病状スコアを算出するためには、例えば、高酸素領域132の面積を変えた複数の基準パターンを予め用意し、これらと分布パターンとのマッチングを行い、各基準パターンとのマッチングで得られた病変スコアの総計を最終的な病変スコアとすれば良い。また、基準パターン130から演算により、低酸素領域中にある高酸素領域の割合が異なる基準パターンを生成して用いても良い。また、マッチングで得られた類似度を、低酸素領域中にある高酸素領域の割合に応じて補正した値を病変スコアにしても良い。
なお、病状スコア算出部97が算出した病状スコアは、画像表示信号生成部66に入力され、酸素飽和度画像とともにモニタ18に表示される。
次に、本実施形態の内視鏡システム10による観察の流れを図16のフローチャートに沿って説明する。まず、通常観察モードにおいて、最も遠景の状態からスクリーニングを行う(S10)。通常観察モードでは、通常観察画像がモニタ18に表示される。このスクリーニング時に、ブラウニッシュエリアや発赤等の病変の可能性がある部位(以下、病変可能性部位という)を発見した場合(S11)には、モード切替SW22bを操作して、特殊観察モードに切り替える(S12)。そして、この特殊観察モードにおいて、病変可能性部位の診断を行う。
特殊観察モードでは、第1及び第2白色光がセンサ48の撮像フレームに同期して交互に観察対象に照射されるので、第1白色光が照射されたフレームではセンサ48はR1画像信号,G1画像信号及びB1画像信号を出力し、第2白色光が照射されたフレームではR2画像信号,G2画像信号及びB2画像信号を出力する。これら2フレーム分の画像信号に基づいて、信号比算出部81によって信号比B1/G2及び信号比R2/G2が画素毎に算出される(S13)。そして、酸素飽和度算出部83によって、これらの信号比B1/G2及び信号比R2/G2に基づいて、画素毎に酸素飽和度が算出される(S14)。酸素飽和度が算出されると、画像生成部87においてB2画像信号、G2画像信号及びR2画像信号に、酸素飽和度に応じたゲインを施した酸素飽和度画像が生成される(S15)。
また、分布パターン生成部96によって、酸素飽和度算出部83で算出された酸素飽和度のデータに基づいて酸素飽和度に関する分布を表す分布パターンが算出され(S16)、さらに病状スコア算出部97によってこの分布パターンに基づいて病状スコアが算出される(S17)。
こうして生成及び算出された酸素飽和度画像と病状スコアは、モニタ18に表示される(S18)。例えば、図17に示すように、病変組織が早期癌の場合、癌組織103のほぼ全体が疑似カラー化された酸素飽和度画像141と、病状スコア「12」がモニタ18に表示される。また、図18に示すように、病変組織が進行癌の場合、疑似カラー化された低酸素領域中に通常色の高酸素領域を有する癌組織113が写し出された酸素飽和度画像142と、病状スコア「95」がモニタ18に表示される。
上記のように、早期癌では癌組織103の全体が疑似カラー化され、進行癌では癌組織113が円環状に疑似カラー化されるので、医師は、モニタ18に表示された酸素飽和度画像を観察することにより、病変組織が早期癌であるか進行癌であるか(あるいは癌でないか)を判別できる。これに加え、内視鏡システム10では、モニタ18には浸潤の可能性を客観的に評価した病変スコアが表示されているので、この病変スコアを見れば、より容易に浸潤の可能性を把握することができ、癌の進行度まで含めた詳細な診断を正確かつ容易に行うことができる。
なお、こうした酸素飽和度(酸素飽和度画像)の表示は、通常観察モードに切り替えられるまで継続して行われる(S19)。また、診断を終了する場合には、内視鏡12の挿入部21を被検体内から抜き出す(S20)。
以上のように、内視鏡システム10は、酸素飽和度画像をモニタ18に表示するだけでなく、さらに病変スコアを算出し、この病変スコアをモニタ18に表示することにより、医師の診断を支援することができる。内視鏡システム10は、この病変スコアの算出及び表示による支援を、観察対象を観察している最中にリアルタイムに行うことができる。特に、内視鏡システム10は、観察対象の表面を観察して、観察対象の内部(病変の深さ方向)への病変の進行度をスコア化することができるので、観察に使用する波長を変更する等して観察対象の深さ毎の観察をする場合よりも、迅速に(例えば観察のフレームレートを落とさずに)診断を支援する情報を提示することができる。
なお、内視鏡システム10は、酸素飽和度60%を境界にして低酸素領域を疑似カラー化した酸素飽和度画像を生成及び表示するが、さらに酸素飽和度をさらに細かく段階的に分け、各段階で異なる色になるように疑似カラー化しても良い。例えば、酸素飽和度に応じて画像信号に乗じるゲインを変えることによって、酸素飽和度の各段階で異なる色となるようにして表示することができる。この場合、図19及び図20に示すように、早期癌の癌組織103や進行癌の癌組織113の内部の酸素飽和度の分布形状が詳細に表れた酸素飽和度画像143,144を表示することができる。
なお、内視鏡システム10は、癌の進行度の診断を支援する病状スコアを算出及び表示しているが、同様の方法で、癌以外の病変(炎症や潰瘍等)の進行度の診断を支援する病状スコアを算出及び表示することができる。
なお、内視鏡システム10では、癌の進行度に応じて大きくなる病状スコアを算出及び表示しているが、逆に、癌が進行度に応じて小さくなる病状スコアを算出しても良い。例えば、病状スコア算出部97は、分布パターン生成部96から得る分布パターンと基準パターンとの類似度の逆数を病状スコアとして算出しても良い。この場合、低酸素領域中に高酸素領域がない場合に最も病状スコアが大きく、低酸素領域中に高酸素領域が有る場合に病状スコアは小さくなる。そして、低酸素領域中の高酸素領域の割合が大きいほどさらに病状スコアは小さくなる。このため、病状スコアの小ささが癌の進行度を表す。
なお、内視鏡システム10では、基準パターン130を予め記憶した基準パターン記憶部98が評価部65に設けられているが、図21に示すように、例えばプロセッサ装置16とネットワーク接続された外部のデータベース151から基準パターン130を取得しても良い。このように、外部のデータベース151から基準パターン130を取得するようにしておくと、最新の症例に基づいて基準パターン130が更新された場合でも、基準パターン記憶部98のデータを更新するメンテナンスを行わなくても常に最適な基準パターンを用いて病変スコアを算出することができる。
なお、内視鏡システム10では、分布パターン生成部96及び病状スコア算出部97が分布パターン及び病変スコアを算出する領域を指定していないが、分布パターン生成部96及び病状スコア算出部97は、図22に示すように予め指定された関心領域161について分布パターン及び病変スコアの算出をしても良い。こうすれば、病変スコアの算出を素早く行うことができる。関心領域161は、例えば、通常観察画像110等(酸素飽和度画像でも良い)を観察しながら、医師が指定する領域である。関心領域161の指定は、プロセッサ装置16で行うことができる。もちろん、関心領域161が指定されない場合には、観察をしている全範囲について分布パターン及び病変スコアの算出をし、関心領域161が指定された場合には指定された関心領域161について分布パターン及び病変スコアの算出をすれば良い。
なお、関心領域161は、内視鏡システム10が自動的に行っても良い。例えば、分布パターン生成部96で生成する分布パターン115,125から低酸素領域を含む所定サイズ及び所定形状(例えば四角形)の領域を関心領域として抽出する関心領域抽出部を評価部65に設け、抽出された関心領域について病状スコアを算出しても良い。
なお、内視鏡システム10では、分布パターン生成部96において1つの分布パターン(酸素飽和度の分布形状)を算出し、病状スコア算出部97においてこれに対応する病変スコアを算出しているが、酸素飽和度の勾配の分布パターン等、他の分布パターンを含め、複数の分布パターンを生成する場合には、各分布パターンについて算出した病変スコアの合計値、各分布パターンについて算出した病変スコアを重み付けして加算した値等、各分布パターンについて算出した病変スコアを用いて演算した結果を最終的に算出及び表示する病変スコアにすれば良い。
[第2実施形態]
図23に示すように、第2実施形態の内視鏡システムは、評価部65にさらに類似臨床データ選出部201を備える。それ以外の構成は第1実施形態の内視鏡システム10と同じである。
図23に示すように、第2実施形態の内視鏡システムは、評価部65にさらに類似臨床データ選出部201を備える。それ以外の構成は第1実施形態の内視鏡システム10と同じである。
類似臨床データ選出部201は、病状スコア算出部97から病状スコアを取得し、取得した病状スコアと病変スコアが近い(あるいは一致する)過去の症例を、複数の臨床データ203が記憶された臨床データベース202から選出する。そして、選出した臨床データ(以下、類似臨床データという)を画像表示信号生成部66に入力する。これにより、図24に示すように、例えば類似臨床データに含まれる酸素飽和度画像206を、観察対象の酸素飽和度画像142と並べてモニタ18に表示させる。
この第2実施形態の内視鏡システムでは、病状スコアに加えて、類似臨床データの酸素飽和度画像206をリアルタイムに医師に提示することができる。
なお、酸素飽和度画像206の他に、類似臨床データに含まれる通常観察画像や狭帯域光で観察した場合の狭帯域光画像等、他の種類の画像をモニタ18に表示させても良い。また、類似臨床データに、各種画像の他、病名等の診断の結果や、行った治療とその効果等の記録が含まれる場合、これらをモニタ18に表示しても良い。こうした類似症例の様々な記録も医師の診断の支援になる。
なお、臨床データベース202は、内視鏡システムとネットワーク接続された外部データベースでも良いし、内視鏡システム(プロセッサ装置16)が内蔵するデータベースでも良い。また、病状スコアが同じものが複数ある場合には、例えば、これらのうち最も新しいものを選んで表示させたり、参照回数が多いものを選んで表示させたりしても良い。また、類似臨床データとして表示する臨床データを、病状スコア毎に予め設定しておいても良い。また、類似臨床データは、被検体の年齢や性別、観察部位等の病状スコア以外の観察対象との共通性に応じて絞り込んで選出しても良い。
なお、第2実施形態の内視鏡システムでは、類似臨床データを1例選出しているが、複数の類似臨床データを選出し、モニタ18に表示させても良い。また、複数の類似臨床データが選出された場合には、これらのリストをモニタ18に表示し、このリストから医師が選択した類似臨床データの酸素飽和度画像等をモニタ18に表示させても良い。
[第3実施形態]
図25に示すように、第3実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65に治療効果スコア算出部301を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
図25に示すように、第3実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65に治療効果スコア算出部301を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
治療効果スコア算出部301は、分布パターン生成部96から分布パターンを取得し、取得した分布パターンに基づいて、特定の治療方法による治療効果を表す治療効果スコアを算出する。具体的には、分布パターン(酸素飽和度の分布形状)や、分布パターンから算出される情報(低酸素領域の面積、低酸素領域中の高酸素領域の割合等)に基づいて治療効果スコアを算出する。治療効果スコア算出部301は、算出した治療効果スコアを画像表示信号生成部66に入力することにより、図26に示すように、観察対象の酸素飽和度画像142と並べて、治療効果スコア302をモニタ18に表示させる。特定の治療方法とその治療効果とは、病変が癌の場合、例えば、抗癌剤とその効き目、放射線治療とその効き目、外科手術とその予後(生存率、再発可能性や転移可能性)等である。
例えば、抗癌剤の場合、低酸素領域は血流が悪いので抗癌剤の効果が薄く、高酸素領域では高い効果が得られるので、治療効果スコア算出部301は、低酸素領域が多い場合に抗癌剤の治療効果スコアを低く、高酸素領域が多い(特に低酸素領域中にある高酸素領域の割合が大きい)場合に、抗癌剤の治療効果スコアを高くスコアリングする。また、放射線治療の場合、低酸素領域ではフリーラジカルの発生量が低下するので、治療効果が薄くなるので、治療効果スコア算出部301は、低酸素領域が多い場合に放射線治療の治療効果スコアを低くスコアリングし、高酸素領域が多い場合(低酸素領域中にある高酸素領域の割合が大きい)場合に、放射線治療の治療効果スコアを高くスコアリングする。
[第4実施形態]
図27に示すように、第4実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65にメッセージ表示制御部401を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
図27に示すように、第4実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65にメッセージ表示制御部401を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
メッセージ表示制御部401は、病状スコア算出部97から病状スコアを取得し、取得した病状スコアの値を監視する。そして、例えば、メッセージ表示制御部401は、警告等の病状スコアに応じた情報を画像表示信号生成部66に入力する。これにより、図28に示すように、観察対象の酸素飽和度画像142と並べて、病状スコアに応じたメッセージ402をモニタ18に表示させる。例えば、病状スコアが大きい場合には、粘膜筋板105や粘膜下組織層106に浸潤している可能性が高いので、病状スコアが予め定めた特定値以上の場合に、浸潤の可能性を警告するメッセージ402を表示することが好ましい。なお、メッセージ表示制御部401は、病状スコアの監視を常に行うが、メッセージ402の表示は行わない場合があっても良い。例えば、病状スコアが特定値以上(または以下)の場合、あるいは所定の範囲にある場合など、特定の症状スコアの場合にだけメッセージを表示させても良い。
[第5実施形態]
図29に示すように、第5実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65に自動保存制御部501を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
図29に示すように、第5実施形態の内視鏡システムは、第1実施形態の内視鏡システム10に対して、評価部65に自動保存制御部501を加えたものであり、これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
自動保存制御部501は、病状スコア算出部97から病状スコアを取得し、その値を監視する。そして、病状スコアが所定の規定値以上の値であった場合に、例えば構造強調部78から出力される酸素飽和度画像を取得し、記憶部502に自動的に保存する。この自動保存制御部501が行う酸素飽和度画像の自動保存は、内視鏡システムを操作する医師が静止画像の保存をするための操作をしなかった場合でも実行する。また、自動保存する酸素飽和度画像には、病状スコアを関連付けて保存する。病状スコアは、例えば、酸素飽和度画像のヘッダに、付帯情報として記録される。
病状スコアが高スコアの場合は、進行癌の可能性が高く、通常は、医師によって静止画像として保存される可能性が高いが、万が一、医師が静止画像としての保存を忘れた場合でも、自動保存制御部501によって酸素飽和度画像を自動的に保存しているので、検査をやり直す必要はなく、医師及び被検体への負担は低減される。
なお、病状スコアが高スコアの場合に、全フレームの酸素飽和度画像を自動保存する必要はなく、例えば、一定のフレーム間隔で自動保存制御部501による自動保存を実行しても良い。
なお、第2実施形態の類似臨床データ選出部201、第3実施形態の治療効果スコア算出部301、第4実施形態のメッセージ表示制御部401、第5実施形態の自動保存制御部501は、相互に任意に組み合わせて用いることができる。
[第6実施形態]
図30に示すように、第6実施形態の内視鏡システムは、評価部65に特徴領域抽出部601を備える。また、病状スコア算出部602は、特徴領域抽出部601が抽出した特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
図30に示すように、第6実施形態の内視鏡システムは、評価部65に特徴領域抽出部601を備える。また、病状スコア算出部602は、特徴領域抽出部601が抽出した特徴領域における酸素飽和度の分布パターンに基づいて病状スコアを算出する。これ以外の構成は、第1実施形態の内視鏡システム10と同じである。
特徴領域抽出部601は、画像信号を取得し、病変部と疑われる箇所を観察対象の特徴領域として抽出する。例えば、図31に示すように、特徴領域抽出部601は、取得した画像信号に基づいて、赤味が強い領域(以下、発赤領域という)605を特徴領域として抽出する。
病状スコア算出部602は、特徴領域抽出部601が抽出した発赤領域605における酸素飽和度の分布パターンに基づいて、観察対象の病状を表す病状スコアを算出する。例えば、酸素飽和度の分布パターン603のように、低酸素領域606中に高酸素領域607がある分布パターンが、発赤領域605に重なっていれば、この発赤領域605は癌組織による新生血管の構築によるものである可能性が高い。このため、発赤領域605における酸素飽和度の分布パターンに基づいて病状スコアを算出することにより、癌組織の有無及びその進行度を特に正確に病状スコアで表すことができる。
本実施形態では、病状スコア算出部602は、発赤領域605中に酸素飽和度が一定値以上の高酸素領域が有る場合の病状スコアを、発赤領域605中に高酸素領域がない場合の病状スコアよりも大きくする。また、発赤領域605中に高酸素領域が有る場合、発赤領域605に対する高酸素領域の割合が大きいほど病状スコアを大きくする。こうすれば、病状スコアによって、癌の進行度をより分かりやすく表すことができる。もちろん、病状スコア算出部602は、発赤領域605中に酸素飽和度が一定値以上の高酸素領域が有る場合の病状スコアを、発赤領域605中に高酸素領域がない場合の病状スコアよりも小さくしても良い。この場合、発赤領域605中に高酸素領域が有る場合、発赤領域605に対する高酸素領域の割合が大きいほど病状スコアは小さくなる。この場合でも、病状スコアによって、癌の進行度をより分かりやすく表すことができる。
なお、特徴領域抽出部601は、B2画像信号またはG2画像信号を用いて発赤領域605を抽出することができる。例えば、420nmや550nm付近の波長帯域において血中ヘモグロビンによる吸収が大きくなるので(図10参照)、この波長帯域の情報を含むB2画像信号やG2画像信号では、ヘモグロビンの吸収によるコントラストが大きく表れ、血管の有無が判別しやすいからである。もちろん、B1画像信号やG2画像信号を用いても良い。また、R1(R2)画像信号を含め、複数の画像信号に基づいて発赤領域605を抽出しても良い。
なお、特徴領域として発赤領域605を抽出しているが、観察対象の隆起した領域(隆起領域)を特徴領域として抽出しても良い。
病状スコアが画像表示信号生成部66に入力され、モニタ18に表示されるのは第1実施形態と同様である。このため、第2~第5実施形態はこの第6実施形態に組み合わせて用いることができる。
[第7実施形態]
図32に示すように、内視鏡システム700の光源装置14には、第1及び第2青色レーザ光源34,36と光源制御部40の代わりに、LED(Light Emitting Diode)光源ユニット701と、LED光源制御部704が設けられている。また、内視鏡システム700の照明光学系24aには蛍光体44が設けられていない。それ以外については、第1実施形態の内視鏡システム10と同様である。
図32に示すように、内視鏡システム700の光源装置14には、第1及び第2青色レーザ光源34,36と光源制御部40の代わりに、LED(Light Emitting Diode)光源ユニット701と、LED光源制御部704が設けられている。また、内視鏡システム700の照明光学系24aには蛍光体44が設けられていない。それ以外については、第1実施形態の内視鏡システム10と同様である。
LED光源ユニット701は、特定の波長帯域に制限された光を発光する光源として、R-LED701a,G-LED701b,B-LED701cを有する。図33に示すように、R-LED701aは、600~720nmの赤色領域の赤色帯域光(以下、単に赤色光という)し、G-LED701bは、480~620nmの緑色領域の緑色帯域光(以下、単に緑色光)を発光する。また、B-LED701cは、400~500nmの青色領域の青色帯域光(以下、単に青色光という)を発光する。
また、LED光源ユニット701は、B-LED701cが発する青色光の光路上に挿抜されるハイパスフィルタ(HPF)702を有する。ハイパスフィルタ702は、450nm以下の波長帯域の青色光をカットし、450nmより長波長帯域の光を透過する。
ハイパスフィルタ702のカットオフ波長(450nm)は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数がほぼ等しい波長であり(図10参照)、この波長を境に酸化ヘモグロビンと還元ヘモグロビンの吸光係数が逆転する。本実施形態の場合、相関関係記憶部82に記憶された相関関係は、酸化ヘモグロビンの吸光係数が還元ヘモグロビンの吸光係数よりも大きい場合のものなので、カットオフ波長以下の波長帯域に基づくシグナルは、信号比B1/G2が473nmで測定する本来の値よりも低下し、不正確な酸素飽和度が算出される原因になる。このため、ハイパスフィルタ702は、酸素飽和度を算出するためのB1画像信号を取得する時に、カットオフ波長以下の波長帯域の光が観察対象に照射されないようにする。
したがって、ハイパスフィルタ702は、特殊観察モード時にB-LED701cの前に挿入され、通常観察モード時には退避位置に退避される。ハイパスフィルタ702の挿抜は、LED光源制御部704の制御の下、HPF挿抜部703によって行われる。
LED光源制御部704は、LED光源ユニット701の各LED701a~701cの点灯/消灯、及びハイパスフィルタ702の挿抜を制御する。具体的には、図34に示すように、通常観察モードの場合、LED光源制御部704は、各LED701a~701cを全て点灯させ、ハイパスフィルタ702はB-LED701cの光路上から退避させる。
一方、図35に示すように、特殊観察モードの場合、LED光源制御部704は、ハイパスフィルタ702をB-LED701cの光路上に挿入する。そして、1フレーム目は、B-LED701cを点灯させ、R-LED701a及びG-LED701bを消灯させることにより、450nm以下の波長帯域がカットされた青色光を観察対象に照射させる。そして、2フレーム目は、R-LED701a、G-LED701b、B-LED701cを全て点灯させ、B-LED701cが発する青色光のうち450nm以下の波長帯域がカットされた青色光と、R-LED701aが発する赤色光と、G-LED701bが発する緑色光からなる白色光を観察対象に照射させる。これにより、センサ48は、1フレーム目には、B1画像信号を出力し、2フレーム目にはR2画像信号,G2画像信号,B2画像信号をそれぞれ出力する。したがって、その後の処理は第1実施形態の内視鏡システム10と同様に行うことができる。
なお、第7実施形態では、特殊観察モード時の1フレーム目、2フレーム目ともハイパスフィルタ702を挿入したまま観察対象を撮像しているが、1フレーム目だけハイパスフィルタ702を挿入し、2フレーム目にはハイパスフィルタ702を退避させても良い。また、特殊観察モード時の1フレーム目では、B-LED701cだけを点灯させ、青色光だけを観察対象に照射しているが、1フレーム目でもR-LED701a及びG-LED701bを点灯させ、R1画像信号及びG1画像信号をセンサ48に出力させても良い。
[第8実施形態]
図36に示すように、内視鏡システム800の光源装置14には、第1及び第2青色レーザ光源34,36と光源制御部40の代わりに、広帯域光源801と、回転フィルタ802と、回転フィルタ制御部803が設けられている。また、内視鏡システム800のセンサ805は、カラーフィルタが設けられていないモノクロの撮像素子である。それ以外については、第1実施形態の内視鏡システム10と同じである。
図36に示すように、内視鏡システム800の光源装置14には、第1及び第2青色レーザ光源34,36と光源制御部40の代わりに、広帯域光源801と、回転フィルタ802と、回転フィルタ制御部803が設けられている。また、内視鏡システム800のセンサ805は、カラーフィルタが設けられていないモノクロの撮像素子である。それ以外については、第1実施形態の内視鏡システム10と同じである。
広帯域光源801は、例えばキセノンランプ、白色LED等からなり、波長帯域が青色から赤色に及ぶ白色光を発する。回転フィルタ802は、通常観察モード用フィルタ810と特殊観察モード用フィルタ811とを備えており(図37参照)、広帯域光源801から発せられる白色光がライトガイド41に入射される光路上に、通常観察モード用フィルタ810を配置する通常観察モード用の第1位置と、特殊観察モード用フィルタ811を配置する特殊観察モード用の第2位置との間で径方向に移動可能である。この第1位置と第2位置への回転フィルタ802の相互移動は、選択された観察モードに応じて回転フィルタ制御部803によって制御される。また、回転フィルタ802は、第1位置または第2位置に配置された状態で、センサ805の撮像フレームに応じて回転する。回転フィルタ802の回転速度は、選択された観察モードに応じて回転フィルタ制御部803によって制御される。
図37に示すように、通常観察モード用フィルタ810は、回転フィルタ802の内周部に設けられている。通常観察モード用フィルタ810は、赤色光を透過するRフィルタ810aと、緑色光を透過するGフィルタ810bと、青色光を透過するBフィルタ810cとを有する。したがって、回転フィルタ802を通常光観察モード用の第1位置に配置すると、広帯域光源801からの白色光は、回転フィルタ802の回転に応じてRフィルタ810a、Gフィルタ810b及びBフィルタ810cのいずれかに入射する。このため、観察対象には、透過したフィルタに応じて、赤色光、緑色光、青色光が順次照射され、センサ805は、これらの反射光によりそれぞれ観察対象を撮像することにより、R画像信号、G画像信号、B画像信号を順次出力する。
また、特殊観察モード用フィルタ811は、回転フィルタ802の外周部に設けられている。特殊観察モード用フィルタ811は、赤色光を透過するRフィルタ811aと、緑色光を透過するGフィルタ811bと、青色光を透過するBフィルタ811cと、473±10nmの狭帯域光を透過する狭帯域フィルタ811dとを有する。したがって、回転フィルタ802を通常光観察モード用の第2位置に配置すると、広帯域光源801からの白色光は、回転フィルタ802の回転に応じてRフィルタ811a、Gフィルタ811b、Bフィルタ811c及び狭帯域フィルタ811dのいずれかに入射する。このため、観察対象には、透過したフィルタに応じて、赤色光、緑色光、青色光,狭帯域光(473nm)が順次照射され、センサ805は、これらの反射光によりそれぞれ観察対象を撮像することにより、R画像信号、G画像信号、B画像信号、及び狭帯域画像信号を順次出力する。
特殊観察モードで得られるR画像信号とG画像信号は、第1実施形態のR1(またはR2)画像信号とG1(またはG2)画像信号に対応する。また、特殊観察モードで得られるB画像信号は、第1実施形態のB2画像信号に対応し、狭帯域画像信号はB1画像信号に対応する。したがって、その後の処理は第1実施形態の内視鏡システム10と同様に行うことができる。
なお、第1~第8実施形態では、信号比B1/G2と信号比R2/G2に基づいて酸素飽和度を算出しているが、信号比B1/G2のみに基づいて酸素飽和度を算出しても良い。この場合には、相関関係記憶部82には信号比B1/G2と酸素飽和度の相関関係を記憶しておけば良い。
なお、第1~第8実施形態では、酸素飽和度を画像化した酸素飽和度画像を生成及び表示しているが、これに加えて、血液量を画像化した血液量画像を生成及び表示しても良い。血液量は信号比R2/G2と相関があるので、信号比R2/G2に応じて異なる色を割り当てることで、血液量を画像化した血液量画像を作成することができる。
なお、第1~第8実施形態では酸素飽和度を算出しているが、これに代えて、あるいはこれに加えて、「血液量(信号比R2/G2)×酸素飽和度(%)」から求まる酸化ヘモグロビンインデックスや、「血液量×(1-酸素飽和度)(%)」から求まる還元ヘモグロビンインデックス等、他の生体機能情報を算出しても良い。
10,700,800 内視鏡システム
18 モニタ
65 評価部
76 酸素飽和度画像生成部
83 酸素飽和度算出部
96 分布パターン生成部
97,602 病状スコア算出部
115,125 分布パターン
130 基準パターン
161 関心領域(指定領域)
201 類似臨床データ選出部
301 治療効果スコア算出部
401 メッセージ表示制御部
501 自動保存制御部
601 特徴領域抽出部
18 モニタ
65 評価部
76 酸素飽和度画像生成部
83 酸素飽和度算出部
96 分布パターン生成部
97,602 病状スコア算出部
115,125 分布パターン
130 基準パターン
161 関心領域(指定領域)
201 類似臨床データ選出部
301 治療効果スコア算出部
401 メッセージ表示制御部
501 自動保存制御部
601 特徴領域抽出部
Claims (26)
- 観察対象に光を照射するための光源装置と、
前記光の反射光によって前記観察対象を撮像し、画像信号を出力するイメージセンサと、
前記画像信号に基づいて前記観察対象の酸素飽和度を算出する酸素飽和度算出部と、
前記酸素飽和度に関する分布を表す分布パターンを生成する分布パターン生成部と、
前記分布パターンに基づいて前記観察対象の病状を表す病状スコアを算出する病状スコア算出部と、
前記病状スコアまたは前記病状スコアに基づく情報を表示する表示部と、
を備える内視鏡システム。
- 前記酸素飽和度が一定値未満である低酸素領域中に、前記酸素飽和度が前記一定値以上である高酸素領域が有る場合の前記病状スコアは、前記低酸素領域中に前記高酸素領域が無い場合の前記病状スコアよりも大きい請求項1に記載の内視鏡システム。
- 前記低酸素領域中に前記高酸素領域が有る場合、前記低酸素領域に対する前記高酸素領域の割合が大きいほど前記病状スコアが大きい請求項2に記載の内視鏡システム。
- 前記酸素飽和度が一定値未満である低酸素領域中に、前記酸素飽和度が前記一定値以上である高酸素領域が有る場合の前記病状スコアは、前記低酸素領域中に前記高酸素領域が無い場合の前記病状スコアよりも小さい請求項1に記載の内視鏡システム。
- 前記低酸素領域中に前記高酸素領域が有る場合、前記低酸素領域に対する前記高酸素領域の割合が大きいほど前記病状スコアが小さい請求項4に記載の内視鏡システム。
- 前記病状スコア算出部は、特定分布形状である基準パターンと、前記分布パターンとを比較し、前記基準パターンと前記分布パターンとの類似度を前記病状スコアとして算出する請求項1~5のいずれか1項に記載の内視鏡システム。
- 前記特定分布形状である基準パターンは、前記酸素飽和度が一定値未満である低酸素領域中に、前記酸素飽和度が前記一定値以上である高酸素領域が有るパターンである請求項6に記載の内視鏡システム。
- 前記分布パターン生成部は、予め指定された関心領域について前記分布パターンを生成し、
前記病状スコア算出部は、前記関心領域に対して前記病状スコアを算出する請求項1~7のいずれか1項に記載の内視鏡システム。
- 過去の臨床データが予め複数記憶されたデータベースを参照して、前記分布パターンを前記臨床データと比較し、前記臨床データのうち前記分布パターンが類似する類似臨床データを選出して前記表示部に表示させる類似臨床データ選出部、
をさらに備える請求項1~8のいずれか1項に記載の内視鏡システム。
- 前記類似臨床データ選出部は、前記類似臨床データに含まれる前記酸素飽和度画像を前記表示部に表示させる請求項9に記載の内視鏡システム。
- 前記分布パターンに基づいて、特定の治療方法による治療効果を表す治療効果スコアを算出し、前記表示部に表示させる治療効果スコア算出部、
をさらに備える請求項1~10のいずれか1項に記載の内視鏡システム。
- 前記病状スコアが規定値以上の値になった場合に、前記画像信号及び前記酸素飽和度に基づいて生成される酸素飽和度画像と前記病状スコアとを関連付けて、自動的に保存する自動保存制御部、
をさらに備える請求項1~11のいずれか1項に記載の内視鏡システム。
- 前記表示部は、前記病状スコアが特定値以上の場合に前記病状スコアまたは前記病状スコアに基づく情報を表示する請求項1~12のいずれか1項に記載の内視鏡システム。
- 前記画像信号に基づいて前記観察対象の特徴領域を抽出する特徴領域抽出部、
を備え、
前記病状スコア算出部は、前記特徴領域の前記分布パターンに基づいて前記病状スコアを算出する請求項1~13のいずれか1項に記載の内視鏡システム。
- 前記特徴領域抽出部は、前記イメージセンサの青色画素から得られる青色の画像信号または緑色画素から得られる緑色の画像信号に基づいて前記特徴領域を抽出する請求項13に記載の内視鏡システム。
- 前記特徴領域は発赤領域であり、前記発赤領域中に前記酸素飽和度が一定値以上である高酸素領域が有る場合の前記病状スコアは、前記発赤領域中に前記高酸素領域が無い場合の前記病状スコアよりも大きい請求項14または15に記載の内視鏡システム。
- 前記発赤領域中に前記高酸素領域が有る場合、前記発赤領域に対する前記高酸素領域の割合が大きいほど前記病状スコアが大きい請求項16に記載の内視鏡システム。
- 前記特徴領域は発赤領域であり、前記発赤領域中に前記酸素飽和度が一定値以上である高酸素領域が有る場合の前記病状スコアは、前記発赤領域中に前記高酸素領域が無い場合の前記病状スコアよりも小さい請求項14または15に記載の内視鏡システム。
- 前記発赤領域中に前記高酸素領域が有る場合、前記発赤領域に対する前記高酸素領域の割合が大きいほど前記病状スコアが小さい請求項18に記載の内視鏡システム。
- 前記病状スコアを監視し、前記病状スコアに応じたメッセージを前記表示部に表示させるメッセージ表示制御部、
をさらに備える請求項1~19のいずれか1項に記載の内視鏡システム。
- 観察対象に光を照射するための光源装置と、前記光の反射光によって前記観察対象を撮像し、画像信号を出力するイメージセンサと、表示部とを有する内視鏡システムのための、内視鏡システムのプロセッサ装置であって、
前記画像信号に基づいて前記観察対象の酸素飽和度を算出する酸素飽和度算出部と、
前記酸素飽和度に関する分布を表す分布パターンを生成する分布パターン生成部と、
前記分布パターンに基づいて前記観察対象の病状を表す病状スコアを算出する病状スコア算出部と、
を備える内視鏡システムのプロセッサ装置。
- 前記画像信号に基づいて前記観察対象の特徴領域を抽出する特徴領域抽出部、
を備え、
前記病状スコア算出部は、前記特徴領域の前記分布パターンに基づいて前記病状スコアを算出する請求項21に記載の内視鏡システムのプロセッサ装置。
- 観察対象に光を照射するための光源装置と、前記光の反射光で前記観察対象を撮像し、画像信号を出力するイメージセンサと、表示部とを有する内視鏡システムを作動する、内視鏡システムの作動方法であって、
前記画像信号に基づいて前記観察対象の酸素飽和度を算出するステップと、
前記酸素飽和度に関する分布を表す分布パターンを生成するステップと、
前記分布パターンに基づいて前記観察対象の病状を表す病状スコアを算出するステップと、
前記病状スコアまたは前記病状スコアに基づく情報を表示すると、
を備える内視鏡システムの作動方法。
- 前記画像信号に基づいて前記観察対象の特徴領域を抽出するステップ、
をさらに備え、
前記病状スコアを算出するステップでは、前記特徴領域の前記分布パターンに基づいて前記病状スコアを算出する請求項23に記載の内視鏡システムの作動方法。
- 観察対象を撮像して得られる画像信号を処理するプロセッサ装置の作動方法であって、
前記画像信号に基づいて前記観察対象の酸素飽和度を算出するステップと、
前記酸素飽和度に関する分布を表す分布パターンを生成するステップと、
前記分布パターンに基づいて前記観察対象の病状を表す病状スコアを算出するステップと、
を備えるプロセッサ装置の作動方法。
- 前記画像信号に基づいて前記観察対象の特徴領域を抽出するステップ
をさらに備え、
前記病状スコアを算出するステップでは、前記病状スコア算出部が前記特徴領域の前記分布パターンに基づいて前記病状スコアを算出する請求項25に記載のプロセッサ装置の作動方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14848419.9A EP3050487B1 (en) | 2013-09-26 | 2014-07-15 | Endoscope system and processor device for endoscope system |
US15/058,391 US10231658B2 (en) | 2013-09-26 | 2016-03-02 | Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-200653 | 2013-09-26 | ||
JP2013200653 | 2013-09-26 | ||
JP2013-235460 | 2013-11-13 | ||
JP2013235460A JP6140056B2 (ja) | 2013-09-26 | 2013-11-13 | 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/058,391 Continuation US10231658B2 (en) | 2013-09-26 | 2016-03-02 | Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015045576A1 true WO2015045576A1 (ja) | 2015-04-02 |
Family
ID=52742733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/068764 WO2015045576A1 (ja) | 2013-09-26 | 2014-07-15 | 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法及びプロセッサ装置の作動方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10231658B2 (ja) |
EP (1) | EP3050487B1 (ja) |
JP (1) | JP6140056B2 (ja) |
WO (1) | WO2015045576A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019042157A (ja) * | 2017-09-01 | 2019-03-22 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置 |
WO2019087971A1 (ja) * | 2017-10-30 | 2019-05-09 | 富士フイルム株式会社 | 医療画像処理装置、及び、内視鏡装置 |
WO2019159273A1 (ja) * | 2018-02-15 | 2019-08-22 | 株式会社日立製作所 | 放射線治療装置 |
JPWO2018180631A1 (ja) * | 2017-03-30 | 2020-01-09 | 富士フイルム株式会社 | 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法 |
WO2020012872A1 (ja) * | 2018-07-09 | 2020-01-16 | 富士フイルム株式会社 | 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム |
JPWO2019008941A1 (ja) * | 2017-07-03 | 2020-05-07 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡装置、診断支援装置、医療業務支援装置、及び、レポート作成支援装置 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10426388B2 (en) * | 2014-01-31 | 2019-10-01 | The General Hospital Corporation | Prediction of tumor recurrence by measuring oxygen saturation |
CN107405050B (zh) | 2015-06-25 | 2019-11-22 | Hoya株式会社 | 内窥镜系统以及评价值计算装置 |
CN107072509B (zh) * | 2015-09-30 | 2019-03-19 | Hoya株式会社 | 内窥镜系统以及评价值计算装置 |
WO2018005913A1 (en) * | 2016-06-30 | 2018-01-04 | Vonnahme Kimberly A | Method for improving the quality and quantity of offspring in mammals |
JP7021183B2 (ja) * | 2017-03-03 | 2022-02-16 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
US20180263568A1 (en) * | 2017-03-09 | 2018-09-20 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Clinical Image Classification |
US20180289263A1 (en) * | 2017-03-30 | 2018-10-11 | Nan M. Jokerst | Devices and methods for endoscopic optical assessment of tissue histology |
CN110913749B (zh) * | 2017-07-03 | 2022-06-24 | 富士胶片株式会社 | 医疗图像处理装置、内窥镜装置、诊断支持装置、医疗业务支持装置及报告书制作支持装置 |
EP3698702B1 (en) * | 2017-10-17 | 2023-06-07 | FUJIFILM Corporation | Medical image processing device and endoscope device |
JPWO2019138773A1 (ja) | 2018-01-10 | 2020-12-10 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム |
WO2019220583A1 (ja) * | 2018-05-17 | 2019-11-21 | オリンパス株式会社 | 内視鏡装置、内視鏡装置の作動方法及びプログラム |
JP7289296B2 (ja) * | 2018-07-05 | 2023-06-09 | 富士フイルム株式会社 | 画像処理装置、内視鏡システム及び画像処理装置の作動方法 |
KR102168485B1 (ko) * | 2018-10-02 | 2020-10-21 | 한림대학교 산학협력단 | 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법 |
WO2020100630A1 (ja) * | 2018-11-14 | 2020-05-22 | 富士フイルム株式会社 | 医療画像処理システム |
CN113040707A (zh) * | 2020-12-02 | 2021-06-29 | 泰州国安医疗用品有限公司 | 人体组织病变参数解析平台及方法 |
WO2024201746A1 (ja) * | 2023-03-28 | 2024-10-03 | 日本電気株式会社 | 表示装置、表示方法、及び、プログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001037718A (ja) * | 1999-05-26 | 2001-02-13 | Olympus Optical Co Ltd | 画像診断装置及び内視鏡装置 |
JP2001046388A (ja) * | 1999-08-12 | 2001-02-20 | Terumo Corp | 加熱治療装置 |
JP2010068865A (ja) * | 2008-09-16 | 2010-04-02 | Fujifilm Corp | 画像診断装置 |
JP2010167045A (ja) * | 2009-01-21 | 2010-08-05 | Olympus Medical Systems Corp | 画像表示装置 |
JP2010184057A (ja) * | 2009-02-13 | 2010-08-26 | Fujifilm Corp | 画像処理方法および装置 |
JP2012125402A (ja) | 2010-12-15 | 2012-07-05 | Fujifilm Corp | 内視鏡システム、内視鏡システムのプロセッサ装置及び機能情報取得方法 |
JP2012213551A (ja) * | 2011-04-01 | 2012-11-08 | Fujifilm Corp | 生体情報取得システムおよび生体情報取得方法 |
JP2012213550A (ja) | 2011-04-01 | 2012-11-08 | Fujifilm Corp | 生体情報取得システムおよび生体情報取得方法 |
JP2012239816A (ja) * | 2011-05-24 | 2012-12-10 | Fujifilm Corp | 内視鏡システム及び内視鏡診断支援方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63311937A (ja) * | 1987-06-16 | 1988-12-20 | Toshiba Corp | 内視鏡装置 |
US5795295A (en) * | 1996-06-25 | 1998-08-18 | Carl Zeiss, Inc. | OCT-assisted surgical microscope with multi-coordinate manipulator |
US6516209B2 (en) * | 2000-08-04 | 2003-02-04 | Photonify Technologies, Inc. | Self-calibrating optical imaging system |
JP5452300B2 (ja) * | 2010-03-19 | 2014-03-26 | 富士フイルム株式会社 | 電子内視鏡システム、電子内視鏡用のプロセッサ装置、電子内視鏡システムの作動方法、病理観察装置および病理顕微鏡装置 |
JP5616303B2 (ja) * | 2010-08-24 | 2014-10-29 | 富士フイルム株式会社 | 電子内視鏡システム及び電子内視鏡システムの作動方法 |
JP5222934B2 (ja) * | 2010-12-21 | 2013-06-26 | 富士フイルム株式会社 | 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法 |
JP5502812B2 (ja) * | 2011-07-14 | 2014-05-28 | 富士フイルム株式会社 | 生体情報取得システムおよび生体情報取得システムの作動方法 |
-
2013
- 2013-11-13 JP JP2013235460A patent/JP6140056B2/ja active Active
-
2014
- 2014-07-15 WO PCT/JP2014/068764 patent/WO2015045576A1/ja active Application Filing
- 2014-07-15 EP EP14848419.9A patent/EP3050487B1/en active Active
-
2016
- 2016-03-02 US US15/058,391 patent/US10231658B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001037718A (ja) * | 1999-05-26 | 2001-02-13 | Olympus Optical Co Ltd | 画像診断装置及び内視鏡装置 |
JP2001046388A (ja) * | 1999-08-12 | 2001-02-20 | Terumo Corp | 加熱治療装置 |
JP2010068865A (ja) * | 2008-09-16 | 2010-04-02 | Fujifilm Corp | 画像診断装置 |
JP2010167045A (ja) * | 2009-01-21 | 2010-08-05 | Olympus Medical Systems Corp | 画像表示装置 |
JP2010184057A (ja) * | 2009-02-13 | 2010-08-26 | Fujifilm Corp | 画像処理方法および装置 |
JP2012125402A (ja) | 2010-12-15 | 2012-07-05 | Fujifilm Corp | 内視鏡システム、内視鏡システムのプロセッサ装置及び機能情報取得方法 |
JP2012213551A (ja) * | 2011-04-01 | 2012-11-08 | Fujifilm Corp | 生体情報取得システムおよび生体情報取得方法 |
JP2012213550A (ja) | 2011-04-01 | 2012-11-08 | Fujifilm Corp | 生体情報取得システムおよび生体情報取得方法 |
JP2012239816A (ja) * | 2011-05-24 | 2012-12-10 | Fujifilm Corp | 内視鏡システム及び内視鏡診断支援方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3050487A4 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11412917B2 (en) | 2017-03-30 | 2022-08-16 | Fujifilm Corporation | Medical image processor, endoscope system, and method of operating medical image processor |
JPWO2018180631A1 (ja) * | 2017-03-30 | 2020-01-09 | 富士フイルム株式会社 | 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法 |
US11450425B2 (en) | 2017-07-03 | 2022-09-20 | Fujifilm Corporation | Medical image processing apparatus, endoscope apparatus, diagnostic support apparatus, medical service support apparatus, and report creation support apparatus |
JPWO2019008941A1 (ja) * | 2017-07-03 | 2020-05-07 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡装置、診断支援装置、医療業務支援装置、及び、レポート作成支援装置 |
JP2019042157A (ja) * | 2017-09-01 | 2019-03-22 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置 |
US11010891B2 (en) | 2017-09-01 | 2021-05-18 | Fujifilm Corporation | Medical image processing apparatus, endoscope apparatus, diagnostic support apparatus, and medical service support apparatus |
JPWO2019087971A1 (ja) * | 2017-10-30 | 2020-10-22 | 富士フイルム株式会社 | 医療画像処理装置、及び、内視鏡装置 |
WO2019087971A1 (ja) * | 2017-10-30 | 2019-05-09 | 富士フイルム株式会社 | 医療画像処理装置、及び、内視鏡装置 |
WO2019159273A1 (ja) * | 2018-02-15 | 2019-08-22 | 株式会社日立製作所 | 放射線治療装置 |
CN112367896A (zh) * | 2018-07-09 | 2021-02-12 | 富士胶片株式会社 | 医用图像处理装置、医用图像处理系统、医用图像处理方法及程序 |
WO2020012872A1 (ja) * | 2018-07-09 | 2020-01-16 | 富士フイルム株式会社 | 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム |
JPWO2020012872A1 (ja) * | 2018-07-09 | 2021-08-02 | 富士フイルム株式会社 | 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム |
JP7270626B2 (ja) | 2018-07-09 | 2023-05-10 | 富士フイルム株式会社 | 医用画像処理装置、医用画像処理システム、医用画像処理装置の作動方法、プログラム、及び記憶媒体 |
US11991478B2 (en) | 2018-07-09 | 2024-05-21 | Fujifilm Corporation | Medical image processing apparatus, medical image processing system, medical image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
EP3050487A1 (en) | 2016-08-03 |
EP3050487B1 (en) | 2018-03-07 |
US20160174886A1 (en) | 2016-06-23 |
EP3050487A4 (en) | 2017-01-18 |
US10231658B2 (en) | 2019-03-19 |
JP2015085152A (ja) | 2015-05-07 |
JP6140056B2 (ja) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6140056B2 (ja) | 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法 | |
JP6785948B2 (ja) | 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法 | |
JP6092792B2 (ja) | 内視鏡システム用プロセッサ装置、内視鏡システム、内視鏡システム用プロセッサ装置の作動方法、内視鏡システムの作動方法 | |
JP5992936B2 (ja) | 内視鏡システム、内視鏡システム用プロセッサ装置、内視鏡システムの作動方法、内視鏡システム用プロセッサ装置の作動方法 | |
WO2018159363A1 (ja) | 内視鏡システム及びその作動方法 | |
JP5887367B2 (ja) | プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法 | |
JP5977772B2 (ja) | 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法 | |
JP2019081044A (ja) | 画像処理装置、画像処理装置の作動方法、および画像処理プログラム | |
JP5789280B2 (ja) | プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法 | |
JP6640865B2 (ja) | 画像処理装置、内視鏡システム、及び画像処理方法 | |
JP6109695B2 (ja) | 内視鏡システム及びプロセッサ装置並びに作動方法並びに距離測定装置 | |
JP6866531B2 (ja) | 医療画像処理システム及び内視鏡システム | |
JP2009039510A (ja) | 撮像装置 | |
JPWO2013115323A1 (ja) | 生体観察装置 | |
WO2017057573A1 (ja) | 画像処理装置、内視鏡システム、及び画像処理方法 | |
JP2020065685A (ja) | 内視鏡システム | |
JP2015173737A (ja) | 生体観察システム | |
JP6389299B2 (ja) | 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法 | |
JP6129686B2 (ja) | 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法 | |
JP6099518B2 (ja) | 内視鏡システム及び作動方法 | |
US20230237659A1 (en) | Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium | |
JP2016067781A (ja) | 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14848419 Country of ref document: EP Kind code of ref document: A1 |
|
REEP | Request for entry into the european phase |
Ref document number: 2014848419 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2014848419 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |