WO2021006121A1 - 画像処理装置、内視鏡システム、及び画像処理装置の作動方法 - Google Patents

画像処理装置、内視鏡システム、及び画像処理装置の作動方法 Download PDF

Info

Publication number
WO2021006121A1
WO2021006121A1 PCT/JP2020/025695 JP2020025695W WO2021006121A1 WO 2021006121 A1 WO2021006121 A1 WO 2021006121A1 JP 2020025695 W JP2020025695 W JP 2020025695W WO 2021006121 A1 WO2021006121 A1 WO 2021006121A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
magnification
image processing
medical image
Prior art date
Application number
PCT/JP2020/025695
Other languages
English (en)
French (fr)
Inventor
広樹 渡辺
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021530627A priority Critical patent/JP7217351B2/ja
Publication of WO2021006121A1 publication Critical patent/WO2021006121A1/ja
Priority to US17/565,040 priority patent/US20220117474A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to an image processing device, an endoscopic system, and an operation method of the image processing device that perform processing related to a disease.
  • an endoscope system including a light source device, an endoscope, and a processor device.
  • an observation object is irradiated with illumination light, and the observation object illuminated by the illumination light is imaged to acquire an endoscopic image as a medical image.
  • the endoscopic image is displayed on the monitor and used for diagnosis.
  • Patent Document 1 information that supports diagnosis such as determination of a disease such as a lesion is being provided to a user by performing processing based on an endoscopic image.
  • a feature amount is calculated from an endoscopic image, and classification (non-tumor, tumor, cancer, SSA / P, etc.) corresponding to a pathological diagnosis is performed based on the feature amount.
  • a disease for example, there is a method for determining a disease (for example, ulcerative colitis) based on the properties of microvessels or bleeding areas.
  • various biological elements such as microvessels or bleeding areas are photographed at a low magnification
  • the photographed blood vessels or bleeding are very small, so that the actual shape of the blood vessels or bleeding is retained when extracting those blood vessels or bleeding. It is difficult to extract in this state.
  • a biological element such as a microvessel or bleeding is photographed at an excessively high magnification, only local shape information of the biological element can be obtained, not the shape information of the entire biological element to be observed. Therefore, it is required to perform extraction while maintaining the shape of microvessels or bleeding areas and to improve the accuracy of treatment related to diseases by using medical images taken of observation objects at an appropriate magnification. It was.
  • Patent Document 1 describes that an enlarged tissue image, for example, a 380 times image is used as the endoscopic image. However, there is no description or suggestion of an appropriate magnification range for performing diagnostic imaging.
  • the image processing apparatus of the present invention includes a processor, and the processor is a medical image obtained by imaging an observation object illuminated by illumination light including a short-waveband narrow-band light, and the observation object is a first enlargement.
  • a medical image that is greater than or equal to the rate and is magnified at less than the second magnification, which is greater than the first magnification, is acquired, and processing related to the disease is performed based on the medical image.
  • the thickness of the blood vessel included in the observation target is one pixel or more by enlarging the observation target at the first enlargement ratio.
  • the first enlargement ratio is preferably 5 times or more.
  • the second enlargement ratio is preferably 230 times or less.
  • the illumination light is preferably purple light having 410 nm in the center wavelength or the peak wavelength as short-wavelength narrow-band light.
  • the illumination light is blue narrow band light and green narrow band light as short wavelength narrow band light
  • the medical image is an image of an observation target in which blue narrow band light and green narrow band light are alternately illuminated. It is preferable to obtain it.
  • the illumination light is preferably pseudo-white light including short-wavelength narrow-band light and fluorescence obtained by irradiating a phosphor with excitation light.
  • the illumination light preferably includes purple light as a short wavelength narrow band light and blue light, green light, or red light.
  • the processor determines the stage of ulcerative colitis by calculating an index value for the stage of ulcerative colitis based on at least one of superficial vascular congestion, intramucosal bleeding, and extramucosal bleeding obtained from medical images. Or at least one of determining pathological remission or non-remission of ulcerative colitis is preferred.
  • the endoscope system of the present invention includes a light source unit that emits illumination light including narrow-band light of a short wavelength and a processor, and the processor captures a medical image obtained by imaging an observation object illuminated by the illumination light.
  • the observation target acquires a medical image that is magnified at a magnification of less than the second magnification that is greater than or equal to the first magnification and is greater than the first magnification, and is processed for the disease based on the medical image. I do.
  • the method of operating the image processing apparatus of the present invention is a medical image obtained by a processor capturing an observation object illuminated by illumination light including a short-waveband narrow-band light, and the observation object is a first magnification factor. It includes a step of acquiring a medical image which is more than the above and is magnified at a magnification of less than the second magnification, which is larger than the first magnification, and a step of the processor performing processing related to the disease based on the medical image.
  • the present invention by using a medical image obtained by taking an observation target at an appropriate magnification, extraction is performed while maintaining the shape of a microvessel or a bleeding region, and the accuracy of processing related to a disease is improved. Can be done.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into the body to be observed, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a curved portion 12c and a tip provided on the tip end side of the insertion portion 12a. It has a part 12d.
  • the curved portion 12c bends by operating the angle knob 12e of the operating portion 12b.
  • the tip portion 12d is directed in a desired direction by the bending motion of the bending portion 12c.
  • the operation unit 12b includes a mode switching SW (mode switching switch) 12f used for mode switching operation, and a still image acquisition instruction unit 12g used for instructing acquisition of a still image to be observed.
  • a zoom operation unit 12h used for operating the zoom lens 43 (see FIG. 2) is provided.
  • the endoscope system 10 has three modes: a normal light mode, a special light mode, and a disease-related processing mode.
  • a normal light mode a normal light image having a natural color is displayed on the monitor 18 by illuminating the observation target with normal light and taking an image.
  • a special light mode a special light image having a specific structure emphasized is displayed on the monitor 18 by illuminating the observation target with special light having a wavelength band different from that of normal light and taking an image.
  • pathological remission or non-pathological remission of ulcerative colitis which is one of the diseases, is determined based on a normal optical image or a special optical image.
  • an index value relating to the stage of ulcerative colitis may be calculated, or the stage of ulcerative colitis may be determined.
  • a special optical image is used in the disease-related processing mode, but a normal optical image may be used.
  • the images used in the disease-related processing mode include a special optical image as an endoscopic image, which is one of medical images, a radiographic image obtained by a radiography apparatus, and a CT image obtained by CT (Computed Tomography).
  • a medical image such as an MRI image obtained by MRI (Magnetic Resonance Imaging) may be used.
  • the processor device 16 to which the endoscope 12 is connected corresponds to the image processing device of the present invention, and the processor device 16 executes the disease-related processing mode, but executes the disease-related processing mode by another method. You may do so.
  • the function of the disease-related processing unit 66 is provided in an external image processing device different from the endoscope system 10, a medical image is input to the external image processing device to execute the disease-related processing mode, and the execution result thereof. May be displayed on an external monitor connected to an external image processing device.
  • the processor device 16 is electrically connected to the monitor 18 and the user interface 19.
  • the monitor 18 outputs and displays an image to be observed, information incidental to the image to be observed, and the like.
  • the user interface 19 has a function of accepting input operations such as function settings.
  • An external recording unit (not shown) for recording an image, image information, or the like may be connected to the processor device 16. Further, the processor device 16 corresponds to the image processing device of the present invention.
  • the light source device 14 includes a light source unit 20 and a light source control unit 21 that controls the light source unit 20.
  • the light source unit 20 has, for example, a plurality of semiconductor light sources, each of which is turned on or off, and when the light source unit 20 is turned on, the amount of light emitted from each semiconductor light source is controlled to emit illumination light that illuminates the observation target.
  • the light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light).
  • EmittingDiode It has a 20d 4-color LED.
  • the V-LED 20a generates purple light V having a center wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 20b generates blue light B having a center wavelength of 460 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 20c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED20d generates red light R having a center wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm.
  • Purple light V is a short-wavelength narrow-band light used for detecting superficial blood vessel congestion, intramucosal hemorrhage, and extramucosal hemorrhage used in the disease-related treatment mode, and has a central wavelength or a peak wavelength of 410 nm. It is preferable to include it.
  • the light source control unit 21 controls the V-LED20a, B-LED20b, G-LED20c, and R-LED20d. Further, the light source control unit 21 emits normal light having a light intensity ratio of Vc: Bc: Gc: Rc among purple light V, blue light B, green light G, and red light R in the normal light mode. In addition, each LED 20a to 20d is controlled.
  • the light intensity ratio of purple light V as short wavelength narrow band light to blue light B, green light G, and red light R is Vs.
  • Each LED 20a to 20d is controlled so as to emit special light having: Bs: Gs: Rs.
  • Vs: Bs: Gs: Rs it is preferable that special light emphasizes surface blood vessels and the like. Therefore, in the first illumination light, it is preferable that the light intensity of the purple light V is larger than the light intensity of the blue light B.
  • the ratio of the light intensity Vs of purple light V and the light intensity Bs of blue light B is set to "4: 1".
  • the light intensity ratio between purple light V, blue light B, green light G, and red light R is set to 1: 0: 0: 0 to narrow the short wavelength. Only purple light V as band light may be emitted.
  • the light intensity ratio includes the case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, this includes the case where any one or more of the semiconductor light sources are not lit. For example, as in the case where the light intensity ratio between purple light V, blue light B, green light G, and red light R is 1: 0: 0: 0, only one of the semiconductor light sources is turned on, and the other three are turned on. Even if one does not light up, it shall have a light intensity ratio.
  • the light emitted by each of the LEDs 20a to 20e is incident on the light guide 25 via the optical path coupling portion 23 composed of a mirror, a lens, or the like.
  • the light guide 25 is built in the endoscope 12 and the universal cord (the cord connecting the endoscope 12, the light source device 14, and the processor device 16).
  • the light guide 25 propagates the light from the optical path coupling portion 23 to the tip portion 12d of the endoscope 12.
  • An illumination optical system 30a and an imaging optical system 30b are provided at the tip portion 12d of the endoscope 12.
  • the illumination optical system 30a has an illumination lens 32, and the illumination light propagated by the light guide 25 is applied to the observation target through the illumination lens 32.
  • the image pickup optical system 30b has an objective lens 42 and an image pickup sensor 44. The light from the observation target due to the illumination light is incident on the image pickup sensor 44 via the objective lens 42 and the zoom lens 43. As a result, an image to be observed is formed on the image sensor 44.
  • the zoom lens 43 is a lens for enlarging the observation target, and moves between the telephoto end and the wide end by operating the zoom operation unit 12h.
  • the magnification can be changed stepwise by using the zoom lens 43.
  • the enlargement ratio is a value obtained by dividing the size of the object displayed on the monitor 18 by the size of the actual object.
  • the monitor 18 is a 19-inch monitor, as shown in FIG. 6, the enlargement ratio is changed stepwise in two steps, three steps, and five steps, or the enlargement ratio is continuously changed. Can be done.
  • the enlargement ratio display unit 47 displayed when the enlargement ratio is changed stepwise and the enlargement ratio are continuously changed at a specific display position of the monitor 18.
  • An enlargement ratio display unit 49 for displaying is provided.
  • the frame non-display, frame display, and overall display of the boxes Bx1, Bx2, Bx3, and Bx4 provided between N (Near) representing the near view and F (Far) representing the distant view are combined. Represents the magnification in use.
  • the size of the monitor 18 generally used in the endoscope system 10 is 19 inches to 32 inches, and the width is 23.65 cm to 39.83 cm.
  • the enlargement ratio when the enlargement ratio is set to two stages of changing the enlargement ratio to 40 times and 60 times, the frames for boxes Bx1, Bx2, and Bx3 are hidden, and the enlargement ratio in use is 40.
  • the box Bx4 When the magnification is doubled, the box Bx4 is displayed as a frame, and when the enlargement ratio in use is 60 times, the box Bx4 is displayed as a whole.
  • the enlargement ratio is set to three stages of changing the enlargement ratio to 40 times, 60 times, and 85 times, the boxes B1x and Bx2 are hidden from the frame, and the enlargement ratio in use is 40 times. In the case of, the boxes Bx3 and Bx4 are displayed as a frame.
  • the box Bx3 is displayed as a frame and Bx4 is displayed as a whole, and when the enlargement ratio during use is 85 times, the boxes Bx3 and Bx4 are displayed as a whole.
  • the box Bx1 Bx2, Bx3, and Bx4 are displayed as frames. Further, when the enlargement ratio during use is 60 times, the boxes Bx1, Bx2, and Bx3 are displayed as a frame, and the boxes Bx4 are displayed as a whole. When the enlargement ratio is 85 times, the boxes Bx1 and Bx2 are displayed as a frame, and the boxes Bx3 and Bx4 are displayed as a whole. When the enlargement ratio is 100 times, the box Bx1 is displayed as a frame, and the boxes Bx2, Bx3, and Bx4 are displayed as a whole. Further, when the enlargement ratio is 135 times, the boxes Bx1, Bx2, Bx3, and Bx4 are displayed as a whole.
  • the magnification display unit 49 includes a horizontally long bar 49a provided between N (Near) representing a near view and F (Far) representing a distant view. While the enlargement ratio is up to 40 times, only the frame of the horizontally long bar 49a is displayed. Then, when the enlargement ratio exceeds 40 times, the inside of the frame of the horizontally long bar 49a is displayed in the specific color SC. Then, until the enlargement ratio reaches 135 times, the region of the specific color in the horizontally long bar 49a gradually expands to the F side as the enlargement ratio increases. Then, when the enlargement ratio reaches 135 times, the region of the specific color extends to the upper limit display bar 49b, and does not expand further to the F side.
  • a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used.
  • a complementary color image sensor provided with complementary color filters of C (cyan), M (magenta), Y (yellow) and G (green) may be used.
  • the image signals of the four colors of CMYG are output. Therefore, by converting the image signals of the four colors of CMYG into the image signals of the three colors of RGB by the complementary color-primary color conversion, An image signal of each RGB color similar to that of the image sensor 44 can be obtained.
  • the image pickup sensor 44 is driven and controlled by the image pickup control unit 45.
  • the control in the image pickup control unit 45 is different for each mode. In the normal light mode, the image pickup control unit 45 controls the image pickup sensor 44 so as to take an image of the observation target illuminated by the normal light.
  • the Bc image signal is output from the B pixel of the image sensor 44
  • the Gc image signal is output from the G pixel
  • the Rc image signal is output from the R pixel.
  • the image pickup control unit 45 controls the image pickup sensor 44 and controls the image pickup sensor 44 so as to take an image of an observation target illuminated by the special light.
  • the Bs image signal is output from the B pixel of the image sensor 44
  • the Gs image signal is output from the G pixel
  • the Rs image signal is output from the R pixel.
  • the CDS / AGC (Correlated Double Sampling / Automatic Gain Control) circuit 46 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal obtained from the image sensor 44.
  • CDS correlated double sampling
  • AGC automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 46 is converted into a digital image signal by the A / D (Analog / Digital) converter 48.
  • the digital image signal after A / D conversion is input to the processor device 16.
  • the processor device 16 includes an image acquisition unit 50, a DSP (Digital Signal Processor) 52, a noise reduction unit 54, an image processing switching unit 56, an image processing unit 58, and a video signal generation unit 60.
  • the image processing unit 58 includes a normal optical image generation unit 62, a special optical image generation unit 64, and a disease-related processing unit 66.
  • programs related to various processes are stored in a program storage memory (not shown).
  • the functions of the image acquisition unit 50, the noise reduction unit 54, the image processing switching unit 56, the image processing unit 58, and the video signal generation unit 60 are realized.
  • the functions of the normal optical image generation unit 62, the special optical image generation unit 64, and the disease-related processing unit 66 included in the image processing unit 58 are realized.
  • the image acquisition unit 50 acquires an image signal of an endoscope image, which is one of the medical images input from the endoscope 12.
  • the acquired image signal is transmitted to the DSP 52.
  • the DSP 52 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, demosaic processing, and YC conversion processing on the received image signal.
  • defect correction process the signal of the defective pixel of the image sensor 44 is corrected.
  • the offset processing the dark current component is removed from the image signal subjected to the defect correction processing, and an accurate zero level is set.
  • the gain correction process adjusts the signal level of each image signal by multiplying the image signal of each color after the offset process by a specific gain.
  • the image signal of each color after the gain correction processing is subjected to linear matrix processing for enhancing color reproducibility.
  • each image signal After that, the brightness and saturation of each image signal are adjusted by gamma conversion processing.
  • the image signal after the linear matrix processing is subjected to demosaic processing (also referred to as isotropic processing or simultaneous processing), and a signal of the missing color of each pixel is generated by interpolation.
  • demosaic processing also referred to as isotropic processing or simultaneous processing
  • all pixels have signals of each color of RGB.
  • the DSP 52 performs YC conversion processing on each image signal after demosaic processing, and outputs the luminance signal Y, the color difference signal Cb, and the color difference signal Cr to the noise reduction unit 54.
  • the noise reduction unit 54 performs noise reduction processing by, for example, a moving average method, a median filter method, or the like on an image signal that has been demosaic processed by DSP 56.
  • the image signal with reduced noise is input to the image processing switching unit 56.
  • the image processing switching unit 56 may send the image signal from the noise reduction unit 54 to any of the normal optical image generation unit 62, the special optical image generation unit 64, and the disease-related processing unit 66. Switch to. Specifically, when the normal light mode is set, the image signal from the noise reduction unit 54 is input to the normal light image generation unit 62. When the special light mode is set, the image signal from the noise reduction unit 54 is input to the special light image generation unit 64. When the disease-related processing mode is set, the image signal from the noise reduction unit 54 is input to the disease-related processing unit 66.
  • the normal optical image generation unit 62 performs normal light image image processing on the input Rc image signal, Gc image signal, and Bc image signal for one frame.
  • Image processing for ordinary optical images includes 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. Is done.
  • the Rc image signal, Gc image signal, and Bc image signal that have been subjected to image processing for a normal optical image are input to the video signal generation unit 60 as a normal light image.
  • the special light image generation unit 64 performs special light image image processing on the input Rs image signal, Gs image signal, and Bs image signal for one frame.
  • Image processing for special optical images includes 3x3 matrix processing, gradation conversion processing, color conversion processing such as 3D LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. Is done.
  • the Rs image signal, Gs image signal, and Bs image signal that have been subjected to image processing for special light images are input to the video signal generation unit 60 as special light images.
  • the disease-related processing unit 66 performs disease-related processing based on a special optical image which is one of the medical images. Specifically, the disease-related processing unit 66 calculates an index value regarding the stage of ulcerative colitis based on the density of superficial blood vessels, intramucosal hemorrhage, and extramucosal hemorrhage obtained from a special optical image. At least one of determining the stage of colitis or determining pathological remission or non-remission of ulcerative colitis is performed. Information about the determination result is input to the video signal generation unit 60. Details of the disease-related processing unit 66 will be described later. In the first to third embodiments, a case where the disease-related processing unit 66 determines pathological remission or pathological non-remission of ulcerative colitis will be described.
  • the video signal generation unit 60 converts the information regarding the normal light image, the special light image, or the determination result output from the image processing unit 58 into a video signal that can be displayed in full color on the monitor 18.
  • the converted video signal is input to the monitor 18.
  • the monitor 18 displays information on the normal light image, the special light image, or the determination result.
  • the inventor of the ulcerative colitis to be determined by the disease-related processing unit 66 changes the pattern of the vascular structure as the severity worsens. Are finding out.
  • the pattern of superficial blood vessels is regular (Fig. 7 (A)), or the pattern of superficial blood vessels is regular. There is some turbulence in the large intestine (FIG. 7 (B)).
  • ulcerative colitis is pathologically non-resolving and the severity is mild, superficial blood vessels are locally dense (FIG. 7 (C)).
  • the disease-related processing unit 66 determines pathological remission or non-pathological remission of ulcerative colitis based on a special optical image which is one of the medical images by utilizing the pattern change of the vascular structure.
  • “dense superficial blood vessels” refers to a state in which superficial blood vessels meander and gather, and in appearance on the image, many superficial blood vessels surround the intestinal gland bulk (crypt) (see FIG. 8). It means that you are.
  • “Intramucosal bleeding” means that bleeding in the mucosal tissue (see FIG. 7) requires differentiation from bleeding into the lumen.
  • “Intramucosal bleeding” refers to bleeding that is not in the mucosa (lumen, pleated hole) in appearance on the image.
  • Extramucosal bleeding refers to a small amount of blood into the lumen, the lumen in front of the endoscope even after cleaning the lumen, or the blood that oozes out of the mucosa and is visible, or on the hemorrhagic mucosa. Blood in the lumen with bleeding.
  • the disease-related processing unit 66 performs disease-related processing based on the special optical image. Specifically, as shown in FIG. 9, the disease-related processing unit 66 includes a blood vessel extraction unit 70 that extracts blood vessels such as surface blood vessels, intramucosal bleeding, and extramucosal bleeding from a special optical image, and the extracted blood vessels. Based on this, it has a determination unit 72 for determining pathological remission or non-pathological remission of ulcerative colitis.
  • a blood vessel extraction unit 70 that extracts blood vessels such as surface blood vessels, intramucosal bleeding, and extramucosal bleeding from a special optical image, and the extracted blood vessels. Based on this, it has a determination unit 72 for determining pathological remission or non-pathological remission of ulcerative colitis.
  • the blood vessel extraction unit 70 extracts the density of superficial blood vessels, intramucosal hemorrhage, and extramucosal hemorrhage as blood vessels based on at least one of the frequency characteristic and the brightness value obtained from the special light image.
  • the determination unit 72 uses the index values obtained based on the area of dense surface blood vessels, the area of intramucosal hemorrhage, and the area of extramucosal hemorrhage in the special optical image to pathologically relieve or pathologically ulcerative colitis. Judge non-remission.
  • the index value is preferably a value obtained by adding up the area of dense surface blood vessels, the area of intramucosal hemorrhage, and extramucosal hemorrhage.
  • the determination unit 72 determines that ulcerative colitis is pathological remission when the index value is less than the threshold value, and ulcerative colitis is pathological non-relief when the index value is more than the threshold value. Judge that there is.
  • the above information regarding the determination by the determination unit 72 is displayed on the monitor 18 and used for the determination of pathological remission or pathological non-remission of ulcerative colitis by the user.
  • the determination unit 72 determines that ulcerative colitis is a pathological remission, a message to that effect is displayed on the monitor 18 as shown in FIG.
  • a special optical image in which the observation target is enlarged at an appropriate magnification.
  • the observation target is a special light image obtained by imaging an observation target illuminated by illumination light including a short wavelength narrow band light like the special light of the present embodiment, and the observation target is the first. It is preferable to use a special optical image magnified at a magnification of 2 or less, which is greater than or equal to the magnification of 1 and larger than the first magnification.
  • the narrow band light is light having a half-value width of 40 nm or less, or light emitted as it is from a semiconductor light source such as an LED or LD (for example, “purple light V" of the first embodiment, the third embodiment.
  • a semiconductor light source such as an LED or LD
  • LED or LD for example, "purple light V" of the first embodiment, the third embodiment.
  • Light from “purple laser light”, “blue laser light”, etc.) or wideband light such as white light cut out by a filter for example, “blue narrow band light", “green narrow band light” of the second embodiment. Light ").
  • the blood vessel extraction unit 70 When blood vessel extraction is performed by the blood vessel extraction unit 70 for a special light image based on illumination light including a short wavelength narrow band light, the surface blood vessels, intramucosal bleeding, and extramucosal bleeding extracted by the blood vessel extraction unit 70
  • the extraction accuracy is higher than the accuracy of blood vessel extraction performed on an image based on light that does not contain short wavelength narrow band light.
  • the first enlargement ratio is preferably 5 times or more
  • the second enlargement ratio is preferably 135 times (when the monitor 18 is 19 inches) to 230 times (when the monitor 18 is 32 inches) or less. ..
  • the reason for increasing the first enlargement ratio by 5 times is as follows.
  • microvessels such as superficial blood vessels, intramucosal hemorrhage, and extramucosal hemorrhage
  • distant view imaging or low-magnification imaging such that the thickness of the microvessels is within one pixel of the monitor 18 is performed.
  • the blood vessel thickness is extracted as one pixel even though the actual blood vessel thickness is within one pixel.
  • the thickness is actually represented by one pixel (“PX”).
  • the blood vessel extraction unit 70 extracts the blood vessel VC having a thickness of less than 1 pixel as 1 pixel.
  • the blood vessel VC is extracted for 12 pixels, and the blood vessel density becomes 12/72. That is, by extracting the blood vessel VC having a thickness of less than 1 pixel as one pixel, the actual area of the blood vessel will be different. This is one of the causes for lowering the accuracy of the determination result by the determination unit 72.
  • the blood vessel VC is actually 24 pixels and the blood vessel density is 24.
  • the blood vessel VC is extracted for 24 pixels, and the blood vessel density becomes 24/288.
  • the area of the extracted blood vessel becomes the same as the actual area, so that the accuracy of the determination result by the determination unit 72 can be improved.
  • the reason for reducing the second enlargement ratio to 135 times or less is as follows.
  • the second magnification is 135 times or less and 40 times, as shown in FIG. 13, the point PT whose pathological score is in the pathological remission region is distributed in the index value of 20000 or less.
  • the point PT whose pathological score is in the pathological non-resolving region is distributed in the index value of 20000 or more.
  • the index value can distinguish between the pathological remission group including the point PT in the pathological remission region and the pathological non-relief group including the point PT in the pathological non-relief region.
  • the determination unit 72 can make a determination.
  • the second enlargement ratio is preferably 135 times or less.
  • the second enlargement ratio is preferably 135 times or less, but when the monitor 18 is 19 inches or more, the second enlargement ratio is 135 times or more. May be good.
  • the second enlargement ratio in the case of 19 inches is converted into the second enlargement ratio in the case of 32 inches, and the second enlargement ratio is 230 times or less (). 135 times (for 19 inches) x 39.83 (for 32 inches width) ⁇ 23.65 (for 19 inches width)).
  • the enlarged region is the region RH where the blood vessel density is locally high and the blood vessel density is locally high.
  • the area of blood vessels to be extracted differs between the lower region RL and the lower region RL.
  • the second enlargement ratio exceeds 135 times to 230 times, the enlarged image includes only one of the area RL and the area RH, not the average area of the area RL and the area RH.
  • the determination unit 72 Judgment accuracy is low.
  • the observation target is irradiated with special light including short-wavelength narrow-band light.
  • the zoom operation unit 12h is operated to set the magnification of the observation target to be equal to or higher than the first magnification and less than the second magnification.
  • the endoscope 12 obtains a special light image, which is one of the endoscopic images (medical images), by imaging the observation target illuminated by the special light.
  • the image acquisition unit 50 acquires a special light image from the endoscope 12.
  • the blood vessel extraction unit 70 extracts dense surface blood vessels, intramucosal bleeding, and extramucosal bleeding as blood vessels based on the frequency characteristics or brightness values obtained from the special optical image.
  • the determination unit 72 uses the index values obtained based on the area of dense surface blood vessels, the area of intramucosal hemorrhage, and the area of extramucosal hemorrhage in the special optical image to pathologically relieve or pathologically ulcerative colitis. Judge non-remission. Information about the determination by the determination unit 72 is displayed on the monitor 18.
  • a broadband light source such as a xenon lamp and a rotation filter are used to illuminate the observation target.
  • a monochrome image sensor is used to image the observation target. Other than that, it is the same as that of the first embodiment.
  • the light source device 14 is provided with a wideband light source 102, a rotation filter 104, and a filter switching unit 105 in place of the four-color LEDs 20a to 20e.
  • the image pickup optical system 30b is provided with a monochrome image pickup sensor 106 without a color filter instead of the color image pickup sensor 44.
  • the broadband light source 102 is a xenon lamp, a white LED, or the like, and emits white light having a wavelength range ranging from blue to red.
  • the rotation filter 104 is provided with a filter 107 for a normal light mode and a filter 108 for a special light mode and a disease-related processing mode in order from the inside (see FIG. 14).
  • the filter switching unit 105 moves the rotary filter 104 in the radial direction, and when the mode switching SW12f sets the normal light mode, the filter 107 for the normal light mode is inserted into the optical path of white light, and the special light mode is used.
  • the special light mode and the disease-related processing mode filter 108 are inserted into the optical path of white light.
  • the filter 107 for the normal light mode includes a B filter 107a that transmits wideband blue light B of white light and a G filter that transmits wideband green light G of white light along the circumferential direction. 107b and an R filter 107c that transmits wideband red light R among white light are provided. Therefore, in the normal light mode, the rotation of the rotation filter 104 alternately irradiates the observation target with the wideband blue light B, the wideband green light G, and the wideband red light R as normal light.
  • the filters 108 for the special light mode and the disease-related processing mode include a Bn filter 108a that transmits blue narrow-band light of white light and a Gn filter that transmits green narrow-band light of white light along the circumferential direction. 108b is provided. Therefore, in the special light mode or the disease-related processing mode, the rotation filter 104 rotates to alternately irradiate the observation target with blue narrow-band light as short-wavelength narrow-band light and green narrow-band light as special light.
  • the wavelength band of the blue narrow band light is preferably 400 to 450 nm
  • the wavelength band of the green narrow band light is preferably 540 to 560 nm.
  • the observation target is imaged by the monochrome image pickup sensor 106 every time the observation target is illuminated by the broadband blue light B, the broadband green light G, and the broadband red light R.
  • a Bc image signal, a Gc image signal, and an Rc image signal can be obtained.
  • a normal optical image is generated by the same method as in the first embodiment.
  • the observation target is imaged by the monochrome imaging sensor 106 each time the observation target is illuminated by the blue narrow band light and the green narrow band light.
  • a Bs image signal and a Gs image signal can be obtained.
  • a special optical image is generated by the same method as in the first embodiment.
  • the central wavelength 405 corresponding to the short wavelength narrow band light is used.
  • a purple laser light source unit 203 (denoted as “405LD”; LD stands for “Laser Diode”) that emits a purple laser light of ⁇ 10 nm, and a blue laser light source (“445LD”” that emits a blue laser light having a center wavelength of 445 ⁇ 10 nm. Notation) 204 is provided.
  • the light emitted from the semiconductor light emitting elements of the light source units 204 and 206 is individually controlled by the light source control unit 208.
  • the light source control unit 208 lights the blue laser light source unit 204 in the normal light mode.
  • the purple laser light source unit 203 and the blue laser light source unit 204 are turned on at the same time.
  • the half-value width of the purple laser light or the blue laser light is preferably about ⁇ 10 nm.
  • a broad area type InGaN-based laser diode can be used, and an InGaN As-based laser diode or a GaN As-based laser diode can also be used.
  • a light emitting body such as a light emitting diode may be used.
  • the illumination optical system 30a is provided with a phosphor 210 to which the purple laser light or the blue laser light from the light guide 25 is incident.
  • the phosphor 210 is excited by a blue laser beam and emits fluorescence. Therefore, the blue laser light corresponds to the excitation light. Further, a part of the blue laser light is transmitted without exciting the phosphor 210.
  • the blue laser light is mainly incident on the phosphor 210, as shown in FIG. 20, the blue laser light and the fluorescence excited and emitted from the phosphor 210 by the blue laser light are combined.
  • Normal light is illuminated on the observation target.
  • a normal light image including a Bc image signal, a Gc image signal, and an Rc image signal can be obtained.
  • the purple laser light and the blue laser light are simultaneously incident on the phosphor 210, so that, as shown in FIG. 21, in addition to the purple laser light and the blue laser light, purple Pseudo-white light containing fluorescence that is excited and emitted from the phosphor 210 by the laser light and the blue laser light is emitted as special light.
  • a special light image including a Bs image signal, a Gs image signal, and an Rs image signal can be obtained.
  • the pseudo white light may be a combination of purple light V, blue light B, green light G, and red light emitted from V-LED20a, B-LED20b, G-LED20c, and R-LED20d.
  • the phosphor 210 is a plurality of types of phosphors that absorb a part of the blue laser light and excite and emit light from green to yellow (for example, a YKG-based phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )). It is preferable to use one composed of.
  • a semiconductor light emitting element is used as an excitation light source for the phosphor 210 as in this configuration example, high-intensity white light can be obtained with high luminous efficiency, the intensity of white light can be easily adjusted, and the color of white light can be adjusted. Changes in temperature and chromaticity can be kept small.
  • the present invention is applied to an endoscopic system that processes an endoscopic image, which is one of medical images, but medical images other than the endoscopic image are processed.
  • the present invention can also be applied to a medical image processing system.
  • the present invention can also be applied to a diagnostic support device for providing diagnostic support to a user using a medical image.
  • the present invention can also be applied to a medical work support device for supporting medical work such as a diagnostic report using a medical image.
  • the diagnostic support device 600 is used in combination with a modality such as a medical image processing system 602 and a PACS (Picture Archiving and Communication Systems) 604.
  • a modality such as a medical image processing system 602 and a PACS (Picture Archiving and Communication Systems) 604.
  • the medical business support device 610 includes various inspection devices such as the first medical image processing system 621, the second medical image processing system 622, ..., The Nth medical image processing system 623, and an arbitrary network. Connect via 626.
  • the medical business support device 610 receives medical images from the first to Nth medical image processing systems 621, 622 ..., 623, and supports the medical business based on the received medical images.
  • a processing unit that executes various processes such as a normal optical image generation unit 62, a special optical image generation unit 64, a disease-related processing unit 66, a blood vessel extraction unit 70, and a determination unit 72 included in the image processing unit 58.
  • the hardware structure of (processing unit) is various processors as shown below.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Endoscopes (AREA)

Abstract

適切な拡大率で観察対象を撮影された医療画像を用いることによって、微細血管又は出血域の形状を保持した状態で抽出を行い、且つ、疾患に関する処理の精度を高めることができる画像処理装置、内視鏡システム、及び画像処理装置の作動方法を提供する。 画像取得部(50)が、短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる医療画像であり、観察対象は、第1の拡大率以上であり且つ第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得する。疾患関連処理部(66)が、医療画像に基づいて、疾患に関する処理を行う。

Description

画像処理装置、内視鏡システム、及び画像処理装置の作動方法
 本発明は、疾患に関連する処理を行う画像処理装置、内視鏡システム、及び画像処理装置の作動方法に関する。
 医療分野においては、医療画像を用いて診断することが広く行われている。例えば、医療画像を用いる装置として、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムがある。内視鏡システムでは、観察対象に対して照明光を照射し、照明光で照明された観察対象を撮像することにより、医療画像としての内視鏡画像を取得する。内視鏡画像は、モニタに表示され、診断に使用される。
 また、近年では、内視鏡画像に基づいて処理を行うことにより、病変部などの疾患に関する判定などの診断を支援する情報をユーザーに提供することも行われつつある。例えば、特許文献1では、内視鏡画像から特徴量を算出し、特徴量に基づいて、病理診断に対応した分類(非腫瘍、腫瘍、癌、SSA/Pなど)を行っている。
特開2016-154810号公報
 疾患を判定する方法として、例えば、微細血管又は出血域の性状に基づいて、疾患(例えば、潰瘍性大腸炎)を判定する方法がある。その際、微細血管又は出血域など各種の生体要素を低倍率で撮影すると、撮影された血管又は出血は非常に小さいため、それら血管又は出血を抽出する際に実際の血管又は出血の形状を保持した状態で抽出することは難しい。一方、微細血管又は出血などの生体要素をあまりに高倍率で撮影した場合には、観察対象とする全体的な生体要素の形状情報ではなく、局所的な生体要素の形状情報しか得ることはできない。そこで、適切な拡大率で観察対象を撮影された医療画像を用いることによって、微細血管又は出血域の形状を保持した状態で抽出を行い、且つ、疾患に関する処理の精度を高めることが求められていた。
 なお、特許文献1では、内視鏡画像として、組織を拡大した画像、例えば、380倍の画像を用いることが記載されている。しかしながら、画像診断を行うための適切な拡大率の範囲については記載及び示唆がない。
 本発明は、適切な拡大率で観察対象を撮影された医療画像を用いることによって、微細血管又は出血域の形状を保持した状態で抽出を行い、且つ、疾患に関する処理の精度を高めることができる画像処理装置、内視鏡システム、及び画像処理装置の作動方法を提供することを目的とする。
 本発明の画像処理装置は、プロセッサを備え、プロセッサは、短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる医療画像であり、観察対象は、第1の拡大率以上であり且つ第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得し、医療画像に基づいて、疾患に関する処理を行う。
 第1の拡大率で前記観察対象を拡大することにより、観察対象に含まれる血管の太さを1画素以上にすることが好ましい。第1の拡大率は5倍以上であることが好ましい。第2の拡大率は230倍以下であることが好ましい。
 照明光は、短波長の狭帯域光として、中心波長又はピーク波長に410nmが含まれる紫色光であることが好ましい。照明光は、短波長の狭帯域光としての青色狭帯域光と緑色狭帯域光であり、医療画像は、青色狭帯域光と緑色狭帯域光とが交互に照明された観察対象を撮像して得られることが好ましい。照明光は、短波長の狭帯域光と、励起光を蛍光体に照射して得られる蛍光とを含む疑似白色光であることが好ましい。照明光は、短波長の狭帯域光としての紫色光と、青色光、緑色光、又は赤色光とを含むことが好ましい。
 プロセッサは、医療画像から得られる表層血管の密集、粘膜内出血、及び粘膜外出血の少なくとも一つに基づいて、潰瘍性大腸炎のステージに関する指標値を算出すること、潰瘍性大腸炎のステージを判定すること、又は、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定することのうち少なくとも1つを行うことが好ましい。
 本発明の内視鏡システムは、短波長の狭帯域光を含む照明光を発する光源部と、プロセッサと、を備え、プロセッサは、照明光によって照明された観察対象を撮像して得られる医療画像であり、観察対象は、第1の拡大率以上であり且つ第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得し、医療画像に基づいて、疾患に関する処理を行う。
 本発明の画像処理装置の作動方法は、プロセッサが、短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる医療画像であり、観察対象は、第1の拡大率以上であり且つ第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得するステップと、プロセッサが、医療画像に基づいて、疾患に関する処理を行うステップとを有する。
 本発明によれば、適切な拡大率で観察対象を撮影された医療画像を用いることによって、微細血管又は出血域の形状を保持した状態で抽出を行い、且つ、疾患に関する処理の精度を高めることができる。
内視鏡システムの外観図である。 第1実施形態の内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、緑色光G、及び赤色光Rのスペクトルを示すグラフである。 第1実施形態の特殊光のスペクトルを示すグラフである。 紫色光Vのみを含む特殊光のスペクトルを示すグラフである。 拡大率を段階的に変える場合に表示する拡大率表示部と拡大率を連続的に変える場合に表示する拡大率表示部とを示す説明図である。 潰瘍性大腸炎の重症度によって変化する血管構造のパターンを示す説明図である。 大腸の断面を示す断面図である。 疾患関連処理部の機能を示すブロック図である。 判定に関する情報を表示するモニタの画像図である。 血管の太さが1画素よりも小さい場合に特殊光画像に対して行う血管抽出を示す説明図である。 血管の太さが1画素以上の場合に特殊光画像に対して行う血管抽出を示す説明図である。 第2の拡大率が40倍の場合における指標値と病理スコアとの関係を示すグラフである。 第2の拡大率が135倍の場合における指標値と病理スコアとの関係を示すグラフである。 血管密度が位置によって異なる特殊光画像を示す画像図である。 疾患関連処理モードの一連の流れを示すフローチャートである。 第2実施形態の内視鏡システムの機能を示すブロック図である。 回転フィルタの平面図である。 第3実施形態の内視鏡システムの機能を示すブロック図である。 第3実施形態の通常光のスペクトルを示すグラフである。 第3実施形態の特殊光のスペクトルを示すグラフである。 診断支援装置を示すブロック図である。 医療業務支援装置を示すブロック図である。
 [第1実施形態]
 図1において、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19とを有する。内視鏡12は、光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、観察対象の体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dとを有している。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、モードの切り替え操作に用いるモード切替SW(モード切替スイッチ)12fと、観察対象の静止画の取得指示に用いられる静止画取得指示部12gと、ズームレンズ43(図2参照)の操作に用いられるズーム操作部12hとが設けられている。
 なお、内視鏡システム10は、通常光モード、特殊光モード、疾患関連処理モードの3つのモードを有している。通常光モードでは、通常光を観察対象に照明して撮像することによって、自然な色合いの通常光画像をモニタ18に表示する。特殊光モードでは、通常光と波長帯域が異なる特殊光を観察対象に照明して撮像することによって、特定の構造を強調した特殊光画像をモニタ18に表示する。疾患関連処理モードでは、通常光画像又は特殊光画像に基づいて、疾患の一つである潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する。なお、疾患関連処理モードでは、潰瘍性大腸炎のステージに関する指標値を算出すること、又は、潰瘍性大腸炎のステージを判定することを行ってもよい。
 なお、本実施形態では、疾患関連処理モードでは、特殊光画像(内視鏡画像)を用いるが、通常光画像を用いるようにしてもよい。また、疾患関連処理モードで用いる画像としては、医療画像の一つである内視鏡画像としての特殊光画像の他、放射線撮影装置で得られる放射線画像、CT(Computed Tomography)で得られるCT画像、MRI(Magnetic Resonance Imaging)で得られるMRI画像などの医療画像を用いてもよい。また、内視鏡12が接続されたプロセッサ装置16が本発明の画像処理装置に対応し、このプロセッサ装置16において、疾患関連処理モードを実行するが、その他の方法で疾患関連処理モードを実行するようにしてもよい。例えば、内視鏡システム10とは別の外部の画像処理装置に疾患関連処理部66の機能を設け、医療画像を外部の画像処理装置に入力して疾患関連処理モードを実行し、その実行結果を、外部の画像処理装置に接続された外部のモニタに表示するようにしてもよい。
 プロセッサ装置16は、モニタ18及びユーザーインターフェース19と電気的に接続される。モニタ18は、観察対象の画像や、観察対象の画像に付帯する情報などを出力表示する。ユーザーインターフェース19は、機能設定などの入力操作を受け付ける機能を有する。なお、プロセッサ装置16には、画像や画像情報などを記録する外付けの記録部(図示省略)を接続してもよい。また、プロセッサ装置16は、本発明の画像処理装置に対応する。
 図2において、光源装置14は、光源部20と、光源部20を制御する光源制御部21とを備えている。光源部20は、例えば、複数の半導体光源を有し、これらをそれぞれ点灯または消灯し、点灯する場合には各半導体光源の発光量を制御することにより、観察対象を照明する照明光を発する。本実施形態では、光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDを有する。
 図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長460±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。なお、紫色光Vは、疾患関連処理モードにて用いる表層血管の密集、粘膜内出血、及び粘膜外出血を検出するために用いられる短波長の狭帯域光であり、中心波長又はピーク波長に410nmを含めることが好ましい。
 光源制御部21は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを制御する。また、光源制御部21は、通常光モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVc:Bc:Gc:Rcとなる通常光を発光するように、各LED20a~20dを制御する。
 また、光源制御部21は、特殊光モード又は疾患関連処理モード時には、短波長の狭帯域光としての紫色光Vと、青色光B、緑色光G、及び赤色光Rとの光強度比がVs:Bs:Gs:Rsとなる特殊光を発光するように、各LED20a~20dを制御する。光強度比Vs:Bs:Gs:Rsは、特殊光は、表層血管などを強調することが好ましい。そのため、第1照明光は、紫色光Vの光強度を青色光Bの光強度よりも大きくすることが好ましい。例えば、図4に示すように、紫色光Vの光強度Vsと青色光Bの光強度Bsとの比率を「4:1」とする。また、図5に示すように、特殊光については、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比を1:0:0:0にして、短波長の狭帯域光としての紫色光Vのみを発光するようにしてもよい。
 なお、本明細書において、光強度比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光強度比を有するものとする。
 各LED20a~20eが発する光は、ミラーやレンズなどで構成される光路結合部23を介して、ライトガイド25に入射される。ライトガイド25は、内視鏡12及びユニバーサルコード(内視鏡12と、光源装置14及びプロセッサ装置16を接続するコード)に内蔵されている。ライトガイド25は、光路結合部23からの光を、内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ32を有しており、ライトガイド25によって伝搬した照明光は照明レンズ32を介して観察対象に照射される。撮像光学系30bは、対物レンズ42、撮像センサ44を有している。照明光を照射したことによる観察対象からの光は、対物レンズ42及びズームレンズ43を介して撮像センサ44に入射する。これにより、撮像センサ44に観察対象の像が結像される。ズームレンズ43は観察対象を拡大するためのレンズであり、ズーム操作部12hを操作することによって、テレ端とワイド端と間を移動する。
 本実施形態では、ズームレンズ43を用いて、段階的に拡大率を変えることができる。ここで、拡大率とは、モニタ18にて表示される物体の寸法を、実際の物体の寸法で除して得られる値である。例えば、モニタ18が19インチのモニタである場合には、図6に示すように、2段階、3段階、5段階で段階的に拡大率を変えること、又は、連続的に拡大率を変えることができる。使用中の拡大率をモニタ18に表示するために、モニタ18の特定の表示位置には、拡大率を段階的に変える場合に表示する拡大率表示部47と拡大率を連続的に変える場合に表示する拡大率表示部49とが設けられている。拡大率表示部47では、近景を表すN(Near)と遠景を表すF(Far)の間に設けられたボックスBx1、Bx2、Bx3、Bx4の枠非表示、枠表示、及び全体表示を組み合わせることによって、使用中の拡大率を表す。なお、内視鏡システム10で一般的に用いられるモニタ18のサイズは19インチ~32インチであり、横幅にして23.65cm~39.83cmである。
 具体的には、拡大率を40倍と60倍と変化させる2段階の拡大率変化に設定されている場合には、ボックスBx1、Bx2、Bx3について枠非表示とし、使用中の拡大率が40倍の場合にボックスBx4を枠表示とし、使用中の拡大率が60倍の場合にボックスBx4を全体表示とする。また、拡大率を40倍、60倍、85倍と変化させる3段階の拡大率変化に設定されている場合には、ボックスB1x、Bx2は枠非表示とされ、使用中の拡大率が40倍の場合にボックスBx3、Bx4を枠表示とする。そして、使用中の拡大率が60場合の場合にボックスBx3を枠表示、Bx4を全体表示とし、使用中の拡大率が85倍の場合に、ボックスBx3、Bx4を全体表示とする。
 また、拡大率を40倍、60倍、85倍、100倍、135倍の5段階の拡大率変化に設定されている場合には、使用中の拡大率が40倍の場合に、ボックスBx1、Bx2、Bx3、Bx4を枠表示とする。また、使用中の拡大率が60倍の場合に、ボックスBx1、Bx2、Bx3を枠表示とし、ボックスBx4を全体表示とする。また、拡大率が85倍の場合に、ボックスBx1、Bx2を枠表示とし、ボックスBx3、Bx4を全体表示とする。また、拡大率が100倍の場合に、ボックスBx1を枠表示とし、ボックスBx2、Bx3、Bx4を全体表示とする。また、拡大率が135倍の場合に、ボックスBx1、Bx2、Bx3、Bx4を全体表示とする。
 拡大率表示部49は、近景を表すN(Near)と遠景を表すF(Far)の間に設けられた横長バー49aを備えている。拡大率が40倍までの間は、横長バー49aの枠のみが表示される。そして、拡大率が40倍を超えると、横長バー49aの枠内が特定色SCで表示されるようになる。そして、拡大率が135倍に到達するまでの間は、拡大率が大きくなるごとに、横長バー49a内の特定色の領域が徐々にF側に広がっていく。そして、拡大率が135倍に到達すると、特定色の領域は上限表示バー49bにまで広がり、それ以上はF側に広がらない。
 撮像センサ44としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサを利用可能である。また、原色の撮像センサ44の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(グリーン)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号が出力されるので、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換することにより、撮像センサ44と同様のRGB各色の画像信号を得ることができる。
 撮像センサ44は、撮像制御部45によって駆動制御される。撮像制御部45における制御は、各モードによって異なっている。通常光モードでは、撮像制御部45は、通常光で照明された観察対象を撮像するように、撮像センサ44を制御する。これにより、撮像センサ44のB画素からBc画像信号が出力され、G画素からGc画像信号が出力され、R画素からRc画像信号が出力される。
 特殊光モード又は疾患関連処理モードでは、撮像制御部45は撮像センサ44を制御して、特殊光で照明された観察対象を撮像するように、撮像センサ44を制御する。これにより、撮像センサ44のB画素からBs画像信号が出力され、G画素からGs画像信号が出力され、R画素からRs画像信号が出力される。
 CDS/AGC(Correlated Double Sampling/Automatic Gain Control)回路46は、撮像センサ44から得られるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路46を経た画像信号は、A/D(Analog/Digital)コンバータ48により、デジタルの画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置16に入力される。
 プロセッサ装置16は、画像取得部50と、DSP(Digital Signal Processor)52と、ノイズ低減部54と、画像処理切替部56と、画像処理部58と、映像信号生成部60とを備えている。画像処理部58は、通常光画像生成部62と、特殊光画像生成部64と、疾患関連処理部66とを備えている。
 プロセッサ装置16においては、各種処理に関するプログラムがプログラム格納メモリ(図示しない)に格納されている。プロセッサによってプログラム格納メモリ内のプログラムを実行することによって、画像取得部50、ノイズ低減部54、画像処理切替部56、画像処理部58、及び、映像信号生成部60の機能が実現する。これに伴い、画像処理部58に含まれる通常光画像生成部62、特殊光画像生成部64、及び疾患関連処理部66の機能が実現する。
 画像取得部50は、内視鏡12から入力される医療画像の一つである内視鏡画像の画像信号を取得する。取得した画像信号はDSP52に送信される。DSP52は、受信した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種信号処理を行う。欠陥補正処理では、撮像センサ44の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除かれ、正確な零レベルを設定される。ゲイン補正処理は、オフセット処理後の各色の画像信号に特定のゲインを乗じることにより各画像信号の信号レベルを整える。ゲイン補正処理後の各色の画像信号には、色再現性を高めるリニアマトリクス処理が施される。
 その後、ガンマ変換処理によって、各画像信号の明るさや彩度が整えられる。リニアマトリクス処理後の画像信号には、デモザイク処理(等方化処理,同時化処理とも言う)が施され、補間により各画素の欠落した色の信号を生成される。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。DSP52は、デモザイク処理後の各画像信号にYC変換処理を施し、輝度信号Yと色差信号Cb及び色差信号Crをノイズ低減部54に出力する。
 ノイズ低減部54は、DSP56でデモザイク処理等を施した画像信号に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ低減処理を施す。ノイズを低減した画像信号は、画像処理切替部56に入力される。
 画像処理切替部56は、設定されているモードによって、ノイズ低減部54からの画像信号の送信先を、通常光画像生成部62と、特殊光画像生成部64と、疾患関連処理部66のいずれかに切り替える。具体的には、通常光モードにセットされている場合には、ノイズ低減部54からの画像信号を通常光画像生成部62に入力する。特殊光モードにセットされている場合には、ノイズ低減部54からの画像信号を特殊光画像生成部64に入力する。疾患関連処理モードにセットされている場合には、ノイズ低減部54からの画像信号を疾患関連処理部66に入力する。
 通常光画像生成部62は、入力した1フレーム分のRc画像信号、Gc画像信号、Bc画像信号に対して、通常光画像用画像処理を施す。通常光画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。通常光画像用画像処理が施されたRc画像信号、Gc画像信号、Bc画像信号は、通常光画像として映像信号生成部60に入力される。
 特殊光画像生成部64は、入力した1フレーム分のRs画像信号、Gs画像信号、Bs画像信号に対して、特殊光画像用画像処理を施す。特殊光画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。特殊光画像用画像処理が施されたRs画像信号、Gs画像信号、Bs画像信号は、特殊光画像として映像信号生成部60に入力される。
 疾患関連処理部66は、医療画像の一つである特殊光画像に基づいて、疾患に関連する処理を行う。具体的には、疾患関連処理部66は、特殊光画像から得られる表層血管の密集、粘膜内出血、及び粘膜外出血に基づいて、潰瘍性大腸炎のステージに関する指標値を算出すること、潰瘍性大腸炎のステージを判定すること、又は、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定することのうち少なくとも1つを行う。判定結果に関する情報は、映像信号生成部60に入力される。疾患関連処理部66の詳細については、後述する。なお、第1~第3実施形態では、疾患関連処理部66が潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する場合について説明を行う。
 映像信号生成部60は、画像処理部58から出力される通常光画像、特殊光画像、又は判定結果に関する情報を、モニタ18においてフルカラーで表示可能にする映像信号に変換する。変換済みの映像信号はモニタ18に入力される。これにより、モニタ18には通常光画像、特殊光画像、又は判定結果に関する情報が表示される。
 疾患関連処理部66の詳細について、以下説明する。疾患関連処理部66にて判定対象とする潰瘍性大腸炎は、図7(A)~(E)に示すように、重症度が悪化する毎に、血管構造のパターンが変化することを発明者らが見出している。潰瘍性大腸炎が病理的寛解、又は、潰瘍性大腸炎が発生していない場合には、表層血管のパターンが規則的であり(図7(A))、又は、表層血管のパターンの規則性に多少の乱れが生じている程度である(図7(B))。一方、潰瘍性大腸炎が病理的非寛解であり、且つ、重症度が軽症である場合には、表層血管が局所的に密集している(図7(C))。また、潰瘍性大腸炎が病理的非寛解であり、且つ、重症度が中等症である場合には、粘膜内出血が発生している(図7(D))。また、また、潰瘍性大腸炎が病理的非寛解であり、且つ、重症度が中等症~重症である場合には、粘膜外出血が発生している(図7(E))。疾患関連処理部66では、上記の血管構造のパターン変化を利用して、医療画像の一つである特殊光画像に基づいて、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する。
 ここで、「表層血管の密集」とは、表層血管が蛇行し、集まる状態をいい、画像上の見た目では、腸腺嵩(クリプト)(図8参照)の周りを表層血管が何本も囲んでいることをいう。「粘膜内出血」とは、粘膜組織内(図7参照)の出血で内腔への出血との鑑別を要することをいう。「粘膜内出血」とは、画像上の見た目では、粘膜の中、且つ内腔(管腔、ひだの穴)ではない出血を指している。「粘膜外出血」とは、管腔内への少量の血液、管腔内を洗浄した後も内視鏡前方の管腔、又は粘膜からにじみ出て視認可能な血液、又は、出血性粘膜上でにじみを伴った管腔内の血液のことをいう。
 疾患関連処理部66は、特殊光画像に基づいて、疾患に関連する処理を行う。具体的には、疾患関連処理部66は、図9に示すように、特殊光画像から、表層血管、粘膜内出血、及び粘膜外出血などの血管を抽出する血管抽出部70と、抽出した血管に基づいて、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する判定部72とを有する。
 血管抽出部70は、特殊光画像から得られる周波数特性と輝度値の少なくとも一つに基づいて、血管として、表層血管の密集、粘膜内出血、及び粘膜外出血を抽出する。判定部72は、特殊光画像のうち、表層血管の密集の面積、粘膜内出血の面積、及び粘膜外出血の面積に基づいて得られる指標値を用いて、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する。指標値は、表層血管の密集の面積、粘膜内出血の面積、及び粘膜外出血をそれぞれ足し合わせて得られる値とすることが好ましい。具体的には、判定部72は、指標値が閾値未満の場合に、潰瘍性大腸炎が病理的寛解と判定し、指標値が閾値以上の場合に、潰瘍性大腸炎が病理的非寛解であると判定する。
 以上の判定部72での判定に関する情報は、モニタ18上に表示されて、ユーザーによる潰瘍性大腸炎の病理的寛解又は病理的非寛解の判定に用いられる。判定部72において潰瘍性大腸炎が病理的寛解であると判定された場合には、図10に示すように、その旨のメッセージがモニタ18上に表示される。なお、判定に関する情報を表示する際には、判定部72での判定に用いた特殊光画像を重畳表示することが好ましい。
 判定部72において判定の精度を高めるためには、観察対象が適切な拡大率で拡大された特殊光画像を用いることが好ましい。具体的には、本実施形態の特殊光のように、短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる特殊光画像であって、観察対象が、第1の拡大率以上であり且つ第1の拡大率より大きい第2の拡大率以下にて拡大された特殊光画像を用いることが好ましい。ここで、狭帯域光とは、半値幅が40nm以下の光、あるいは、LED又はLDなどの半導体光源からそのまま発せられる光(例えば、第1実施形態の「紫色光V」、第3実施形態の「紫色レーザ光」、「青色レーザ光」など)、あるいは、白色光などの広帯域光からの光をフィルタによって切り出した光(例えば、第2実施形態の「青色狭帯域光」、「緑色狭帯域光」)をいう。短波長の狭帯域光を含む照明光に基づく特殊光画像に対して血管抽出部70によって血管抽出を行う場合には、血管抽出部70によって抽出される表層血管、粘膜内出血、及び粘膜外出血の抽出精度が、短波長の狭帯域光を含まない光に基づく画像に対して行う血管抽出の精度よりも高くなる。また、第1の拡大率は5倍以上であり、第2の拡大率は、135倍(モニタ18が19インチの場合)~230倍(モニタ18が32インチの場合)以下であることが好ましい。
 第1の拡大率を5倍にする理由は以下の通りである。表層血管、粘膜内出血、及び粘膜外出血などの微細血管を抽出する場合には、微細血管の太さがモニタ18の1画素以内に収まってしまうような遠景撮影、あるいは低倍率撮影を行うと、血管抽出部70による血管抽出時に、実際の血管の太さは1画素以内にも関わらず、血管の太さが1画素として抽出されてしまう。例えば、特定画素領域である72画素の領域に占める血管の割合を示す血管密度を算出する場合において、図11(A)に示すように、実際は、太さが1画素(「PX」で表す。以下同じ。)よりも小さい血管VCが6画素分で、血管密度が6/72であるにも関わらず、血管抽出部70にて、太さ1画素未満の血管VCも1画素として抽出されることにより、図11(B)に示すように、血管VCが12画素分抽出されて、血管密度が12/72となってしまう。即ち、太さ1画素未満の血管VCを1画素として抽出することにより、実際の血管の面積に違いが生じることになる。これは、判定部72による判定結果の精度を低くする原因の一つとなる。
 そこで、血管の太さを1画素以上にする第1の拡大率で観察対象を拡大することが好ましい。即ち、特定画素領域である288画素の領域に占める血管の割合を示す血管密度を算出する場合において、図12(A)に示すように、実際は、血管VCが24画素分で、血管密度が24/288である場合、血管VCの太さを1画素以上にする第1の拡大率で観察対象を拡大した特殊光画像から血管を抽出することで、図12(B)に示すように、実際と同じように、血管VCが24画素分抽出されて、血管密度が24/288となる。これにより、抽出される血管の面積は実際の面積と同じとなるため、判定部72による判定結果の精度向上させることができる。
 なお、特殊光画像を表示するモニタ18が19インチ8Kモニタの場合には、1画素サイズが54μmであるため、太さが10μmの微細血管を1画素以上の複数画素に収めるためには、第1の拡大率は、54μm/10μm=5.4倍≒5倍以上とすることが好ましい。
 第2の拡大率を135倍以下にする理由は以下の通りである。表層血管の密集の面積、粘膜内出血の面積、及び粘膜外出血の面積に基づいて得られる指標値と、それに対応する疾患の病理スコア(大きいほど疾患の重症度が高い)を二次元のグラフ上にプロットした場合には、図13に示すように、第2の拡大率が135倍以下の40倍である場合、20000以下の指標値に、病理スコアが病理的寛解領域にある点PTが分布する一方、20000以上の指標値に、病理スコアが病理的非寛解領域にある点PTが分布している。即ち、指標値によって、病理的寛解領域の点PTを含む病理的寛解群と病理的非寛解領域の点PTを含む病理的非寛解群とを区別することができる。これにより、判定部72による判定が可能となる。
 一方、図14に示すように、第2の拡大率が135倍である場合、病理的寛解領域に分布する点PTと、病理的非寛解領域に分布する点PTを、指標値によって区別することが難しい。そのため、第2の拡大率が135倍である場合、指標値によって、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判別することが難しい。したがって、第2の拡大率は135倍以下とすることが好ましい。ただし、モニタ18が19インチである場合には、第2の拡大率を135倍以下とすることが好ましいが、モニタ18が19インチ以上の場合には、第2の拡大率を135倍以上としてもよい。例えば、モニタ18が32インチの場合には、19インチの場合の第2の拡大率を、32インチの場合の第2の拡大率に換算すると、第2の拡大率は230倍以下となる(135倍(19インチの場合)×39.83(32インチ横幅の場合)÷23.65(19インチ横幅の場合))。
 なお、図15に示すように、特殊光画像において、血管密度が位置によって異なる血管ムラがある場合には、拡大した領域が、血管密度が局所的に高い領域RHと、血管密度が局所的に低い領域RLとで、抽出する血管の面積が異なる。この場合、第2の拡大率が135倍~230倍を超える場合には、拡大した画像が、領域RLと領域RHの平均的な領域でなく、領域RLと領域RHのいずれかのみが含まれることがある。この場合には、血管抽出を行うと、局所的な血管の情報しか取得することができず、特殊光画像全体として平均的な血管情報を得ることができないため、結果として、判定部72での判定精度が低くなる。
 次に、疾患関連処理モードの一連の流れについて、図16に示すフローチャートに沿って説明を行う。疾患関連処理モードに切り替えられると、短波長の狭帯域光を含む特殊光が観察対象に照射される。また、ズーム操作部12hを操作して、観察対象の拡大率を、第1の拡大率以上、且つ第2の拡大率未満とする。そして、内視鏡12は、特殊光によって照明された観察対象を撮像することにより、内視鏡画像(医療画像)の一つである特殊光画像を得る。画像取得部50は、内視鏡12からの特殊光画像を取得する。
 血管抽出部70は、特殊光画像から得られる周波数特性又は輝度値に基づいて、血管として、表層血管の密集、粘膜内出血、及び粘膜外出血を抽出する。判定部72は、特殊光画像のうち、表層血管の密集の面積、粘膜内出血の面積、及び粘膜外出血の面積に基づいて得られる指標値を用いて、潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定する。判定部72での判定に関する情報は、モニタ18に表示される。
 [第2実施形態]
 第2実施形態では、上記第1実施形態で示した4色のLED20a~20eの代わりに、キセノンランプなどの広帯域光源と回転フィルタを用いて観察対象の照明を行う。また、カラーの撮像センサ44に代えて、モノクロの撮像センサで観察対象の撮像を行う。それ以外については、第1実施形態と同様である。
 図17に示すように、第2実施形態の内視鏡システム100では、光源装置14において、4色のLED20a~20eに代えて、広帯域光源102、回転フィルタ104、フィルタ切替部105が設けられている。また、撮像光学系30bには、カラーの撮像センサ44の代わりに、カラーフィルタが設けられていないモノクロの撮像センサ106が設けられている。
 広帯域光源102はキセノンランプ、白色LEDなどであり、波長域が青色から赤色に及ぶ白色光を発する。回転フィルタ104には、内側から順に、通常光モード用フィルタ107と、特殊光モード及び疾患関連処理モード用フィルタ108とが設けられている(図14参照)。フィルタ切替部105は、回転フィルタ104を径方向に移動させるものであり、モード切替SW12fにより通常光モードにセットしたときに、通常光モード用フィルタ107を白色光の光路に挿入し、特殊光モード又は疾患関連処理モードにセットしたときに、特殊光モード及び疾患関連処理モード用フィルタ108を白色光の光路に挿入する。
 図18に示すように、通常光モード用フィルタ107には、周方向に沿って、白色光のうち広帯域青色光Bを透過させるBフィルタ107a、白色光のうち広帯域緑色光Gを透過させるGフィルタ107b、及び、白色光のうち広帯域赤色光Rを透過させるRフィルタ107cが設けられている。したがって、通常光モード時には、回転フィルタ104が回転することで、通常光として、広帯域青色光B、広帯域緑色光G、広帯域赤色光Rが交互に観察対象に照射される。
 特殊光モード及び疾患関連処理モード用フィルタ108には、周方向に沿って、白色光のうち青色狭帯域光を透過させるBnフィルタ108a、及び、白色光のうち緑色狭帯域光を透過させるGnフィルタ108bが設けられている。したがって、特殊光モード又は疾患関連処理モード時には、回転フィルタ104が回転することで、特殊光として、短波長の狭帯域光としての青色狭帯域光と緑色狭帯域光が交互に観察対象に照射される。なお、青色狭帯域光の波長帯域は400~450nmであり、緑色狭帯域光の波長帯域は540~560nmであることが好ましい。
 内視鏡システム100では、通常光モード時には、広帯域青色光B、広帯域緑色光G、広帯域赤色光Rで観察対象が照明される毎にモノクロの撮像センサ106で観察対象を撮像する。これにより、Bc画像信号、Gc画像信号、Rc画像信号が得られる。そして、それら3色の画像信号に基づいて、上記第1実施形態と同様の方法で、通常光画像が生成される。
 内視鏡システム100では、特殊光モード又は疾患関連処理モード時には、青色狭帯域光と緑色狭帯域光で観察対象が照明される毎にモノクロの撮像センサ106で観察対象を撮像する。これにより、Bs画像信号、Gs画像信号が得られる。そして、それら2色の画像信号に基づいて、上記第1実施形態と同様の方法で、特殊光画像が生成される。
 [第3実施形態]
 第3実施形態では、上記第1実施形態で示した4色のLED20a~20eの代わりに、レーザ光源と蛍光体を用いて観察対象の照明を行う。以下においては、第1実施形態と異なる部分のみ説明を行い、第1実施形態と略同様の部分については、説明を省略する。
 図19に示すように、第3実施形態の内視鏡システム200では、光源装置14の光源部20において、4色のLED20a~20eの代わりに、短波長の狭帯域光に相当する中心波長405±10nmの紫色レーザ光を発する紫色レーザ光源部203(「405LD」と表記。LDは「Laser Diode」を表す)と、中心波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記)204とが設けられている。これら各光源部204、206の半導体発光素子からの発光は、光源制御部208により個別に制御されている。
 光源制御部208は、通常光モードの場合には、青色レーザ光源部204を点灯させる。これに対して、特殊光モード又は疾患関連処理モードの場合には、紫色レーザ光源部203と青色レーザ光源部204を同時点灯させる。
 なお、紫色レーザ光、又は青色レーザ光の半値幅は±10nm程度にすることが好ましい。また、紫色レーザ光源部203又は青色レーザ光源部204は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
 照明光学系30aには、照明レンズ32の他に、ライトガイド25からの紫色レーザ光又は青色レーザ光が入射する蛍光体210が設けられている。蛍光体210は、青色レーザ光によって励起され、蛍光を発する。したがって、青色レーザ光は励起光に相当する。また、青色レーザ光の一部は、蛍光体210を励起させることなく透過する。
 ここで、通常光モードにおいては、主として青色レーザ光が蛍光体210に入射するため、図20に示すように、青色レーザ光、及び青色レーザ光により蛍光体210から励起発光する蛍光を合波した通常光が観察対象に照明される。この通常光で照明された観察対象を撮像センサ44で撮像することによって、Bc画像信号、Gc画像信号、Rc画像信号からなる通常光画像が得られる。
 また、特殊光モード又は疾患関連処理モードにおいては、紫色レーザ光及び青色レーザ光が蛍光体210に同時に入射することにより、図21に示すように、紫色レーザ光及び青色レーザ光に加えて、紫色レーザ光及び青色レーザ光によって蛍光体210から励起発光する蛍光を含む疑似白色光が、特殊光として発せられる。この特殊光で照明された観察対象を撮像センサ44で撮像することによって、Bs画像信号、Gs画像信号、Rs画像信号からなる特殊光画像が得られる。なお、疑似白色光は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dから発せられる紫色光V、青色光B、緑色光G、及び赤色光を組み合わせた光としてもよい。
 なお、蛍光体210は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYKG系蛍光体、或いはBAM(BaMgAl1017)などの蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体210の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。
 なお、上記実施形態では、医療画像の一つである内視鏡画像の処理を行う内視鏡システムに対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理システムに対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。
 例えば、図22に示すように、診断支援装置600は、医療画像処理システム602などのモダリティやPACS(Picture Archiving and Communication Systems)604を組み合わせて使用される。また、図23に示すように、医療業務支援装置610は、第1医療画像処理システム621、第2医療画像処理システム622、…、第N医療画像処理システム623等の各種検査装置と任意のネットワーク626を介して接続する。医療業務支援装置610は、第1~第N医療画像処理システム621、622・・・、623からの医療画像を受信し、受信した医療画像に基づいて、医療業務の支援を行う。
 上記実施形態において、画像処理部58に含まれる通常光画像生成部62、特殊光画像生成部64、疾患関連処理部66、血管抽出部70、及び判定部72といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f モード切替スイッチ
12g 静止画取得指示部
12h ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 光源制御部
23 光路結合部
25 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
42 対物レンズ
43 ズームレンズ
44 撮像センサ
45 撮像制御部
46 CDS/AGC回路
47 拡大率表示部
48 A/Dコンバータ
49 拡大率表示部
49a 横長バー
49b 上限表示バー
50 画像取得部
52 DSP
54 ノイズ低減部
56 画像処理切替部
58 画像処理部
60 映像信号生成部
62 通常光画像生成部
64 特殊光画像生成部
66 疾患関連処理部
70 血管抽出部
72 判定部
100 内視鏡システム
102 広帯域光源
104 回転フィルタ
105 フィルタ切替部
106 撮像センサ
107 通常光モード用フィルタ
107a Bフィルタ
107b Gフィルタ
107c Rフィルタ
108 特殊光モード及び疾患関連処理モード用フィルタ
108a Bnフィルタ
108b Gnフィルタ
200 内視鏡システム
203 紫色レーザ光源部
204 青色レーザ光源部
208 光源制御部
210 蛍光体
600 診断支援装置
602 医療画像処理システム
604 PACS
610 医療業務支援装置
621 第1医療画像処理システム
622 第2医療画像処理システム
623 第N医療画像処理システム
626 ネットワーク
Bx1、Bx2、Bx3、Bx4 ボックス
V 紫色光
B 青色光
G 緑色光
R 赤色光
SC 特定色
VC 血管
PX 画素
PT 点
RH、RL 領域

Claims (11)

  1.  プロセッサを備え、
     前記プロセッサは、
     短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる医療画像であり、前記観察対象は、第1の拡大率以上であり且つ前記第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得し、
     前記医療画像に基づいて、疾患に関する処理を行う画像処理装置。
  2.  前記第1の拡大率で前記観察対象を拡大することにより、前記観察対象に含まれる血管の太さを1画素以上にする請求項1記載の画像処理装置。
  3.  前記第1の拡大率は5倍以上である請求項1または2記載の画像処理装置。
  4.  前記第2の拡大率は230倍以下である請求項1ないし3いずれか1項記載の画像処理装置。
  5.  前記照明光は、前記短波長の狭帯域光として、中心波長又はピーク波長に410nmが含まれる紫色光である請求項1ないし4いずれか1項記載の画像処理装置。
  6.  前記照明光は、前記短波長の狭帯域光としての青色狭帯域光と緑色狭帯域光であり、
     前記医療画像は、前記青色狭帯域光と前記緑色狭帯域光とが交互に照明された前記観察対象を撮像して得られる請求項1ないし4いずれか1項記載の画像処理装置。
  7.  前記照明光は、前記短波長の狭帯域光と、励起光を蛍光体に照射して得られる蛍光とを含む疑似白色光である請求項1ないし4いずれか1項記載の画像処理装置。
  8.  前記照明光は、前記短波長の狭帯域光としての紫色光と、青色光、緑色光、又は赤色光とを含む請求項1ないし4いずれか1項記載の画像処理装置。
  9.  前記プロセッサは、前記医療画像から得られる表層血管の密集、粘膜内出血、及び粘膜外出血の少なくとも一つに基づいて、潰瘍性大腸炎のステージに関する指標値を算出すること、前記潰瘍性大腸炎のステージを判定すること、又は、前記潰瘍性大腸炎の病理的寛解又は病理的非寛解を判定することのうち少なくとも1つを行う請求項1ないし8いずれか1項記載の画像処理装置。
  10.  短波長の狭帯域光を含む照明光を発する光源部と、
     プロセッサと、を備え、
     前記プロセッサは、
     前記照明光によって照明された観察対象を撮像して得られる医療画像であり、前記観察対象は、第1の拡大率以上であり且つ前記第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得し、
     前記医療画像に基づいて、疾患に関する処理を行う内視鏡システム。
  11.  プロセッサが、短波長の狭帯域光を含む照明光によって照明された観察対象を撮像して得られる医療画像であり、前記観察対象は、第1の拡大率以上であり且つ前記第1の拡大率より大きい第2の拡大率未満にて拡大されている医療画像を取得するステップと、
     前記プロセッサが、前記医療画像に基づいて、疾患に関する処理を行うステップとを有する画像処理装置の作動方法。
PCT/JP2020/025695 2019-07-08 2020-06-30 画像処理装置、内視鏡システム、及び画像処理装置の作動方法 WO2021006121A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021530627A JP7217351B2 (ja) 2019-07-08 2020-06-30 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
US17/565,040 US20220117474A1 (en) 2019-07-08 2021-12-29 Image processing apparatus, endoscope system, and operation method of image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019127010 2019-07-08
JP2019-127010 2019-07-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/565,040 Continuation US20220117474A1 (en) 2019-07-08 2021-12-29 Image processing apparatus, endoscope system, and operation method of image processing apparatus

Publications (1)

Publication Number Publication Date
WO2021006121A1 true WO2021006121A1 (ja) 2021-01-14

Family

ID=74115182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025695 WO2021006121A1 (ja) 2019-07-08 2020-06-30 画像処理装置、内視鏡システム、及び画像処理装置の作動方法

Country Status (3)

Country Link
US (1) US20220117474A1 (ja)
JP (1) JP7217351B2 (ja)
WO (1) WO2021006121A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058503A1 (ja) * 2021-10-04 2023-04-13 富士フイルム株式会社 内視鏡システム、医療画像処理装置及びその作動方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152279A (ja) * 2011-01-24 2012-08-16 Fujifilm Corp 内視鏡装置
JP2014212925A (ja) * 2013-04-25 2014-11-17 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
JP2019042157A (ja) * 2017-09-01 2019-03-22 富士フイルム株式会社 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201406304D0 (en) * 2014-04-08 2014-05-21 Isis Innovation Medical imaging
JP6616071B2 (ja) * 2014-12-22 2019-12-04 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
IT201700083055A1 (it) * 2017-07-20 2019-01-20 Laura Stronati “uso della proteina inibitore 2 della dissociazione di rho gdp come marcatore diagnostico e prognostico delle malattie infiammatorie intestinali”
JP6858672B2 (ja) * 2017-08-29 2021-04-14 富士フイルム株式会社 医療画像処理システム及び内視鏡システム
CN107950472A (zh) * 2017-11-27 2018-04-24 大理大学 一种溃疡性结肠炎动物模型的构建方法和应用
JP7196330B2 (ja) * 2019-09-27 2022-12-26 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理装置の作動方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152279A (ja) * 2011-01-24 2012-08-16 Fujifilm Corp 内視鏡装置
JP2014212925A (ja) * 2013-04-25 2014-11-17 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
JP2019042157A (ja) * 2017-09-01 2019-03-22 富士フイルム株式会社 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISHIKAWA, HIDEKI: "Problems related to determining cure of ulcerative colitis", GASTROENTEROLOGICAL ENDOSCOPY, vol. 32, no. 1, 20 January 1990 (1990-01-20), pages 262 - 263 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058503A1 (ja) * 2021-10-04 2023-04-13 富士フイルム株式会社 内視鏡システム、医療画像処理装置及びその作動方法

Also Published As

Publication number Publication date
US20220117474A1 (en) 2022-04-21
JP7217351B2 (ja) 2023-02-02
JPWO2021006121A1 (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP6243364B2 (ja) 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
WO2021060159A1 (ja) 画像処理装置、内視鏡システム、及び画像処理の作動方法
WO2021060158A1 (ja) 内視鏡システム及びその作動方法
CN111107778B (zh) 医疗图像处理系统、内窥镜系统、诊断支持装置及医疗服务支持装置
JP7508559B2 (ja) 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
JP6259747B2 (ja) プロセッサ装置、内視鏡システム、プロセッサ装置の作動方法、及びプログラム
JP2020065685A (ja) 内視鏡システム
WO2021006121A1 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
WO2020217883A1 (ja) 画像処理装置及びその作動方法
US12051201B2 (en) Image processing device capable of accurately determining ulcerative colitis by using a medical image and method of operating the same
WO2022071413A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JP6285373B2 (ja) 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
JP7052003B2 (ja) 内視鏡システム
JP7411515B2 (ja) 内視鏡システム及びその作動方法
WO2022009478A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
WO2022059233A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JP2016067781A (ja) 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20837231

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021530627

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20837231

Country of ref document: EP

Kind code of ref document: A1