WO2023058503A1 - 内視鏡システム、医療画像処理装置及びその作動方法 - Google Patents

内視鏡システム、医療画像処理装置及びその作動方法 Download PDF

Info

Publication number
WO2023058503A1
WO2023058503A1 PCT/JP2022/035958 JP2022035958W WO2023058503A1 WO 2023058503 A1 WO2023058503 A1 WO 2023058503A1 JP 2022035958 W JP2022035958 W JP 2022035958W WO 2023058503 A1 WO2023058503 A1 WO 2023058503A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation result
image
evaluation
remission
illumination light
Prior art date
Application number
PCT/JP2022/035958
Other languages
English (en)
French (fr)
Inventor
広樹 渡辺
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023552817A priority Critical patent/JPWO2023058503A1/ja
Publication of WO2023058503A1 publication Critical patent/WO2023058503A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes

Definitions

  • the present invention relates to an endoscope system that outputs multiple diagnostic results from medical images, a medical image processing apparatus, and an operating method thereof.
  • CAD computer-aided diagnosis
  • GOS Geboes histopathology score
  • An object of the present invention is to provide an endoscope system, a medical image processing apparatus, and an operation method thereof that can obtain diagnostic results from endoscopic images according to the purpose of the user.
  • a medical image processing apparatus of the present invention is a medical image processing apparatus comprising a processor, and the processor obtains an endoscopic image captured by illuminating a subject with one or more types of illumination light, and obtains an endoscopic image.
  • the processor uses the mirror image, output at least one of a first evaluation result based on a first evaluation criterion, which is an evaluation criterion for the degree of disease, and a second evaluation result based on a second evaluation criterion different from the first evaluation criterion. configured as follows.
  • the first evaluation criteria are preferably evaluation criteria for the degree of disease based on images captured by an imaging device different from the endoscope.
  • the image captured by an imaging device different from the endoscope is preferably a pathological image of biopsy tissue taken from the subject.
  • the processor is configured to output a first evaluation result by a first determiner using the endoscopic image, the first determiner determining a pre-stored degree of disease based on the endoscopic image and the pathological image. It is preferable to output the first evaluation result using the surface layer morphology classification that is the correspondence relationship between .
  • the processor generates a first frequency-domain image obtained by extracting a first frequency region from the endoscopic image, a second frequency-domain image obtained by extracting a second frequency region different from the first frequency region from the endoscopic image, and a first generating a frequency domain, a second frequency domain, and a third frequency domain image obtained by extracting a third frequency domain different from each other; using the first frequency domain image, the second frequency domain image and the third frequency domain image,
  • the determiner is arranged to output a first evaluation result based on a first evaluation criterion.
  • the processor is configured to output a first evaluation result by a second determiner different from the first determiner using the endoscopic image, the second determiner using the endoscopic image for learning and the pathological image. is preferably learned using the degree of disease based on
  • the second evaluation criteria are preferably evaluation criteria for the degree of disease based on endoscopic images.
  • the processor is configured to use the endoscopic image to output the second evaluation result by a third determiner different from the first determiner and the second determiner, the third determiner being a learning endoscope It is preferable that learning is performed using images and degrees of disease based on endoscopic images.
  • the first evaluation criterion is the evaluation criterion of the degree of disease based on images taken by an imaging device different from the endoscope that evaluates the degree of disease in two stages
  • the second evaluation criterion is the degree of disease in two stages.
  • the evaluation criteria for the degree of disease is based on endoscopic images evaluated in .
  • the first evaluation criteria are evaluation criteria for the degree of disease based on images taken with an imaging device different from the endoscope that evaluates the degree of disease in three or more stages
  • the second evaluation criterion is the degree of disease. It is preferable that the evaluation criteria for the degree of disease are based on endoscopic images, in which the degree is evaluated in three or more stages.
  • the disease is preferably ulcerative colitis.
  • the first evaluation criterion is Geboes histopathology score, Riley score, Modified Riley score or Roberts histopathology index
  • the second evaluation criterion is Mayo endoscopic subscore or UCEIS score.
  • the first evaluation criterion may include the morphology of superficial blood vessels and/or the degree of bleeding
  • the second evaluation criterion may include the degree of mucosal redness, the degree of vascular transparency of deep blood vessels, and/or the degree of erosion or ulceration. preferable.
  • the first criterion and the second criterion have a range of disease in remission and a range of non-remission, wherein the range of disease in remission on the first criterion is the range of disease in remission on the second criterion.
  • the first non-remission boundary value which is smaller than the range and is the lowest value for non-remission of the disease among the first evaluation criteria, is the second non-remission boundary value, which is the lowest value for non-remission of the disease among the second evaluation criteria.
  • the first non-remission threshold is preferably set to a range in which the disease is in remission according to the second criterion.
  • the processor outputs at least one of a first evaluation result and a second evaluation result for each frame of the endoscopic image, and a first evaluation result calculated using the first evaluation result related to at least two frames of the endoscopic image. It is preferable to output and display at least one of a one-multiple-frame evaluation result and a second multiple-frame evaluation result calculated using a second evaluation result relating to at least two frames of endoscopic images. .
  • the processor is preferably configured to divide the endoscopic image into a plurality of regions and output at least one of the first evaluation result and the second evaluation result for the plurality of regions.
  • the processor outputs a region evaluation index for the plurality of regions based on the endoscopic image segmented as a plurality of regions, and uses the endoscopic image composed of the plurality of regions to which the region evaluation index is attached to determine the plurality of regions. is preferably configured to output at least one of the first evaluation result and the second evaluation result for the region.
  • the processor outputs at least one of a first evaluation result and a second evaluation result for each region of the endoscopic image, and a first multi-region evaluation calculated using the first evaluation results for at least two or more regions. It is preferably configured to output at least one of a result and a second multi-region evaluation result calculated using the second evaluation results for at least two or more regions.
  • the processor is preferably configured to output a first multi-region frame evaluation result and a second multi-region frame evaluation result for each frame of endoscopic image.
  • the processor acquires a first illumination light image captured by illuminating the subject with the first illumination light as an endoscopic image, generates a structure-enhanced image using the first illumination light image, and generates the structure-enhanced image. is preferably configured to output a first evaluation result based on the first evaluation criteria.
  • the structure-enhanced image is preferably an image in which the surface structure, color difference, or edge amount of the first illumination light image is emphasized.
  • the processor is preferably configured to output a second evaluation result based on a second evaluation criterion using the first illumination light image.
  • the first illumination light is preferably white light.
  • the processor includes a first illumination light image captured by illuminating the subject with the first illumination light and a second illumination light image captured by illuminating the subject with second illumination light having a spectrum different from that of the first illumination light. It is preferably configured to acquire a plurality of endoscopic images and use the second illumination light image to output a first evaluation result based on a first evaluation criterion.
  • the processor is preferably configured to automatically switch between a first illumination period in which the subject is illuminated with the first illumination light and a second illumination period in which the subject is illuminated with at least one type of second illumination light.
  • the wavelength band of the second illumination light is preferably narrower than that of the first illumination light.
  • the second illumination light preferably contains more specific blue or specific purple than the first illumination light.
  • the processor is preferably configured to divide the second illumination light image into a plurality of second illumination areas and output the first evaluation results for the plurality of second illumination areas.
  • the processor is preferably configured to output the first evaluation result and the second evaluation result.
  • the processor is preferably configured to notify when a combination of the first evaluation result and the second evaluation result satisfies a specific condition.
  • the specific condition for notification is preferably when the first evaluation result is non-remission, or when the second evaluation result is remission and the first evaluation result is non-remission.
  • the processor preferably notifies by displaying a warning on the display on which the endoscopic image is displayed.
  • the processor preferably causes the display to display the endoscopic image, the first evaluation result, and the second evaluation result.
  • the processor is preferably configured to associate and store the part information of the subject that has output the first evaluation result and the second evaluation result, the first evaluation result, and the second evaluation result.
  • An endoscope system of the present invention includes the above-described medical image processing device, light source device, and endoscope.
  • a method of operating a medical image processing apparatus includes the steps of acquiring a medical image captured by illuminating a subject with one or more types of illumination light, outputting at least one of a first evaluation result based on a certain first evaluation criterion and a second evaluation result based on a second evaluation criterion different from the first evaluation criterion.
  • an endoscope system a medical image processing apparatus, and an operating method thereof that can obtain diagnostic results from endoscopic images according to the purpose of the user.
  • FIG. 1 is an explanatory diagram of a configuration of an endoscope system;
  • FIG. 1 is a block diagram showing functions of an endoscope system;
  • FIG. It is a graph which shows the spectrum of 1st illumination light.
  • It is a graph which shows the spectrum of 2nd illumination light.
  • 3 is a block diagram showing functions of an image determination unit;
  • FIG. FIG. 2 is an explanatory diagram showing the vascular morphology, intramucosal hemorrhage, and extramucosal hemorrhage in forms 2 to 6.
  • FIG. FIG. 2 is an explanatory diagram showing tissues of the digestive tract;
  • 3 is a block diagram showing functions of a frequency domain image generator and a first determiner as an image processing unit;
  • FIG. 4 is an explanatory diagram showing a flow of analysis of a frequency domain image from a second illumination light image by a first determiner as an image processing unit;
  • FIG. 10 is an explanatory diagram showing a flow of outputting a first evaluation result by a first determiner as an image processing unit;
  • 3 is a block diagram showing functions of a structure-enhanced image generating section and a first determiner as an image processing unit;
  • FIG. FIG. 4 is an explanatory diagram showing a method of generating first learning data;
  • FIG. 10 is an explanatory diagram showing a case where a frequency domain image is input to a first determiner as an image processing unit and a first evaluation result is output;
  • FIG. 4 is an explanatory diagram showing a case where a structure-enhanced image is input to a first determiner as an image processing unit and a first evaluation result is output;
  • FIG. 11 is an explanatory diagram showing a case where a second illumination light image is input to a first determiner as a learned model and a first evaluation result is output; It is explanatory drawing which shows the case where a 2nd illumination light image is input into a 2nd determination device and a 1st evaluation result is output. It is explanatory drawing which shows the case where a 1st illumination light image is input into a 2nd determination device and a 1st evaluation result is output.
  • FIG. 11 is an explanatory diagram showing a case where a frequency domain image is input to a third determiner and a second evaluation result is output;
  • FIG. 11 is an image diagram showing a display image when displaying an endoscopic image and an evaluation result display field;
  • FIG. 4 is a block diagram showing functions of a comprehensive evaluation result calculation unit;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a region currently being observed, and a frame evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a schematic diagram, and multi-frame part evaluation results;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a three-dimensional structure diagram, and multi-frame part evaluation results;
  • FIG. 4 is an image diagram showing a display image when displaying an endoscopic image, a simple schematic diagram, and multi-frame part evaluation results.
  • FIG. 10 is an image diagram showing an example in which an image dividing unit divides an endoscopic image;
  • FIG. 10 is an image diagram showing an example of outputting an evaluation result from an endoscopic image divided into a plurality of regions;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a part currently being observed, and multi-region part evaluation results;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a schematic diagram, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a three-dimensional structure diagram, and a multi-area part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a simple schematic diagram, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a part currently being observed, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a part currently being observed, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a schematic diagram, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying an endoscopic image, a three-dimensional structure diagram, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 4 is an image diagram showing a display image when displaying an endoscopic image, a simple schematic diagram, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when the entire endoscopic image is surrounded by a warning display frame;
  • FIG. 10 is an image diagram showing a display image in a case where an area obtained by dividing an endoscopic image is surrounded by a warning display frame; 4 is a flow chart showing the flow of functions of the endoscope system in the first embodiment; It is explanatory drawing which shows a 1st light emission pattern. It is explanatory drawing which shows a 2nd light emission pattern.
  • FIG. 10 is an image diagram showing a display image for displaying a first illumination light image, a second illumination light image, a schematic diagram, and an evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a part currently being observed, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a part currently being observed, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a schematic diagram, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a three-dimensional structure diagram, a multi-region frame evaluation result, and a multi-region part evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a simple schematic diagram, a multi-region frame evaluation result, and a multi-region site evaluation result;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, a simple schematic diagram, a multi-region frame evaluation result, and a multi-region site evaluation result;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, and a site currently being observed;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, and a schematic diagram;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, and a three-dimensional structure diagram;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image, a second illumination light image, and a simplified schematic diagram;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image and a site currently being observed;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image and a site currently being observed;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image and a schematic diagram;
  • FIG. 4 is an image diagram showing a display image when displaying a first illumination light image and a three-dimensional structure diagram;
  • FIG. 10 is an image diagram showing a display image when displaying a first illumination light image and a simplified schematic diagram;
  • FIG. 10 is an image diagram showing a display image when the entire first illumination light image and the second illumination light image are surrounded by a warning display frame;
  • FIG. 10 is an image diagram showing a display image when the corresponding first illumination area and second illumination area are surrounded by a warning display frame;
  • the endoscope system 10 includes an endoscope 12 , a light source device 13 , a medical image processing device (processor device) 14 , a display 15 and a user interface 16 .
  • the endoscope 12 is optically connected to the light source device 13 and electrically connected to the processor device 14 .
  • the endoscope 12 has an insertion section 12a, an operation section 12b, a bending section 12c and a distal end section 12d.
  • the insertion portion 12a is inserted into the body of the subject.
  • the operation portion 12b is provided at the proximal end portion of the insertion portion 12a.
  • the curved portion 12c and the distal end portion 12d are provided on the distal end side of the insertion portion 12a.
  • the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b.
  • the distal end portion 12d is directed in a desired direction by the bending motion of the bending portion 12c.
  • a forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the distal end portion 12d.
  • the treatment instrument is inserted into the forceps channel from the forceps port 12j.
  • An optical system for forming a subject image and an optical system for illuminating the subject with illumination light are provided inside the endoscope 12 .
  • the operation unit 12b is provided with an angle knob 12e, a mode changeover switch 12f, a still image acquisition instruction switch 12h, and a zoom operation unit 12i.
  • the mode changeover switch 12f is used for an observation mode changeover operation.
  • a still image acquisition instruction switch 12h is used to instruct acquisition of a still image of a subject.
  • a zoom operation unit 12 i is used for operating the zoom lens 42 .
  • the light source device 13 generates illumination light.
  • the display 15 displays an endoscopic image and display images.
  • the endoscopic image includes at least one of a first illumination light image and a second illumination light image that use different illumination light for imaging.
  • the display image is an image generated to display an endoscopic image, the disease evaluation result output from the endoscopic image, and information accompanying the evaluation result.
  • the user interface 16 has a keyboard, mouse, microphone, tablet, touch pen, and the like, and receives input operations such as function settings.
  • the processor device 14 controls the light source device 13 and controls image processing, analysis, and display of image signals transmitted from the endoscope 12 .
  • the light source device 13 includes a light source unit 20 , a light source processor 21 that controls the light source unit 20 , and an optical path coupling unit 22 .
  • the light source unit 20 has a plurality of semiconductor light sources, which are turned on or off. When lighting a plurality of semiconductor light sources, the amount of light emitted from each semiconductor light source is controlled to emit illumination light for illuminating the subject.
  • the light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light Emitting Diode) 20d. It has four color LEDs.
  • the light source unit 20 and/or the light source processor 21 may be built into the endoscope 12 . Also, the light source processor 21 may be incorporated in the processor device 14 .
  • the endoscope system 10 has a first illumination light mode and a second illumination light mode.
  • the first illumination light mode and the second illumination light mode are switched via the central control unit 50 by operating the mode switch 12f.
  • the illumination light includes first illumination light and second illumination light having a spectrum different from that of the first illumination light.
  • the first illumination light is normal light used for screening observation by giving brightness to the entire subject, and is preferably broadband light such as white light.
  • the second illumination light is at least one type of special light used for emphasizing specific structures such as ducts and blood vessels of the mucous membrane of the gastrointestinal tract, which is the subject.
  • the second illumination light preferably has a narrower wavelength band than the first illumination light.
  • the second illumination light contains more specific blue or specific purple than the first illumination light.
  • the second illumination light is preferably light with a central wavelength of 410 nm.
  • the V-LED 20a When emitting the first illumination light, as shown in FIG. 3, the V-LED 20a emits violet light V with a central wavelength of 405 ⁇ 10 nm and a wavelength range of 380-420 nm.
  • the B-LED 20b generates blue light B with a central wavelength of 450 ⁇ 10 nm and a wavelength range of 420-500 nm.
  • the G-LED 20c generates green light G with a wavelength range of 480-600 nm.
  • the R-LED 20d emits red light R with a central wavelength of 620-630 nm and a wavelength range of 600-650 nm.
  • the second illumination light for example, light with a center wavelength of 410 nm as shown in FIG. 4 is generated.
  • the light source processor 21 independently controls the light amounts of the four colors of violet light V, blue light B, green light G, and red light R, and changes the light amounts to emit the first illumination light or the second illumination light.
  • the first illumination light image is displayed on the display 15 in natural colors by illuminating the subject with the first illumination light for each frame and capturing the image.
  • the second illumination light image is displayed on the display 15 by illuminating the subject with the second illumination light for each frame and capturing an image, thereby emphasizing a specific structure.
  • the term “frame” refers to a unit of period including at least the period from the timing of light emission to the completion of readout of the image signal by the imaging sensor 43 .
  • the still image can be obtained by operating the still image acquisition instruction switch 12h.
  • Signals relating to image acquisition instructions are sent to the endoscope 12 , the light source device 13 and the processor device 14 .
  • each of the LEDs 20a to 20d (see FIG. 2) is incident on the light guide 23 via the optical path coupling section 22 composed of mirrors, lenses, and the like.
  • the light guide 23 propagates the light from the optical path coupling portion 22 to the distal end portion 12 d of the endoscope 12 .
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 31 , and the illumination light propagated by the light guide 23 is applied to the subject through the illumination lens 31 .
  • the imaging optical system 30 b has an objective lens 41 and an imaging sensor 43 . Light from a subject irradiated with illumination light enters an imaging sensor 43 via an objective lens 41 and a zoom lens 42 . As a result, an image of the subject is formed on the imaging sensor 43 .
  • the zoom lens 42 is a lens for enlarging a subject, and is moved between the tele end and the wide end by operating the zoom operation section 12i.
  • the imaging sensor 43 is a primary color sensor, and includes B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R pixels (red pixels) having red color filters. and three types of pixels.
  • the imaging sensor 43 is preferably a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the imaging processor 44 controls the imaging sensor 43 . Specifically, an image signal is output from the imaging sensor 43 by reading the signal of the imaging sensor 43 by the imaging processor 44 . The output image signal is transmitted to the medical image acquisition unit 60 of the processor device 14 .
  • the medical image acquisition unit 60 performs various signal processing such as defect correction processing, offset processing, demosaicing processing, matrix processing, white balance adjustment, gamma conversion processing, and YC conversion processing on the received color image. Next, by performing image processing including 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structural enhancement processing such as spatial frequency enhancement, A first illumination light image for the first illumination light and a second illumination light image for the second illumination light are acquired.
  • image processing including 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as three-dimensional LUT (Look Up Table) processing, color enhancement processing, and structural enhancement processing such as spatial frequency enhancement.
  • the processor device 14 includes a central control unit 50, a medical image acquisition unit 60, an image determination unit 70, a comprehensive evaluation result calculation unit 71, a display control unit 130, an image division unit 160, an area evaluation unit 170, and a notification control unit 200 ( See Figure 2).
  • the programs in the program memory are operated by the central control unit 50 composed of the light source and image processing processors, thereby operating the medical image acquisition unit 60, the image determination unit 70, and the comprehensive evaluation result calculation. Functions of the unit 71, the display control unit 130, the image division unit 160, and the region evaluation unit 170 are realized.
  • the first illumination light image or the second illumination light image acquired by the medical image acquisition unit 60 is input to the image determination unit 70 .
  • the image determination unit 70 outputs at least one of a first evaluation result based on a first evaluation criterion, which is an evaluation criterion for the degree of disease, and a second evaluation result based on a second evaluation criterion different from the first evaluation criterion.
  • the evaluation criteria hereinafter used as a term collectively describing the first evaluation criteria and the second evaluation criteria), which will be described in detail later, are scales for determining the degree of disease.
  • An evaluation result (hereinafter used as a term collectively describing the first evaluation result and the second evaluation result), which will be described later in detail, is the result output by the image determination unit 70, and is, for example, “remission”. , “non-remission”, “mucosal hemorrhage” and “severe vascular irregularity”, and may use existing scales such as “Mayo0” and “Geboes2B", " Prestored scales such as morphology 1 and morphology 2 may be used, or values such as '0' and '1' may be used.
  • Judgment means that the image judgment unit 70 analyzes the endoscopic image in order to output the evaluation result.
  • Output means that the image determination section 70 outputs the first evaluation result and/or the second evaluation result.
  • the image determination unit 70 has, as shown in FIG. 5, a first determiner 80, a second determiner 90, and a third determiner 100 that perform determination using endoscopic images.
  • the first determiner 80 is an image processing unit that stores surface morphology classification, which will be described later, or a trained model.
  • the second determiner 90 and the third determiner 100 are different trained models.
  • a trained model is a model that has been trained using learning data.
  • the image determination unit 70 further includes a frequency domain image generation unit 110 and a structure-enhanced image generation unit 120, which will be described later.
  • deep learning for machine learning to generate learning models
  • machine learning includes decision trees, support vector machines, random forests, regression analysis, supervised learning, semi-unsupervised learning, unsupervised learning, reinforcement learning, deep reinforcement learning, learning using neural networks, Includes generative adversarial networks and the like.
  • the first determiner 80 as a trained model is trained using the first learning data.
  • the second determiner 90 is a trained model that has been trained using the second learning data.
  • a first evaluation criterion is used when generating the dataset of the first training data and the dataset of the second training data. Details of the first learning data and the second learning data will be described later.
  • the third determiner 100 is a trained model that has been trained using the third learning data. A second evaluation criterion is used when generating the third learning data. Details of the third learning data will be described later.
  • the image determination unit 70 having the first determiner 80, the second determiner 90, and the third determiner 100 determines at least the first evaluation result and the second evaluation result based on different first evaluation criteria and second evaluation criteria, respectively.
  • a goal is, for example, a therapeutic goal.
  • Clinical remission is a state in which the patient's symptoms such as diarrhea and abdominal pain are mild or absent.
  • clinical remission with the prescription of therapeutic agents has been the goal of treatment for ulcerative colitis.
  • endoscopic examinations of relapsed patients have occasionally revealed endoscopic non-remission (reddening of the mucous membrane, etc., which has not healed) in the gastrointestinal tract.
  • the first evaluation criterion which is the evaluation criterion for the degree of disease, is preferably the evaluation criterion for the degree of disease based on an image captured by an imaging device different from the endoscope. With this configuration, it is possible to obtain an evaluation result that is different from an evaluation result obtained only from an endoscopic image.
  • the image captured by an imaging device different from the endoscope is preferably a pathological image of biopsy tissue collected from the subject.
  • a pathological image is an image captured after a biopsy tissue, such as a pathological tissue specimen that has been subjected to various staining such as hematoxylin and eosin staining, is observed under a microscope and made ready for diagnosis. .
  • steroids At the stage where pathological remission is the goal of treatment, steroids, immunosuppressants, biological agents, etc. are used as therapeutic agents. These therapeutic agents are highly effective during the induction phase of remission to suppress the symptoms of ulcerative colitis. On the other hand, these therapeutic agents have a large systemic effect on the living body, and the risk of side effects increases when the amount used increases. In order to prevent excessive administration of therapeutic drugs with large side effects, it is necessary to switch the therapeutic drug to a therapeutic drug with relatively small side effects (5-aminosalicylic acid preparation) when a sufficient therapeutic effect is obtained. .
  • the above configuration distinguishes between pathological non-remission and pathological remission based on evaluation criteria based on pathological images, and outputs the evaluation results. allows users to know when to switch medications.
  • the evaluation result based on the evaluation criteria based on the pathological image can be output based only on the endoscopic image, there is no need to collect a biopsy, and the burden on the operator and the subject can be greatly reduced.
  • the first evaluation criteria may be criteria for evaluating the severity of the disease in two stages, or may be a multi-stage evaluation of three or more stages that divides the subclasses into remission or non-remission more finely.
  • the disease is ulcerative colitis.
  • the first evaluation criterion is two-stage, the degree of disease has two stages of remission or non-remission, and the first evaluation result is output as "remission” or "non-remission.” In this case, since the output of the first evaluation result is a relatively simple process, the determination can be made quickly without imposing a burden on the processor.
  • the first evaluation criteria are multiple stages of 3 stages or more, more detailed determination can be made than when there are two stages of remission or non-remission.
  • Geboes histopathology score (Table 2) as the first evaluation criterion.
  • GHS Geboes histopathology score
  • Table 2 Geboes histopathology score
  • Geboes 0-2A are in remission (pathological remission)
  • Geboes 2B-5 are non-remission (pathological non-remission).
  • the image determination unit 70 determines that the endoscopic image is "Geboes2B”
  • it may output "Geboes2B” or "non-remission” as the first evaluation result.
  • pathological image-based evaluation criteria for ulcerative colitis such as Riley score, Modified Riley score, or Roberts histopathology index may be used as the first evaluation criteria.
  • evaluation results can be output based on evaluation criteria used clinically.
  • the first evaluation criterion may be the morphology of superficial blood vessels and/or the degree of bleeding.
  • the first evaluation result for example, "surface blood vessel: honeycomb pattern”, “surface blood vessel: mild irregularity”, and “bleeding: mild” can be output.
  • the surface layer morphology classification is shown in Table 3, the pattern of the blood vessel structure seen in the endoscopic image obtained by irradiating the subject with illumination light with a central wavelength of 410 nm, and the degree of disease (GHS) based on the pathological image. This is the correspondence relationship discovered by the inventors.
  • ulcerative colitis as shown in FIGS. 6A to 6E, the vascular structure pattern changes, and there is a correspondence between the vascular structure pattern and the pathological state.
  • ulcerative colitis is in very mild remission and the mucosa is normal and superficial blood vessels cannot be seen, it is classified as "Form 1" in Table 1.
  • the pattern of superficial blood vessels is regular (Fig. 6(A); Table 3, "Morphology 2")
  • the regularity is only slightly disturbed (Fig. 6(B); Table 3 "Form 3”).
  • the ulcerative colitis is in non-remission and the severity is mild, the superficial blood vessels become dense, with a high-density superficial blood vessel region in which the superficial blood vessels are concentrated (Fig. 6 ( C), Table 3 "Form 4").
  • Intramucosal hemorrhage 81 occurs (Fig. 6(D), Table 3 "Form 5").
  • Extramucosal hemorrhage 82 occurs when the ulcerative colitis is non-remission and moderate to severe in severity (FIG. 6(E), Table 3 "Morph 6").
  • the “dense superficial blood vessel region” is a region in which superficial blood vessels are gathered in a meandering manner, and in appearance on the image, many superficial blood vessels surround intestinal crypts (see FIG. 7).
  • “Intramucosal hemorrhage” is bleeding within the mucosa (see Figure 7) and is different from bleeding in the gastrointestinal lumen (lumen).
  • “Extramucosal hemorrhage” means a small amount of blood into the lumen, blood visible in the lumen ahead of the endoscope distal end 12d after washing the lumen or in the lumen side of the mucosal epithelium , or intraluminal blood with oozing on the mucosa.
  • the first determiner 80 transmits the first frequency domain image or the second frequency domain image generated by the frequency domain image generator 110 shown in FIG. 8 (see also FIG. 2) to the first determiner 80. do.
  • the frequency domain image generator 110 includes a mask processor 112, a frequency component spatial distribution calculator 113, and a frequency domain extractor 114.
  • the first determiner 80 includes a blood vessel density calculator 115, a luminance A calculation unit 116 and a first evaluation result output unit 117 are provided.
  • the first evaluation result is output along the flow shown in FIG. 9A.
  • processing proceeds from top to bottom.
  • the mask processing unit 112 performs mask processing on the marginal portion with large distortion in the second illumination light image 111a, which is the endoscopic image, and generates a masked second illumination light image 112a by extracting only the central portion.
  • the frequency component space distribution calculator 113 calculates the frequency component space distribution and performs frequency processing for extracting the frequency domain.
  • the frequency component spatial distribution calculator 113 calculates the frequency component spatial distribution by applying a Laplacian filter to the masked second illumination light image 112a.
  • the frequency domain extraction unit 114 extracts a first frequency domain 114b (Fig. 9A, shaded area of the first frequency domain 114a) from the masked second illumination light image 112a to generate a first frequency domain image 114a. Specifically, a first frequency region (high frequency region) 114b having a first frequency (high frequency) is extracted by Hessian analysis on the frequency component spatial distribution.
  • the blood vessel density calculation unit 115 performs an averaging process on the first frequency domain image 114a to generate a density distribution image 115a in which the density distribution of superficial blood vessels is calculated.
  • FIG. 9A shows a region 115b with a high density distribution of superficial blood vessels, a region 115c with an intermediate density distribution of superficial blood vessels, and a region 115d with a low density distribution of superficial blood vessels.
  • the first evaluation result output unit 117 performs threshold processing using the density distribution threshold, and the density distribution of the superficial blood vessels is divided into the region 117a above the density distribution threshold and the region 117b below the density distribution threshold.
  • a region 117a in which the density distribution of superficial blood vessels is equal to or greater than the density distribution threshold corresponds to the "high-density superficial blood vessel region".
  • the frequency domain extraction unit 114 further extracts a second frequency domain 114d having a second frequency (low frequency) that is lower than the first frequency from the masked second illumination light image 112a (low frequency domain; The shaded portion of the two-frequency-domain image 114c) is extracted to generate the second frequency-domain image 114c.
  • the frequency statistic for example, maximum value, minimum value, or standard deviation
  • the specific pixel is set as a pixel belonging to the second frequency.
  • the brightness calculator 116 calculates the brightness of the second frequency domain image 114c and generates a second frequency brightness distribution image 116a.
  • FIG. 9A shows a region 116b with a low luminance value and a region 116c with a high luminance value.
  • the first evaluation result output unit 117 performs threshold processing using the first luminance threshold, and determines the area 117c whose luminance is equal to or less than the first luminance threshold and the area 117d whose luminance is greater than the first luminance threshold. Divide into A region 117c whose brightness is equal to or lower than the first brightness threshold corresponds to "extramucosal bleeding".
  • the frequency domain extraction unit 114 extracts a third frequency domain 114f (intermediate frequency domain; FIG. 9A, third frequency domain The shaded portion of the image 114e) is extracted to generate a third frequency domain image 114e. Specifically, from the masked second illumination light image 112a, a region excluding the first frequency region 114b and the second frequency region 114d is extracted as a third frequency region 114f, and a third frequency region image 114e is obtained. Generate. Next, the brightness calculation unit 116 calculates the brightness of the third frequency domain image 114e to generate a third frequency brightness distribution image 116d, and divides it into a high brightness value region 116e and a low brightness value region 116f.
  • the first evaluation result output unit 117 performs threshold processing using the second luminance threshold, and divides the area into an area 117e whose luminance is equal to or less than the second luminance threshold and an area 117f whose luminance is greater than the first luminance threshold. .
  • a region 117e whose brightness is equal to or lower than the second threshold for brightness corresponds to "bleeding in the mucous membrane".
  • the number of pixels of "bleeding” is calculated by adding the number of pixels of "bleeding”, and when the number of pixels of "bleeding" is equal to or greater than the threshold for bleeding, the second illumination light image 111a is "morphology 5" or “morphology 6 , and pathological non-remission is output as the first evaluation result.
  • the second illumination light image 111a corresponds to "form 4", and pathological non-remission is output as the first evaluation result.
  • the second illumination light image 111a is “morphology 1”. , “form 2” or “form 3”, and pathological remission is output as the first evaluation result.
  • the first determiner 80 as an image processing unit preferably outputs the first evaluation result using the first illumination light image.
  • the structure-enhanced image generated by the structure-enhanced image generator 120 from the first illumination light image is transmitted to the first determiner 80 .
  • the structure-enhanced image generation unit 120 extracts superficial blood vessels, intramucosal bleeding, extramucosal bleeding, and the like from the first illumination light image, which is a learning endoscopic image, using the pixel value difference of the bilateral filter ( A structure-enhanced image that is emphasized using the difference in frequency characteristics associated with the amplitude value) is generated. Specifically, like the texture image generation method disclosed in Japanese Unexamined Patent Application Publication No. 2012-135345, filter coefficient generation obtained from the absolute value of the difference between the target pixel extracted from the first illumination light image and the surrounding pixel region is performed.
  • a noise amount estimation model obtained by calculating the first filter coefficients based on the parameters for generating the first illumination light and the average value and the standard deviation of the pixel values of a predetermined region in the gray chart of the first illumination light image is used as the second filter coefficient generation parameters.
  • the first determiner 80 as an image processing unit outputs the first evaluation result using the surface layer morphology classification, so that the pathology can be determined from the first illumination light image and the second illumination light image without collecting a biopsy tissue.
  • Pathological assessment results can be obtained using image-based criteria. Further, since the surface layer morphology classification stored in advance in the first determiner 80 has a clear relationship between the endoscopic image and the pathological image, the interpretability of the evaluation result is high.
  • the first determiner 80 as a trained model preferably outputs the first evaluation result when the first illumination light image or the second illumination light image is input.
  • the first determiner 80 is trained with the first training data.
  • the associating unit 118 as the first learning data generating unit assigns surface morphology classification to the first illumination light image 118a or the second illumination light image 118b, which are endoscopic images for learning. It is preferable to generate the first learning data 118c as a data set of the image data obtained.
  • the first illumination light image 118a or the second illumination light image 118b as the learning endoscope image may be an endoscope image acquired in advance by an endoscope other than the endoscope system 10. It may be an endoscopic image acquired by an endoscope.
  • the associating unit 118 combines the second illumination light image from which the first frequency domain image, the second frequency domain image, and the third frequency domain image are generated, or the first illumination light image from which the structure-enhanced image is generated.
  • a surface layer morphology classification can be associated with an image and used as first learning data.
  • the association unit 118 may be provided in the processor device 14 or may be provided in a device other than the endoscope system 10 .
  • the first determiner 80 can be configured by generating the first learning data by adding the disease degree based on the pathological image to the learning endoscopic image using the surface layer morphology classification.
  • the second determiner 90 which is a trained model, preferably outputs the first evaluation result when the first illumination light image or the second illumination light image is input.
  • the second learning data used for learning of the second determiner 90 will be described.
  • the second learning data is preferably a data set of image data obtained by adding the first evaluation result obtained from the pathological image to the learning endoscopic image.
  • a second learning data generator that generates the second learning data may be provided in the processor device 14 or may be provided in a device other than the endoscope system 10 . It is preferable that the second determiner 90 performs learning using the second learning data, determines the endoscopic image, and outputs the first evaluation result.
  • the first evaluation result attached to the learning endoscopic image used for the second learning data is obtained from the pathological image obtained from the biopsy tissue taken at the same position as the learning endoscopic image was captured by the doctor.
  • This is the evaluation result diagnosed by Diagnosis of pathological images may be performed by an apparatus that diagnoses pathological images.
  • the learning endoscope image may be the first illumination light image or the second illumination light image.
  • pathological evaluation can be obtained from the endoscopic image without taking a biopsy, as in the case of using the first determiner 80.
  • the second training data set is generated based on the established pathology, the reliability of the data set is high.
  • the first evaluation results are output by artificial intelligence, multidimensional features including not only findings that humans can understand, such as the morphology of blood vessels, pixel values, and brightness of endoscopic images, but also other findings are included. Since the first evaluation result is output based on the evaluation result, high accuracy can be expected from the evaluation result.
  • the methods by which the image determination unit 70 outputs the first evaluation result based on the first evaluation criteria are the following (1) to (5).
  • the frequency domain image generator 110 generates a first frequency domain image, a second frequency domain image, and a third frequency domain image ("frequency domain image 110a" in FIG. 12) from the second illumination light image 60a. ”), inputs the first frequency domain image, the second frequency domain image, and the third frequency domain image to the first determiner 80 as an image processing unit, and outputs the first evaluation result 80a.
  • the structure-enhanced image generator 120 generates a structure-enhanced image 120a from the first illumination light image 60b, and inputs the structure-enhanced image 120a to the first determiner 80 as an image processing unit. , to output a first evaluation result 80a.
  • the second illumination light image 60a is input to the first determiner 80 as a learned model, and the first determiner 80 outputs a first evaluation result 80a.
  • the second illumination light image 60a is input to the second determiner 90, and the second determiner 90, which is a trained model, outputs the first evaluation result 90a.
  • the first illumination light image 60b is input to the second determiner 90, and the second determiner 90, which is a trained model, outputs the first evaluation result 90a.
  • the first evaluation result can be output based on the first evaluation criteria.
  • the second evaluation criteria are preferably evaluation criteria for the degree of disease based on endoscopic images.
  • the second evaluation criteria may be criteria for evaluating the severity of the disease in two stages, or may be a multi-stage evaluation of three or more stages in which the disease is further subclassed into remission or non-remission.
  • the disease is ulcerative colitis.
  • the second evaluation criterion is two-stage, the severity of the disease has two stages of remission or non-remission, and the second evaluation result is output as "remission" or "non-remission.” In this case, the output of the second evaluation result is a relatively simple process, so the determination can be made quickly without imposing a burden on the processor.
  • the second evaluation criteria are multiple stages of three or more stages, more detailed determination can be made than two stages of remission or non-remission.
  • Mayo endoscopic subscore (MES) (Table 4) is preferably used as the second evaluation criterion.
  • the output of the second evaluation result as the MES will be described as "Mayo0" when the MES is "0", for example.
  • Mayo 0-1 are in remission (endoscopic remission) and Mayo 2-3 are non-remission (endoscopic non-remission).
  • the image determination unit 70 determines that the endoscopic image is "Mayo2”
  • it may output "Mayo2" or "non-remission” as the second evaluation result.
  • evaluation criteria for ulcerative colitis such as UCEIS (Ulcerative colitis endoscopic index of severity) score may be used as the second evaluation criteria.
  • UCEIS User colitis endoscopic index of severity
  • the second evaluation criteria may be the degree of redness of the mucous membrane, the degree of see-through of deep blood vessels, and/or the degree of erosion or ulcer.
  • the second evaluation result for example, “redness: mild”, “vascular fluoroscopic image: normal”, and “hemorrhage: moderate” can be output.
  • the first evaluation criterion and the second evaluation criterion have a range of disease remission and a non-remission range, and the range of remission by the first evaluation criterion is the range of remission by the second evaluation criterion. Less than the range that would put the disease in remission. That is, the criteria for pathological remission are stricter than those for endoscopic remission.
  • the first non-remission boundary value that is the lowest value for non-remission of the disease is different from the second non-remission boundary value that is the lowest value for non-remission of the disease among the second evaluation criteria.
  • the first non-remission boundary value is preferably set to a range in which the disease is in remission according to the second evaluation criteria.
  • the lowest value for non-remission of ulcerative colitis in the first criterion is "Geboes 2B”.
  • the lowest value for non-remission of ulcerative colitis in the second evaluation criterion is "Mayo2”.
  • “Geboes 2B” falls within the range of "Mayo 1", which is generally regarded as endoscopic remission, when applied to the second criterion of MES.
  • the third learning data used for learning of the third determiner 100 which outputs the second evaluation result by inputting the endoscopic image, will be explained.
  • the third learning data is preferably a data set of image data obtained by attaching a second evaluation result obtained from an endoscopic image to a learning endoscopic image.
  • a third learning data generator that generates the third learning data may be provided in the processor device 14 or may be provided in a device other than the endoscope system 10 . It is preferable that the third determiner 100 performs learning using the third learning data, determines the endoscopic image, and outputs a second evaluation result.
  • the second evaluation result attached to the learning endoscopic image used for the third learning data is the evaluation result of the doctor diagnosing the learning endoscopic image.
  • the diagnosis of the learning endoscopic image may be performed by a system other than the third determiner 100 that diagnoses the endoscopic image.
  • the learning endoscope image may be the first illumination light image or the second illumination light image. That is, the third determiner 100 can output the second evaluation result based on the second evaluation criteria from both the first illumination light image and the second illumination light image. Since the second evaluation result is output by artificial intelligence, it is based on multidimensional features including not only findings that humans can understand, such as blood vessel morphology, pixel values and brightness, but also other findings in the endoscopic image. Since the second evaluation result is output, the evaluation result can be expected to be highly accurate.
  • the learning endoscope image is acquired at a position near the position where the first illumination light image was captured. It may be a second illumination light image.
  • the third learning data is preferably a data set of image data obtained by adding the second evaluation result to the first frequency domain image, the second frequency domain image, and the third frequency domain image.
  • the image determination unit 70 inputs an endoscopic image and outputs both the first evaluation result and the second evaluation result. By outputting both the first evaluation result and the second evaluation result, the endoscopic image can be evaluated from various aspects.
  • the methods by which the image determination unit 70 outputs the second evaluation result based on the second evaluation criteria are the following (1) to (3).
  • (1) As shown in FIG. 17, the first illumination light image 60b is input to the third determiner 100, and the third determiner 100 outputs the second evaluation result 101.
  • FIG. (2) As shown in FIG. 18, the second illumination light image 60a is input to the third determiner 100, and the third determiner 100 outputs the second evaluation result 101.
  • FIG. (3) As shown in FIG. 19, the frequency domain image generator 110 converts the second illumination light image 60a into a first frequency domain image, a second frequency domain image, and a third frequency domain image ("frequency domain image 110a" in FIG. 12). ), and inputs the first, second, and third frequency-domain images to the third determiner 100 , and the third determiner 100 outputs the second evaluation result 101 .
  • the first evaluation result and/or the second evaluation result output by the image determination unit 70 are transmitted to the display control unit 130.
  • the display control unit 130 displays a display image 131 that displays an endoscopic image 132 currently being observed and an evaluation result display field 133 that indicates the first evaluation result and/or the second evaluation result. is preferably generated and displayed on the display 15 .
  • the image determination unit 70 outputs at least one of the first evaluation result and the second evaluation result for one frame of endoscopic image. Thereafter, the first evaluation result output for one frame of endoscopic image is the first frame evaluation result, and the second evaluation result output for one frame of endoscopic image is the second frame evaluation result. call.
  • the evaluation result of the first frame or the evaluation result of the second frame is used as a unit score, and the unit score is used as a total score for comprehensive evaluation. It is preferable to output the result.
  • the comprehensive evaluation result is output by the comprehensive evaluation result calculation unit 71 .
  • the first determiner 80, the second determiner 90, or the third determiner 100 of the image determination unit 70 outputs the first frame evaluation result or the second frame evaluation result, which is a unit score, and outputs the result to the comprehensive evaluation result calculation unit 71.
  • Send see Figure 2.
  • the comprehensive evaluation result calculation unit 71 has a multi-frame evaluation result calculation unit 72 shown in FIG. 21 and a multi-region evaluation result calculation unit 73, which will be described later.
  • the multiple-frame evaluation result calculation unit 72 uses the first-frame evaluation result or the second-frame evaluation result as a unit score, and outputs the first multiple-frame evaluation result or the second multiple-frame evaluation result as a total score based on the unit score.
  • the multiple-frame evaluation result calculation unit 72 calculates a first multiple-frame evaluation result calculated using a first evaluation result related to at least two frames of endoscopic images, and a first multiple-frame evaluation result related to at least two frames or more of endoscopic images. It is preferable to output at least one of the second multi-frame evaluation results calculated using the two evaluation results.
  • the first multi-frame evaluation result and/or the second multi-frame evaluation result are sent to the display control unit 130 .
  • the percentage indicating the ratio of pathological remission and the ratio of pathological non-remission Outputs a percentage indicating .
  • one of the pathological states with a high ratio of pathological remission and pathological non-remission may be output, and the pathological state in which the ratio of pathological remission and pathological non-remission is equal to or greater than a certain value may be output. good too.
  • the percentage indicating the ratio of Geboes0, the percentage indicating the ratio of Geboes1, the percentage indicating the ratio of Geboes2A, the percentage indicating the ratio of Geboes2B, the ratio of Geboes3 , the percentage of Geboes4, and the percentage of Geboes5 are output.
  • the GHS with the highest proportion among Geboes0 to Geboes5 may be output, or the GHS with a proportion equal to or greater than a certain value among Geboes0 to Geboes5 may be output.
  • the percentage indicating the percentage of endoscopic remission and the percentage indicating the percentage of endoscopic non-remission When outputting the second multiple-frame evaluation results in two stages of remission or non-remission, output the percentage indicating the percentage of endoscopic remission and the percentage indicating the percentage of endoscopic non-remission.
  • one of the endoscopic states with a high ratio of endoscopic remission and endoscopic non-remission may be output, and the ratio of endoscopic remission and endoscopic non-remission is a constant value.
  • the above endoscopic states may be output.
  • the percentage indicating the ratio of Mayo 0 the percentage indicating the ratio of Mayo 1
  • the percentage indicating the ratio of Mayo 2 When outputting the first multi-frame part evaluation result in multiple stages like MES, the percentage indicating the ratio of Mayo 0, the percentage indicating the ratio of Mayo 1, the percentage indicating the ratio of Mayo 2, and the ratio of Mayo 3 are indicated. Print percentages.
  • the MES with the highest ratio among Mayo0 to Mayo3
  • the multi-frame evaluation result is any section in the body or a plurality of endoscopic images obtained using the first frame evaluation result or the second frame evaluation result of at least two frames of endoscopic images. is preferably output in a temporal period of .
  • the multi-frame part evaluation result calculator 72 has a multi-frame part evaluation result calculator 140 .
  • the multi-frame part evaluation result calculation unit 140 uses the first frame part evaluation result or the second frame part evaluation result as a unit score, and calculates the first multi-frame part evaluation result or the second multi-frame part evaluation result as a total score based on the unit score. Output.
  • a multi-frame part evaluation result calculation unit 140 calculates a first multi-frame part evaluation result calculated using a first frame evaluation result related to at least two frames of endoscopic images, and at least two frames of endoscopic images. It is preferable to output at least one of the second multi-frame part evaluation results calculated using the second frame evaluation results.
  • the first multi-frame part evaluation result and/or the second multi-frame part evaluation result are transmitted to the display control unit 130 and displayed on the display image 131 as shown in FIGS. 22 to 25.
  • the first multi-frame site evaluation result and/or the second multi-frame site evaluation result may be obtained from an anatomical site of the gastrointestinal tract (esophagus, stomach, duodenum, jejunum, ileum, cecum, ascending colon, transverse colon, descending colon, sigmoid colon). It is preferable to output for each colon, rectum, etc.). It may be a majority decision on the number of remission and non-remission frames in the first frame evaluation results in the anatomical region, or a majority decision on the remission and non-remission frames in the second frame evaluation results.
  • the multi-frame site evaluation results are calculated based on the ratio of the number of frames for "remission” to A%, "non-remission” to B%, Based on the ratio of the number of frames of remission and non-remission in the second frame evaluation results, C% for "remission” and D% for "non-remission” may be output.
  • the multi-frame site evaluation results are based on the ratio of each GHS to the first frame evaluation results obtained for each anatomical site, such as "Geboes0" is E%, “Geboes1" is F%, and so on.
  • the percentage may be obtained and output in the multi-level evaluation.
  • the multi-frame site evaluation results may be statistics such as averages, maximum values, and minimum values. It is preferable that the multi-frame site evaluation result is output in an arbitrary section such as dividing the descending colon into three sections, such as proximal, middle, and distal sections. Moreover, it is preferable that the multi-frame part evaluation result is output at an arbitrary timing. For example, the user inputs the timing at which imaging of the descending colon is started and the timing at which imaging is finished, and at the end timing, the evaluation results obtained from the start to the end of imaging are used to output the multi-frame site evaluation results. good too.
  • the first multi-frame part evaluation result and the second multi-frame part evaluation result are output, as shown in FIG. 151 is displayed.
  • the first multiple-frame site evaluation result of "remission” is A%
  • the result of evaluation of one multiple-frame site is B%
  • the result of second multiple-frame site evaluation of "remission” is indicated by C%
  • the result of second multiple-frame site evaluation of "non-remission” is indicated by D%. Evaluation results and corresponding bar charts are displayed.
  • a schematic diagram 152 may be shown, and the part currently being observed may be highlighted with a frame 153 .
  • the contents of the multi-frame part evaluation result display column 151 are the same as the specific example shown in FIG.
  • a three-dimensional structural diagram 154 of the large intestine is shown, and the first multi-frame site evaluation result or the second multi-frame site evaluation result reflects a "remission" site 156 and a "non-remission” site 157, respectively.
  • the contents of the multi-frame part evaluation result display column 151 are the same as the specific example shown in FIG.
  • the three-dimensional structure drawing 154 may be stored in advance, or may be generated from an endoscopic image using a method such as Structure from Motion.
  • a simplified schematic diagram 158 is shown in which the position of the large intestine is represented by bars.
  • the parts 157 may be reflected and displayed.
  • the contents of the multi-frame part evaluation result display column 151 are the same as the specific example shown in FIG. R indicates rectum, SC sigmoid colon, DC descending colon, TC transverse colon, AC ascending colon, C cecum.
  • the evaluation result can be visually recognized by showing the evaluation result that evaluates a relatively wide range as in the above configuration. can improve sexuality.
  • the medical image acquisition unit 60 transmits the endoscopic image to the image dividing unit 160 (see FIG. 2), and the image dividing unit 160 divides the endoscopic image into a plurality of regions, and divides the endoscopic image into a plurality of regions.
  • the resulting endoscopic image is input to the image determination section 70, and the image determination section 70 outputs at least one of the first evaluation result and the second evaluation result.
  • the first evaluation result output for one area will be referred to as the first area evaluation result
  • the second evaluation result output for one area will be referred to as the second area evaluation result.
  • the image dividing unit 160 divides the endoscopic image into at least two or more regions.
  • the endoscopic image 60c is divided into a plurality of grid-like regions as shown in FIG.
  • an endoscopic image 60c is divided into a plurality of 16 areas from area A to area P.
  • the shape of division is not limited to a lattice shape, and may be any shape that can subdivide an endoscopic image, such as a polygonal shape such as a hexagon, or a curved shape.
  • the plurality of regions may be cut out in random shapes having different shapes and sizes depending on the location.
  • the image determination unit 70 outputs first evaluation results and/or second evaluation results for a plurality of regions, as shown in FIG.
  • the first evaluation result of areas A to F, H, and L to P is output as "remission”
  • the first evaluation result of areas G and I to K is "non-remission.” output.
  • the image determination unit 70 preferably determines the quality of the image itself for each of the plurality of regions before evaluating the lesion, and then outputs at least one of the first evaluation result and the second evaluation result.
  • the medical image acquisition unit 60 transmits the endoscopic image to the image dividing unit 160, and the image dividing unit 160 divides the endoscopic image into a plurality of regions.
  • the endoscopic image divided into a plurality of regions is input to the region evaluation section 170, and the region evaluation section 170 outputs region evaluation indices for the plurality of divided regions.
  • the area evaluation index is an evaluation value for the quality of the segmented endoscopic image itself. That is, the higher the area evaluation index, the higher the quality of the original endoscopic image, and the higher the reliability of the first evaluation result and the second evaluation result.
  • An endoscopic image in which a region evaluation index is assigned to a plurality of divided regions is input to the image determination unit 70, and the image determination unit 70 determines at least one of the first evaluation result and the second evaluation result for each divided region. to output
  • the image dividing unit 160 divides the image into a size that allows determination of the lesion area or the evaluation inhibition target that is not the lesion area.
  • An evaluation obstruction target refers to a structure or artifact that is unsuitable for outputting the first evaluation result or the second evaluation result and causes a decrease in the accuracy of determination.
  • it includes a specific pool 161 such as a pool of water, a pool of blood, or a pool of excess medical fluid covering the observation target as shown in FIG. 28, and bubbles 162 as shown in FIG.
  • a specific pool 161 such as a pool of water, a pool of blood, or a pool of excess medical fluid covering the observation target as shown in FIG. 28, and bubbles 162 as shown in FIG.
  • the evaluation inhibited objects include, as shown in FIG. A cap rim 165a or, as shown in FIG. 32, a cap rim 165a and a cap outer side 165b are also included.
  • the area evaluation unit 170 calculates a high area evaluation index. On the other hand, if the area includes an evaluation inhibition target, the area evaluation unit 170 calculates a low area evaluation index.
  • area evaluation indices are assigned to areas A to P, respectively.
  • area B area evaluation index 0.9
  • area E area evaluation index 0.8
  • area F area evaluation index 0.95
  • area G area evaluation index 0.95
  • area H area evaluation index 0.8
  • area I area evaluation index 0.8
  • area J area evaluation index 0.95
  • area K area evaluation index 0.95
  • area L area evaluation index 0.8
  • area N area evaluation index 0.9
  • area O area evaluation index 0.9
  • regions A, D, M, and P are at the edges of the field of view of the endoscope, and therefore distortion occurs. Therefore, this is an area in which the output accuracy of the first evaluation result or the second evaluation result is low. Therefore, the areas A, C, D, M, and P that contain evaluation inhibition targets are divided into areas B, E, F, G, H, I, and J that do not contain evaluation inhibition targets. , area K, area L, area N, and area O are outputted.
  • the region evaluation unit 170 may generate an extracted image by extracting only regions equal to or larger than the threshold for region evaluation out of the endoscopic image divided into a plurality of regions, and input the extracted image to the image determination unit 70. . With the above configuration, it is possible to preliminarily exclude regions with low quality and output the first evaluation result and/or the second evaluation result only to regions where a certain quality is ensured.
  • an area whose area evaluation index is less than the area evaluation threshold may be highlighted with a frame 166 to call attention to it.
  • the image determination unit 70 outputs at least one of the first evaluation result and the second evaluation result for the divided regions of the endoscopic image of one frame, and further obtains the comprehensive evaluation result for the divided regions. Therefore, it is possible to use the first area evaluation result or the second area evaluation result output for the divided area as a unit score, and output the multi-area evaluation result as a total score based on the unit score. preferable.
  • the multi-region evaluation result is output by the multi-region evaluation result calculation unit 73 of the comprehensive evaluation result calculation unit 71 shown in FIG.
  • the first determiner 80, the second determiner 90, or the third determiner 100 of the image determination unit 70 outputs the first region evaluation result or the second region evaluation result, which is a unit score, and the comprehensive evaluation result calculation unit 71 It is transmitted to the multi-region evaluation result calculation unit 73 (see FIG. 2).
  • a multi-region evaluation result calculation unit 73 calculates a first multi-region evaluation result calculated using a first region evaluation result for at least two or more divided regions, and a second multi-region evaluation result for at least two or more divided regions. It is preferable to output at least one of the second multi-region evaluation results calculated using the evaluation results.
  • the first multi-region evaluation result and/or the second multi-region evaluation result are sent to the display control unit 130 .
  • the percentage indicating the ratio of pathological remission and the ratio of pathological non-remission Outputs a percentage indicating .
  • one of the pathological states with a high ratio of pathological remission and pathological non-remission may be output, and the pathological state in which the ratio of pathological remission and pathological non-remission is equal to or greater than a certain value may be output. good too.
  • the percentage indicating the ratio of Geboes0, the percentage indicating the ratio of Geboes1, the percentage indicating the ratio of Geboes2A, the percentage indicating the ratio of Geboes2B, the ratio of Geboes3 , the percentage of Geboes4, and the percentage of Geboes5 are output.
  • the GHS with the highest proportion among Geboes0 to Geboes5 may be output, or the GHS with a proportion equal to or greater than a certain value among Geboes0 to Geboes5 may be output.
  • the percentage indicating the percentage of endoscopic remission and the percentage indicating the percentage of endoscopic non-remission When outputting the second multiple area evaluation results in two stages of remission or non-remission, output the percentage indicating the percentage of endoscopic remission and the percentage indicating the percentage of endoscopic non-remission.
  • one of the endoscopic states with a high ratio of endoscopic remission and endoscopic non-remission may be output, and the ratio of endoscopic remission and endoscopic non-remission is a constant value.
  • the above endoscopic states may be output.
  • the percentage indicating the ratio of Mayo 0 the percentage indicating the ratio of Mayo 1
  • the percentage indicating the ratio of Mayo 2 When outputting the second multi-frame part evaluation result in multiple stages like MES, the percentage indicating the ratio of Mayo 0, the percentage indicating the ratio of Mayo 1, the percentage indicating the ratio of Mayo 2, and the ratio of Mayo 3 are indicated. Print percentages.
  • the MES with the highest ratio among Mayo0 to Mayo3 may
  • the multi-region evaluation result is an arbitrary temporal section in which a plurality of endoscopic images are acquired using the first region evaluation result or the second region evaluation result related to at least two or more regions. It is preferable to output in a middle region including a period, an arbitrary number of regions within one frame of endoscopic image, and an arbitrary region within one frame of endoscopic image.
  • the multi-region evaluation result calculator 73 has a multi-region frame evaluation result calculator 180 .
  • the multi-region frame evaluation result calculation unit 180 uses the first region evaluation result or the second region evaluation result as a unit score, and calculates the first region evaluation result as a total score for each endoscopic image of one frame based on the unit score. and at least one of a first multi-region frame evaluation result calculated using and a second multi-region frame evaluation result calculated using the second region evaluation result.
  • the first multi-region frame evaluation result and/or the second multi-region frame evaluation result are preferably output for each frame of endoscopic image.
  • a majority decision on the number of remission and non-remission regions in the first region evaluation results in one frame of endoscopic image, or a majority decision on the number of remission and non-remission regions in the second region evaluation results may be used.
  • the multi-region frame evaluation results are based on the ratio of “remission” to A% and “non-remission” to 1%.
  • B % based on the ratio of the number of remission and non-remission regions in the second region evaluation results obtained for each frame of endoscopic image, output as C% for “remission” and D% for “non-remission” may be
  • the multi-region frame evaluation result is based on the ratio of each GHS to the first region evaluation result obtained for each endoscopic image of one frame, and "Geboes0" is E%, and "Geboes1" is F%. Percentages may be obtained and output in multi-level evaluation, as in the following.
  • the multi-region frame evaluation results may be statistics such as average, maximum and minimum values.
  • the first multi-region frame evaluation result and/or the second multi-region frame evaluation result are transmitted to the display control unit 130 and displayed on the display image 131 .
  • an endoscopic image 150 currently being observed and a multi-region frame evaluation result display column 181 are displayed on the display image 131.
  • FIG. Grid lines 182 may be displayed on the currently observed endoscopic image 150 to indicate how the regions are divided.
  • the multi-region frame evaluation result display column 181 displays the first multi-region evaluation result of “remission” of A % and the first multi-region evaluation result of “non-remission” for the endoscopic image 150 currently being observed.
  • the multi-domain evaluation result is B%
  • the second multi-domain evaluation result of "remission” is C%
  • the second multi-domain evaluation result of "non-remission” is D%
  • the multi-domain evaluation result corresponds to the vicinity thereof.
  • a bar graph is displayed.
  • the image determination unit 70 uses the first region evaluation result or the second region evaluation result as a unit score, and based on the unit score, determines the anatomical It is preferable to output a multi-region part evaluation result as a total score for each target part.
  • the multi-part area evaluation result calculation unit 190 shown in FIG. 21 calculates a first multi-part area part evaluation result calculated using the first area evaluation result, and a second It is preferable to output at least one of the multi-region part evaluation results.
  • the first multi-region site evaluation result and/or the second multi-region site evaluation result are preferably output for each anatomical site of the gastrointestinal tract. It may be a majority decision of the number of remission and non-remission regions in the first region evaluation results at the anatomical site, or a majority decision of the remission and non-remission region numbers in the second region evaluation results at the anatomical site.
  • the multi-region evaluation results were calculated as follows: “remission” was A%, “non-remission” was B%, “Remission” may be output as C% and “Non-remission” as D% based on the ratio of the number of regions in remission and non-remission in the second region evaluation results obtained for each medical site.
  • the multiple region site evaluation result is based on the ratio of each GHS to the first region evaluation result obtained for each anatomical site, such as "Geboes0" is E%, “Geboes1" is F%, and so on.
  • the percentage may be obtained and output in the multi-level evaluation.
  • the multi-region site evaluation result may be a statistic such as an average, maximum value, and minimum value.
  • it is preferable that the multi-region part evaluation result is output at an arbitrary timing. For example, the user inputs the timing at which imaging of the descending colon is started and the timing at which imaging is finished, and at the end timing, the evaluation results obtained from the start to the end of imaging are used to output the evaluation results of multiple regions. good too.
  • the first multi-region part evaluation result and/or the second multi-region part evaluation result are transmitted to the display control unit 130 and displayed on the display image 131 .
  • an endoscopic image 150 currently being observed and a multi-region part evaluation result display column 191 are displayed on the display image 131.
  • the site evaluation result is indicated as C%
  • the second multiple-region site evaluation result of "non-remission” is indicated as D%
  • a bar graph corresponding to the multiple-region site evaluation result is displayed in the vicinity thereof.
  • FIG. 37 shows a schematic diagram 152 in which the currently observed part is highlighted with a frame 153 and the multi-region/part evaluation result for that part is displayed in the multi-region/part evaluation result display column 191 .
  • FIG. 38 a three-dimensional structural diagram 154 of the large intestine is displayed, and the first multi-region site evaluation result or the second multi-region site evaluation result reflects the "remission" site 156 and the "non-remission" site 157, respectively. is displayed.
  • the multiple-area-part display column 191 may display the multiple-area-part evaluation result for an arbitrary part or all parts photographed so far.
  • FIG. 39 shows a simplified schematic diagram 158 in which the positions of the large intestine are represented by bars, and the “remission” site 156 and the “non-remission” site 157 of the first multi-region site evaluation result or the second multiple-region site evaluation result are shown. Each is reflected and displayed.
  • the multi-region part evaluation result display column 191 the multi-region part evaluation results for any part or all parts photographed so far may be displayed.
  • the multi-region frame evaluation result and the multi-region part evaluation result may be output and displayed on the display image.
  • FIG. The display image 131 displays an endoscopic image 150 currently being observed, a multi-region frame evaluation result display column 181, and a multi-region site evaluation result display column 191.
  • the multi-region frame evaluation result is indicated by B%
  • the second multi-region frame evaluation result of “remission” is indicated by C%
  • the second multi-region frame evaluation result of “non-remission” is indicated by D%.
  • a corresponding bar graph is displayed.
  • the first multiple-region site evaluation result of “remission” and the first multiple-region site evaluation result of “non-remission” in the currently observed site (descending colon) are displayed.
  • F% the second multiple-region site evaluation result of “remission”
  • the second multiple-region site evaluation result of “non-remission” is H%
  • a bar graph corresponding to the multiple-region site evaluation result is shown in the vicinity. is displayed.
  • FIG. 40 the part (descending colon) currently being observed is displayed, and the multi-region part evaluation results for that part are displayed in the multi-region part evaluation result display column 191 .
  • FIG. 41 shows a schematic diagram 152 in which the currently observed part is highlighted with a frame 153 and the multi-region/part evaluation result for that part is displayed in the multi-region/part evaluation result display column 191 .
  • FIG. 42 a three-dimensional structural diagram 154 of the large intestine is displayed, and the first multi-region site evaluation result or the second multi-region site evaluation result reflects the "remission" site 156 and the "non-remission" site 157, respectively. I am displaying.
  • FIG. 43 shows a simplified schematic diagram 158 in which the positions of the large intestine are represented by bars, and the “remission” site 156 and the “non-remission” site 157 of the first multiple-region site evaluation result or the second multiple-region site evaluation result are shown. Each is reflected and displayed.
  • the multi-region part evaluation result display column 191 the multi-region part evaluation results for any part or all parts photographed so far may be displayed.
  • the notification control unit 200 (see FIG. 2) preferably performs notification in accordance with the first evaluation result and the second evaluation result output by the image determination unit 70.
  • the notification is preferably performed by displaying a warning on the display image 131 when a specific condition to be described later is satisfied.
  • the warning display is preferably performed by providing a warning display frame 201 on the endoscopic image 150 currently being observed.
  • the display form of the warning display is not limited to this, and may be a warning mark or a warning message.
  • the notification is not limited to the warning display, and may be performed by sound or light.
  • the first region comprehensive notification condition means that when the first multiple region frame evaluation result expresses (a) non-remission or Geboes 2B or more and (b) non-remission or Geboes 2B or more in percentage, the percentage is More than the threshold for general notification of the first area, or (c) non-remission or more than Geboes 2B by majority vote.
  • the first area comprehensive notification condition is not limited to this, and may be set arbitrarily.
  • the second region comprehensive notification condition means that when the second multiple region frame evaluation result expresses (a) remission or Mayo 1 or less, and (b) remission or Mayo 1 or less region as a percentage, the percentage is the second It indicates that there are many remissions or Mayo 1 or less by majority votes, or (c) more than the threshold for general area notification.
  • the second area comprehensive notification condition is not limited to this, and may be set arbitrarily.
  • the warning display frame 201 surrounds the entire endoscopic image 150 currently being observed to give the notification.
  • one area (warning display frame 201) is surrounded by a warning display frame 201 to notify.
  • a schema 152 may be displayed on the display image 131 in order to inform the user of the current observation position.
  • the medical image acquisition unit 60 acquires an endoscopic image (S101).
  • the image determination unit 70 outputs at least one of the first evaluation result and the second evaluation result (referred to as "evaluation result” in FIG. 46) (S102).
  • the comprehensive evaluation result calculation unit 71 calculates the first multi-frame part evaluation result and/or the second multi-frame part evaluation result, the first multi-region frame evaluation result and/or the second multi-region frame evaluation result, and/or , the first multi-region part evaluation result and/or the second multi-region part evaluation result (referred to as "comprehensive evaluation result" in FIG. 46) is output (S103).
  • the display control unit 130 generates a display image 131 (S104), and if a specific condition is satisfied (S105), the notification control unit transmits an instruction to the display control unit 130 to perform notification. (S106), the display image 131 is displayed on the display 15 (S107).
  • At least one of the first evaluation result and the second evaluation result can be output from one type of endoscopic image.
  • the type of evaluation result to be output can be selected according to the user's purpose.
  • both the first evaluation result and the second evaluation result can be output from a plurality of types of endoscopic images.
  • the endoscopic images obtained by the examination can be evaluated from various aspects. Therefore, it is possible to prevent overlooking of "hidden non-remission" in one of the evaluation criteria.
  • the first evaluation result and the second evaluation result are unit scores, and the overall evaluation result as a total score obtained by integrating the unit scores.
  • the frame evaluation result is output as the unit score
  • the multi-frame evaluation result which is the overall evaluation result in an arbitrary section or period
  • the total score can be output as the total score.
  • the multiple-frame evaluation result (3) multiple-frame evaluation result, which is a comprehensive evaluation result for each anatomical region, in which a specific interval is set can be output.
  • the region evaluation result is output as a unit score, and (5) a comprehensive evaluation in an arbitrary section, period, or middle region is output as a total score. It is possible to output the multi-region evaluation result, which is the result.
  • the multi-region evaluation results include (6) a multi-region frame evaluation result that is a comprehensive evaluation result for each frame, and (7) a multi-region frame part evaluation result that is a comprehensive evaluation result for each anatomical region. can be output.
  • the comprehensive evaluation result it is possible to obtain the evaluation result of a range having a certain degree of spread within the body.
  • ulcerative colitis which is a disease in which the lesion spreads in a plane rather than in a spot-like manner, it is possible to recognize the extent of the disease three-dimensionally and facilitate follow-up by presenting evaluation results over a wide range.
  • the first illumination light mode and the second illumination light mode in the first embodiment are changed to a mono light emission mode, and in addition to the mono light emission mode, a multi light emission mode in which the illumination light is automatically switched is provided. is.
  • the mono light emission mode and the multi light emission mode are switched via the central control unit 50 by operating the mode switch 12f.
  • the mono light emission mode is a mode in which illumination light of the same spectrum (first illumination light or second illumination light) is continuously emitted.
  • the multi-emission mode is a mode in which a plurality of illumination lights (first illumination light and second illumination light) with different spectra are emitted while being switched according to a specific pattern to illuminate the subject.
  • it is preferable that the first illumination light and the second illumination light can be switched in the mono light emission mode.
  • control is performed to change the light amounts of violet light V, blue light B, green light G, and red light R for each frame F according to a specific light emission pattern.
  • emission patterns are given below.
  • the first illumination light L1 for two frames is emitted during the first illumination period Pe1 in which the subject is illuminated with the first illumination light L1, and the second illumination light L2 is emitted.
  • the pattern of sequentially emitting the second illumination light for one frame is repeated in the second illumination period Pe2 in which the subject is illuminated by the .
  • the first illumination light L1 is emitted for one frame F during the first illumination period Pe1
  • the second illumination light L2 is emitted for four frames during the second illumination period Pe2. repeat.
  • the second illumination first spectral light L2SP, the second illumination second spectral light L2SQ, the second illumination third spectral light L2SR, and the second illumination fourth spectrum which have different emission spectra It is automatically switched so that the light L2SS is emitted every frame F.
  • the light emission pattern is not limited to this, and can be set arbitrarily.
  • the light source processor 21 adjusts the light intensity of each light source in accordance with the set light emission pattern for photographing. Note that specific examples of the first illumination light and the second illumination light are the same as those in the first embodiment, and therefore description thereof is omitted. It is preferable that the second illumination light is at least one kind.
  • the first illumination light image which users such as doctors are accustomed to seeing
  • the second illumination light image which is unfamiliar to the user but suitable for analyzing a specific structure such as a blood vessel, is used for image analysis and determination of notification conditions, and is displayed when necessary without being displayed normally. is preferred.
  • the display image 231 is provided with a main section 210 and sub-sections 211.
  • the main section 210 contains the first illumination light image 212 currently being observed, the sub-sections the second illumination light image 213, It is preferable to display the schema 252, the character information 215 indicating the first evaluation result and the second evaluation result, and the like.
  • the medical image acquisition unit 60 acquires the first illumination light image and the second illumination light image.
  • the medical image acquisition unit 60 inputs the first illumination light image and the second illumination light image to the image determination unit 70 .
  • the second illumination light image is input to the first determiner 80 or the second determiner 90
  • the first evaluation result based on the first evaluation criteria is output
  • the first illumination light image is output to the third determiner 100. It is preferable to input and output a second evaluation result based on a second evaluation criterion. Description of the first determiner 80, the second determiner 90, and the third determiner 100 is omitted because they are common to the first embodiment.
  • the medical image acquisition unit 60 inputs the first illumination light image and the second illumination light image to the image dividing unit 160 and divides each into a plurality of regions.
  • Each area obtained by dividing the first illumination light image into a plurality of areas is called a first illumination division
  • each area obtained by dividing the second illumination light image into a plurality of areas is called a second illumination division.
  • the second illumination light image as the second illumination division input to the image determination unit 70 is input to the first determiner 80 or the second determiner 90 as the image processing unit or the trained model, and is used as the first evaluation criterion.
  • a first evaluation result based on is output.
  • the first illumination light image as the first illumination division input to the image determination section 70 is input to the third determiner 100 and the second evaluation result based on the second evaluation criteria is output.
  • the first illumination light image as the first illumination split and the second illumination light image as the second illumination split are input to the area evaluation unit 170, and the area evaluation is performed for each of the first illumination split and the second illumination split. It is preferable to input to the image determination section 70 after attaching an index.
  • the second illumination light image is input to the image determination unit 70 to output the first evaluation result
  • the first illumination light image is input to the image determination unit 70 to output the second evaluation result.
  • the first evaluation result and the second evaluation result are output, and the display image 131 on which the first evaluation result and the second evaluation result are displayed is preferably generated.
  • the first evaluation result output using the second illumination light image of one frame or the second illumination light image as the second illumination division is transmitted to the comprehensive evaluation result calculation unit 71, and the first multi-frame evaluation result, Preferably, a first multi-frame part evaluation result, a first multi-region evaluation result, a first multi-region frame evaluation result, and/or a first multi-region part evaluation result are output.
  • the second evaluation result output using the first illumination light image of one frame or the first illumination light image as the first illumination division is transmitted to the comprehensive evaluation result calculation unit 71, and is used for the second multi-frame evaluation.
  • the result, the second multi-frame part evaluation result, the second multi-region evaluation result, the second multi-region frame evaluation result, and/or the second multi-region part evaluation result are output.
  • the output of multi-frame evaluation results, multi-frame part evaluation results, multi-region evaluation results, multi-region frame evaluation results, and multi-region part evaluation results is common to that of the first embodiment, so description thereof will be omitted.
  • FIG. The main section 210 of the display image 231 displays the first illumination light image 212 currently being observed.
  • a currently observed second illumination light image 213, a multi-region frame evaluation result display column 281, and a multi-region part evaluation result display column 291 are displayed.
  • the multi-region frame evaluation result display column 281 displays the second multi-region frame evaluation result of “remission” for the first illumination light image 212 currently being observed,
  • the second multi-region frame evaluation result of “remission” is displayed as X%
  • the first multi-region frame evaluation result of “remission” for the currently observed second illumination light image 213 is displayed as Y%
  • the second multi-region frame evaluation result of “non-remission” is displayed as Y%.
  • One multi-region frame evaluation result Z% is indicated, and a bar graph corresponding to the multi-region frame evaluation result is displayed near it.
  • the second multiple-region site evaluation result of “remission” and the second multiple-region site evaluation result of “non-remission” in the currently observed site (descending colon) are displayed.
  • Q% the first multiple-region site evaluation result of “remission” is R%
  • the first multiple-region site evaluation result of “non-remission” is S%
  • the multiple-region site evaluation result display column is shown in the vicinity of it. A bar graph is displayed.
  • FIG. 50 the part (descending colon) currently being observed is displayed, and the multi-region part evaluation result for that part is displayed in the multi-region part evaluation result display column 291 .
  • FIG. 51 shows a schematic diagram 252 in which the currently observed part is highlighted with a frame 253 and the multi-region/part evaluation result for that part is displayed in the multi-region/part evaluation result display column 291 .
  • FIG. 52 a three-dimensional structural diagram 254 of the large intestine is displayed, and the “remission” site 256 and the “non-remission” site 257 of the first multiple-region site evaluation result or the second multiple-region site evaluation result are reflected. is displayed.
  • the multi-region/part evaluation result display column 291 may display the multi-region/part evaluation results for an arbitrary part or all parts photographed so far.
  • FIG. 53 shows a simple schematic diagram 258 representing the position of the large intestine in a bar shape, and shows the “remission” site 256 and the “non-remission” site 257 of the first multiple-region site evaluation result or the second multiple-region site evaluation result. Each is reflected and displayed.
  • the multi-region/part evaluation result display column 291 may display the multi-region/part evaluation results for an arbitrary part or all parts photographed so far.
  • the multi-region frame evaluation result display column 281 and the multi-region part evaluation result display column 291 may not be displayed.
  • 54 to 57 show the currently observed first illumination light image 212 and the currently observed second illumination light image 213.
  • the currently observed site is displayed, and in FIG. A schema 252 highlighting a site with a frame 253 reflects a site 256 of "remission” and a site 257 of "non-remission" of the first multi-region site evaluation result or the second multiple-region site evaluation result in FIG.
  • the three-dimensional structure diagram 254 of the large intestine that was made reflects the "remission" site 256 and the "non-remission" site 257 of the first multiple-region site evaluation result or the second multiple-region site evaluation result in FIG.
  • a simple schematic diagram 258 representing the position of the large intestine in a bar shape is displayed.
  • the display image 231 includes a multi-region frame evaluation result display column 281, a multi-region part evaluation result display column 291, and the second illumination light image 213 currently being observed. May not be displayed.
  • 58, 59, 55, 60, and 57, respectively, are display forms in which the second illumination light image 214 currently being observed is not displayed.
  • the notification control unit 200 preferably performs notification in accordance with the first evaluation result and the second evaluation result output by the image determination unit 70 . Since specific conditions for notification are common to the first embodiment, description thereof is omitted.
  • the first illumination light image and the second illumination light image in units of one frame are finally obtained. determines whether a "certain condition" is met. For this reason, if (1), (2), and (4) are satisfied among the specific conditions, as shown in FIG. Notify.
  • the "specific condition" is finally satisfied in one first illumination area or second illumination area unit. to decide whether Therefore, when the specific condition (3) is satisfied, as shown in FIG.
  • a warning display frame 301 is enclosed to give notification.
  • the corresponding first illumination area and second illumination area are the first illumination area associated with the first illumination light image and the second illumination area associated with the second illumination light image of consecutive or close frames in time series. It refers to the positionally corresponding part of .
  • the first evaluation result output using the second illumination light image and the second evaluation result output using the first illumination light image are preferably associated with each other and stored in a memory (not shown). Further, the second illumination light image with the first evaluation result and the first illumination light image with the second evaluation result are the anatomical parts where the first illumination light image or the second illumination light image was captured. Preferably, the information is further associated and stored.
  • an evaluation result based on an endoscopic image is output from a white-light image that doctors are accustomed to seeing, and a special light that can analyze specific structures such as blood vessels as information that cannot be grasped from the white-light image.
  • An evaluation result based on the pathological image can be output from the image. In this case, while observing the familiar white light image, the doctor can recognize "hidden non-remission" that is overlooked in the white light image with the assistance of the medical image processing apparatus.
  • the present invention is not limited to this, and other medical devices such as an ultrasonic imaging device and a radiation imaging device can be used.
  • a device may be used.
  • the endoscope 12 may be a rigid scope or a flexible scope.
  • the central control unit 50, the medical image acquisition unit 60, the image determination unit 70, the comprehensive evaluation result calculation unit 71, the display control unit 130, the image division unit 160, the region evaluation unit 170, and the notification control unit Part or all of 200 may be provided, for example, in an image processing device that communicates with processor device 14 and cooperates with endoscopic system 10 .
  • the endoscope system 10 can be provided in a diagnosis support device that acquires an image captured by the endoscope 12 directly from the endoscope system 10 or indirectly from the PACS.
  • the endoscope system 10 is connected to various inspection devices such as the first inspection device, the second inspection device, .
  • the central control unit 50, the medical image acquisition unit 60, the image determination unit 70, the comprehensive evaluation result calculation unit 71, the display control unit 130, the image division unit 160, the region evaluation unit 170, and the notification control unit 200 can be provided.
  • various components such as the central control unit 50, the medical image acquisition unit 60, the image determination unit 70, the comprehensive evaluation result calculation unit 71, the display control unit 130, the image division unit 160, the region evaluation unit 170, and the notification control unit 200
  • the hardware structure of a processing unit that executes processing is various processors as shown below.
  • the circuit configuration is changed after manufacturing such as CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various processing units.
  • Programmable Logic Devices which are processors, dedicated electric circuits, which are processors with circuit configurations specially designed to perform various types of processing, and the like.
  • One processing unit may be configured by one of these various processors, and may be configured by a combination of two or more processors of the same type or different types (for example, multiple FPGAs or a combination of a CPU and an FPGA).
  • a plurality of processing units may be configured by a single processor.
  • this processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC System On Chip
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.
  • the hardware structure of the storage unit is a storage device such as an HDD (hard disc drive) or an SSD (solid state drive).
  • endoscope system 12 endoscope 12a insertion portion 12b operation portion 12c bending portion 12d tip portion 12e angle knob 12f observation mode switching switch 12h still image acquisition instruction switch 12i zoom operation portion 12j forceps port 13 light source device 14 processor device 15 display 16 user interface 20 light source 20a V-LED 20b B-LED 20c G-LED 20d R-LED 21 light source processor 22 optical path coupling unit 23 light guide 30a illumination optical system 30b imaging optical system 31 illumination lens 41 objective lens 42 zoom lens 43 imaging sensor 44 imaging processor 50 central control unit 60 medical image acquisition unit 60a, 111a, 118b, 213 second illumination light image 60b, 118a, 212 first illumination light image 60c endoscope image 70 image determination unit 71 comprehensive evaluation result calculation unit 72 multiple frame evaluation result calculation unit 73 multiple region evaluation result calculation unit 80 first determiner 80a, 90a First evaluation result 81 Intramucosal bleeding 82 Extramucosal bleeding 90 Second determiner 100 Third determiner 101 Second evaluation result 110 Frequency domain image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

ユーザーの目的に合わせて内視鏡画像から診断結果を得ることができる内視鏡システム、医療画像処理装置及びその作動方法を提供する。 医療画像処理装置は、1種類又は複数種類の照明光を被写体に照明して撮影された内視鏡画像を取得し、内視鏡画像を用いて、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、第1評価基準と異なる第2評価基準に基づく第1評価結果との少なくとも一方を出力する。第1評価基準は、内視鏡と異なる撮像装置で撮像した画像に基づく疾患の程度の評価基準である。内視鏡と異なる撮像装置で撮像した画像は病理画像である。第2評価基準は、内視鏡画像に基づく疾患の程度の評価基準である。

Description

内視鏡システム、医療画像処理装置及びその作動方法
 本発明は、医療画像から複数の診断結果を出力する内視鏡システム、医療画像処理装置及びその作動方法に関する。
 画像解析と人工知能の技術発展に伴い、コンピュータ支援診断(Computer-aided diagnosis; CAD)を行う高度な医療機器が盛んに開発されている。CADは、内視鏡検査において医師を支援することで、診断時間を短縮させ、さらに、診断の正確性や再現性を向上させることに役立っている。例えば、内視鏡画像から腫瘍の良悪性を判定し、又、炎症の程度について疾患の評価基準に合わせたスコアリングをすることができる。
 具体的には、潰瘍性大腸炎の評価基準の一種であるMayo endoscopic subscore(MES)を、白色光又は特殊光を被写体に照明して得た2種類の画像信号(第1画像信号及び第2画像信号)に対して算出し、第2画像信号から算出されたMESが、第1画像信号から算出されたMESよりも大きい場合に、第2画像信号に基づく高スコア表示画像を表示するといった、2種類の画像信号からMESを算出し診断精度を向上させる技術が知られている(特許文献1)。
特開2020-65685号公報
 潰瘍性大腸炎の場合、内視鏡画像を用いて出血、潰瘍及びびらん等の程度を評価する基準であるMayo scoreの他にも、大腸粘膜の生検標本を用いて形質細胞や好中球の浸潤度合い等を評価する基準であるGeboes histopathology score(GHS)といった、複数種類の評価基準が存在する。疾患によっては、複数種類の評価基準からユーザーの目的に合った評価基準を選択した上で判定を行い、評価結果を得たい場合がある。
 本発明は、ユーザーの目的に合わせて内視鏡画像から診断結果を得ることができる内視鏡システム、医療画像処理装置及びその作動方法を提供することを目的とする。
 本発明の医療画像処理装置は、プロセッサを備える医療画像処理装置であって、プロセッサは、1種類又は複数種類の照明光を被写体に照明して撮影された内視鏡画像を取得し、内視鏡画像を用いて、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、第1評価基準と互いに異なる第2評価基準に基づく第2評価結果との少なくとも一方を出力するよう構成される。
 第1評価基準は、内視鏡と異なる撮像装置で撮像した画像に基づく疾患の程度の評価基準であることが好ましい。
 内視鏡と異なる撮像装置で撮像された画像は、被写体から採取された生検組織の病理画像であることが好ましい。
 プロセッサは、内視鏡画像を用いて、第1判定器により第1評価結果を出力するよう構成され、第1判定器は、予め記憶された、内視鏡画像と病理画像に基づく疾患の程度との対応関係である表層形態分類を用いて第1評価結果を出力することが好ましい。
 プロセッサは、内視鏡画像から第1周波数領域を抽出した第1周波数領域画像と、内視鏡画像から第1周波数領域と互いに異なる第2周波数領域を抽出した第2周波数領域画像と、第1周波数領域及び第2周波数領域と互いに異なる第3周波数領域を抽出した第3周波数領域画像とを生成し、第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像を用いて、第1判定器により第1評価基準に基づく第1評価結果を出力するよう構成されることが好ましい。
 プロセッサは、内視鏡画像を用いて、第1判定器と互いに異なる第2判定器により第1評価結果を出力するよう構成され、第2判定器は、学習用内視鏡画像と、病理画像に基づく疾患の程度と、を用いて学習されていることが好ましい。
 第2評価基準は、内視鏡画像に基づく疾患の程度の評価基準であることが好ましい。プロセッサは、内視鏡画像を用いて、第1判定器及び第2判定器と互いに異なる第3判定器により第2評価結果を出力するよう構成され、第3判定器は、学習用内視鏡画像と、内視鏡画像に基づく疾患の程度と、を用いて学習されていることが好ましい。
 第1評価基準は、疾患の程度を2段階で評価する内視鏡と異なる撮像装置で撮像された画像に基づく疾患の程度の評価基準であり、第2評価基準は、疾患の程度を2段階で評価する内視鏡画像に基づく疾患の程度の評価基準であることが好ましい。
 第1評価基準は、疾患の程度を3段階以上の多段階で評価する内視鏡と異なる撮像装置で撮影された画像に基づく疾患の程度の評価基準であり、第2評価基準は、疾患の程度を3段階以上の多段階で評価する内視鏡画像に基づく疾患の程度の評価基準であることが好ましい。
 疾患は潰瘍性大腸炎であることが好ましい。第1評価基準は、Geboes histopathology score、Riley score、Modified Riley score又はRobarts histopathology indexであり、第2評価基準は、Mayo endoscopic subscore又はUCEIS scoreであることが好ましい。
 第1評価基準は、表層血管の形態及び/又は出血の程度を含み、第2評価基準は、粘膜の赤みの程度、深層血管の血管透見度合い及び/又はびらん若しくは潰瘍の程度を含むことが好ましい。
 第1評価基準及び第2評価基準は、疾患を寛解とする範囲及び非寛解とする範囲を有し、第1評価基準で疾患を寛解とする範囲は、第2評価基準で疾患を寛解とする範囲よりも小さく、第1評価基準のうち、疾患を非寛解とする最低値である第1非寛解境界値は、第2評価基準のうち、疾患を非寛解とする最低値である第2非寛解境界値と異なり、第1非寛解境界値は、第2評価基準で疾患を寛解とする範囲に設定されることが好ましい。
 プロセッサは、1フレームの内視鏡画像ごとに第1評価結果と第2評価結果との少なくとも一方を出力し、少なくとも2フレーム以上の内視鏡画像に係る1評価結果を用いて算出される第1複数フレーム評価結果と、少なくとも2フレーム以上の内視鏡画像に係る第2評価結果を用いて算出される第2複数フレーム評価結果の少なくとも一方を出力して表示するよう構成されることが好ましい。
 プロセッサは、内視鏡画像を複数の領域に分割し、複数の領域に対し、第1評価結果と第2評価結果との少なくとも一方を出力するよう構成されることが好ましい。
 プロセッサは、複数の領域として分割された内視鏡画像に基づいて、複数の領域に対する領域評価指数を出力し、領域評価指数が付された複数の領域からなる内視鏡画像を用いて、複数の領域に対する第1評価結果と第2評価結果の少なくとも一方を出力するよう構成されることが好ましい。
 プロセッサは、内視鏡画像の領域ごとに第1評価結果と第2評価結果との少なくとも一方を出力し、少なくとも2つ以上の領域に対する第1評価結果を用いて算出される第1複数領域評価結果と、少なくとも2つ以上の領域に対する第2評価結果を用いて算出される第2複数領域評価結果との少なくとも一方を出力するよう構成されることが好ましい。
 プロセッサは、第1複数領域フレーム評価結果及び第2複数領域フレーム評価結果を、1フレームの内視鏡画像ごとに出力するよう構成されることが好ましい。
 プロセッサは、第1照明光を被写体に照明して撮影された第1照明光画像を内視鏡画像として取得し、第1照明光画像を用いて、構造強調画像を生成し、構造強調画像を用いて、第1評価基準に基づく第1評価結果を出力するよう構成されることが好ましい。
 構造強調画像は、第1照明光画像の表面構造、色差、又はエッジ量を強調した画像であることが好ましい。
 プロセッサは、第1照明光画像を用いて、第2評価基準に基づく第2評価結果を出力するよう構成されることが好ましい。
 第1照明光は、白色光であることが好ましい。プロセッサは、第1照明光を被写体に照明して撮影された第1照明光画像と第1照明光とスペクトルが異なる第2照明光を被写体に照明して撮影された第2照明光画像を含む複数の内視鏡画像を取得し、第2照明光画像を用いて第1評価基準に基づく第1評価結果を出力するよう構成されることが好ましい。
 プロセッサは、被写体に第1照明光を照明する第1照明期間と、被写体に少なくとも1種類以上の第2照明光を照明する第2照明期間とを自動的に切り替えるよう構成されることが好ましい。
 第2照明光は、第1照明光よりも波長帯域が狭いことが好ましい。第2照明光は、第1照明光よりも特定の青色または特定の紫色を多く含むことが好ましい。
 プロセッサは、第2照明光画像を複数の第2照明領域に分割し、複数の第2照明領域に対し、第1評価結果を出力するよう構成されることが好ましい。
 プロセッサは、第1評価結果及び第2評価結果を出力するよう構成されることが好ましい。プロセッサは、第1評価結果と、第2評価結果との組み合わせが特定の条件を満たす場合、報知を行うよう構成されることが好ましい。
 報知を行うための特定の条件は、第1評価結果が非寛解の場合、又は、第2評価結果が寛解であり、かつ、第1評価結果が非寛解の場合であることが好ましい。
 プロセッサは、内視鏡画像が表示されるディスプレイへの警告表示を行うことで報知を行うことが好ましい。
 プロセッサは、内視鏡画像、第1評価結果及び第2評価結果をディスプレイに表示させることが好ましい。
 プロセッサは、第1評価結果及び第2評価結果を出力した被写体における部位情報、第1評価結果、並びに、第2評価結果を関連付けて保存するよう構成されることが好ましい。
 本発明の内視鏡システムは、上記の医療画像処理装置と、光源装置と、内視鏡と、を備える。
 本発明の医療画像処理装置の作動方法は、1種類又は複数種類の照明光を被写体に照明して撮影された医療画像を取得するステップと、医療画像を用いて、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、第1評価基準と互いに異なる第2評価基準に基づく第2評価結果との少なくとも一方を出力するステップと、を有する。
 本発明によれば、ユーザーの目的に合わせて内視鏡画像から診断結果を得ることができる内視鏡システム、医療画像処理装置及びその作動方法を提供することができる。
内視鏡システムの構成の説明図である。 内視鏡システムの機能を示すブロック図である。 第1照明光のスペクトルを示すグラフである。 第2照明光のスペクトルを示すグラフである。 画像判定部の機能を示すブロック図である。 形態2~形態6の血管の形態、粘膜内の出血及び粘膜外の出血について示す説明図である。 消化管の組織について示す説明図である。 周波数領域画像生成部と画像処理ユニットとしての第1判定器の機能を示すブロック図である。 画像処理ユニットとしての第1判定器が第2照明光画像から周波数領域画像を解析する流れを示す説明図である。 画像処理ユニットとしての第1判定器が第1評価結果を出力する流れを示す説明図である。 構造強調画像生成部及び画像処理ユニットとしての第1判定器の機能を示すブロック図である。 第1学習用データの生成方法について示す説明図である。 周波数領域画像を画像処理ユニットとしての第1判定器に入力して第1評価結果を出力する場合について示す説明図である。 構造強調画像を画像処理ユニットとしての第1判定器に入力して第1評価結果を出力する場合について示す説明図である。 第2照明光画像を学習済みモデルとしての第1判定器に入力して第1評価結果を出力する場合について示す説明図である。 第2照明光画像を第2判定器に入力して第1評価結果を出力する場合について示す説明図である。 第1照明光画像を第2判定器に入力して第1評価結果を出力する場合について示す説明図である。 第1照明光画像を第3判定器に入力して第2評価結果を出力する場合について示す説明図である。 第2照明光画像を第3判定器に入力して第2評価結果を出力する場合について示す説明図である。 周波数領域画像を第3判定器に入力して第2評価結果を出力する場合について示す説明図である。 内視鏡画像及び評価結果表示欄を表示する場合の表示用画像を示す画像図である。 総合評価結果算出部の機能について示すブロック図である。 内視鏡画像、現在観察中の部位及びフレーム評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、シェーマ図及び複数フレーム部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、三次元構造図及び複数フレーム部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、簡易模式図及び複数フレーム部位評価結果を表示する場合の表示用画像を示す画像図である。 画像分割部が内視鏡画像を分割した例を示す画像図である。 複数の領域に分割された内視鏡画像から評価結果を出力した例を示す画像図である。 内視鏡画像に液たまりが含まれる例を示す画像図である。 内視鏡画像に泡が含まれる例を示す画像図である。 内視鏡画像に反射が含まれる例を示す画像図である。 内視鏡画像にキャップの縁部が含まれる例を示す画像図である。 内視鏡画像にキャップの縁部が含まれる場合の評価阻害領域を示す画像図である。 領域評価指数の出力について示す説明図である。 領域評価指数及び評価結果を出力する例を示す説明図である。 分割された内視鏡画像と複数領域フレーム評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、現在観察中の部位及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、シェーマ図及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、三次元構造図及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、簡易模式図及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、現在観察中の部位、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、シェーマ図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、三次元構造図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像、簡易模式図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 内視鏡画像の全体を警告表示枠で囲む場合の表示用画像を示す画像図である。 内視鏡画像を分割した領域を警告表示枠で囲む場合の表示用画像を示す画像図である。 第1実施形態における内視鏡システムの機能の流れを示すフローチャートである。 第1発光パターンについて示す説明図である。 第2発光パターンについて示す説明図である。 第1照明光画像、第2照明光画像、シェーマ図、評価結果を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像、現在観察中の部位、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像、シェーマ図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像、三次元構造図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像、簡易模式図、複数領域フレーム評価結果及び複数領域部位評価結果を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像及び現在観察中の部位を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像及びシェーマ図を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像及び三次元構造図を表示する場合の表示用画像を示す画像図である。 第1照明光画像、第2照明光画像及び簡易模式図を表示する場合の表示用画像を示す画像図である。 第1照明光画像及び現在観察中の部位を表示する場合の表示用画像を示す画像図である。 第1照明光画像及びシェーマ図を表示する場合の表示用画像を示す画像図である。 第1照明光画像及び三次元構造図を表示する場合の表示用画像を示す画像図である。 第1照明光画像及び簡易模式図を表示する場合の表示用画像を示す画像図である。 第1照明光画像及び第2照明光画像の全体を警告表示枠で囲む場合の表示用画像を示す画像図である。 対応する第1照明領域及び第2照明領域を警告表示枠で囲む場合の表示用画像を示す画像図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12、光源装置13、医療画像処理装置(プロセッサ装置)14、ディスプレイ15及びユーザーインターフェース16を備える。内視鏡12は、光源装置13と光学的に接続され、かつ、プロセッサ装置14と電気的に接続される。
 内視鏡12は、挿入部12a、操作部12b、湾曲部12c及び先端部12dを有している。挿入部12aは、被写体の体内に挿入される。操作部12bは、挿入部12aの基端部分に設けられる。湾曲部12c及び先端部12dは、挿入部12aの先端側に設けられる。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)を設けている。処置具は、鉗子口12jから鉗子チャンネル内に挿入する。
 内視鏡12の内部には、被写体像を結像するための光学系、及び、被写体に照明光を照射するための光学系が設けられる。操作部12bには、アングルノブ12e、モード切替スイッチ12f、静止画像取得指示スイッチ12h及びズーム操作部12iが設けられる。モード切替スイッチ12fは、観察モードの切り替え操作に用いる。静止画像取得指示スイッチ12hは、被写体の静止画像の取得指示に用いる。ズーム操作部12iは、ズームレンズ42の操作に用いる。
 光源装置13は、照明光を発生する。ディスプレイ15は、内視鏡画像及び表示用画像を表示する。内視鏡画像には、撮像に用いる照明光が異なる第1照明光画像と第2照明光画像の少なくとも一方が含まれる。表示用画像は、内視鏡画像と内視鏡画像から出力した疾患の評価結果と、評価結果に付随する情報を表示するために生成される画像である。ユーザーインターフェース16は、キーボード、マウス、マイク、タブレット、及びタッチペン等を有し、機能設定等の入力操作を受け付ける。プロセッサ装置14は、光源装置13の制御や、内視鏡12から送信された画像信号に対する画像処理、解析、表示に関する制御を行う。
 図2において、光源装置13は、光源部20、光源部20を制御する光源用プロセッサ21、及び、光路結合部22を備えている。光源部20は、複数の半導体光源を有し、これらをそれぞれ点灯又は消灯する。又、複数の半導体光源を点灯する場合は、各半導体光源の発光量を制御することにより、被写体を照明する照明光を発する。光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDを有する。光源部20及び/又は光源用プロセッサ21は、内視鏡12に内蔵されていてもよい。又、光源用プロセッサ21は、プロセッサ装置14に内蔵されていてもよい。
 第1実施形態において、内視鏡システム10は、第1照明光モード及び第2照明光モードを備える。第1照明光モード及び第2照明光モードは、モード切替スイッチ12fを操作することで、中央制御部50を介して切り替えられる。照明光には、第1照明光と、第1照明光とスペクトルが異なる第2照明光が含まれる。第1照明光は、被写体の全体に明るさを与えてスクリーニング観察するために用いる通常光であり、白色光などの広帯域の光であることが好ましい。第2照明光は、被写体である消化管の粘膜の腺管や血管等の特定の構造を強調するために用いる、少なくとも1種類以上の特殊光である。第2照明光は、第1照明光よりも波長帯域が狭い光であることが好ましい。又、第2照明光は、第1照明光よりも特定の青色又は特定の紫色を多く含む光であることが好ましい。特に、第2照明光は中心波長が410nmの光であることが好ましい。
 第1照明光を発する場合、図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長450±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。第2照明光を発する場合、例えば、図4に示すような、中心波長が410nmである光を発生する。
 光源用プロセッサ21は、4色の紫色光V、青色光B、緑色光G、赤色光Rの光量を独立に制御し、光量を変えて第1照明光又は第2照明光を発する。
 第1照明光モードの場合、1フレーム毎に第1照明光を被写体に照明して撮像することにより、自然な色合いの第1照明光画像をディスプレイ15に表示する。又、第2照明光モードの場合、1フレーム毎に第2照明光を被写体に照明して撮像することにより、特定の構造を強調した第2照明光画像をディスプレイ15に表示する。なお、フレームとは、発光のタイミングから撮像センサ43による画像信号の読み出し完了までの間の期間を少なくとも含む期間の単位のことをいう。
 第1照明光モード、第2照明光モード及び第2実施形態のマルチ発光モードにおいて、ユーザーが内視鏡画像を静止画像として取得したい場合は、静止画像取得指示スイッチ12hを操作することにより、静止画像取得指示に関する信号が内視鏡12、光源装置13、及びプロセッサ装置14に送られる。
 各LED20a~20d(図2参照)が発する光は、ミラーやレンズ等で構成される光路結合部22を介して、ライトガイド23に入射される。ライトガイド23は、光路結合部22からの光を、内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ31を有しており、ライトガイド23によって伝搬した照明光は照明レンズ31を介して被写体に照射される。一方、光源部20が内視鏡12の先端部12dに内蔵される場合は、ライトガイドを介さずに照明光学系の照明レンズを介して被写体に向けて出射される。撮像光学系30bは、対物レンズ41、撮像センサ43を有する。照明光を照射したことによる被写体からの光は、対物レンズ41及びズームレンズ42を介して撮像センサ43に入射する。これにより、撮像センサ43に被写体の像が結像される。ズームレンズ42は被写体を拡大するためのレンズであり、ズーム操作部12iを操作することによって、テレ端とワイド端と間を移動する。
 撮像センサ43は、原色系のカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。
 又、撮像センサ43は、CCD(Charge-Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)であることが好ましい。撮像用プロセッサ44は、撮像センサ43を制御する。具体的には、撮像用プロセッサ44により撮像センサ43の信号読み出しを行うことによって、撮像センサ43から画像信号が出力される。出力された画像信号は、プロセッサ装置14の医療画像取得部60に送信される。
 医療画像取得部60は、受信したカラー画像に対して、欠陥補正処理、オフセット処理、デモザイク処理、マトリクス処理、ホワイトバランスの調整、ガンマ変換処理、及びYC変換処理等の各種信号処理を行う。次いで、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理を含む画像処理を施すことで、第1照明光に対する第1照明光画像、及び、第2照明光に対する第2照明光画像を取得する。
 プロセッサ装置14は、中央制御部50、医療画像取得部60、画像判定部70、総合評価結果算出部71、表示制御部130、画像分割部160、領域評価部170及び報知制御部200を含む(図2参照)。
 プロセッサ装置14においては、光源用及び画像処理用プロセッサで構成される中央制御部50により、プログラム用メモリ内のプログラムが動作することで、医療画像取得部60、画像判定部70、総合評価結果算出部71、表示制御部130、画像分割部160及び領域評価部170の機能が実現される。
 医療画像取得部60が取得した第1照明光画像又は第2照明光画像は、画像判定部70に入力される。画像判定部70は、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、第1評価基準と異なる第2評価基準に基づく第2評価結果の少なくとも一方を出力する。評価基準(以降、第1評価基準及び第2評価基準をまとめて記載する用語として用いる)とは、詳しくは後述するが、疾患の程度を判定する尺度のことである。評価結果(以降、第1評価結果及び第2評価結果をまとめて記載する用語として用いる)とは、詳しくは後述するが、画像判定部70が出力する結果のことであり、例えば、「寛解」、「非寛解」、「粘膜内の出血」及び「高度の血管不整」のような状態を表すものでもよく、「Mayo0」や「Geboes2B」のような既存の尺度を用いたものでもよく、「形態1」「形態2」のような予め記憶された尺度を用いたものでもよく、「0」や「1」のような値でもよい。判定とは、画像判定部70が評価結果を出力するために内視鏡画像を解析することである。出力とは、画像判定部70が第1評価結果及び/又は第2評価結果を出すことである。
 画像判定部70は、図5に示すように、内視鏡画像を用いて判定を行う第1判定器80、第2判定器90及び第3判定器100を有する。第1判定器80は、後述する表層形態分類を記憶した画像処理ユニット、又は、学習済みモデルである。第2判定器90及び第3判定器100は、それぞれ異なる学習済みモデルである。学習済みモデルとは、学習モデルが学習用データを用いて学習を行ったものである。画像判定部70は、後述する周波数領域画像生成部110及び構造強調画像生成部120をさらに有する。
 学習モデルを生成する機械学習には深層学習を用いることが好ましく、例えば、多層畳み込みニューラルネットワークを用いることが好ましい。機械学習には、深層学習に加え、決定木、サポートベクトルマシン、ランダムフォレスト、回帰分析、教師あり学習、半教師なし学習、教師なし学習、強化学習、深層強化学習、ニューラルネットワークを用いた学習、敵対的生成ネットワーク等が含まれる。
 学習済みモデルとしての第1判定器80は、第1学習用データを用いて学習が行われる。第2判定器90は、学習モデルが第2学習用データを用いて学習を行った学習済みモデルである。第1学習用データのデータセット及び第2学習用データのデータセットを生成する際に、第1評価基準が用いられる。第1学習用データ及び第2学習用データの詳細については後述する。第3判定器100は、学習モデルが第3学習用データを用いて学習を行った学習済みモデルである。第3学習用データを生成する際に、第2評価基準が用いられる。第3学習用データの詳細については後述する。
 第1判定器80、第2判定器90及び第3判定器100を有する画像判定部70が、それぞれ異なる第1評価基準と第2評価基準に基づき、第1評価結果と第2評価結果の少なくともどちらか一方を出力する上記構成により、ユーザーの目的に合わせて結果を出力することができる。目的とは、例えば、治療目標である。
 潰瘍性大腸炎には、その重症度に応じて、臨床的寛解、内視鏡的寛解、病理的寛解の異なる治療目標が存在する。臨床的寛解とは、下痢や腹痛等の患者の症状が軽度又は見られなくなる状態である。従来は、治療薬の処方による臨床的寛解が潰瘍性大腸炎の治療目標とされていた。しかし、一度は臨床的寛解となった場合においても、再び症状が現れてしまう再発が起きる症例がみられた。そこで、再発した患者の内視鏡検査を行うと、消化管内に内視鏡的非寛解(粘膜の発赤等が見られ治癒していないこと)が認められることがあった。すなわち、表1に示すように、臨床的寛解であっても内視鏡的非寛解である場合に再発することが明らかになった。このような症例では長期間の寛解が得られなかったことから、寛解を短期間で終わらせないため、「臨床的寛解であっても内視鏡的非寛解」と「内視鏡的寛解」を見分ける検査を適宜行い、内視鏡的寛解(粘膜治癒)を治療目標として治療が行われることになった。
Figure JPOXMLDOC01-appb-T000001
 近年、潰瘍性大腸炎の治療に用いられる生物学的製剤は、高い治療効果を発揮することで内視鏡的寛解を高確率で実現できるようになった。加えて、生検組織から病理的寛解が確認された場合、寛解がより長くなることが報告されてきている。すなわち、表1に示すような「内視鏡的寛解であるが病理学的非寛解」と「病理的寛解」を見分け、適切な治療薬を用いて病理的寛解を目指すことが次なる治療目標となってきている。このように、臨床的寛解から内視鏡的寛解、内視鏡的寛解から病理的寛解へと、疾患の経過に合わせて治療目標が変遷することから、それぞれの段階において現在の状態を検査できることは重要である。上記構成は、医師等のユーザーは、患者の経過に合わせて内視鏡的寛解や病理的寛解といった異なる治療目標に合わせて結果を得たいニーズを満たすものである。
 疾患の程度の評価基準である第1評価基準は、内視鏡と異なる撮像装置で撮像した画像に基づく疾患の程度の評価基準であることが好ましい。この構成により、内視鏡画像のみから得られる評価結果と互いに異なる評価結果を得ることができる。
 内視鏡と異なる撮像装置で撮像した画像は、被写体から採取された生検組織の病理画像であることが好ましい。病理画像とは、ヘマトキシリン・エオシン染色等の各種染色が施された病理組織標本等、生検組織を顕微鏡で観察して診断を行うことができる状態にした上で撮像された画像のことである。
 病理的寛解を治療目標とする段階では、治療薬として、ステロイド、免疫抑制剤及び生物学的製剤等が用いられる。これらの治療薬は、潰瘍性大腸炎の症状を抑える寛解導入期に大きな効果を発揮する。一方で、これらの治療薬は生体への全身性の影響が大きく、使用量が多くなると副作用のリスクも増大してしまう。副作用の大きな治療薬の過剰な投与を防止するためには、十分に治療効果が得られた場合に、副作用が比較的小さい治療薬(5-アミノサリチル酸製剤)へと治療薬を切り替える必要がある。病理的寛解の確認は、十分に治療薬の効果が得られた目安となるため、病理画像に基づく評価基準に基づいて病理的非寛解と病理的寛解を判別し、評価結果を出力する上記構成により、ユーザーは薬の切り替え時期を見極めることができる。又、病理画像に基づく評価基準に基づいた評価結果を内視鏡画像のみに基づき出力できることで、生検を採取する必要がなくなり、術者と被験者の負担を大きく軽減することができる。
 第1評価基準は、疾患の程度を2段階で評価する基準であってもよく、又、寛解又は非寛解の中でさらに細かくサブクラスを分けた3段階以上の多段階評価であってもよい。疾患は、潰瘍性大腸炎であることが好ましい。第1評価基準が2段階である場合、疾患の程度は寛解又は非寛解の2段階であって、第1評価結果は「寛解」又は「非寛解」と出力される。この場合は、第1評価結果の出力が比較的簡単な処理となるため、プロセッサに負担をかけず、速く判定を行うことができる。一方、第1評価基準が3段階以上の多段階である場合は、寛解又は非寛解の2段階であるよりも、より詳細な判定を行うことができる。
 第1評価基準として、Geboes histopathology score(GHS)(表2)を用いることが好ましい。以降、第1評価結果としてGHSを出力する場合の記載については、簡単のため、例えばGHSが「0」である場合を「Geboes0」と記載する。表1の通り、Geboes0~2Aは寛解(病理的寛解)であり、Geboes2B~5は非寛解(病理的非寛解)である。画像判定部70は、内視鏡画像を「Geboes2B」と判定した場合、第1評価結果として「Geboes2B」と出力してもよく、「非寛解」と出力してもよい。又、第1評価基準として、Riley score、Modified Riley score又はRobarts histopathology index等の、病理画像に基づく潰瘍性大腸炎の評価基準を用いてもよい。上記構成により、臨床で用いられる評価基準に基づいて評価結果を出力することができる。
Figure JPOXMLDOC01-appb-T000002
 第1評価基準は、表層血管の形態及び/又は出血の程度としてもよい。この場合、第1評価結果として、例えば、「表層血管:ハニカムパターン」「表層血管:軽度不整」「出血:軽度」のように出力することができる。上記構成により、内視鏡画像から第1評価基準に基づく所見として第1評価結果を出力することができる。
 表層形態分類は、表3に示す、中心波長410nmの照明光を被写体に照射して得た内視鏡画像にみられる血管構造のパターンと、病理画像に基づく疾患の程度(GHS)との、発明者らが見出した対応関係のことである。潰瘍性大腸炎は、図6(A)~(E)に示すように、血管構造のパターンが変化し、この血管構造のパターンと病理状態との間に対応関係が存在する。
Figure JPOXMLDOC01-appb-T000003
 潰瘍性大腸炎が極めて軽度な寛解状態であり、粘膜が正常であるため表層血管が視認できない場合、表1の「形態1」に分類される。潰瘍性大腸炎が寛解であり、粘膜に若干の異常がある場合には、表層血管のパターンが規則的であるか(図6(A);表3「形態2」)、表層血管のパターンの規則性に多少の乱れが生じている程度である(図6(B);表3「形態3」)。一方、潰瘍性大腸炎が非寛解であり、且つ、重症度が軽症である場合には、一部に表層血管が密集した高密表層血管領域が存在する表層血管の高密化となる(図6(C)、表3「形態4」)。潰瘍性大腸炎が非寛解であり、且つ、重症度が中等症である場合には、粘膜内の出血81が発生する(図6(D)、表3「形態5」)。潰瘍性大腸炎が非寛解であり、且つ、重症度が中等症~重症である場合には、粘膜外の出血82が発生する(図6(E)、表3「形態6」)。
 ここで、「高密表層血管領域」とは、表層血管が蛇行して集まった領域であり、画像上の見た目では、腸陰窩(図7参照)の周囲を表層血管が何本も囲む形態である。「粘膜内の出血」とは、粘膜(図7参照)内の出血であり、消化管内腔(管腔)における出血とは異なる。「粘膜外の出血」とは、管腔内への少量の血液、管腔内を洗浄した後の内視鏡先端部12dから前方の管腔若しくは粘膜上皮よりも内腔側で視認可能な血液、又は、粘膜上でにじみを伴った管腔内の血液のことをいう。
 画像処理ユニットとしての第1判定器80が第1評価結果を出力する流れについて説明する。この場合、第1判定器80には、図8に示す周波数領域画像生成部110(図2も参照)が生成した第1周波数領域画像又は第2周波数領域画像を、第1判定器80に送信する。図8に示すように、周波数領域画像生成部110は、マスク処理部112、周波数成分空間分布算出部113及び周波数領域抽出部114を備え、第1判定器80は、血管密度算出部115、輝度算出部116及び第1評価結果出力部117を備える。
 第1評価結果は、図9Aに示す流れに沿って出力される。図9Aでは、上から下に向かって処理が進行する。マスク処理部112は、内視鏡画像である第2照明光画像111aのうち、歪みの大きい辺縁部にマスク処理を行い、中央部のみを抽出したマスク済み第2照明光画像112aを生成する。次に、周波数成分空間分布算出部113が周波数成分空間分布を算出し、周波数領域を抽出する周波数処理を行う。周波数成分空間分布算出部113は、マスク済み第2照明光画像112aに対してラプラシアンフィルタをかけることにより、周波数成分空間分布を算出する。
 周波数領域抽出部114は、マスク済み第2照明光画像112aから第1周波数領域114b(図9A、第1周波数領域114aの斜線部)を抽出し、第1周波数領域画像114aを生成する。具体的には、周波数成分空間分布に対するヘシアン解析によって、第1周波数(高周波)を有する第1周波数領域(高周波領域)114bを抽出する。
 次に、血管密度算出部115が、第1周波数領域画像114aに平均化処理を施し、表層血管の密度分布を算出した密度分布画像115aを生成する。図9Aでは、表層血管の密度分布が高い領域115b、表層血管の密度分布が中程度の領域115c、表層血管の密度分布が低い領域115dが示されている。
 最終的に、第1評価結果出力部117が、密度分布用閾値を用いた閾値処理を行い、表層血管の密度分布が密度分布用閾値以上の領域117aと、密度分布用閾値未満の領域117bに分け、表層血管の密度分布が密度分布用閾値以上の領域117aは、「高密表層血管領域」に該当する。
 周波数領域抽出部114は、さらに、マスク済み第2照明光画像112aから第1周波数よりも低い周波数である第2周波数(低周波)を有する第2周波数領域114d(低周波領域;図9A、第2周波数領域画像114cの斜線部)を抽出し、第2周波数領域画像114cを生成する。具体的には、周波数成分空間分布に基づいて、マスク済み第2照明光画像112aのうち、特定画素を含む近傍の9画素の周波数の統計量(例えば、最大値、最小値又は標準偏差)が一定値以下の場合に、特定画素を第2周波数に属する画素とする。この特定画素の検出を全画素分行うことによって、第2周波数領域114dを抽出し、第2周波数領域画像114cを生成する。
 次に、輝度算出部116は、第2周波数領域画像114cの輝度を算出し、第2周波輝度分布画像116aを生成する。図9Aでは、輝度値が低い領域116bと輝度値が高い領域116cが示されている。
 最終的に、第1評価結果出力部117が、第1輝度用閾値を用いた閾値処理を行い、輝度が第1輝度用閾値以下の領域117cと、輝度が第1輝度用閾値より大きい領域117dに分ける。輝度が第1輝度用閾値以下の領域117cは、「粘膜外の出血」に該当する。
 又、周波数領域抽出部114は、第1周波数よりも低い周波数であって、第2周波数よりも高い周波数(中周波数)を有する第3周波数領域114f(中周波領域;図9A、第3周波数領域画像114eの斜線部)を抽出し、第3周波数領域画像114eを生成する。具体的には、マスク済み第2照明光画像112aから、第1周波数領域114bと、第2周波数領域114dを除いた領域を第3周波数領域と114fして抽出し、第3周波数領域画像114eを生成する。次に、輝度算出部116が、第3周波数領域画像114eの輝度を算出して第3周波輝度分布画像116dを生成し、輝度値が高い領域116eと輝度値が低い領域116fに分ける。
 次いで、第1評価結果出力部117が、第2輝度用閾値を用いた閾値処理を行い、輝度が第2輝度用閾値以下の領域117eと、輝度が第1輝度用閾値より大きい領域117fに分ける。輝度が第2輝度用閾値以下の領域117eは、「粘膜内の出血」に該当する。
 最後に、図9Bに示すように、輝度が第1輝度用閾値以下の領域117c、すなわち「粘膜外の出血」の画素数と、輝度が第2輝度用閾値以下の領域117e、すなわち「粘膜内の出血」の画素数を足し合わせた「出血」の画素数を算出し、「出血」の画素数が出血用閾値以上の場合は、第2照明光画像111aは「形態5」あるいは「形態6」に該当し、第1評価結果として病理的非寛解を出力する。また、「出血」の画素数が出血用閾値未満の場合は、表層血管の密度分布が密度分布用閾値以上の領域117a、すなわち「高密表層血管領域」の画素数を算出し、「高密表層血管領域」の画素数が表層血管密度用閾値以上の場合は、第2照明光画像111aは「形態4」に該当し、第1評価結果として病理的非寛解を出力する。さらに、「出血」の画素数が出血用閾値未満であって、かつ「高密表層血管領域」の画素数が表層血管密度用閾値未満の場合は、第2照明光画像111aは、「形態1」、「形態2」、「形態3」のいずれかに該当し、第1評価結果として病理的寛解を出力する。
 画像処理ユニットとしての第1判定器80は、第1照明光画像を用いて第1評価結果を出力することが好ましい。この場合、図10に示すように、第1照明光画像から構造強調画像生成部120が生成した構造強調画像を、第1判定器80に送信する。
 構造強調画像生成部120は、学習用内視鏡画像である第1照明光画像のうち、表層血管及び粘膜内の出血や粘膜外の出血など表層出血等を、バイラテラルフィルタの画素値差(振幅値)の大きさに伴う周波数特性の違いを利用して強調した構造強調画像を生成する。具体的には、特開2012-135345に開示されているテクスチャ画像の生成方法のように、第1照明光画像から抽出した注目画素と周辺の画素領域の差の絶対値から得たフィルタ係数生成用パラメータに基づく第1フィルタ係数と、第1照明光画像のグレーチャート内の所定領域の画素値の平均値と標準偏差を算出して求めたノイズ量推定モデルをフィルタ係数生成用パラメータとして第2フィルタ係数とを算出し、表層血管及び粘膜内の出血や粘膜外の出血など表層出血等が有する画素値に対して、第1フィルタ係数と第2フィルタ係数を用いた値の差を反映した構造強調画像を生成する。構造強調画像では、表層血管や表層出血が強調されているため、構造強調画像と表層形態分類を基に、図9と同じ原理で第1評価結果を出力することができる。
 画像処理ユニットとしての第1判定器80が第1評価結果として出力する「寛解」には、「形態1」「形態2」「形態3」が含まれ、「非寛解」には、「形態4」「形態5」「形態6」が含まれる(表3参照)。
 画像処理ユニットとしての第1判定器80が、表層形態分類を用いて第1評価結果を出力することで、生検組織を採取せずとも、第1照明光画像及び第2照明光画像から病理画像に基づく評価基準を用いて、病理的な評価結果を得ることができる。又、第1判定器80に予め記憶された表層形態分類は、内視鏡画像と病理画像の関係性が明確であるため、評価結果の解釈性が高い。
 学習済みモデルとしての第1判定器80は、第1照明光画像又は第2照明光画像が入力されることで、第1評価結果を出力することが好ましい。この場合、第1判定器80は、第1学習用データで学習されている。
 第1学習用データの生成方法について説明する。図11に示すように、第1学習用データ生成部としての対応付け部118は、学習用内視鏡画像である第1照明光画像118a又は第2照明光画像118bに、表層形態分類を付した画像データのデータセットとして第1学習用データ118cを生成することが好ましい。学習用内視鏡画像としての第1照明光画像118a又は第2照明光画像118bは、内視鏡システム10以外の内視鏡が予め取得した内視鏡画像でもよく、内視鏡システム10以外の内視鏡が取得した内視鏡画像でもよい。
 対応付け部118は、第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像を生成する元になった第2照明光画像、又、構造強調画像の元になった第1照明光画像に表層形態分類を対応付け、第1学習用データとすることができる。対応付け部118は、プロセッサ装置14に具備されてもよく、内視鏡システム10以外の装置に具備されてもよい。上記の通り、表層形態分類を用い、学習用内視鏡画像に病理画像に基づく疾患の程度を付して第1学習用データを生成し、第1判定器80を構成することができる。
 学習済みモデルである第2判定器90は、第1照明光画像又は第2照明光画像が入力されることで、第1評価結果を出力することが好ましい。第2判定器90の学習に用いられる第2学習用データについて説明する。第2学習用データは、学習用内視鏡画像に、病理画像から得た第1評価結果を付した画像データのデータセットであることが好ましい。第2学習用データを生成する第2学習用データ生成部は、プロセッサ装置14に具備されてもよく、内視鏡システム10以外の装置に具備されてもよい。第2判定器90は、第2学習用データによる学習を行った上で内視鏡画像の判定を行い、第1評価結果を出力することが好ましい。
 第2学習用データに用いる学習用内視鏡画像に付される第1評価結果は、学習用内視鏡画像が撮像された位置と同じ位置で採取した生検組織から得た病理画像から医師が診断した評価結果である。病理画像の診断は、病理画像を診断する装置が行ってもよい。この場合、学習用内視鏡画像は、第1照明光画像でも、第2照明光画像でもよい。
 上記構成により、第1判定器80を用いた場合と同じく、生検を採取することなく、内視鏡画像から病理的評価を得ることができる。又、第2学習用データは確立された病理学に基づいて学習用のデータセットを生成しているため、データセットに対する信頼度は高い。さらに、人工知能により第1評価結果を出力するため、内視鏡画像が有する血管の形態、画素値及び輝度等、人間が理解できる所見は言うまでもなく、それ以外の所見まで含む多次元の特徴を基に第1評価結果を出力するため評価結果に高い精度が期待できる。
 画像判定部70が第1評価基準に基づき第1評価結果を出力する方法は次の(1)~(5)である。(1)図12に示すように、周波数領域画像生成部110が第2照明光画像60aから第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像(図12では「周波数領域画像110a」と記載)を生成し、第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像を画像処理ユニットとしての第1判定器80に入力し、第1評価結果80aを出力する。(2)図13に示すように、構造強調画像生成部120が第1照明光画像60bから構造強調画像120aを生成し、構造強調画像120aを画像処理ユニットとしての第1判定器80に入力し、第1評価結果80aを出力する。(3)図14に示すように、第2照明光画像60aを学習済みモデルとしての第1判定器80に入力し、第1判定器80が第1評価結果80aを出力する。(4)図15に示すように、第2照明光画像60aを第2判定器90に入力し、学習済みモデルである第2判定器90が第1評価結果90aを出力する。(5)図16に示すように、第1照明光画像60bを第2判定器90に入力し、学習済みモデルである第2判定器90が第1評価結果90aを出力する。上記の通りにして、内視鏡12が撮像した第1照明光画像又は第2照明光画像を用い、第1評価基準に基づき第1評価結果を出力することができる。
 第2評価基準は、内視鏡画像に基づく疾患の程度の評価基準であることが好ましい。第2評価基準は、疾患の程度を2段階で評価する基準であってもよく、又、寛解又は非寛解の中でさらに細かくサブクラスを分けた3段階以上の多段階評価であってもよい。疾患は、潰瘍性大腸炎であることが好ましい。第2評価基準が2段階である場合、疾患の程度は寛解又は非寛解の2段階であって、第2評価結果は「寛解」又は「非寛解」と出力される。この場合は、第2評価結果の出力が比較的簡単な処理となるため、プロセッサに負担をかけず、速く判定を行うことができる。第2評価基準が3段階以上の多段階である場合、寛解又は非寛解の2段階であるよりも、より詳細な判定を行うことができる。
 第2評価基準として、Mayo endoscopic subscore(MES)(表4)を用いることが好ましい。以降、第2評価結果のMESとしての出力については、簡単のため、例えばMESが「0」である場合を「Mayo0」と記載する。表1の通り、Mayo0~1は寛解(内視鏡的寛解)であり、Mayo2~3は非寛解(内視鏡的非寛解)である。画像判定部70は、内視鏡画像を「Mayo2」と判定した場合、第2評価結果として「Mayo2」と出力してもよく、「非寛解」と出力してもよい。又、第2評価基準として、UCEIS(Ulcerative colitis endoscopic index of severity) score等の、潰瘍性大腸炎の評価基準を用いてもよい。上記構成により、臨床で用いられる評価基準に基づいて評価結果を出力することができる。
Figure JPOXMLDOC01-appb-T000004
 又、第2評価基準を粘膜の赤みの程度、深層血管の血管透見度合い及び/又はびらん若しくは潰瘍の程度としてもよい。この場合、第2評価結果として、例えば、「発赤:軽度」「血管透見像:正常」「出血:中程度」のように出力することができる。上記構成により、内視鏡画像から第2評価基準に基づく所見として第2評価結果を出力することができる。
 第1評価基準及び第2評価基準は、表1に示すように、疾患を寛解とする範囲及び非寛解とする範囲を有し、第1評価基準で寛解とする範囲は、第2評価基準で疾患を寛解とする範囲よりも小さい。すなわち、病理的寛解とされる基準は、内視鏡的寛解とされる基準よりも厳しい。第1評価基準のうち、疾患を非寛解とする最低値である第1非寛解境界値は、第2評価基準のうち、疾患を非寛解とする最低値である第2非寛解境界値と異なり、第1非寛解境界値は、第2評価基準で疾患を寛解とする範囲に設定されることが好ましい。例えば、表1に示すように、第1評価基準で潰瘍性大腸炎を非寛解とする最低値は、「Geboes2B」である。一方、第2評価基準で潰瘍性大腸炎を非寛解とする最低値は、「Mayo2」である。「Geboes2B」は、第2評価基準であるMESに当てはめると、おおむね内視鏡的寛解とされる「Mayo1」の範囲内にある。このように、2つの評価基準において疾患を非寛解とする範囲が異なることにより、2つの異なる評価基準に基づいてそれぞれ評価結果を出力した際、一方の評価基準では寛解とされる範囲において、もう一方の評価基準では非寛解とされることがある。このズレが存在することにより、一方の評価基準における「隠れた非寛解」の見逃しを防ぐことができる。
 内視鏡画像を入力することにより第2評価結果を出力する、第3判定器100の学習に用いられる第3学習用データについて説明する。第3学習用データは、学習用内視鏡画像に、内視鏡画像から得た第2評価結果を付した画像データのデータセットであることが好ましい。第3学習用データを生成する第3学習用データ生成部は、プロセッサ装置14に具備されてもよく、内視鏡システム10以外の装置に具備されてもよい。第3判定器100は、第3学習用データによる学習を行った上で内視鏡画像の判定を行い、第2評価結果を出力することが好ましい。
 第3学習用データに用いる学習用内視鏡画像に付される第2評価結果は、学習用内視鏡画像を医師が診断した評価結果である。学習用内視鏡画像の診断は、内視鏡画像を診断する、第3判定器100以外のシステムが行ってもよい。この場合、学習用内視鏡画像は、第1照明光画像でも、第2照明光画像でもよい。すなわち、第3判定器100は、第1照明光画像と第2照明光画像の両方から、第2評価基準に基づいて第2評価結果を出力することができる。人工知能により第2評価結果を出力するため、内視鏡画像が有する血管の形態、画素値及び輝度等、人間が理解できる所見は言うまでもなく、それ以外の所見まで含む多次元の特徴を基に第2評価結果を出力するため評価結果に高い精度が期待できる。
 第2照明光画像を第3判定器100に入力し、第2評価結果を出力する場合、学習用内視鏡画像は、第1照明光画像が撮像された位置と近傍の位置で取得された第2照明光画像であってもよい。
 又、第2照明光画像を用いて第2評価結果を出力する場合、第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像を第3判定器100に入力し、第2評価結果を出力してもよい。この場合、第3学習用データは、第1周波数領域画像、第2周波数領域画像及び第3周波数領域画像に第2評価結果を付した画像データのデータセットであることが好ましい。
 画像判定部70は、内視鏡画像を入力し、第1評価結果と第2評価結果の両方を出力することが好ましい。第1評価結果と第2評価結果の両方を出力することで、内視鏡画像を多面的に評価することができる。
 上記の通り、画像判定部70が第2評価基準に基づき第2評価結果を出力する方法は次の(1)~(3)である。(1)図17に示すように、第1照明光画像60bを第3判定器100に入力し、第3判定器100が第2評価結果101を出力する。(2)図18に示すように、第2照明光画像60aを第3判定器100に入力し、第3判定器100が第2評価結果101を出力する。(3)図19に示すように、周波数領域画像生成部110が第2照明光画像60aから第1周波領域画像、第2周波数領域画像及び第3周波数領域画像(図12では「周波数領域画像110a」と記載)を生成し、第1周波領域画像、第2周波数領域画像及び第3周波数領域画像を第3判定器100に入力し、第3判定器100が第2評価結果101を出力する。
 画像判定部70が出力した第1評価結果及び/又は第2評価結果は、表示制御部130に送信される。表示制御部130は、図20に示すように、現在観察中の内視鏡画像132と、第1評価結果及び/又は第2評価結果を示す評価結果表示欄133とを表示する表示用画像131を生成し、ディスプレイ15に表示することが好ましい。
 画像判定部70は、1フレームの内視鏡画像に対して第1評価結果と第2評価結果の少なくとも一方を出力する。これ以降、1フレームの内視鏡画像に対して出力された第1評価結果を第1フレーム評価結果、1フレームの内視鏡画像に対して出力された第2評価結果を第2フレーム評価結果と呼ぶ。
 さらに、一定区間や一定時間で取得された複数のフレームの総合的な評価結果を得るため、第1フレーム評価結果又は第2フレーム評価結果を単位スコアとし、単位スコアを基に総合スコアとして総合評価結果を出力することが好ましい。総合評価結果は、総合評価結果算出部71が出力する。画像判定部70の第1判定器80、第2判定器90又は第3判定器100は、単位スコアである第1フレーム評価結果又は第2フレーム評価結果を出力し、総合評価結果算出部71に送信する(図2参照)。
 総合評価結果算出部71は、図21に示す、複数フレーム評価結果算出部72、及び、後述する複数領域評価結果算出部73を有する。複数フレーム評価結果算出部72は、第1フレーム評価結果又は第2フレーム評価結果を単位スコアとし、単位スコアを基に総合スコアとして第1複数フレーム評価結果又は第2複数フレーム評価結果を出力する。
 複数フレーム評価結果算出部72は、少なくとも2フレーム以上の内視鏡画像に係る第1評価結果を用いて算出される第1複数フレーム評価結果と、少なくとも2フレーム以上の内視鏡画像に係る第2評価結果を用いて算出される第2複数フレーム評価結果の少なくとも一方を出力することが好ましい。第1複数フレーム評価結果及び/又は第2複数フレーム評価結果は、表示制御部130に送信される。
 具体的には、複数フレーム評価結果算出部72は、第1複数フレーム評価結果を寛解又は非寛解の2段階で出力する場合は、病理的寛解の割合を示す百分率と、病理的非寛解の割合を示す百分率を出力する。又、病理的寛解と病理的非寛解の割合の高い一方の病理的状態を出力してもよく、病理的寛解と病理的非寛解のうち、割合が一定値以上の病理的状態を出力してもよい。第1複数フレーム評価結果をGHSのような多段階で出力する場合は、Geboes0の割合を示す百分率、Geboes1の割合を示す百分率、Geboes2Aの割合を示す百分率、Geboes2Bの割合を示す百分率、Geboes3の割合を示す百分率、Geboes4の割合を示す百分率、及び、Geboes5の割合を示す百分率を出力する。又、Geboes0~Geboes5のうち割合の最も高いGHSを出力してもよく、Geboes0~Geboes5のうち割合が一定値以上のGHSを出力してもよい。
 第2複数フレーム評価結果を寛解又は非寛解の2段階で出力する場合は、内視鏡的寛解の割合を示す百分率と、内視鏡的非寛解の割合を示す百分率を出力する。又、内視鏡的寛解と内視鏡非寛解の割合の高い一方の内視鏡的状態を出力してもよく、内視鏡的寛解と内視鏡的非寛解のうち、割合が一定値以上の内視鏡的状態を出力してもよい。又、第1複数フレーム部位評価結果をMESのような多段階で出力する場合は、Mayo0の割合を示す百分率、Mayo1の割合を示す百分率、Mayo2の割合を示す百分率、及び、Mayo3の割合を示す百分率を出力する。又、Mayo0~Mayo3のうち割合の最も高いMESを出力してもよいし、Mayo0~Mayo3のうち割合が一定値以上のMESを出力してもよい。
 複数フレーム評価結果は、少なくとも2フレーム以上の内視鏡画像に係る第1フレーム評価結果又は第2フレーム評価結果を用いて、任意の体内の区間や、複数の内視鏡画像が取得される任意の時間的な期間において出力されることが好ましい。上記構成により、評価結果を時空間的に総合した総合評価結果を得ることができる。
 図21に示すように、複数フレーム評価結果算出部72は、複数フレーム部位評価結果算出部140を有する。複数フレーム部位評価結果算出部140は、第1フレーム評価結果又は第2フレーム評価結果を単位スコアとし、単位スコアを基に総合スコアとして第1複数フレーム部位評価結果又は第2複数フレーム部位評価結果を出力する。
 複数フレーム部位評価結果算出部140は、少なくとも2フレーム以上の内視鏡画像に係る第1フレーム評価結果を用いて算出される第1複数フレーム部位評価結果と、少なくとも2フレーム以上の内視鏡画像に係る第2フレーム評価結果を用いて算出される第2複数フレーム部位評価結果の少なくとも一方を出力することが好ましい。第1複数フレーム部位評価結果及び/又は第2複数フレーム部位評価結果は、表示制御部130に送信され、図22~図25に示すように、表示用画像131に表示される。
 第1複数フレーム部位評価結果及び/又は第2複数フレーム部位評価結果は、消化管の解剖学的部位(食道、胃、十二指腸、空腸、回腸、盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸等)毎に出力されることが好ましい。解剖学的部位における第1フレーム評価結果に占める寛解と非寛解のフレーム数の多数決、又は第2フレーム評価結果に占める寛解と非寛解のフレーム数の多数決でもよい。複数フレーム部位評価結果は、解剖学的部位毎に得た第1フレーム評価結果に占める寛解と非寛解のフレーム数の割合を基に、「寛解」がA%、「非寛解」がB%、第2フレーム評価結果に占める寛解と非寛解のフレーム数の割合を基に、寛解」がC%、「非寛解」がD%と出力されてもよい。又、複数フレーム部位評価結果は、解剖学的部位毎に得た第1フレーム評価結果に占める各GHSの割合を基に、「Geboes0」がE%、「Geboes1」がF%……のように、多段階評価において百分率を求めて出力してもよい。複数フレーム部位評価結果は、平均、最大値及び最小値等の統計量でもよい。複数フレーム部位評価結果は、下行結腸を近位、中位、遠位に3分割する等、任意の区間において出力されることが好ましい。又、複数フレーム部位評価結果は、任意のタイミングで出力されることが好ましい。例えば、ユーザーが下行結腸の撮影を開始したタイミングと、撮影を終了したタイミングを入力し、終了タイミングで、撮影の開始から終了までに得た評価結果を用いて複数フレーム部位評価結果を出力してもよい。
 複数フレーム部位評価結果の表示方法の具体例について説明する。第1複数フレーム部位評価結果及び第2複数フレーム部位評価結果を出力した場合、図22に示すように、表示用画像131に現在観察中の内視鏡画像150と、複数フレーム部位評価結果表示欄151が表示される。図22に示す具体例では、複数フレーム部位評価結果表示欄151に、現在観察中の部位(下行結腸)において、「寛解」の第1複数フレーム部位評価結果がA%、「非寛解」の第1複数フレーム部位評価結果がB%、「寛解」の第2複数フレーム部位評価結果がC%、「非寛解」の第2複数フレーム部位評価結果がD%と示され、その近傍に複数フレーム部位評価結果と対応する棒グラフが表示される。
 図23に示すように、シェーマ図152を示し、現在観察中の部位を枠153で強調表示をしてもよい。複数フレーム部位評価結果表示欄151の内容は、図22に示す具体例と同様である。
 図24に示すように、大腸の三次元構造図154を示し、第1複数フレーム部位評価結果又は第2複数フレーム部位評価結果が「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示してもよい。複数フレーム部位評価結果表示欄151の内容は、図22に示す具体例と同様である。三次元構造図154は、予め記憶されたものでもよく、内視鏡画像からStructure from Motion等の手法を用いて生成してもよい。
 図25に示すように、大腸の位置を棒で表した簡易模式図158を示し、第1複数フレーム部位評価結果又は第2複数フレーム部位評価結果が「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示してもよい。複数フレーム部位評価結果表示欄151の内容は、図22に示す具体例と同様である。Rは直腸、SCはS状結腸、DCは下行結腸、TCは横行結腸、ACは上行結腸、Cは盲腸を示す。
 病変部位がスポット的に存在する疾患ではなく、面状に広がる潰瘍性大腸炎のような疾患においては、上記構成のように、ある程度広い範囲を評価する評価結果を示すことで、評価結果の視認性を向上させることができる。
 画像判定部70に、複数の領域に分割された内視鏡画像を入力し、分割された領域毎に第1評価結果又は第2評価結果の少なくとも一方を出力することが好ましい。この場合、医療画像取得部60が内視鏡画像を画像分割部160に送信し(図2参照)、画像分割部160が内視鏡画像を複数の領域に分割し、複数の領域に分割された内視鏡画像が画像判定部70に入力され、画像判定部70が第1評価結果又は第2評価結果の少なくとも一方を出力する。これ以降、1つの領域に対して出力された第1評価結果を第1領域評価結果、1つの領域に対して出力された第2評価結果を第2領域評価結果と呼ぶ。
 画像分割部160は、内視鏡画像を少なくとも2つ以上の複数の領域に分割する。例えば、内視鏡画像60cは、図26に示すような格子状の複数の領域に分割される。図26の具体例では、内視鏡画像60cが領域Aから領域Pまでの16枚の複数の領域に分割されている。なお、分割の形状は、格子状に限定されず、六角形等の多角形型や曲線からなる形状等、内視鏡画像を細分化できる形状であればよい。又、複数の領域は、場所によって形状、大きさが異なるランダムな形状に切り出されてもよい。
 画像判定部70は、図27に示すように、複数の領域に対して第1評価結果及び/又は第2評価結果を出力する。図27に示す具体例では、領域A~F、H、L~Pは、第1評価結果が「寛解」と出力され、領域G、I~Kは、第1評価結果が「非寛解」と出力されている。上記構成により、内視鏡画像の一部分に存在する病変等を細かく評価することができる。特に、病理的寛解を治療目標とする段階では、同一画像内でも、領域毎に病理結果が異なる場合があるため、フレーム単位ではなく、分割された小さな領域単位で第1評価結果をスポット的に出力することが好ましい場合がある。
 又、画像判定部70は、病変の評価を行うに先立ち、複数の領域毎に画像自体の質を判定した上で第1評価結果又は第2評価結果の少なくとも一方を出力することが好ましい。この場合、まず、医療画像取得部60が内視鏡画像を画像分割部160に送信し、画像分割部160が内視鏡画像を複数の領域に分割する。次に、複数の領域に分割された内視鏡画像が領域評価部170に入力され、領域評価部170が分割された複数の領域に対する領域評価指数を出力する。
 領域評価指数は、分割された内視鏡画像自体の質に対する評価値である。すなわち、領域評価指数が高いほど元の内視鏡画像の質が担保されており、第1評価結果及び第2評価結果に対する信頼性が高い。分割された複数の領域に領域評価指数が付された内視鏡画像が画像判定部70に入力され、画像判定部70が分割された領域毎に第1評価結果又は第2評価結果の少なくとも一方を出力する。
 この場合、画像分割部160は、病変部、又は、病変部でない評価阻害対象を判定可能な大きさで分割することが好ましい。評価阻害対象とは、第1評価結果又は第2評価結果の出力に適さず、判定の精度を低下させる原因となる構造物やアーティファクトのことを指す。例えば、図28に示すような観察対象を覆う水たまりや血だまり、過剰な薬液の液たまりなどの特定の液たまり部161、図29に示すような泡162が含まれる。又、図30に示すような、画像周辺部163に発生するひずみ(観察対象の撮像に用いられる対物レンズによるひずみ)や画像のボケ、又、ハレーション等の反射164が含まれる。さらに、内視鏡12の先端部12dにキャップ(フード)を装着し、内視鏡画像上にキャップの縁部165aが写り込んでいる場合、評価阻害対象には、図31に示すように、キャップの縁部165a、又は、図32に示すようにキャップの縁部165a及びキャップの外側165bも含まれる。
 領域に評価阻害対象が含まれず、内視鏡画像の判定を適切に行える場合、領域評価部170は領域評価指数を高く算出する。一方、領域に評価阻害対象が含まれる場合、領域評価部170は領域評価指数を低く算出する。
 領域評価指数の出力についての図33の具体例では、領域A~Pにそれぞれ領域評価指数が付されている。このうち、領域B(領域評価指数0.9)、領域E(領域評価指数0.8)、領域F(領域評価指数0.95)、領域G(領域評価指数0.95)、領域H(領域評価指数0.8)、領域I(領域評価指数0.8)、領域J(領域評価指数0.95)、領域K(領域評価指数0.95)、領域L(領域評価指数0.8)、領域N(領域評価指数0.9)及び領域O(領域評価指数0.9)は第1評価結果又は第2評価結果の出力を適切に行える領域である。一方、領域A、領域D、領域M及び領域P(領域評価指数0.5)は内視鏡の視野の端であるためひずみが生じ、領域C(領域評価指数0.05)は反射164があるため、第1評価結果又は第2評価結果の出力の精度が落ちる領域である。このため、評価阻害対象を含む領域A、領域C、領域D、領域M及び領域Pは、評価阻害対象を含まない領域B、領域E、領域F、領域G、領域H、領域I、領域J、領域K、領域L、領域N及び領域Oよりも領域評価指数が低く出力されている。
 領域評価部170は、複数の領域に分割された内視鏡画像のうち、領域評価用閾値以上の領域のみを抽出した抽出画像を生成し、抽出画像を画像判定部70に入力してもよい。上記構成により、質が低い領域を予め除外し、一定の質が担保された領域にのみ第1評価結果及び/又は第2評価結果を出力することができる。
 又、分割された領域に領域評価指数を付した内視鏡画像を画像判定部70に入力し、第1評価結果及び/又は第2評価結果を出力して表示用画像131を生成する場合、図34に示すように、領域評価指数が領域評価用閾値未満の領域を枠166で強調表示して注意を促すようにしてもよい。
 画像判定部70は、1フレームの内視鏡画像の分割された領域に対して第1評価結果と第2評価結果の少なくとも一方を出力するが、さらに、分割された領域に対する総合評価結果を得るため、分割された領域に対して出力された第1領域評価結果又は第2領域評価結果を単位スコアとし、単位スコアを基に総合スコアとして総合評価結果である複数領域評価結果を出力することが好ましい。複数領域評価結果は、図21に示す、総合評価結果算出部71の複数領域評価結果算出部73が出力する。画像判定部70の第1判定器80、第2判定器90又は第3判定器100は、単位スコアである第1領域評価結果又は第2領域評価結果を出力し、総合評価結果算出部71の複数領域評価結果算出部73に送信する(図2参照)。
 複数領域評価結果算出部73は、少なくとも2つ以上の分割された領域に対する第1領域評価結果を用いて算出される第1複数領域評価結果と、少なくとも2つ以上の分割された領域に対する第2評価結果を用いて算出される第2複数領域評価結果の少なくとも一方を出力することが好ましい。第1複数領域評価結果及び/又は第2複数領域評価結果は、表示制御部130に送信される。
 具体的には、複数領域評価結果算出部73は、第1複数領域評価結果を寛解又は非寛解の2段階で出力する場合は、病理的寛解の割合を示す百分率と、病理的非寛解の割合を示す百分率を出力する。又、病理的寛解と病理的非寛解の割合の高い一方の病理的状態を出力してもよく、病理的寛解と病理的非寛解のうち、割合が一定値以上の病理的状態を出力してもよい。第1複数フレーム評価結果をGHSのような多段階で出力する場合は、Geboes0の割合を示す百分率、Geboes1の割合を示す百分率、Geboes2Aの割合を示す百分率、Geboes2Bの割合を示す百分率、Geboes3の割合を示す百分率、Geboes4の割合を示す百分率、及び、Geboes5の割合を示す百分率を出力する。又、Geboes0~Geboes5のうち割合の最も高いGHSを出力してもよく、Geboes0~Geboes5のうち割合が一定値以上のGHSを出力してもよい。
 第2複数領域評価結果を寛解又は非寛解の2段階で出力する場合は、内視鏡的寛解の割合を示す百分率と、内視鏡的非寛解の割合を示す百分率を出力する。又、内視鏡的寛解と内視鏡非寛解の割合の高い一方の内視鏡的状態を出力してもよく、内視鏡的寛解と内視鏡的非寛解のうち、割合が一定値以上の内視鏡的状態を出力してもよい。又、第1複数フレーム部位評価結果をMESのような多段階で出力する場合は、Mayo0の割合を示す百分率、Mayo1の割合を示す百分率、Mayo2の割合を示す百分率、及び、Mayo3の割合を示す百分率を出力する。又、Mayo0~Mayo3のうち割合の最も高いMESを出力してもよいし、Mayo0~Mayo3のうち割合が一定値以上のMESを出力してもよい。
 複数領域評価結果は、少なくとも2つ以上の領域に係る第1領域評価結果又は第2領域評価結果を用いて、任意の体内の区間、複数の内視鏡画像が取得される任意の時間的な期間、1フレームの内視鏡画像内の任意の数の領域、及び、1フレームの内視鏡画像内の任意の領域を合わせた中領域において出力されることが好ましい。上記構成により、1フレームよりも細かい単位スコアを用いて、評価結果を時空間的に総合した総合評価結果を得ることができる。
 図21に示すように、複数領域評価結果算出部73は、複数領域フレーム評価結果算出部180を有する。複数領域フレーム評価結果算出部180は、第1領域評価結果又は第2領域評価結果を単位スコアとし、単位スコアを基に、1フレームの内視鏡画像毎の総合スコアとして、第1領域評価結果を用いて算出される第1複数領域フレーム評価結果と、第2領域評価結果を用いて算出される第2複数領域フレーム評価結果の少なくとも一方を出力する。
 第1複数領域フレーム評価結果及び/又は第2複数領域フレーム評価結果は、1フレームの内視鏡画像毎に出力されることが好ましい。1フレームの内視鏡画像における第1領域評価結果に占める寛解と非寛解の領域数の多数決、又は第2領域評価結果に占める寛解と非寛解の領域数の多数決でもよい。複数領域フレーム評価結果は、1フレームの内視鏡画像毎に得た第1領域評価結果に占める寛解と非寛解の領域数の割合を基に、「寛解」がA%、「非寛解」がB%、1フレームの内視鏡画像毎に得た第2領域評価結果に占める寛解と非寛解の領域数の割合を基に、「寛解」がC%、「非寛解」がD%と出力されてもよい。又、複数領域フレーム評価結果は、1フレームの内視鏡画像毎に得た第1領域評価結果に占める各GHSの割合を基に、「Geboes0」がE%、「Geboes1」がF%……のように、多段階評価において百分率を求めて出力してもよい。複数領域フレーム評価結果は、平均、最大値及び最小値等の統計量でもよい。
 第1複数領域フレーム評価結果及び又は第2複数領域フレーム評価結果は、表示制御部130に送信され、表示用画像131に表示される。この場合、例えば、図35に示すように、表示用画像131に現在観察中の内視鏡画像150と、複数領域フレーム評価結果表示欄181が表示される。現在観察中の内視鏡画像150には、領域の分割方法を示すグリッド線182を表示してもよい。図35に示す具体例では、複数領域フレーム評価結果表示欄181に、現在観察中の内視鏡画像150について、「寛解」の第1複数領域評価結果がA%、「非寛解」の第1複数領域評価結果がB%、「寛解」の第2複数領域評価結果がC%、「非寛解」の第2複数領域評価結果がD%と示され、その近傍に複数領域評価結果と対応する棒グラフが表示される。上記構成により、1フレームの内視鏡画像を分割した領域に対する評価結果を総合した総合評価結果を視認することができる。
 画像判定部70は、さらに、分割された領域を解剖学的部位で総合した評価結果を得るため、第1領域評価結果又は第2領域評価結果を単位スコアとし、単位スコアを基に、解剖学的部位毎の総合スコアとして、複数領域部位評価結果を出力することが好ましい。この場合、図21に示す複数部位領域評価結果算出部190は、第1領域評価結果を用いて算出される第1複数領域部位評価結果と、第2領域評価結果を用いて算出される第2複数領域部位評価結果の少なくとも一方を出力することが好ましい。
 第1複数領域部位評価結果及び/又は第2複数領域部位評価結果は、消化管の解剖学的部位毎に出力されることが好ましい。解剖学的部位における第1領域評価結果に占める寛解と非寛解の領域数の多数決、又は解剖学的部位における第2領域評価結果に占める寛解と非寛解の領域数の多数決でもよい。複数領域評価結果は、解剖学的部位毎に得た第1領域評価結果に占める寛解と非寛解の領域数の割合を基に、「寛解」がA%、「非寛解」がB%、解剖学的部位毎に得た第2領域評価結果に占める寛解と非寛解の領域数の割合を基に、「寛解」がC%、「非寛解」がD%と出力されてもよい。又、複数領域部位評価結果は、解剖学的部位毎に得た第1領域評価結果に占める各GHSの割合を基に、「Geboes0」がE%、「Geboes1」がF%……のように、多段階評価において百分率を求めて出力してもよい。複数領域部位評価結果は、平均、最大値及び最小値等の統計量でもよい。又、複数領域部位評価結果は、任意のタイミングで出力されることが好ましい。例えば、ユーザーが下行結腸の撮影を開始したタイミングと、撮影を終了したタイミングを入力し、終了タイミングで、撮影の開始から終了までに得た評価結果を用いて複数領域部位評価結果を出力してもよい。
 第1複数領域部位評価結果及び又は第2複数領域部位評価結果は、表示制御部130に送信され、表示用画像131に表示される。具体的には、図36~39に示すように、表示用画像131に現在観察中の内視鏡画像150と、複数領域部位評価結果表示欄191が表示される。複数領域部位評価結果表示欄191には、「寛解」の第1複数領域部位評価結果がA%、「非寛解」の第1複数領域部位評価結果がB%、「寛解」の第2複数領域部位評価結果がC%、「非寛解」の第2複数領域部位評価結果D%と示され、その近傍に複数領域部位評価結果と対応する棒グラフが表示される。上記構成により、分割した領域に対する評価結果を、解剖学的部位でさらに総合した総合評価結果を視認することができる。
 図22~25の複数フレーム部位評価結果を表示する具体例と同様に、図36では、現在観察中の部位が表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄191に表示されている。図37では、シェーマ図152を示し、現在観察中の部位が枠153で強調表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄191に表示されている。図38では、大腸の三次元構造図154が表示され、第1複数領域部位評価結果又は第2部複数領域部位評価結果が「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示させている。又、複数領域部位表示欄191には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。図39では、大腸の位置を棒で表した簡易模式図158を示し、第1複数領域部位評価結果又は第2複数領域部位評価結果の「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示している。複数領域部位評価結果表示欄191には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。
 又、複数領域フレーム評価結果及び複数領域部位評価結果を出力し、表示用画像に表示してもよい。この場合の具体例について図40~図43を用いて説明する。表示用画像131には、現在観察中の内視鏡画像150、複数領域フレーム評価結果表示欄181と、複数領域部位評価結果表示欄191が表示される。図40~図43に示す具体例では、複数領域フレーム評価結果表示欄181に、現在観察中のフレームにおいて、「寛解」の第1複数領域フレーム評価結果がA%、「非寛解」の第1複数領域フレーム評価結果がB%、「寛解」の第2複数領域フレーム評価結果がC%、「非寛解」の第2複数領域フレーム評価結果D%と示され、その近傍に複数領域フレーム評価結果と対応する棒グラフが表示される。さらに、複数領域部位評価結果表示欄191に、現在観察中の部位(下行結腸)における、「寛解」の第1複数領域部位評価結果がE%、「非寛解」の第1複数領域部位評価結果がF%、「寛解」の第2複数領域部位評価結果がG%、「非寛解」の第2複数領域部位評価結果がH%と示され、その近傍に複数領域部位評価結果と対応する棒グラフが表示される。
 図40では、現在観察中の部位(下行結腸)が表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄191に表示されている。図41では、シェーマ図152を示し、現在観察中の部位が枠153で強調表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄191に表示されている。図42では、大腸の三次元構造図154が表示され、第1複数領域部位評価結果又は第2複数領域部位評価結果が「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示させている。又、複数領域部位評価結果表示欄191には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。図43では、大腸の位置を棒で表した簡易模式図158を示し、第1複数領域部位評価結果又は第2複数領域部位評価結果の「寛解」の部位156と「非寛解」の部位157をそれぞれ反映させて表示している。複数領域部位評価結果表示欄191には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。上記構成により、分割した領域に対する評価結果を1フレームごとに総合した結果と、解剖学的部位ごとに総合した結果の両方を視認することができる。
 報知制御部200(図2参照)は、画像判定部70が出力した第1評価結果及び第2評価結果に合わせて、報知を行うことが好ましい。報知は、後述する特定の条件を満たす場合に、表示用画像131上に警告表示をすることで行うことが好ましい。警告表示は、図44及び図45に示すように、現在観察中の内視鏡画像150に警告表示枠201を設けることで行うことが好ましい。警告表示の表示形態はこれに限られず、警告マークや警告メッセージでもよい。又、報知は警告表示に限られず、音や光によって行ってもよい。
 報知を行う特定の条件について説明する。特定の条件の具体例を以下の(1)(A)から(4)(L)に示すが、これに限られない。
 (1)1フレームの内視鏡画像ごとに第1評価結果のみを出力する場合であって、(A)第1評価基準が2段階の場合に、第1評価結果が非寛解である、又は、(B)第1評価基準が多段階でGHSの場合に、第1評価結果がGeboes2B以上(「Geboes2B」「Geboes3」「Geboes4」「Geboes5」)である場合。
 (2)1フレームごとに第1評価結果及び第2評価結果を出力する場合であって、(C)第1評価基準が2段階の場合に、第1評価結果が非寛解である、(D)第1評価基準が多段階でGHSの場合に、第1評価結果がGeboes2B以上である、(E)第1評価基準及び第2評価基準が2段階の場合に、第2評価結果が寛解かつ第1評価結果が非寛解である、又は、(F)第1評価基準が多段階評価でGHS、かつ、第2評価基準が多段階でMESの場合に、第2評価結果がMayo1以下(「Mayo0」若しくは「Mayo1」)、かつ、第1評価結果がGeboes2B以上である。なお、(E)(F)について、第1評価基準と第2評価基準の一方が多段階であって、もう一方が2段階である場合にも、第1評価結果が「非寛解」に相当し、第2評価結果が「寛解」に相当するときは「特定の条件」を満たすとしてもよい。
 (3)内視鏡画像を複数の領域に分割し、領域に対する第1評価結果及び第2評価結果を出力する場合であって、(G)第1評価基準が2段階の場合に、1フレームの内視鏡画像内に第1評価結果が非寛解の領域が存在する、(H)第1評価基準が多段階でGHSの場合に、1フレームの内視鏡画像内に第1評価結果がGeboes2B以上の領域が存在する、(I)第1評価基準及び第2評価基準が2段階の場合に、1フレームの内視鏡画像内に第2評価結果が寛解かつ第1評価結果が非寛解の領域が存在する、又は、(J)第1評価基準が多段階評価でGHS、かつ、1フレームの内視鏡画像内に第2評価基準が多段階でMESの場合に、第2評価結果がMayo1以下、かつ、第1評価結果がGeboes2B以上の領域が存在する。なお、(I)(J)について、第1評価基準と第2評価基準の一方が多段階であって、もう一方が2段階である場合にも、第1評価結果が「非寛解」に相当し、第2評価結果が「寛解」に相当するときは「特定の条件」を満たすとしてもよい。
 (4)第1複数領域フレーム評価結果及び第2複数領域フレーム評価結果を出力する場合であって、(K)第1複数領域フレーム評価結果が第1領域総合報知条件を満たす場合。ここで、第1領域総合報知条件とは、第1複数領域フレーム評価結果が、(ア)非寛解若しくはGeboes2B以上、(イ)非寛解若しくはGeboes2B以上の領域を百分率で表す場合に、その百分率が第1領域総合報知用閾値以上、又は、(ウ)多数決で非寛解若しくはGeboes2B以上が多いことを示す。第1領域総合報知条件はこれに限られず、任意に設定してよい。又、(4)第1複数領域フレーム評価結果及び第2複数領域フレーム評価結果を出力する場合であって、(L)第1複数領域フレーム評価結果が第1領域総合報知条件を満たし、かつ、第2複数領域フレーム評価結果が第2領域総合報知条件を満たす場合を特定の条件とする。ここで、第2領域総合報知条件とは、第2複数領域フレーム評価結果が、(ア)寛解若しくはMayo1以下、(イ)寛解若しくはMayo1以下の領域を百分率で表す場合に、その百分率が第2領域総合報知用閾値以上、又は、(ウ)多数決で寛解若しくはMayo1以下が多いことを示す。第2領域総合報知条件はこれに限られず、任意に設定してよい。
 以上に特定の条件の具体例を示したが、総括すると、第1評価結果(若しくは第1複数領域フレーム評価結果)が非寛解の場合、又は、第2評価結果(若しくは第2複数領域フレーム評価結果)が寛解であり、かつ、第1評価結果(若しくは第1複数領域フレーム評価結果)が非寛解の場合を「特定の条件」とする。
 警告表示について、特定の条件のうち(1)(2)(4)を満たす場合は、最終的に1フレーム単位で「特定の条件」を満たすかどうかを決定するため、図44のように、現在観察中の内視鏡画像150の全体を警告表示枠201で囲むことで報知を行う。一方、特定の条件のうち(3)を満たす場合は、最終的に1つの領域単位で「特定の条件」を満たすかどうかを決定するため、図45のように、1つの領域(警告表示枠201で示す箇所)を警告表示枠201で囲むことで報知を行う。又、現在観察中の位置を知らせるため、表示用画像131にはシェーマ図152を表示してもよい。上記構成により、病理的寛解を治療目標とする場合において、内視鏡検査中、「内視鏡的寛解であるが、病理的非寛解である」状態の見逃しを防ぐことができる。
 第1実施形態における一連の流れについて図46を用いて説明する。まず、医療画像取得部60が、内視鏡画像を取得する(S101)。次に、画像判定部70が、第1評価結果と第2評価結果の少なくとも一方(図46では「評価結果」とする)を出力する(S102)。次に、総合評価結果算出部71が、第1複数フレーム部位評価結果及び/若しくは第2複数フレーム部位評価結果、第1複数領域フレーム評価結果及び/若しくは第2複数領域フレーム評価結果、並びに/又は、第1複数領域部位評価結果及び/若しくは第2複数領域部位評価結果(図46では「総合評価結果」とする)を出力する(S103)。次に、表示制御部130が表示用画像131を生成し(S104)、ここで、特定の条件を満たす場合は(S105)、報知を行うよう報知制御部が表示制御部130に指示を送信し(S106)、表示用画像131をディスプレイ15に表示する(S107)。
 第1実施形態では、1種類の内視鏡画像から、第1評価結果と第2評価結果の少なくとも一方を出力することができる。この場合、ユーザーの目的に応じて、出力する評価結果の種類を選択することができる。又、第1実施形態では、複数種類の内視鏡画像から、第1評価結果と第2評価結果の両方を出力することができる。この場合、複数種類の内視鏡画像を、複数種類の評価基準で評価するため、検査で得られた内視鏡画像を多面的に評価することができる。このため、一方の評価基準における「隠れた非寛解」の見逃しを防ぐことができる。
 さらに、第1実施形態では、単位スコアとしての第1評価結果と第2評価結果と、単位スコアを総合した総合スコアである総合評価結果を出力することができる。まとめると、1フレーム毎に評価結果を得る場合、単位スコアとして(1)フレーム評価結果を出力し、総合スコアとして(2)任意の区間又は期間における総合評価結果である複数フレーム評価結果を出力できる。複数フレーム評価結果としては、具体的な区間を設定した(3)解剖学的部位毎の総合評価結果である複数フレーム評価結果を出力できる。一方、内視鏡画像を分割した1つの領域毎に評価結果を得る場合、単位スコアとして(4)領域評価結果を出力し、総合スコアとして(5)任意の区間、期間又は中領域における総合評価結果である複数領域評価結果を出力できる。複数領域評価結果としては、具体的に、(6)1フレーム毎の総合評価結果である複数領域フレーム評価結果、及び(7)解剖学的部位毎の総合評価結果である複数領域フレーム部位評価結果を出力することができる。総合評価結果を出力することで、体内のある程度広がりをもった範囲の評価結果を得ることができる。病変部位がスポット的ではなく面状に広がる疾患である潰瘍性大腸炎では、広い範囲の評価結果を示すことで、疾患の程度を3次元的に認識でき、経過観察を行いやすくなる。
 [第2実施形態]
 第2実施形態は、第1実施形態における第1照明光モード及び第2照明光モードをモノ発光モードとし、モノ発光モードに加えて、照明光を自動的に切り替えられるマルチ発光モードを備える実施形態である。
 モノ発光モード及びマルチ発光モードは、モード切替スイッチ12fを操作することで、中央制御部50を介してモードが切り替えられる。モノ発光モードは、同一スペクトルの照明光(第1照明光又は第2照明光)を連続的に照射するモードである。マルチ発光モードは、異なるスペクトルの複数の照明光(第1照明光及び第2照明光)を、特定のパターンに従って切り替えながら照射し、被写体を照明するモードである。なお、モノ発光モードでは、第1照明光と第2照明光を切り替えられることが好ましい。
 マルチ発光モードの場合、特定の発光パターンに従って、1フレームF毎に、紫色光V、青色光B、緑色光G、赤色光Rの光量を変化させる制御が行われる。発光パターンの例を以下に挙げる。例えば、第1発光パターンでは、図47に示すように、第1照明光L1により被写体を照明する第1照明期間Pe1に、2フレーム分の第1照明光L1を発光し、第2照明光L2により被写体を照明する第2照明期間Pe2に、1フレーム分の第2照明光を順次発光するパターンを繰り返す。
 第2発光パターンでは、図48に示すように、第1照明期間Pe1に1フレームF分第1照明光L1を発光し、第2照明期間Pe2に第2照明光L2を4フレーム分発光するパターンを繰り返す。このとき、第2照明期間Pe2において、それぞれ発光スペクトルが異なる第2照明第1スペクトル光L2SP、第2照明第2スペクトル光L2SQ、第2照明第3スペクトル光L2SR、及び、第2照明第4スペクトル光L2SSを1フレームF毎に発光するよう自動的に切り替えられる。発光パターンはこれに限られず、任意に設定できる。
 マルチ発光モードでは、照明光を自動的に切り替えることで、消化管内のほぼ同じ位置において異なる照明光で照明した被写体の画像を取得することができる。マルチ発光モードでは、設定された発光パターンに従い、光源用プロセッサ21が各光源の光量調節を行って撮影を行う。なお、第1照明光と第2照明光の具体例については第1実施形態と共通するため記載を省略する。第2照明光は、少なくとも1種類以上であることが好ましい。
 マルチ発光モードでは、医師等のユーザーが見慣れている第1照明光画像を、現在観察中の内視鏡画像としてディスプレイ15に表示することが好ましい。又、ユーザーが見慣れていないが血管等の特定の構造物の解析を行うことに適する第2照明光画像を、画像解析や報知条件の決定に用い、通常は表示せず必要な場合に表示することが好ましい。上記構成により、特定の構造物に対する画像解析を行いつつ、医師が観察する画面には必要最小限の画像や情報を表示し、観察しやすくすることができる。
 表示用画像231には、図49に示すように、メイン区画210とサブ区画211を設け、メイン区画210に現在観察中の第1照明光画像212を、サブ区画に第2照明光画像213、シェーマ図252、及び、第1評価結果や第2評価結果を示す文字情報215等を表示することが好ましい。
 第2実施形態において、医療画像取得部60は、第1照明光画像及び第2照明光画像を取得する。医療画像取得部60は第1照明光画像及び第2照明光画像を画像判定部70に入力する。ここで、第2照明光画像が第1判定器80又は第2判定器90に入力されて第1評価基準に基づく第1評価結果を出力され、第1照明光画像が第3判定器100に入力されて第2評価基準に基づく第2評価結果を出力されることが好ましい。第1判定器80、第2判定器90及び第3判定器100については第1実施形態と共通するため記載を省略する。
 医療画像取得部60は、第1照明光画像及び第2照明光画像を画像分割部160に入力し、それぞれを複数の領域に分割することが好ましい。第1照明光画像を複数の領域に分割したそれぞれの領域のことを第1照明分割、第2照明光画像を複数の領域に分割したそれぞれの領域のことを第2照明分割と呼ぶ。画像判定部70に入力された第2照明分割としての第2照明光画像は、画像処理用ユニット又は学習済みモデルとしての第1判定器80又は第2判定器90に入力されて第1評価基準に基づく第1評価結果を出力されることが好ましい。又、画像判定部70に入力された第1照明分割としての第1照明光画像は、第3判定器100に入力されて第2評価基準に基づく第2評価結果を出力されることが好ましい。
 又、第1照明分割としての第1照明光画像、及び、第2照明分割としての第2照明光画像を領域評価部170に入力し、それぞれの第1照明分割及び第2照明分割に領域評価指数を付した上で画像判定部70に入力することが好ましい。
 マルチ発光モードでは、第2照明光画像を画像判定部70に入力して第1評価結果を出力し、第1照明光画像を画像判定部70に入力して第2評価結果を出力することで、第1評価結果と第2評価結果が出力され、第1評価結果及び第2評価結果が表示される表示用画像131を生成することが好ましい。
 1フレームの第2照明光画像、又は、第2照明分割としての第2照明光画像を用いて出力した第1評価結果は、総合評価結果算出部71に送信され、第1複数フレーム評価結果、第1複数フレーム部位評価結果、第1複数領域評価結果、第1複数領域フレーム評価結果、及び/又は、第1複数領域部位評価結果が出力されることが好ましい。又、1フレームの第1照明光画像、又は、第1照明分割としての第1照明光画像を用いて出力した第2評価結果は、総合評価結果算出部71に送信され、第2複数フレーム評価結果、第2複数フレーム部位評価結果、第2複数領域評価結果、第2複数領域フレーム評価結果、及び/又は、第2複数領域部位評価結果が出力されることが好ましい。複数フレーム評価結果、複数フレーム部位評価結果、複数領域評価結果、複数領域フレーム評価結果、及び、複数領域部位評価結果の出力については第1実施形態と共通するため、記載を省略する。
 この場合、複数領域フレーム評価結果及び複数領域部位評価結果を、表示用画像231に表示することが好ましい。その具体例について図50~図53を用いて説明する。表示用画像231のメイン区画210には、現在観察中の第1照明光画像212が表示される。サブ区画211には、現在観察中の第2照明光画像213、複数領域フレーム評価結果表示欄281、複数領域部位評価結果表示欄291が表示される。
 図50~図53に示す具体例では、複数領域フレーム評価結果表示欄281に、現在観察中の第1照明光画像212に係る「寛解」の第2複数領域フレーム評価結果がW%、「非寛解」の第2複数領域フレーム評価結果がX%と表示され、現在観察中の第2照明光画像213に係る「寛解」の第1複数領域フレーム評価結果がY%、「非寛解」の第1複数領域フレーム評価結果Z%と示され、その近傍に複数領域フレーム評価結果と対応する棒グラフが表示される。さらに、複数領域部位評価結果表示欄291に、現在観察中の部位(下行結腸)における、「寛解」の第2複数領域部位評価結果がP%、「非寛解」の第2複数領域部位評価結果がQ%、「寛解」の第1複数領域部位評価結果がR%、「非寛解」の第1複数領域部位評価結果S%と示され、その近傍に複数領域部位評価結果表示欄と対応する棒グラフが表示される。
 図50では、現在観察中の部位(下行結腸)が表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄291に表示されている。図51では、シェーマ図252を示し、現在観察中の部位が枠253で強調表示され、その部位に対する複数領域部位評価結果が複数領域部位評価結果表示欄291に表示されている。図52では、大腸の三次元構造図254が表示され、第1複数領域部位評価結果又は第2複数領域部位評価結果のが「寛解」の部位256と「非寛解」の部位257をそれぞれ反映させて表示させている。又、複数領域部位評価結果表示欄291には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。図53では、大腸の位置を棒状に表した簡易模式図258を示し、第1複数領域部位評価結果又は第2複数領域部位評価結果の「寛解」の部位256と「非寛解」の部位257をそれぞれ反映させて表示させている。又、複数領域部位評価結果表示欄291には、任意の部位又はこれまで撮影した全部位に対する複数領域部位評価結果を表示してもよい。
 又、表示用画像231には、図54~図57に示すように、複数領域フレーム評価結果表示欄281及び複数領域部位評価結果表示欄291を表示しなくてもよい。図54~図57には、現在観察中の第1照明光画像212及び現在観察中の第2照明光画像213が表示され、図54では現在観察中の部位が、図55では現在観察中の部位を枠253で強調表示したシェーマ図252が、図56では第1複数領域部位評価結果又は第2複数領域部位評価結果のが「寛解」の部位256と「非寛解」の部位257をそれぞれ反映させた大腸の三次元構造図254が、図57では第1複数領域部位評価結果又は第2複数領域部位評価結果の「寛解」の部位256と「非寛解」の部位257をそれぞれ反映させた、大腸の位置を棒状に表した簡易模式図258が、それぞれ表示されている。上記構成により、第1評価結果、第2評価結果、及び、総合評価結果の視認性を向上することができる。
 又、表示用画像231には、図58~図61に示すように、複数領域フレーム評価結果表示欄281、複数領域部位評価結果表示欄291、及び、現在観察中の第2照明光画像213を表示しなくてもよい。図58は図54において、図59は図55において、図60は図56において、図61は図57において、それぞれ現在観察中の第2照明光画像214を非表示にした表示形態である。
 第1実施形態と同様に、報知制御部200は、画像判定部70が出力した第1評価結果及び第2評価結果に合わせて、報知を行うことが好ましい。報知を行う特定の条件は第1実施形態と共通するため、記載を省略する。
 第2実施形態では、第1実施形態に記載した特定の条件のうち(1)(2)(4)を満たす場合は、最終的に1フレーム単位の第1照明光画像及び第2照明光画像で「特定の条件」を満たすかどうかを決定する。このため、特定の条件のうち(1)(2)(4)を満たす場合、図62のように、第1照明光画像212及び第2照明光画像213の全体を警告表示枠301で囲んで報知を行う。
 又、第2実施形態では、第1実施形態に記載した特定の条件のうち(3)を満たす場合、最終的に1つの第1照明領域又は第2照明領域単位で「特定の条件」を満たすかどうかを決定する。このため、特定の条件のうち(3)を満たす場合、図63のように、対応する第1照明光画像212の第1照明領域と、第2照明光画像213の第2照明領域とを、警告表示枠301で囲んで報知を行う。対応する第1照明領域と第2照明領域とは、時系列的に連続する、又は、近いフレームの第1照明光画像に係る第1照明領域と、第2照明光画像に係る第2照明領域の、位置的に対応する部分のことを指す。上記構成により、病理的寛解を治療目標とする場合において、内視鏡検査中のマルチ発光モード使用時に、「内視鏡的寛解であるが、病理的非寛解である」状態の見逃しを防ぐことができる。
 第2照明光画像を用いて出力した第1評価結果、及び、第1照明光画像を用いて出力した第2評価結果は、それぞれ対応付けてメモリ(図示しない)に保存されることが好ましい。又、第1評価結果を付した第2照明光画像、第2評価結果を付した第1照明光画像は、その第1照明光画像又は第2照明光画像を撮像した解剖学的部位の部位情報をさらに対応付けして保存されることが好ましい。
 第2実施形態では、医師が普段見慣れている白色光画像から内視鏡画像に基づく評価結果を出力し、さらに、白色光画像では把握できない情報として、血管等の特定の構造を解析できる特殊光画像から、病理画像に基づく評価結果を出力することができる。この場合、医師は普段見慣れている白色光画像を観察しながらも、白色光画像では見逃してしまう「隠れた非寛解」を医療画像処理装置のアシストにより認識することができる。
 本実施形態では、プロセッサ装置14が内視鏡システム10に接続されている例で説明をしたが、本発明はこれに限定されず、超音波画像撮影装置や放射線撮影装置等、他の医療用装置を用いてもよい。又、この内視鏡12は、硬性鏡又は軟性鏡が用いられてよい。又、内視鏡システム10のうち中央制御部50、医療画像取得部60、画像判定部70、総合評価結果算出部71、表示制御部130、画像分割部160、領域評価部170及び報知制御部200の一部又は全部は、例えばプロセッサ装置14と通信して内視鏡システム10と連携する画像処理装置に設けることができる。例えば、内視鏡システム10から直接的に、又は、PACSから間接的に、内視鏡12で撮像した画像を取得する診断支援装置に設けることができる。又、内視鏡システム10を含む、第1検査装置、第2検査装置、…、第N検査装置等の各種検査装置と、ネットワークを介して接続する医療業務支援装置に、内視鏡システム10のうち、中央制御部50、医療画像取得部60、画像判定部70、総合評価結果算出部71、表示制御部130、画像分割部160、領域評価部170及び報知制御部200の一部又は全部を設けることができる。
 本実施形態において、中央制御部50、医療画像取得部60、画像判定部70、総合評価結果算出部71、表示制御部130、画像分割部160、領域評価部170及び報知制御部200といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array) 等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよく、同種又は異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。又、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた形態の電気回路(circuitry)である。又、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 12f 観察モード切替スイッチ
 12h 静止画像取得指示スイッチ
 12i ズーム操作部
 12j 鉗子口
 13 光源装置
 14 プロセッサ装置
 15 ディスプレイ
 16 ユーザーインターフェース
 20 光源部
 20a V-LED
 20b B-LED
 20c G-LED
 20d R-LED
 21 光源用プロセッサ
 22 光路結合部
 23 ライトガイド
 30a 照明光学系
 30b 撮像光学系
 31 照明レンズ
 41 対物レンズ
 42 ズームレンズ
 43 撮像センサ
 44 撮像用プロセッサ
 50 中央制御部
 60 医療画像取得部
 60a、111a、118b、213 第2照明光画像
 60b、118a、212 第1照明光画像
 60c 内視鏡画像
 70 画像判定部
 71 総合評価結果算出部
 72 複数フレーム評価結果算出部
 73 複数領域評価結果算出部
 80 第1判定器
 80a、90a 第1評価結果
 81 粘膜内の出血
 82 粘膜外の出血
 90 第2判定器
 100 第3判定器
 101 第2評価結果
 110 周波数領域画像生成部
 110a 周波数領域画像
 112 マスク処理部
 112a マスク済み第2照明光画像
 113 周波数成分空間分布算出部
 114 周波数領域抽出部
 114a 第1周波数領域画像
 114b 第1周波数領域
 114c 第2周波数領域画像
 114d 第2周波数領域
 114e 第3周波数領域画像
 114f 第3周波数領域
 115 血管密度算出部
 115a 密度分布画像
 115b、115c、115d、117a、117b 密度分布画像上の領域
 116 輝度算出部
 116a 第2周波輝度分布画像
 116b、116c、117c、117d 第2周波輝度分布画像上の領域
 116d 第3周波輝度分布画像
 116e、116f、117e、117f 第3周波輝度分布画像上の領域
 117 第1評価結果出力部
 118 対応付け部
 118c 第1学習用データ
 120 構造強調画像生成部
 120a 構造強調画像
 130 表示制御部
 131、231 表示用画像
 132、150 観察中の内視鏡画像
 133 評価結果表示欄
 140 複数フレーム部位評価結果算出部
 151 複数フレーム部位評価結果表示欄
 152、252 シェーマ図
 153、253 枠
 154、254 三次元構造図
 156、157、256、257 総合評価結果
 158、258 簡易模式図
 160 画像分割部
 161 液たまり部
 162 泡
 163 画像周辺部
 164 反射
 165a キャップの縁部
 165b キャップ全域
 170 領域評価部
 180 複数領域フレーム評価結果算出部
 181、281 複数領域フレーム評価結果表示欄
 182 グリッド線
 190 複数領域部位評価結果算出部
 191、291 複数領域部位評価結果表示欄
 200 報知制御部
 201、301 警告表示枠
 210 メイン区画
 211 サブ区画
 215 文字情報
 

Claims (36)

  1.  プロセッサを備える医療画像処理装置であって、
     前記プロセッサは、
     1種類又は複数種類の照明光を被写体に照明して撮影された内視鏡画像を取得し、
     前記内視鏡画像を用いて、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、前記第1評価基準と互いに異なる第2評価基準に基づく第2評価結果との少なくとも一方を出力するよう構成される医療画像処理装置。
  2.  前記第1評価基準は、内視鏡と異なる撮像装置で撮像した画像に基づく疾患の程度の評価基準である請求項1に記載の医療画像処理装置。
  3.  前記内視鏡と異なる撮像装置で撮像された画像は、前記被写体から採取された生検組織の病理画像である請求項2に記載の医療画像処理装置。
  4.  前記プロセッサは、
     前記内視鏡画像を用いて、第1判定器により前記第1評価結果を出力するよう構成され、
     前記第1判定器は、予め記憶された、前記内視鏡画像と前記病理画像に基づく疾患の程度との対応関係である表層形態分類を用いて前記第1評価結果を出力する請求項3に記載の医療画像処理装置。
  5.  前記プロセッサは、
     前記内視鏡画像から第1周波数領域を抽出した第1周波数領域画像と、前記内視鏡画像から前記第1周波数領域と互いに異なる第2周波数領域を抽出した第2周波数領域画像と、前記第1周波数領域及び前記第2周波数領域と互いに異なる第3周波数領域を抽出した第3周波数領域画像とを生成し、
     前記第1周波数領域画像、前記第2周波数領域画像及び前記第3周波数領域画像を用いて、前記第1判定器により前記第1評価基準に基づく前記第1評価結果を出力するよう構成される請求項4に記載の医療画像処理装置。
  6.  前記プロセッサは、
     前記内視鏡画像を用いて、前記第1判定器と互いに異なる第2判定器により前記第1評価結果を出力するよう構成され、
     前記第2判定器は、学習用内視鏡画像と、前記病理画像に基づく疾患の程度と、を用いて学習されている請求項4に記載の医療画像処理装置。
  7.  前記第2評価基準は、前記内視鏡画像に基づく疾患の程度の評価基準である請求項1乃至6のいずれか1項に記載の医療画像処理装置。
  8.  前記プロセッサは、
     前記内視鏡画像を用いて、前記第1判定器及び前記第2判定器と互いに異なる第3判定器により前記第2評価結果を出力するよう構成され、
     前記第3判定器は、前記学習用内視鏡画像と、前記内視鏡画像に基づく疾患の程度と、を用いて学習されている請求項6に記載の医療画像処理装置。
  9.  前記第1評価基準は、前記疾患の程度を2段階で評価する前記内視鏡と異なる撮像装置で撮像された画像に基づく前記疾患の程度の評価基準であり、
     前記第2評価基準は、前記疾患の程度を2段階で評価する内視鏡画像に基づく前記疾患の程度の評価基準である請求項1乃至8のいずれか1項に記載の医療画像処理装置。
  10.  前記第1評価基準は、前記疾患の程度を3段階以上の多段階で評価する前記内視鏡と異なる撮像装置で撮影された画像に基づく前記疾患の程度の評価基準であり、
     前記第2評価基準は、前記疾患の程度を3段階以上の多段階で評価する内視鏡画像に基づく前記疾患の程度の評価基準である請求項1乃至9のいずれか1項に記載の医療画像処理装置。
  11.  前記疾患は潰瘍性大腸炎である請求項1乃至10のいずれか1項に記載の医療画像処理装置。
  12.  前記第1評価基準は、Geboes histopathology score、Riley score、Modified Riley score又はRobarts histopathology indexであり、
     前記第2評価基準は、Mayo endoscopic subscore又はUCEIS scoreである請求項1乃至11のいずれか1項に記載の医療画像処理装置。
  13.  前記第1評価基準は、表層血管の形態及び/又は出血の程度を含み、
     前記第2評価基準は、粘膜の赤みの程度、深層血管の血管透見度合い及び/又はびらん若しくは潰瘍の程度を含む請求項1乃至10のいずれか1項に記載の医療画像処理装置。
  14.  前記第1評価基準及び前記第2評価基準は、前記疾患を寛解とする範囲及び非寛解とする範囲を有し、
     前記第1評価基準で前記疾患を寛解とする範囲は、前記第2評価基準で前記疾患を寛解とする範囲よりも小さく、
     前記第1評価基準のうち、前記疾患を非寛解とする最低値である第1非寛解境界値は、前記第2評価基準のうち、前記疾患を非寛解とする最低値である第2非寛解境界値と異なり、
     前記第1非寛解境界値は、前記第2評価基準で前記疾患を寛解とする範囲に設定される請求項1乃至13のいずれか1項に記載の医療画像処理装置。
  15.  前記プロセッサは、
     1フレームの前記内視鏡画像ごとに前記第1評価結果と前記第2評価結果との少なくとも一方を出力し、
     少なくとも2フレーム以上の前記内視鏡画像に係る前記1評価結果を用いて算出される第1複数フレーム評価結果と、少なくとも2フレーム以上の前記内視鏡画像に係る前記第2評価結果を用いて算出される第2複数フレーム評価結果の少なくとも一方を出力して表示するよう構成される請求項1乃至14のいずれか1項に記載の医療画像処理装置。
  16.  前記プロセッサは、
     前記内視鏡画像を複数の領域に分割し、
     複数の前記領域に対し、前記第1評価結果と前記第2評価結果との少なくとも一方を出力するよう構成される請求項1乃至15のいずれか1項に記載の医療画像処理装置。
  17.  前記プロセッサは、
     複数の前記領域として分割された前記内視鏡画像に基づいて、複数の前記領域に対する領域評価指数を出力し、
     前記領域評価指数が付された複数の前記領域からなる前記内視鏡画像を用いて、複数の前記領域に対する前記第1評価結果と前記第2評価結果の少なくとも一方を出力するよう構成される請求項16に記載の医療画像処理装置。
  18.  前記プロセッサは、
     前記内視鏡画像の前記領域ごとに前記第1評価結果と前記第2評価結果との少なくとも一方を出力し、
     少なくとも2つ以上の前記領域に対する前記第1評価結果を用いて算出される第1複数領域評価結果と、少なくとも2つ以上の前記領域に対する前記第2評価結果を用いて算出される第2複数領域評価結果との少なくとも一方を出力するよう構成される請求項16又は17に記載の医療画像処理装置。
  19.  前記プロセッサは、
     前記第1複数領域評価結果と前記第2複数領域評価結果との少なくとも一方を、1フレームの前記内視鏡画像ごとに出力するよう構成される請求項18に記載の医療画像処理装置。
  20.  前記プロセッサは、
     第1照明光を前記被写体に照明して撮影された第1照明光画像を前記内視鏡画像として取得し、
     前記第1照明光画像を用いて、構造強調画像を生成し、
     前記構造強調画像を用いて、前記第1評価基準に基づく前記第1評価結果を出力するよう構成される請求項1乃至19のいずれか1項に記載の医療画像処理装置。
  21.  前記構造強調画像は、前記第1照明光画像の表面構造、色差、又はエッジ量を強調した画像である請求項20に記載の医療画像処理装置。
  22.  前記プロセッサは、
     前記第1照明光画像を用いて、前記第2評価基準に基づく前記第2評価結果を出力するよう構成される請求項20又は21に記載の医療画像処理装置。
  23.  前記第1照明光は、白色光である請求項20乃至22のいずれか1項に記載の医療画像処理装置。
  24.  前記プロセッサは、
     第1照明光を前記被写体に照明して撮影された第1照明光画像と前記第1照明光とスペクトルが異なる第2照明光を前記被写体に照明して撮影された第2照明光画像を含む複数の前記内視鏡画像を取得し、
     前記第2照明光画像を用いて前記第1評価基準に基づく前記第1評価結果を出力するよう構成される請求項1乃至19のいずれか1項に記載の医療画像処理装置。
  25.  前記プロセッサは、
     前記被写体に前記第1照明光を照明する第1照明期間と、前記被写体に少なくとも1種類以上の前記第2照明光を照明する第2照明期間とを自動的に切り替えるよう構成される請求項24に記載の医療画像処理装置。
  26.  前記第2照明光は、前記第1照明光よりも波長帯域が狭い請求項24又は請求項25に記載の医療画像処理装置。
  27.  前記第2照明光は、前記第1照明光よりも特定の青色または特定の紫色を多く含む請求項24乃至26のいずれか1項に記載の医療画像処理装置。
  28.  前記プロセッサは、
     前記第2照明光画像を複数の第2照明領域に分割し、
     前記複数の第2照明領域に対し、前記第1評価結果を出力するよう構成される請求項24乃至27のいずれか1項に記載の医療画像処理装置。
  29.  前記プロセッサは、
     前記第1評価結果及び前記第2評価結果を出力するよう構成される請求項1乃至28のいずれか1項に記載の医療画像処理装置。
  30.  前記プロセッサは、
     前記第1評価結果と、前記第2評価結果との組み合わせが特定の条件を満たす場合、報知を行うよう構成される請求項29に記載の医療画像処理装置。
  31.  前記報知を行うための前記特定の条件は、
     前記第1評価結果が非寛解の場合、又は、前記第2評価結果が寛解であり、かつ、前記第1評価結果が非寛解の場合である請求項30に記載の医療画像処理装置。
  32.  前記プロセッサは、
     前記内視鏡画像が表示されるディスプレイへの警告表示を行うことで前記報知を行う請求項30又は31に記載の医療画像処理装置。
  33.  前記プロセッサは、
     前記内視鏡画像、前記第1評価結果及び前記第2評価結果をディスプレイに表示させる請求項30乃至32のいずれか1項に記載の医療画像処理装置。
  34.  前記プロセッサは、
     前記第1評価結果及び前記第2評価結果を出力した前記被写体における部位情報、前記第1評価結果、並びに、前記第2評価結果を関連付けて保存するよう構成される請求項30乃至33のいずれか1項に記載の医療画像処理装置。
  35.  請求項1乃至34のいずれか1項に記載の医療画像処理装置と、
     照明光を照射する光源装置と、
     前記内視鏡画像を撮像する内視鏡とを備える内視鏡システム。
  36.  1種類又は複数種類の照明光を被写体に照明して撮影された内視鏡画像を取得するステップと、
     前記内視鏡画像を用いて、疾患の程度の評価基準である第1評価基準に基づく第1評価結果と、前記第1評価基準と互いに異なる第2評価基準に基づく第2評価結果との少なくとも一方を出力するステップと、を有する医療画像処理装置の作動方法。
PCT/JP2022/035958 2021-10-04 2022-09-27 内視鏡システム、医療画像処理装置及びその作動方法 WO2023058503A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023552817A JPWO2023058503A1 (ja) 2021-10-04 2022-09-27

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021163712 2021-10-04
JP2021-163712 2021-10-04

Publications (1)

Publication Number Publication Date
WO2023058503A1 true WO2023058503A1 (ja) 2023-04-13

Family

ID=85804272

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035958 WO2023058503A1 (ja) 2021-10-04 2022-09-27 内視鏡システム、医療画像処理装置及びその作動方法

Country Status (2)

Country Link
JP (1) JPWO2023058503A1 (ja)
WO (1) WO2023058503A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121906A1 (ja) * 2018-12-13 2020-06-18 ソニー株式会社 医療支援システム、医療支援装置及び医療支援方法
WO2021006121A1 (ja) * 2019-07-08 2021-01-14 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
WO2021157392A1 (ja) * 2020-02-07 2021-08-12 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121906A1 (ja) * 2018-12-13 2020-06-18 ソニー株式会社 医療支援システム、医療支援装置及び医療支援方法
WO2021006121A1 (ja) * 2019-07-08 2021-01-14 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
WO2021157392A1 (ja) * 2020-02-07 2021-08-12 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Artificial Intelligence (AI) Enables Endoscopic Image Evaluation of Ulcerative Colitis!" -Experimental Development of Computer Image Support System (DNUC)- 「人工知能(AI)により潰瘍性大腸炎の内視鏡画像評価が可能に!」 -コンピューター画像支援システム(DNUC)を試験的に開発", NATIONAL UNIVERSITY CORPORATION TOKYO MEDICAL AND DENTAL UNIVERSITY, 2 March 2020 (2020-03-02), pages 1 - 6, XP093057005, [retrieved on 20230622] *
LEMMENS, Bart et al. Correlation Between the Endoscopic and Histologic Score in Assessing the Activity of Ulcerative Colitis. INFLAMMATORY BOWEL DISEASES. 01 May 2013, vol. 19, no. 6, pp. 1194-1201 *
OKUSA TOSHIFUMI, TARO NAGATA , TAKESHI TERAI , NOBUHIRO SATO , ISAO OKAYASU: "Evaluation of endoscopic and histological images before and after treatment for ulcerative colitis -Proposal of seven-section colonoscopy and histological score summation method", vol. 48, no. 4, 1 April 2006 (2006-04-01), pages 977 - 986, XP093055869 *
TAKENAKA KENTO; OHTSUKA KAZUO; FUJII TOSHIMITSU; NEGI MARIKO; SUZUKI KOHEI; SHIMIZU HIROMICHI; OSHIMA SHIORI; AKIYAMA SHINTARO; MO: "Development and Validation of a Deep Neural Network for Accurate Evaluation of Endoscopic Images From Patients With Ulcerative Colitis", GASTROENTEROLOGY, ELSEVIER INC., US, vol. 158, no. 8, 12 February 2020 (2020-02-12), US , pages 2150 - 2157, XP086171054, ISSN: 0016-5085, DOI: 10.1053/j.gastro.2020.02.012 *

Also Published As

Publication number Publication date
JPWO2023058503A1 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
JP6785941B2 (ja) 内視鏡システム及びその作動方法
JP7346285B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
US11426054B2 (en) Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus
JP6831463B2 (ja) 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
JP5242381B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP7337073B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
WO2020162275A1 (ja) 医療画像処理装置、内視鏡システム、及び医療画像処理方法
JP7289296B2 (ja) 画像処理装置、内視鏡システム及び画像処理装置の作動方法
JP7125479B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP2023115352A (ja) 医療画像処理装置、医療画像処理システム、医療画像処理装置の作動方法及び医療画像処理プログラム
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6858672B2 (ja) 医療画像処理システム及び内視鏡システム
WO2020170809A1 (ja) 医療画像処理装置、内視鏡システム、及び医療画像処理方法
JP2020065685A (ja) 内視鏡システム
JPWO2020040087A1 (ja) 医療画像処理システム
JP7389257B2 (ja) 内視鏡システム及びその作動方法
US20230237659A1 (en) Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium
JP7113903B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及びプログラム、内視鏡システム
WO2023058503A1 (ja) 内視鏡システム、医療画像処理装置及びその作動方法
US20230101620A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
JP7386347B2 (ja) 内視鏡システム及びその作動方法
JP7402314B2 (ja) 医用画像処理システム、医用画像処理システムの作動方法
WO2022209390A1 (ja) 内視鏡システム及びその作動方法
JP7506159B2 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22878373

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023552817

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE