WO2022071413A1 - 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム - Google Patents

画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム Download PDF

Info

Publication number
WO2022071413A1
WO2022071413A1 PCT/JP2021/035912 JP2021035912W WO2022071413A1 WO 2022071413 A1 WO2022071413 A1 WO 2022071413A1 JP 2021035912 W JP2021035912 W JP 2021035912W WO 2022071413 A1 WO2022071413 A1 WO 2022071413A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
candidate
analysis processing
display
types
Prior art date
Application number
PCT/JP2021/035912
Other languages
English (en)
French (fr)
Inventor
広樹 渡辺
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP21875711.0A priority Critical patent/EP4223203A4/en
Priority to CN202180067690.0A priority patent/CN116322465A/zh
Priority to JP2022554050A priority patent/JPWO2022071413A1/ja
Publication of WO2022071413A1 publication Critical patent/WO2022071413A1/ja
Priority to US18/191,882 priority patent/US20230237659A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Definitions

  • the present invention relates to an image processing device for obtaining diagnostic support information, an endoscope system, an operation method of the image processing device, and a program for the image processing device.
  • an endoscope system equipped with a light source device, an endoscope, and a processor device is widely performed.
  • a doctor displays an image obtained by taking an image of an observation object with an endoscope (hereinafter referred to as an endoscopic image) on a display or the like in a natural color and uses it for diagnosis.
  • the observation target is diagnosed using various endoscopic images highlighting the structure such as color or blood vessel.
  • CAD Computer-Aided Diagnosis
  • an endoscopic system that determines the severity or progression of a disease such as the stage of ulcerative colitis with high accuracy by using various endoscopic images obtained by IEE (Patent Document 1).
  • an endoscope device that obtains diagnostic support information after selecting an image having a brightness suitable for CAD (Patent Document 2).
  • IEE endoscopic image
  • the endoscopic image obtained by IEE which has good visibility for humans, may not always be an endoscopic image from which diagnostic support information can be satisfactorily obtained by image analysis by CAD or the like. That is, although visibility is poor for humans, there may be an endoscopic image suitable for image analysis by CAD or the like. Therefore, there is a possibility that more accurate diagnostic support information can be obtained by performing CAD or the like using an endoscopic image of an appropriate type for image analysis by CAD or the like.
  • a doctor by obtaining detailed diagnostic support information in real time during endoscopy using CAD or the like, for example, a doctor discovers a region with a high possibility of a lesion, and this is performed in one endoscopy. You can examine the area in detail. In this case, it is preferable because it is not necessary to perform another endoscopy, but it is necessary to quickly obtain diagnostic support information during the examination. Further, from the viewpoint of reducing the burden on the subject of endoscopy and improving the efficiency of endoscopy, it is preferable to quickly obtain diagnostic support information while performing CAD or the like.
  • An object of the present invention is to provide an image processing device, an endoscope system, an operation method of the image processing device, and a program for the image processing device, which can obtain diagnostic support information quickly and with high accuracy.
  • the image processing apparatus of the present invention includes an image processor.
  • the image processor acquires a plurality of types of candidate images based on the endoscopic image obtained by photographing the observation target with the endoscope, and is based on at least one type of candidate image among the plurality of types of candidate images. Control is performed to display the displayed image on the display, the first analysis processing is performed on one or a plurality of types of preset candidate images among the plurality of types of candidate images, and the first analysis processing result obtained by the first analysis processing is obtained. Based on this, at least one type of candidate image is selected as the optimum image from the plurality of types of candidate images, and the second analysis processing is performed on the optimum image to obtain the second analysis processing result.
  • the image processor controls to display the second analysis processing result on the display.
  • the image processor controls to superimpose and display the second analysis processing result on the display image.
  • the first analysis process and the second analysis process are analysis processes having different contents from each other.
  • a candidate image is generated by performing enhancement processing on the endoscopic image, and the image processor distinguishes the types of candidate images according to the presence or absence or type of enhancement processing and acquires a plurality of types of candidate images.
  • the enhancement process is preferably a color enhancement process and / or a structure enhancement process.
  • the endoscope system of the present invention includes an image processing device and a light source unit that emits illumination light to irradiate the observation target.
  • the image processor may acquire an endoscopic image obtained by photographing an observation target illuminated by each of a plurality of types of illumination light having different spectral spectra from each other emitted by a light source unit as candidate images of different types. preferable.
  • the light source unit repeatedly emits each of a plurality of types of illumination light having different spectral spectra in a light emission cycle having a preset order.
  • the image processor preferably selects at least one optimum image from a plurality of types of candidate images obtained in one light emission cycle.
  • the first illumination light is emitted by the first emission pattern during the first illumination period
  • the second illumination light is emitted by the second emission pattern during the second illumination period
  • the first illumination light and the second illumination light are switched.
  • the processor for the light source, the first endoscope image obtained by photographing the observation object illuminated by the first illumination light, and the second endoscope obtained by photographing the observation object illuminated by the second illumination light includes an image pickup sensor that outputs an image, and acquires a first endoscope image and a second endoscope image as candidate images.
  • the image processor acquires an endoscopic image obtained by photographing an observation target illuminated by white illumination light emitted by a light source unit as one of the candidate images.
  • the image processor may acquire an endoscopic image obtained by photographing an observation target illuminated by illumination light including a narrow band light having a preset wavelength band emitted by a light source unit as one of the candidate images. preferable.
  • the method of operating the image processing device of the present invention includes a candidate image acquisition step of acquiring a plurality of types of candidate images based on an endoscope image obtained by photographing an observation target using an endoscope, and a plurality of types.
  • a display image control step for controlling the display of a display image based on at least one type of candidate image among the candidate images of the above, and a first for one or a plurality of types of preset candidate images among a plurality of types of candidate images.
  • a second analysis processing step for obtaining a second processing result by performing a second analysis processing on the optimum image is provided.
  • the program for an image processing apparatus of the present invention has a candidate image acquisition function for acquiring a plurality of types of candidate images based on an endoscopic image obtained by photographing an observation target with an endoscope on a computer.
  • a display control function that controls the display of a display image based on at least one type of candidate image among a plurality of types of candidate images, and a preset one or a plurality of types of candidate images among a plurality of types of candidate images.
  • Optimal image selection function that selects at least one type of candidate image from a plurality of types of candidate images as the optimal image based on the first analysis processing function that performs one analysis processing and the first analysis processing result obtained by the first analysis processing.
  • This is a program for an image processing device for realizing a second analysis processing function for obtaining diagnostic support information by performing a second analysis processing on an optimum image.
  • diagnostic support information can be obtained quickly and with high accuracy.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a display 18, and a keyboard 19.
  • the endoscope 12 photographs the observation target.
  • the light source device 14 emits illumination light to irradiate the observation target.
  • the processor device 16 controls the system of the endoscope system 10.
  • the display 18 is a display unit that displays a display image based on the endoscopic image, diagnostic support information, and the like.
  • the keyboard 19 is an input device for inputting settings to the processor device 16 and the like.
  • the endoscope system 10 includes three modes as an observation mode: a normal observation mode, a special observation mode, and a diagnosis support mode.
  • a normal observation image having a natural hue is displayed on the display 18 as a display image by irradiating the observation target with normal light such as white light and taking a picture.
  • a special observation mode a special image emphasizing a specific structure or the like is displayed on the display 18 as a display image by illuminating the observation target with special light having a wavelength band or a spectral spectrum different from that of normal light.
  • the diagnosis support mode in addition to displaying the displayed image on the display 18, the diagnosis support information is obtained and notified to the doctor or the like who is the user of the endoscope system 10.
  • the notification of the diagnostic support information is performed by displaying it on the display 18 or by any other method. When displaying on the display 18, for example, it may be superimposed on the display image or displayed on the display 18 separately from the display image.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject having an observation target, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a bending portion 12c provided on the distal end side of the insertion portion 12a. It has a tip portion 12d.
  • the operation unit 12b is provided with a treatment tool insertion port (not shown), a scope button No. 1 12f, a scope button No. 2 12g, and a zoom operation unit 12h.
  • the treatment tool insertion port is an entrance for inserting a treatment tool such as a biopsy forceps, a snare, or an electric knife.
  • the treatment tool inserted into the treatment tool insertion port protrudes from the tip portion 12d.
  • Various operations can be assigned to the scope button.
  • the scope button No. 1 12f is a freeze button and is used for an operation of acquiring a still image.
  • the scope button No. 2 12g is used for the operation of switching the observation mode. By operating the zoom operation unit 12h, the observation target can be enlarged or reduced for shooting.
  • the light source device 14 includes a light source unit 20 including a light source that emits illumination light, and a light source processor 22 that controls the operation of the light source unit 20.
  • the light source unit 20 emits illumination light that illuminates the observation target.
  • the illumination light includes light emission such as excitation light used to emit the illumination light.
  • the light source unit 20 includes, for example, a light source of a laser diode, an LED (Light Emitting Diode), a xenon lamp, or a halogen lamp, and is used to emit at least white illumination light (hereinafter referred to as white light) or white light. It emits an excitation light.
  • the white color includes so-called pseudo-white color, which is substantially equivalent to white color in the imaging of the observation target using the endoscope 12.
  • the light source unit 20 includes, if necessary, a phosphor that emits light when irradiated with excitation light, an optical filter that adjusts the wavelength band, spectral spectrum, light amount, etc. of the illumination light or excitation light.
  • the light source unit 20 can emit illumination light composed of at least narrow band light (hereinafter referred to as narrow band light).
  • narrow band light means a substantially single wavelength band in relation to the characteristics of the observation target and / or the spectral characteristics of the color filter of the image sensor (imaging sensor) 45. For example, when the wavelength band is about ⁇ 20 nm or less (preferably about ⁇ 10 nm or less), this light is a narrow band.
  • the light source unit 20 can emit a plurality of types of illumination light having different spectral spectra from each other.
  • the plurality of types of illumination light may include narrow band light.
  • the light source unit 20 may emit light having a specific wavelength band or spectral spectrum necessary for capturing an image used for calculating biological information such as oxygen saturation of hemoglobin contained in the observation target, for example. can.
  • the light source unit 20 has four color LEDs of V-LED20a, B-LED20b, G-LED20c, and R-LED20d.
  • the V-LED 20a emits purple light V having a center wavelength of 405 nm and a wavelength band of 380 to 420 nm.
  • the B-LED 20b emits blue light B having a center wavelength of 460 nm and a wavelength band of 420 to 500 nm.
  • the G-LED 20c emits green light G having a wavelength band of 480 to 600 nm.
  • the R-LED 20d emits red light R having a center wavelength of 620 to 630 nm and a wavelength band of 600 to 650 nm.
  • the center wavelengths of the V-LED 20a and the B-LED 20b have a width of about ⁇ 20 nm, preferably about ⁇ 5 nm to about ⁇ 10 nm.
  • the purple light V is a short-wavelength light used to emphasize and display superficial blood vessels, dense parts of superficial blood vessels, intramucosal hemorrhage, extramucosal hemorrhage, etc. used in the special observation mode or the diagnostic support mode. , It is preferable to include 410 nm in the center wavelength or the peak wavelength. Further, the purple light V and / or the blue light B is preferably narrow band light.
  • the light source processor 22 controls the timing of turning on, off, or blocking each light source constituting the light source unit 20, the light intensity, the amount of light emitted, and the like. As a result, the light source unit 20 can emit a plurality of types of illumination light having different spectral spectra for a preset period and emission amount.
  • the light source processor 22 turns on and off the V-LED20a, B-LED20b, G-LED20c, and R-LED20d, the light intensity or the amount of light emitted at the time of lighting, the insertion and removal of the optical filter, and the like. It is controlled by inputting an independent control signal to each.
  • the light source processor 22 independently controls each of the LEDs 20a to 20d to independently change the light intensity or the amount of light per unit time for purple light V, blue light B, green light G, or red light R. It can emit light. Therefore, the light source processor 22 can emit a plurality of types of illumination light having different spectral spectra, for example, illumination consisting of white illumination light, a plurality of types of illumination light having different spectral spectra, or at least narrow band light. It emits light, etc.
  • the light source processor 22 emits white light having a light intensity ratio of Vc: Bc: Gc: Rc among purple light V, blue light B, green light G, and red light R.
  • Vc white light having a light intensity ratio of Vc: Bc: Gc: Rc among purple light V, blue light B, green light G, and red light R.
  • Each LED 20a to 20d is controlled. It should be noted that each of Vc, Bc, Gc, or Rc is larger than 0 (zero) and is not 0.
  • the light source processor 22 has a light intensity ratio of Vs: Bs: Gs: Rs with purple light V, blue light B, green light G, and red light R as short-wavelength narrow-band light.
  • Each LED 20a to 20d is controlled so as to emit the special light.
  • the light intensity ratio Vs: Bs: Gs: Rs is different from the light intensity ratio Vc: Bc: Gc: Rc used in the normal observation mode, and is appropriately determined according to the observation purpose. Therefore, the light source unit 20 can emit a plurality of types of special light having different spectral spectra from each other under the control of the light source processor 22.
  • Vs when emphasizing superficial blood vessels, Vs is preferably larger than other Bs, Gs, and Rs, and when emphasizing mesopelagic blood vessels, Gs is referred to as other Vs, Gs, and Rs. It is preferably larger than Rs.
  • the light intensity ratio excluding Vc, Bc, Gc, or Rc includes the case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, this includes the case where any one or more of the semiconductor light sources are not lit. For example, as in the case where the light intensity ratio between purple light V, blue light B, green light G, and red light R is 1: 0: 0: 0, only one of the semiconductor light sources is turned on, and the other three. Even if one does not light up, it shall have a light intensity ratio.
  • the light source processor 22 automatically switches and emits a plurality of types of illumination lights having different spectral spectra in order to acquire a plurality of types of candidate images in the diagnostic support mode. It is preferable that each of the plurality of types of illumination light is repeatedly emitted in a preset order. Therefore, it is preferable that each of the plurality of types of illumination light forms a specific pattern having a preset order, and the illumination light emits the specific pattern repeatedly.
  • the light source processor 22 emits the first illumination light in the first emission pattern in the first illumination period, and emits the second illumination light in the second emission pattern in the second illumination period.
  • the illumination light emitted during the first illumination period is the first illumination light
  • the illumination light emitted during the second illumination period is the second illumination light.
  • the first illumination light is preferably white light in order to obtain an endoscopic image used for the display image.
  • the second illumination light is used for the recognition process, it is preferable that the second illumination light is a special light that can obtain an image suitable for the computer to perform a specific analysis process by illuminating the observation target. For example, when performing an analysis process on a surface blood vessel, it is preferable to use purple light V as the second illumination light.
  • the first illumination light and the second illumination light may include a plurality of types of illumination light having different spectral spectra.
  • the first light emission pattern is the light emission order of the first illumination light
  • the second light emission pattern is the light emission order of the second illumination light
  • the element constituting each light emission pattern is a frame which is a unit of photography. ..
  • the frame means a period including at least a period from a specific timing in the image sensor 45 to the completion of signal reading.
  • One shooting and image acquisition are performed in one frame.
  • the first illumination light and the second illumination light emit either one, and do not emit at the same time.
  • One light emission cycle is composed of at least one first light emission pattern and a second light emission pattern, respectively, and the first light emission pattern and the second light emission pattern are combined to form a light emission cycle. Illumination is performed by repeating the light emission cycle.
  • the light source unit 20 repeatedly emits each of a plurality of types of illumination light having different spectral spectra in a light emission cycle having a preset order. Details such as the number of frames constituting each of the first light emission pattern and the second light emission pattern, the type of illumination light, and the like are set in advance.
  • the first light emission pattern is preferably the first A light emission pattern or the first B light emission pattern.
  • the number of frame FLs of the first illumination light L1 in the first illumination period P1 is the same in each first illumination period P1. Therefore, in the light emission cycle Q1, the number of frame FLs of the first illumination light L1 in the first illumination period P1 is set to two.
  • the number of frame FLs in the first illumination period P1 is different in each first illumination period P1. Therefore, in the light emission cycle Q2, the number of frames FL of the first illumination light L1 in the first illumination period P1 includes two cases and three cases.
  • the first illumination light L1 has the same spectral spectrum and is white light.
  • the second light emission pattern is preferably a second A light emission pattern, a second B light emission pattern, a second C light emission pattern, or a second D light emission pattern.
  • the number of frame FLs of the second illumination light L2a in the second illumination period P2 is the same in each second illumination period P2. Therefore, in the light emission cycle Q1, the number of frames FL of the second illumination light L2a in the second illumination period P2 is set to one.
  • the second illumination light L2 may include illumination light having a different spectral spectrum, and these are described as the second illumination light L2a and the second illumination light L2b to distinguish them, and are described as the second illumination light L2. In some cases, these are collectively referred to.
  • the second illumination light L2 when the second illumination light L2 is the second illumination light L2b, the second illumination light L2b is emitted with one frame FL in the second illumination period P2. As shown in FIG. 5, in the light emission cycle Q2, the second illumination light L2 is emitted in the second A light emission pattern as in the light emission cycle Q1.
  • the number of frames FL of the second illumination period P2 is the same in each second illumination period P2, and the spectral spectrum of the second illumination light L2 is the same. Is the second illumination light L2a or the second illumination light L2b in each of the second illumination periods P2, and is different.
  • the number of frames FL of the second illumination period P2 is different in each second illumination period P2, and the spectral spectra of the second illumination light L2 are different from each other.
  • the second illumination light L2a is the same in the second illumination period P2 of the above.
  • the number of frames FL of the second illumination period P2 is different in each second illumination period P2, and the spectral spectra of the second illumination light P2 are different from each other.
  • the second illumination light 2La or the second illumination light 2Lb in the second illumination period P2 of the above is different.
  • the light source processor 22 repeats the light emission cycle configured by combining the first light emission pattern and the second light emission pattern.
  • the light emission cycle Q1 includes a first A light emission pattern and a second A light emission pattern.
  • the light emission cycle Q2 includes a first B light emission pattern and a second A light emission pattern.
  • the light emission cycle Q3 includes a first A light emission pattern and a second B light emission pattern.
  • the light emission cycle Q4 includes a first A light emission pattern and a second C light emission pattern.
  • the light emission cycle Q5 includes a first A light emission pattern and a second D light emission pattern.
  • the spectral spectrum of the first illumination light L1 may be different in each first illumination period P1.
  • the light source processor 22 may change the first light emission pattern or the second light emission pattern based on the analysis processing result by each analysis processing described later.
  • Changing the emission pattern includes changing the type of illumination light. Specifically, for example, the second light emission pattern is changed from the second A pattern to the second B light emission pattern based on the analysis processing result, or the second A light emission pattern using the second illumination light L2a is changed to the second light emission pattern. Switching may be performed such as changing to the second A emission pattern using the illumination light L2b.
  • the first lighting period P1 is preferably longer than the second lighting period P2, and the first lighting period P1 is preferably two frames or more.
  • the first illumination period P1 is set to 2 frames and the second illumination period P2 is set to 1 frame. It is supposed to be. Since the first illumination light P1 is used to generate a display image to be displayed on the display 18, it is preferable to obtain a bright display image by illuminating the observation target with the first illumination light P1.
  • the light emitted by each of the LEDs 20a to 20d is incident on the light guide 41 via an optical path coupling portion (not shown) composed of a mirror, a lens, or the like.
  • the light guide 41 is built in the endoscope 12 and the universal cord (not shown).
  • the universal cord is a cord that connects the endoscope 12, the light source device 14, and the processor device 16.
  • the light guide 41 propagates the light from the optical path coupling portion to the tip portion 12d of the endoscope 12.
  • the tip portion 12d of the endoscope 12 is provided with an illumination optical system 30a and a photographing optical system 30b.
  • the illumination optical system 30a has an illumination lens 42, and the illumination light propagated by the light guide 41 is emitted toward the observation target through the illumination lens 42.
  • the photographing optical system 30b has an objective lens 43, a zoom lens 44, and an image sensor 45.
  • the image sensor 45 was administered to the observation target via the objective lens 43 and the zoom lens 44, such as reflected light of the illumination light returning from the observation target (in addition to the reflected light, scattered light, fluorescence emitted by the observation target, or administration to the observation target.
  • the observation target is photographed using (including fluorescence caused by the drug).
  • the zoom lens 44 moves by operating the zoom operation unit 12h to enlarge or reduce the observation target image.
  • the image sensor 45 has a color filter of one of a plurality of color filters for each pixel.
  • the image sensor 45 is a color sensor having a primary color system color filter.
  • the image sensor 45 has an R pixel having a red color filter (R filter), a G pixel having a green color filter (G filter), and a B pixel having a blue color filter (B filter). ..
  • a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor can be used.
  • the image sensor 45 of the present embodiment is a primary color system color sensor, a complementary color system color sensor can also be used.
  • Complementary color sensors include, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter. Have.
  • the complementary color sensor is used, the image obtained from the pixels of each of the above colors can be converted into the same image as the image obtained by the primary color sensor by performing the complementary color-primary color conversion.
  • the primary color system or complementary color system sensor has one or a plurality of types of pixels having characteristics other than the above, such as W pixels (white pixels that receive light in almost all wavelength bands).
  • W pixels white pixels that receive light in almost all wavelength bands.
  • the image sensor 45 of the present embodiment is a color sensor, a monochrome sensor having no color filter may be used.
  • the endoscope 12 includes a photographing processor 46 that controls the image sensor 45.
  • the control of the photographing processor 46 is different for each observation mode.
  • the photographing processor 46 controls the image sensor 45 so as to photograph an observation target illuminated by normal light.
  • the Bc image signal is output from the B pixel of the image sensor 45
  • the Gc image signal is output from the G pixel
  • the Rc image signal is output from the R pixel.
  • the photographing processor 46 controls the image sensor 45 and controls the image sensor 45 so as to photograph an observation target illuminated by special light.
  • the Bs image signal is output from the B pixel of the image sensor 45
  • the Gs image signal is output from the G pixel
  • the Rs image signal is output from the R pixel.
  • the photographing processor 46 controls the image sensor 45, and controls the image sensor 45 so as to photograph the observation target illuminated by the first illumination light L1 or the second illumination light L2.
  • the first illumination light L1 when the first illumination light L1 is illuminated, the B1 image signal is output from the B pixel of the image sensor 45, the G1 image signal is output from the G pixel, and the R1 image signal is output from the R pixel.
  • the second illumination light L2 for example, a B2 image signal is output from the B pixel of the image sensor 45, a G2 image signal is output from the G pixel, and an R2 image signal is output from the R pixel.
  • the processor device 16 incorporates a program (not shown) related to processing performed by the central control unit 51, the image acquisition unit 52, the image processing unit 56, the display control unit 57, and the like, which will be described later.
  • a central control unit 51, an image acquisition unit 52, an image processing unit 56, and a display control unit are operated by operating the program by a central control unit 51 composed of an image processor included in the processor device 16 that functions as an image processing unit. 57 functions are realized.
  • the central control unit 51 comprehensively controls the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the shooting timing.
  • the central control unit 51 sets the settings to the endoscope system 10 such as the light source processor 22, the photographing processor 46, or the image processing unit 56. Enter in each part of.
  • the image acquisition unit 52 acquires an image of an observation target captured using pixels of each color, that is, a RAW image, from the image sensor 45.
  • the RAW image is an image (endoscopic image) before the demosaic processing is performed. If the image is an image before the demosaic processing is performed, the RAW image also includes an image obtained by performing arbitrary processing such as noise reduction processing on the image acquired from the image sensor 45.
  • the image acquisition unit 52 includes a DSP (Digital Signal Processor) 53, a noise reduction unit 54, and a conversion unit 55 in order to perform various processing on the acquired RAW image as needed.
  • DSP Digital Signal Processor
  • the DSP 53 includes, for example, an offset processing unit, a defect correction processing unit, a demosaic processing unit, a linear matrix processing unit, a YC conversion processing unit, and the like (none of which are shown).
  • the DSP 53 performs various processing on the RAW image or the image generated by using the RAW image using these.
  • the offset processing unit performs offset processing on the RAW image.
  • the offset process is a process of reducing the dark current component from the RAW image and setting an accurate zero level.
  • the offset process may be referred to as a clamp process.
  • the defect correction processing unit performs defect correction processing on the RAW image.
  • the defect correction process is a process of correcting or generating a pixel value of a RAW pixel corresponding to a defective pixel of the image sensor 45 when the image sensor 45 includes a pixel (defective pixel) having a defect due to a manufacturing process or a change with time. Is.
  • the demosaic processing unit performs demosaic processing on the RAW image of each color corresponding to the color filter of each color.
  • the demosaic process is a process of generating pixel values that are missing due to the arrangement of color filters in a RAW image by interpolation.
  • the linear matrix processing unit performs linear matrix processing on the endoscopic image generated by assigning one or a plurality of RAW images to channels of each RGB color.
  • the linear matrix processing is a processing for enhancing the color reproducibility of an endoscopic image.
  • an endoscope image generated by assigning one or a plurality of RAW images to channels of each RGB color is used as an endoscope having a brightness channel Y, a color difference channel Cb, and a color difference channel Cr. This is the process of converting to an image.
  • the noise reduction unit 54 performs noise reduction processing on an endoscope image having a brightness channel Y, a color difference channel Cb, and a color difference channel Cr by using, for example, a moving average method or a median filter method.
  • the conversion unit 55 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into an endoscopic image having channels of each color of BGR.
  • the image processing unit 56 performs necessary image processing or calculation on the endoscopic image output by the image acquisition unit 52.
  • the image processing unit 56 includes a normal observation image processing unit 61, a special observation image processing unit 62, and a diagnosis support image processing unit 63.
  • the normal observation image processing unit 61 performs image processing for normal observation images on the input Rc image signal, Gc image signal, and Bc image signal for one frame.
  • Image processing for normal observation images includes 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as 3D LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. included.
  • the Rc image signal, the Gc image signal, and the Bc image signal that have been subjected to image processing for a normal observation image are normal observation images, and are input to the display control unit 57 as display images in the normal observation mode.
  • the special observation image processing unit 62 performs image processing for special observation images on the input Rs image signal, Gs image signal, and Bs image signal for one frame.
  • Image processing for special observation images includes 3x3 matrix processing, gradation conversion processing, color conversion processing such as 3D LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. included.
  • the Rs image signal, the Gs image signal, and the Bs image signal that have been subjected to image processing for the special observation image are special observation images, and are input to the display control unit 57 as display images in the special observation mode.
  • the diagnosis support image processing unit 63 performs image analysis processing and the like in the diagnosis support mode to generate diagnosis support information.
  • the diagnostic support information is shown to a user such as a doctor.
  • the diagnosis support image processing unit 63 includes a candidate image acquisition unit 71, a first analysis processing unit 72, an optimum image selection unit 73, a second analysis processing unit 74, and a display image generation unit 75.
  • the candidate image acquisition unit 71 generates and acquires a plurality of types of candidate images based on the endoscopic image output by the image acquisition unit 52.
  • the types of candidate images are distinguished by one or both of the following two points.
  • the first point is distinguished by the spectral spectrum of the illumination light when the observation target is photographed. Therefore, the candidate image acquisition unit 71 uses an endoscopic image obtained by photographing an observation target illuminated by each of a plurality of types of illumination light having different spectral spectra from each other emitted by the light source unit as one type of candidate image. get.
  • the second point is distinguished by a method of image processing for generating candidate images for endoscopic images (hereinafter referred to as image processing for generating candidate images).
  • the image processing method for generating a candidate image includes, for example, an image processing method such as an enhancement process, and specifically includes a color expansion process and / or a structure enhancement process.
  • an image processing method such as an enhancement process
  • it includes not performing the candidate image generation image processing. Therefore, an endoscope image that does not perform image processing for generating a candidate image on the endoscope image output by the image acquisition unit 52 is also one type of candidate image. Therefore, even if the combination of the spectral spectrum of the illumination light and the image processing for generating the candidate image is different, it is regarded as one type of the candidate image.
  • Candidate images that differ in either the spectral spectrum of the illumination light or the image processing are different types of candidate images.
  • the candidate image acquisition unit 71 includes each candidate image generation unit that generates each of a plurality of types of candidate images.
  • n is an integer of 6 or more.
  • n can be set according to the number of types of a plurality of types of candidate images.
  • Each candidate image acquisition unit performs the following illumination light and / or image processing for generating a candidate image.
  • the first candidate image generation unit 81 performs image processing for the first candidate image (hereinafter referred to as first image processing) for generating the first candidate image.
  • the first image processing is processing applied to the B1 image signal, the G1 image signal, and the R1 image signal obtained by emitting the first illumination light of white light which is the spectral spectrum for the first illumination light.
  • the first image processing is the same as the normal display image processing in the normal observation image processing unit 61, and a first candidate image similar to the normal display image is obtained.
  • the first candidate image is a kind of candidate image. Therefore, the candidate image acquisition unit 71 acquires an image obtained by photographing the observation target illuminated by the white illumination light as one kind of the candidate image.
  • the second candidate image generation unit 82 performs image processing for the second candidate image (hereinafter referred to as second image processing) for generating the second candidate image.
  • the second image processing is a process applied to the B2 image signal, the G2 image signal, and the R2 image signal obtained by emitting the second illumination light L2 in the second illumination light spectral spectrum SP1.
  • the purple light V has a peak intensity higher than that of the blue light B, the green light G, and the red light R of other colors. Larger light is preferred.
  • the second image processing is a pseudo-color processing in which the B2 image signal is assigned to the B channel and the G channel for display, and the G2 image signal is assigned to the R channel for display.
  • a pseudo-color treatment a second candidate image in which a blood vessel or a structure having a specific depth such as a surface blood vessel is emphasized can be obtained.
  • the second candidate image is a kind of candidate image.
  • the third candidate image generation unit 83 performs image processing for the third candidate image (hereinafter referred to as the third image processing) for generating the third candidate image.
  • the third image processing is a process applied to the B2 image signal, the G2 image signal, and the R2 image signal obtained by emitting the second illumination light in the second illumination light spectroscopic spectrum SP2. As shown in FIG. 13, the second illumination light emitted in the second illumination light spectral spectrum SP2 is preferably light that emits only purple light V (peak wavelength is, for example, 400 to 420 nm).
  • the third image processing is a process of allocating the B2 image signal to the B channel, the G channel, and the R channel for display, and adjusting the color tone and the gradation balance. By the third image processing, a third candidate image in which the polar superficial blood vessels shallower than the superficial blood vessels are emphasized can be obtained.
  • the third candidate image is a kind of candidate image.
  • the fourth candidate image generation unit 84 performs image processing for the fourth candidate image (hereinafter referred to as the fourth image processing) for generating the fourth candidate image.
  • the fourth image processing is obtained by emitting the second illumination light in the spectroscopic spectrum SP3 for the second illumination light in addition to the B1 image signal, the G1 image signal, and the R1 image signal obtained by emitting the first illumination light. This is a process applied to the B2 image signal, the G2 image signal, and the R2 image signal. As shown in FIG.
  • the second illumination light spectroscopic spectrum SP3 is bluish-purple light VB (peak wavelength is, for example, 470 to 480 nm), which is light in a wavelength range in which the extinction coefficients of oxidized hemoglobin and reduced hemoglobin are different. Is preferable.
  • the fourth candidate image generation unit 84 has a first signal ratio (B2 / G1) representing a ratio between the B2 image signal and the G1 image signal, and a ratio between the R1 image signal and the G1 image signal.
  • the first signal ratio and the second signal ratio It includes an oxygen saturation calculation unit 84c that calculates the oxygen saturation corresponding to the signal ratio, and an oxygen saturation image generation unit 84d that generates an oxygen saturation image based on the oxygen saturation.
  • the oxygen saturation image becomes the fourth candidate image obtained by the fourth image processing.
  • the fourth candidate image is one of the candidate images.
  • the oxygen saturation calculation table 84b stores the correlation between the oxygen saturation and the first signal ratio and the second signal ratio. Specifically, as shown in FIG. 16, the oxygen saturation calculation table 84b has oxygen in a two-dimensional space centered on the first signal ratio (B2 / G1) and the second signal ratio (R1 / G1). It is composed of a two-dimensional table that defines the saturation lines ELx, EL1, EL2, EL3, ELy, and the like. For example, the isoline ELx has an oxygen saturation of 0%, the equivalence line EL1 has an oxygen saturation of 30%, the equivalence line EL2 has an oxygen saturation of 50%, and the equivalence line EL3 has an oxygen saturation of 80%. It represents that there is.
  • the positions and shapes of the contour lines with respect to the first signal ratio (B2 / G1) and the second signal ratio (R1 / G1) are obtained in advance by physical simulation of light scattering.
  • the first signal ratio (B2 / G1) and the second signal ratio (R1 / G1) are preferably on a log scale.
  • the fifth candidate image generation unit 85 performs image processing for the fifth candidate image (hereinafter referred to as the fifth image processing) for generating the fifth candidate image.
  • the fifth image processing is a color expansion processing, and specifically, with respect to the B2 image signal, the G2 image signal, and the R2 image signal obtained by emitting the second illumination light in the second illumination light spectral spectrum SP4. It is a process to be applied.
  • the second illumination light spectrum SP4 is preferably light in which the peak intensities of the purple light V and the blue light B are larger than the peak intensities of the green light G and the red light R. Further, it is preferable that the intensity of the red light R is higher than that of the second illumination light spectrum SP2.
  • the first signal ratio (B2 / G2) representing the ratio of the B2 image signal to the G2 image signal and the ratio of the R2 image signal to the G2 image signal are represented.
  • the color difference between a plurality of observation target ranges is calculated based on the color difference expansion signal ratio calculation unit 85a that performs signal ratio calculation processing for calculating the two signal ratios (G2 / R2) and the first signal ratio and the second signal ratio.
  • a color difference expansion processing unit 85b that performs the color difference expansion processing to be expanded, and a color difference expansion image generation unit 85c that generates a color difference expansion image based on the first signal ratio and the second signal ratio after the color difference expansion processing are provided.
  • the color difference expanded image becomes the fifth candidate image obtained by the fifth image processing.
  • the fifth candidate image is one of the candidate images.
  • the distance between a plurality of observation target ranges is expanded in a two-dimensional space consisting of a first signal ratio (B2 / G2) and a second signal ratio (G2 / R2).
  • B2 / G2 first signal ratio
  • G2 / R2 second signal ratio
  • the position of the first range (indicated by 1 surrounded by a circle) among a plurality of observation target ranges is maintained before and after the color difference expansion process, and the first range and the second range (indicated by 1) are maintained.
  • the color difference expansion process is performed by a method of adjusting the radius and the angle after converting the first signal ratio and the second signal ratio into polar coordinates. It is preferable that the first range is a normal part in which no lesion or the like is present, and the second to fourth ranges are an abnormal part in which a lesion or the like may be present.
  • the color difference expansion processing the range A1 in the two-dimensional space before the color difference expansion processing is expanded to the range A2 after the color difference expansion processing, so that the color difference is emphasized. The image will be emphasized.
  • the nth candidate image generation unit 86 generates the nth type of candidate image.
  • the method or content of image processing is not limited to the above.
  • enhancement processing such as structure enhancement processing may be performed.
  • the types of candidate images are distinguished according to the presence or absence of enhancement processing on the endoscopic image or the type of enhancement processing, and each of the distinguished candidate images is acquired as one type of candidate image.
  • the endoscopic image to be enhanced may or may not be obtained after any one of the first image processing to the nth image processing is performed.
  • the structure enhancement process is a process performed on the acquired endoscopic image so that the blood vessel in the observation target is emphasized and represented as an endoscopic image.
  • the pixel value (brightness value) is obtained on the horizontal axis
  • the density histogram which is a graph obtained by taking the frequency on the vertical axis, is obtained, and the memory of the image processing unit 56 (not shown).
  • the gradation correction is performed by the gradation correction table stored in advance in the above.
  • the gradation correction table has a gradation correction curve in which the horizontal axis represents an input value and the vertical axis represents an output value, and the correspondence between the input value and the output value is shown.
  • Gradation correction is performed based on the correction curve to widen the dynamic range of the acquired endoscopic image.
  • the density is lower in the low density portion and higher in the high density portion. Therefore, for example, the density difference between the blood vessel region and the region without blood vessels is widened.
  • the contrast of blood vessels is improved. Therefore, the endoscopic image processed by the structure enhancement process has improved blood vessel contrast, increased visibility of the blood vessel structure, and more easily and accurately, for example, the density of blood vessels.
  • a high region can be preferably used for determination or the like as a specific region.
  • the candidate image acquisition unit 71 sets the endoscopic image obtained by illuminating the observation target with the illumination light including the narrow band light of the preset wavelength band emitted by the light source unit 20 as the candidate image 1. It is preferable to obtain it as a seed. Therefore, it is preferable that the plurality of types of candidate images include at least one type of endoscopic image due to illumination light composed of narrow band light. An endoscopic image obtained by photographing an observation target illuminated with illumination light including purple light V and / or blue light B, which is preferably narrow band light, may be generated as one of the candidate images.
  • the narrow band of the narrow band light is preferably a short wave of 480 nm or less.
  • the center wavelength or peak wavelength of the narrow band light preferably includes a wavelength of 410 nm.
  • the narrow band light is preferably monochromatic light having only one narrow band. Further, it is preferable to acquire an endoscopic image obtained by coloring an endoscopic image containing narrow-band light as a main component as one of the candidate images.
  • the endoscopic image obtained by coloring the endoscopic image mainly composed of narrow-band light is, for example, a specific color image obtained by photographing an observation target with a specific monochromatic light, and assigning a specific color image to a plurality of color channels, and It is obtained by a method of generating a color image from a specific color image by adjusting the balance of each color channel.
  • the coloring is performed in the L * a * b * color space, with the color of the relatively low frequency component of the observation target image showing the observation target and the relatively high frequency component of the observation target image. It is preferable to increase the distance between the colors and the colors.
  • the coloring of the candidate image based on such an endoscope image according to the observation target image, for example, in a zoom image or the like, it is easier to grasp a fine specific structure such as a blood vessel. It can be an image. Further, in addition to making the endoscopic image easy for humans to see, it is preferable because it is possible to obtain an endoscopic image that can obtain good analysis results for analysis processing by a computer by adjusting the coloring.
  • Illumination light containing a specific narrow band light obtains a candidate image in which, for example, a blood vessel existing at a specific mucosal depth, a blood vessel having a specific thickness, or a specific structure such as a gland duct is emphasized. Be done.
  • the emphasis in the candidate image includes not only the enhancement for human vision but also the enhancement for the case where the computer performs CAD or the like. Therefore, it is preferable that the candidate image is emphasized so that a good analysis processing result can be obtained when CAD or the like is used.
  • the generated plurality of types of candidate images are sent to the first analysis processing unit 72. As shown in FIG. 20, for example, three types of candidate images, a first candidate image, a second candidate image, and a fifth candidate image, are acquired. In FIG. 20 and the like, each process described in the right column is described in the left column by "acquisition of candidate image:" and the like.
  • the first analysis processing unit 72 performs the first analysis processing on one or a plurality of types of preset candidate images among the plurality of types of candidate images.
  • the number of types of candidate images to be subjected to the first analysis process is arbitrarily set.
  • the types of candidate images to be subjected to the first analysis process are any of 1 to k.
  • k is an integer of 2 or more.
  • the type of candidate image to be subjected to the first analysis process can also be set in advance.
  • the first analysis processing result obtained by the first analysis processing is used to select at least one type of candidate image from a plurality of types of candidate images.
  • the second analysis processing unit 74 performs the second analysis processing on the selected candidate image. At least one candidate image selected by the second analysis processing unit 74 as the target to be subjected to the second analysis processing is set as the optimum image.
  • the second analysis result is obtained by performing the second analysis processing on the optimum image by the second analysis processing unit 74. Since the second analysis processing result is notified to the user as the final diagnostic support information, the first analysis processing result can select the optimum image from which a good result can be obtained by the second analysis processing. preferable.
  • the first analysis processing result is preferably diagnostic support information.
  • the diagnosis support information based on the result of the first analysis processing is referred to as the first diagnosis support information.
  • One or a plurality of first diagnosis support information can be obtained according to the number of candidate images for which the first analysis process has been performed.
  • the first analysis processing result is information based on the candidate image, for example, information obtained from the candidate image such as the distance between the endoscope tip 12d and the observation target, or the brightness of the entire or specific area of the candidate image.
  • it is a subject name such as a mucous membrane, a site name, a disease name, a specific structure name, or an object name that is not derived from a living body such as a treatment tool, which is included in the observation target.
  • a lesion or a disease the presence or absence, an index value, a position or region, a boundary line with a normal region, a probability, a degree of progression, or a severity can be used.
  • the site name is preferably a characteristic site that appears in the candidate image.
  • the esophagus, cardia, gastrocolon, gastric body, pylorus, angular incisure, or It is the duodenal bulb and the like, and in the case of the large incision, it is the cecum, the pylorus, the ascending colon, the transverse colon, the descending colon, the sigmoid colon, the rectum and the like.
  • Specific structures include ridges or depressions such as blood vessels, ducts, polyps or cancers, and non-biological objects include biopsy forceps, snares, or foreign body removal that can be attached to an endoscope.
  • a treatment tool such as a device, or a treatment tool for abdominal cavity used for laparoscopic surgery.
  • Names of lesions or diseases include those found on endoscopy of the upper gastrointestinal tract or large intestine, such as inflammation, redness, bleeding, ulcers, or polyps, or gastritis, Barrett's esophagus, cancer or. Ulcerative colitis, etc.
  • the value of the biological information is a value of the biological information to be observed, for example, a oxygen saturation degree, a blood vessel density degree, a fluorescence value due to a dye, or the like.
  • the first diagnosis support information may be a judgment or discrimination result.
  • the determination or differentiation may be various scores such as discrimination between tumor and non-tumor, stage or severity of various diseases, Mayo Score, Geboes Score, and the like.
  • the Mayo score is a score indicating the endoscopic severity of ulcerative colitis, and grades 0 and 1 are mild, depending on the presence or absence and degree of disease characteristics, depending on the findings of the affected area in the large intestine using an endoscope. Determined to be either Grade 2 moderate or Grade 3 severe. For example, grade 0 is referred to as Mayo0. Therefore, the diagnostic support information is either Mayo0 to Mayo3.
  • the Geboes score is a score indicating the pathological severity of ulcerative colitis. Based on the findings of biopsy tissue using a microscope, the presence or absence and degree of disease characteristics, the mild stage of Geboes0, and Geboes0 It is determined to be either a pathological remission of Geboes2A or a pathological non-remission of Geboes2B to Geboes5. Therefore, the diagnostic support information is either Geboes0 to Geboes5, or Geboes2A or Geboes2B.
  • the stage in gastric cancer is classified into stages I to IV by comprehensively determining the depth of the tumor and the state of metastasis by observing the lesion and biopsy. Therefore, the diagnostic support information is either stage I to stage IV.
  • the first analysis processing result includes shooting conditions such as an electronic zoom ratio obtained from the candidate image.
  • information management servers such as HIS (Hospital Information System) and RIS (Radiology Information System) by communication, or PACS (Picture Archiving and Communication System for medical application: medical images) It may be information from an image server such as a storage communication system). It also includes the accuracy of the first analysis processing result itself obtained by the image analysis processing.
  • the first analysis processing unit 72 may perform the first analysis processing on a plurality of types of candidate images by the same method, but performs the first analysis processing by a method different from each other for each type of the plurality of types of candidate images. May be good. This is because the type of the first analysis processing result that can obtain a good result by the image analysis processing may differ depending on the type of the candidate image.
  • By performing the first analysis processing for each type of candidate image it is possible to perform image analysis processing suitable for the candidate image, and it is preferable because the optimum image from which diagnostic support information can be finally obtained with higher accuracy can be selected. It is preferable that the first analysis process performed for each type of candidate image is performed independently and in parallel.
  • the first analysis processing unit 72 is provided for each type of candidate image, that is, the first image first analysis processing unit 91, the second image first analysis processing unit 92, and the third image.
  • Each of the first analysis processing units of the first analysis processing unit 93, the fourth image first analysis processing unit 94, the fifth image first analysis processing unit 95, and the nth image first analysis processing unit 96 is provided.
  • n is an integer of 6 or more, and includes a first analysis processing unit for each image in a number corresponding to the number of types of candidate images.
  • the first image first analysis processing unit 91 performs the first analysis processing on the first candidate image.
  • the second image first analysis processing unit 92 performs the first analysis processing on the second candidate image
  • the third image first analysis processing unit 93 performs the first analysis processing on the third candidate image
  • the fourth image first analysis processing unit 94 performs the first analysis processing on the fourth candidate image
  • the fifth image first analysis processing unit 95 performs the first analysis processing on the fifth candidate image.
  • the nth image first analysis processing unit 96 performs the first analysis processing on the nth candidate image. For example, when it is set in advance that the target to be subjected to the first analysis processing is three types of the first candidate image, the second candidate image, and the fifth candidate image, the first candidate image, the second candidate image, and the fifth candidate image are set. When three types of candidate images with the candidate image are acquired, the first image first analysis processing unit 91, the second image first analysis processing unit 92, and the fifth image first analysis processing unit 95, respectively. The first analysis processing unit performs the first analysis processing.
  • each first analysis processing unit may perform analysis processing on candidate images of different types. That is, each task 1 analysis processing unit may be commonly used for candidate images of different types.
  • a method of obtaining the first diagnosis support information as the result of the first analysis processing can be used. For example, a value based on an image such as a pixel value and / or a brightness value of a candidate image is used.
  • a method, a method using a value of biological information such as oxygen saturation calculated from an image or a blood vessel density, a method using information such as imaging conditions included in a candidate image, or a specific state and a specific state in an observation target are included. Examples thereof include a method of using correspondence information in which the candidate image obtained by photographing the observation target is associated with the candidate image in advance.
  • the specific state in the observation target can be the same as the example of the first diagnosis support information.
  • the first analysis processing unit 72 is a correspondence information acquisition unit (not shown) that acquires correspondence information in which the specific state of the observation target and the candidate image obtained by photographing the observation target in the specific state are associated in advance. ) Is preferably provided.
  • the correspondence information when the specific state of the observation target is known in advance, the candidate image obtained by photographing the observation target is associated with the information such as the specific state of the observation target or the region of the specific state. Information. It is preferable that the first analysis processing unit 72 or each first analysis processing unit performs the first analysis processing on the newly acquired candidate image based on the corresponding information.
  • the correspondence information acquisition unit may further learn to acquire the newly acquired candidate image and the specific state included in the first analysis processing result output by estimation as correspondence information.
  • the corresponding information is provided in each of the first analysis processing units from the first image first analysis processing unit 91 to the nth image first analysis processing unit 96.
  • the first analysis processing unit corresponding to the second candidate image is carried out by the second image first analysis processing unit 92.
  • the second image first analysis processing unit 92 includes a correspondence information acquisition unit including correspondence information regarding a specific state regarding a blood vessel to be observed.
  • the correspondence information acquisition unit performs the first analysis processing of the second candidate image based on the correspondence information, and outputs the details such as the area related to the specific state of the observation target included in the second candidate image. It should be noted that the output of details regarding the specific state includes the content such as "does not include the specific state".
  • Each correspondence information acquisition unit is, for example, a trained model in machine learning. Since the specific state of the observation target in the newly acquired candidate image can be obtained as the result of the first analysis processing more quickly and with high accuracy, the first analysis processing using the trained model by machine learning as the corresponding information acquisition unit. It is preferable to do.
  • each correspondence information acquisition unit performs a first analysis process for outputting a specific state of an observation target using a trained model in machine learning. In this case, it is preferable to use the trained model that has been trained for each type of candidate image in order to obtain good analysis processing results. Therefore, for example, it is preferable that the correspondence information included in the first image first analysis processing unit 91 and the correspondence information included in the second image first analysis processing unit 92 are trained models that are different from each other.
  • the first analysis processing of the first candidate image, the second candidate image, and the fifth candidate image is performed by using the trained model, respectively, and the first diagnosis support information is obtained from each of the first analysis processing units. , A total of three first diagnosis support information can be obtained.
  • the optimum image selection unit 73 selects at least one type of candidate image as the optimum image from the plurality of types of candidate images acquired by the candidate image acquisition unit 71 based on the first analysis result obtained by the first analysis process. Since the first analysis process is performed on one or a plurality of types of candidate images, the first diagnosis support information, which is the result of the first analysis process, is 1 or 1 corresponding to the number of candidate images for which the first analysis process has been performed. Multiple can be obtained. When a plurality of first diagnosis support information is obtained, the total of these is referred to as the first diagnosis support information.
  • Various methods can be used as a method for selecting the optimum image. For example, a correspondence table in which the first diagnosis support information and the type of the candidate image most preferable for the second analysis processing among the plurality of types of candidate images are associated can be prepared and used in advance.
  • the optimum image selection unit 73 selects at least one optimum image from a plurality of types of candidate images obtained in one light emission cycle. This is preferable because the latest optimum image is always selected every time the light emission cycle is switched, and the latest diagnostic support information can be obtained.
  • the first diagnosis support information includes the name of the subject to be observed and the endoscope tip portion 12d.
  • the distance between the endoscope and the observation target Specifically, in all of the three first diagnosis support information, the subject name is "mucosa", and the distance between the endoscope tip 12d and the observation target is "distant view”. ".
  • the optimum image selection unit 73 integrates the three first diagnosis support information, assuming that the subject name is "mucosa" and the distance between the endoscope tip 12d and the observation target is "distant view”. Using the correspondence table (not shown) provided in the image selection unit 73, for example, the first candidate image of one type of candidate image is selected as the optimum image.
  • the second analysis processing unit 74 obtains the second analysis processing result by performing the second analysis processing on the optimum image.
  • the second analysis processing result is notified to the user as final diagnostic support information.
  • the second analysis processing result is preferably diagnostic support information.
  • the diagnosis support information based on the result of the second analysis processing is referred to as the second diagnosis support information. Since the second analysis process is usually performed on the optimum image which is one selected candidate image, one second diagnosis support information can be obtained.
  • the details of the second diagnosis support information can be the same as the first diagnosis support information.
  • the second analysis processing unit 74 may perform the second analysis processing by a method different from each other for each type of the candidate image regarded as the optimum image. This is because, as in the first analysis process, the type of second diagnosis support information from which a good result can be obtained by the image analysis process may differ depending on the type of the candidate image. It is preferable to perform the second analysis process for each type of candidate image because the second diagnosis support information can be obtained with higher accuracy.
  • the second analysis processing unit 74 is provided for each type of candidate image, that is, the first image second analysis processing unit 101, the second image second analysis processing unit 102, and the third image. It includes a second analysis processing unit 103, a fourth image second analysis processing unit 104, a fifth image second analysis processing unit 105, and an nth image second analysis processing unit 106. n is an integer of 6 or more, and includes a second analysis processing unit for each image in a number corresponding to the number of types of candidate images.
  • the first image second analysis processing unit 101 performs the second analysis processing when the optimum image is the first candidate image. The same applies to the second image second analysis processing unit 102 and subsequent units.
  • a method of obtaining the second diagnosis support information as the result of the second analysis processing can be used, and can be the same as the method of the first analysis processing.
  • the first analysis processing unit 72 may also serve as the second analysis processing unit 74, but in order to quickly obtain the second diagnosis support information, what are the first analysis processing and the second analysis processing? It is preferable to carry out independently. Further, it is preferable that the first analysis process and the second analysis process are analysis processes having different contents from each other. This is because when the diagnosis support information having the same content is obtained by adopting the analysis processing having the same content, the same analysis processing is performed twice, which may take a wasteful time.
  • the second diagnosis support result is a judgment or appraisal result regarding a disease.
  • the second diagnosis support result is notified to a user such as a doctor as the final diagnosis support result, and the doctor or the like performs endoscopy while diagnosing the observation target with reference to the second diagnosis support result. Because.
  • the second diagnosis support result is preferably, for example, an index value related to a disease, an index value related to a stage of a disease, a stage of a disease, a severity of the disease, a pathological state to be observed, or a position of the disease.
  • the second diagnostic support information is, for example, the Mayo score, which is an index of the endoscopic severity of ulcerative colitis.
  • the second diagnosis support information is any of 0 to 3 of the Mayo score.
  • the second diagnostic support information is the Geboes score, which is an index of the pathological stage of ulcerative colitis.
  • the second diagnosis support information is either Geboes0 to Geboes5, or Geboes2A or Geboes2B.
  • the second diagnostic support information is a stage in gastric cancer. Therefore, in this case, the second diagnostic support information is any of stages I to IV.
  • the severity or progression of the disease is an important factor in determining the treatment policy.
  • accurate diagnosis at the early stage of onset is important. Determining with accuracy is beneficial.
  • the first analysis process and the second analysis process are performed in combination according to preset contents.
  • the candidate image selected by the first analysis processing result it is preferable to obtain the second diagnosis support information with higher accuracy as the second analysis processing result in the second analysis processing. Therefore, there are cases where the preferred content of the first analysis process and the content of the second analysis process can be set in advance. For example, when the result of the first analysis processing by the first analysis processing is the subject name of the observation target and the distance between the endoscope tip portion 12d and the observation target, in the case of a short distance, detailed observation of the region of interest or the like is performed.
  • the second analysis process is the biological information of the disease, the determination of the stage or severity, or the normality, because it may be performed and it may be an endoscopic image showing the fine structure of the mucosal surface layer. It is preferable to adopt a method of analysis processing of the kind that obtains the region of the lesion portion including the portion and the boundary line as the result of the second analysis processing. On the other hand, in the case of a long distance, there is a possibility that screening is performed to observe the overall properties, and since it may be an endoscopic image showing the overall condition of the site, the site name or lesion or It is preferable to adopt a method of analysis processing of a kind that obtains a disease area or the like as a result of the second analysis processing.
  • the candidate image may be an endoscope image obtained by magnified observation using a zoom.
  • the first image second analysis processing unit 101 performs the second analysis processing.
  • the second diagnosis support information which is the result of the second analysis process is obtained.
  • the display image generation unit 75 generates a display image to be displayed on the display 18.
  • the display image is an endoscope image based on at least one of the plurality of types of candidate images, and the display image is displayed on the display 18.
  • the type of candidate image to be displayed can be set in advance. Since the display image displayed on the display is viewed by a user such as a doctor to determine a diagnosis or examination policy, it is preferable that the display image is an endoscopic image having good visibility for humans. For example, as shown in FIG. 27, when the display image is a first candidate image of the same type as the normal observation image using white light, the display image generation unit 75 is similarly the normal observation image processing unit 61. Perform necessary image processing to generate a display image. The generated display image is sent to the display control unit 57.
  • the display control unit 57 displays the normal observation image on the display 18 in the normal observation mode, and displays the special observation image on the display 18 in the special observation mode. Further, in the case of the diagnosis support mode, the control for displaying the displayed image on the display 18 is performed. It is preferable that the displayed image is continuously displayed on the display 18. In the diagnosis support mode, although it is not displayed as a display image, other acquired candidate images may be switched according to an instruction and displayed on the display 18 as a display image. As shown in FIG. 28, for example, the display image 111 displays the mode name display 112, which is the current mode name, or the endoscope image type name display indicating the type of the candidate image that is the source of the display image on the display 18. Displayed together with 113.
  • the processor device 16 that functions as an image processing device, or the endoscope system 10 including the image processing device, supports the first diagnosis from a plurality of types of candidate images and preset types of candidate images. After obtaining the information, in order to determine the optimum image for the second analysis processing using the first diagnosis support information, the analysis processing is performed based on the information obtained from these images without selecting the endoscopic image obtained by imaging. It is possible to save the time for selecting the image to be analyzed as compared with the case of selecting the image to be analyzed. Further, even when the number of the first diagnosis support information by the first analysis process is small, the content of the first diagnosis support information for obtaining a preferable processing result in the second analysis process can be set, so that the final result is obtained.
  • the accuracy of the second diagnosis support information, which is the diagnosis support information to be obtained, is high. Therefore, the processor device 16 that functions as an image processing device, or the endoscope system 10 including the image processing device can obtain diagnostic support information by CAD quickly and with high accuracy.
  • the processor device 16 that functions as an image processing device, or the endoscope system 10 including the image processing device can obtain diagnostic support information by CAD quickly and with high accuracy.
  • accurate diagnosis at the early stage of onset is important, so it is useful to determine the severity with high accuracy.
  • the endoscope system 10 and the like can be preferably used.
  • the second analysis processing result may be notified to the user, it may be displayed on the display 18 or may be notified by voice or the like, but the display control unit 57 displays the second analysis processing result on the display 18. It is preferable to perform control.
  • the display form on the display 18 is preferably a form that does not interfere with the visibility of the displayed image and can be grasped by the user at a glance. Therefore, the second diagnosis support information, which is the result of the second analysis processing, may be displayed in an area other than the display image 111 of the display 18, or the second diagnosis support information may be displayed by performing image processing on the display image 111. May be displayed by superimposing on the display image 111. As shown in FIG. 29, for example, when the second analysis processing result is the second diagnosis support information and the Mayo score, the lesion area and the numerical value of the score are superimposed on the display image 111 and colored. It may be indicated by the frame display 114 and the short text display 115.
  • the user can quickly grasp the highly reliable diagnostic support information at a glance. Further, even if the displayed image is a lesion that is difficult to distinguish by diagnosis using a normal observation image, it is possible to prevent the lesion from being overlooked because the analysis processing is performed on the optimum image suitable for the analysis processing.
  • the second analysis processing result is displayed on the display image 111, the user can quickly change the type of the display image to an endoscopic image of a type that facilitates detailed observation of the lesion shown in the second analysis processing result. You can switch to and observe in detail.
  • the display image 111 is switched to a candidate image of a type other than the display image 111, the candidate image of that type has already been obtained although it is not displayed, so that the display image can be quickly switched to the display image. ..
  • the candidate image acquisition unit 71 acquires an endoscopic image obtained by photographing an observation target illuminated by the white illumination light emitted by the light source unit 20 as one of the candidate images. Since the endoscopic image with white illumination light is an image that can be recognized as a natural color for humans, the display image enables a user such as a doctor to smoothly perform endoscopy.
  • the light source unit 20 emits the first illumination light by the first emission pattern during the first illumination period, emits the second illumination light by the second emission pattern during the second illumination period, and is combined with the first illumination light.
  • a light source processor that switches between the second illumination light, the first endoscope image obtained by photographing the observation target illuminated by the first illumination light, and the observation object illuminated by the second illumination light are photographed.
  • the candidate image acquisition unit 71 acquires the first endoscope image and the second endoscope image as candidate images. This is preferable because a plurality of types of candidate images with various illumination lights can be obtained by combining the first light emission pattern and the second light emission pattern.
  • the first analysis processing unit 72 may perform the first analysis processing on one type of candidate image preset among the plurality of types of candidate images.
  • the embodiment in this case will be described below.
  • the first candidate image is the same endoscopic image as the normal display image obtained by white light
  • the second candidate image is an endoscopy in which a blood vessel or structure of a specific depth such as a surface blood vessel is emphasized by pseudo color processing. It is a mirror image
  • the fifth candidate image is a color difference-enhanced image, which is an endoscopic image in which the color difference between the abnormal portion and the normal portion is emphasized.
  • These candidate images are based on endoscopic images taken during colonoscopic diagnosis of patients with ulcerative colitis.
  • the display image generation unit 75 generates the display image 111 based on the first candidate image. Therefore, the display 18 displays the display image 111 based on the first candidate image.
  • the first analysis processing unit 72 performs the first analysis processing by the trained model on the first candidate image, which is one type of preset candidate image, by the first image first analysis processing unit 72, and the first
  • the diagnosis support information the name of the subject to be observed and the distance between the tip portion 12d of the endoscope and the observation target are obtained.
  • the first diagnosis support information information of "mucosa" as the subject name of the observation target and “distant view” as the distance between the endoscope tip 12d and the observation target are obtained.
  • the first diagnosis support information is sent to the optimum image selection unit 73.
  • the optimum image selection unit 73 includes the first candidate image, the second candidate image, and the fifth candidate image acquired by the candidate image acquisition unit 71 based on the first analysis result obtained by the first analysis process. From the types of candidate images, the fifth candidate image is selected as the optimum image.
  • the optimum image selection unit 73 has information in advance that the fifth candidate image is an endoscopic image that has undergone color difference enhancement processing and is effective for diagnosis when the observation condition is a distant view.
  • the fifth candidate image selected by the optimum image selection unit 73 is sent to the second analysis processing unit 74.
  • the second analysis processing unit 74 performed the second analysis processing based on the selected fifth candidate image, and obtained the second diagnosis support information as the result of the second analysis processing.
  • the second analysis processing unit 74 uses a trained model by machine learning for the fifth candidate image, and uses an index of endoscopic severity for ulcerative colitis from the state of the mucosa. A certain Mayo score is calculated as "3", and this is used as the second diagnosis support information.
  • the display control unit 57 controls the display 18 to continuously display the display image 111 based on the first candidate image, but as soon as the second analysis processing unit 74 obtains the second analysis processing result, the display image 111 is displayed.
  • the image processing of the display image 111 is performed so as to superimpose the second diagnosis support information which is the result of the second analysis processing. Specifically, since the second diagnosis support information is "Mayo score: 3", it is displayed in the lower right portion of the display image 111 by the diagnosis support information display 116 of "Mayo: 3".
  • candidate images As shown in FIG. 32, three types of candidate images, a first candidate image, a second candidate image, and a fifth candidate image, were acquired.
  • the first candidate image, the second candidate image, or the fifth candidate image is the same as described above.
  • These candidate images are based on endoscopic images taken during colonoscopic diagnosis of patients with ulcerative colitis.
  • the display image generation unit 75 generates the display image 111 based on the first candidate image. Therefore, the display 18 displays the display image 111 based on the first candidate image.
  • the first analysis processing unit 72 performs the first analysis processing by the trained model on the first candidate image, which is one type of preset candidate image, by the first image first analysis processing unit 72, and the first As diagnostic support information, the name of the subject to be observed and the distance between the tip of the endoscope 12d and the observation target were obtained. Specifically, as the first diagnosis support information, information of "mucosa" as the subject name of the observation target and “near view” as the distance between the endoscope tip 12d and the observation target are obtained.
  • the first diagnosis support information is sent to the optimum image selection unit 73.
  • the optimum image selection unit 73 includes the first candidate image, the second candidate image, and the fifth candidate image acquired by the candidate image acquisition unit 71 based on the first analysis result obtained by the first analysis process. From the types of candidate images, the second candidate image was selected as the optimum image.
  • the optimum image selection unit 73 is an endoscopic image in which the second candidate image is subjected to pseudo-color processing and the blood vessel or structure of the surface blood vessel is emphasized, and is effective for diagnosis when the observation condition is a near view. Have information in advance.
  • the second candidate image selected by the optimum image selection unit 73 is sent to the second analysis processing unit 74.
  • the second analysis processing unit 74 performs the second analysis processing based on the selected second candidate image, and obtains the second diagnosis support information as the result of the second analysis processing. Specifically, the second analysis processing unit 74 uses a machine-learned model for the second candidate image to obtain a Geboes score, which is an index of the pathological stage for ulcerative colitis, from the state of the mucosa. Calculated as "3" and use this as the second diagnosis support information.
  • the display control unit 57 controls the display 18 to continuously display the display image 111 based on the first candidate image, but as soon as the second analysis processing unit 74 obtains the second analysis processing result, the display image 111 is displayed.
  • the image processing of the display image 111 is performed so as to superimpose the second diagnosis support information which is the result of the second analysis processing.
  • the second diagnosis support information is "Geboes score: 3"
  • it is displayed in the lower right portion of the display image 111 by the diagnosis support information display 116 of "Geboes: 3".
  • the candidate image acquisition unit 71 acquires a plurality of types of candidate images (step ST110).
  • the display image generation unit 75 generates a display image based on at least one of the plurality of types of candidate images (step ST120).
  • the display control unit 57 controls to display the display image on the display 18 (step ST130).
  • the first analysis processing unit 72 selects a preset type of candidate image in order to perform the first analysis processing (step ST140).
  • the first analysis process is performed on the selected candidate image (step ST150).
  • the first analysis processing result is obtained by the first analysis processing (step ST160).
  • the optimum image selection unit 73 selects at least one type of optimum image from a plurality of types of candidate images based on the result of the first analysis processing (step ST170).
  • the second analysis processing unit 74 performs the second analysis processing on the selected optimum image (step ST180).
  • the second analysis processing result is obtained by the second analysis processing (step ST190).
  • the display control unit 57 controls to superimpose the second analysis processing result on the display image and display it on the display 18 (step ST200).
  • the step ST120 in which the display image generation unit 75 generates the display image and the step ST130 in which the display control unit 57 controls the display of the display image on the display are candidates of a type preset for performing the first analysis process. It may be performed in parallel with the step ST140 for selecting an image.
  • the processor device 16 functions as an image processing device, but an image processing device including an image processing unit 56 may be provided separately from the processor device 16.
  • the image processing unit 56 took an image with the endoscope 12 directly from the endoscope system 10, for example, or indirectly from the PACS (Picture Archiving and Communication Systems) 910. It can be provided in the diagnostic support device 911 that acquires a RAW image.
  • various inspection devices such as the first inspection device 921, the second inspection device 922, ..., The K inspection device 923, etc., including the endoscope system 10, are connected via the network 926.
  • the image processing unit 56 can be provided in the medical service support device 930.
  • the endoscope 12 uses a so-called flexible endoscope having a flexible insertion portion 12a, but the observation target swallows and uses a capsule-type endoscope.
  • the present invention is also suitable when a rigid endoscope (laparoscope) used for a mirror, surgery, or the like is used.
  • the above-described embodiments and modifications include a candidate image acquisition function for acquiring a plurality of types of candidate images based on an endoscopic image obtained by photographing an observation target with a computer, and a plurality of types.
  • a display control function that controls the display of a display image based on at least one type of candidate image on the display, and a first analysis process for one or more types of preset candidate images among a plurality of types of candidate images.
  • the optimum image selection function for selecting at least one type of candidate image from a plurality of types of candidate images as the optimum image based on the first analysis processing function obtained by the first analysis processing and the optimum image selection function. It includes a program for an image processing device for realizing a second analysis processing function for obtaining diagnostic support information by performing a second analysis processing on an image.
  • an image processor or a light source processor that executes various processes such as a central control unit 51, an image acquisition unit 52, an image processing unit 56, and a display control unit 57 included in the processor device 16 which is an image processing device.
  • the hardware-like structure of the processing unit such as 22 is various processors as shown below.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the present invention is a system or device for acquiring medical images (including moving images) other than endoscopic images. It can also be used in such cases.
  • the present invention can be applied to an ultrasonic inspection device, an X-ray imaging device (including a CT (Computed Tomography) inspection device, a mammography device, etc.), an MRI (magnetic resonance imaging) device, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Endoscopes (AREA)

Abstract

迅速に、かつ高い精度により診断支援情報を得ることができる画像処理装置(16)、内視鏡システム(10)、画像処理装置の作動方法、及び画像処理装置用プログラムを提供することを目的とする。 画像処理装置(16)は、内視鏡画像に基づく複数種類の候補画像を取得し、少なくとも1種類の候補画像に基づく表示画像をディスプレイ(18)に表示する制御を行い、予め設定した1または複数種類の候補画像に対し第1解析処理を行い、第1解析処理により得られる第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択し、最適画像に対し第2解析処理を行うことにより第2解析処理結果を得る。

Description

画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
 本発明は、診断支援情報を得る画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラムに関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。医師は、観察対象を内視鏡で撮影して得た画像(以下、内視鏡画像という)を自然な色によりディスプレイ等に表示して診断に用いるほか、場合により、画像強調内視鏡又は画像強調観察(IEE、image enhanced endoscopy)と称される方法により、色彩又は血管等の構造等を強調表示した各種の内視鏡画像を用いて観察対象を診断する。
 また、IEE等による各種の内視鏡画像を解析することにより、観察対象における病変の可能性がある領域の範囲、及び/又は炎症度等から、疾患のステージ等の判定結果等を含む診断支援情報を生成するCAD(Computer-Aided Diagnosis)技術が開発されている。例えば、IEEによる各種の内視鏡画像を用いて、潰瘍性大腸炎のステージ等の疾患の重症度又は進行度を高い精度で判定する内視鏡システムが知られている(特許文献1)。また、CADに適した明るさの画像を選択した上で診断支援情報を得る内視鏡装置が知られている(特許文献2)。
特開2020-65685号公報 国際公開第2020/012564号
 IEE等による各種の内視鏡画像は、医師等が診断のために用いるため、人が見た際に違和感のない色付けをした画像である場合が多い。IEEにより得られる人間にとって視認性が良い内視鏡画像は、CAD等による画像解析によって良好に診断支援情報が得られる内視鏡画像であるとは限らない場合がある。すなわち、人間にとっての視認性は悪いが、CAD等による画像解析に適した内視鏡画像が存在しうる。したがって、CAD等による画像解析に適切な種類の内視鏡画像を用いてCAD等を行うことにより、より精度が高い診断支援情報が得られる可能性がある。
 また、CAD等を用いて、内視鏡検査中にリアルタイムで詳細な診断支援情報を得ることにより、例えば、医師が病変の可能性が高い領域を発見し、一回の内視鏡検査においてこの領域を詳細に調べることができる。この場合は、再度の内視鏡検査を行う必要がないため好ましいが、検査中に診断支援情報を迅速に得る必要がある。また、内視鏡検査の被検者への負担軽減及び内視鏡検査の効率化からも、CAD等を行いながらも診断支援情報を迅速に得ることが好ましい。
 本発明は、迅速に、かつ高い精度により診断支援情報を得ることができる画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラムを提供することを目的とする。
 本発明の画像処理装置は、画像用プロセッサを備える。画像用プロセッサは、内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得し、複数種類の候補画像のうち少なくとも1種類の候補画像に基づく表示画像をディスプレイに表示する制御を行い、複数種類の候補画像のうち予め設定した1または複数種類の候補画像に対し第1解析処理を行い、第1解析処理により得られる第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択し、最適画像に対し第2解析処理を行うことにより第2解析処理結果を得る。
 画像用プロセッサは、第2解析処理結果をディスプレイに表示する制御を行うことが好ましい。
 画像用プロセッサは、第2解析処理結果を表示画像に重畳して表示する制御を行うことが好ましい。
 第1解析処理と第2解析処理とは、互いに異なる内容の解析処理であることが好ましい。
 内視鏡画像に対し強調処理を行うことにより候補画像を生成し、画像用プロセッサは、強調処理の有無又は種類により候補画像の種類を区別して、複数種類の候補画像を取得することが好ましい。
 強調処理は、色彩強調処理及び/又は構造強調処理であることが好ましい。
 また、本発明の内視鏡システムは、画像処理装置と、観察対象に照射する照明光を発する光源部とを備える。
 画像用プロセッサは、光源部が発する互いに分光スペクトルが異なる複数種類の照明光のそれぞれにより照明した観察対象を撮影することにより得られる内視鏡画像を、互いに異なる種類の候補画像として取得することが好ましい。
 光源部は、互いに分光スペクトルが異なる複数種類の照明光のそれぞれを、予め設定した順序からなる発光周期により繰り返して発することが好ましい。
 画像用プロセッサは、1回の発光周期において得られる複数種類の候補画像から、少なくとも1つの最適画像を選択することが好ましい。
 第1照明期間中に第1照明光を第1発光パターンにより発し、第2照明期間中に第2照明光を第2発光パターンにより発し、かつ、第1照明光と第2照明光とを切り替える光源用プロセッサと、第1照明光によって照明された観察対象を撮影して得られる第1内視鏡画像と、第2照明光によって照明された観察対象を撮影して得られる第2内視鏡画像とを出力する撮像センサとを備え、画像用プロセッサは、第1内視鏡画像と第2内視鏡画像とを候補画像として取得することが好ましい。
 画像用プロセッサは、光源部が発する白色の照明光により照明した観察対象を撮影することにより得られる内視鏡画像を、候補画像の1種として取得することが好ましい。
 画像用プロセッサは、光源部が発する予め設定した波長帯域の狭帯域光を含む照明光により照明した観察対象を撮影することにより得られる内視鏡画像を、候補画像の1種として取得することが好ましい。
 また、本発明の画像処理装置の作動方法は、内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得する候補画像取得ステップと、複数種類の候補画像のうち少なくとも1種類の候補画像に基づく表示画像をディスプレイに表示する制御を行う表示画像制御ステップと、複数種類の候補画像のうち予め設定した1または複数種類の候補画像に対し第1解析処理を行う第1解析処理ステップと、第1解析処理により得られる第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択する最適画像選択ステップと、最適画像に対し第2解析処理を行うことにより第2処理結果を得る第2解析処理ステップとを備える。
 また、本発明の画像処理装置用プログラムは、コンピュータに、内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得する候補画像取得機能と、複数種類の候補画像のうち少なくとも1種類の候補画像に基づく表示画像をディスプレイに表示する制御を行う表示制御機能と、複数種類の候補画像のうち予め設定した1または複数種類の候補画像に対し第1解析処理を行う第1解析処理機能と、第1解析処理により得られる第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択する最適画像選択機能と、最適画像に対し第2解析処理を行うことにより診断支援情報を得る第2解析処理機能とを実現させるための画像処理装置用プログラムである。
 本発明によれば、迅速に、かつ高い精度により診断支援情報を得ることができる。
内視鏡システムの構成を説明する説明図である。 内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、緑色光G、及び赤色光Rの分光スペクトルを示すグラフである。 第1A発光パターン及び第2A発光パターンを説明する説明図である。 第1B発光パターンを説明する説明図である。 第2B発光パターンを説明する説明図である。 第2C発光パターンを説明する説明図である。 第2D発光パターンを説明する説明図である。 画像処理部の機能を示すブロック図である。 診断支援画像処理部の機能を示すブロック図である。 候補画像取得部の機能を示すブロック図である。 第2照明光用分光スペクトルSP1を示すグラフである。 第2照明光用分光スペクトルSP2を示すグラフである。 第2照明光用分光スペクトルSP3を示すグラフである。 第4候補画像生成部の機能を示すブロック図である。 酸素飽和度算出用テーブルを示すグラフである。 第2照明光用スペクトルSP4を示すグラフである。 第5候補画像生成部の機能を示すブロック図である。 色差拡張処理を説明する説明図である。 候補画像取得を説明する説明図である。 画像認識部の機能を示すブロック図である。 第1解析処理部の機能を示すブロック図である。 対応情報取得部の機能を説明する説明図である。 候補画像取得と第1解析処理とについて説明する説明図である。 第2解析処理部の機能を示すブロック図である。 候補画像取得と第1解析処理と最適画像選択とについて説明する説明図である。 候補画像取得と第1解析処理と表示画像生成と最適画像選択と第2解析処理とについて説明する説明図である 第2診断支援情報をテキスト表示により表示したディスプレイを示す画像図である。 第2診断支援情報を枠表示とテキスト表示とにより表示したディスプレイを示す画像図である。 第5候補画像を最適画像として選択する説明図である。 MAYOスコアを表示したディスプレイを示す画像図である。 第2候補画像を最適画像として選択する説明図である。 Geboesスコアを表示したディスプレイを示す画像図である。 診断支援モードの一連の流れを示すフローチャートである。 診断支援装置を示す説明図である。 医療業務支援装置を示す説明図である。
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、ディスプレイ18と、キーボード19とを備える。内視鏡12は、観察対象を撮影する。光源装置14は、観察対象に照射する照明光を発する。プロセッサ装置16は、内視鏡システム10のシステム制御を行う。ディスプレイ18は、内視鏡画像に基づく表示画像、及び診断支援情報等を表示する表示部である。キーボード19は、プロセッサ装置16等への設定入力等を行う入力デバイスである。
 内視鏡システム10は、本実施形態において、観察モードとして、通常観察モード、特殊観察モード、及び診断支援モードの3つのモードを備える。通常観察モードでは、白色光等の通常光を観察対象に照射して撮影することによって、自然な色合いの通常観察画像を表示画像としてディスプレイ18に表示する。特殊観察モードでは、通常光と波長帯域又は分光スペクトルが異なる特殊光を観察対象に照明して撮影することによって、特定の構造等を強調した特殊画像を表示画像としてディスプレイ18に表示する。診断支援モードでは、表示画像をディスプレイ18に表示することに加え、診断支援情報を得て内視鏡システム10のユーザである医師等に通知する。診断支援情報の通知は、ディスプレイ18に表示することにより、又は、それ以外の方法により行われる。ディスプレイ18に表示する場合は、例えば、表示画像に重畳する、又は、表示画像とは別にディスプレイ18に表示することによって行ってもよい。
 内視鏡12は、観察対象を有する被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dとを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。その結果、先端部12dが所望の方向に向く。また、操作部12bには、アングルノブ12eの他、処置具挿入口(図示せず)、スコープボタン1番12f、スコープボタン2番12g、及びズーム操作部12hが設けられている。処置具挿入口は、生検鉗子、スネア、又は電気メス等の処置具を挿入する入り口である。処置具挿入口に挿入した処置具は、先端部12dから突出する。スコープボタンには、各種の操作を割り当てることができる。例えば、スコープボタン1番12fは、フリーズボタンであり、静止画を取得する操作に使用する。スコープボタン2番12gは、観察モードを切り替える操作に使用する。ズーム操作部12hを操作することによって、観察対象を拡大または縮小して撮影できる。
 図2に示すように、光源装置14は、照明光を発する光源を備える光源部20と、光源部20の動作を制御する光源用プロセッサ22とを備える。光源部20は、観察対象を照明する照明光を発する。照明光には、照明光を発するために使用する励起光等の発光を含む。光源部20は、例えば、レーザーダイオード、LED(Light Emitting Diode)、キセノンランプ、又はハロゲンランプの光源を含み、少なくとも、白色の照明光(以下、白色光という)、又は白色光を発するために使用する励起光を発する。白色には、内視鏡12を用いた観察対象の撮影において実質的に白色と同等な、いわゆる擬似白色を含む。
 光源部20は、必要に応じて、励起光の照射を受けて発光する蛍光体、又は、照明光又は励起光の波長帯域、分光スペクトル、もしくは光量等を調節する光学フィルタ等を含む。この他、光源部20は、少なくとも狭帯域な光(以下、狭帯域光という)からなる照明光を発することができる。「狭帯域」とは、観察対象の特性及び/またはイメージセンサ(撮像センサ)45が有するカラーフィルタの分光特性との関係において、実質的にほぼ単一の波長帯域であることをいう。例えば、波長帯域が約±20nm以下(好ましくは約±10nm以下)である場合、この光は狭帯域である。
 また、光源部20は、互いに分光スペクトルが異なる複数種類の照明光を発することができる。複数種類の照明光は、狭帯域光を含んでもよい。また、光源部20は、例えば、観察対象が含むヘモグロビンの酸素飽和度等の生体情報を算出するために使用する画像の撮影に必要な、特定の波長帯域又は分光スペクトルを有する光を発することができる。
 本実施形態では、光源部20は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dの4色のLEDを有する。図3に示すように、V-LED20aは、中心波長405nm、波長帯域380~420nmの紫色光Vを発光する。B-LED20bは、中心波長460nm、波長帯域420~500nmの青色光Bを発光する。G-LED20cは、波長帯域が480~600nmに及ぶ緑色光Gを発光する。R-LED20dは、中心波長620~630nmで、波長帯域が600~650nmに及ぶ赤色光Rを発光する。なお、V-LED20aとB-LED20bの中心波長は約±20nm、好ましくは約±5nmから約±10nm程度の幅を有する。なお、紫色光Vは、特殊観察モード又は診断支援モードにて用いる表層血管、表層血管の密集部、粘膜内出血、及び粘膜外出血等を強調して表示するために用いられる短波長の光であり、中心波長又はピーク波長に410nmを含めることが好ましい。また、紫色光V及び/又は青色光Bは、狭帯域光であることが好ましい。
 光源用プロセッサ22は、光源部20を構成する各光源の点灯又は消灯もしくは遮蔽のタイミング、及び、光強度又は発光量等を制御する。その結果、光源部20は、分光スペクトルが異なる複数種類の照明光を、予め設定した期間及び発光量で発することができる。本実施形態においては、光源用プロセッサ22は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dの点灯や消灯、点灯時の光強度もしくは発光量、又は光学フィルタの挿抜等を、各々に独立した制御信号を入力することにより制御する。光源用プロセッサ22は、各LED20a~20dをそれぞれ独立に制御することで、紫色光V、青色光B、緑色光G、又は赤色光Rをそれぞれ独立に光強度又は単位時間あたりの光量を変えて発光可能である。したがって、光源用プロセッサ22は、互いに分光スペクトルが異なる複数種類の照明光を発することができ、例えば、白色の照明光、分光スペクトルが異なる複数種類の照明光、又は、少なくとも狭帯域光からなる照明光等を発する。
 光源用プロセッサ22は、通常観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVc:Bc:Gc:Rcとなる白色光を発光するように、各LED20a~20dを制御する。なお、Vc、Bc、Gc、又はRcのそれぞれは、0(ゼロ)より大きく、0ではない。
 また、光源用プロセッサ22は、特殊観察モード時には、短波長の狭帯域光としての紫色光V、青色光B、緑色光G、及び赤色光Rとの光強度比がVs:Bs:Gs:Rsとなる特殊光を発光するように、各LED20a~20dを制御する。光強度比Vs:Bs:Gs:Rsは、通常観察モード時に使用する光強度比Vc:Bc:Gc:Rcと異なっており、観察目的に応じて適宜定められる。したがって、光源部20は、光源用プロセッサ22の制御により、互いに分光スペクトルが異なる複数種類の特殊光を発することができる。例えば、表層血管を強調する場合には、Vsを、他のBs、Gs、及びRsよりも大きくすることが好ましく、中深層血管を強調する場合には、Gsを、他のVs、Gs、及びRsよりも大きくすることが好ましい。
 なお、本明細書において、Vc、Bc、Gc、又はRcを除く光強度比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光強度比を有するものとする。
 また、光源用プロセッサ22は、本実施形態では、診断支援モード時に、複数種類の候補画像を取得するために、分光スペクトルが互いに異なる複数種類の照明光を自動的に切り替えて発することが好ましい。複数種類の照明光のそれぞれは、予め設定した順序により繰り返し発することが好ましい。そのため、複数種類の照明光のそれぞれは、予め設定した順序からなる特定のパターンを形成し、照明光は、特定のパターンを繰り返して発するものであることが好ましい。
 例えば、具体的には、光源用プロセッサ22は、第1照明期間において第1照明光を第1発光パターンで発し、第2照明期間において第2照明光を第2発光パターンで発する。第1照明期間に発する照明光が第1照明光であり、第2照明期間に発する照明光が第2照明光である。第1照明光は、表示画像に用いる内視鏡画像を得るため、白色光であることが好ましい。一方、第2照明光は、認識処理に用いるため、観察対象に照明することによってコンピュータが特定の解析処理を行うのに適した画像が得られる特殊光であることが好ましい。例えば、表層血管に関して解析処理を行う場合には、第2照明光を紫色光Vとすることが好ましい。なお、第1照明光と第2照明光とは、それぞれ分光スペクトルが互いに異なる複数種類の照明光を含んでもよい。
 第1発光パターンは、第1照明光の発光順序であり、第2発光パターンは、第2照明光の発光順序であり、それぞれの発光パターンを構成する要素は、撮影の単位であるフレームである。フレームとは、イメージセンサ45における特定タイミングから信号読み出し完了までの間の期間を少なくとも含む期間をいう。1フレームにおいて1回の撮影及び画像の取得を行う。第1照明光と第2照明光とは、いずれか一方を発し、同時に発することはない。1つの発光周期は、それぞれ少なくとも1つの第1発光パターンと第2発光パターンとからなり、第1発光パターンと第2発光パターンとを組み合わせて発光周期を構成する。発光周期を繰り返すことにより照明を行う。したがって、光源部20は、互いに分光スペクトルが異なる複数種類の照明光のそれぞれを、予め設定した順序からなる発光周期により繰り返して発する。第1発光パターン又は第2発光パターンのそれぞれを構成するフレーム数、又は照明光の種類等の詳細は、予め設定する。
 例えば、第1発光パターンは、第1A発光パターン又は第1B発光パターンであることが好ましい。図4に示すように、第1A発光パターンは、第1照明期間P1での第1照明光L1のフレームFL数が、それぞれの第1照明期間P1において同じである。したがって、発光周期Q1において、第1照明期間P1での第1照明光L1のフレームFL数は、全て2つに設定されている。図5に示すように、第1B発光パターンは、第1照明期間P1のフレームFL数がそれぞれの第1照明期間P1において異なる。したがって、発光周期Q2において、第1照明期間P1での第1照明光L1のフレームFL数は、2つの場合と3つの場合とを含む。なお、第1A発光パターン及び第1B発光パターンにおいて、第1照明光L1は同一の分光スペクトルであり、白色光である。
 第2発光パターンは、第2A発光パターン、第2B発光パターン、第2C発光パターン、又は第2D発光パターンであることが好ましい。図4に示すように、第2A発光パターンは、第2照明期間P2での第2照明光L2aのフレームFL数が、それぞれの第2照明期間P2において同じである。したがって、発光周期Q1において、第2照明期間P2での第2照明光L2aのフレームFL数は、全て1つに設定されている。なお、第2照明光L2は、分光スペクトルが異なる照明光を含む場合があり、これらを、第2照明光L2aと第2照明光L2bと記載して区別し、第2照明光L2と記載する場合はこれらを総称する。したがって、第2A発光パターンにおいて、第2照明光L2が第2照明光L2bの場合は、第2照明期間P2において、第2照明光L2bをフレームFL数1つで発する。図5に示すように、発光周期Q2においても、発光周期Q1と同様、第2照明光L2は第2A発光パターンで発する。
 図6に示すように、第2B発光パターンは、発光周期Q3において、第2照明期間P2のフレームFL数がそれぞれの第2照明期間P2において同じであり、且つ、第2照明光L2の分光スペクトルが、それぞれの第2照明期間P2において第2照明光L2a又は第2照明光L2bであり、異なる。図7に示すように、第2C発光パターンは、発光周期Q4において、第2照明期間P2のフレームFL数がそれぞれの第2照明期間P2において異なり、且つ、第2照明光L2の分光スペクトルがそれぞれの第2照明期間P2において第2照明光L2aであり、同じである。
 図8に示すように、第2D発光パターンは、発光周期Q5において、第2照明期間P2のフレームFL数がそれぞれの第2照明期間P2において異なり、且つ、第2照明光P2の分光スペクトルがそれぞれの第2照明期間P2において第2照明光2La又は第2照明光2Lbであり、異なる。
 以上のとおり、診断支援モード時は、光源用プロセッサ22が、第1発光パターンと第2発光パターンを組み合わせて構成した発光周期を繰り返す。図4に示すように、発光周期Q1は、第1A発光パターンと第2A発光パターンとからなる。図5に示すように、発光周期Q2は、第1B発光パターンと第2A発光パターンとからなる。図6に示すように、発光周期Q3は、第1A発光パターンと第2B発光パターンとからなる。図7に示すように、発光周期Q4は、第1A発光パターンと第2C発光パターンとからなる。図8に示すように、発光周期Q5は、第1A発光パターンと第2D発光パターンとからなる。なお、第1発光パターンにおいて、第1照明光L1の分光スペクトルは、それぞれの第1照明期間P1において、異なってもよい。
 また、診断支援モード時は、光源用プロセッサ22は、後に説明する各解析処理による解析処理結果に基づいて、第1発光パターン又は第2発光パターンを変更してもよい。発光パターンの変更には、照明光の種類の変更を含む。具体的には、例えば、解析処理結果に基づいて、第2発光パターンを、第2Aパターンから第2B発光パターンに変更する、又は、第2照明光L2aを用いた第2A発光パターンから、第2照明光L2bを用いた第2A発光パターンに変更する、等の切り替えを行ってもよい。
 ここで、第1照明期間P1は第2照明期間P2よりも長くすることが好ましく、第1照明期間P1は2フレーム以上とすることが好ましい。例えば、図4では、第1発光パターンを第1Aパターンとし、第2発光パターンを第2A発光パターンとする発光周期Q1において、第1照明期間P1を2フレームとし、第2照明期間P2を1フレームとしている。第1照明光P1は、ディスプレイ18に表示する表示画像の生成に用いられることから、第1照明光P1を観察対象に照明することによって、明るい表示画像が得られることが好ましい。
 図2に示すように、各LED20a~20dが発する光は、ミラーやレンズ等で構成される光路結合部(図示せず)を介して、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード(図示せず)に内蔵されている。ユニバーサルコードは、内視鏡12と、光源装置14及びプロセッサ装置16を接続するコードである。ライトガイド41は、光路結合部からの光を、内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮影光学系30bとが設けられる。照明光学系30aは、照明レンズ42を有しており、ライトガイド41によって伝搬した照明光が、照明レンズ42を介して観察対象に向けて出射する。
 撮影光学系30bは、対物レンズ43、ズームレンズ44、及びイメージセンサ45を有する。イメージセンサ45は、対物レンズ43及びズームレンズ44を介して、観察対象から戻る照明光の反射光等(反射光の他、散乱光、観察対象が発光する蛍光、または、観察対象に投与等した薬剤に起因した蛍光等を含む)を用いて観察対象を撮影する。ズームレンズ44は、ズーム操作部12hの操作をすることで移動し、観察対象像を拡大または縮小する。
 イメージセンサ45は、画素ごとに、複数色のカラーフィルタのうち1色のカラーフィルタを有する。本実施形態においては、イメージセンサ45は原色系のカラーフィルタを有するカラーセンサである。具体的には、イメージセンサ45は、赤色カラーフィルタ(Rフィルタ)を有するR画素と、緑色カラーフィルタ(Gフィルタ)を有するG画素と、青色カラーフィルタ(Bフィルタ)を有するB画素とを有する。
 なお、イメージセンサ45としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ45は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色-原色色変換をすれば、原色系のカラーセンサで得る画像と同様の画像に変換できる。原色系または補色系のセンサにおいて、W画素(ほぼ全波長帯域の光を受光するホワイト画素)等、上記以外の特性を有する画素を1または複数種類有する場合も同様である。また、本実施形態のイメージセンサ45はカラーセンサであるが、カラーフィルタを有しないモノクロのセンサを使用してもよい。
 内視鏡12は、イメージセンサ45を制御する撮影用プロセッサ46を備える。撮影用プロセッサ46の制御は、観察モード毎に異なる。通常観察モードでは、撮影用プロセッサ46は、通常光で照明された観察対象を撮影するように、イメージセンサ45を制御する。これにより、イメージセンサ45のB画素からBc画像信号が出力され、G画素からGc画像信号が出力され、R画素からRc画像信号が出力される。
 特殊観察モードでは、撮影用プロセッサ46はイメージセンサ45を制御して、特殊光で照明された観察対象を撮影するように、イメージセンサ45を制御する。これにより、イメージセンサ45のB画素からBs画像信号が出力され、G画素からGs画像信号が出力され、R画素からRs画像信号が出力される。
 診断支援モードでは、撮影用プロセッサ46はイメージセンサ45を制御し、第1照明光L1又は第2照明光L2で照明された観察対象を撮影するように、イメージセンサ45を制御する。これにより、例えば、第1照明光L1の照明時には、イメージセンサ45のB画素からB1画像信号が出力され、G画素からG1画像信号が出力され、R画素からR1画像信号が出力される。また、第2照明光L2の照明時には、例えば、イメージセンサ45のB画素からB2画像信号が出力され、G画素からG2画像信号が出力され、R画素からR2画像信号が出力される。
 プロセッサ装置16には、後述するような中央制御部51、画像取得部52、画像処理部56、及び表示制御部57等が行う処理等に関するプログラムがメモリ(図示せず)に組み込まれている。画像処理装置として機能するプロセッサ装置16が備える画像用プロセッサにより構成される中央制御部51によってそのプログラムが動作することで、中央制御部51、画像取得部52、画像処理部56、及び表示制御部57の機能が実現する。
 中央制御部51は、照明光の照射タイミングと撮影のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。キーボード19等を用いて、各種設定の入力等をした場合には、中央制御部51は、その設定を、光源用プロセッサ22、撮影用プロセッサ46、又は画像処理部56等の内視鏡システム10の各部に入力する。
 画像取得部52は、イメージセンサ45から、各色の画素を用いて観察対象を撮影した画像、すなわちRAW画像を取得する。また、RAW画像は、デモザイク処理を実施する前の画像(内視鏡画像)である。デモザイク処理を実施する前の画像であれば、イメージセンサ45から取得した画像に対してノイズ低減処理等の任意の処理を実施した画像もRAW画像に含む。
 画像取得部52は、取得したRAW画像に必要に応じて各種処理を施すために、DSP(Digital Signal Processor)53と、ノイズ低減部54と、変換部55と、を備える。
 DSP53は、例えば、オフセット処理部、欠陥補正処理部、デモザイク処理部、リニアマトリクス処理部、及び、YC変換処理部、等(いずれも図示せず)を備える。DSP53は、これらを用いてRAW画像またはRAW画像を用いて生成した画像に対して各種処理を施す。
 オフセット処理部は、RAW画像に対してオフセット処理を施す。オフセット処理は、RAW画像から暗電流成分を低減し、正確な零レベルを設定する処理である。オフセット処理は、クランプ処理と称する場合がある。欠陥補正処理部は、RAW画像に対して欠陥補正処理を施す。欠陥補正処理は、イメージセンサ45が製造工程または経時変化に起因する欠陥を有する画素(欠陥画素)を含む場合に、イメージセンサ45の欠陥画素に対応するRAW画素の画素値を補正または生成する処理である。
 デモザイク処理部は、各色のカラーフィルタに対応する各色のRAW画像に対してデモザイク処理を施す。デモザイク処理は、RAW画像においてカラーフィルタの配列に起因して欠落する画素値を補間によって生成する処理である。リニアマトリクス処理部は、1または複数のRAW画像をRGB各色のチャンネルに割り当てることにより生成する内視鏡画像に対してリニアマトリクス処理を行う。リニアマトリクス処理は、内視鏡画像の色再現性を高める処理である。YC変換処理部が行うYC変換処理は、1または複数のRAW画像をRGB各色のチャンネルに割り当てることにより生成する内視鏡画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrを有する内視鏡画像に変換する処理である。
 ノイズ低減部54は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを有する内視鏡画像に対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部55は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色のチャンネルを有する内視鏡画像に再変換する。
 画像処理部56は、画像取得部52が出力する内視鏡画像に、必要な画像処理、又は演算を行う。図9に示すように、画像処理部56は、通常観察画像処理部61、特殊観察画像処理部62、及び診断支援画像処理部63を備える。通常観察画像処理部61は、入力した1フレーム分のRc画像信号、Gc画像信号、及びBc画像信号に対して、通常観察画像用画像処理を施す。通常観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、又は空間周波数強調等の構造強調処理が含まれる。通常観察画像用画像処理が施されたRc画像信号、Gc画像信号、及びBc画像信号は、通常観察画像であり、通常観察モードにおいて、表示画像として表示制御部57に入力する。
 特殊観察画像処理部62は、入力した1フレーム分のRs画像信号、Gs画像信号、及びBs画像信号に対して、特殊観察画像用画像処理を施す。特殊観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、又は空間周波数強調等の構造強調処理が含まれる。特殊観察画像用画像処理が施されたRs画像信号、Gs画像信号、及びBs画像信号は、特殊観察画像であり、特殊観察モードにおいて表示画像として表示制御部57に入力する。
 診断支援画像処理部63は、診断支援モードにおける画像解析処理等を行い、診断支援情報を生成する。診断支援情報は、医師等のユーザに示される。図10に示すように、診断支援画像処理部63は、候補画像取得部71、第1解析処理部72、最適画像選択部73、第2解析処理部74、及び表示画像生成部75を備える。
 候補画像取得部71は、画像取得部52が出力する内視鏡画像に基づいて、複数種類の候補画像を生成及び取得する。候補画像の種類は、次の2点のいずれか一方又は両方により区別する。1点目は、観察対象を撮影する際の照明光の分光スペクトルにより区別する。したがって、候補画像取得部71は、光源部が発する互いに分光スペクトルが異なる複数種類の照明光のそれぞれにより照明した観察対象を撮影することにより得られる内視鏡画像を、それぞれ1種の候補画像として取得する。2点目は、内視鏡画像に対する候補画像生成のための画像処理(以下、候補画像生成用画像処理という)の方法により区別する。
 候補画像生成用画像処理の方法としては、例えば、強調処理等の画像処理の方法を含み、具体的には、色彩拡張処理及び/又は構造強調処理等を含む。なお、候補画像生成用画像処理の方法により候補画像を区別する際には、候補画像生成用画像処理を行わないことを含む。したがって、画像取得部52が出力する内視鏡画像に対して候補画像生成用画像処理を行わない内視鏡画像も、候補画像の1種類である。したがって、照明光の分光スペクトルと候補画像生成用画像処理との組み合わせが異なる場合も、候補画像の1種類とする。照明光の分光スペクトル又は画像処理のいずれか一方が異なる候補画像は、異なる種類の候補画像である。
 図11に示すように、候補画像取得部71は、複数種類の候補画像のそれぞれを生成する各候補画像生成部を備える。例えば、第1候補画像生成部81、第2候補画像生成部82、第3候補画像生成部83、第4候補画像生成部84、第5候補画像生成部85、及び第n候補画像生成部86を備える。nは6以上の整数である。nは、複数種類の候補画像の種類の数に応じて設定できる。各候補画像取得部は、それぞれ以下の照明光及び/又は候補画像生成用画像処理を行う。
 第1候補画像生成部81は、第1候補画像を生成するための第1候補画像用画像処理(以下、第1画像処理という)を行う。第1画像処理は、第1照明光用分光スペクトルである白色光の第1照明光を発して得られたB1画像信号、G1画像信号、及びR1画像信号に対して施す処理である。第1画像処理は、通常観察画像処理部61における通常表示画像処理と同様であり、通常表示画像と同様の第1候補画像を得る。第1候補画像は、候補画像の1種である。したがって、候補画像取得部71は、白色の照明光により照明した観察対象を撮影することにより得られる画像を、候補画像の1種として取得する。
 第2候補画像生成部82は、第2候補画像を生成するための第2候補画像用画像処理(以下、第2画像処理という)を行う。第2画像処理は、第2照明光用分光スペクトルSP1で第2照明光L2を発して得られたB2画像信号、G2画像信号、及びR2画像信号に対して施す処理である。第2照明光用分光スペクトルSP1で発する第2照明光L2は、図12に示すように、紫色光Vが他の色の青色光B、緑色光G、及び赤色光Rよりもピークの強度が大きい光であることが好ましい。第2画像処理は、B2画像信号を表示用のBチャンネルとGチャンネルとに割り当て、G2画像信号を表示用のRチャンネルに割り当てる疑似カラー処理である。この疑似カラー処理により、表層血管など特定深さの血管又は構造が強調された第2候補画像が得られる。第2候補画像は、候補画像の1種である。
 第3候補画像生成部83は、第3候補画像を生成するための第3候補画像用画像処理(以下、第3画像処理という)を行う。第3画像処理は、第2照明光用分光スペクトルSP2で第2照明光を発して得られたB2画像信号、G2画像信号、及びR2画像信号に対して施す処理である。第2照明光用分光スペクトルSP2で発する第2照明光は、図13に示すように、紫色光V(ピーク波長は例えば400~420nm)のみを発する光であることが好ましい。第3画像処理は、B2画像信号を表示用のBチャンネル、Gチャンネル、及びRチャンネルに割り当てて、且つ、色調及び階調バランスの調整を行う処理である。第3画像処理によって、表層血管よりも浅い極表層血管などが強調された第3候補画像が得られる。第3候補画像は、候補画像の1種である。
 第4候補画像生成部84は、第4候補画像を生成するための第4候補画像用画像処理(以下、第4画像処理という)を行う。第4画像処理は、第1照明光を発して得られたB1画像信号、G1画像信号、及びR1画像信号に加えて、第2照明光用分光スペクトルSP3で第2照明光を発して得られたB2画像信号、G2画像信号、及びR2画像信号に対して施す処理である。第2照明光用分光スペクトルSP3は、図14に示すように、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に差がある波長域の光である青紫色光VB(ピーク波長は例えば470~480nm)であることが好ましい。
 第4候補画像生成部84は、図15に示すように、B2画像信号とG1画像信号との比を表す第1信号比(B2/G1)、及び、R1画像信号とG1画像信号との比を表す第2信号比(R1/G1)を算出する信号比算出処理を行う酸素飽和度用信号比算出部84aと、酸素飽和度算出用テーブル84bを参照して、第1信号比及び第2信号比に対応する酸素飽和度を算出する酸素飽和度算出部84cと、酸素飽和度に基づいて酸素飽和度画像を生成する酸素飽和度画像生成部84dとを備える。酸素飽和度画像が、第4画像処理により得られる第4候補画像となる。第4候補画像は、候補画像の1種である。
 なお、酸素飽和度算出用テーブル84bは、酸素飽和度と第1信号比及び第2信号比との相関関係が記憶されている。具体的には、酸素飽和度算出用テーブル84bは、図16に示すように、第1信号比(B2/G1)と第2信号比(R1/G1)を軸とする2次元空間に、酸素飽和度の等値線ELx、EL1、EL2、EL3、ELyなどを定義した2次元テーブルで構成される。例えば、等値線ELxは酸素飽和度が0%、等値線EL1は酸素飽和度が30%、等値線EL2は酸素飽和度が50%、等値線EL3は酸素飽和度が80%であることを表している。なお、第1信号比(B2/G1)と第2信号比(R1/G1)に対する等値線の位置及び形状は、光散乱の物理的なシミュレーションによって予め得られる。なお、第1信号比(B2/G1)と第2信号比(R1/G1)はlogスケールであることが好ましい。
 第5候補画像生成部85は、第5候補画像を生成するための第5候補画像用画像処理(以下、第5画像処理という)を行う。第5画像処理は、色彩拡張処理であり、具体的には、第2照明光用分光スペクトルSP4で第2照明光を発して得られたB2画像信号、G2画像信号、及びR2画像信号に対して施す処理である。第2照明光用スペクトルSP4は、図17に示すように、紫色光V及び青色光Bのピーク強度が、緑色光G及び赤色光Rのピーク強度よりも大きい光であることが好ましい。また、第2照明光用スペクトルSP2と比べると、赤色光Rの強度が大きいことが好ましい。
 第5画像処理は、図18に示すように、B2画像信号とG2画像信号との比を表す第1信号比(B2/G2)、及び、R2画像信号とG2画像信号との比を表す第2信号比(G2/R2)を算出する信号比算出処理を行う色差拡張用信号比算出部85aと、第1信号比及び第2信号比に基づいて、複数の観察対象範囲の間の色差を拡張する色差拡張処理を行う色差拡張処理部85bと、色差拡張処理後の第1信号比及び第2信号比に基づいて、色差拡張画像を生成する色差拡張画像生成部85cが設けられている。色差拡張画像が、第5画像処理により得られる第5候補画像となる。第5候補画像は、候補画像の1種である。
 色差拡張処理については、図19に示すように、第1信号比(B2/G2)及び第2信号比(G2/R2)からなる二次元空間で複数の観察対象範囲の間の距離を拡張することが好ましい。具体的には、二次元空間において、複数の観察対象範囲のうち第1範囲(円で囲んだ1により示す)の位置を色差拡張処理前後で維持した状態で、第1範囲と第2範囲(円で囲んだ2により示す)との距離、第1範囲と第3範囲(円で囲んだ3により示す)との距離、及び、第1範囲と第4範囲(円で囲んだ4により示す)との距離を拡張することが好ましい。色差拡張処理は、第1信号比及び第2信号比を極座標変換した上で、動径と角度を調整する方法により行うことが好ましい。なお、第1範囲は病変などが存在しない正常部で、第2~第4範囲は、病変等が存在する可能性がある異常部であることが好ましい。色差拡張処理により、色差拡張処理前の二次元空間での範囲A1から、色差拡張処理後では範囲A2へと広げられるため、色差が強調され、例えば、異常部と正常部との色の差が強調された画像となる。
 以上のように、内視鏡画像に対し各種の方法の画像処理を行うことにより、複数種類の候補画像を生成する。第n候補画像生成部86は、n種類目の候補画像を生成する。画像処理の方法又は内容は、上記に限らない。例えば、色差拡張処理の他、構造強調処理等の強調処理を行っても良い。内視鏡画像に対する強調処理の有無又は強調処理の種類により、候補画像の種類を区別し、区別した候補画像をそれぞれ1種の候補画像として取得する。なお、強調処理を実施する内視鏡画像は、第1画像処理から第n画像処理のうちいずれか1つの画像処理を行った後のものでも、行わないものでもよい。
 構造強調処理は、観察対象における血管が強調されて表された内視鏡画像となるように、取得した内視鏡画像に対して行う処理である。具体的には、内視鏡画像としては、第1照明光を発して得られたB1画像信号、G1画像信号、及びR1画像信号、又は、第2照明光を発して得られたB2画像信号、G2画像信号、及びR2画像信号のいずれかを用いる。構造強調処理では、取得した内視鏡画像において、横軸に画素値(輝度値)を、縦軸に頻度を取ったグラフである濃度ヒストグラムを求め、画像処理部56のメモリ(図示せず)等に予め記憶しておいた階調補正テーブルにより、階調補正を行う。階調補正テーブルは、横軸が入力値を、縦軸が出力値を表し、入力値と出力値の対応関係を示す階調補正カーブを有しており、例えば、略S字形状の階調補正カーブに基づいて階調補正を行って、取得した内視鏡画像のダイナミックレンジを広げる。これにより、構造強調の強調処理前の原画像において濃度が低い部分は、濃度がより低く、濃度が高い部分はより高くなるため、例えば、血管領域と血管が存在しない領域の濃度差が広がって、血管のコントラストが向上する。したがって、構造強調処理により処理された内視鏡画像は、血管のコントラストが向上され、血管の構造の視認性が高められており、より容易に、また、精度良く、例えば、血管の密集度が高い領域を特定領域として判定等に好ましく用いることができる。
 また、候補画像取得部71は、光源部20が発する予め設定した波長帯域の狭帯域光を含む照明光により照明し記観察対象を撮影することにより得られる内視鏡画像を、候補画像の1種として取得することが好ましい。したがって、複数種類の候補画像は、狭帯域光からなる照明光による内視鏡画像を少なくとも1種含むことが好ましい。狭帯域光であることが好ましい紫色光V及び/又は青色光Bを含む照明光により照明した観察対象を撮影することにより得られる内視鏡画像を候補画像の1種として生成してもよい。
 また、狭帯域光の狭帯域としては、480nm以下の短波であることが好ましい。さらに、狭帯域光の中心波長又はピーク波長には、410nmの波長を含むことが好ましい。さらに、狭帯域光は、1つの狭帯域のみをもつ単色光であることが好ましい。さらに、狭帯域光を主成分とした内視鏡画像に対し色付けを行った内視鏡画像を、候補画像の1種として取得することが好ましい。
 狭帯域光を主成分とした内視鏡画像に対し色付けを行った内視鏡画像は、例えば、特定の単色光で観察対象を撮影した特定色画像を、複数の色チャンネルに割り当て、かつ、各々の色チャンネルのバランスを調節することにより、特定色画像からカラー画像を生成する方法により得られる。なお、この場合、色付けは、L色空間において、観察対象を写す観察対象像のうち相対的に低周波数の成分の色と、観察対象像のうち相対的に高周波数の成分の色と、の距離を拡大することが好ましい。このような内視鏡画像に基づく候補画像は、観察対象像に対応して色付けを調整することにより、例えば、ズーム画像等において、血管等の微細な特定の構造がより把握しやすい内視鏡画像とすることができる。また、人間にとって視認しやすい内視鏡画像とすることに加え、色付けを調整することにより、コンピュータによる解析処理にとって良好な解析結果が得られる内視鏡画像とすることができるため、好ましい。
 特定の狭帯域光を含む照明光により、例えば、特定の粘膜の深さに存在する血管、特定の太さ等の血管、又は、腺管等、特定の構造等が強調された候補画像が得られる。なお、候補画像における強調とは、人の視覚に対する強調のみならず、コンピュータがCAD等を行う場合に対する強調も含む。したがって、CAD等を用いた場合に良好な解析処理結果が得られるように強調した候補画像であることが好ましい。生成した複数種類の候補画像は、第1解析処理部72に送られる。図20に示すように、例えば、第1候補画像と、第2候補画像と、第5候補画像との、3種類の候補画像を取得する。図20等では、「候補画像取得:」等により、右欄に記載の各処理について、左欄において説明する記載を行っている。
 第1解析処理部72は、複数種類の候補画像のうち予め設定した1または複数種類の候補画像に対し、第1解析処理を行う。第1解析処理を行う候補画像の種類の数は、任意に設定する。候補画像をk種類取得した場合、第1解析処理を行う候補画像の種類は1からkまでのいずれかである。ここで、kは、2以上の整数である。第1解析処理を行う候補画像の種類も、予め設定することができる。
 第1解析処理により得られる第1解析処理結果は、複数種類の候補画像から少なくとも1種類の候補画像を選択するために用いられる。選択した候補画像に対し第2解析処理部74が第2解析処理を行う。第2解析処理部74が第2解析処理を行う対象として選択した少なくとも1種の候補画像を、最適画像とする。最適画像に対して、第2解析処理部74が第2解析処理を行うことにより第2解析結果が得られる。第2解析処理結果は、最終的な診断支援情報としてユーザに通知等されるため、第1解析処理結果は、第2解析処理によって良好な結果が得られる最適画像を選択できるものであることが好ましい。第1解析処理結果は、診断支援情報であることが好ましい。第1解析処理結果による診断支援情報を、第1診断支援情報とする。第1解析処理を行った候補画像の数に対応して、第1診断支援情報が1つ又は複数得られる。
 第1解析処理結果は、候補画像に基づく情報であり、例えば、内視鏡先端部12dと観察対象との距離、又は、候補画像の全体もしくは特定領域の明るさ等の候補画像から得られる情報のほか、観察対象が含む、粘膜等の被写体名、部位名、疾患名、特定の構造名、又は、処置具等の生体由来でない物体名である。また、病変又は疾患に関して、有無、指標値、位置もしくは領域、正常領域との境界線、確率、進行度、又は重症度とすることができる。また、候補画像に写る観察対象における病理状態等の特定の状態、出血、又は治療痕とすることができる。部位名としては、候補画像に写る特徴的な部位であることが好ましく、例えば、上部消化管であれば、食道部、噴門部、胃穹窿部、胃体部、幽門部、胃角部、又は十二指腸球部等であり、大腸であれば、盲腸、回盲部、上行結腸、横行結腸、下行結腸、S状結腸、又は直腸等である。特定の構造としては、血管、腺管、ポリープもしくはがん等の隆起部、又は陥没部等であり、生体由来でない物体としては、内視鏡に付属可能な生検鉗子、スネア、もしくは異物摘出デバイス等の処置具、又は腹腔鏡手術に用いる腹腔用処置具等である。病変又は疾患名としては、上部消化管又は大腸の内視鏡検査において見られる病変又は疾患が挙げられ、例えば、炎症、発赤、出血、潰瘍、もしくはポリープ、又は、胃炎、バレット食道、がんもしくは潰瘍性大腸炎等である。生体情報の値とは、観察対象の生体情報の値であり、例えば、酸素飽和度、血管密集度、又は、色素による蛍光の値等である。
 また、第1診断支援情報は、判定又は鑑別結果であってもよい。判定又は鑑別としては、腫瘍と非腫瘍等の鑑別、各種疾患のステージ又は重症度、メイヨースコア(Mayo Score)、又はゲボススコア(Geboes Score)等の、各種スコアであってもよい。
 Mayoスコアは潰瘍性大腸炎の内視鏡的重症度を示すスコアであり、内視鏡を用いた大腸における患部の所見により、疾患の特徴の有無及び程度等から、グレード0及び1の軽症、グレード2の中等症またはグレード3の重症のいずれかに判定する。例えば、グレード0をMayo0と表記する。したがって、診断支援情報は、Mayo0からMayo3のいずれかである。
 また、Geboesスコアは潰瘍性大腸炎の病理学的重症度を示すスコアであり、顕微鏡を用いた生検組織の所見により、疾患の特徴の有無及び程度等から、Geboes0の軽症ステージから、Geboes0からGeboes2Aの病理的寛解、Geboes2BからGeboes5の病理的非寛解のいずれかに判定する。したがって、診断支援情報は、Geboes0からGeboes5、又は、Geboes2AもしくはGeboes2Bのいずれかである。
 また、例えば、胃がんにおけるステージは、病変の観察及び生検等により、腫瘍の深さ及び転移の状態を総合的に判定し、ステージIからIVまでに分類する。したがって、診断支援情報は、ステージIからステージIVのいずれかである。
 また、第1解析処理結果は、候補画像から得られる電子ズーム率等の撮影条件を含む。また、場合によっては、通信によるHIS(Hospital Information System:病院情報システム)、RIS(Radiology Information System:放射線情報システム)等の情報管理サーバ、又は、PACS(Picture Archiving and Communication System for medical application:医療画像保管通信システム)等の画像サーバからの情報であってもよい。また、画像解析処理により得られる第1解析処理結果自体の確度等も含む。
 第1解析処理部72は、複数種類の候補画像に対して同じ方法により第1解析処理を行ってもよいが、複数種類の候補画像の種類毎に互いに異なる方法により第1解析処理を行ってもよい。候補画像の種類によって、画像解析処理により良好な結果を得ることができる第1解析処理結果の種類が異なる場合があるためである。第1解析処理を候補画像の種類毎に行うことにより、候補画像に適した画像解析処理を行うことができ、最終的により高い精度で診断支援情報が得られる最適画像を選択できるため好ましい。候補画像の種類毎に行う第1解析処理は、それぞれ独立に、並列して実施することが好ましい。
 この場合、図21に示すように、第1解析処理部72は、候補画像の種類毎に設けた、第1画像第1解析処理部91、第2画像第1解析処理部92、第3画像第1解析処理部93、第4画像第1解析処理部94、第5画像第1解析処理部95、及び第n画像第1解析処理部96の各第1解析処理部を備える。nは6以上の整数であり、候補画像の種類の数に応じた数の各画像用の第1解析処理部を備える。第1画像第1解析処理部91は、第1候補画像に対して第1解析処理を行う。同様に、第2画像第1解析処理部92は、第2候補画像に対して第1解析処理を行い、第3画像第1解析処理部93は、第3候補画像に対して第1解析処理を行い、第4画像第1解析処理部94は、第4候補画像に対して第1解析処理を行い、第5画像第1解析処理部95は、第5候補画像に対して第1解析処理を行い、また、第n画像第1解析処理部96は、第n候補画像に対して第1解析処理を行う。例えば、予め第1解析処理を行う対象を、第1候補画像、第2候補画像及び第5候補画像の3種類であると設定した場合、第1候補画像と、第2候補画像と、第5候補画像との3種類の候補画像を取得した場合では、それぞれ第1画像第1解析処理部91、第2画像第1解析処理部92、及び第5画像第1解析処理部95の3個の第1解析処理部において、第1解析処理を行う。
 なお、複数種類の候補画像に対して同じ方法により第1解析処理を行う場合は、各第1解析処理部が、互いに異なる種類の候補画像の解析処理を行ってもよい。すなわち、各課題1解析処理部は、互いに異なる種類の候補画像に対して共通して用いられても良い。
 第1解析処理の方法としては、第1解析処理結果として第1診断支援情報が得られる方法を用いることができ、例えば、候補画像の画素値及び/又は輝度値等の画像に基づく値を用いる方法、画像から算出した酸素飽和度、もしくは血管密集度等の生体情報の値を用いる方法、候補画像が備える撮影条件等の情報を用いる方法、又は、観察対象における特定状態と、特定状態を含む観察対象を撮影することにより得た候補画像とを、予め対応付けた対応情報を用いる方法等が挙げられる。
 なお、観察対象における特定状態とは、第1診断支援情報の例と同様とすることができる。第1解析処理部72は、観察対象の特定状態と、特定状態である観察対象を撮影することにより得た候補画像とを、予め対応付けた対応情報を取得する対応情報取得部(図示せず)を備えることが好ましい。対応情報は、予め観察対象の特定状態が判明している場合に、この観察対象を撮影することにより得た候補画像と、観察対象の特定状態又は特定状態の領域等の情報等を対応させた情報である。第1解析処理部72又は各第1解析処理部は、対応情報に基づき、新たに取得した候補画像に対する第1解析処理を行うことが好ましい。
 図22に示すように、特定状態について未知である新たに取得した候補画像を対応情報取得部に入力することにより、対応情報取得部が備える候補画像と観察対象の特定状態とが対応付けられた対応情報を用いて、新たに取得した候補画像における特定状態を推定して第1解析処理結果として出力することができる。また、対応情報取得部は、それぞれ新たに取得した候補画像と、推定により出力した第1解析処理結果が含む特定状態とを、対応情報としてさらに取得する学習を行ってもよい。
 対応情報は、第1画像第1解析処理部91から第n画像第1解析処理部96までのそれぞれの第1解析処理部において、それぞれ備えることが好ましい。候補画像の種類毎に、特定の種類の特定状態が対応付けられた対応情報取得部を備えることにより、各種類の候補画像が画像認識処理により良好な結果を得ることができる。
 例えば、候補画像の種類が血管を強調した候補画像である第2候補画像である場合、第2候補画像に対応する第1解析処理部は、第2画像第1解析処理部92において実施する。第2画像第1解析処理部92は、観察対象の血管に関する特定状態に関する対応情報を含む対応情報取得部を備える。対応情報取得部は、対応情報に基づき第2候補画像の第1解析処理を行い、この第2候補画像が含む観察対象の特定状態に関する領域等の詳細を出力する。なお、特定状態に関する詳細等の出力には、「特定状態を含まない」といった内容も含む。
 各対応情報取得部は、例えば、機械学習における学習済みモデルである。より迅速にかつ高い精度で、新たに取得した候補画像における観察対象の特定状態が第1解析処理結果として得られることから、機械学習による学習済みモデルを対応情報取得部として用いた第1解析処理を行うことが好ましい。本実施形態においては、各対応情報取得部として、機械学習における学習済みモデルを用いて観察対象の特定状態を出力するための第1解析処理を行う。なお、この場合、学習済みモデルは、それぞれの種類の候補画像について学習したものを用いることが、良好な解析処理結果を得るために好ましい。したがって、例えば、第1画像第1解析処理部91が備える対応情報と、第2画像第1解析処理部92が備える対応情報とは、互いに異なる学習済みモデルであることが好ましい。
 図23に示すように、例えば、第1画像第1解析処理部91、第2画像第1解析処理部92、及び第5画像第1解析処理部95の3個の第1解析処理部において、それぞれ第1候補画像、第2候補画像、及び第5候補画像の第1解析処理を学習済みモデルを用いて画像解析処理を行い、それぞれの第1解析処理部より第1診断支援情報が得られ、計3個の第1診断支援情報が得られる。
 最適画像選択部73は、第1解析処理により得られる第1解析結果に基づいて、候補画像取得部71が取得した複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択する。第1解析処理は、1又は複数種類の候補画像に対して行うため、第1解析処理を行った候補画像の数に対応して、第1解析処理結果である第1診断支援情報が1又は複数個得られる。第1診断支援情報が複数個得られる場合は、これらを総合したものを第1診断支援情報とする。
 最適画像を選択する方法としては、各種の方法を用いることができる。例えば、第1診断支援情報と、複数種類の候補画像のうち第2解析処理に最も好ましい候補画像の種類とを対応付けた対応テーブルを、予め用意して用いることができる。
 なお、光源部20が、発光周期を繰り返す場合、最適画像選択部73は、1回の発光周期において得られる複数種類の候補画像から、少なくとも1つの最適画像を選択することが好ましい。これにより、発光周期が切り替わる度に、常に最新の最適画像が選択され、最新の診断支援情報が得られるため好ましい。
 図24に示すように、例えば、候補画像を3種類取得して、第1診断支援情報が3個得られた場合、第1診断支援情報は、観察対象の被写体名及び内視鏡先端部12dと観察対象との距離であり、具体的には、3個の第1診断支援情報のすべてが、被写体名が「粘膜」であり、内視鏡先端部12dと観察対象との距離が「遠景」であったとする。最適画像選択部73は、3個の第1診断支援情報を総合して、被写体名が「粘膜」であり、内視鏡先端部12dと観察対象との距離が「遠景」であるとして、最適画像選択部73が備える対応テーブル(図示せず)を用いて、最適画像として、例えば、1種類の候補画像の第1候補画像を選択する。
 第2解析処理部74は、最適画像に対し第2解析処理を行うことにより第2解析処理結果を得る。第2解析処理結果は、最終的な診断支援情報としてユーザに通知等される。第2解析処理結果は、診断支援情報であることが好ましい。第2解析処理結果による診断支援情報を、第2診断支援情報とする。第2解析処理は、通常、1つ選択した候補画像である最適画像に対して行うため、第2診断支援情報は1つ得られる。
 第2診断支援情報の詳細は、第1診断支援情報と同様とすることができる。また、第2解析処理部74は、最適画像とされた候補画像の種類毎に互いに異なる方法により第2解析処理を行ってもよい。第1解析処理と同様、候補画像の種類によって、画像解析処理により良好な結果を得ることができる第2診断支援情報の種類が異なる場合があるためである。第2解析処理を候補画像の種類毎に行うことにより、より高い精度で第2診断支援情報が得られるため好ましい。
 この場合、図25に示すように、第2解析処理部74は、候補画像の種類毎に設けた、第1画像第2解析処理部101、第2画像第2解析処理部102、第3画像第2解析処理部103、第4画像第2解析処理部104、第5画像第2解析処理部105、及び第n画像第2解析処理部106を備える。nは6以上の整数であり、候補画像の種類の数に応じた数の各画像用の第2解析処理部を備える。第1画像第2解析処理部101は、最適画像が第1候補画像である場合に第2解析処理を行う。第2画像第2解析処理部102以降も同様である。
 第2解析処理の方法としては、第2解析処理結果として第2診断支援情報が得られる方法を用いることができ、第1解析処理の方法と同様とすることができる。なお、場合によっては、第1解析処理部72が第2解析処理部74を兼ねてもよいが、迅速に第2診断支援情報を得るためには、第1解析処理と第2解析処理とは独立して実施することが好ましい。また、第1解析処理と第2解析処理とは、互いに異なる内容の解析処理であることが好ましい。同じ内容の解析処理を採用することにより同じ内容の診断支援情報を得る場合は、同様の解析処理を2度行うことになり無駄な時間を要するおそれがあるためである。
 また、第2診断支援結果は、疾患に関する判定又は鑑定結果であることが好ましい。第2診断支援結果は、最終的な診断支援結果として、医師等のユーザに通知され、医師等は、この第2診断支援結果を参考として、観察対象について診断をしながら内視鏡検査を行うためである。第2診断支援結果は、例えば、疾患に関する指標値、疾患のステージに関する指標値、疾患のステージ、疾患の重症度、観察対象の病理状態、又は、疾患位置であることが好ましい。
 第2診断支援情報は、例えば、潰瘍性大腸炎の内視鏡的重症度の指標であるMayoスコアである。この場合、第2診断支援情報は、Mayoスコアの0から3のいずれかである。また、例えば、第2診断支援情報は、潰瘍性大腸炎の病理ステージの指標であるGeboesスコアである。この場合、第2診断支援情報は、Geboes0からGeboes5、又は、Geboes2AもしくはGeboes2Bのいずれかである。また、例えば、第2診断支援情報は、胃がんにおけるステージである。したがって、この場合、第2診断支援情報は、ステージIからIVまでのいずれかである。
 疾患の重症度または進行度は、治療方針の決定等において重要な判断材料となる。特に、重症度に応じた内科的治療が中心となる潰瘍性大腸炎等は、発症早期の的確な診断が重要であるため、内視鏡システム10等により、内視鏡検査により重症度を高い精度で決定することは有益である。
 また、第1解析処理と第2解析処理とは、予め設定された内容により組み合わせて行うことが好ましい。第1解析処理結果が選択する候補画像は、第2解析処理において、より高い精度の第2診断支援情報を第2解析処理結果として得ることが好ましい。したがって、好ましい第1解析処理の内容と第2解析処理の内容とが予め設定できる場合がある。例えば、第1解析処理による第1解析処理結果が、観察対象の被写体名及び内視鏡先端部12dと観察対象との距離である場合、近距離の場合は、注目領域等の詳細な観察を行っている可能性があり、粘膜表層の微細な構造等が写る内視鏡画像である可能性があることから、第2解析処理は、疾患の生体情報、ステージもしくは重症度の判定、又は正常部と境界線を含む病変部の領域を第2解析処理結果として得る種類の解析処理の方法を採用することが好ましい。一方、遠距離の場合は、全体の性状を観察するスクリーニングを行っている可能性があり、部位の全体的な状態が写る内視鏡画像である可能性があることから、部位名又は病変又は疾患の領域等を第2解析処理結果として得る種類の解析処理の方法を採用することが好ましい。
 なお、内視鏡先端部12dと観察対象との距離が近距離という場合、候補画像は、ズームを用いた拡大観察により得られる内視鏡画像である場合がある。図26に示すように、例えば、最適画像として第1候補画像が選択された場合、第1画像第2解析処理部101が第2解析処理を行う。第2解析処理の結果、第2解析処理結果である第2診断支援情報を得る。
 表示画像生成部75は、ディスプレイ18に表示する表示画像を生成する。表示画像は、複数種類の候補画像のうち少なくとも1種類の候補画像に基づく内視鏡画像であり、表示画像はディスプレイ18に表示する。表示画像をどの種類の候補画像とするかは、予め設定できる。ディスプレイに表示する表示画像は、医師等のユーザが見て診断又は検査の方針の決定等を行うものであるため、人間にとって視認性が良い内視鏡画像であることが好ましい。例えば、図27に示すように、表示画像を、白色光を用いた通常観察画像と同種の第1候補画像とする場合は、表示画像生成部75は、通常観察画像処理部61と同様に、必要な画像処理を行って、表示画像を生成する。生成した表示画像は、表示制御部57に送る。
 表示制御部57は、通常観察モードの場合には、通常観察画像をディスプレイ18に表示し、特殊観察モードの場合には、特殊観察画像をディスプレイ18に表示する。また、診断支援モードの場合には、表示画像をディスプレイ18に表示する制御を行う。表示画像は、継続してディスプレイ18に表示することが好ましい。なお、診断支援モードにおいて、表示画像として表示はされないが、取得されているその他の候補画像を、指示により切り替えて、表示画像としてディスプレイ18に表示するようにしてもよい。図28に示すように、例えば、表示画像111は、ディスプレイ18に、現在のモード名であるモード名表示112、又は、表示画像の元となる候補画像の種類を示す内視鏡画像種類名表示113とともに表示する。
 以上のように構成することにより、画像処理装置として機能するプロセッサ装置16、又は画像処理装置を備える内視鏡システム10は、複数種類の候補画像から予め設定した種類の候補画像から第1診断支援情報を得た上で、第1診断支援情報を用いて第2解析処理を行う最適画像を決定するため、撮影により得た内視鏡画像を選択せずに、これらから得られる情報により解析処理を行う画像を選択する場合と比較して、解析処理を行う画像を選択する時間を省くことができる。また、第1解析処理による第1診断支援情報の個数が少ない場合であっても、第2解析処理において好ましい処理結果を得るための第1診断支援情報の内容を設定できるため、最終的に得られる診断支援情報である第2診断支援情報の精度が高い。したがって、画像処理装置として機能するプロセッサ装置16、又は画像処理装置を備える内視鏡システム10は、CADによる診断支援情報を迅速にかつ高い精度で得ることができる。特に、重症度に応じた内科的治療が中心となる潰瘍性大腸等に対しては、発症早期の的確な診断が重要であるため、重症度を高い精度で決定することが有益であり、内視鏡システム10等を好ましく用いることができる。
 なお、第2解析処理結果は、ユーザに通知できればよいため、ディスプレイ18に表示する他、音声等で通知してもよいが、表示制御部57は、第2解析処理結果をディスプレイ18に表示する制御を行うことが好ましい。ディスプレイ18への表示形態は、ユーザに、表示画像の視認性の妨げにならず、かつ、ひと目で把握できる形態であることが好ましい。したがって、第2解析処理結果である第2診断支援情報を、ディスプレイ18の表示画像111以外の領域に表示してもよいし、表示画像111に対し画像処理を行うことにより、第2診断支援情報を表示画像111に重畳することにより表示してもよい。図29に示すように、例えば、第2解析処理結果が、第2診断支援情報であって、Mayoスコアである場合、病変の領域とスコアの数値とを、表示画像111に重畳して、色付けした枠表示114と短いテキスト表示115とにより示してもよい。
 第2解析処理結果がディスプレイ18に表示されることにより、ユーザは、信頼性の高い診断支援情報を、迅速にひと目で把握することができる。また、表示画像が通常観察画像による診断では判別がつきにくい病変であっても、解析処理に適した最適画像に対し解析処理が行われているため、病変の見逃しを防止することができる。なお、第2解析処理結果が表示画像111に表示された後、ユーザは、表示画像の種類を、第2解析処理結果に示された病変の詳細観察を行いやすい種類の内視鏡画像に迅速に切り替えて、詳細に観察することができる。
 特に、表示画像111としていない種類の候補画像に表示画像111を切り替える場合は、表示はされていないがすでにその種類の候補画像は得られているため、迅速に切り替えて表示画像とすることができる。
 また、候補画像取得部71は、光源部20が発する白色の照明光により照明した観察対象を撮影することにより得られる内視鏡画像を、候補画像の1種として取得することが好ましい。白色の照明光による内視鏡画像は、人間にとって自然な色として認識できる画像であるため、表示画像とすることにより、医師等のユーザが内視鏡検査をスムーズに行うことができる。
 なお、光源部20が、第1照明期間中に第1照明光を第1発光パターンにより発し、第2照明期間中に第2照明光を第2発光パターンにより発し、かつ、第1照明光と第2照明光とを切り替える光源用プロセッサと、第1照明光によって照明された観察対象を撮影して得られる第1内視鏡画像と、第2照明光によって照明された観察対象を撮影して得られる第2内視鏡画像とを出力する撮像センサとを備える場合、候補画像取得部71は、第1内視鏡画像と第2内視鏡画像とを候補画像として取得することが好ましい。これにより、第1発光パターンと第2発光パターンとを組み合わせて、種々の照明光による複数種類の候補画像を得ることができるため、好ましい。
 なお、第1解析処理部72は、複数種類の候補画像のうち予め設定した1種類の候補画像に対し、第1解析処理を行ってもよい。この場合の実施形態を以下に説明する。図30に示すように、第1候補画像と、第2候補画像と、第5候補画像との、3種類の候補画像を取得した。第1候補画像は、白色光により得られる通常表示画像と同じ内視鏡画像であり、第2候補画像は、疑似カラー処理により、表層血管など特定深さの血管又は構造が強調された内視鏡画像であり、第5候補画像は、色差強調画像であり、異常部と正常部との色の差が強調された内視鏡画像である。これらの候補画像は、潰瘍性大腸炎罹患患者の大腸内視鏡診断において撮影された内視鏡画像に基づくものである。
 図31に示すように、これらの候補画像のうち、表示画像生成部75は、第1候補画像に基づいて、表示画像111を生成する。したがって、ディスプレイ18には、第1候補画像に基づく表示画像111が表示される。また、第1解析処理部72は、予め設定した1種類の候補画像である第1候補画像に対し、学習済みモデルによる第1解析処理を第1画像第1解析処理部72により行い、第1診断支援情報として、観察対象の被写体名及び内視鏡先端部12dと観察対象との距離を得る。具体的には、第1診断支援情報として、観察対象の被写体名として「粘膜」、及び、内視鏡先端部12dと観察対象との距離として「遠景」の情報を得る。
 第1診断支援情報は、最適画像選択部73に送る。最適画像選択部73は、第1解析処理により得られる第1解析結果に基づいて、候補画像取得部71が取得した第1候補画像と、第2候補画像と、第5候補画像との、3種類の候補画像から、第5候補画像を最適画像として選択する。最適画像選択部73は、第5候補画像が色差強調処理がなされた内視鏡画像であり、観察条件が遠景である場合の診断に有効であるとの情報を予め有する。最適画像選択部73が選択した第5候補画像は、第2解析処理部74に送る。第2解析処理部74は、選択された第5候補画像に基づいて、第2解析処理を行い、第2解析処理結果として、第2診断支援情報を得た。具体的には、第2解析処理部74は、第5候補画像に対し、機械学習による学習済みモデルを用いて、粘膜の状態から、潰瘍性大腸炎用の内視鏡的重症度の指標であるMayoスコアを「3」と算出し、これを第2診断支援情報とする。
 表示制御部57は、ディスプレイ18に第1候補画像に基づく表示画像111を継続して表示する制御を行うが、第2解析処理部74により第2解析処理結果が得られ次第、表示画像111に第2解析処理結果である第2診断支援情報を重畳するように、表示画像111の画像処理を行う。具体的には、第2診断支援情報は、「Mayoスコア:3」であるので、表示画像111の右下部分に、「Mayo:3」との診断支援情報表示116により表示する。
 また、別の場合の実施形態を以下に説明する。図32に示すように、第1候補画像と、第2候補画像と、第5候補画像との、3種類の候補画像を取得した。第1候補画像、第2候補画像、又は第5候補画像は、上記にて説明したのと同様である。これらの候補画像は、潰瘍性大腸炎罹患患者の大腸内視鏡診断において撮影された内視鏡画像に基づくものである。
 図33に示すように、これらの候補画像のうち、表示画像生成部75は、第1候補画像に基づいて、表示画像111を生成する。したがって、ディスプレイ18には、第1候補画像に基づく表示画像111が表示される。また、第1解析処理部72は、予め設定した1種類の候補画像である第1候補画像に対し、学習済みモデルによる第1解析処理を第1画像第1解析処理部72により行い、第1診断支援情報として、観察対象の被写体名及び内視鏡先端部12dと観察対象との距離を得た。具体的には、第1診断支援情報として、観察対象の被写体名として「粘膜」、及び、内視鏡先端部12dと観察対象との距離として「近景」の情報を得る。
 第1診断支援情報は、最適画像選択部73に送る。最適画像選択部73は、第1解析処理により得られる第1解析結果に基づいて、候補画像取得部71が取得した第1候補画像と、第2候補画像と、第5候補画像との、3種類の候補画像から、第2候補画像を最適画像として選択した。最適画像選択部73は、第2候補画像が疑似カラー処理がなされ、表層血管の血管又は構造が強調された内視鏡画像であり、観察条件が近景である場合の診断に有効であるとの情報を予め有する。最適画像選択部73が選択した第2候補画像は、第2解析処理部74に送る。第2解析処理部74は、選択された第2候補画像に基づいて、第2解析処理を行い、第2解析処理結果として、第2診断支援情報を得る。具体的には、第2解析処理部74は、第2候補画像に対し、機械学習による学習済みモデルを用いて、粘膜の状態から、潰瘍性大腸炎用の病理ステージの指標であるGeboesスコアを「3」と算出し、これを第2診断支援情報とする。
 表示制御部57は、ディスプレイ18に第1候補画像に基づく表示画像111を継続して表示する制御を行うが、第2解析処理部74により第2解析処理結果が得られ次第、表示画像111に第2解析処理結果である第2診断支援情報を重畳するように、表示画像111の画像処理を行う。具体的には、第2診断支援情報は、「Geboesスコア:3」であるので、表示画像111の右下部分に、「Geboes:3」との診断支援情報表示116により表示する。
 以上のように、内視鏡システム10等によれば、内視鏡検査において、特に、重症度に応じた内科的治療が中心となる潰瘍性大腸等に対し、発症早期の的確な診断が重要であることから、これらの重症度を、自動的に、迅速に、かつ、高い精度で決定することができる。
 次に、画像解析処理装置であるプロセッサ装置16又は内視鏡システム10が行う診断支援情報の表示のための処理の一連の流れについて、図34に示すフローチャートに沿って説明を行う。候補画像取得部71が、複数種類の候補画像を取得する(ステップST110)。表示画像生成部75が、複数種類の候補画像のうち少なくとも1種類の候補画像に基づいて表示画像を生成する(ステップST120)。表示制御部57が、表示画像をディスプレイ18に表示する制御を行う(ステップST130)。
 第1解析処理部72により第1解析処理を行うために、予め設定した種類の候補画像を選択する(ステップST140)。選択した候補画像に対し、第1解析処理を行う(ステップST150)。第1解析処理により第1解析処理結果を得る(ステップST160)。最適画像選択部73が、第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の最適画像を選択する(ステップST170)。選択された最適画像に対し、第2解析処理部74が、第2解析処理を行う(ステップST180)。第2解析処理により第2解析処理結果を得る(ステップST190)。表示制御部57が、第2解析処理結果を表示画像に重畳してディスプレイ18に表示する制御を行う(ステップST200)。
 なお、表示画像生成部75が表示画像を生成するステップST120と表示制御部57がディスプレイに表示画像を表示する制御を行うステップST130とは、第1解析処理を行うために予め設定した種類の候補画像を選択するステップST140と、並行して行っても良い。
 上記実施形態及び変形例等においては、プロセッサ装置16が画像処理装置として機能するが、プロセッサ装置16とは別に、画像処理部56を含む画像処理装置を設けてもよい。この他、図35に示すように、画像処理部56は、例えば内視鏡システム10から直接的に、または、PACS(Picture Archiving and Communication Systems)910から間接的に、内視鏡12で撮影したRAW画像を取得する診断支援装置911に設けることができる。また、図36に示すように、内視鏡システム10を含む、第1検査装置921、第2検査装置922、…、第K検査装置923等の各種検査装置と、ネットワーク926を介して接続する医療業務支援装置930に、画像処理部56を設けることができる。
 上記各実施形態及び変形例は、その一部または全部を任意に組み合わせて実施することができる。また、上記各実施形態及び変形例においては、内視鏡12は可撓性の挿入部12aを有するいわゆる軟性内視鏡を用いているが、観察対象が嚥下して使用するカプセル型の内視鏡、外科手術等に使用する硬性内視鏡(腹腔鏡)を用いる場合も本発明は好適である。
 上記実施形態及び変形例等は、コンピュータに、内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得する候補画像取得機能と、複数種類の候補画像のうち少なくとも1種類の候補画像に基づく表示画像をディスプレイに表示する制御を行う表示制御機能と、複数種類の候補画像のうち予め設定した1または複数種類の候補画像に対し第1解析処理を行う第1解析処理機能と、第1解析処理により得られる第1解析処理結果に基づいて、複数種類の候補画像から少なくとも1種類の候補画像を最適画像として選択する最適画像選択機能と、最適画像に対し第2解析処理を行うことにより診断支援情報を得る第2解析処理機能とを実現させるための画像処理装置用プログラムを含む。
 上記実施形態において、画像処理装置であるプロセッサ装置16に含まれる中央制御部51、画像取得部52、画像処理部56、及び表示制御部57といった各種の処理を実行する画像用プロセッサ又は光源用プロセッサ22等の処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 なお、本発明は、内視鏡画像を取得等する内視鏡システム、プロセッサ装置、その他関連する装置等の他に、内視鏡画像以外の医療画像(動画を含む)を取得するシステムまたは装置等においても利用できる。例えば、本発明は、超音波検査装置、X線画像撮影装置(CT(Computed Tomography)検査装置及びマンモグラフィ装置等を含む)、MRI(magnetic resonance imaging)装置、等に適用できる。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 12f スコープボタン1番
 12g スコープボタン2番
 12h ズーム操作部
 14 光源装置
 16 プロセッサ装置
 18 ディスプレイ
 19 キーボード
 20 光源部
 20a V-LED
 20b B-LED
 20c G-LED
 20d R-LED
 22 光源用プロセッサ
 30a 照明光学系
 30b 撮影光学系
 41 ライトガイド
 42 照明レンズ
 43 対物レンズ
 44 ズームレンズ
 45 イメージセンサ
 46 撮影用プロセッサ
 51 中央制御部
 52 画像取得部
 53 DSP
 54 ノイズ低減部
 55 変換部
 56 画像処理部
 57 表示制御部
 61 通常観察画像処理部
 62 特殊観察画像処理部
 63 診断支援画像処理部
 71 候補画像取得部
 72 第1解析処理部
 73 最適画像選択部
 74 第2解析処理部
 75 表示画像生成部
 81 第1候補画像生成部
 82 第2候補画像生成部
 83 第3候補画像生成部
 84 第4候補画像生成部
 84a 酸素飽和度用信号比算出部
 84b 酸素飽和度算出用テーブル
 84c 酸素飽和度算出部
 84d 酸素飽和度画像生成部
 85 第5候補画像生成部
 85a 色差拡張用信号比算出部
 85b 色差拡張処理部
 85c 色差拡張画像生成部
 86 第n候補画像生成部
 91 第1画像第1解析処理部
 92 第2画像第1解析処理部
 93 第3画像第1解析処理部
 94 第4画像第1解析処理部
 95 第5画像第1解析処理部
 96 第n画像第1解析処理部
 101 第1画像第2解析処理部
 102 第2画像第2解析処理部
 103 第3画像第2解析処理部
 104 第4画像第2解析処理部
 105 第5画像第2解析処理部
 106 第n画像第2解析処理部
 111 表示画像
 112 モード名表示
 113 内視鏡画像種類名表示
 114 枠表示
 115 テキスト表示
 116 診断支援情報表示
 910 PACS
 911 診断支援装置
 921 第1検査装置
 922 第2検査装置
 923 第K検査装置
 926 ネットワーク
 930 医療業務支援装置
 P1 第1照明期間
 P2 第2照明期間
 FL フレーム
 L1 第1照明光
 L2a、L2b 第2照明光
 Q1、Q2、Q3、Q4、Q5 発光周期
 SP1、SP2、SP3、SP4 第2照明光用分光スペクトル
 A1、A2 範囲
 ELx、EL1、EL2、EL3、EL4、ELy 酸素飽和度の等値線
 ST110~ST200 ステップ
 

Claims (15)

  1.  画像用プロセッサを備える画像処理装置であって、
     前記画像用プロセッサは、
     内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得し、
     複数種類の前記候補画像のうち少なくとも1種類の前記候補画像に基づく表示画像をディスプレイに表示する制御を行い、
     複数種類の前記候補画像のうち予め設定した1または複数種類の前記候補画像に対し第1解析処理を行い、
     前記第1解析処理により得られる第1解析処理結果に基づいて、複数種類の前記候補画像から少なくとも1種類の前記候補画像を最適画像として選択し、
     前記最適画像に対し第2解析処理を行うことにより第2解析処理結果を得る画像処理装置。
  2.  前記画像用プロセッサは、前記第2解析処理結果を前記ディスプレイに表示する制御を行う請求項1に記載の画像処理装置。
  3.  前記画像用プロセッサは、前記第2解析処理結果を前記表示画像に重畳して表示する制御を行う請求項1に記載の画像処理装置。
  4.  前記第1解析処理と前記第2解析処理とは、互いに異なる内容の解析処理である請求項1ないし3のいずれか1項に記載の画像処理装置。
  5.  前記内視鏡画像に対し強調処理を行うことにより前記候補画像を生成し、
     前記画像用プロセッサは、前記強調処理の有無又は種類により前記候補画像の種類を区別して、複数種類の前記候補画像を取得する請求項1ないし4のいずれか1項に記載の画像処理装置。
  6.  前記強調処理は、色彩強調処理及び/又は構造強調処理である請求項5に記載の画像処理装置。
  7.  請求項1ないし6のいずれか1項に記載の画像処理装置と、
     前記観察対象に照射する照明光を発する光源部とを備える内視鏡システム。
  8.  前記画像用プロセッサは、前記光源部が発する互いに分光スペクトルが異なる複数種類の照明光のそれぞれにより照明した前記観察対象を撮影することにより得られる前記内視鏡画像を、互いに異なる種類の前記候補画像として取得する請求項7に記載の内視鏡システム。
  9.  前記光源部は、互いに分光スペクトルが異なる複数種類の照明光のそれぞれを、予め設定した順序からなる発光周期により繰り返して発する請求項7又は8に記載の内視鏡システム。
  10.  前記画像用プロセッサは、1回の前記発光周期において得られる複数種類の前記候補画像から、少なくとも1つの前記最適画像を選択する請求項9に記載の内視鏡システム。
  11.  第1照明期間中に前記第1照明光を第1発光パターンにより発し、第2照明期間中に前記第2照明光を第2発光パターンにより発し、かつ、前記第1照明光と前記第2照明光とを切り替える光源用プロセッサと、
     前記第1照明光によって照明された観察対象を撮影して得られる第1内視鏡画像と、前記第2照明光によって照明された前記観察対象を撮影して得られる第2内視鏡画像とを出力する撮像センサとを備え、
     前記画像用プロセッサは、前記第1内視鏡画像と前記第2内視鏡画像とを前記候補画像として取得する請求項7ないし10のいずれか1項に記載の内視鏡システム。
  12.  前記画像用プロセッサは、前記光源部が発する白色の照明光により照明した前記観察対象を撮影することにより得られる前記内視鏡画像を、前記候補画像の1種として取得する請求項7ないし11のいずれか1項に記載の内視鏡システム。
  13.  前記画像用プロセッサは、前記光源部が発する予め設定した波長帯域の狭帯域光を含む照明光により照明した前記観察対象を撮影することにより得られる前記内視鏡画像を、前記候補画像の1種として取得する請求項7ないし12のいずれか1項に記載の内視鏡システム。
  14.  内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得する候補画像取得ステップと、
     複数種類の前記候補画像のうち少なくとも1種類の前記候補画像に基づく表示画像をディスプレイに表示する制御を行う表示画像制御ステップと、
     複数種類の前記候補画像のうち予め設定した1または複数種類の前記候補画像に対し第1解析処理を行う第1解析処理ステップと、
     前記第1解析処理により得られる第1解析処理結果に基づいて、複数種類の前記候補画像から少なくとも1種類の候補画像を最適画像として選択する最適画像選択ステップと、
     前記最適画像に対し第2解析処理を行うことにより第2処理結果を得る第2解析処理ステップとを備える画像処理装置の作動方法。
  15.  コンピュータに、
     内視鏡を用いて観察対象を撮影することにより得られる内視鏡画像に基づく複数種類の候補画像を取得する候補画像取得機能と、
     複数種類の前記候補画像のうち少なくとも1種類の前記候補画像に基づく表示画像をディスプレイに表示する制御を行う表示制御機能と、
     複数種類の前記候補画像のうち予め設定した1または複数種類の前記候補画像に対し第1解析処理を行う第1解析処理機能と、
     前記第1解析処理により得られる第1解析処理結果に基づいて、複数種類の前記候補画像から少なくとも1種類の候補画像を最適画像として選択する最適画像選択機能と、
     前記最適画像に対し第2解析処理を行うことにより診断支援情報を得る第2解析処理機能とを実現させるための画像処理装置用プログラム。
PCT/JP2021/035912 2020-10-02 2021-09-29 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム WO2022071413A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21875711.0A EP4223203A4 (en) 2020-10-02 2021-09-29 IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM, IMAGE PROCESSING DEVICE OPERATING METHOD, AND IMAGE PROCESSING DEVICE PROGRAM
CN202180067690.0A CN116322465A (zh) 2020-10-02 2021-09-29 图像处理装置、内窥镜系统、图像处理装置的工作方法及图像处理装置用程序
JP2022554050A JPWO2022071413A1 (ja) 2020-10-02 2021-09-29
US18/191,882 US20230237659A1 (en) 2020-10-02 2023-03-29 Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020167816 2020-10-02
JP2020-167816 2020-10-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/191,882 Continuation US20230237659A1 (en) 2020-10-02 2023-03-29 Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium

Publications (1)

Publication Number Publication Date
WO2022071413A1 true WO2022071413A1 (ja) 2022-04-07

Family

ID=80949227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035912 WO2022071413A1 (ja) 2020-10-02 2021-09-29 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム

Country Status (5)

Country Link
US (1) US20230237659A1 (ja)
EP (1) EP4223203A4 (ja)
JP (1) JPWO2022071413A1 (ja)
CN (1) CN116322465A (ja)
WO (1) WO2022071413A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091392A (zh) * 2022-08-16 2023-05-09 荣耀终端有限公司 图像处理方法、系统及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244518A (ja) * 2006-03-14 2007-09-27 Olympus Medical Systems Corp 画像解析装置及び画像解析方法
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法
JP2018175762A (ja) * 2017-04-21 2018-11-15 池上通信機株式会社 撮像装置
JP2019042157A (ja) * 2017-09-01 2019-03-22 富士フイルム株式会社 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置
WO2019078204A1 (ja) * 2017-10-17 2019-04-25 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
WO2020012564A1 (ja) 2018-07-10 2020-01-16 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP2020065685A (ja) 2018-10-24 2020-04-30 富士フイルム株式会社 内視鏡システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244518A (ja) * 2006-03-14 2007-09-27 Olympus Medical Systems Corp 画像解析装置及び画像解析方法
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法
JP2018175762A (ja) * 2017-04-21 2018-11-15 池上通信機株式会社 撮像装置
JP2019042157A (ja) * 2017-09-01 2019-03-22 富士フイルム株式会社 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置
WO2019078204A1 (ja) * 2017-10-17 2019-04-25 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
WO2020012564A1 (ja) 2018-07-10 2020-01-16 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP2020065685A (ja) 2018-10-24 2020-04-30 富士フイルム株式会社 内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4223203A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091392A (zh) * 2022-08-16 2023-05-09 荣耀终端有限公司 图像处理方法、系统及存储介质
CN116091392B (zh) * 2022-08-16 2023-10-20 荣耀终端有限公司 图像处理方法、系统及存储介质

Also Published As

Publication number Publication date
JPWO2022071413A1 (ja) 2022-04-07
CN116322465A (zh) 2023-06-23
EP4223203A1 (en) 2023-08-09
US20230237659A1 (en) 2023-07-27
EP4223203A4 (en) 2024-03-13

Similar Documents

Publication Publication Date Title
JP6785941B2 (ja) 内視鏡システム及びその作動方法
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6823072B2 (ja) プロセッサ装置及び内視鏡システム
WO2022014235A1 (ja) 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
JP2020065685A (ja) 内視鏡システム
US20240320877A1 (en) Image processing apparatus
US20230237659A1 (en) Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium
JP7386347B2 (ja) 内視鏡システム及びその作動方法
JPWO2019083019A1 (ja) 医療画像処理装置、及び、内視鏡装置
JP6731065B2 (ja) 内視鏡システム及びその作動方法
JP6706339B2 (ja) 内視鏡システム
JPWO2022071413A5 (ja)
WO2021006121A1 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
WO2022059233A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JP7556961B2 (ja) 内視鏡システム、内視鏡システムの作動方法、及び内視鏡システム用プログラム
WO2010137739A1 (ja) 画像診断装置および診断方法
WO2021210331A1 (ja) 画像処理装置及びその作動方法
JP6866497B2 (ja) 医療画像処理装置、及び、内視鏡装置
WO2022249817A1 (ja) 医療画像処理装置及び内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21875711

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022554050

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021875711

Country of ref document: EP

Effective date: 20230502