WO2022014235A1 - 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム - Google Patents

画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム Download PDF

Info

Publication number
WO2022014235A1
WO2022014235A1 PCT/JP2021/022684 JP2021022684W WO2022014235A1 WO 2022014235 A1 WO2022014235 A1 WO 2022014235A1 JP 2021022684 W JP2021022684 W JP 2021022684W WO 2022014235 A1 WO2022014235 A1 WO 2022014235A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
analysis
display
analysis result
light
Prior art date
Application number
PCT/JP2021/022684
Other languages
English (en)
French (fr)
Inventor
崇徳 出村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP21842709.4A priority Critical patent/EP4183311A4/en
Priority to JP2022536182A priority patent/JP7508559B2/ja
Priority to CN202180061060.2A priority patent/CN116133572A/zh
Publication of WO2022014235A1 publication Critical patent/WO2022014235A1/ja
Priority to US18/153,136 priority patent/US20230141302A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to an image analysis processing device, an endoscope system, an operation method of the image analysis processing device, and a program for the image analysis processing device.
  • diagnosis using an endoscope system equipped with a light source device, an endoscope, and a processor device is widely performed.
  • diagnosis using an endoscope system an image obtained by photographing an observation target with an endoscope by a method called image-enhanced endoscopy or image-enhanced observation (IEE, image enhanced endoscopy) (hereinafter referred to as "inside").
  • IEE image enhanced endoscopy
  • a method of digitally processing and using an endoscopic image obtained by imaging an observation target, or a method of using an endoscopic image obtained by illuminating an observation target with a specific illumination light, or the like can be used.
  • Methods for producing each type of endoscopic image are known.
  • a doctor selects a specific type of endoscopic image to determine biometric information such as a region where blood vessels are densely packed or a region where oxygen saturation is low in an observation target, and these regions are emphasized and displayed. Display on etc. Such a display is useful as diagnostic support information for a doctor to diagnose an observation target.
  • the stage of the disease or the like is determined from the range of the region where there is a possibility of lesion in the observation target or the degree of inflammation, and the determination obtained is obtained.
  • CAD Computer-Aided Diagnosis
  • an endoscopic system that determines the severity or progression of a disease such as the stage of ulcerative colitis with high accuracy by using an endoscopic image obtained by IEE (Patent Document 1).
  • a specific type of endoscope image is displayed on the display according to the instructions of the doctor who is the user of the endoscope, and the image analysis result is obtained by image analysis of the endoscope image displayed on the display. Obtained and used as diagnostic support information. For example, if the doctor wishes to observe the observation target in a bright and natural color, an endoscopic image of the observation target is displayed on the display with the illumination light as white light, and this endoscopic image is used. Image analysis is performed, and diagnostic support information based on the image analysis results is obtained.
  • the doctor wishes to observe the lesion in which the superficial blood vessels to be observed are dense, the brightness is inferior to that of the endoscopic image with white light, but the IEE endoscopy with the superficial blood vessels emphasized.
  • the image is displayed on the display, image analysis is performed using this endoscopic image, and diagnostic support information based on the image analysis result is obtained.
  • the image analysis of the type of endoscopic image displayed on the display according to the instruction of a doctor or the like is not always good.
  • another type of endoscopic image may provide good diagnostic support information. Therefore, in the observation with an endoscope, when IEE or CAD is used, for example, the diagnostic support information that can be well obtained by image analysis using another type of endoscope image is obtained, but the endoscope is used.
  • this diagnostic support information cannot be obtained satisfactorily, so that there is a possibility that an abnormality such as a lesion may be overlooked.
  • An object of the present invention is to provide an image analysis processing device, an endoscopic system, an operation method of the image analysis processing device, and a program for the image analysis processing device, which prevent an overlooked region of interest in an endoscopic image. ..
  • the present invention is an image analysis processing device that performs image analysis based on an image obtained by imaging an observation target using an endoscope, and includes a processor.
  • the processor acquires multiple types of analysis images used for image analysis, performs image analysis of the analysis image in parallel for each type of analysis image, acquires multiple analysis results by image analysis, and performs multiple analyzes. Control is performed to display an analysis result display based on the result and a display image based on at least one type of analysis image among a plurality of types of analysis images on the display.
  • the processor performs image analysis independently for each type of image for analysis.
  • the processor acquires correspondence information in which a specific state in the observation target and an analysis image obtained by imaging the observation target including the specific state are associated in advance, and is based on the analysis image and the correspondence information. , It is preferable to obtain the analysis result.
  • the processor acquires the correspondence information for each type of the analysis image and obtains the analysis result based on the analysis image and the correspondence information acquired corresponding to the type of the analysis image.
  • the specific state is preferably at least one of a state in which the structure of the observation target is abnormal, a state in which the observation target is a specific lesion, and a state in which the value of the biological information of the observation target is abnormal.
  • the analysis result includes information on a region of a specific state in the observation target.
  • the analysis result includes the accuracy of the analysis result.
  • the processor selects the analysis result having the highest accuracy regarding the analysis result as the attention analysis result by comparing a plurality of analysis results, and creates an analysis result display including the attention analysis result.
  • the processor generates an image for first analysis by performing enhancement processing on the image and acquires the image for first analysis as one kind of the image for analysis.
  • the processor performs color enhancement processing or structure enhancement processing on the image.
  • the processor acquires the analysis result in association with the type of the analysis image from which the analysis result was obtained, and displays a legend display on the display showing the association between the analysis result and the type of the analysis image from which the analysis result was obtained. It is preferable to control the operation.
  • the present invention is an endoscope system, which includes an image analysis processing device and a light source unit that emits illumination light to irradiate an observation target.
  • the processor acquires an image obtained by imaging an observation target illuminated by each of a plurality of illumination lights having different spectral spectra from each other emitted by the light source unit as images for analysis of different types.
  • the processor acquires an image obtained by capturing an observation target illuminated by the white illumination light emitted by the light source unit as one kind of analysis image.
  • the processor acquires an image obtained by capturing an observation target illuminated by illumination light including a narrow band light having a preset wavelength band emitted by a light source unit as one kind of analysis image.
  • the light source unit repeatedly emits each of a plurality of illumination lights having different spectral spectra in a preset order.
  • the processor acquires the analysis result in association with the type of the analysis image from which the analysis result was obtained, and displays a legend display on the display showing the association between the analysis result and the type of the analysis image from which the analysis result was obtained. It is preferable to control the operation.
  • the present invention is an operation method of an image analysis processing device that performs image analysis based on an image obtained by imaging an observation target using an endoscope, and is a method of operating a plurality of types of analysis images used for image analysis.
  • the present invention includes a display control step for controlling display of an analysis result display based on a plurality of analysis results and a display image including at least one type of analysis image among a plurality of types of analysis images on the display.
  • the present invention is a program for an image analysis processing device installed in an image analysis processing device that performs image analysis based on an image obtained by imaging an observation target using an endoscope, and is a program for an image analysis processing device, which is installed in a computer.
  • An analysis image acquisition function that acquires multiple types of analysis images used for image analysis
  • an image analysis processing function that performs image analysis on the analysis image in parallel for each type of analysis image
  • analysis results by image analysis A display that controls the display of a display image including an analysis result acquisition function that acquires a plurality of analysis results, an analysis result display based on a plurality of analysis results, and at least one type of analysis image among a plurality of types of analysis images. It is a program for an image analysis processing device to realize a control function.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a display 18, and a keyboard 19.
  • the endoscope 12 photographs the observation target.
  • the light source device 14 emits illumination light to irradiate the observation target.
  • the processor device 16 is an image analysis processing device, and performs system control of the endoscope system 10, image analysis processing of the endoscope image, and the like.
  • the display 18 is a display unit that displays a display image including an endoscope image and the like.
  • the keyboard 19 is an input device for inputting settings to the processor device 16 and the like.
  • the endoscope system 10 includes three modes as an observation mode: a normal mode, a special mode, and an image analysis mode.
  • a normal mode the normal light image having a natural color is displayed on the display 18 as a display image by irradiating the observation target with normal light and taking an image.
  • the special mode a special light image having a wavelength band or a spectral spectrum different from that of normal light is illuminated on the observation target and imaged, so that a special light image emphasizing a specific structure of the observation target is displayed on the display 18 as a display image. ..
  • the image analysis mode when displaying a normal light image or a special light image obtained by irradiating an observation target with normal light or special light and taking an image on the display 18, a plurality of normal light images or special light images are used. Multiple analysis results are obtained by image analysis of different types of analysis images. Then, a display image in which an analysis result display based on a plurality of analysis results is superimposed on an observation image such as a normal light image or a special light image is displayed on the display 18.
  • the enhanced image that has undergone enhancement processing or the like may be used for display as a normal optical image or a special optical image.
  • the types of analysis images used for image analysis are classified according to the type of illumination light and the type of enhancement processing. Therefore, an endoscopic image having the same illumination light is an image for analysis of the same type, and an endoscopic image having a different illumination light is an image for analysis of another type. Further, the endoscope image enhanced by the same method is an image for analysis of the same type, and the endoscope image enhanced by another method is an image for analysis of another type.
  • the types of illumination light are classified according to the spectral spectrum of the illumination light. When the illumination light is different, the spectral spectrum of the illumination light is different. Therefore, for example, an endoscopic image captured by white light and an endoscopic image captured by illumination light other than white light are different types of analysis images.
  • an endoscopic image imaged by white light and subjected to color enhancement processing and an endoscopic image imaged by white light and subjected to structure enhancement processing are different types of analysis images.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject having an observation target, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a bending portion 12c provided on the distal end side of the insertion portion 12a. It has a tip portion 12d.
  • the angle knob 12e see FIG. 2
  • the operation unit 12b is provided with a treatment tool insertion port 12f, a scope button 12g, and a zoom operation unit 13 in addition to the angle knob 12e.
  • the treatment tool insertion port 12f is an entrance for inserting a treatment tool such as a biopsy forceps, a snare, or an electric knife.
  • the treatment tool inserted into the treatment tool insertion port 12f protrudes from the tip portion 12d.
  • Various operations can be assigned to the scope button 12g, and in the present embodiment, it is used for the operation of switching the observation mode. By operating the zoom operation unit 13, the observation target can be enlarged or reduced for shooting.
  • the light source device 14 includes a light source unit 20 including a light source that emits illumination light, and a light source control unit 22 that controls the operation of the light source unit 20.
  • the light source unit 20 emits illumination light that illuminates the observation target.
  • the illumination light includes light emission such as excitation light used to emit the illumination light.
  • the light source unit 20 includes, for example, a light source of a laser diode, an LED (Light Emitting Diode), a xenon lamp, or a halogen lamp, and at least an excitation light used to emit white illumination light or white illumination light. Emit.
  • the white color includes so-called pseudo-white color, which is substantially equivalent to white color in the imaging of the observation target using the endoscope 12.
  • the light source unit 20 includes, if necessary, a phosphor that emits light when irradiated with excitation light, an optical filter that adjusts the wavelength band, spectral spectrum, light amount, etc. of the illumination light or excitation light.
  • the light source unit 20 can emit illumination light composed of at least narrow band light (hereinafter referred to as narrow band light). Further, the light source unit 20 can emit a plurality of illumination lights having different spectral spectra from each other.
  • the illumination light may include narrow band light. Further, the light source unit 20 may emit light having a specific wavelength band or spectral spectrum necessary for capturing an image used for calculating biological information such as oxygen saturation of hemoglobin contained in the observation target, for example. can.
  • the “narrow band” means a substantially single wavelength band in relation to the characteristics of the observation target and / or the spectral characteristics of the color filter of the image sensor 45.
  • the wavelength band is, for example, about ⁇ 20 nm or less (preferably about ⁇ 10 nm or less), this light is a narrow band.
  • the light source unit 20 has four color LEDs of V-LED20a, B-LED20b, G-LED20c, and R-LED20d.
  • the V-LED 20a emits purple light VL having a center wavelength of 405 nm and a wavelength band of 380 to 420 nm.
  • the B-LED 20b emits blue light BL having a center wavelength of 460 nm and a wavelength band of 420 to 500 nm.
  • the G-LED 20c emits green light GL having a wavelength band of 480 to 600 nm.
  • the R-LED 20d emits red light RL having a center wavelength of 620 to 630 nm and a wavelength band of 600 to 650 nm.
  • the center wavelengths of the V-LED 20a and the B-LED 20b have a width of about ⁇ 20 nm, preferably about ⁇ 5 nm to about ⁇ 10 nm.
  • the purple light VL is short-wavelength light used for detecting superficial blood vessel congestion, intramucosal hemorrhage, and extramucosal hemorrhage used in the special light mode or the image analysis mode, and has a central wavelength or a peak wavelength of 410 nm. It is preferable to include. Further, the purple light VL is preferably narrow band light.
  • the light source control unit 22 controls the timing of turning on, off, or shielding each light source constituting the light source unit 20, the amount of light emitted, and the like. As a result, the light source unit 20 can emit a plurality of types of illumination light having different spectral spectra for a preset period and emission amount. In the present embodiment, the light source control unit 22 sets the lighting and extinguishing of each of the LEDs 20a to 20d, the amount of light emitted at the time of lighting, the insertion and removal of the optical filter, and the like by inputting an independent control signal to each of the illumination lights. Adjust the spectral spectrum.
  • the light source unit 20 emits white illumination light, a plurality of types of illumination light having different spectral spectra, or illumination light composed of at least narrow band light. Endoscopic images obtained by imaging an observation target illuminated by each of a plurality of illumination lights having different spectral spectra, including illumination light of white light, are different types of analysis images.
  • the light source unit 20 emits white illumination light as normal light NL under the control of the light source control unit 22.
  • the light source control unit 22 has a light intensity ratio of Vc: Bc: Gc: Rc among the purple light VL, the blue light BL, the green light GL, and the red light RL.
  • Each LED 20a to 20d is controlled so as to emit white light.
  • the light intensity ratio Vc: Bc: Gc: Rc corresponds to the light intensity condition of the white illumination light.
  • the normal light image obtained by imaging the observation target illuminated by the white illumination light emitted by the light source unit 20 is one kind of analysis image.
  • the light source control unit 22 has a light intensity ratio of Vs1: Bs1: Gs1 between purple light VL, blue light BL, green light GL, and red light RL as special light. :
  • Each LED 20a to 20d is controlled so as to emit a special light that becomes Rs1.
  • the light intensity ratio Vs1: Bs1: Gs1: Rs1 corresponds to the light intensity condition of special light.
  • the special light preferably emphasizes structures such as superficial blood vessels and polyps. Therefore, it is preferable that the special light makes the light intensity of the purple light VL larger than the light intensity of the blue light BL. For example, as shown in FIG.
  • the special light SL of the present embodiment is illumination light including purple light VL of narrow band light.
  • the special light image obtained by imaging the observation target illuminated by the special light SL emitted by the light source unit 20 is one kind of analysis image.
  • the light intensity ratio includes the case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, this includes the case where any one or more of the semiconductor light sources are not lit. For example, as in the case where the light intensity ratio between the purple light VL, the blue light BL, the green light GL, and the red light RL is 1: 0: 0: 0, only one of the semiconductor light sources is turned on, and the other 3 are turned on. Even if one does not light up, it shall have a light intensity ratio.
  • the light source unit 20 repeatedly emits each of a plurality of illumination lights having different spectral spectra from each other in a preset order.
  • the normal light NL and the special light SL repeatedly emit light in a preset order.
  • the light source control unit 22 emits normal light NL for 5 frames (5FL) in succession, then emits special light SL for 1 frame (1FL), and then emits light again.
  • the normal light CL is continuously emitted for 5 frames (5FL), and the special light SL is emitted again for 1 frame (1FL).
  • This cycle is repeated with an illumination pattern consisting of an order in which the normal light NL is emitted for 5 frames (5FL) in succession and then the special light SL is emitted for 1 frame (1FL) as one cycle (1CY).
  • the tip portion 12d of the endoscope 12 is provided with an illumination optical system 30a and a photographing optical system 30b (see FIG. 3).
  • the illumination optical system 30a has an illumination lens 42, and the illumination light is emitted toward the observation target through the illumination lens 42.
  • the photographing optical system 30b has an objective lens 43, a zoom lens 44, and an image sensor 45.
  • the image sensor 45 was administered to the observation target via the objective lens 43 and the zoom lens 44, such as reflected light of the illumination light returning from the observation target (in addition to the reflected light, scattered light, fluorescence emitted by the observation target, or administration to the observation target.
  • the observation target is photographed using (including fluorescence caused by the drug).
  • the zoom lens 44 moves by operating the zoom operation unit 13, and enlarges or reduces the observation target image.
  • the image sensor 45 has a color filter of one of a plurality of color filters for each pixel.
  • the image sensor 45 is a color sensor having a primary color system color filter.
  • the image sensor 45 includes an R pixel having a red color filter (R filter), a G pixel having a green color filter (G filter), and a B pixel having a blue color filter (B filter).
  • R filter red color filter
  • G filter green color filter
  • B filter blue color filter
  • a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Sensor) sensor can be used.
  • the image sensor 45 of the present embodiment is a primary color system color sensor
  • a complementary color system color sensor can also be used.
  • Complementary color sensors include, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter. Have.
  • the complementary color sensor is used, the image obtained from the pixels of each of the above colors can be converted into the same image as the image obtained by the primary color sensor by performing the complementary color-primary color conversion.
  • the primary color system or complementary color system sensor has one or a plurality of types of pixels having characteristics other than the above, such as W pixels (white pixels that receive light in almost all wavelength bands).
  • W pixels white pixels that receive light in almost all wavelength bands.
  • the image sensor 45 of the present embodiment is a color sensor, a monochrome sensor having no color filter may be used.
  • the processor device 16 incorporates a program (not shown) related to processing performed by the control unit 51, the image acquisition unit 52, the image processing unit 56, the display control unit 57, and the like, which will be described later. Functions of the control unit 51, the image acquisition unit 52, the image processing unit 56, and the display control unit 57 by operating the program by the control unit 51 composed of the processor included in the processor device 16 that functions as an image analysis processing device. Will be realized.
  • the control unit 51 comprehensively controls the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the shooting timing.
  • the control unit 51 sets the settings in each part of the endoscope system 10 such as the light source control unit 22, the image sensor 45, or the image processing unit 56. Enter in.
  • the image acquisition unit 52 acquires an image of an observation target captured using pixels of each color, that is, a RAW image, from the image sensor 45.
  • the RAW image is an image (endoscopic image) before the demosaic processing is performed. If the image is an image before the demosaic processing is performed, the RAW image also includes an image obtained by performing arbitrary processing such as noise reduction processing on the image acquired from the image sensor 45.
  • the image acquisition unit 52 includes a DSP (Digital Signal Processor) 53, a noise reduction unit 54, and a conversion unit 55 in order to perform various processing on the acquired RAW image as needed.
  • DSP Digital Signal Processor
  • the DSP 53 includes, for example, an offset processing unit, a defect correction processing unit, a demosaic processing unit, a linear matrix processing unit, a YC conversion processing unit, and the like (none of which are shown).
  • the DSP 53 performs various processing on the RAW image or the image generated by using the RAW image using these.
  • the offset processing unit performs offset processing on the RAW image.
  • the offset process is a process of reducing the dark current component from the RAW image and setting an accurate zero level.
  • the offset process may be referred to as a clamp process.
  • the defect correction processing unit performs defect correction processing on the RAW image.
  • the defect correction process is a process of correcting or generating a pixel value of a RAW pixel corresponding to a defective pixel of the image sensor 45 when the image sensor 45 includes a pixel (defective pixel) having a defect due to a manufacturing process or a change with time. Is.
  • the demosaic processing unit performs demosaic processing on the RAW image of each color corresponding to the color filter of each color.
  • the demosaic process is a process of generating pixel values that are missing due to the arrangement of color filters in a RAW image by interpolation.
  • the linear matrix processing unit performs linear matrix processing on the endoscopic image generated by assigning one or a plurality of RAW images to channels of each RGB color.
  • the linear matrix processing is a processing for enhancing the color reproducibility of an endoscopic image.
  • an endoscope image generated by assigning one or a plurality of RAW images to channels of each RGB color is used as an endoscope having a brightness channel Y, a color difference channel Cb, and a color difference channel Cr. This is the process of converting to an image.
  • the noise reduction unit 54 performs noise reduction processing on an endoscope image having a brightness channel Y, a color difference channel Cb, and a color difference channel Cr by using, for example, a moving average method or a median filter method.
  • the conversion unit 55 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into an endoscopic image having channels of each color of BGR.
  • the image processing unit 56 performs necessary image processing, image analysis, calculation, etc. on the endoscopic image output by the image acquisition unit 52.
  • the image processing unit 56 includes an enhancement processing unit 61, an analysis image acquisition unit 62, an image analysis processing unit 63, an analysis result acquisition unit 64, and a display image generation unit 65.
  • the enhancement processing unit 61 includes a color enhancement unit 66 and a structure enhancement unit 67.
  • the enhancement processing unit 61 performs enhancement processing on the endoscopic image output by the image acquisition unit 52.
  • the analysis image acquisition unit 62 acquires a plurality of types of analysis images used for image analysis.
  • the image analysis processing unit 63 performs image analysis of the image for analysis in parallel for each type of image for analysis.
  • the analysis result acquisition unit 64 acquires a plurality of analysis results by image analysis.
  • the display image generation unit 65 generates an analysis result display and an observation image for display on the display 18.
  • the enhancement processing performed by the enhancement processing unit 61 means processing the endoscopic image before the enhancement processing so that information on a specific part can be obtained by distinguishing it from other tissues or structures. For example, a process of changing the color or brightness of a portion having a specific feature relative to another portion (for example, a normal mucous membrane) is an emphasis process.
  • the endoscope image processed by the enhancement processing unit 61 may be a normal light image or a special light image.
  • the enhanced endoscopic image is used as one kind of analysis image.
  • the color enhancement unit 66 refers to the acquired endoscopic image so that, for example, the boundary between the normal region and the abnormal region in the observation target is clearly represented by the color and saturation. Performs color enhancement processing.
  • the color enhancement unit 66 performs color information conversion processing on the acquired endoscopic image.
  • the color information conversion process is a process of transferring each of a plurality of ranges distributed in the color space of the acquired endoscopic image to the range of the conversion destination associated with the range before conversion.
  • the boundary between the normal region and the abnormal region is clear, so that the abnormal region can be determined more easily and accurately as a specific region. It is an image that can be done.
  • the endoscopic image subjected to the color enhancement processing is a first analysis image, which is a kind of analysis image.
  • the structure enhancement unit 67 performs a structure enhancement process on the acquired endoscopic image so that the endoscopic image is represented by emphasizing the blood vessels in the observation target, for example.
  • the structure enhancement unit 67 obtains a density histogram, which is a graph in which the pixel value (luminance value) is taken on the horizontal axis and the frequency is taken on the vertical axis in the acquired endoscopic image, and the memory of the image processing unit 56 (not shown). ) Etc., the gradation correction is performed by the gradation correction table stored in advance.
  • the gradation correction table has a gradation correction curve in which the horizontal axis represents an input value and the vertical axis represents an output value, and the correspondence between the input value and the output value is shown.
  • Gradation correction is performed based on the correction curve to widen the dynamic range of the acquired endoscopic image.
  • the density is lower in the low density portion and higher in the high density portion. Therefore, for example, the density difference between the blood vessel region and the region where no blood vessel exists.
  • Spreads and the contrast of blood vessels improves. Therefore, in the endoscopic image processed by the structure enhancing portion 67, the contrast of the blood vessel is improved, so that the visibility of the structure of the blood vessel is enhanced, and it is easier and more accurate, for example, the blood vessel. It is an image which can determine a region with a high degree of density as a specific region.
  • the endoscopic image subjected to the structure enhancement processing is a first analysis image, which is a kind of analysis image.
  • the analysis image acquisition unit 62 acquires a plurality of types of analysis images.
  • the analysis image is an image based on a normal light image or a special light image output from the image acquisition unit 52.
  • the normal light image or special light image without enhancement processing and the normal light image or special light image with enhancement processing are defined as analysis images.
  • the type of image for analysis is distinguished by the type of illumination light and the method of enhancement processing.
  • a normal light image obtained by imaging an observation object illuminated by normal light and a special light image obtained by imaging an observation object illuminated by special light are used as a plurality of types of analysis images. Two types of analysis images are acquired. In this embodiment, the enhancement process is not performed.
  • the image analysis processing unit 63 performs image analysis on the analysis image acquired by the analysis image acquisition unit 62 in parallel for each type of analysis image.
  • Performing image analysis in parallel means that there are a plurality of image analysis processing units (see FIG. 8) for each type of image for analysis, and each of these image analyzes is performed.
  • the image analysis processing for each type of the image for analysis may be performed simultaneously or not simultaneously. Therefore, the image analysis processing unit 63 can independently perform image analysis for each type of image for analysis. In the present embodiment, each time an image for analysis is acquired, the acquired image for analysis is subjected to image analysis by the corresponding image analysis processing unit.
  • the image analysis processing unit 63 includes a first image analysis unit 71, a second image analysis unit 72, and a third image analysis unit 73, which are provided for each type of image for analysis.
  • Each image analysis unit up to the nth image analysis unit 74 is provided according to the number of types of analysis images.
  • the image analysis processing unit 63 includes an image analysis unit corresponding to each type of the analysis image for each type of the analysis image, and the image analysis unit analyzes the image for each type of the analysis image. In order to perform image analysis, image analysis is performed in parallel for each type of image for analysis.
  • the first image analysis unit 71 performs image analysis of a normal light image
  • the second image analysis unit 72 performs image analysis of special light
  • the image analysis unit 72 operates in parallel.
  • each image analysis unit from the first image analysis unit 71 to the nth image analysis unit 74 may perform image analysis by the same method, or the type of image for analysis may be changed. Depending on the situation, the image analysis units may perform image analysis by different methods. When performing image analysis by a different method depending on the type of the image for analysis, it is preferable to select and perform the image analysis method that can obtain good analysis results according to the type of the image for analysis.
  • Examples of the image analysis method include a method using image processing, a method using a machine learning method, and the like. Specifically, for example, a method using a value such as a pixel value and / or a brightness value of an image, a method of calculating a value of biological information such as oxygen saturation calculated from an image, or a specific state in an observation target. , A method of using correspondence information in which each analysis image obtained by imaging an observation target including a specific state is associated with each other in advance can be mentioned. By these methods of image analysis, the presence or absence of a lesion, the probability of being a lesion, the degree of progression of a lesion, etc., or the accuracy of an analysis result, etc. are determined.
  • the image analysis processing unit 63 includes a correspondence information acquisition unit that acquires correspondence information in which a specific state in the observation target and an analysis image obtained by imaging the observation target including the specific state are associated in advance. Is preferable. Then, it is preferable that the image analysis processing unit 63 obtains an analysis result based on the analysis image and the corresponding information.
  • the specific state in the observation target is, for example, a state in which the color of the observation target is abnormal, a state in which the structure or the like is abnormal, a state in which the observation target is a specific lesion, or a state in which the value of biological information in the observation mode is abnormal.
  • the observation target has no lesions and is in a normal or healthy state, and is set in advance.
  • the specific condition is, for example, an abnormality such as inflammation, redness, ulcer, polyp, or bleeding in the large intestine mucosa, a lesion such as cancer, or ulcerative colitis.
  • it is set as a state having an abnormality in biometric information such as an extremely low oxygen saturation.
  • Correspondence information includes an analysis image obtained by imaging the observation target when it is known in advance that the observation target is in a specific state, details of the specific state of the observation target, and the region thereof. It is the information corresponding to the information.
  • the correspondence information acquisition unit has acquired a plurality of correspondence information in advance. Therefore, as shown in FIG. 9, by inputting the acquired analysis image unknown for a specific state into the correspondence information acquisition unit, the correspondence information acquisition unit obtains this analysis image based on the plurality of correspondence information. Image analysis is performed, and the area or details related to the specific state of the observation target included in this analysis image are output. It should be noted that the output of the area or details related to the specific state includes the content such as "there is no area of the specific state".
  • the correspondence information acquisition unit acquires correspondence information for each type of analysis image, and the image analysis processing unit 63 analyzes based on the analysis image and the correspondence information acquired corresponding to the type of analysis image. It is preferable to obtain the result.
  • the correspondence information acquired corresponding to the type of the image for analysis is the analysis of a specific type obtained by imaging the observation target when it is known in advance that the observation target is in a specific state. This is information that corresponds the image to the information such as the area or details related to the specific state of the observation target. Further, the correspondence information acquisition unit may perform feedback or learning to acquire the analysis result processed by the image analysis processing unit 63 as correspondence information. As shown in FIG.
  • the first image analysis unit 71 includes a first correspondence information acquisition unit 75
  • the second image analysis unit 72 includes a second correspondence information acquisition unit 76
  • the third image analysis unit 73 includes a third correspondence information acquisition unit 77
  • the nth image analysis unit 74 includes an nth correspondence information acquisition unit 78.
  • each type of image for analysis is provided with a corresponding information acquisition unit. Therefore, for example, when the image for analysis is a special light image, the brightness is insufficient in the image analysis, and the special light image causes a lesion in a distant view.
  • a normal light image which is another type of image for analysis performed in parallel, can easily detect a lesion in a distant view that was difficult to detect in a special light image.
  • the special light image easily detects a dense portion of blood vessels in the surface layer or the middle layer of the observation target, and the normal light image has a structure such as a polyp as a specific state of the observation target different from the case of the special light image. Can be easily detected, so that different types of regions of interest can be detected.
  • the correspondence information acquisition unit is, for example, a trained model in machine learning. Since diagnostic support information, which is the analysis result, can be obtained by image analysis more quickly or accurately, it is preferable to perform image analysis using a trained model by machine learning as a corresponding information acquisition unit.
  • each corresponding information acquisition unit performs image analysis for determining the presence or absence of a lesion using a trained model in machine learning.
  • the trained model the trained model for each type of analysis image is used. Therefore, it is preferable that the first correspondence information acquisition unit 75 and the second correspondence information acquisition unit 76 are trained models different from each other.
  • the first correspondence information acquisition unit 75 is a trained model corresponding to a normal optical image
  • the second correspondence information acquisition unit 76 is a trained model corresponding to a special optical image.
  • each trained model may give feedback to learn about the analysis result obtained by the image analysis processing unit 63.
  • the analysis result acquisition unit 64 acquires the analysis result obtained by the image analysis processing unit 63 performing image analysis for each type of analysis image by each analysis processing unit. Since each analysis processing unit obtains an analysis result, the analysis result acquisition unit 64 acquires a plurality of analysis results.
  • the analysis result includes the content according to the method of the image analysis performed. In the present embodiment, since the image analysis method is to determine the presence or absence of a lesion using a trained model, the analysis result is the presence or absence of a lesion to be observed and the presence or absence of a lesion to be observed included in the analysis image obtained by the image analysis. Area of.
  • the first analysis result is a region obtained based on a normal optical image, which is a specific state in the observation target, the presence or absence of a lesion and the presence or absence of a lesion
  • the second analysis result is obtained based on a special optical image.
  • it is a region where there is a lesion and when there is a lesion, which is a specific state in the observation target in the same observation target.
  • the display image generation unit 65 includes an analysis result display generation unit 79 and an observation image generation unit 80.
  • the analysis result display generation unit 79 generates an analysis result display based on a plurality of analysis results.
  • the observation image generation unit 80 generates an observation image including an observation target based on at least one type of analysis image among a plurality of types of analysis images.
  • the analysis result display is a display for notifying a user such as a doctor of a plurality of analysis results, and any display form can be used as long as the display can be grasped by the user.
  • a plurality of analysis results are selected according to preset conditions.
  • the conditions to be set in advance are, for example, the second analysis result based on the special light image acquired in one frame and the first analysis based on the normal light image of a plurality of specific numbers of frames before and after the acquisition of this special light image. Select the results as multiple analysis results.
  • a plurality of analysis results may be displayed separately from each other, or may be displayed without distinction in some cases. Specifically, for example, it is displayed by a figure, a color, a pattern, a character, or a combination thereof. It is preferable that the size of the figure or the like is adjusted to, for example, the size of the region where the observation target is in a specific state. When the display of a plurality of analysis results is shown in the same area with figures of the same size, it is preferable to adjust the display size of each analysis result so that the figures do not overlap. If it is not necessary to display the analysis result, such as when a specific condition such as a lesion is not detected, the analysis result is not displayed.
  • the analysis result display is an area where the analysis result is the presence or absence of a lesion to be observed and the area where the lesion is present, and is a display in which the first analysis result and the second analysis result can be distinguished.
  • the first analysis result display 81 showing the first analysis result is the lesion in the observation target.
  • the area of is shown by surrounding it with a square figure 82.
  • the second analysis result display 83 showing the second analysis result is shown by enclosing the region of the lesion in the observation target with a square figure 84.
  • the figure 82 and the figure 84 are represented by different colors. In FIGS. 11 and 12, diagonal lines in different directions indicate different colors.
  • the display image generation unit 65 also generates an observation image based on at least one of the plurality of types of analysis images.
  • the observation image is an analysis image selected by the user to be displayed on the display 18.
  • the display image generation unit 65 generates an observation image by performing image processing on the analysis image selected for display, if necessary for displaying on the display 18. In the present embodiment, the observation image is continuously displayed until the display switching instruction is given.
  • the display image generation unit 65 is required to display the normal light image on the display 18.
  • Image processing is performed to obtain an observation image 85. Therefore, the normal optical image of the observation target is continuously displayed on the display.
  • the special light image is acquired at a ratio of 1 frame in 6 frames, but the special light image is not displayed on the display 18, and instead of displaying the special light image acquired in 1 frame, the special light image is displayed.
  • One frame of the normal optical image before the acquired one frame is continuously displayed.
  • the observation image 85 can be switched to a special optical image or the like by the user's setting. In this case, the normal light image is acquired at a ratio of 1 frame in 6 frames, and the normal light image is not displayed on the display 18.
  • the display control unit 57 controls the display 18 to display the analysis result display based on the plurality of analysis results and the observation image 85 based on at least one type of analysis image among the plurality of types of analysis images. Specifically, the display control unit 57 controls the observation image 85 to superimpose a plurality of analysis result displays on the observation image 85 to form a display image, and to display the display image on the display 18. The plurality of analysis result displays are superimposed on the observation image 85 in such a manner that each analysis result display can be distinguished and recognized. In the present embodiment, the figure 82 displaying the first analysis result and the figure 84 displaying the second analysis result are displayed in different colors from each other. As shown in FIG. 15, the display control unit 57 controls to superimpose the figure 82 displaying the first analysis result and the figure 84 displaying the second analysis result on the observation image 85 in different colors.
  • the processor device 16 or the endoscope system 10 which is an image analysis processing device, it is selected to display on a display, for example, by performing image analysis in parallel for each type of endoscopic image. It is possible to quickly obtain not only the image analysis result based on one type of endoscopic image but also the image analysis result based on another type of endoscopic image. Further, when the analysis result obtained well differs depending on the type of the endoscope image, even if the analysis result is not detected in one endoscope image, it is detected well in the other endoscope image. In some cases, it is possible to prevent oversight of notable areas such as lesions.
  • the normal light image and the special light image are used as analysis images, the normal light image has sufficient brightness, and the lesion is satisfactorily detected in the distant view by the image analysis by the first image analysis unit 71.
  • the special light image is not bright enough and the lesion cannot be detected in the distant view by the image analysis by the second image analysis unit 72, it is superimposed on the observation image 85 as a figure 82 and displayed on the display 18. Is displayed.
  • the observation image 85 is mainly used as a special light image for observing the near view, the lesions and the like in the distant view darkly displayed on the display 18 are displayed as the figure 82, so that the special light image is continued on the display 18. Even if the image is displayed, it is possible to prevent the lesion or the like from being overlooked in the area of interest such as the lesion in the darkly displayed area, which is difficult to visually determine.
  • the analysis result includes the accuracy of the analysis result.
  • the accuracy of the analysis result is the degree to which the analysis result is accurate or the degree to which the analysis result does not include an error.
  • the accuracy of the analysis result is shown numerically. For example, when a specific lesion is cancer, there may be a type of analysis image that can detect cancer well and a type of analysis image that cannot be performed well depending on the type of analysis image. Therefore, the accuracy of the analysis results regarding cancer detection is different.
  • the image analysis processing unit 63 By setting the image analysis processing unit 63 to display the accuracy of the analysis result as the analysis result by the image analysis for the selected analysis image, the presence or absence of the lesion as the analysis result and the area where the lesion exists are combined.
  • the accuracy of the analysis result itself may be displayed numerically and / or by characters.
  • the accuracy is indicated by a numerical value, it is preferable to indicate that the higher the numerical value is, the higher the accuracy is, by a percentage or the like.
  • a trained model by machine learning it is preferable because the accuracy of the analysis result can be output as a numerical value as the analysis result.
  • the second analysis result display 83 displays the region of the lesion which is the analysis result. It includes the figure 84 shown and the accuracy display 86 indicating the accuracy of the analysis result.
  • the details of the analysis result can be grasped at a glance. For example, when the lesion area is displayed as a graphic by the analysis result, the accuracy of the analysis result is also displayed, so that the user can grasp the diagnosis support information in detail.
  • a attention analysis result selection unit for selecting the analysis result having the highest accuracy of the analysis result as the attention analysis result by comparing a plurality of analysis results is provided, and the display image generation unit 65 includes the analysis result including the attention analysis result. It is preferable to create a display. As shown in FIG. 17, in this case, the image processing unit 56 includes a attention analysis result selection unit 91.
  • the attention analysis result selection unit 91 compares a plurality of analysis results. When comparing, when multiple analysis results include the same region in the observation target, these analysis results are compared. Then, among the plurality of analysis results, the analysis result having the highest accuracy of the analysis result included in the analysis result is selected as the attention analysis result. In addition, in order to determine that a plurality of analysis results include the same region in the observation target, a region discrimination process is performed on a plurality of analysis images that are the basis of the plurality of analysis results, and then attention analysis is performed. The result selection unit 91 may compare a plurality of analysis results.
  • the attention analysis result selection unit 91 compares the accuracy of the second analysis result shown by the figure 84 with the accuracy of 80% (see FIG. 15) with the accuracy of the first analysis result shown by the figure 87 with 60%. do. Then, the second analysis result, which is the analysis result with high accuracy of the analysis result, is selected as the attention analysis result.
  • the analysis result display generation unit 79 creates an analysis result display so as to include the attention analysis result.
  • the attention analysis result selection unit 91 selects the second analysis result as the attention analysis result in the present embodiment
  • the lesions in the regions shown by the figures 84 and 87 in the observation target are the first.
  • the figure 87 and the accuracy display 88 based on the analysis result are not shown, and the analysis result display shown by the figure 84 and the accuracy display 86 based on the second analysis result is generated.
  • the display control unit 57 superimposes this analysis result display on the observation image 85 and displays it on the display 18.
  • the attention analysis result selection unit 91 can display the analysis result with higher accuracy in a plurality of analysis results. Therefore, the accuracy or reliability of the image analysis can be improved.
  • the analysis result may include the probability that the region is in a specific state in the observation target.
  • the probability of being in a specific state is a numerical value indicating the certainty that the observation state is a preset specific state. Specifically, for example, when a specific lesion is cancer, a higher value is displayed as a probability in the observation target so that it is certain that it is cancer, and there is a possibility that it is cancer, but it is not certain. Low numbers are displayed as probabilities.
  • image analysis using a trained model by machine learning it is possible to output a region in a specific state preset in the image and its probability as an analysis result. Therefore, by setting the image analysis method of the image analysis unit for the selected image for analysis in the image analysis processing unit 63 so as to detect, for example, the cancer region and its probability, the region can be changed to the cancer region. Display the probability.
  • the first analysis result display 81 is analyzed. Includes a figure 82 showing the area of the resulting lesion and a probability indication 89 that the area is in a particular state in the observation target.
  • the probability display 89 is, for example, "cancer suspicion rate 50%" or the like.
  • the analysis result can be grasped in detail at a glance.
  • the probability that the area is in a specific state is also displayed, so that the user can easily and in detail grasp the diagnostic support information and the lesion. It is possible to better prevent overlooking such as.
  • the case where the analysis result includes the probability that the region is in a specific state in the observation target can be the same as the case where the analysis result includes the accuracy regarding the analysis result.
  • the analysis result display including the analysis result with the highest probability among these probabilities is displayed.
  • the probability that the region in the observation target included in the analysis result is in a specific state is determined.
  • the figure 87 and the probability display based on the first analysis result are not shown, and the analysis result display showing the second analysis result having the highest probability by the figure 84 and the probability display 90 is superimposed on the observation image 85 and displayed on the display 18.
  • the area of the figure 82 in the first analysis result display 81 since the second analysis result did not include the analysis result that the lesion is a lesion, the area of the figure 82 is the figure 82 of the first analysis result display 81 and the probability.
  • Display 89 is shown as it is. As described above, it is preferable that the region to be observed in which at least one of the plurality of analysis results is a lesion is included in the analysis result display and displayed in the display image.
  • the accuracy or reliability of the image analysis can be further improved, and the lesion, etc. It is possible to better prevent overlooking the area of interest.
  • the analysis result acquisition unit 64 acquires the analysis result in association with the type of the analysis image from which the analysis result was obtained, and the display control unit 57 acquires the analysis result and the analysis image from which the analysis result is obtained. It is preferable to control the display 18 to display the legend display indicating the association with the type of.
  • the legend display is an analysis image in the same color and other form as the display in the analysis result display so that the display in the analysis result display can be grasped at a glance what kind of analysis result is the analysis result. It is a display showing the type of. Since the legend display can quickly and easily grasp what kind of analysis image the analysis result display is based on, for example, the reliability of the analysis result display can be grasped.
  • the figure 82 showing the first analysis result is an endoscopic image obtained by using normal light as an image for analysis, and is a figure showing the second analysis result.
  • Reference numeral 84 is an image for analysis obtained from an endoscopic image obtained by using special light. Therefore, the observation image 85 shows the "normal light” indicating that the light is obtained by the normal light in the same color as the figure 82 and the "special light” indicating that the light is obtained by the special light in the same color as the figure 84. It is displayed as a legend display 95 at the lower left of.
  • the legend display 95 By displaying as a legend what kind of analysis image the analysis result was obtained from, when a figure showing the analysis result is displayed, what kind of lesion etc. can be detected well in the image. It is possible to easily grasp at a glance whether the cage analysis result has been obtained. Further, according to the legend display 95, when the displayed image is a normal optical image, even if there is no lesion or the like in the observation target and no figure or the like showing the analysis result is displayed, any kind of analysis is currently used. It is possible to grasp whether the image has been acquired, that is, what kind of IEE is being performed. For example, it is possible to grasp what kind of special light illumination light is used in one cycle of illumination light (FIG. 6, 1CY). Therefore, the legend display 95 is also useful as a display indicating what the IEE being performed at that time is in endoscopy.
  • the analysis result by distinguishing the analysis result based on the analysis image of the type other than the observation image 85 displayed on the display 18 from the analysis result based on the analysis image which is the source of the observation image 85. good.
  • the graphic 82 and the probability display 89 which are the analysis result displays based on the normal light image that is the basis of the observation image 85, are shown in a conspicuously dark color and are not displayed like the observation image 85.
  • the figure 84 and the accuracy display 86 which are the analysis result displays based on the special light image, may be displayed in a light color, a dotted line, or the like so as not to be conspicuous. In FIG. 23, those having wide intervals between diagonal lines indicate light colors or dotted lines.
  • the graphic 84 and the accuracy display 86 which are the analysis result displays based on the special light image that is not displayed like the observation image 85, may be shown by a method other than superimposing on the observation image 85.
  • the analysis result based on the special light image can be shown in sentences together with the legend display 95.
  • the second analysis result display 83 may be shown as a sub screen outside the observation image 85.
  • the plurality of types of analysis images are not limited to two types, and may be three or more types.
  • the analysis image the endoscopic image obtained by illuminating with normal light is used as the first type of analysis image
  • the special light based on the spectral spectrum shown in FIG. 5 is used as the first special light
  • the first special light is used.
  • the endoscopic image obtained by illuminating is used as the second type of analysis image
  • the endoscopic image obtained by illuminating with the second special light different from the first special light is used as the third type of analysis image.
  • the light source control unit 22 emits special light such that the light intensity ratio between the purple light VL, the blue light BL, the green light GL, and the red light RL is Vs2: Bs2: Gs2: Rs2 as the second special light.
  • Each LED 20a to 20d is controlled.
  • the light intensity ratio Vs2: Bs2: Gs2: Rs2 corresponds to the light intensity condition of the second special light.
  • the second special light preferably emphasizes the superficial blood vessels. Therefore, as shown in FIG. 25, the second special light emits only purple light VL as a short-wavelength narrow-band light with a light intensity ratio of 1: 0: 0: 0.
  • the light source control unit 22 emits the normal light NL for 5 frames (5FL) in succession, and then emits the first special light 1SL for 1 frame (1FL).
  • the normal light CL is continuously emitted for 5 frames (5FL), and then the second special light 2SL is emitted for 1 frame (1FL).
  • the illumination pattern having this order is set as one cycle (1CY), and this cycle is repeated.
  • the analysis image based on the second special light is image-analyzed by the third image analysis unit 73 (see FIG. 10), and the third analysis result is sent to the analysis result acquisition unit 64.
  • the analysis result acquisition unit 64 is a first analysis result in the analysis image based on normal light, a second analysis result in the analysis image based on the first special light, and a third analysis in the analysis image based on the second special light. Get the result. As shown in FIG. 27, the third analysis result is displayed by the figure 96.
  • the figure 96 which is the detection result included in the third analysis result overlaps with the figure 84 which is the detection result included in the second analysis result.
  • the endoscopic image by the first special light shows the structure of the surface blood vessels and polyps well, and the endoscopic image by the second special light emphasizes the surface blood vessels, so that the second analysis result is included.
  • the area where the area of the figure 84 and the area of the figure 96 included in the third analysis result overlap is an area where there is a high possibility that there is an abnormality in the structure of the surface blood vessel or the like, and as an analysis result, an alert that calls special attention to the user. Includes display 98.
  • the image analysis processing unit 63 may include that the observation target is in a specific state in the analysis result for this region.
  • the analysis result is different from the case where only the second analysis result or only the third analysis result includes a specific region. May be good.
  • the second analysis result and the third analysis result include the probability of a specific lesion, respectively, the region containing both the second analysis result and the third analysis result is the depth of the specific lesion. For example, displaying the direction.
  • the illumination light is emitted in a preset order according to a predetermined illumination light pattern (see FIG. 6).
  • the illumination light is normal light, and a normal light image is acquired (step ST110).
  • the illumination light becomes special light, and a special light image is acquired (step ST120).
  • Normal optical image analysis (step ST130) and special optical image analysis (step ST140) are performed in parallel.
  • the first analysis result by the normal optical image analysis and the second analysis result by the special optical image are acquired by the analysis result acquisition unit (step ST160).
  • the attention analysis result is selected by the attention analysis result selection unit (step ST170).
  • An analysis result display is created according to the selected attention analysis result, and a display image is generated based on one type of a plurality of analysis images as preset (step ST170).
  • the analysis result display and the displayed image are displayed on the display 18 by the display control unit 57 (step ST180).
  • the processor device 16 functions as an image analysis processing device, but an image analysis processing device including an image processing unit 56 may be provided separately from the processor device 16.
  • the image processing unit 56 has taken an image with the endoscope 12 directly from the endoscope system 10, for example, or indirectly from the PACS (Picture Archiving and Communication Systems) 910. It can be provided in the diagnostic support device 911 that acquires a RAW image. Further, as shown in FIG. 30, it is connected to various inspection devices such as the first inspection device 921, the second inspection device 922, ..., the K inspection device 923, including the endoscope system 10, via the network 926.
  • the image processing unit 56 can be provided in the medical service support device 930.
  • the endoscope 12 uses a so-called flexible endoscope having a flexible insertion portion 12a, but the observation target swallows and uses a capsule-type endoscope.
  • the present invention is also suitable when a rigid endoscope (laparoscope) used for a mirror, surgery, or the like is used.
  • the above-described embodiments and modifications are methods for operating an image analysis processing device that includes a processor and performs image analysis based on an image obtained by imaging an observation target using an endoscope, and is used for image analysis.
  • An analysis image acquisition step for acquiring multiple types of analysis images to be used, an image analysis processing step for performing image analysis on the analysis image in parallel for each type of analysis image, and multiple acquisition of analysis results by image analysis.
  • the above-described embodiment and modification are image analysis processing devices installed in an image analysis processing device that includes a processor and performs image analysis based on an image obtained by imaging an observation target using an endoscope.
  • an analysis image acquisition function that acquires multiple types of analysis images used for image analysis on a computer, and an image analysis processing function that performs image analysis on the analysis image in parallel for each type of analysis image.
  • a display image including an analysis result acquisition function for acquiring a plurality of analysis results by image analysis, an analysis result display based on a plurality of analysis results, and at least one type of analysis image among a plurality of types of analysis images is displayed.
  • various types such as a control unit 51, an image acquisition unit 52, a DSP 53, a noise reduction unit 54, a conversion unit 55, an image processing unit 56, and a display control unit 57 included in the processor device 16 which is an image analysis processing device.
  • the hardware-like structure of the processing unit that executes processing is various processors (processors) as shown below.
  • processors processors
  • the circuit configuration is changed after manufacturing CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit (cyclery) in which circuit elements such as semiconductor elements are combined.
  • the present invention is a system or device for acquiring medical images (including moving images) other than endoscopic images. It can also be used in such cases.
  • the present invention can be applied to an ultrasonic inspection device, an X-ray imaging device (including a CT (Computed Tomography) inspection device, a mammography device, and the like), an MRI (magnetic resonance imaging) device, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡画像において注目すべき領域の見逃しを防ぐ画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラムを提供する。 プロセッサを備える画像解析処理装置であって、プロセッサは、画像解析に用いる複数種類の解析用画像を取得し、解析用画像の種類毎に並列して、解析用画像の画像解析を行い、画像解析による解析結果を複数取得し、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像に基づく表示画像とを、ディスプレイ(18)に表示する制御を行う。

Description

画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
 本発明は、画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラムに関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムを用いた診断では、画像強調内視鏡又は画像強調観察(IEE、image enhanced endoscopy)と称される方法により、観察対象を内視鏡で撮影して得た画像(以下、内視鏡画像という)を用いて、観察対象の表面構造、病変又は生体情報等を強調して表示し、医師が観察対象を診断するための診断支援情報を得ることが行われている。
 IEEには、観察対象を撮像して得た内視鏡画像をデジタル画像処理して用いる方法、又は、観察対象を特定の照明光により照明して撮像した内視鏡画像を用いる方法等により、各種類の内視鏡画像とする方法が知られている。例えば、医師が特定の種類の内視鏡画像を選択することにより、観察対象において血管が密集する領域、又は酸素飽和度が低い領域等の生体情報を判定し、これらの領域を強調してディスプレイ等に表示する。このような表示は、医師が観察対象を診断するための診断支援情報として有用である。
 また、IEE等による各種の内視鏡画像を画像解析することにより、観察対象における病変の可能性がある領域の範囲、又は、炎症度等から、疾患のステージ等を判定し、得られた判定結果を診断支援情報としてディスプレイに表示して提供するCAD(Computer-Aided Diagnosis)技術も開発されている。例えば、IEEによる内視鏡画像を用いて、潰瘍性大腸炎のステージ等の疾患の重症度又は進行度を高い精度で判定する内視鏡システムが知られている(特許文献1)。
特開2020-65685号公報
 IEE又はCAD等では、内視鏡のユーザである医師の指示に従って、特定の種類の内視鏡画像をディスプレイに表示し、また、ディスプレイに表示した内視鏡画像の画像解析により画像解析結果を得て診断支援情報とする。例えば、医師が、観察対象を明るく自然な色により観察することを希望した場合、照明光を白色光として観察対象を撮像した内視鏡画像がディスプレイに表示され、この内視鏡画像を用いて画像解析が行われ、画像解析結果に基づく診断支援情報が得られる。一方、医師が、観察対象の表層血管が密集する病変の詳細な観察を希望した場合、白色光による内視鏡画像と比べて明るさは劣るが、表層血管が強調されたIEEによる内視鏡画像がディスプレイに表示され、この内視鏡画像を用いて画像解析が行われ、画像解析結果に基づく診断支援情報が得られる。
 このように、IEE又はCADによる内視鏡画像の種類により、得られる効果、目的又は用途が異なるため、医師の指示等によりディスプレイに表示された内視鏡画像の種類の画像解析では、必ずしも良好に得られない診断支援情報があり得る。一方、別の種類の内視鏡画像では、この診断支援情報が良好に得られる場合がある。したがって、内視鏡による観察において、IEE又はCADを用いる際に、例えば、別の種類の内視鏡画像を用いた画像解析では良好に得られる診断支援情報であるにもかかわらず、内視鏡画像の種類によっては、同じ画像解析を行ってもこの診断支援情報が良好に得られないために、病変等の観察対象の異常を見逃す可能性があった。
 本発明は、内視鏡画像において注目すべき領域の見逃しを防ぐ画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラムを提供することを目的とする。
 本発明は、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置であって、プロセッサを備える。プロセッサは、画像解析に用いる複数種類の解析用画像を取得し、解析用画像の種類毎に並列して、解析用画像の画像解析を行い、画像解析による解析結果を複数取得し、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像に基づく表示画像とを、ディスプレイに表示する制御を行う。
 プロセッサは、解析用画像の種類毎に独立して、画像解析を行うことが好ましい。
 プロセッサは、観察対象における特定の状態と、特定の状態を含む観察対象を撮像することにより得た解析用画像とを、予め対応付けた対応情報を取得し、解析用画像と対応情報とに基づき、解析結果を得ることが好ましい。
 プロセッサは、対応情報を解析用画像の種類毎に取得し、解析用画像と、解析用画像の種類に対応して取得された対応情報とに基づき、解析結果を得ることが好ましい。
 特定の状態は、観察対象の構造が異常である状態、観察対象が特定の病変である状態、及び、観察対象の生体情報の値が異常である状態のうち少なくとも1つであることが好ましい。
 解析結果は、観察対象における特定の状態の領域の情報を含むことが好ましい。
 解析結果は、解析結果に関する確度を含むことが好ましい。
 プロセッサは、複数の解析結果を比較することにより、解析結果に関する確度が最も高い解析結果を注目解析結果として選択し、注目解析結果を含む解析結果表示を作成することが好ましい。
 プロセッサは、画像に対し強調処理を行うことにより、第1解析用画像を生成し、解析用画像の1種として第1解析用画像を取得することが好ましい。
 プロセッサは、画像に対し色彩強調処理又は構造強調処理を行うことが好ましい。
 プロセッサは、解析結果を、解析結果が得られた解析用画像の種類と対応付けて取得し、解析結果と解析結果が得られた解析用画像の種類との関連付けを示す凡例表示をディスプレイに表示する制御を行うことが好ましい。
 また、本発明は、内視鏡システムであって、画像解析処理装置と、観察対象に照射する照明光を発する光源部とを備える。
 プロセッサは、光源部が発する互いに分光スペクトルが異なる複数の照明光のそれぞれにより照明した観察対象を撮像することにより得られる画像を、互いに異なる種類の解析用画像として取得することが好ましい。
 プロセッサは、光源部が発する白色の照明光により照明した観察対象を撮像することにより得られる画像を、解析用画像の1種として取得することが好ましい。
 プロセッサは、光源部が発する予め設定した波長帯域の狭帯域光を含む照明光により照明した観察対象を撮像することにより得られる画像を、解析用画像の1種として取得することが好ましい。
 光源部は、互いに分光スペクトルが異なる複数の照明光のそれぞれを、予め設定した順序により繰り返し発光することが好ましい。
 プロセッサは、解析結果を、解析結果が得られた解析用画像の種類と対応付けて取得し、解析結果と解析結果が得られた解析用画像の種類との関連付けを示す凡例表示をディスプレイに表示する制御を行うことが好ましい。
 また、本発明は、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置の作動方法であって、画像解析に用いる複数種類の解析用画像を取得する解析用画像取得ステップと、解析用画像の種類毎に並列して、解析用画像に対する画像解析を行う画像解析処理ステップと、画像解析による解析結果を複数取得する解析結果取得ステップと、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御ステップとを備える。
 また、本発明は、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置にインストールされる画像解析処理装置用プログラムであって、コンピュータに、画像解析に用いる複数種類の解析用画像を取得する解析用画像取得機能と、解析用画像の種類毎に並列して、解析用画像に対する画像解析を行う画像解析処理機能と、画像解析による解析結果を複数取得する解析結果取得機能と、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御機能とをを実現させるための画像解析処理装置用プログラムである。
 本発明によれば、内視鏡画像において注目すべき領域の見逃しを防ぐことができる。
内視鏡システムの外観図である。 内視鏡の操作部の外観図である。 内視鏡システムの機能を示すブロック図である。 通常光のスペクトルを示すグラフである。 特殊光のスペクトルを示すグラフである。 照明光パターンを説明する説明図である。 画像処理部の機能を示すブロック図である。 画像解析処理部の機能を示すブロック図である。 対応情報取得部の機能を説明する説明図である。 各対応情報処理部を備える画像解析処理部の機能を示すブロック図である。 表示画像生成部の機能を示すブロック図である。 第1解析結果表示を説明する画像図である。 第2解析結果表示を説明する画像図である。 観察画像の画像図である。 観察画像に2種類の解析結果表示である図形を重畳した表示画像を説明する画像図である。 第2解析結果表示である図形と文字とを説明する画像図である。 注目解析結果選択部を備える画像処理部の機能を示すブロック図である。 注目解析結果選択部が選択した解析結果を示す図形等を説明する画像図である。 注目解析結果選択部が選択した解析結果を示す図形等を観察画像に重畳した表示画像を説明する画像図である。 第1解析結果表示である図形と文字とを説明する画像図である。 観察画像に解析結果表示である図形と文字とを観察画像に重畳した表示画像を説明する画像図である。 凡例表示を備える表示画像を説明する画像図である。 表示されない画像に基づく解析結果表示を目立たないように表示する表示画像を説明する画像図である。 表示されない画像に基づく解析結果表示を文字により表示する表示画像を説明する画像図である。 第2特殊光のスペクトルを示すグラフである。 第2特殊光を含む照明光パターンを説明する説明図である。 観察画像に3種類の解析結果表示を観察画像に重畳した表示画像を説明する画像図である。 画像解析処理装置の処理の流れを説明するフロー図である。 診断支援装置を示す説明図である。 医療業務支援装置を示す説明図である。
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、ディスプレイ18と、キーボード19とを備える。内視鏡12は、観察対象を撮影する。光源装置14は、観察対象に照射する照明光を発する。プロセッサ装置16は、画像解析処理装置であり、内視鏡システム10のシステム制御、及び、内視鏡画像の画像解析処理等を行う。ディスプレイ18は、内視鏡画像等を含む表示画像を表示する表示部である。キーボード19は、プロセッサ装置16等への設定入力等を行う入力デバイスである。
 内視鏡システム10は、観察モードとして、通常モードと特殊モードと画像解析モードとの3つのモードを備える。通常モードでは、通常光を観察対象に照射して撮像することによって、自然な色合いの通常光画像を表示画像としてディスプレイ18に表示する。特殊モードでは、通常光と波長帯域又は分光スペクトルが異なる特殊光を観察対象に照明して撮像することによって、観察対象の特定の構造等を強調した特殊光画像を表示画像としてディスプレイ18に表示する。画像解析モードでは、通常光又は特殊光を観察対象に照射して撮像することによって得た通常光画像又は特殊光画像をディスプレイ18に表示する際に、通常光画像又は特殊光画像等に基づく複数種類の解析用画像を画像解析することにより、複数の解析結果を得る。そして、通常光画像又は特殊光画像等の観察画像に、複数の解析結果に基づく解析結果表示を重畳した表示画像をディスプレイ18に表示する。なお、通常モード又は画像解析モードにおいて、視認性が良い画像であれば、強調処理等を行った強調画像であっても、通常光画像又は特殊光画像として表示に用いてもよい。
 画像解析に用いる解析用画像の種類は、照明光の種類及び強調処理の種類により区分する。したがって、照明光が同じである内視鏡画像は、同種の解析用画像であり、照明光がが異なる内視鏡画像は、別種の解析用画像である。また、同じ方法により強調処理を行った内視鏡画像は、同種の解析用画像であり、別の方法により強調処理を行った内視鏡画像は、別種の解析用画像である。照明光の種類は、照明光の分光スペクトルにより区分する。照明光が異なる場合は、照明光の分光スペクトルが異なる。したがって、例えば、白色光により撮像された内視鏡画像と、白色光以外の照明光により撮像された内視鏡画像とは、別種の解析用画像である。また、強調処理の種類は、強調処理の方法により区分する。したがって、例えば、白色光により撮像され、色彩強調処理を実施した内視鏡画像と、白色光により撮像され、構造強調処理を実施した内視鏡画像とは、別種の解析用画像である。
 内視鏡12は、観察対象を有する被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dとを有している。操作部12bのアングルノブ12e(図2参照)を操作することにより、湾曲部12cが湾曲する。その結果、先端部12dが所望の方向に向く。また、図2に示すように、操作部12bには、アングルノブ12eの他、処置具挿入口12f、スコープボタン12g、及び、ズーム操作部13が設けられている。処置具挿入口12fは、生検鉗子、スネア、または、電気メス等の処置具を挿入する入り口である。処置具挿入口12fに挿入した処置具は、先端部12dから突出する。スコープボタン12gには各種の操作を割り当てることができ、本実施形態では観察モードを切り替える操作に使用する。ズーム操作部13を操作することによって、観察対象を拡大または縮小して撮影できる。
 図3に示すように、光源装置14は、照明光を発する光源を備える光源部20と、光源部20の動作を制御する光源制御部22とを備える。光源部20は、観察対象を照明する照明光を発する。照明光には、照明光を発するために使用する励起光等の発光を含む。光源部20は、例えば、レーザーダイオード、LED(Light Emitting Diode)、キセノンランプ、または、ハロゲンランプの光源を含み、少なくとも、白色の照明光、または、白色の照明光を発するために使用する励起光を発する。白色には、内視鏡12を用いた観察対象の撮影において実質的に白色と同等な、いわゆる擬似白色を含む。
 光源部20は、必要に応じて、励起光の照射を受けて発光する蛍光体、または、照明光または励起光の波長帯域、分光スペクトル、もしくは光量等を調節する光学フィルタ等を含む。この他、光源部20は、少なくとも狭帯域な光(以下、狭帯域光という)からなる照明光を発することができる。また、光源部20は、互いに分光スペクトルが異なる複数の照明光を発することができる。照明光は、狭帯域光を含んでも良い。また、光源部20は、例えば、観察対象が含むヘモグロビンの酸素飽和度等の生体情報を算出するために使用する画像の撮影に必要な、特定の波長帯域又は分光スペクトルを有する光を発することができる。
 「狭帯域」とは、観察対象の特性及び/またはイメージセンサ45が有するカラーフィルタの分光特性との関係において、実質的にほぼ単一の波長帯域であることをいう。例えば、波長帯域が例えば約±20nm以下(好ましくは約±10nm以下)である場合、この光は狭帯域である。
 本実施形態では、光源部20は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dの4色のLEDを有する。V-LED20aは、中心波長405nm、波長帯域380~420nmの紫色光VLを発光する。B-LED20bは、中心波長460nm、波長帯域420~500nmの青色光BLを発光する。G-LED20cは、波長帯域が480~600nmに及ぶ緑色光GLを発光する。R-LED20dは、中心波長620~630nmで、波長帯域が600~650nmに及ぶ赤色光RLを発光する。なお、V-LED20aとB-LED20bの中心波長は約±20nm、好ましくは約±5nmから約±10nm程度の幅を有する。なお、紫色光VLは、特殊光モード又は画像解析モードにて用いる表層血管の密集、粘膜内出血、及び粘膜外出血を検出するために用いられる短波長の光であり、中心波長又はピーク波長に410nmを含めることが好ましい。また、紫色光VLは、狭帯域光であることが好ましい。
 光源制御部22は、光源部20を構成する各光源の点灯または消灯もしくは遮蔽のタイミング、及び、発光量等を制御する。その結果、光源部20は、分光スペクトルが異なる複数種類の照明光を、予め設定した期間及び発光量で発することができる。本実施形態においては、光源制御部22は、各LED20a~20dの点灯や消灯、点灯時の発光量、又は光学フィルタの挿抜等を、各々に独立した制御信号を入力することにより、照明光の分光スペクトルを調節する。これにより、光源部20は白色の照明光、分光スペクトルが異なる複数種類の照明光、又は、少なくとも狭帯域光からなる照明光等を発する。白色光の照明光を含め、互いに分光スペクトルが異なる複数の照明光のそれぞれにより照明した観察対象を撮像することにより得られる内視鏡画像は、互いに異なる種類の解析用画像である。
 本実施形態では、図4に示すように、光源部20は、光源制御部22の制御により、通常光NLとして、白色の照明光を発する。通常モード又は画像解析モードに設定している場合、光源制御部22は、紫色光VL、青色光BL、緑色光GL、及び赤色光RL間の光強度比がVc:Bc:Gc:Rcとなる白色光を発するように、各LED20a~20dを制御する。光強度比Vc:Bc:Gc:Rcは、白色の照明光の光量条件に対応する。光源部20が発する白色の照明光により照明した観察対象を撮像することにより得られる通常光画像は、解析用画像の1種である。
 特殊モード及び画像解析モードに設定している場合、光源制御部22は、特殊光として、紫色光VL、青色光BL、緑色光GL、及び赤色光RL間の光強度比がVs1:Bs1:Gs1:Rs1となる特殊光を発するように、各LED20a~20dを制御する。光強度比Vs1:Bs1:Gs1:Rs1は、特殊光の光量条件に対応する。特殊光は、表層血管及びポリープ等の構造を強調することが好ましい。そのため、特殊光は、紫色光VLの光強度を青色光BLの光強度よりも大きくすることが好ましい。例えば、図5に示すように、紫色光VLの光強度Vs1と青色光BLの光強度Bs1との比率を「4:1」とする。本実施形態の特殊光SLは、狭帯域光の紫色光VLを含む照明光である。光源部20が発する特殊光SLにより照明した観察対象を撮像することにより得られる特殊光画像は、解析用画像の1種である。
 なお、本明細書において、光強度比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光VL、青色光BL、緑色光GL、及び赤色光RL間の光強度比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光強度比を有するものとする。
 光源部20は、互いに分光スペクトルが異なる複数の照明光のそれぞれを、予め設定した順序により繰り返し発することが好ましい。本実施形態では、通常光NLと特殊光SLとは、予め設定した順序により繰り返し発光する。本実施形態では、光源制御部22は、例えば、図6に示すように、通常光NLを5フレーム(5FL)続けて発光し、次に、特殊光SLを1フレーム(1FL)発光し、再度通常光CLを5フレーム(5FL)続けて発光し、再度特殊光SLを1フレーム(1FL)発光する。通常光NLを5フレーム(5FL)続けて発光し、次に、特殊光SLを1フレーム(1FL)発光する順序からなる照明パターンを1周期(1CY)として、この周期を繰り返す。
 内視鏡12の先端部12dには、照明光学系30aと撮影光学系30bが設けられている(図3参照)。照明光学系30aは、照明レンズ42を有しており、この照明レンズ42を介して照明光が観察対象に向けて出射する。
 撮影光学系30bは、対物レンズ43、ズームレンズ44、及びイメージセンサ45を有する。イメージセンサ45は、対物レンズ43及びズームレンズ44を介して、観察対象から戻る照明光の反射光等(反射光の他、散乱光、観察対象が発光する蛍光、または、観察対象に投与等した薬剤に起因した蛍光等を含む)を用いて観察対象を撮影する。ズームレンズ44は、ズーム操作部13の操作をすることで移動し、観察対象像を拡大または縮小する。
 イメージセンサ45は、画素ごとに、複数色のカラーフィルタのうち1色のカラーフィルタを有する。本実施形態においては、イメージセンサ45は原色系のカラーフィルタを有するカラーセンサである。具体的には、イメージセンサ45は、赤色カラーフィルタ(Rフィルタ)を有するR画素と、緑色カラーフィルタ(Gフィルタ)を有するG画素と、青色カラーフィルタ(Bフィルタ)を有するB画素と、を有する。
 なお、イメージセンサ45としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ45は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色-原色色変換をすれば、原色系のカラーセンサで得る画像と同様の画像に変換できる。原色系または補色系のセンサにおいて、W画素(ほぼ全波長帯域の光を受光するホワイト画素)等、上記以外の特性を有する画素を1または複数種類有する場合も同様である。また、本実施形態のイメージセンサ45はカラーセンサであるが、カラーフィルタを有しないモノクロのセンサを使用してもよい。
 プロセッサ装置16には、後述するような制御部51、画像取得部52、画像処理部56、及び表示制御部57等が行う処理等に関するプログラムがメモリ(図示せず)に組み込まれている。画像解析処理装置として機能するプロセッサ装置16が備えるプロセッサにより構成される制御部51によってそのプログラムが動作することで、制御部51、画像取得部52、画像処理部56、及び表示制御部57の機能が実現する。
 制御部51は、照明光の照射タイミングと撮影のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。キーボード19等を用いて、各種設定の入力等をした場合には、制御部51は、その設定を、光源制御部22、イメージセンサ45、又は画像処理部56等の内視鏡システム10の各部に入力する。
 画像取得部52は、イメージセンサ45から、各色の画素を用いて観察対象を撮影した画像、すなわちRAW画像を取得する。また、RAW画像は、デモザイク処理を実施する前の画像(内視鏡画像)である。デモザイク処理を実施する前の画像であれば、イメージセンサ45から取得した画像に対してノイズ低減処理等の任意の処理を実施した画像もRAW画像に含む。
 画像取得部52は、取得したRAW画像に必要に応じて各種処理を施すために、DSP(Digital Signal Processor)53と、ノイズ低減部54と、変換部55と、を備える。
 DSP53は、例えば、オフセット処理部、欠陥補正処理部、デモザイク処理部、リニアマトリクス処理部、及び、YC変換処理部、等(いずれも図示しない)を備える。DSP53は、これらを用いてRAW画像またはRAW画像を用いて生成した画像に対して各種処理を施す。
 オフセット処理部は、RAW画像に対してオフセット処理を施す。オフセット処理は、RAW画像から暗電流成分を低減し、正確な零レベルを設定する処理である。オフセット処理は、クランプ処理と称する場合がある。欠陥補正処理部は、RAW画像に対して欠陥補正処理を施す。欠陥補正処理は、イメージセンサ45が製造工程または経時変化に起因する欠陥を有する画素(欠陥画素)を含む場合に、イメージセンサ45の欠陥画素に対応するRAW画素の画素値を補正または生成する処理である。
 デモザイク処理部は、各色のカラーフィルタに対応する各色のRAW画像に対してデモザイク処理を施す。デモザイク処理は、RAW画像においてカラーフィルタの配列に起因して欠落する画素値を補間によって生成する処理である。リニアマトリクス処理部は、1または複数のRAW画像をRGB各色のチャンネルに割り当てることにより生成する内視鏡画像に対してリニアマトリクス処理を行う。リニアマトリクス処理は、内視鏡画像の色再現性を高める処理である。YC変換処理部が行うYC変換処理は、1または複数のRAW画像をRGB各色のチャンネルに割り当てることにより生成する内視鏡画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrを有する内視鏡画像に変換する処理である。
 ノイズ低減部54は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを有する内視鏡画像に対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部55は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色のチャンネルを有する内視鏡画像に再変換する。
 画像処理部56は、画像取得部52が出力する内視鏡画像に対し、必要な画像処理、画像解析、又は演算等を行う。図7に示すように、画像処理部56は、強調処理部61、解析用画像取得部62、画像解析処理部63、解析結果取得部64、及び、表示画像生成部65、を備える。強調処理部61は、色彩強調部66、及び構造強調部67を備える。
 強調処理部61は、画像取得部52が出力する内視鏡画像に強調処理を行う。解析用画像取得部62は、画像解析に用いる複数種類の解析用画像を取得する。画像解析処理部63は、解析用画像の種類毎に、並列して、解析用画像の画像解析を行う。解析結果取得部64は、画像解析による解析結果を複数取得する。表示画像生成部65は、ディスプレイ18に表示するための解析結果表示と観察画像とを生成する。
 強調処理部61が行う強調処理とは、強調処理前の内視鏡画像に対し、他の組織または構造等と区別して、特定の部分の情報を得られるように処理することをいう。例えば、特定の特徴を有する部分を、他の部分(例えば正常な粘膜等)に対して相対的に色彩もしくは明るさを変更する等の処理は強調処理である。強調処理部61が処理を行う内視鏡画像は、通常光画像でも特殊光画像でもよい。強調処理を行った内視鏡画像は、解析用画像の1種として用いる。
 色彩強調部66は、例えば、観察対象における正常な領域と異常な領域との境界が色及び彩度により明瞭に表される内視鏡画像となるように、取得した内視鏡画像に対して色彩強調処理を行う。色彩強調部66は、取得した内視鏡画像において、色情報変換処理を行う。色情報変換処理は、取得した内視鏡画像について、色空間上に分布する複数の範囲のそれぞれを、変換前の範囲と対応付けられた変換先の範囲に移す処理である。色彩強調部66により処理された内視鏡画像は、正常な領域と異常な領域との境界が明瞭であるため、より容易に、また、精度良く、異常な領域を特定領域として判定することができる画像である。色彩強調処理を行った内視鏡画像は、解析用画像の1種である、第1解析用画像である。
 構造強調部67は、例えば、観察対象における血管が強調されて表された内視鏡画像となるように、取得した内視鏡画像に対して構造強調処理を行う。構造強調部67は、取得した内視鏡画像において、横軸に画素値(輝度値)を、縦軸に頻度を取ったグラフである濃度ヒストグラムを求め、画像処理部56のメモリ(図示せず)等に予め記憶しておいた階調補正テーブルにより、階調補正を行う。階調補正テーブルは、横軸が入力値を、縦軸が出力値を表し、入力値と出力値の対応関係を示す階調補正カーブを有しており、例えば、略S字形状の階調補正カーブに基づいて階調補正を行って、取得した内視鏡画像のダイナミックレンジを広げる。これにより、構造強調の強調処理前の原画像において濃度が低い部分は、濃度がより低く、濃度が高い部分はより高くなるようになるため、例えば、血管領域と血管が存在しない領域の濃度差が広がって、血管のコントラストが向上する。したがって、構造強調部67により処理された内視鏡画像は、血管のコントラストが向上されているため、血管の構造の視認性が高められており、より容易に、また、精度良く、例えば、血管の密集度が高い領域を特定領域として判定することができる画像である。構造強調処理を行った内視鏡画像は、解析用画像の1種である、第1解析用画像である。
 解析用画像取得部62は、複数種類の解析用画像を取得する。解析用画像は、画像取得部52から出力する通常光画像又は特殊光画像に基づく画像である。強調処理を行わない通常光画像又は特殊光画像、及び、強調処理を行った通常光画像又は特殊光画像を解析用画像とする。解析用画像の種類は、照明光の種類、及び強調処理の方法により区別する。本実施形態では、複数種類の解析用画像として、通常光により照明した観察対象を撮像して得られた通常光画像と、特殊光により照明した観察対象を撮像して得られた特殊光画像との2種類の解析用画像を取得する。なお、本実施形態では、強調処理を行わない。
 画像解析処理部63は、解析用画像取得部62が取得した解析用画像に対し、解析用画像の種類毎に並列して、画像解析を行う。並列して画像解析を行うとは、解析用画像の各種類毎の画像解析処理部(図8参照)が複数あり、これらの画像解析をそれぞれ行うことを意味する。解析用画像の各種類毎の画像解析処理は、同時に実施しても、同時でなくそれぞれ実施してもよい。したがって、画像解析処理部63は、解析用画像の種類毎に、独立して、画像解析を行うことができる。本実施形態では、解析用画像が取得される度に、取得された解析用画像に対して、対応する画像解析処理部により画像解析を行う。
 図8に示すように、画像解析処理部63は、解析用画像の種類毎に設けた、第1画像用解析部71、第2画像用解析部72、及び第3画像用解析部73を備え、解析用画像の種類の数に対応して、第n画像用解析部74までの各画像用解析部を備える。このように、画像解析処理部63は、解析用画像の種類毎に、解析用画像の各種類に対応する画像用解析部を備え、各画像用解析部により解析用画像の種類毎に画像解析を行うため、解析用画像の種類毎に並列して画像解析を行う。本実施形態では、第1画像用解析部71において通常光画像の画像解析を実施し、第2画像用解析部72において特殊光の画像解析を実施し、第1画像用解析部71と第2画像用解析部72は、並列して作動する。
 画像解析は、従来行われている画像解析の方法を用いることができる。画像解析処理部63において、第1画像用解析部71から第n画像用解析部74までの各画像用解析部が、同じ方法の画像解析を実施しても良いし、解析用画像の種類に応じて、各画像用解析部が互いに異なる方法の画像解析を実施してもよい。解析用画像の種類に応じて異なる方法の画像解析を実施する場合は、解析用画像の種類に応じて、良好な解析結果が得られる画像解析の方法を選択して行うことが好ましい。
 画像解析の方法としては、画像処理を用いる方法、又は、機械学習の手法を用いる方法等が挙げられる。具体的には、例えば、画像の画素値及び/又は輝度値等の値を用いる方法、画像から算出した酸素飽和度等の生体情報の値を算出する方法、又は、観察対象における特定の状態と、特定の状態を含む観察対象を撮像することにより得た各解析用画像とを、予め対応付けた対応情報を用いる方法等が挙げられる。画像解析のこれらの方法により、病変の有無、病変である確率、病変の進行度等、又は解析結果の確度等を判定する。
 画像解析処理部63は、観察対象における特定の状態と、特定の状態を含む観察対象を撮像することにより得た解析用画像とを、予め対応付けた対応情報を取得する対応情報取得部を備えることが好ましい。そして、画像解析処理部63は、解析用画像と対応情報とに基づき、解析結果を得ることが好ましい。
 観察対象における特定の状態とは、例えば、観察対象の色味の状態、又は構造等が異常である状態、観察対象が特定の病変である状態、観察態様の生体情報の値が異常である状態、又は、観察対象に病変等が存在せず正常もしくは健康な状態等であり、予め設定する。具体的には、観察対象が大腸である場合、特定の状態とは、例えば、大腸粘膜における炎症、発赤、潰瘍、ポリープ、もしくは出血等の異常、がん、もしくは潰瘍性大腸炎等の病変、又は、酸素飽和度が極端に低い等の生体情報の異常を有する状態として設定する。
 対応情報は、予め観察対象がある特定の状態であることが判明している場合に、この観察対象を撮像することにより得た解析用画像と、観察対象の特定の状態の詳細及びその領域の情報等を対応させた情報である。対応情報取得部は、予め対応情報を複数取得している。したがって、図9に示すように、特定の状態について未知である取得した解析用画像を、対応情報取得部に入力することにより、対応情報取得部は、複数の対応情報に基づきこの解析用画像を画像解析し、この解析用画像が含む観察対象の特定の状態に関する領域又は詳細等を出力する。なお、特定の状態に関する領域又は詳細等の出力には、「特定の状態の領域がない」といった内容も含む。
 対応情報取得部は、対応情報を解析用画像の種類毎に取得し、画像解析処理部63は、解析用画像と、解析用画像の種類に対応して取得された対応情報とに基づき、解析結果を得ることが好ましい。解析用画像の種類に対応して取得された対応情報は、予め観察対象がある特定の状態であることが判明している場合に、この観察対象を撮像することにより得た特定の種類の解析用画像と、観察対象の特定の状態に関する領域又は詳細等の情報等を対応させた情報である。また、対応情報取得部は、画像解析処理部63により処理した後の解析結果を、対応情報として取得するフィードバック又は学習を行ってもよい。図10に示すように、画像解析処理部63において、第1画像用解析部71は第1対応情報取得部75を備え、第2画像用解析部72は第2対応情報取得部76を備え、第3画像用解析部73は第3対応情報取得部77を備え、第n画像用解析部74は第n対応情報取得部78を備える。
 解析用画像の種類により、画像解析により良好な結果を得ることができる観察対象の特定の状態が異なる場合がある。したがって、解析用画像の種類のそれぞれが、対応情報取得部を備えることにより、例えば、解析用画像が特殊光画像である場合、画像解析において明るさが足りず、特殊光画像では遠景における病変を検出することが難しい場合、並行して画像解析を行った別の種類の解析用画像である通常光画像が、特殊光画像において検出が難しかった遠景における病変について容易に検出することができる。また、例えば、特殊光画像は、観察対象の表層又は中層の血管の密集箇所を容易に検出し、通常光画像は、特殊光画像の場合とは異なる観察対象の特定の状態としてポリープ等の構造を容易に検出することができるため、異なる種類の注目領域を検出することができる。
 対応情報取得部は、例えば、機械学習における学習済みモデルである。より迅速に又は精度良く、画像解析により解析結果である診断支援情報が得られることから、機械学習による学習済みモデルを対応情報取得部として用いた画像解析を行うことが好ましい。本実施形態においては、各対応情報取得部として、機械学習における学習済みモデルを用いて病変の有無を判定するための画像解析を行う。なお、この場合、学習済みモデルは、それぞれの種類の解析用画像について学習したものを用いる。したがって、第1対応情報取得部75と第2対応情報取得部76とは、互いに異なる学習済みモデルであることが好ましい。例えば、本実施形態では、第1対応情報取得部75は通常光画像に対応する学習済みモデルであり、第2対応情報取得部76は特殊光画像に対応する学習済みモデルである。なお、各学習済みモデルは、画像解析処理部63により得た解析結果について学習するフィードバックを行ってもよい。
 解析結果取得部64は、画像解析処理部63が、各解析処理部により解析用画像の種類毎に画像解析を行って得た解析結果を取得する。各解析処理部がそれぞれ解析結果を得るため、解析結果取得部64は、解析結果を複数取得する。解析結果は、実施した画像解析の方法に応じた内容を含む。本実施形態では、画像解析の方法が学習済みモデルを用いた病変の有無の判定であるため、解析結果は、画像解析を行った解析用画像が含む観察対象の病変の有無及び病変がある場合の領域である。
 本実施形態では、通常光画像を解析して得られる第1解析結果と、特殊光画像を解析して得られる第2解析結果と、2種類の解析結果を得る。第1解析結果は、通常光画像に基づいて得た、観察対象における特定の状態である、病変の有無及び病変がある場合の領域であり、第2解析結果は、特殊光画像に基づいて得た、同じ観察対象における観察対象における特定の状態である、病変の有無及び病変がある場合の領域である。
 図11に示すように、表示画像生成部65は、解析結果表示生成部79と、観察画像生成部80とを備える。解析結果表示生成部79は、複数の解析結果に基づく解析結果表示を生成する。観察画像生成部80は、複数種類の解析用画像のうち少なくとも1種類の解析用画像に基づいて観察対象を含む観察画像を生成する。解析結果表示は、複数の解析結果を医師等のユーザに通知するための表示であり、複数の解析結果をユーザが把握することができる表示であれば表示形態を問わない。複数の解析結果は、予め設定した条件により選択する。例えば、本実施形態では、照明光が特殊光SLである特殊光画像を1フレーム取得すると、照明光が通常光NLである通常光画像を5フレーム続けて取得する。この場合に予め設定する条件は、例えば、1フレーム取得した特殊光画像に基づく第2解析結果と、この特殊光画像を取得した前後の複数の特定個数のフレームの通常光画像に基づく第1解析結果を、複数の解析結果として選択する。
 複数の解析結果は、互いに区別して表示してもよいし、場合により、区別しないで表示してもよい。具体的には、例えば、図形、色、模様、文字、又はこれらの組み合わせによる表示とする。図形等の大きさは、例えば観察対象が特定の状態である領域の大きさに合わせることが好ましい。複数の解析結果の表示が同じ領域に同じ大きさの図形で示される場合は、それぞれの解析結果の表示の大きさを調整し、図形が重ならないように表示することが好ましい。なお、病変等の特定の状態が検出されない場合等、解析結果の表示が必要ない場合は、解析結果を表示しない。
 本実施形態では、第1解析結果と第2解析結果との2つの解析結果を取得し、これらを区別して表示する。また、解析結果表示は、解析結果が観察対象の病変の有無及び病変がある場合の領域であり、第1解析結果と第2解析結果とが区別可能な態様の表示である。
 第1解析結果及び第2解析結果において、観察対象の特定の状態として病変が検出された場合、図12に示すように、第1解析結果を示す第1解析結果表示81は、観察対象における病変の領域を、四角の図形82で囲むことにより示す。また、図13に示すように、第2解析結果を示す第2解析結果表示83は、観察対象における病変の領域を、四角の図形84で囲むことにより示す。図形82と図形84とは、異なる色により表す。図11及び図12において、異なる向きの斜線は異なる色を示す。
 表示画像生成部65は、また、複数種類の解析用画像のうち少なくとも1種類の解析用画像に基づく観察画像を生成する。観察画像は、ユーザがディスプレイ18に表示すること選択した解析用画像である。表示画像生成部65は、表示のために選択された解析用画像に対し、ディスプレイ18に表示するために必要な場合は画像処理を行うことにより、観察画像を生成する。本実施形態では、観察画像は、表示の切り替え指示が行われるまで、継続して表示する。
 図14に示すように、本実施形態では、ユーザがディスプレイ18に通常光画像を表示することを選択しているため、表示画像生成部65は、通常光画像をディスプレイ18に表示するために必要な画像処理を実施して観察画像85とする。したがって、ディスプレイには、観察対象を撮像した通常光画像が継続して表示される。本実施形態では、特殊光画像が6フレームに1フレームの割合で取得されるが、特殊光画像はディスプレイ18に表示せず、1フレーム取得した特殊光画像を表示する代わりに、特殊光画像を取得した1フレームの前の通常光画像の1フレームを継続して表示する等を行う。なお、ユーザの設定により、観察画像85を特殊光画像等に切り替えることができる。この場合は、通常光画像が6フレームに1フレームの割合で取得され、通常光画像はディスプレイ18に表示されない。
 表示制御部57は、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像に基づく観察画像85とをディスプレイ18に表示する制御を行う。具体的には、表示制御部57は、観察画像85に、複数の解析結果表示を、位置を合わせた上で重畳して表示画像とし、表示画像をディスプレイ18に表示する制御を行う。複数の解析結果表示は、それぞれの解析結果表示を区別して認識できる態様で観察画像85に重畳する。本実施形態では、第1解析結果を表示する図形82と第2解析結果を表示する図形84とのそれぞれを、互いに異なる色により表示する。図15に示すように、表示制御部57は、第1解析結果を表示する図形82と第2解析結果を表示する図形84とを異なる色により、観察画像85に重畳する制御を行う。
 以上のとおり、画像解析処理装置であるプロセッサ装置16又は内視鏡システム10によれば、内視鏡画像の種類毎に画像解析を並行して行うことにより、例えば、ディスプレイに表示することを選択した1種類の内視鏡画像に基づく画像解析結果のみならず、別の種類の内視鏡画像に基づく画像解析結果を、迅速に得ることができる。また、内視鏡画像の種類により、良好に得られる解析結果が異なる場合は、一方の内視鏡画像において検出されなかった解析結果であっても、他方の内視鏡画像において良好に検出される場合があり、病変等の注目すべき領域の見逃しを防ぐことができる。
 本実施形態では、通常光画像と特殊光画像とを解析用画像としたため、通常光画像では十分な明るさがあり、第1画像用解析部71による画像解析により、遠景において病変を良好に検出し、特殊光画像では明るさが足りず、第2画像用解析部72による画像解析により、遠景においてこの病変を検出できない場合であっても、図形82として観察画像85に重畳してディスプレイ18に表示される。特に、観察画像85を特殊光画像として近景の観察を主に行っている場合、ディスプレイ18に暗く表示される遠景における病変等が図形82として表示されるため、特殊光画像をディスプレイ18に継続して表示していても、目視では判定し難い、暗く表示される領域における病変等の注目領域について、病変等の見逃しが防止できる。
 なお、解析結果は、解析結果に関する確度を含むことが好ましい。解析結果に関する確度とは、解析結果が正確である度合、又は、誤差を含まない度合である。特定の状態の有無を解析結果とした場合に、解析結果として特定の状態の領域の情報を検出するのとあわせて、画像解析における領域の情報の検出に際し、誤差又はノイズ等をどの程度含むかを確度により示す。解析結果に関する確度は、具体的には、数値により示す。例えば、特定の病変をがんとした場合、解析用画像の種類によってがんの検出を良好に行うことができる解析用画像の種類と、良好に行うことができない解析用画像の種類とがありえるため、がんの検出に関する解析結果に関する確度は異なる。また、同じ種類の解析用画像であっても、解析用画像の状況により、例えば、ぶれが生じている等の画像の状態により、解析結果としてがんの検出がされても、その解析結果に関する確度は異なる場合がある。したがって、それぞれの画像解析の状況に応じて、解析結果の確度を数値により示すことが好ましい。
 画像解析処理部63において、選択した解析用画像に対する画像解析により、解析結果として解析結果に関する確度も表示するように設定することにより、解析結果である病変の有無及び病変がある場合の領域とあわせて、解析結果自体に関する確度を数値及び/又は文字により表示してもよい。確度を数値により示す場合は、百分率等により、数値が高いほど確度が高いものとして示すことが好ましい。例えば、画像解析において機械学習による学習済みモデルを用いる場合は、解析結果として解析結果に関する確度を数値として出力可能であるため好ましい。
 図16に示すように、解析結果が、解析結果に関する確度を含む場合、本実施形態では、第2解析結果を表示する際に、第2解析結果表示83は、解析結果である病変の領域を示す図形84と解析結果に関する確度を示す確度表示86とを含む。
 解析結果が、解析結果に関する確度を含むことにより、ひと目で解析結果の詳細を把握することができる。例えば、解析結果により病変の領域が図形により表示された場合に、解析結果に関する確度も表示されるため、ユーザは診断支援情報を詳細に把握することができる。
 また、複数の解析結果を比較することにより、解析結果の確度が最も高い解析結果を注目解析結果として選択する注目解析結果選択部を備え、表示画像生成部65において、注目解析結果を含む解析結果表示を作成することが好ましい。図17に示すように、この場合、画像処理部56は、注目解析結果選択部91を備える。
 注目解析結果選択部91は、複数の解析結果を比較する。比較する場合は、複数の解析結果が、観察対象における同じ領域を含む際に、これらの解析結果を比較する。そして、複数の解析結果のうち、解析結果が含む解析結果の確度が最も高い解析結果を注目解析結果として選択する。なお、複数の解析結果が、観察対象に同じ領域を含むことを判定するために、複数の解析結果のもととなる複数の解析用画像に対し、領域判別処理を行った上で、注目解析結果選択部91が複数解析結果を比較するようにしてもよい。
 図18に示すように、本実施形態において、第1解析結果が、第2解析結果を示す図形84と同じ領域についても病変であることを検出し、第1解析結果表示81が、図形87と確度表示88とを含む場合、注目解析結果選択部91は、図形84が示す第2解析結果の確度80%(図15参照)と、図形87が示す第1解析結果の確度60%とを比較する。そして、解析結果の確度が高い解析結果である第2解析結果を注目解析結果として選択する。
 解析結果表示生成部79(図11参照)は、注目解析結果を含むように、解析結果表示を作成する。図19に示すように、本実施形態において、注目解析結果選択部91が第2解析結果を注目解析結果として選択した場合、観察対象における図形84及び図形87が示す領域の病変については、第1解析結果による図形87及び確度表示88は示さず、第2解析結果による図形84及び確度表示86により示した解析結果表示を生成する。表示制御部57は、この解析結果表示を観察画像85に重畳してディスプレイ18に表示する。
 注目解析結果選択部91により、複数の解析結果においてより高い確度により解析結果を表示することができる。したがって、画像解析の精度又は信頼性を向上させることができる。
 なお、解析結果は、観察対象において領域が特定の状態である確率を含んでもよい。特定の状態である確率とは、観察状態が予め設定した特定の状態である確からしさを示す数値である。具体的には、例えば、特定の病変をがんとした場合、観察対象において、がんであることが確実であるほど高い数値が確率として表示され、がんである可能性があるが確実ではないほど低い数値が確率として表示される。特に、機械学習による学習済みモデルを用いた画像解析において、解析結果として、画像において予め設定した特定の状態である領域とその確率とが出力可能である。したがって、画像解析処理部63において、選択した解析用画像に対する画像解析部の画像解析の方法を、例えば、がんである領域とその確率とを検出するように設定することにより、がんの領域とその確率を表示する。
 図20に示すように、解析結果が、観察対象において領域が特定の状態である確率を含む場合、本実施形態では、第1解析結果を表示する際に、第1解析結果表示81は、解析結果である病変の領域を示す図形82と観察対象において領域が特定の状態である確率表示89とを含む。確率表示89は、例えば、「がん疑い率50%」等とする。
 解析結果が、観察対象において領域が特定の状態である確率を含むことにより、ひと目で解析結果を詳細に把握することができる。例えば、解析結果により、病変の領域が図形により表示された場合に、領域が特定の状態である確率も表示されるため、ユーザは診断支援情報を容易にかつ詳細に把握することができ、病変等の見逃しをより良く防ぐことができる。
 なお、解析結果が、観察対象において領域が特定の状態である確率を含む場合についても、解析結果が解析結果に関する確度を含む場合と同様とすることができる。例えば、複数の解析結果において、観察対象の同じ領域について異なる確率が出された場合は、これらの確率のうち、最も高い確率の解析結果を含む解析結果表示とする。図21に示すように、本実施形態において、観察対象における図形84又は図形87(図18参照)が示す領域の病変については、解析結果が含む観察対象における領域が特定の状態である確率について、第1解析結果による図形87及び確率表示は示さず、確率が最も高い第2解析結果を図形84及び確率表示90により示した解析結果表示を、観察画像85に重畳してディスプレイ18に表示する。そして、第1解析結果表示81における図形82の領域については、第2解析結果は病変であるとの解析結果を含まなかったため、図形82の領域は、第1解析結果表示81の図形82及び確率表示89をそのまま示す。このように、複数の解析結果のうち少なくとも1つが病変であるとした観察対象の領域は、解析結果表示に含めて表示画像に表示することが好ましい。
 複数の解析結果から注目解析結果を選択した上で、解析結果が観察対象において領域が特定の状態である確率を含むことにより、画像解析の精度又は信頼性をさらに向上させることができ、病変等の注目領域の見逃しをより良く防ぐことができる。
 なお、解析結果取得部64は、解析結果を、解析結果が得られた解析用画像の種類とを対応付けて取得し、表示制御部57は、解析結果と解析結果が得られた解析用画像の種類との関連付けを示す凡例表示をディスプレイ18に表示する制御を行うことが好ましい。凡例表示は、解析結果表示における表示が、どのような解析用画像の種類の解析結果であるかをひと目で把握できるように、解析結果表示における表示と、同じ色等の形態により、解析用画像の種類について示す表示である。凡例表示により、解析結果表示が、どのような種類の解析用画像に基づいて得られたのかを迅速にかつ容易に把握できるため、例えば、解析結果表示の信頼性等も把握することができる。
 図22に示すように、本実施形態では、第1解析結果を示す図形82は通常光を用いて得られた内視鏡画像を解析用画像としたものであり、第2解析結果を示す図形84は特殊光を用いて得られた内視鏡画像を解析用画像としたものである。したがって、図形82と同じ色にて通常光により得られたことを示す「通常光」と、図形84と同じ色にて特殊光により得られたことを示す「特殊光」とを、観察画像85の左下に、凡例表示95として表示する。
 解析結果がどのような解析用画像により得られたものかを凡例として表示することにより、解析結果を示す図形等が表示された際に、どのような病変等の検出が良好に行われる画像におり解析結果が出されたのかをひと目で容易に把握することができる。また、凡例表示95により、表示画像が通常光画像である際に、観察対象に病変等が存在せず、解析結果を示す図形等が1つも表示されない場合でも、現在どのような種類の解析用画像が取得されているのか、すなわち、どのようなIEEが行われているのかを把握することができる。例えば、照明光の1周期(図6、1CY)において、どのような種類の特殊光による照明光が用いられているのかを把握することができる。したがって、凡例表示95は、内視鏡検査において、その時点でおこなわれているIEEが何であるかを示す表示としても有用である。
 また、ディスプレイ18に表示している観察画像85以外の種類の解析用画像に基づいた解析結果を、観察画像85のもととなる解析用画像に基づいた解析結果と区別した解析結果表示としてもよい。図23に示すように、観察画像85のもととなる通常光画像に基づいた解析結果表示である図形82及び確率表示89は目立つように濃い色で示し、観察画像85のように表示がされない特殊光画像に基づいた解析結果表示である図形84及び確度表示86は目立たないように薄い色又は点線等で表示してもよい。図23において、斜線の間隔が広いものは、薄い色又は点線を示す。
 また、観察画像85のように表示がされない特殊光画像に基づいた解析結果表示である図形84及び確度表示86は、観察画像85に重畳する以外の方法で示しても良い。例えば、図24に示すように、特殊光画像に基づいた解析結果は、凡例表示95と合わせて文章で示すことができる。また、観察画像85の外部に、サブ画面として第2解析結果表示83を示してもよい。
 なお、複数種類の解析用画像は、2種類に限らず、3種類以上であってもよい。例えば、解析用画像は、通常光により照明して得られる内視鏡画像を1種類目の解析用画像とし、図5に示す分光スペクトルによる特殊光を第1特殊光とし、第1特殊光により照明して得られる内視鏡画像を2種類目の解析用画像とし、第1特殊光と異なる第2特殊光により照明して得られる内視鏡画像を3種類目の解析用画像とする。
 光源制御部22は、第2特殊光として、紫色光VL、青色光BL、緑色光GL、及び赤色光RL間の光強度比がVs2:Bs2:Gs2:Rs2となる特殊光を発するように、各LED20a~20dを制御する。光強度比Vs2:Bs2:Gs2:Rs2は、第2特殊光の光量条件に対応する。第2特殊光は、表層血管を強調することが好ましい。そのため、第2特殊光は、図25に示すように、光強度比を1:0:0:0にして、短波長の狭帯域光としての紫色光VLのみを発する。
 本実施形態では、光源制御部22は、例えば、図26に示すように、通常光NLを5フレーム(5FL)続けて発光し、次に、第1特殊光1SLを1フレーム(1FL)発光し、再度通常光CLを5フレーム(5FL)続けて発光し、次に、第2特殊光2SLを1フレーム(1FL)発光する。この順序からなる照明パターンを1周期(1CY)として、この周期を繰り返す。
 上記実施形態と同様に、第2特殊光に基づく解析用画像は、第3画像用解析部73(図10参照)により画像解析され、第3解析結果が解析結果取得部64に送られる。解析結果取得部64は、通常光に基づく解析用画像における第1解析結果、第1特殊光に基づく解析用画像における第2解析結果、及び、第2特殊光に基づく解析用画像における第3解析結果を取得する。図27に示すように、第3解析結果は、図形96により表示される。
 図27に示すように、場合によっては、第3解析結果が含む検出結果である図形96は、第2解析結果が含む検出結果である図形84に重なる。第1特殊光による内視鏡画像は、表層血管及びポリープ等の構造を良好に示し、第2特殊光による内視鏡画像は、表層血管を強調して示すことから、第2解析結果が含む図形84の領域と第3解析結果が含む図形96の領域とが重なる領域は、表層血管等の構造に異常がある可能性が高い領域であり、解析結果として、ユーザに特に注意を喚起するアラート表示98を含む。
 また、画像解析処理部63は、特定の複数の解析用画像における解析結果が同じ領域を含む場合、この領域に対する解析結果は、観察対象が特定の状態であることを含むようにしてもよい。本実施形態のように、第2解析結果と、第3解析結果とが、同じ領域を含む場合、第2解析結果のみ又は第3解析結果のみに特定の領域が含まれる場合と異なる解析結果としてもよい。異なる解析結果としては、第2解析結果及び第3解析結果が、それぞれ、特定の病変の確率を含む場合、第2解析結果及び第3解析結果の両方を含む領域は、特定の病変の深さ方向を表示する等が挙げられる。例えば、機械学習を用いた画像解析により、がん等の特定の病変が軽度であっても検出できること、又は、特定の病変の領域を深さ方向等でも精度良く示すこと等、これらを組み合わせることにより、より精度が良い解析結果を含むことができる。
 次に、画像解析処理装置であるプロセッサ装置16又は内視鏡システム10が行う画像解析に関する処理の一連の流れについて、図28に示すフローチャートに沿って説明を行う。観察を開始すると、所定の照明光パターン(図6参照)に従って、予め設定した順序により照明光が発せられる。まず、照明光が通常光であり、通常光画像が取得される(ステップST110)。次に、照明光が特殊光となり、特殊光画像が取得される(ステップST120)。通常光画像解析(ステップST130)と特殊光画像解析(ステップST140)とを並列して実施する。通常光画像解析による第1解析結果と、特殊光画像による第2解析結果とは、解析結果取得部により取得される(ステップST160)。複数の解析結果は、観察対象の同じ領域に対する解析結果を含む場合、注目解析結果選択部により注目解析結果が選択される(ステップST170)。選択された注目解析結果に従い、解析結果表示が作成され、また、予め設定されたとおり、複数の解析用画像の1種類に基づき表示画像が生成される(ステップST170)。解析結果表示と表示画像とは、表示制御部57によりディスプレイ18に表示される(ステップST180)。
 上記実施形態及び変形例等においては、プロセッサ装置16が画像解析処理装置として機能するが、プロセッサ装置16とは別に、画像処理部56を含む画像解析処理装置を設けてもよい。この他、図29に示すように、画像処理部56は、例えば内視鏡システム10から直接的に、または、PACS(Picture Archiving and Communication Systems)910から間接的に、内視鏡12で撮影したRAW画像を取得する診断支援装置911に設けることができる。また、図30に示すように、内視鏡システム10を含む、第1検査装置921、第2検査装置922、…、第K検査装置923等の各種検査装置と、ネットワーク926を介して接続する医療業務支援装置930に、画像処理部56を設けることができる。
 上記各実施形態及び変形例は、その一部または全部を任意に組み合わせて実施することができる。また、上記各実施形態及び変形例においては、内視鏡12は可撓性の挿入部12aを有するいわゆる軟性内視鏡を用いているが、観察対象が嚥下して使用するカプセル型の内視鏡、外科手術等に使用する硬性内視鏡(腹腔鏡)を用いる場合も本発明は好適である。
 上記実施形態及び変形例等は、プロセッサを備え、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置の作動方法であって、画像解析に用いる複数種類の解析用画像を取得する解析用画像取得ステップと、解析用画像の種類毎に並列して、解析用画像に対する画像解析を行う画像解析処理ステップと、画像解析による解析結果を複数取得する解析結果取得ステップと、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御ステップとを備える画像解析処理装置の作動方法を含む。
 また、上記実施形態及び変形例等は、プロセッサを備え、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置にインストールされる画像解析処理装置用プログラムにおいて、コンピュータに、画像解析に用いる複数種類の解析用画像を取得する解析用画像取得機能と、解析用画像の種類毎に並列して、解析用画像に対する画像解析を行う画像解析処理機能と、画像解析による解析結果を複数取得する解析結果取得機能と、複数の解析結果に基づく解析結果表示と、複数種類の解析用画像のうち少なくとも1種類の解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御機能とをを実現させるための画像解析処理装置用プログラムを含む。
 上記実施形態において、画像解析処理装置であるプロセッサ装置16に含まれる制御部51、画像取得部52、DSP53、ノイズ低減部54、変換部55、画像処理部56、及び表示制御部57といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表され
るように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 なお、本発明は、内視鏡画像を取得等する内視鏡システム、プロセッサ装置、その他関連する装置等の他に、内視鏡画像以外の医療画像(動画を含む)を取得するシステムまたは装置等においても利用できる。例えば、本発明は、超音波検査装置、X線画像撮影装置(CT(Computed Tomography)検査装置及びマンモグラフィ装置等を含む)、MRI(magnetic resonance imaging)装置、等に適用できる。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 12c 湾曲部
 12d 先端部
 12e アングルノブ
 12f 処置具挿入口
 12g スコープボタン
 13 ズーム操作部
 14 光源装置
 16 プロセッサ装置
 18 ディスプレイ
 19 キーボード
 20 光源部
 20a V-LED
 20b B-LED
 20c G-LED
 20d R-LED
 22 光源制御部
 30a 照明光学系
 30b 撮影光学系
 41 ライトガイド
 42 照明レンズ
 43 対物レンズ
 44 ズームレンズ
 45 イメージセンサ
 51 制御部
 52 画像取得部
 53 DSP
 54 ノイズ低減部
 55 変換部
 56 画像処理部
 57 表示制御部
 61 強調処理部
 62 解析用画像取得部
 63 画像解析処理部
 64 解析結果取得部
 65 表示画像生成部
 66 色彩強調部
 67 構造強調部
 71 第1画像用解析部
 72 第2画像用解析部
 73 第3画像用解析部
 74 第n画像用解析部
 75 第1対応情報取得部
 76 第2対応情報取得部
 77 第3対応情報取得部
 78 第n対応情報取得部
 79 解析結果表示生成部
 80 観察画像生成部
 81 第1解析結果表示
 82、84、87、96 図形
 83 第2解析結果表示
 85 観察画像
 86、88 確度表示
 89、97 確率表示
 91 注目解析結果選択部
 95 凡例表示
 98 アラート表示
 910 PACS
 911 診断支援装置
 921 第1検査装置
 922 第2検査装置
 923 第K検査装置
 926 ネットワーク
 930 医療業務支援装置
 NL 通常光
 SL 特殊光
 1SL 第1特殊光
 2SL 第2特殊光
 ST110~ST180 ステップ
 
 

Claims (19)

  1.  プロセッサを備え、内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置であって、
     前記プロセッサは、
     画像解析に用いる複数種類の解析用画像を取得し、
     前記解析用画像の種類毎に並列して、前記解析用画像の前記画像解析を行い、
     前記画像解析による解析結果を複数取得し、
     複数の前記解析結果に基づく解析結果表示と、複数種類の前記解析用画像のうち少なくとも1種類の前記解析用画像に基づく表示画像とを、ディスプレイに表示する制御を行う画像解析処理装置。
  2.  前記プロセッサは、前記解析用画像の種類毎に独立して、前記画像解析を行う請求項1に記載の画像解析処理装置。
  3.  前記プロセッサは、前記観察対象における特定の状態と、前記特定の状態を含む前記観察対象を撮像することにより得た前記解析用画像とを、予め対応付けた対応情報を取得し、
     前記解析用画像と前記対応情報とに基づき、前記解析結果を得る請求項1又は2に記載の画像解析処理装置。
  4.  前記プロセッサは、前記対応情報を前記解析用画像の種類毎に取得し、
     前記解析用画像と、前記解析用画像の種類に対応して取得された前記対応情報とに基づき、前記解析結果を得る請求項3に記載の画像解析処理装置。
  5.  前記特定の状態は、前記観察対象の構造が異常である状態、前記観察対象が特定の病変である状態、及び、前記観察対象の生体情報の値が異常である状態のうち少なくとも1つである請求項3又は4に記載の画像解析処理装置。
  6.  前記解析結果は、前記観察対象における前記特定の状態の領域の情報を含む請求項3ないし5のいずれか1項に記載の画像解析処理装置。
  7.  前記解析結果は、前記解析結果に関する確度を含む請求項1ないし6のいずれか1項に記載の画像解析処理装置。
  8.  前記プロセッサは、複数の前記解析結果を比較することにより、前記解析結果に関する確度が最も高い前記解析結果を注目解析結果として選択し、
     前記注目解析結果を含む前記解析結果表示を作成する請求項7に記載の画像解析処理装置。
  9.  前記プロセッサは、前記画像に対し強調処理を行うことにより、第1解析用画像を生成し、
     前記解析用画像の1種として前記第1解析用画像を取得する請求項1ないし8のいずれか1項に記載の画像解析処理装置。
  10.  前記プロセッサは、前記画像に対し色彩強調処理又は構造強調処理を行う請求項9に記載の画像解析処理装置。
  11.  前記プロセッサは、前記解析結果を、前記解析結果が得られた前記解析用画像の種類とを対応付けて取得し、
     前記解析結果と前記解析結果が得られた前記解析用画像の種類との関連付けを示す凡例表示を前記ディスプレイに表示する制御を行う請求項1ないし10のいずれか1項に記載の画像解析処理装置。
  12.  請求項1ないし11のいずれか1項に記載の画像解析処理装置と、
     前記観察対象に照射する照明光を発する光源部とを備える内視鏡システム。
  13.  前記プロセッサは、前記光源部が発する互いに分光スペクトルが異なる複数の照明光のそれぞれにより照明した前記観察対象を撮像することにより得られる前記画像を、互いに異なる種類の前記解析用画像として取得する請求項12記載の内視鏡システム。
  14.  前記プロセッサは、前記光源部が発する白色の照明光により照明した前記観察対象を撮像することにより得られる前記画像を、前記解析用画像の1種として取得する請求項13記載の内視鏡システム。
  15.  前記プロセッサは、前記光源部が発する予め設定した波長帯域の狭帯域光を含む照明光により照明した前記観察対象を撮像することにより得られる前記画像を、前記解析用画像の1種として取得する請求項13記載の内視鏡システム。
  16.  前記光源部は、互いに分光スペクトルが異なる複数の照明光のそれぞれを、予め設定した順序により繰り返し発光する請求項12ないし15のいずれか1項に記載の内視鏡システム。
  17.  前記プロセッサは、前記解析結果を、前記解析結果が得られた前記解析用画像の種類とを対応付けて取得し、
     前記解析結果と前記解析結果が得られた前記解析用画像の種類との関連付けを示す凡例表示を前記ディスプレイに表示する制御を行う請求項12ないし16のいずれか1項に記載の内視鏡システム。
  18.  内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置の作動方法であって、
     画像解析に用いる複数種類の解析用画像を取得する解析用画像取得ステップと、
     前記解析用画像の種類毎に並列して、前記解析用画像に対する前記画像解析を行う画像解析処理ステップと、
     前記画像解析による解析結果を複数取得する解析結果取得ステップと、
     複数の前記解析結果に基づく解析結果表示と、複数種類の前記解析用画像のうち少なくとも1種類の前記解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御ステップとを備える画像解析処理装置の作動方法。
  19.  内視鏡を用いて観察対象を撮像することにより得られる画像に基づいて画像解析を行う画像解析処理装置にインストールされる画像解析処理装置用プログラムにおいて、
     コンピュータに、
     画像解析に用いる複数種類の解析用画像を取得する解析用画像取得機能と、
     前記解析用画像の種類毎に並列して、前記解析用画像に対する前記画像解析を行う画像解析処理機能と、
     前記画像解析による解析結果を複数取得する解析結果取得機能と、
     複数の前記解析結果に基づく解析結果表示と、複数種類の前記解析用画像のうち少なくとも1種類の前記解析用画像とを含む表示画像をディスプレイに表示する制御を行う表示制御機能とをを実現させるための画像解析処理装置用プログラム。
     
PCT/JP2021/022684 2020-07-14 2021-06-15 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム WO2022014235A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21842709.4A EP4183311A4 (en) 2020-07-14 2021-06-15 IMAGE ANALYSIS PROCESSING APPARATUS, ENDOSCOPY SYSTEM, OPERATING METHOD FOR THE IMAGE ANALYSIS PROCESSING APPARATUS AND PROGRAM FOR THE IMAGE ANALYSIS PROCESSING APPARATUS
JP2022536182A JP7508559B2 (ja) 2020-07-14 2021-06-15 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
CN202180061060.2A CN116133572A (zh) 2020-07-14 2021-06-15 图像分析处理装置、内窥镜系统、图像分析处理装置的工作方法及图像分析处理装置用程序
US18/153,136 US20230141302A1 (en) 2020-07-14 2023-01-11 Image analysis processing apparatus, endoscope system, operation method of image analysis processing apparatus, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020120459 2020-07-14
JP2020-120459 2020-07-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/153,136 Continuation US20230141302A1 (en) 2020-07-14 2023-01-11 Image analysis processing apparatus, endoscope system, operation method of image analysis processing apparatus, and non-transitory computer readable medium

Publications (1)

Publication Number Publication Date
WO2022014235A1 true WO2022014235A1 (ja) 2022-01-20

Family

ID=79555482

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022684 WO2022014235A1 (ja) 2020-07-14 2021-06-15 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム

Country Status (4)

Country Link
US (1) US20230141302A1 (ja)
EP (1) EP4183311A4 (ja)
CN (1) CN116133572A (ja)
WO (1) WO2022014235A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023244659A1 (en) * 2022-06-16 2023-12-21 Intuitive Surgical Operations, Inc. Non-visible-spectrum light image-based training and use of a machine learning model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167623A1 (ja) * 2018-03-02 2019-09-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP6657480B2 (ja) * 2017-10-30 2020-03-04 公益財団法人がん研究会 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
JP2020065685A (ja) 2018-10-24 2020-04-30 富士フイルム株式会社 内視鏡システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6785948B2 (ja) * 2017-03-30 2020-11-18 富士フイルム株式会社 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
WO2019245009A1 (ja) * 2018-06-22 2019-12-26 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6657480B2 (ja) * 2017-10-30 2020-03-04 公益財団法人がん研究会 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
WO2019167623A1 (ja) * 2018-03-02 2019-09-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP2020065685A (ja) 2018-10-24 2020-04-30 富士フイルム株式会社 内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4183311A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023244659A1 (en) * 2022-06-16 2023-12-21 Intuitive Surgical Operations, Inc. Non-visible-spectrum light image-based training and use of a machine learning model

Also Published As

Publication number Publication date
CN116133572A (zh) 2023-05-16
EP4183311A4 (en) 2023-12-06
JPWO2022014235A1 (ja) 2022-01-20
US20230141302A1 (en) 2023-05-11
EP4183311A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
CN110325100B (zh) 内窥镜系统及其操作方法
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
US20210153730A1 (en) Endoscope system
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP7190597B2 (ja) 内視鏡システム
JP2020065685A (ja) 内視鏡システム
US20230027950A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
US20230141302A1 (en) Image analysis processing apparatus, endoscope system, operation method of image analysis processing apparatus, and non-transitory computer readable medium
US20230237659A1 (en) Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium
US12020350B2 (en) Image processing apparatus
WO2020066941A1 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
WO2021006121A1 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
WO2021199910A1 (ja) 医用画像処理システム、医用画像処理システムの作動方法
JP7508559B2 (ja) 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
WO2022009478A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
WO2021210331A1 (ja) 画像処理装置及びその作動方法
WO2022059233A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JP6866497B2 (ja) 医療画像処理装置、及び、内視鏡装置
CN117119942A (zh) 处理器装置、医疗图像处理装置、医疗图像处理系统及内窥镜系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842709

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022536182

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021842709

Country of ref document: EP

Effective date: 20230214