WO2018079116A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2018079116A1
WO2018079116A1 PCT/JP2017/033113 JP2017033113W WO2018079116A1 WO 2018079116 A1 WO2018079116 A1 WO 2018079116A1 JP 2017033113 W JP2017033113 W JP 2017033113W WO 2018079116 A1 WO2018079116 A1 WO 2018079116A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
diagnostic purpose
unit
index value
Prior art date
Application number
PCT/JP2017/033113
Other languages
English (en)
French (fr)
Inventor
青山 達也
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP17864310.2A priority Critical patent/EP3533382A4/en
Priority to JP2018547187A priority patent/JP6706339B2/ja
Publication of WO2018079116A1 publication Critical patent/WO2018079116A1/ja
Priority to US16/383,674 priority patent/US10842366B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Definitions

  • the present invention relates to an endoscope system.
  • an endoscope system including a light source device, an endoscope, and a processor device.
  • the endoscope system irradiates illumination light emitted from a light source device to an observation target via the endoscope, and a processor device based on an image signal obtained by imaging the observation target under illumination with the illumination light. An image to be observed is generated. By displaying this image on the monitor, the doctor can make a diagnosis while viewing the image on the monitor.
  • Patent Documents 1 and 2 visualization is being performed by switching the balance of light source wavelengths according to the observation site and the observation magnification.
  • surface blood vessels are observed when close to each other, and in order to perform an overall observation with the color of white light when distant, light is irradiated with short-wave light when close and illuminated with white light when distant. Yes.
  • Patent Documents 3, 4, and 5 the balance of the light source wavelengths is also changed depending on the observation site.
  • target diseases There are a wide variety of target diseases, diagnostic uses, and stage stages of diseases to be examined in endoscopic diagnosis, and it has been required to set a balance of light source wavelengths that is optimal for these target diseases. That is, short-wave light in the near view and white light in the distant view may not necessarily be the optimum balance of light source wavelengths depending on the target disease.
  • the optimal balance of light source wavelengths may be different even at the same observation site. For example, even in the same large intestine, the optimal light source can be used for the same part depending on the purpose, such as “observation of blood vessel images with short-wave light for screening” and “observation of deep blood vessel accumulation with long-wave light for observation of ulcerative colitis”. The wavelength balance is different.
  • An object of the present invention is to provide an endoscope system capable of setting an optimal balance of light source wavelengths according to a diagnostic purpose.
  • An endoscope system includes: a diagnostic purpose acquisition unit that acquires a diagnostic purpose; a plurality of light sources having different emission wavelengths; a plurality of light quantity ratios in which the balance of the amounts of emitted light of the plurality of light sources is different;
  • the light quantity ratio storage unit storing the correspondence relationship, the light quantity ratio storage unit with reference to the light quantity ratio storage unit, the light quantity ratio selection unit that selects the light quantity ratio used for the acquired diagnostic purpose, and the plurality of light sources are controlled, and the selected light quantity ratio A light source controller that emits illumination light.
  • the diagnostic purpose includes a first diagnostic purpose including screening and scrutiny, a second diagnostic purpose relating to the type of disease, and a third diagnostic purpose relating to the stage stage.
  • the light quantity ratio selection unit may select the light quantity ratio according to a combination of the first to third diagnostic purposes, or may select the light quantity ratio according to any one of the first to third diagnostic purposes. preferable.
  • An image generation unit that generates an image using an image signal obtained by imaging an observation target under illumination with illumination light, and at least one of an acquired diagnostic purpose and a selected light amount ratio It is preferable to include an image storage unit that stores the information in association with the image.
  • An index value storage unit that stores a correspondence relationship between a plurality of index values related to the structure of the observation target and a diagnostic purpose, and an index value that is used for a diagnostic purpose acquired from the index values stored in the index value storage unit It is preferable to include an index value selection unit that selects and an index value calculation unit that calculates a selected index value using an image.
  • the image generation unit generates, as an image, an image in which the structure is highlighted using the calculated index value.
  • the image generation unit generates an image highlighting the structure as an image using the calculated structure parameter.
  • the image storage unit further stores the calculated structural parameter in association with the image.
  • An endoscope information management system having a data storage unit that stores endoscope information management data including a diagnostic purpose is connected to be communicable with each other via a network.
  • the diagnostic purpose acquisition unit is connected to the endoscope information management system via a network.
  • the endoscope information management data is received, and the diagnostic purpose is acquired by extracting from the received endoscope information management data.
  • a diagnostic purpose input unit for inputting a diagnostic purpose may be provided, and the diagnostic purpose acquisition unit may acquire the diagnostic purpose input by the diagnostic purpose input unit.
  • An endoscope system includes: a diagnostic purpose acquisition unit that acquires a diagnostic purpose; a plurality of light sources having different emission wavelengths; a plurality of light quantity ratios in which the balance of the amounts of emitted light of the plurality of light sources is different; The light quantity ratio storage unit storing the correspondence relationship, the light quantity ratio storage unit with reference to the light quantity ratio storage unit, the light quantity ratio selection unit that selects the light quantity ratio used for the acquired diagnostic purpose, and the plurality of light sources are controlled, and the selected light quantity ratio
  • a light source control unit that emits illumination light, an image generation unit that generates an image using an image signal obtained by imaging an observation target under illumination with an illumination light, a display unit that displays an image,
  • An endoscope information management system having a data storage unit that stores endoscope information management data including diagnostic purposes, and is connected to be able to communicate with each other via a network. Endoscopic information via Receives management data, the diagnostic purposes, it obtains by extraction from the endoscope information management data received.
  • an optimal balance of light source wavelengths can be set according to the purpose of diagnosis.
  • FIG. 1 is an external view of an endoscope system according to a first embodiment. It is a block diagram which shows the function of an endoscope system. It is a figure which shows the light intensity spectrum of the illumination light of normal observation mode. It is a figure which shows the light intensity spectrum of the illumination light of special observation mode. It is a figure explaining a light quantity ratio memory
  • (A) is a normal observation image.
  • B) is a suitable observation image. It is a flowchart explaining the effect
  • (A) is a suitable observation image obtained using purple light.
  • (B) is a suitable observation image obtained using blue light. It is a figure explaining acquisition of the diagnostic purpose from an operation input part. It is a figure explaining an image storage part. It is a block diagram which shows the processor apparatus of 2nd Embodiment. It is a block diagram explaining the image processing part of 2nd Embodiment. It is a figure explaining an index value storage part. It is a figure explaining an index value selection part. It is a figure which shows the suitable observation image highlighted using the index value. It is a figure explaining the image storage part of 2nd Embodiment. It is a block diagram explaining the image processing part of 3rd Embodiment. It is a figure explaining the index value memory
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a display unit 18, and an operation input unit 19.
  • the endoscope 12 images an observation site in a living body as a subject.
  • the light source device 14 supplies illumination light for illuminating the observation site to the endoscope 12.
  • the processor device 16 generates a display image of the observation site using an imaging signal obtained by imaging.
  • the display unit 18 is a monitor that displays a display image and information attached to the display image.
  • the operation input unit 19 is a console such as a keyboard and a mouse, and functions as a user interface that receives input operations such as designation of a region of interest (ROI) and function setting.
  • the display unit 18 and the operation input unit 19 are electrically connected to the processor device 16.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion part 12a and an operation part 12b.
  • the insertion part 12a is a part that is inserted into the digestive tract of a living body.
  • the insertion portion 12a has a distal end portion 2 1, a bending portion 22, and a flexible tube portion 23, which are connected in this order from the distal end side.
  • the distal end portion 21 has an illumination window, an observation window, an air / water feeding nozzle, and a forceps outlet (all not shown) on the distal end surface.
  • the illumination window is for irradiating the observation site with illumination light.
  • the observation window is for capturing light from the observation site.
  • the air / water supply nozzle is for cleaning the illumination window and the observation window.
  • the forceps outlet is for performing various treatments using a forceps and a treatment tool such as an electric knife.
  • the bending portion 22 is configured by connecting a plurality of bending pieces, and is bent in the vertical and horizontal directions.
  • the flexible tube portion 23 has flexibility and can be inserted into a tortuous duct such as an eso
  • the operation unit 12b includes an angle knob 25, an image storage operation unit 26, a mode switching unit 27, and a zoom operation unit 28.
  • the angle knob 25 is used for an operation in which the bending portion 22 is bent and the distal end portion 21 is directed in a desired direction.
  • the image storage operation unit 26 is used for an operation of storing a still image and / or a moving image in a storage (not shown).
  • the mode switching unit 27 is used for an operation of switching the observation mode.
  • the zoom operation unit 28 is used for an operation of changing the zoom magnification.
  • the endoscope system 10 has a normal observation mode, a special observation mode, and a suitable target observation mode as observation modes.
  • a normal observation image an image (hereinafter referred to as a normal observation image) in which an observation target with a natural hue is shown is acquired.
  • a special observation image an image that emphasizes at least the blood vessel to be observed (hereinafter referred to as a special observation image) is acquired.
  • a suitable object observation image an image in which the structure of the observation object suitable for the purpose of diagnosis is emphasized (hereinafter referred to as a suitable object observation image) is acquired.
  • the structure includes a blood vessel structure and a gland duct (pit pattern) structure.
  • a gland duct pit pattern
  • the light source device 14 includes a light source 30 that emits illumination light and a light source control unit 32 that controls the light source 30.
  • the light source 30 is, for example, a semiconductor light source such as a plurality of colors of LEDs (Light Emitting Diodes) having different wavelength ranges.
  • the light source 30 is, for example, a V-LED (Violet Light Emitting Diode) 30a, a B-LED (Blue Light Emitting Diode) 30b, a G-LED (Green Light Light Emitting Diode) 30c, and an R-LED (Red Light). (Emitting) Diode) 30d LED.
  • the emission wavelength of the V-LED 30a is 380 nm to 420 nm.
  • the emission wavelength of the B-LED 30b is 420 nm to 500 nm.
  • the emission wavelength of the G-LED 30c is 480 nm to 600 nm.
  • the emission wavelength of the R-LED 30d is 600 nm to 650 nm.
  • the light of each color may have the same center wavelength and peak wavelength, or may be different.
  • the light source 30 includes an optical filter 30e that adjusts the wavelength band of the light emitted from the LED.
  • the optical filter 30e is arranged on the optical path of the B-LED 30b and transmits a short wavelength component in the wavelength band of the B-LED 30b. Specifically, light of 450 nm or less in the wavelength band of the B-LED 30b is transmitted. Since the long wavelength component in the wavelength band of the B-LED 30b lowers the contrast between the mucous membrane and the blood vessel, the short wavelength component in the wavelength band of the B-LED 30b is described later by using the optical filter 30e.
  • the guide 34 is supplied.
  • the arrangement of the optical filter 30e is on the optical path of the B-LED 30b in this embodiment, but is not limited to this.
  • the optical filter 30e may be arranged on the optical path of the G-LED 30c.
  • the wavelength component transmitted by the optical filter 30e can be set as appropriate.
  • the optical filter 30e transmits a part of the wavelength band of the G-LED 30c.
  • the light source control unit 32 independently controls the lighting and extinguishing of the LEDs 30a to 30d and the balance (hereinafter referred to as the light amount ratio) of the emitted light amounts of the LEDs 30a to 30d, so that the light emission timing and the light emission period of the illumination light are controlled. , Adjustment of light intensity and spectral spectrum.
  • the light source control unit 32 controls the light amount ratio of each LED 30a to 30d for each observation mode by adjusting the current and voltage for driving each LED 30a to 30d.
  • the light source control unit 32 turns on all the LEDs 30a to 30d to turn on the purple light LV emitted from the V-LED 30a and the blue light emitted from the B-LED 30b.
  • Almost white illumination light (hereinafter referred to as white light) including LB, green light LG emitted from the G-LED 30c, and red light LR emitted from the R-LED 30d is generated.
  • the blue light LB is light transmitted through the optical filter 30e, that is, light of 450 nm or less in the wavelength band of the B-LED 30b.
  • the light source control unit 32 increases the amount of light emitted from the V-LED 30a as compared with the normal observation mode, and each of the B-LED 30b, the G-LED 30c, and the R-LED 30d. Illumination light having an emission light amount smaller than that in the normal observation mode is generated.
  • Violet light LV is light in a wavelength band that is optimal for observation of superficial blood vessels located shallow from the mucosal surface.
  • the light source control unit 32 controls the light emission of each of the LEDs 30a to 30d according to the light amount ratio determined by the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64 described later.
  • a light amount ratio capable of observing a structure suitable for diagnostic purposes is selected by a light amount ratio selecting unit 70 described later, and the light source control unit 32 is selected. Illumination light with a certain light intensity ratio is emitted.
  • the light source control unit 32 emits purple light LV by turning on only the V-LED 30a among the LEDs 30a to 30d.
  • the light source control unit 32 turns on only the B-LED 30b among the LEDs 30a to 30d.
  • the blue light LB is emitted.
  • the present invention is not limited to emitting only the purple light LV or only the blue light LB.
  • the purple light LV and the blue light LB may be sequentially emitted.
  • illumination light including purple light LV and blue light LB, illumination light including only green light LG, illumination light including only red light LR, illumination light including purple light LV and red light LR, and blue light LB And illumination light including red light LR may be emitted.
  • the illumination light emitted from the light source 30 enters the light guide 34 inserted into the insertion portion 12a.
  • the light guide 34 is incorporated in the endoscope 12 and the universal cord, and propagates illumination light to the distal end portion 21 of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used as the light guide 34.
  • the light guide 34 may be a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of 0.3 to 0.5 mm including the outer protective layer.
  • the front end 21 has an illumination optical system 36 and an imaging optical system 38.
  • the illumination optical system 36 has an illumination lens 40.
  • the illumination light that has propagated through the light guide 34 illuminates the observation target via the illumination lens 40.
  • the imaging optical system 38 includes an objective lens 42, a zoom lens 44, and an imaging sensor 46.
  • Various kinds of light such as reflected light, scattered light, and fluorescence from the observation target enter the image sensor 46 through the objective lens 42 and the zoom lens 44.
  • an image to be observed is formed on the image sensor 46.
  • the zoom lens 44 freely moves between the tele end and the wide end by operating the zoom operation unit 28, and enlarges or reduces the observation target imaged on the image sensor 46.
  • the imaging sensor 46 is a color imaging sensor in which any one of R (red), G (green), and B (blue) primary color filters is provided for each pixel. Output a signal.
  • a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like can be used.
  • a complementary color image sensor provided with C (cyan), M (magenta), Y (yellow), and G (green) complementary color filters may be used.
  • CMYG four-color image signals are output.
  • CMYG four-color image signals into the RGB three-color image signals by complementary color-primary color conversion, it is possible to obtain RGB image signals similar to those of the image sensor 46.
  • a monochrome sensor without a color filter may be used.
  • a CDS (Correlated Double Sampling) / AGC (Automatic Gain Control) circuit 448 performs correlated double sampling and automatic gain control on the analog image signal output from the image sensor 46.
  • An A / D (Analog-to-Digital) conversion circuit 50 converts an analog image signal that has passed through the CDS / AGC circuit 48 into a digital image signal.
  • the A / D conversion circuit 50 inputs the digital image signal after A / D conversion to the processor device 16.
  • the processor device 16 includes a controller 52, a DSP (Digital Signal Processor) 54, a noise reduction unit 56, a memory 58, an image processing unit 60, and a display control unit 62.
  • DSP Digital Signal Processor
  • the controller 52 includes a CPU (Central processing unit), a ROM (Read only memory) that stores a control program and setting data necessary for control, a RAM (Randomaccess memory) as a working memory for loading the control program, and the like.
  • the controller 52 controls each unit of the processor device 16 when the CPU executes a control program.
  • the DSP 54 acquires a digital image signal from the endoscope 12, and performs various processes such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the acquired image signal. Apply signal processing.
  • defect correction process the signal of the defective pixel of the image sensor 46 is corrected.
  • offset process the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • the gain correction process adjusts the signal level by multiplying the image signal subjected to the offset process by a specific gain.
  • Linear matrix processing enhances the color reproducibility of gain-corrected image signals.
  • the gamma conversion process adjusts the brightness and saturation of the image signal subjected to the linear matrix process.
  • demosaic processing also referred to as isotropic processing or synchronization processing
  • a signal of a color that is insufficient at each pixel is generated by interpolation.
  • all the pixels have RGB signals.
  • the noise reduction unit 56 performs noise reduction processing by, for example, a moving average method or a median filter method on the image signal subjected to demosaic processing or the like by the DSP 54 to reduce noise.
  • the image signal with reduced noise is stored in the memory 58.
  • the image processing unit 60 acquires an image signal from the memory 58, performs predetermined image processing on the acquired image signal, and generates a display image showing an observation target.
  • the content of the image processing performed by the image processing unit 60 differs depending on the observation mode.
  • the image processing unit 60 corresponds to the “image generation unit” of the present invention.
  • the image processing unit 60 performs image processing such as color conversion processing, color enhancement processing, and structure enhancement processing to generate a normal observation image.
  • the color conversion process is a process of performing color conversion on an image signal by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional LUT (lookup table) processing, and the like.
  • the color enhancement process is performed on the image signal subjected to the color conversion process.
  • the structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a gland duct, and is performed on the image signal after the color enhancement process.
  • the image processing unit 60 In the special observation mode, the image processing unit 60 generates a special observation image by performing the above-described various image processings for emphasizing blood vessels. In the special observation mode, since the amount of light emitted from the V-LED 30a is large, the superficial blood vessels are emphasized in the special observation image.
  • the image processing unit 60 generates a suitable target observation image by performing the above-described various image processes that emphasize a structure suitable for a diagnostic purpose. Since the suitable object observation mode uses illumination light having a light quantity ratio determined by the purpose of diagnosis, the structure suitable for the purpose of diagnosis is emphasized in the suitable object observation image. For example, for diagnostic purposes focusing on the middle-layer blood vessel, the blue light LB is used as the illumination light, and the middle-layer blood vessel is more emphasized by being drawn so that surface blood vessels other than the middle-layer blood vessel are not conspicuous.
  • the display control unit 62 causes the display unit 18 to display the display image generated by the image processing unit 60. Thereby, the normal observation image is displayed in the normal observation mode, the special observation image is displayed in the special observation mode, and the suitable target observation image is displayed in the suitable target observation mode.
  • the processor device 16 further includes a diagnostic purpose acquisition unit 64, a data transmission / reception unit 66, a light amount ratio storage unit 68, and a light amount ratio selection unit 70.
  • the light quantity ratio storage unit 68 is configured by a recording medium such as an HDD (Hard disk drive) or an SSD (Solid disk drive).
  • the diagnostic purpose acquisition unit 64 acquires the diagnostic purpose from the endoscope information management system 72 connected to each other via a network such as a LAN (Local Area Network) via the data transmission / reception unit 66.
  • the endoscope information management system 72 is a file server of a system for filing endoscopic images such as PACS (Picture Archiving and Communication) System.
  • the endoscope information management system 72 has a data storage unit 74, and stores examination information including a diagnosis purpose and patient information input from an input terminal (not shown) as endoscope information management data. To do.
  • the diagnostic purpose acquisition unit 64 receives the endoscope information management data from the data storage unit 74, and acquires the diagnostic purpose by extracting it from the endoscope information management data.
  • the light amount ratio storage unit 68 stores a correspondence relationship between a plurality of light amount ratios in which the balance of the emitted light amounts of the V-LED 30a, the B-LED 30b, the G-LED 30c, and the R-LED 30d is different from the purpose of diagnosis.
  • the diagnostic purpose includes a first diagnostic purpose including screening and scrutiny, a second diagnostic purpose related to the type of disease, and a third diagnostic purpose related to the stage of the disease.
  • the first diagnostic purpose is not limited to the above screening and scrutiny, but includes a wide variety, for example, treatment, follow-up observation, and the like.
  • the second diagnostic purpose is, for example, Barrett's esophagus, large intestine polyp, angiodispersia, etc.
  • the third diagnostic purpose includes, for example, a remission period of ulcerative colitis, an active period of ulcerative colitis, and the like, which are determined according to the type of disease.
  • the light quantity ratio storage unit 68 has first to third light quantity ratio selection tables 68a to 68c.
  • the first light quantity ratio selection table 68a stores the first diagnosis purpose and the light quantity ratio of illumination light used for the first diagnosis purpose in association with each other.
  • the light quantity ratio R11 and the light quantity ratio R12 are associated with the large intestine screening, and the light quantity ratio R13 is associated with the stomach screening. Is associated with the light amount ratio R14.
  • the light quantity ratio is the light quantity emitted from the V-LED 30a: the light quantity emitted from the B-LED 30b: the light quantity emitted from the G-LED 30c: the light quantity emitted from the R-LED 30d (ie, V: B: G: R)
  • the light quantity ratio R11 is 1: 0: 0: 0.
  • the light amount ratio R12 and the light amount ratio R13 are the same light amount ratio, and are, for example, 0: 1: 0: 0.
  • the light amount ratio R14 is, for example, the same as the light amount ratio in the special observation mode.
  • the second light quantity ratio selection table 68b stores the second diagnostic purpose and the light quantity ratio of illumination light used for the second diagnostic purpose in association with each other.
  • the light quantity ratio R21 and the light quantity ratio R22 are associated with the Barrett esophagus
  • the light quantity ratio R23 is associated with the colon polyp
  • the angiodispersia is associated with
  • the light amount ratio R24 is associated.
  • the light quantity ratio R21 and the light quantity ratio R23 are, for example, 1: 0: 0: 0.
  • the light quantity ratio R22 and the light quantity ratio R24 are, for example, 0: 1: 0: 0.
  • the third light quantity ratio selection table 68c stores a third diagnosis purpose and a light quantity ratio of illumination light used for the third diagnosis purpose in association with each other.
  • the light quantity ratio R31 and the light quantity ratio R32 are associated with the remission period of ulcerative colitis, and the light quantity ratio R33 with respect to the active period of ulcerative colitis. Are associated with each other.
  • the light quantity ratio R31 and the light quantity ratio R33 are, for example, 1: 0: 0: 0.
  • the light quantity ratio R32 is, for example, 0: 1: 0: 0.
  • the correspondence relationships stored in the first to third light quantity ratio selection tables 68a to 68c can be appropriately updated by, for example, an input operation of the operation input unit 19.
  • the first to third light quantity ratio selection tables 68a to 68c can newly add correspondences.
  • the light amount ratio selection unit 70 refers to the light amount ratio storage unit 68 and selects the acquired light amount ratio for diagnostic purposes. Specifically, when the light quantity ratio selection unit 70 acquires the first diagnosis purpose, the light quantity ratio selection unit 70 refers to the first light quantity ratio selection table 68a of the light quantity ratio storage unit 68 and acquires the second diagnosis purpose. Refers to the second light quantity ratio selection table 68b, and when the third diagnostic purpose is acquired, refers to the third light quantity ratio selection table 68c. That is, the light amount ratio selection unit 70 selects the light amount ratio according to any one of the first to third diagnostic purposes. Then, the light amount ratio selection unit 70 inputs the selected light amount ratio to the light source control unit 32.
  • the light quantity ratio selection unit 70 refers to the first light quantity ratio selection table 68a and performs stomach screening.
  • the associated light amount ratio R13 is selected and input to the light source control unit 32.
  • the light source controller 32 since the light amount ratio R13 is 0: 1: 0: 0, the light source controller 32 turns on only the B-LED 30b and emits the blue light LB as illumination light.
  • a normal observation image is often observed in a normal observation mode in order to confirm the color of an observation target.
  • RAC Regular Arrangement of Collecting venules
  • the middle layer blood vessel As shown in FIG. 7A, the normal observation image 80 obtained by using white light in the normal observation mode is not optimal for RAC observation although the observation target is reflected in a natural hue.
  • the suitable object observation image 84 obtained by using the illumination light having the light amount ratio selected by the light amount ratio selecting unit 70, that is, the blue light LB.
  • the middle layer blood vessel 82 is more highlighted, and the RAC can be observed more reliably.
  • the light quantity ratio selection unit 70 is designated by an operation of the operation input unit 19 among the plurality of light quantity ratios.
  • a single light intensity ratio is selected.
  • the light amount ratio selecting unit 70 sets the light amount ratio R11. select.
  • the diagnostic purpose acquisition unit 64 acquires the diagnostic purpose from the data storage unit 74 of the endoscope information management system 72 via the network (S11).
  • the diagnostic purpose acquisition unit 64 inputs the diagnostic purpose of the diagnostic purpose to the light amount ratio selection unit 70.
  • the light quantity ratio selection unit 70 refers to the light quantity ratio storage unit 68 and selects the acquired light quantity ratio for diagnostic purposes (S12).
  • the light quantity ratio storage unit 68 stores a correspondence relationship between a plurality of light quantity ratios having different balances of emitted light quantities of the V-LED 30a, the B-LED 30b, the G-LED 30c, and the R-LED 30d and the purpose of diagnosis.
  • the light amount ratio storage unit 68 includes a first light amount ratio selection table 68a that stores the light amount ratio of illumination light used for the first diagnosis purpose, and the light amount ratio of illumination light used for the second diagnosis purpose. Are stored in the second light quantity ratio selection table 68b, and a third light quantity ratio selection table 68c is stored which stores the light quantity ratio of the illumination light used for the third diagnostic purpose.
  • the light quantity ratio selection unit 70 selects the light quantity ratio from the first light quantity ratio selection table 68a, and the acquired diagnostic purpose is the second diagnostic purpose. Is selected from the second light quantity ratio selection table 68b, and when the acquired diagnostic purpose is the third diagnostic purpose, from the third light quantity ratio selection table 68c. Select the light intensity ratio. Then, the light amount ratio selection unit 70 inputs the selected light amount ratio to the light source control unit 32. The light source control unit 32 controls each of the LEDs 30a to 30d to emit illumination light having a light amount ratio selected by the light amount ratio selecting unit 70 (S13).
  • the imaging sensor 46 images the observation target under illumination with the illumination light (S14).
  • the image processing unit 60 uses the image signal obtained by imaging to generate a suitable observation image that emphasizes a structure suitable for the purpose of diagnosis (S15).
  • the display unit 18 displays this preferred observation image.
  • the light quantity ratio capable of observing the structure suitable for the diagnostic purpose is obtained by the diagnostic purpose obtaining unit 64, and the light amount ratio selecting unit 70 selects the light quantity ratio. Illumination light set to a balanced wavelength can be emitted.
  • the light quantity ratio selection unit 70 selects one light quantity ratio for one diagnostic purpose. However, for diagnostic purposes that require observation of a plurality of structures, each structure is selected. It is preferable to select a plurality of light quantity ratios capable of observing the image. For example, for diagnostic purposes that require observation of surface blood vessels and middle blood vessels such as Barrett's esophagus, the light amount ratio selection unit 70 refers to the second light amount ratio selection table 68b and associates it with the Barrett's esophagus. The light quantity ratio R21 and the light quantity ratio R22 thus selected are selected.
  • the light source control unit 32 sequentially switches the light amount ratio of the illumination light to emit light when a plurality of light amount ratios are selected.
  • the imaging sensor 46 images an observation target and outputs an image signal each time the light source controller 32 switches the light amount ratio.
  • the image processing unit 60 generates a suitable target observation image every time the image sensor 46 outputs an image signal.
  • FIG. 9A shows a suitable target observation image 86 obtained using illumination light having a light quantity ratio R21, that is, purple light LV.
  • FIG. 9B is a suitable target observation image 87 obtained using illumination light having a light quantity ratio R22, that is, blue light LB.
  • the suitable target observation image 86 is drawn so that the surface blood vessels 88 distributed over the entire screen are highlighted and the middle blood vessels 89 at the top of the screen are not conspicuous.
  • the suitable target observation image 87 is drawn so that the surface blood vessels 88 are not conspicuous, while the middle layer blood vessels 89 are highlighted.
  • the display of the suitable target observation image 86 and the suitable target observation image 87 on the display unit 18 is switched by the operation of the operation input unit 19.
  • the switching of the display on the display unit 18 is not limited to the switching by the operation of the operation input unit 19, and for example, the display may be switched and displayed every time a predetermined time elapses.
  • the diagnostic purpose acquisition unit 64 acquires the diagnostic purpose from the endoscope information management system 72 via the network.
  • the endoscope information management system In addition to acquiring the diagnostic purpose from 72, the diagnostic purpose input by the operation input unit 19 as the diagnostic purpose input unit may be acquired.
  • the light amount ratio selection unit 70 selects the light amount ratio by preferentially using the diagnostic purpose input by the operation input unit 19. This makes it possible to continue the examination while switching to a diagnostic purpose different from the diagnostic purpose acquired from the endoscope information management system 72 during the diagnosis.
  • the diagnostic purpose acquisition unit 64 may acquire the diagnostic purpose input by the operation input unit 19 instead of acquiring the diagnostic purpose from the endoscope information management system 72. In this case, it is possible to acquire a diagnostic purpose even when the endoscope information management system 72 is not connected via a network.
  • the image storage operation unit 26 when the image storage operation unit 26 is operated, still images and / or moving images are stored in a storage (not shown) such as an HDD or an SSD.
  • the unit 92 (see FIG. 11) is provided, and the suitable target observation image generated in the suitable target observation mode is selected from the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64 and the light amount ratio selected by the light amount ratio selecting unit 70. You may make it match
  • the image, the diagnostic purpose, and the light amount ratio are stored in the image storage unit 92 will be described.
  • the light amount ratio selection unit 70 selects the light amount ratio R22, and the image processing unit 60 generates a suitable target observation image 87.
  • the image storage unit 92 stores the suitable target observation image 87 generated by the image processing unit 60 as a storage image “P13” as shown in FIG.
  • P13 “Barrett's esophagus”, which is the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64, and the light amount ratio “R22” selected by the light amount ratio selection unit 70 are stored in association with each other.
  • the image stored in the image storage unit 92, the diagnostic purpose, and the light amount ratio can be displayed on the display unit 18.
  • the data stored in the image storage unit 92 is transmitted to the data storage unit 74 and stored. Data sharing with an endoscope system different from the endoscope system 10 becomes possible.
  • the diagnostic purpose acquisition unit 64 acquires any one of the first to third diagnostic purposes, but the first diagnostic purpose and the second diagnostic purpose You may acquire the 3rd diagnostic objective. That is, the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64 may include a first diagnostic purpose, a second diagnostic purpose, and a third diagnostic purpose.
  • the light amount ratio selecting unit 70 selects the light amount ratio according to the first to third combinations of diagnostic purposes acquired by the diagnostic purpose acquiring unit 64.
  • combinations of diagnostic purposes include screening (first diagnostic purpose) for ulcerative colitis (second diagnostic purpose) in the active phase (third diagnostic purpose).
  • the light amount ratio selection unit 70 selects a light amount ratio corresponding to large intestine screening from the first light amount ratio selection table 68a, and corresponds to ulcerative colitis from the second light amount ratio selection table 68b.
  • the light quantity ratio is selected, and the light quantity ratio corresponding to the active period of ulcerative colitis is selected from the third light quantity ratio selection table 68c.
  • the light amount ratio selection unit 70 inputs each selected light amount ratio to the light source control unit 32. Thereby, the light quantity ratio of the illumination light is sequentially switched. Thereby, illumination light set to an optimal balance of light source wavelengths according to a plurality of diagnostic purposes can be emitted, so that more detailed diagnosis is possible.
  • the diagnostic purpose acquisition unit 64 is not limited to acquiring the first diagnostic purpose, the second diagnostic purpose, and the third diagnostic purpose, but two or more diagnostic purposes among the first to third diagnostic purposes. You may get That is, the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64 may include two or more diagnostic purposes from the first to third diagnostic purposes. In this case, the light amount ratio selecting unit 70 selects the light amount ratio according to a combination of two or more diagnostic purposes acquired by the diagnostic purpose acquiring unit 64.
  • the diagnostic purpose acquisition unit 64 is not limited to acquiring each diagnostic purpose as described above, and a diagnostic purpose is obtained by combining a plurality of diagnostic purposes such as a first diagnostic purpose and a second diagnostic purpose. You may get as In such a case, the light quantity ratio storage unit 68 is preferably provided with a light quantity ratio selection table for composite purposes.
  • the composite purpose light amount ratio selection table stores the composite purpose and the light amount ratio of illumination light used for the composite purpose in association with each other.
  • the light quantity ratio of the illumination light used for the composite purpose is the light quantity ratio used for each diagnosis purpose constituting the composite purpose.
  • the structure is emphasized by selecting a light amount ratio that allows observation of a structure suitable for diagnostic purposes.
  • an index value related to the structure to be observed is calculated.
  • the structure is further emphasized using this index value.
  • the processor device 94 includes an image processing unit 96 instead of the image processing unit 60.
  • the image processing unit 96 acquires a diagnostic purpose from the diagnostic purpose acquisition unit 64.
  • the image processing unit 96 includes a base image generation unit 100, a structure extraction unit 102, an index value storage unit 104, an index value selection unit 106, an index value calculation unit 108, and an enhanced image generation. Part 110.
  • the base image generation unit 100 generates a base image in which the structure of the observation target is represented by a color difference with respect to the image signal acquired from the memory 58.
  • the base image is represented by a color according to the set light amount ratio, and the color is slightly different from the normal observation image.
  • an image obtained by photographing at a set light amount ratio and having a color balance such that the white plate becomes white, one of the R channel, the G channel, and the B channel of the display unit 18 Change the tone balance of the gray image and the image signal obtained by assigning the image signal to (for example, assigning the image signal to the G channel when the light amount of the green light LG is large in the illumination light amount ratio).
  • the structure extraction unit 102 uses the base image to generate a structure extraction image obtained by extracting the structure to be observed. For example, when the observation target is illuminated with illumination light of different wavelength bands by the light source device 14, the structure extraction unit 102 takes a difference between the images obtained by photographing the observation target under illumination with each illumination light. To extract blood vessels. Specifically, by taking a difference between an image obtained by photographing the observation target illuminated with purple light LV and an image obtained by photographing the observation target illuminated with blue light LB, Alternatively, blood vessels that are shallower than the surface blood vessels can be extracted. In addition to or instead of extracting blood vessels as described above, the structure of the gland duct may be extracted. Note that the structure extraction method is not limited to the above method.
  • the structure extraction unit 102 extracts blood vessels and gland ducts from the entire base image. However, when a region of interest is specified by an operation of the operation input unit 19, only within the specified region of interest. Blood vessels and gland ducts may be extracted.
  • the index value storage unit 104 stores a correspondence relationship between a plurality of index values related to the structure to be observed and the purpose of diagnosis.
  • the types of index values are, for example, blood vessel density, blood vessel thickness uniformity, blood vessel complexity, surface structure uniformity, and the like. Note that the types of index values are not limited to the above examples.
  • Blood vessel density is the proportion of blood vessels in a unit area.
  • the uniformity of the thickness of the blood vessel is an index value related to the variation in the thickness of the blood vessel.
  • the complexity of a blood vessel is an index value indicating how complex the shape of the blood vessel is. For example, the number of branch points (the number of branches) of the extracted blood vessel, the degree of meandering of the blood vessel, and the degree of bending of the extracted blood vessel. This is a value calculated by combining (curvature) and the like.
  • the uniformity of the surface structure is an index value relating to the variation in the shape of the gland duct.
  • the index value storage unit 104 has first to third index value selection tables 104a to 104c.
  • the first index value selection table 104a stores a first diagnostic purpose and an index value used for the first diagnostic purpose in association with each other.
  • the complexity of the surface blood vessels and the complexity of the middle blood vessels are associated with the screening of the large intestine, and the complexity of the middle blood vessels and the surface are compared with the screening of the stomach.
  • the uniformity of the structure is associated, and the density of the superficial blood vessels is associated with the detailed examination of the large intestine.
  • the second index value selection table 104b stores a second diagnostic purpose and an index value used for the second diagnostic purpose in association with each other.
  • the density of the superficial blood vessels, the complexity of the superficial blood vessels, the density of the middle blood vessels, and the complexity of the middle blood vessels are associated with Barrett's esophagus.
  • the uniformity of the thickness of the middle-layer blood vessel is associated with the uniformity of the surface structure, and the density of the middle-layer blood vessel is associated with angiodispersia.
  • the third index value selection table 104c stores a third diagnostic purpose and an index value used for the third diagnostic purpose in association with each other.
  • the complexity of the superficial blood vessels and the complexity of the middle blood vessels are associated with the remission period of ulcerative colitis, and the active period of ulcerative colitis is The complexity of the superficial blood vessels is associated.
  • the correspondence relationships stored in the first to third index value selection tables 104a to 104c can be appropriately updated by, for example, an input operation of the operation input unit 19.
  • the first to third index value selection tables 104a to 104c can newly add correspondences.
  • the index value selection unit 106 refers to the index value storage unit 104 and selects an index value to be used for the acquired diagnostic purpose. Specifically, the index value selection unit 106 refers to the first index value selection table 104a of the index value storage unit 104 when acquiring the first diagnosis purpose, and acquires the second diagnosis purpose. Refers to the second index value selection table 104b, and refers to the third index value selection table 104c when the third diagnostic purpose is acquired. Then, the index value selection unit 106 inputs the selected index value to the index value calculation unit 108.
  • the index value selection unit 106 refers to the second index value selection table 104b and The density of the middle-layer blood vessel that is the associated index value is selected and input to the index value calculation unit 108.
  • the index value calculation unit 108 calculates the selected index value from the structure extraction image.
  • the index value calculation unit 108 calculates an index value for each pixel of the structure extraction image. For example, the index value of one pixel is calculated using data of pixels in a predetermined range (for example, a range of 99 ⁇ 99 pixels centered on the pixel whose index value is calculated) including the pixel whose index value is calculated.
  • the index value calculation unit 108 calculates the index value within the set region of interest.
  • the index value calculation unit 108 calculates the index value for the entire structure extraction image.
  • the enhanced image generation unit 110 uses the generated base image and the calculated index value to generate a suitable target observation image that further emphasizes a structure suitable for a diagnostic purpose.
  • the emphasized image generation unit 110 generates a suitable target observation image, for example, by performing overlap processing on information based on the index value with respect to the base image.
  • As the overlap process there is a coloring process according to the index value.
  • a region having an index value equal to or larger than a certain value is displayed in a pseudo color with respect to the base image.
  • the region 114 in which the density of the middle-layer blood vessels is a certain value or higher is displayed in a pseudo color.
  • a region with a large index value is a red color
  • a region with a small index value is a blue color.
  • Information indicating the index value itself may be overlapped with the base image.
  • the processor device 94 is provided with an image storage unit 116 (see FIG. 17), and the suitable object observation image generated in the suitable object observation mode is obtained by the diagnostic purpose acquired by the diagnostic purpose acquisition unit 64 and the light amount ratio selection unit 70.
  • the selected light amount ratio and the index value calculated by the index value calculation unit 108 may be stored in association with each other.
  • the light amount ratio selection unit 70 selects the light amount ratio R22 and the index value selection unit 106 selects the density of the middle layer blood vessel. Is done.
  • the index value calculation unit 108 calculates the density of the middle layer blood vessel from the extracted image generated by the structure extraction unit 102.
  • the enhanced image generation unit 110 generates a suitable target observation image using the base image generated by the base image generation unit 100 and the calculated density of the middle-layer blood vessel. Then, when the image storage operation unit 26 is operated, the image storage unit 116 stores the suitable target observation image generated by the emphasized image generation unit 110 as a storage image P21 as shown in FIG.
  • the diagnostic purpose “angio displacia” acquired by the diagnostic purpose acquisition unit 64, the light amount ratio “R24” selected by the light amount ratio selection unit 70, and the index value selected by the index value selection unit 106 A certain “middle layer blood vessel density” is stored in association with each other.
  • the emphasized image generation unit 110 performs highlighting using the index value.
  • a structural parameter is calculated using a plurality of index values, and the structural parameter is calculated. Use to highlight.
  • an image processing unit 120 is provided instead of the image processing unit 96 of the second embodiment (see FIG. 18).
  • the image processing unit 120 includes an index value storage unit 122 instead of the index value storage unit 104 of the second embodiment, and includes a structure parameter calculation unit 124 in addition to the components of the image processing unit 96 of the second embodiment. Have.
  • the index value storage unit 122 further stores a weighting coefficient used in a structure parameter calculation unit described later in association with it.
  • the index value storage unit 122 includes first to third index value selection tables 122a to 122c.
  • the relationship between the diagnostic purpose and the index value is the same as that of the index value storage unit 104 of the second embodiment, so that the description thereof will be omitted. , Referred to as a coefficient).
  • the first index value selection table 122a stores a correspondence relationship between the first diagnostic purpose, the index value used for the first diagnostic purpose, and the coefficient.
  • the coefficient for the complexity of the superficial blood vessels is 0.5
  • the coefficient for the complexity of the middle blood vessels is 1.
  • the coefficient for the uniformity of the surface structure is 1.
  • the coefficient for the density of the superficial blood vessels is 1.
  • the second index value selection table 122b stores the correspondence between the second diagnostic purpose, the index value used for the second diagnostic purpose, and the coefficient.
  • the coefficients for the density of the superficial blood vessels, the complexity of the superficial blood vessels, the density of the middle blood vessels and the complexity of the middle blood vessels are set to 1, respectively.
  • the coefficient for the uniformity of the thickness of the middle-layer blood vessel is 1, and the coefficient for the uniformity of the surface structure is 0.5.
  • the coefficient for the density of the middle blood vessel is 1.
  • the third index value selection table 122c stores the correspondence between the third diagnostic purpose, the index value used for the third diagnostic purpose, and the coefficient. For example, in the remission period of ulcerative colitis, the coefficient for the complexity of the superficial blood vessel and the complexity of the middle blood vessel is 1 respectively. For the active phase of ulcerative colitis, the coefficient for the complexity of the superficial blood vessels is 1.
  • the correspondence relationships stored in the first to third index value selection tables 122a to 122c can be appropriately updated by, for example, an input operation of the operation input unit 19.
  • the first to third index value selection tables 122a to 122c can newly add correspondences.
  • the diagnostic purpose acquisition unit 64 acquires any one of the first to third diagnostic purposes, but is not limited thereto, and may acquire a composite purpose.
  • the index value storage unit 122 may be provided with an index value selection table for multiple purposes.
  • the index value selection table for composite purposes stores correspondence relationships between composite purposes, index values used for composite purposes, and coefficients.
  • the index value used for the composite purpose is an index value used for each diagnostic purpose constituting the composite purpose.
  • the coefficient stored in the index value selection table for the composite purpose is set to a larger value, for example, among the index values used for each diagnostic purpose constituting the composite purpose, the index value having a large number of overlapping.
  • the structural parameter calculation unit 124 calculates a structural parameter using the index value calculated by the index value calculation unit 108. Specifically, the structural parameter calculation unit 124 calculates the structural parameter by calculating by weighting a plurality of index values with a coefficient (weighting coefficient) determined according to the diagnostic purpose. When calculating the structural parameter, the structural parameter calculation unit 124 refers to the index value storage unit 122 and uses a coefficient associated with the index value calculated by the index value calculation unit 108.
  • the structural parameter is a numerical value calculated using the index value, imitating the viewpoint of a doctor who makes a diagnosis considering the index value comprehensively.
  • the structural parameter is calculated by an operation such as addition of index values having different dimensions (units), for example.
  • the structural parameter has no physical meaning, but functions as a diagnostic index. That is, the difference between the structure parameter and the index value is that the physical parameter has no physical meaning.
  • the structural parameter calculation unit 124 calculates the density of the surface blood vessels, the complexity of the surface blood vessels, the density of the middle blood vessels, and the density of the middle blood vessels.
  • the structural parameters are calculated by multiplying each of the complexity by 1 and adding.
  • the structural parameter calculation unit 124 calculates one structural parameter using a plurality of index values, but is not limited thereto, and may calculate two or more structural parameters.
  • the calculation method of a structure parameter is arbitrary. For example, not only the weighted sum of a plurality of index values is calculated as a structural parameter as described above, but the structural parameter may be calculated by performing an operation in which addition, subtraction, multiplication, and division are mixed. May be calculated.
  • the emphasized image generation unit 110 generates a suitable target observation image using the generated base image and the calculated structure parameter.
  • the emphasized image generation unit 110 generates a suitable target observation image by, for example, overlapping processing information based on the structure parameter with respect to the base image.
  • the areas 127 to 129 are displayed in different colors according to the structure parameters.
  • the region 127 has the smallest structural parameter and a blue color.
  • the region 128 has a structural parameter larger than that of the region 127 and has a yellow color.
  • the region 129 has a larger structural parameter than the region 128 and has a red color. Note that information indicating the structure parameter value itself may overlap the base image. Thereby, a structure suitable for a diagnostic purpose can be emphasized more.
  • the emphasized image generation unit 110 performs highlight display using the structure parameter.
  • the structure parameter is used to determine the state of the mucous membrane to be observed. Emphasis is displayed using the determination result.
  • the image processing unit 120 further includes a determination unit 130 illustrated in FIG.
  • the determination unit 130 determines the state of the mucous membrane to be observed using the structure parameter calculated by the structure parameter calculation unit 124.
  • the “mucosal condition” to be observed is an overall status of the entire mucosa including blood vessels and gland ducts. For example, “normal”, “adenoma (suspected adenoma)”, or “ (There is a suspicion of cancer). Therefore, the determination unit 130 determines the state of the mucous membrane into three types of states: normal, adenoma, and cancer.
  • the determination unit 130 determines the state of the mucous membrane by comparing the numerical value of the structural parameter with a threshold value. Specifically, when the structural parameter is equal to or smaller than the first threshold, the determination unit 130 determines that the state of the mucous membrane to be observed is “normal”. If the structural parameter is greater than the first threshold and less than or equal to the second threshold, the determination unit 130 determines that the state of the mucosa to be observed is “adenoma”. When the structural parameter is larger than the second threshold, the determination unit 130 determines that the state of the mucosa to be observed is “cancer”.
  • the emphasized image generation unit 110 generates a suitable target observation image using the generated base image and the determination result of the determination unit 130.
  • the emphasized image generation unit 110 generates a suitable target observation image, for example, by performing overlap processing on information based on the determination result with respect to the base image.
  • the region 133 is a region determined as “adenoma”.
  • the area 134 is an area determined as “cancer”.
  • the region 133 and the region 134 are displayed in different colors. For example, the region 133 is yellow and the region 134 is red.
  • the region determined as “normal” is not colored in the present embodiment, but may be colored, for example, in blue. Note that information indicating the determination result itself may be displayed on the base image. In this way, diagnosis can be supported more directly by determining the state of the mucosa to be observed using the structural parameter and displaying the determination result.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

診断目的に応じて最適な光源波長のバランスを設定することができる内視鏡システムを提供する。内視鏡システムは、診断目的取得部と、発光波長が異なる複数の光源と、光量比記憶部と、光量比選択部と、光源制御部と、を備える。診断目的取得部は、診断目的を取得する。光量比記憶部は、複数の光源の各射出光量のバランスが異なる複数の光量比と、診断目的との対応関係を記憶している。光量比選択部は、光量比記憶部を参照し、取得された診断目的で用いる光量比を選択する。光源制御部は、複数の光源を制御し、選択された光量比の照明光を発光させる。

Description

内視鏡システム
 本発明は、内視鏡システムに関する。
 医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムは、光源装置が発する照明光を、内視鏡を介して観察対象に照射し、その照明光で照明中の観察対象を撮像して得た画像信号に基づいて、プロセッサ装置が観察対象の画像を生成する。この画像をモニタに表示することにより、医師は、モニタ上の画像を見ながら診断を行うことができる。
 また、近年の内視鏡診断においては、特許文献1、2に示すように、観察部位や観察倍率に応じて、光源波長のバランスを切り替えて、可視化することも行われつつある。これら特許文献1、2では、近接時には表層血管を観察し、遠景時には白色光の色味で全体的な観察を行うために、近接時には短波の光で照明し、遠景時には白色光で照明している。また、特許文献3、4、及び5に示すように、観察部位によって光源波長のバランスを変更することも行われている。
 更に、近年の内視鏡診断においては、特許文献6、7に示すように、医師間のスキル差を埋めるために、観察対象を撮影した画像から病変部の特徴を抽出し、指標化して表示する診断支援システムも導入されつつある。
国際公開第2010/116902号 特開2011-036361号 特開2013-017769号 特開2015-061618号 特開2015-231576号 特開2012-080939号 特開2016-087370号
 内視鏡診断で取り扱う対象疾患、診断用途、検査する疾患の病期ステージは、多種多様であり、これら対象疾患等に最適な光源波長のバランスに設定することが求められていた。即ち、近景時に短波の光、遠景時に白色光が、対象疾患等によっては、必ずしも最適な光源波長のバランスとはいえない場合がある。また、同じ観察部位でも最適な光源波長のバランスは異なることがある。例えば、同じ大腸でも「スクリーニングでは短波光で血管透見像を観察する」、「潰瘍性大腸炎の観察では長波光で深い血管の集積度を観察する」など、同じ部位でも目的によって最適な光源波長のバランスは異なっている。
 また、指標化を用いる診断支援システムの導入にあたっても、病変部に特徴的な構造を描写及び判別するのに適した光源バランスを設定することは重要である。
 本発明は、診断目的に応じて最適な光源波長のバランスを設定することができる内視鏡システムを提供することを目的とする。
 本発明の内視鏡システムは、診断目的を取得する診断目的取得部と、発光波長が異なる複数の光源と、複数の光源の各射出光量のバランスが異なる複数の光量比と、診断目的との対応関係を記憶した光量比記憶部と、光量比記憶部を参照し、取得された診断目的で用いる光量比を選択する光量比選択部と、複数の光源を制御し、選択された光量比の照明光を発光させる光源制御部と、を備える。
 診断目的は、スクリーニングと精査とを含む第1の診断目的と、疾患の種類に関する第2の診断目的と、病期ステージに関する第3の診断目的とを含む。光量比選択部は、第1から第3の診断目的の組み合わせに従って光量比を選択する、または、第1から第3の診断目的のうちのいずれか1つの診断目的に従って光量比を選択することが好ましい。
 照明光により照明中の観察対象を内視鏡によって撮像して得た画像信号を用いて画像を生成する画像生成部と、画像を、取得された診断目的と選択された光量比との少なくともいずれかと対応付けして記憶する画像記憶部とを備えることが好ましい。
 観察対象の構造に関する複数の指標値と、診断目的との対応関係を記憶した指標値記憶部と、指標値記憶部に記憶された指標値の中から、取得された診断目的で用いる指標値を選択する指標値選択部と、画像を用いて、選択された指標値を算出する指標値算出部とを備えることが好ましい。
 画像生成部は、算出された指標値を用いて、構造を強調表示した画像を、画像として生成することが好ましい。
 診断目的によって定められた重み付け係数により複数の指標値を重み付けして演算することにより、構造の構造パラメータを算出する構造パラメータ算出部を備えることが好ましい。
 画像生成部は、算出された構造パラメータを用いて、構造を強調表示した画像を、画像として生成することが好ましい。
 画像記憶部は、画像に、算出された構造パラメータをさらに対応付けして記憶することが好ましい。
 診断目的を含む内視鏡情報管理データを記憶したデータ記憶部を有する内視鏡情報管理システムとネットワークを介して相互に通信可能に接続されており、診断目的取得部は、ネットワークを介して内視鏡情報管理データを受信し、診断目的を、受信した内視鏡情報管理データから抽出することにより取得することが好ましい。
 診断目的を入力する診断目的入力部を備え、診断目的取得部は、診断目的入力部により入力された診断目的を取得しても良い。
 本発明の内視鏡システムは、診断目的を取得する診断目的取得部と、発光波長が異なる複数の光源と、複数の光源の各射出光量のバランスが異なる複数の光量比と、診断目的との対応関係を記憶した光量比記憶部と、光量比記憶部を参照し、取得された診断目的で用いる光量比を選択する光量比選択部と、複数の光源を制御し、選択された光量比の照明光を発光させる光源制御部と、照明光により照明中の観察対象を内視鏡によって撮像して得た画像信号を用いて画像を生成する画像生成部と、画像を表示する表示部と、を備え、診断目的を含む内視鏡情報管理データを記憶したデータ記憶部を有する内視鏡情報管理システムとネットワークを介して相互に通信可能に接続されており、診断目的取得部は、ネットワークを介して内視鏡情報管理データを受信し、診断目的を、受信した内視鏡情報管理データから抽出することにより取得する。
 本発明の内視鏡システムによれば、診断目的に応じて最適な光源波長のバランスを設定することができる。
第1実施形態の内視鏡システムの外観図である。 内視鏡システムの機能を示すブロック図である。 通常観察モードの照明光の光強度スペクトルを示す図である。 特殊観察モードの照明光の光強度スペクトルを示す図である。 光量比記憶部を説明する図である。 光量比選択部を説明する図である。 通常観察画像と好適観察画像との比較について説明する図である。(a)は通常観察画像である。(b)は好適観察画像である。 内視鏡システムの好適対象観察モードにおける作用を説明するフローチャートである。 (a)は紫色光を用いて得た好適観察画像である。(b)は青色光を用いて得た好適観察画像である。 操作入力部からの診断目的の取得について説明する図である。 画像記憶部を説明する図である。 第2実施形態のプロセッサ装置を示すブロック図である。 第2実施形態の画像処理部を説明するブロック図である。 指標値記憶部を説明する図である。 指標値選択部を説明する図である。 指標値を用いて強調表示した好適観察画像を示す図である。 第2実施形態の画像記憶部を説明する図である。 第3実施形態の画像処理部を説明するブロック図である。 第3実施形態の指標値記憶部を説明する図である。 構造パラメータを用いて強調表示した好適観察画像を示す図である。 第4実施形態の画像処理部を説明するブロック図である。 判定結果を用いて強調表示した好適観察画像を示す図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、表示部18と、操作入力部19とを有する。内視鏡12は、被検体として生体内の観察部位を撮像する。光源装置14は、観察部位を照明する照明光を内視鏡12に供給する。プロセッサ装置16は、撮像により得た撮像信号を用いて観察部位の表示画像を生成する。表示部18は、表示画像と表示画像に付帯する情報等を表示するモニタである。操作入力部19は、キーボードとマウス等のコンソールであり、関心領域(ROI : Region Of Interest)の指定と機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。表示部18及び操作入力部19は、プロセッサ装置16と電気的に接続している。
 内視鏡12は、光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続している。内視鏡12は、挿入部12aと、操作部12bとを有する。
 挿入部12aは、生体の消化管内等に挿入する部分である。挿入部12aは、先端部2
1と、湾曲部22と、可撓管部23とを有しており、先端側からこの順番に連結している。先端部21は、先端面に、照明窓と、観察窓と、送気・送水ノズルと、鉗子出口とを有する(いずれも図示せず)。照明窓は、照明光を観察部位に照射するためのものである。観察窓は、観察部位からの光を取り込むためのものである。送気・送水ノズルは、照明窓及び観察窓を洗浄するためのものである。鉗子出口は、鉗子と電気メス等の処置具を用いて各種処置を行うためのものである。湾曲部22は、複数の湾曲駒を連結して構成したものであり、上下左右方向に湾曲する。可撓管部23は、可撓性を有しており、食道や腸等の曲がりくねった管道に挿入可能である。
 操作部12bは、アングルノブ25と、画像記憶操作部26と、モード切替部27と、ズーム操作部28とを有する。アングルノブ25は、湾曲部22を湾曲させ、先端部21が所望の方向に向ける操作に用いる。画像記憶操作部26は、静止画像及び又は動画像をストレージ(図示せず)に記憶させる操作に用いる。モード切替部27は、観察モードを切り替える操作に用いる。ズーム操作部28は、ズーム倍率を変更する操作に用いる。
 内視鏡システム10は、観察モードとして、通常観察モードと、特殊観察モードと、好適対象観察モードとを有している。通常観察モードでは、自然な色合いの観察対象が写った画像(以下、通常観察画像という)を取得する。特殊観察モードでは、観察対象の血管を少なくとも強調した画像(以下、特殊観察画像という)を取得する。好適対象観察モードでは、診断目的に好適な観察対象の構造を強調した画像(以下、好適対象観察画像という)を取得する。なお、本実施形態において、構造とは、血管の構造と腺管(ピットパターン)の構造とを含む。以下では、血管の構造と腺管の構造とを区別しない場合は、これらを構造と称する。
 図2に示すように、光源装置14は、照明光を発する光源30と、光源30を制御する光源制御部32とを備えている。光源30は、例えば、波長域が異なる複数色のLED(Light Emitting Diode)等の半導体光源である。
 本実施形態では、光源30は、例えば、V-LED(Violet LightEmitting Diode)30a、B-LED(Blue Light Emitting Diode)30b、G-LED(Green Light Emitting Diode)30c、及びR-LED(Red Light Emitting Diode)30dの4色のLEDを有する。V-LED30aの発光波長は、380nm~420nmである。B-LED30bの発光波長は、420nm~500nmである。G-LED30cの発光波長は、480nm~600nmである。R-LED30dの発光波長は、600nm~650nmである。なお、各色の光は、それぞれの中心波長とピーク波長とが同じであっても良いし、異なっていても良い。
 光源30には、LEDが発光した光の波長帯域を調整する光学フィルタ30eが含まれる。本実施形態では、光学フィルタ30eは、B-LED30bの光路上に配されており、B-LED30bの波長帯域のうちの短波長成分を透過させる。具体的には、B-LED30bの波長帯域のうち、450nm以下の光を透過させる。B-LED30bの波長帯域のうちの長波長成分は粘膜と血管とのコントラストを低下させてしまうので、光学フィルタ30eを用いることにより、B-LED30bの波長帯域のうちの短波長成分を後述するライトガイド34に供給する。なお、光学フィルタ30eの配置は、本実施形態ではB-LED30bの光路上としているが、これに限るものではない。例えば光学フィルタ30eをG-LED30cの光路上に配する等しても良い。また、光学フィルタ30eにより透過させる波長成分は、適宜設定可能である。例えば光学フィルタ30eをG-LED30cの光路上に配した場合は、光学フィルタ30eは、G-LED30cの波長帯域の一部を透過させる。
 光源制御部32は、各LED30a~30dの点灯や消灯、及び各LED30a~30dの各射出光量のバランス(以下、光量比という)等を独立に制御することによって、照明光の発光タイミング、発光期間、光量、及び分光スペクトルの調節を行う。本実施形態では、光源制御部32は、各LED30a~30dを駆動する電流と電圧とを調整することによって、各LED30a~30dの光量比を観察モードごとに制御する。
 図3に示すように、光源制御部32は、通常観察モードの場合には、各LED30a~30dの全てを点灯させることにより、V-LED30aが発する紫色光LVと、B-LED30bが発する青色光LBと、G-LED30cが発する緑色光LGと、R-LED30dが発する赤色光LRとを含むほぼ白色の照明光(以下、白色光という)を発生させる。なお、本実施形態において、青色光LBは、光学フィルタ30eを透過した光、すなわち、B-LED30bの波長帯域のうちの450nm以下の光としている。
 図4に示すように、光源制御部32は、特殊観察モードの場合には、V-LED30aの射出光量を通常観察モードよりも大きくし、B-LED30bとG-LED30cとR-LED30dとの各射出光量を通常観察モードよりも小さくした照明光を発生させる。紫色光LVは、粘膜表面から浅い位置にある表層血管の観察用に最適な波長帯域の光である。
 好適対象観察モードの場合は、光源制御部32は、後述する診断目的取得部64が取得した診断目的によって定められた光量比に従って、各LED30a~30dの発光を制御する。好適対象観察モードの発光制御については後で詳細に説明をするが、診断目的に好適な構造を観察可能な光量比が後述する光量比選択部70によって選択され、光源制御部32は、選択された光量比の照明光を発光させる。例えば、取得された診断目的に沿う血管が表層血管である場合には、光源制御部32は、各LED30a~30dのうち、V-LED30aのみを点灯することにより、紫色光LVを発光させる。また、診断目的によっては表層血管よりも深い位置にある中層血管に着目する場合もあり、この場合には、光源制御部32は、各LED30a~30dのうち、B-LED30bのみを点灯することにより、青色光LBを発光させる。また、紫色光LVのみ、または青色光LBのみを発光させることに限られず、例えば、紫色光LVと青色光LBとを順次に発光させても良い。さらには、紫色光LVと青色光LBとを含む照明光、緑色光LGのみからなる照明光、赤色光LRのみからなる照明光、紫色光LVと赤色光LRとを含む照明光、青色光LBと赤色光LRとを含む照明光等を発光させても良い。
 光源30が発した照明光は、挿入部12a内に挿通したライトガイド34に入射する。ライトガイド34は、内視鏡12及びユニバーサルコードに内蔵しており、照明光を内視鏡12の先端部21まで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド34としては、マルチモードファイバを使用することができる。一例として、ライトガイド34には、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 先端部21は、照明光学系36と撮像光学系38とを有している。照明光学系36は、照明レンズ40を有している。ライトガイド34を伝搬した照明光は、照明レンズ40を介して観察対象を照明する。撮像光学系38は、対物レンズ42と、ズームレンズ44と、撮像センサ46とを有している。これら対物レンズ42及びズームレンズ44を介して、観察対象からの反射光、散乱光、及び蛍光等の各種の光が撮像センサ46に入射する。これにより、撮像センサ46に観察対象の像が結像する。ズームレンズ44は、ズーム操作部28を操作することでテレ端とワイド端の間で自在に移動し、撮像センサ46に結像する観察対象を拡大又は縮小する。
 撮像センサ46は、画素毎にR(赤)、G(緑)、又はB(青)の原色のカラーフィルタのいずれかを設けたカラー撮像センサであり、観察対象を撮像してRGB各色の画像信号を出力する。撮像センサ46としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等を利用可能である。また、原色のカラーフィルタを設けた撮像センサ46の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号を出力する。このため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換することにより、撮像センサ46と同様のRGB各色の画像信号を得ることができる。また、撮像センサ46の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
 CDS(Correlated Double Sampling)/AGC(Automatic Gain Control)回路448は、撮像センサ46が出力したアナログの画像信号に、相関二重サンプリングや自動利得制御を行う。A/D(Analog to Digital)変換回路50は、CDS/AGC回路48を経たアナログ画像信号を、デジタルの画像信号に変換する。A/D変換回路50は、A/D変換後のデジタル画像信号を、プロセッサ装置16に入力する。
 プロセッサ装置16は、コントローラ52と、DSP(Digital Signal Processor)54と、ノイズ低減部56と、メモリ58と、画像処理部60と、表示制御部62とを備えている。
 コントローラ52は、CPU(Central processing unit)、制御プログラムや制御に必要な設定データを記憶するROM(Read only memory)、制御プログラムをロードする作業メモリとしてのRAM(Randomaccess memory)等を有する。コントローラ52は、CPUが制御プログラムを実行することにより、プロセッサ装置16の各部を制御する。
 DSP54は、内視鏡12からデジタル画像信号を取得し、取得した画像信号に対して、例えば、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理は、撮像センサ46の欠陥画素の信号を補正する。オフセット処理は、欠陥補正処理した画像信号から暗電流成分を除き、正確なゼロレベルを設定する。ゲイン補正処理は、オフセット処理した画像信号に特定のゲインを乗じることにより信号レベルを整える。
 リニアマトリクス処理は、ゲイン補正処理した画像信号の色再現性を高める。ガンマ変換処理は、リニアマトリクス処理した画像信号の明るさや彩度を整える。ガンマ変換処理した画像信号には、デモザイク処理(等方化処理、又は同時化処理とも言う)を施すことによって、各画素で不足した色の信号を補間によって生成する。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。
 ノイズ低減部56は、DSP54でデモザイク処理等を施した画像信号に対して、例えば、移動平均法やメディアンフィルタ法等によるノイズ低減処理を施し、ノイズを低減する。ノイズを低減した画像信号は、メモリ58に記憶する。
 画像処理部60は、メモリ58から画像信号を取得し、取得した画像信号に対して所定の画像処理を施し、観察対象が写った表示画像を生成する。画像処理部60が行う画像処理の内容は、観察モードによって異なる。なお、画像処理部60は、本発明の「画像生成部」に対応する。
 画像処理部60は、通常観察モードの場合には、色変換処理、色彩強調処理、及び構造強調処理等の画像処理を行い、通常観察画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(ルックアップテーブル)処理等により色の変換を行う処理である。色彩強調処理は、色変換処理した画像信号に対して行う。構造強調処理は、例えば、血管や腺管等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。
 画像処理部60は、特殊観察モードの場合には、血管を強調する上記各種画像処理を行うことにより、特殊観察画像を生成する。特殊観察モードはV-LED30aの射出光量が大きいため、特殊観察画像では表層血管が強調されている。
 画像処理部60は、好適対象観察モードの場合には、診断目的に好適な構造を強調する上記各種画像処理を行うことにより、好適対象観察画像を生成する。好適対象観察モードは診断目的によって定められた光量比の照明光を用いるため、好適対象観察画像では診断目的に好適な構造が強調されている。例えば、中層血管に着目する診断目的では、照明光として青色光LBが用いられ、中層血管以外の表層血管等が目立たないように描写されることにより、中層血管がより強調される。
 表示制御部62は、画像処理部60が生成した表示画像を表示部18に表示させる。これにより、通常観察モードでは通常観察画像が表示され、特殊観察モードでは特殊観察画像が表示され、好適対象観察モードでは好適対象観察画像が表示される。
 次に、好適対象観察モードの発光制御について説明をする。プロセッサ装置16は、診断目的取得部64と、データ送受信部66と、光量比記憶部68と、光量比選択部70とをさらに有している。光量比記憶部68はHDD(Hard disc drive)やSSD(Solid state drive)等の記録媒体によって構成されている。
 診断目的取得部64は、データ送受信部66を介して、LAN(Local Area Network)等のネットワークで相互に通信可能に接続した内視鏡情報管理システム72から診断目的を取得する。内視鏡情報管理システム72は、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバである。内視鏡情報管理システム72は、データ記憶部74を有しており、内視鏡情報管理データとして、入力端末(図示せず)から入力された診断目的を含む検査情報と患者情報等を記憶する。診断目的取得部64は、このデータ記憶部74から内視鏡情報管理データを受信し、診断目的を、内視鏡情報管理データから抽出することにより取得する。
 光量比記憶部68は、V-LED30a、B-LED30b、G-LED30c、及びR-LED30dの各射出光量のバランスが異なる複数の光量比と、診断目的との対応関係を記憶している。診断目的には、スクリーニングと精査とを含む第1の診断目的と、疾患の種類に関する第2の診断目的と、疾患の病期ステージに関する第3の診断目的とが含まれる。なお、第1の診断目的については、上記スクリーニングと精査のみに限られず多岐にわたるものであり、例えば、治療、経過観察等も含まれる。第2の診断目的は、例えば、バレット食道、大腸ポリープ、アンギオディスプラジア等であり、これらの他にも、潰瘍性大腸炎、食道扁平上皮癌等、多種多様である。第3の診断目的は、例えば、潰瘍性大腸炎の寛解期、潰瘍性大腸炎の活動期等があり、疾患の種類に応じて定められている。
 図5に示すように、光量比記憶部68は、第1から第3の光量比選択用テーブル68a~68cを有している。第1の光量比選択用テーブル68aは、第1の診断目的と、第1の診断目的で用いる照明光の光量比とを対応付けて記憶している。例えば、第1の光量比選択用テーブル68aには、大腸のスクリーニングに対し、光量比R11と光量比R12とが対応付けされ、胃のスクリーニングに対し、光量比R13が対応付けされ、大腸の精査に対し、光量比R14が対応付けされている。光量比がV-LED30aの射出光量:B-LED30bの射出光量:G-LED30cの射出光量:R-LED30dの射出光量(すなわち、V:B:G:R)とすると、光量比R11は、例えば1:0:0:0である。光量比R12と光量比R13とは、同じ光量比とされており、例えば0:1:0:0である。光量比R14は、例えば特殊観察モードの光量比と同じとされている。
 第2の光量比選択用テーブル68bは、第2の診断目的と、第2の診断目的で用いる照明光の光量比とを対応付けて記憶している。例えば、第2の光量比選択用テーブル68bには、バレット食道に対し、光量比R21と光量比R22とが対応付けされ、大腸ポリープに対し、光量比R23が対応付けされ、アンギオディスプラジアに対し、光量比R24が対応付けされている。光量比R21と光量比R23とは、例えば1:0:0:0である。光量比R22と光量比R24とは、例えば0:1:0:0である。
 第3の光量比選択用テーブル68cは、第3の診断目的と、第3診断目的で用いる照明光の光量比とを対応付けて記憶している。例えば、第3の光量比選択用テーブル68cには、潰瘍性大腸炎の寛解期に対し、光量比R31と光量比R32とが対応付けされ、潰瘍性大腸炎の活動期に対し、光量比R33が対応付けされている。光量比R31と光量比R33とは、例えば1:0:0:0である。光量比R32は、例えば0:1:0:0である。
 第1~第3の光量比選択用テーブル68a~68cに記憶されている対応関係は、例えば操作入力部19の入力操作により適宜更新可能である。また、第1~第3の光量比選択用テーブル68a~68cは、新たに対応関係を追加することが可能とされている。
 光量比選択部70は、光量比記憶部68を参照して、取得された診断目的で用いる光量比を選択する。具体的には、光量比選択部70は、第1の診断目的を取得した場合は光量比記憶部68の第1の光量比選択用テーブル68aを参照し、第2の診断目的を取得した場合は第2の光量比選択用テーブル68bを参照し、第3の診断目的を取得した場合は第3の光量比選択用テーブル68cを参照する。すなわち、光量比選択部70は、第1から第3の診断目的のうちのいずれか1つの診断目的に従って光量比を選択する。そして、光量比選択部70は、選択した光量比を光源制御部32に入力する。
 例えば、図6に示すように、取得された第1の診断目的が胃のスクリーニングであった場合、光量比選択部70は、第1の光量比選択用テーブル68aを参照し、胃のスクリーニングと対応付けされた光量比R13を選択し、光源制御部32に入力する。本実施形態では光量比R13が0:1:0:0であるから、光源制御部32は、B-LED30bのみを点灯し、青色光LBを照明光として発光させる。
 ここで、通常のスクリーニングでは、観察対象の色合い等を確認するために通常観察モードで通常観察画像を観察することが多いが、胃のスクリーニングに関しては、例えば、RAC(Regular Arrangement of Collecting venules)の有無を確認するために中層血管を観察することが要求される。図7(a)に示すように、通常観察モードにおいて、白色光を用いて得られる通常観察画像80は、観察対象が自然な色合いに映し出されているものの、RACの観察に最適とは言えない。これに対し、図7(b)に示すように、好適対象観察モードにおいて、光量比選択部70が選択した光量比の照明光、すなわち、青色光LBを用いて得られた好適対象観察画像84は、通常観察画像80に対し中層血管82がより強調表示されており、RACをより確実に観察することができる。
 なお、本実施形態では、1つの診断目的につき1つの光量比を選択する例で説明をする。したがって、光量比記憶部68において1つの診断目的に対し複数の光量比が対応付けされている場合は、光量比選択部70は、複数の光量比のうち、操作入力部19の操作によって指定された1つの光量比を選択する。例えば、第1の診断目的が大腸のスクリーニングであり、操作入力部19によって光量比R11と光量比R12とのうちの光量比R11が指定された場合、光量比選択部70は、光量比R11を選択する。
 次に、内視鏡システム10の好適対象観察モードにおける作用について、図8のフローチャートに沿って説明する。
 好適対象観察モードでは、診断目的取得部64は、ネットワークを介して、内視鏡情報管理システム72のデータ記憶部74から診断目的を取得する(S11)。診断目的取得部64は、診断目的した診断目的を光量比選択部70に入力する。
 光量比選択部70は、光量比記憶部68を参照し、取得された診断目的で用いる光量比を選択する(S12)。光量比記憶部68には、V-LED30a、B-LED30b、G-LED30c、及びR-LED30dの各射出光量のバランスが異なる複数の光量比と、診断目的との対応関係が記憶されている。具体的には、光量比記憶部68は、第1の診断目的で用いる照明光の光量比を記憶した第1の光量比選択用テーブル68aと、第2の診断目的で用いる照明光の光量比を記憶した第2の光量比選択用テーブル68bと、第3の診断目的で用いる照明光の光量比を記憶した第3の光量比選択用テーブル68cを有している。
 光量比選択部70は、取得した診断目的が第1の診断目的であった場合には、第1の光量比選択用テーブル68aから光量比を選択し、取得した診断目的が第2の診断目的であった場合には、第2の光量比選択用テーブル68bから光量比を選択し、取得した診断目的が第3の診断目的であった場合には、第3の光量比選択用テーブル68cから光量比を選択する。そして、光量比選択部70は、選択した光量比を光源制御部32に入力する。光源制御部32は、各LED30a~30dを制御し、光量比選択部70が選択した光量比の照明光を発光させる(S13)。
 上記照明光で照明中の観察対象を撮像センサ46が撮像する(S14)。画像処理部60は、撮像により得た画像信号を用いて、診断目的に好適な構造を強調した好適観察画像を生成する(S15)。表示部18は、この好適観察画像を表示する。
 以上のように、診断目的取得部64により診断目的を取得し、この診断目的に好適な構造を観察可能な光量比が光量比選択部70によって選択されるため、診断目的に応じて最適な光源波長のバランスに設定した照明光を発光することができる。
 なお、上記第1実施形態では、光量比選択部70は、1つの診断目的につき1つの光量比を選択しているが、複数の構造をそれぞれ観察することが要求される診断目的では、各構造を観察可能な複数の光量比を選択することが好ましい。例えば、バレット食道のように表層血管と中層血管とを観察することが要求される診断目的では、光量比選択部70は、第2の光量比選択用テーブル68bを参照し、バレット食道と対応付けされた光量比R21と光量比R22とを選択する。
 光源制御部32は、複数の光量比が選択された場合には、照明光の光量比を順次切り替えて発光させる。撮像センサ46は、光源制御部32により光量比の切り替えが行われるごとに観察対象を撮像し、画像信号をそれぞれ出力する。画像処理部60は、撮像センサ46が画像信号を出力するごとに、好適対象観察画像を生成する。
 図9に示すように、画像処理部60は、例えば、診断目的取得部64により取得された第2の診断目的がバレット食道であった場合は、2つの好適対象観察画像86,87を順次生成する。図9(a)は、光量比R21の照明光、すなわち紫色光LVを用いて得られた好適対象観察画像86である。図9(b)は、光量比R22の照明光、すなわち青色光LBを用いて得られた好適対象観察画像87である。好適対象観察画像86は、画面全体に分布する表層血管88が強調表示されている一方で、画面上部の中層血管89が目立たないように描写されている。これに対し、好適対象観察画像87は、表層血管88が目立たないように描写されている一方で、中層血管89が強調表示されている。好適対象観察画像86と好適対象観察画像87とは、操作入力部19の操作によって、表示部18への表示が切り替えられる。なお、表示部18への表示の切り替えは、操作入力部19の操作による切り替えに限られず、例えば、予め定めた時間が経過するごとに順次切り替えて表示させても良い。
 なお、上記第1実施形態では、診断目的取得部64は、ネットワークを介して内視鏡情報管理システム72から診断目的を取得しているが、図10に示すように、内視鏡情報管理システム72から診断目的を取得することに加え、診断目的入力部としての操作入力部19により入力された診断目的を取得しても良い。この場合は、光量比選択部70は、例えば、操作入力部19により入力された診断目的を優先的に用いて光量比の選択を行う。これにより、診断中に、内視鏡情報管理システム72から取得した診断目的とは異なる診断目的に切り替えて検査を継続することが可能となる。
 また、診断目的取得部64は、内視鏡情報管理システム72から診断目的を取得することに代えて、操作入力部19により入力された診断目的を取得しても良い。この場合は、内視鏡情報管理システム72とネットワークを介して接続されていない場合であっても診断目的の取得が可能である。
 なお、上記第1実施形態では、画像記憶操作部26が操作された場合に静止画像及び又は動画像をHDDやSSDといったストレージ(図示せず)に記憶させているが、プロセッサ装置16に画像記憶部92(図11参照)を設け、好適対象観察モードで生成した好適対象観察画像を、診断目的取得部64により取得された診断目的と光量比選択部70により選択された光量比との少なくともいずれかと対応付けして記憶させても良い。以下、画像と診断目的と光量比とを画像記憶部92に記憶する場合について説明をする。
 例えば、診断目的取得部64により取得された第2の診断目的がバレット食道であった場合、光量比選択部70により光量比R22が選択され、画像処理部60により好適対象観察画像87が生成される。画像記憶操作部26が操作されると、画像記憶部92は、図11に示すように、画像処理部60が生成した好適対象観察画像87を記憶用の画像「P13」として記憶するとともに、この画像P13に対し、診断目的取得部64が取得した診断目的である「バレット食道」と、光量比選択部70が選択した光量比「R22」とを対応付けて記憶する。
 この画像記憶部92に記憶された画像と診断目的と光量比とは、表示部18に表示することが可能とされている。これにより、画像記憶部92から、取得された診断目的に類似した症例について、操作入力部19の操作によって画像と光量比とを検索により表示させることができる。また、選択された光量比をもとに、画像と診断目的とを検索することも可能とされている。
 さらに、ネットワークを介して内視鏡情報管理システム72と相互に通信可能に接続されている場合には、画像記憶部92に記憶されたデータをデータ記憶部74に送信し、記憶させることで、内視鏡システム10とは異なる内視鏡システムとのデータ共有が可能となる。
 なお、上記第1実施形態では、診断目的取得部64は、第1から第3の診断目的のうちのいずれか1つを取得しているが、第1の診断目的と第2の診断目的と第3の診断目的とを取得しても良い。すなわち、診断目的取得部64が取得する診断目的は、第1の診断目的と、第2の診断目的と、第3の診断目的とを含むものであっても良い。
 この場合、光量比選択部70は、診断目的取得部64が取得した第1から第3の診断目的の組み合わせに従って光量比を選択する。診断目的の組み合わせの例としては、活動期(第3の診断目的)の潰瘍性大腸炎(第2の診断目的)のスクリーニング(第1の診断目的)等がある。この例では、光量比選択部70は、第1の光量比選択用テーブル68aから大腸のスクリーニングに対応する光量比を選択し、第2の光量比選択用テーブル68bから潰瘍性大腸炎に対応する光量比を選択し、第3の光量比選択用テーブル68cから潰瘍性大腸炎の活動期に対応する光量比を選択する。そして、光量比選択部70は、選択した各光量比を光源制御部32に入力する。これにより照明光の光量比が順次切り替えられる。これにより、複数の診断目的に応じて最適な光源波長のバランスに設定した照明光を発光することができるため、より詳細な診断が可能となる。
 なお、診断目的取得部64により第1の診断目的と第2の診断目的と第3の診断目的とを取得することに限られず、第1から第3の診断目的のうちの2以上の診断目的を取得しても良い。すなわち、診断目的取得部64が取得する診断目的は、第1から第3の診断目的のうちの2以上の診断目的を含むものであっても良い。この場合には、光量比選択部70は、診断目的取得部64により取得された2以上の診断目的の組み合わせに従って光量比を選択する。
 さらに、診断目的取得部64は、上記のように各診断目的をそれぞれ取得することに限られず、第1の診断目的と第2の診断目的など複数の診断目的を複合した複合目的を、診断目的として取得しても良い。このような場合は、光量比記憶部68には、複合目的用の光量比選択テーブルを設けることが好ましい。複合目的用の光量比選択テーブルは、複合目的と、複合目的で用いる照明光の光量比とを対応付けて記憶している。複合目的で用いる照明光の光量比は、複合目的を構成する各診断目的で用いる光量比とされている。
 [第2実施形態]
 上記第1実施形態では、診断目的に好適な構造を観察可能な光量比を選択することにより、上記構造を強調しているが、第2実施形態では、観察対象の構造に関する指標値を算出し、この指標値を用いて、上記構造をより強調する。
 図12に示すように、プロセッサ装置94は、画像処理部60の代わりに、画像処理部96を備えている。画像処理部96は、診断目的取得部64から診断目的を取得する。
 図13に示すように、画像処理部96は、ベース画像生成部100と、構造抽出部102と、指標値記憶部104と、指標値選択部106と、指標値算出部108と、強調画像生成部110とを有する。
 ベース画像生成部100は、メモリ58から取得した画像信号に対し、観察対象の構造を色の違いで表したベース画像を生成する。ベース画像は、設定された光量比に応じた色味で表され、通常観察画像とは色味が若干異なっている。ベース画像の例としては、設定された光量比で撮影して得た画像にて白色板が白になるようなカラーバランスにした画像、表示部18のRチャンネル、Gチャンネル、Bチャンネルのいずれかに画像信号を割り当てる(例えば、照明光の光量比のうち緑色光LGの光量が大きい場合は、Gチャンネルに画像信号を割り当てる等)ことにより得たグレーの画像、画像信号の階調バランスを変えて各チャンネルに割り当てることにより得た疑似カラーの画像等がある。
 構造抽出部102は、ベース画像を用いて、観察対象の構造を抽出した構造抽出画像を生成する。例えば光源装置14によって異なる波長帯域の照明光で観察対象を照明した場合には、構造抽出部102は、各照明光で照明中の観察対象を撮影して得た各画像の間で差分をとることによって血管を抽出する。具体的には、紫色光LVで照明中の観察対象を撮影して得た画像と青色光LBで照明中の観察対象を撮影して得た画像の間で差分をとることによって、表層血管、または表層血管よりも浅い位置にある血管を抽出できる。上記のように血管を抽出することに加え又は代えて、腺管の構造を抽出しても良い。なお、構造の抽出方法は上記の方法に限るものではない。また、本実施形態では、構造抽出部102は、ベース画像の全体から血管と腺管とを抽出するが、操作入力部19の操作によって関心領域を指定した場合は、指定した関心領域内でだけ血管と腺管とを抽出しても良い。
 指標値記憶部104は、観察対象の構造に関する複数の指標値と、診断目的との対応関係を記憶している。指標値の種類は、例えば、血管の密度、血管の太さの均一度、血管の複雑度、表面構造の均一度等である。なお、指標値の種類は、上記した例のみに限定されない。
 血管の密度とは、単位面積中にある血管の割合である。血管の太さの均一度とは、血管の太さのばらつきに関する指標値である。血管の複雑度とは、血管の形状がどの程度複雑であるかを示す指標値であり、例えば、抽出した血管の分岐点の個数(分岐数)、血管の蛇行度、抽出した血管の曲がり具合(曲率)等を組み合わせて算出する値である。表面構造の均一度とは、腺管の形状のばらつきに関する指標値である。
 図14に示すように、指標値記憶部104は、第1から第3の指標値選択用テーブル104a~104cを有している。第1の指標値選択用テーブル104aは、第1の診断目的と、第1の診断目的で用いる指標値とを対応付けて記憶している。例えば、第1の指標値選択用テーブル104aには、大腸のスクリーニングに対し、表層血管の複雑度と中層血管の複雑度とが対応付けされ、胃のスクリーニングに対し、中層血管の複雑度と表面構造の均一度とが対応付けされ、大腸の精査に対し、表層血管の密度が対応付けされている。
 第2の指標値選択用テーブル104bは、第2の診断目的と、第2の診断目的で用いる指標値とを対応付けて記憶している。例えば、第2の指標値選択用テーブル104bは、バレット食道に対し、表層血管の密度と表層血管の複雑度と中層血管の密度と中層血管の複雑度とが対応付けされ、大腸ポリープに対し、中層血管の太さの均一度と表面構造の均一度とが対応付けされ、アンギオディスプラジアに対し、中層血管の密度が対応付けされている。
 第3の指標値選択用テーブル104cは、第3の診断目的と、第3の診断目的で用いる指標値とを対応付けて記憶している。例えば、第3の指標値選択用テーブル104cには、潰瘍性大腸炎の寛解期に対し、表層血管の複雑度と中層血管の複雑度とが対応付けされ、潰瘍性大腸炎の活動期に対し、表層血管の複雑度が対応付けされている。
 なお、第1~第3の指標値選択用テーブル104a~104cに記憶されている対応関係は、例えば操作入力部19の入力操作により適宜更新可能である。また、第1~第3の指標値選択用テーブル104a~104cは、新たに対応関係を追加することが可能とされている。
 指標値選択部106は、指標値記憶部104を参照して、取得された診断目的で用いる指標値を選択する。具体的には、指標値選択部106は、第1の診断目的を取得した場合は指標値記憶部104の第1の指標値選択用テーブル104aを参照し、第2の診断目的を取得した場合は第2の指標値選択用テーブル104bを参照し、第3の診断目的を取得した場合は第3の指標値選択用テーブル104cを参照する。そして、指標値選択部106は、選択した指標値を指標値算出部108に入力する。
 例えば、図15に示すように、取得された第2の診断目的がアンギオディスプラジアであった場合、指標値選択部106は、第2の指標値選択用テーブル104bを参照し、アンギオディスプラジアと対応付けされた指標値である中層血管の密度を選択し、指標値算出部108に入力する。
 指標値算出部108は、選択された指標値を構造抽出画像から算出する。指標値算出部108は、構造抽出画像の画素毎に指標値を算出する。例えば、指標値を算出する画素を含む予め定めた範囲(例えば指標値を算出する画素を中心とする99×99画素の範囲)の画素のデータを用いて1つの画素の指標値を算出する。
 指標値算出部108は、操作入力部19の操作によって構造抽出画像の一部に関心領域を設定した場合には、設定した関心領域内で指標値を算出する。関心領域を設定していない場合や、構造抽出画像の全部を関心領域に設定している場合には、指標値算出部108は、構造抽出画像の全体に対して指標値を算出する。
 強調画像生成部110は、生成されたベース画像と、算出された指標値とを用いて、診断目的に好適な構造をより強調した好適対象観察画像を生成する。強調画像生成部110は、例えば、ベース画像に対して、指標値に基づく情報をオーバーラップ処理することにより、好適対象観察画像を生成する。オーバーラップ処理としては、指標値に応じた色付け処理等がある。このような色付け処理をした好適対象観察画像では、ベース画像に対し、指標値が一定値以上の領域が疑似カラーで表示されている。
 例えば、図16に示す好適対象観察画像112において、中層血管の密度が一定値以上の領域114が疑似カラーで表示される。例えば、指標値が大きい領域は赤系の色とし、指標値が小さい領域は青系の色とする。なお、ベース画像に対して、指標値の値そのものを示す情報をオーバーラップさせても良い。これにより、診断目的に好適な構造をより強調することができる。
 なお、プロセッサ装置94に画像記憶部116(図17参照)を設け、好適対象観察モードで生成した好適対象観察画像を、診断目的取得部64により取得された診断目的と、光量比選択部70により選択された光量比と、指標値算出部108により算出された指標値とを対応付けして記憶させても良い。
 例えば、診断目的取得部64により取得された第2の診断目的がアンギオディスプラジアであった場合、光量比選択部70により光量比R22が選択され、指標値選択部106により中層血管の密度が選択される。指標値算出部108は、構造抽出部102が生成した抽出画像から中層血管の密度を算出する。強調画像生成部110は、ベース画像生成部100が生成したベース画像と、算出された中層血管の密度とを用いて、好適対象観察画像を生成する。そして、画像記憶操作部26が操作されると、画像記憶部116は、図17に示すように、強調画像生成部110が生成した好適対象観察画像を記憶用の画像P21として記憶するとともに、この画像P21に対し、診断目的取得部64が取得した診断目的である「アンギオディスプラジア」と、光量比選択部70が選択した光量比「R24」と、指標値選択部106が選択した指標値である「中層血管の密度」とを対応付けて記憶する。
 [第3実施形態]
 上記第2実施形態では、強調画像生成部110は、指標値を用いて強調表示を行っているが、第3実施形態では、複数の指標値を用いて構造パラメータを算出し、この構造パラメータを用いて強調表示を行う。第3実施形態では、第2実施形態の画像処理部96の代わりに、画像処理部120を備える(図18参照)。
 画像処理部120は、第2実施形態の指標値記憶部104の代わりに指標値記憶部122を有するとともに、第2実施形態の画像処理部96の各構成に加え、構造パラメータ算出部124とを有する。
 指標値記憶部122は、指標値と診断目的とに加え、さらに、後述する構造パラメータ算出部で用いる重み付け係数を対応付けて記憶している。
 図19に示すように、指標値記憶部122は、第1から第3の指標値選択用テーブル122a~122cを有している。第1から第3の指標値選択用テーブル122a~122cについて、診断目的と指標値との関係は第2実施形態の指標値記憶部104と同じなので説明を省略し、以下では、重み付け係数(以下、係数と称する)との関係について説明をする。
 第1の指標値選択用テーブル122aは、第1の診断目的と、第1の診断目的で用いる指標値と、係数との対応関係を記憶している。例えば、大腸のスクリーニングについては、表層血管の複雑度に対する係数は0.5とされ、中層血管の複雑度に対する係数は1とされている。胃のスクリーニングについては、中層血管の複雑度に対する係数は1とされ、表面構造の均一度に対する係数は1とされている。大腸の精査については、表層血管の密度に対する係数は1とされている。
 第2の指標値選択用テーブル122bは、第2の診断目的と、第2の診断目的で用いる指標値と、係数との対応関係を記憶している。例えば、バレット食道については、表層血管の密度と表層血管の複雑度と中層血管の密度と中層血管の複雑度とに対する係数は、それぞれ1とされている。大腸ポリープについては、中層血管の太さの均一度に対する係数は1とされ、表面構造の均一度に対する係数は0.5とされている。アンギオディスプラジアについては、中層血管の密度に対する係数は1とされている。
 第3の指標値選択用テーブル122cは、第3の診断目的と、第3の診断目的で用いる指標値と、係数との対応関係を記憶している。例えば、潰瘍性大腸炎の寛解期については、表層血管の複雑度と中層血管の複雑度とに対する係数は、それぞれ1とされている。潰瘍性大腸炎の活動期については、表層血管の複雑度に対する係数は1とされている。
 第1~第3の指標値選択用テーブル122a~122cに記憶されている対応関係は、例えば操作入力部19の入力操作により適宜更新可能である。また、第1~第3の指標値選択用テーブル122a~122cは、新たに対応関係を追加することが可能とされている。
 第3実施形態では、診断目的取得部64は、第1~第3の診断目的のうちのいずれか1つを取得するが、これに限られず、複合目的を取得する場合もある。このような場合に備え、指標値記憶部122には、複合目的用の指標値選択テーブルを設けても良い。複合目的用の指標値選択テーブルは、複合目的と、複合目的で用いる指標値と、係数との対応関係を記憶している。複合目的で用いる指標値は、複合目的を構成する各診断目的で用いる指標値である。複合目的用の指標値選択テーブルに記憶されている係数は、例えば、複合目的を構成する各診断目的で用いる指標値のうち、重複する数が多い指標値ほど、大きい値に設定される。
 構造パラメータ算出部124は、指標値算出部108が算出した指標値を用いて構造パラメータを算出する。具体的には、構造パラメータ算出部124は、診断目的によって定められた係数(重み付け係数)により複数の指標値を重み付けして演算することにより、構造パラメータを算出する。構造パラメータ算出部124は、構造パラメータの算出に際し、指標値記憶部122を参照し、指標値算出部108が算出した指標値と対応付けされた係数を用いる。
 構造パラメータは、指標値を総合的に考慮して診断を行う医師の視点を模して、指標値を用いて算出した数値である。構造パラメータは、例えば互いに次元(単位)が異なる指標値を加算等の演算により算出するので、構造パラメータには物理的な意味は無いが、診断の指標として機能する。すなわち、構造パラメータは、物理的な意味がない値であることが指標値との違いである。
 例えば、診断目的取得部64により取得された第2の診断目的がバレット食道であった場合、構造パラメータ算出部124は、表層血管の密度と表層血管の複雑度と中層血管の密度と中層血管の複雑度とのそれぞれに1を乗算して加算をすることにより、構造パラメータを算出する。なお、本実施形態では、構造パラメータ算出部124は、複数の指標値を用いて1つの構造パラメータを算出するが、これに限られず、2以上の構造パラメータを算出しても良い。また、構造パラメータの算出方法は任意である。例えば、上記のように複数の指標値の重み付け和を構造パラメータとして算出するだけでなく、加減乗除が混在する演算をして構造パラメータを算出しても良いし、その他の関数を用いて構造パラメータを算出しても良い。
 強調画像生成部110は、生成されたベース画像と、算出された構造パラメータとを用いて、好適対象観察画像を生成する。強調画像生成部110は、例えば、ベース画像に対して、構造パラメータに基づく情報をオーバーラップ処理することにより、好適対象観察画像を生成する。
 例えば、図20に示す好適対象観察画像126において、領域127~129は、構造パラメータに応じて異なる色で表示される。例えば、領域127~129のうち、領域127は、構造パラメータが最も小さく、青系の色とする。領域128は、領域127よりも構造パラメータが大きく、黄系の色とする。領域129は、領域128よりも構造パラメータが大きく、赤系の色とする。なお、ベース画像に対して、構造パラメータの値そのものを示す情報をオーバーラップさせても良い。これにより、診断目的に好適な構造をより強調することができる。
 [第4実施形態]
 なお、上記第3実施形態では、強調画像生成部110は、構造パラメータを用いて強調表示を行っているが、第4実施形態では、構造パラメータを用いて観察対象の粘膜の状態を判定し、この判定結果を用いて強調表示を行う。この場合の画像処理部120は、図21に示す判定部130をさらに有する。
 判定部130は、構造パラメータ算出部124が算出した構造パラメータを用いて観察対象の粘膜の状態を判定する。観察対象の「粘膜の状態」とは、血管と腺管とを含む粘膜全体としての総合的なステータスであり、例えば、「正常」、「腺腫(腺腫の疑いがある)」、または、「がん(がんの疑いがある)」等である。したがって、判定部130は、粘膜の状態を、正常、腺腫、がんの3種類の状態に判定する。
 例えば、構造パラメータの算出に用いる係数を、粘膜の状態を正常、腺腫、がんの3種類の状態のいずれかに判定可能なバランスに設定しているとする。この場合において、判定部130は、構造パラメータの数値と閾値とを比較することによって粘膜の状態を判定する。具体的には、構造パラメータが第1閾値以下の場合、判定部130は、観察対象の粘膜の状態を「正常」と判定する。構造パラメータが第1閾値よりも大きく第2閾値以下の場合、判定部130は、観察対象の粘膜の状態を「腺腫」と判定する。構造パラメータが第2閾値よりも大きい場合、判定部130は、観察対象の粘膜の状態を「がん」と判定する。
 強調画像生成部110は、生成されたベース画像と、判定部130の判定結果とを用いて、好適対象観察画像を生成する。強調画像生成部110は、例えば、ベース画像に対して、判定結果に基づく情報をオーバーラップ処理することにより、好適対象観察画像を生成する。
 例えば、図22に示す好適対象観察画像132において、領域133は、「腺腫」と判定された領域である。領域134は、「がん」と判定された領域である。領域133と領域134とは異なる色で表示され、例えば、領域133は黄系とされ、領域134は赤系とされる。なお、「正常」と判定された領域は、本実施形態では色付けをしないが、例えば青系等で色付けしても良い。なお、ベース画像に対して、判定結果そのものを示す情報を表示させても良い。このように、構造パラメータを用いて観察対象の粘膜の状態を判定し、この判定結果を表示することによって、より直接的に診断を支援することができる。
 10 内視鏡システム
 12 内視鏡
 12a 挿入部
 12b 操作部
 14 光源装置
 16 プロセッサ装置
 18 表示部
 19 操作入力部
 21 先端部
 22 湾曲部
 23 可撓管部
 25 アングルノブ
 26 画像記憶操作部
 27 モード切替部
 28 ズーム操作部
 30 光源
 30a V-LED
 30b B-LED
 30c G-LED
 30d R-LED
 30e 光学フィルタ
 32 光源制御部
 34 ライトガイド
 36 照明光学系
 38 撮像光学系
 40 照明レンズ
 42 対物レンズ
 44 ズームレンズ
 46 撮像センサ
 48 CDS/AGC回路
 50 A/D変換回路
 52 コントローラ
 54 DSP
 56 ノイズ低減部
 58 メモリ
 60 画像処理部
 62 表示制御部
 64 診断目的取得部
 66 データ送受信部
 68 光量比記憶部
 68a 第1の光量比選択用テーブル
 68b 第2の光量比選択用テーブル
 68c 第3の光量比選択用テーブル
 70 光量比選択部
 72 内視鏡情報管理システム
 74 データ記憶部
 80 通常観察画像
 82 中層血管
 84 好適対象観察画像
 86 好適対象観察画像
 87 好適対象観察画像
 88 表層血管
 89 中層血管
 92 画像記憶部
 94 プロセッサ装置
 96 画像処理部
 100 ベース画像生成部
 102 構造抽出部
 104 指標値記憶部
 104a 第1の指標値選択用テーブル
 104b 第2の指標値選択用テーブル
 104c 第3の指標値選択用テーブル
 106 指標値選択部
 108 指標値算出部
 110 強調画像生成部
 112 好適対象観察画像
 114 領域
 116 画像記憶部
 120 画像処理部
 122 指標値記憶部
 122a 第1の指標値選択用テーブル
 122b 第2の指標値選択用テーブル
 122c 第3の指標値選択用テーブル
 124 構造パラメータ算出部
 126 好適対象観察画像
 127 領域
 128 領域
 129 領域
 130 判定部
 132 好適対象観察画像
 133 領域
 134 領域

Claims (12)

  1.  診断目的を取得する診断目的取得部と、
     発光波長が異なる複数の光源と、
     前記複数の光源の各射出光量のバランスが異なる複数の光量比と、前記診断目的との対応関係を記憶した光量比記憶部と、
     前記光量比記憶部を参照し、取得された前記診断目的で用いる光量比を選択する光量比選択部と、
     前記複数の光源を制御し、選択された前記光量比の照明光を発光させる光源制御部と、
     を備える内視鏡システム。
  2.  前記診断目的は、スクリーニングと精査とを含む第1の診断目的と、疾患の種類に関する第2の診断目的と、病期ステージに関する第3の診断目的とを含み、
     前記光量比選択部は、前記第1から第3の診断目的の組み合わせに従って前記光量比を選択する請求項1に記載の内視鏡システム。
  3.  前記診断目的は、スクリーニングと精査とを含む第1の診断目的と、疾患の種類に関する第2の診断目的と、病期ステージに関する第3の診断目的とを含み、
     前記光量比選択部は、前記第1から第3の診断目的のうちのいずれか1つの診断目的に従って前記光量比を選択する請求項1に記載の内視鏡システム。
  4.  前記照明光により照明中の観察対象を内視鏡によって撮像して得た画像信号を用いて画像を生成する画像生成部と、
     前記画像を、取得された前記診断目的と選択された前記光量比との少なくともいずれかと対応付けして記憶する画像記憶部とを備える請求項1から3のいずれか1項に記載の内視鏡システム。
  5.  前記観察対象の構造に関する複数の指標値と、前記診断目的との対応関係を記憶した指標値記憶部と、
     前記指標値記憶部に記憶された前記指標値の中から、取得された前記診断目的で用いる指標値を選択する指標値選択部と、
     前記画像を用いて、選択された前記指標値を算出する指標値算出部とを備える請求項4に記載の内視鏡システム。
  6.  前記画像生成部は、算出された前記指標値を用いて、前記構造を強調表示した画像を、前記画像として生成する請求項5に記載の内視鏡システム。
  7.  前記診断目的によって定められた重み付け係数により複数の前記指標値を重み付けして演算することにより、前記構造の構造パラメータを算出する構造パラメータ算出部を備える請求項6に記載の内視鏡システム。
  8.  前記画像生成部は、算出された前記構造パラメータを用いて、前記構造を強調表示した画像を、前記画像として生成する請求項7に記載の内視鏡システム。
  9.  前記画像記憶部は、前記画像に、算出された前記構造パラメータをさらに対応付けして記憶する請求項7または8に記載の内視鏡システム。
  10.  前記診断目的を含む内視鏡情報管理データを記憶したデータ記憶部を有する内視鏡情報管理システムとネットワークを介して相互に通信可能に接続されており、
     前記診断目的取得部は、前記ネットワークを介して前記内視鏡情報管理データを受信し、前記診断目的を、受信した前記内視鏡情報管理データから抽出することにより取得する請求項1から9のいずれか1項に記載の内視鏡システム。
  11.  前記診断目的を入力する診断目的入力部を備え、
     前記診断目的取得部は、前記診断目的入力部により入力された前記診断目的を取得する請求項1から9のいずれか1項に記載の内視鏡システム。
  12.  診断目的を取得する診断目的取得部と、
     発光波長が異なる複数の光源と、
     前記複数の光源の各射出光量のバランスが異なる複数の光量比と、前記診断目的との対応関係を記憶した光量比記憶部と、
     前記光量比記憶部を参照し、取得された前記診断目的で用いる光量比を選択する光量比選択部と、
     前記複数の光源を制御し、選択された前記光量比の照明光を発光させる光源制御部と、
     前記照明光により照明中の観察対象を内視鏡によって撮像して得た画像信号を用いて画像を生成する画像生成部と、
     前記画像を表示する表示部と、
     を備え、
     前記診断目的を含む内視鏡情報管理データを記憶したデータ記憶部を有する内視鏡情報管理システムとネットワークを介して相互に通信可能に接続されており、
     前記診断目的取得部は、前記ネットワークを介して前記内視鏡情報管理データを受信し、前記診断目的を、受信した前記内視鏡情報管理データから抽出することにより取得する内視鏡システム。
PCT/JP2017/033113 2016-10-27 2017-09-13 内視鏡システム WO2018079116A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17864310.2A EP3533382A4 (en) 2016-10-27 2017-09-13 ENDOSCOPIC SYSTEM
JP2018547187A JP6706339B2 (ja) 2016-10-27 2017-09-13 内視鏡システム
US16/383,674 US10842366B2 (en) 2016-10-27 2019-04-15 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016211058 2016-10-27
JP2016-211058 2016-10-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/383,674 Continuation US10842366B2 (en) 2016-10-27 2019-04-15 Endoscope system

Publications (1)

Publication Number Publication Date
WO2018079116A1 true WO2018079116A1 (ja) 2018-05-03

Family

ID=62024735

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033113 WO2018079116A1 (ja) 2016-10-27 2017-09-13 内視鏡システム

Country Status (4)

Country Link
US (1) US10842366B2 (ja)
EP (1) EP3533382A4 (ja)
JP (1) JP6706339B2 (ja)
WO (1) WO2018079116A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234815A1 (ja) * 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010116902A1 (ja) 2009-04-09 2010-10-14 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2011036361A (ja) 2009-08-10 2011-02-24 Fujifilm Corp 内視鏡装置
JP2012080939A (ja) 2010-10-07 2012-04-26 Hoya Corp 診断システム
JP2012130429A (ja) * 2010-12-20 2012-07-12 Fujifilm Corp 内視鏡装置
JP2013017769A (ja) 2011-07-14 2013-01-31 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
WO2013140667A1 (ja) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置
JP2015061618A (ja) 2014-11-10 2015-04-02 富士フイルム株式会社 内視鏡装置
JP2015231576A (ja) 2015-09-24 2015-12-24 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP2016087370A (ja) 2014-11-04 2016-05-23 株式会社スタットラボ 大腸拡大内視鏡画像診断支援装置
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003126045A (ja) * 2001-10-22 2003-05-07 Olympus Optical Co Ltd 診断支援装置
CN101142592B (zh) * 2005-03-22 2010-07-07 奥林巴斯株式会社 图像处理装置及内窥镜装置
JP2010000183A (ja) * 2008-06-19 2010-01-07 Fujinon Corp 電子内視鏡用プロセッサ装置
JP5242479B2 (ja) * 2009-03-26 2013-07-24 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
JP5767775B2 (ja) * 2009-07-06 2015-08-19 富士フイルム株式会社 内視鏡装置
JP5606120B2 (ja) * 2010-03-29 2014-10-15 富士フイルム株式会社 内視鏡装置
JP5435746B2 (ja) * 2011-01-24 2014-03-05 富士フイルム株式会社 内視鏡装置
CN103796566B (zh) * 2011-09-05 2017-06-06 富士胶片株式会社 内窥镜系统和图像显示方法
JP5815426B2 (ja) * 2012-01-25 2015-11-17 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP6021420B2 (ja) * 2012-05-07 2016-11-09 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6157135B2 (ja) * 2013-02-07 2017-07-05 オリンパス株式会社 光源撮像装置
JP6538634B2 (ja) * 2016-09-30 2019-07-03 富士フイルム株式会社 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
WO2018066318A1 (ja) * 2016-10-05 2018-04-12 富士フイルム株式会社 プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010116902A1 (ja) 2009-04-09 2010-10-14 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2011036361A (ja) 2009-08-10 2011-02-24 Fujifilm Corp 内視鏡装置
JP2012080939A (ja) 2010-10-07 2012-04-26 Hoya Corp 診断システム
JP2012130429A (ja) * 2010-12-20 2012-07-12 Fujifilm Corp 内視鏡装置
JP2013017769A (ja) 2011-07-14 2013-01-31 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
WO2013140667A1 (ja) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置
JP2016087370A (ja) 2014-11-04 2016-05-23 株式会社スタットラボ 大腸拡大内視鏡画像診断支援装置
JP2015061618A (ja) 2014-11-10 2015-04-02 富士フイルム株式会社 内視鏡装置
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
JP2015231576A (ja) 2015-09-24 2015-12-24 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3533382A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234815A1 (ja) * 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JPWO2019234815A1 (ja) * 2018-06-05 2021-05-13 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7019039B2 (ja) 2018-06-05 2022-02-14 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
US11717144B2 (en) 2018-06-05 2023-08-08 Olympus Corporation Endoscope apparatus, operating method of endoscope apparatus, and information storage medium

Also Published As

Publication number Publication date
EP3533382A4 (en) 2019-12-04
EP3533382A1 (en) 2019-09-04
JP6706339B2 (ja) 2020-06-03
JPWO2018079116A1 (ja) 2019-09-12
US20190239736A1 (en) 2019-08-08
US10842366B2 (en) 2020-11-24

Similar Documents

Publication Publication Date Title
JP6768871B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6823072B2 (ja) プロセッサ装置及び内視鏡システム
JP6285383B2 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び内視鏡システムの作動方法
CN109068945B (zh) 图像处理装置、图像处理装置的工作方法及记录介质
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP5789280B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP6243364B2 (ja) 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP6469558B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5892985B2 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法
WO2017183324A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP5869541B2 (ja) 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
CN111107778B (zh) 医疗图像处理系统、内窥镜系统、诊断支持装置及医疗服务支持装置
JP6461760B2 (ja) 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム
CN106037618A (zh) 内窥镜用光源装置和内窥镜系统
JP2020065685A (ja) 内視鏡システム
JP6706339B2 (ja) 内視鏡システム
US11363943B2 (en) Endoscope system and operating method thereof
WO2022071413A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JP6081622B2 (ja) 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
JP2016144507A (ja) 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17864310

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018547187

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017864310

Country of ref document: EP

Effective date: 20190527