WO2019208011A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2019208011A1
WO2019208011A1 PCT/JP2019/010619 JP2019010619W WO2019208011A1 WO 2019208011 A1 WO2019208011 A1 WO 2019208011A1 JP 2019010619 W JP2019010619 W JP 2019010619W WO 2019208011 A1 WO2019208011 A1 WO 2019208011A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
illumination light
unit
image data
Prior art date
Application number
PCT/JP2019/010619
Other languages
English (en)
French (fr)
Inventor
山崎 健二
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2020516095A priority Critical patent/JP7105300B2/ja
Priority to CN201980026948.5A priority patent/CN111989027A/zh
Publication of WO2019208011A1 publication Critical patent/WO2019208011A1/ja
Priority to US17/060,509 priority patent/US11915413B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Definitions

  • the present invention relates to an endoscope system, and more particularly to an endoscope system used for observation of a living tissue.
  • Japanese Patent No. 6247610 in an endoscope system, when a high image quality mode is set, an image of a potential lesion that is irradiated with blue limiting light and red light is imaged.
  • a configuration is disclosed in which an image for display is generated using the image signal obtained in this way and the image signal obtained by imaging the possible lesion site irradiated with purple light and green light. Has been.
  • the present invention has been made in view of the above-described circumstances, and an object thereof is to provide an endoscope system capable of reducing the burden on an operator who performs work related to diagnosis of abnormal findings.
  • the endoscope system is capable of generating light of a plurality of different wavelength bands, and the first illumination light for illuminating a subject including a living tissue present in the subject.
  • a light source unit configured to alternately generate the illumination light and the second illumination light, and an imaging unit configured to image return light from the subject irradiated with the illumination light.
  • the image analyzer and the light of one or more predetermined wavelength bands selected from the light of the plurality of wavelength bands are set as the first illumination light, and different wavelength bands are set according to the analysis result.
  • an illumination light setting unit configured to light one or more wavelength bands selected from among the wavelength band of light is set as the second illumination light.
  • the endoscope system is capable of generating light of a plurality of different wavelength bands, and the first illumination light for illuminating a subject including a living tissue present in the subject.
  • a light source unit configured to alternately generate the illumination light and the second illumination light, and an imaging unit configured to image return light from the subject irradiated with the illumination light.
  • the image analysis unit configured to perform the setting, and the light amount ratio of the light of the plurality of wavelength bands included in the first illumination light is set to the first light amount ratio and is included in the second illumination light The amount of light in the plurality of wavelength bands
  • the having an illumination light setting unit configured to set different second light quantity ratio according to the analysis result.
  • the figure which shows the structure of the principal part of the endoscope system which concerns on embodiment The figure which shows an example of the wavelength range
  • the flowchart for demonstrating the specific example of the analysis process performed in the endoscope system which concerns on 3rd Embodiment The figure which shows an example of the illumination light emitted from the light source device of the endoscope system which concerns on the modification of 3rd Embodiment. The figure which shows an example of the illumination light emitted from the light source device of the endoscope system which concerns on the modification of 3rd Embodiment.
  • (First embodiment) 1 to 5 relate to a first embodiment of the present invention.
  • the endoscope system 1 can be inserted into a subject, and is configured to image a subject such as a living tissue existing in the subject and output an imaging signal.
  • the light source device 3 configured to supply illumination light used for observation of the subject via the light guide 7 inserted and arranged inside the endoscope 2, and the endoscope 2
  • a processor 4 configured to generate and output an observation image or the like according to an output imaging signal
  • a display device 5 configured to display an observation image output from the processor 4 on a screen, have.
  • Drawing 1 is a figure showing the composition of the important section of the endoscope system concerning an embodiment.
  • the endoscope 2 has an insertion portion 2a formed in an elongated shape that can be inserted into a subject, and an operation portion 2b provided on the proximal end side of the insertion portion 2a. Further, the endoscope 2 is connected to the processor 4 via a universal cable (not shown) in which a signal line used for transmission of various signals such as an imaging signal output from the imaging unit 21 (described later) is incorporated. It is configured to be detachably connected. The endoscope 2 is configured to be detachably connected to the light source device 3 via a light guide cable (not shown) in which at least a part of the light guide 7 is built.
  • the distal end portion 2c of the insertion portion 2a receives the imaging light 21 for imaging a subject including a living tissue present in the subject, the emission end portion of the light guide 7, and the illumination light transmitted by the light guide 7. And an illumination optical system 22 for irradiating the subject.
  • the imaging unit 21 is configured to capture the return light from the subject irradiated with the illumination light from the illumination optical system 22 and output an imaging signal. Specifically, the imaging unit 21 forms an image with an objective optical system 21a configured to form an image of return light emitted from a subject irradiated with illumination light from the illumination optical system 22, and the objective optical system 21a.
  • the imaging device 21b is configured to generate an imaging signal by imaging the returned light and output the generated imaging signal to the processor 4.
  • the imaging element 21b is configured to include an image sensor such as a CCD or a CMOS, for example. Further, on the image pickup surface of the image pickup device 21b, a primary color Bayer array color filter for separating the return light incident from the objective optical system 21a into three colors of red, green, and blue, and light that has passed through the color filter are provided. And a plurality of pixels arranged in a matrix for imaging. Further, the image sensor 21 b is configured to perform an operation according to a control signal output from the processor 4.
  • an image sensor such as a CCD or a CMOS
  • the operation unit 2b is configured to have a shape that can be gripped and operated by the user.
  • the operation unit 2b is provided with a scope switch 23 configured to include one or more switches that can instruct the processor 4 according to a user input operation.
  • a scope memory 24 in which endoscope information including information unique to the endoscope 2 such as a model of the endoscope 2 is stored. It should be noted that the endoscope information stored in the scope memory 24 is stored in the control unit 44 of the processor 4 when the endoscope 2 and the processor 4 are electrically connected and the power of the processor 4 is turned on. Read later.
  • the light source device 3 has a function as a light source unit, can generate light in a plurality of different wavelength bands, and as illumination light for illuminating a subject including a living tissue present in the subject.
  • the illumination light EL1 and the illumination light EL2 (both described later) can be generated alternately.
  • the light source device 3 includes a light emitting unit 31, a multiplexer 32, a condenser lens 33, and a light source control unit 34.
  • the light emitting unit 31 includes a purple LED 31a, a blue LED 31b, a green LED 31c, an amber LED 31d, and a red LED 31e. Moreover, each LED of the light emission part 31 is comprised so that light emission or extinction may be carried out individually according to control of the light source control part 34. Further, each LED of the light emitting unit 31 is configured to emit light with a light emission amount according to the control of the light source control unit 34.
  • the purple LED 31a is configured to generate purple light (hereinafter referred to as V light) having a central wavelength in the purple region.
  • V light purple light
  • the purple LED 31a is configured to generate, as V light, light having a center wavelength set to any one of 400 nm to 420 nm as shown in FIG. 2, for example.
  • the amount of light emitted from the purple LED 31a is defined as the total amount of light obtained by integrating the intensities of light of each wavelength included in the wavelength band of V light.
  • FIG. 2 is a diagram illustrating an example of a wavelength band of light emitted from each LED provided in the light source device of the endoscope system according to the embodiment.
  • the blue LED 31b is configured to generate blue light (hereinafter referred to as B light) having a center wavelength in a blue region longer than the V light. Specifically, the blue LED 31b is configured to generate, as B light, light whose center wavelength is set to any one of 440 nm to 470 nm as shown in FIG. 2, for example.
  • the amount of light emitted from the blue LED 31b is defined as the total amount of light obtained by integrating the intensities of the light of each wavelength included in the wavelength band of B light.
  • the green LED 31c is configured to generate green light (hereinafter referred to as G light) having a center wavelength in a green region longer than the B light. Specifically, the green LED 31c is configured to generate, as G light, light whose center wavelength is set to any one of 510 nm to 580 nm as shown in FIG. 2, for example. Note that the amount of light emitted from the green LED 31c is defined as the total amount of light obtained by integrating the intensities of light of each wavelength included in the wavelength band of G light.
  • the amber LED 31d is configured to generate amber light (hereinafter referred to as A light) having a center wavelength in the amber color region longer than the G light. Specifically, the amber LED 31d is configured to generate, as A light, light whose center wavelength is set to any one of 590 nm to 610 nm as shown in FIG. 2, for example. Note that the light emission amount of the amber LED 31d is defined as the total light amount obtained by integrating the intensities of the light of each wavelength included in the wavelength band of the A light.
  • the red LED 31e is configured to generate red light (hereinafter referred to as R light) having a center wavelength in a red region longer than the A light. Specifically, the red LED 31e is configured to generate, as R light, light whose center wavelength is set to any one of 620 nm to 660 nm as shown in FIG. 2, for example. Note that the amount of light emitted from the red LED 31e is defined as the total amount of light obtained by integrating the intensities of light of each wavelength included in the wavelength band of R light.
  • the multiplexer 32 is configured to be able to multiplex each light emitted from the light emitting unit 31 so as to enter the condenser lens 33.
  • the condensing lens 33 is configured to collect the light incident through the multiplexer 32 and output it to the incident end of the light guide 7.
  • the light source controller 34 includes, for example, a control circuit.
  • the light source control unit 34 is configured to drive each LED of the light emitting unit 31 in accordance with a control signal output from the processor 4.
  • the processor 4 includes a signal processing unit 41, an image processing unit 42, an observation image generation unit 43, and a control unit 44.
  • the signal processing unit 41 includes, for example, a signal processing circuit. Further, the signal processing unit 41 generates image data by performing predetermined signal processing such as A / D conversion on the imaging signal output from the endoscope 2, and the generated image data is frame by frame. It is configured to output to the image processing unit 42 and the control unit 44, respectively.
  • the image processing unit 42 includes, for example, an image processing circuit.
  • the image processing unit 42 also includes V included in the return light of the illumination light emitted to the subject based on the image data output from the signal processing unit 41 and the control signal output from the control unit 44.
  • the image processing unit 42 is configured to perform predetermined image processing on the image data of each color component generated as described above and output the image data to the observation image generating unit 43.
  • the observation image generation unit 43 includes, for example, an image generation circuit.
  • the observation image generation unit 43 generates an observation image using the image data output from the image processing unit 42 based on the control signal output from the control unit 44, and displays the generated observation image frame by frame. It is configured to output to the device 5.
  • the control unit 44 includes, for example, a control circuit.
  • the control unit 44 is configured to generate and output a control signal for performing an operation in accordance with an instruction from the scope switch 23.
  • the control unit 44 is configured to generate and output a control signal for controlling the operation of the image sensor 21b. Further, the control unit 44 reads the endoscope information stored in the scope memory 24 when the endoscope 2 and the processor 4 are electrically connected and the power of the processor 4 is turned on. It is configured.
  • the control unit 44 is configured to generate a control signal for alternately generating the illumination light EL1 and the illumination light EL2 and to output the control signal to the light source control unit 34.
  • the control unit 44 is configured to generate a control signal for performing an operation according to the illumination lights EL1 and EL2 and to output the control signal to the image processing unit 42 and the observation image generation unit 43, respectively.
  • the control unit 44 includes an image analysis unit 44a, an illumination light setting unit 44b, and a control signal generation unit 44c.
  • FIG. 3 is a diagram for explaining an example of a configuration of a control unit provided in the processor of the endoscope system according to the embodiment.
  • the image analysis unit 44a performs analysis processing on the image data output from the signal processing unit 41 in response to the irradiation of the illumination light EL1, and displays analysis result information indicating the analysis result obtained by the analysis processing as illumination light. It is configured to output to the setting unit 44b. A specific example of the operation performed in the image analysis unit 44a will be described later.
  • the illumination light setting unit 44b is a light of one or more predetermined colors selected from five colors of light (V light, B light, G light, A light, and R light) emitted from each LED of the light emitting unit 31. Is set as the illumination light EL1.
  • the illumination light setting unit 44b selects one or more colors of light from the five colors emitted from each LED of the light emitting unit 31 based on the analysis result information output from the image analysis unit 44a.
  • the light of one or more selected colors is set as the illumination light EL2.
  • the illumination light setting unit 44b includes an analysis result indicated by the latest analysis result information output from the image analysis unit 44a and an analysis result indicated by past analysis result information stored in a memory or the like (not shown).
  • the illumination light setting unit 44b alternately outputs illumination light setting information indicating the setting content of the illumination light EL1 and illumination light setting information indicating the setting content of the illumination light EL2 to the control signal generation unit 44c. It is configured. A specific example of the operation performed in the illumination light setting unit 44b will be described later.
  • the control signal generation unit 44c Based on the illumination light setting information output from the illumination light setting unit 44b, the control signal generation unit 44c generates a control signal for generating illumination light EL1 and a control signal for generating illumination light EL2 described later. It is configured to alternately generate and output to the light source control unit 34. Further, the control signal generation unit 44c generates a control signal for performing an operation according to the illumination lights EL1 and EL2 based on the illumination light setting information output from the illumination light setting unit 44b, and the image processing unit 42 and Each is configured to output to the observation image generation unit 43. A specific example of the operation performed in the control signal generation unit 44c will be described later.
  • the switching speed when the control signal generation unit 44c alternately generates the illumination lights EL1 and EL2 is set to twice the set value of the frame rate when the observation image is displayed on the display device 5. It is only necessary to generate a control signal for output to the light source control unit 34, the image processing unit 42, and the observation image generation unit 43. Specifically, the control signal generation unit 44c generates, for example, a control signal that is generated while switching the illumination lights EL1 and EL2 every 1/60 seconds based on the illumination light setting information output from the illumination light setting unit 44b. May be generated and output to the light source control unit 34, and a control signal for outputting the observation image to the display device 5 at 30 fps may be generated and output to the image processing unit 42 and the observation image generation unit 43. .
  • each unit of the processor 4 may be configured as an individual electronic circuit, or may be configured as a circuit block in an integrated circuit such as an FPGA (Field Programmable Gate Array). Good.
  • the processor 4 may include one or more CPUs.
  • the processor 4 stores a program for causing the signal processing unit 41, the image processing unit 42, the observation image generation unit 43, and the control unit 44 to execute functions.
  • the program may be read from a storage medium (not shown) or the like, and may be operated according to the read program.
  • the display device 5 includes, for example, an LCD (liquid crystal display) and the like, and is configured to display an observation image output from the processor 4.
  • LCD liquid crystal display
  • FIG. 4 is a flowchart illustrating an outline of operations performed in the endoscope system according to the embodiment.
  • FIG. 5 is a flowchart for explaining a specific example of analysis processing performed in the endoscope system according to the first embodiment.
  • the illumination light setting unit 44b for example, has five colors emitted from each LED of the light emitting unit 31 when an instruction to start observation with the endoscope 2 is given in response to a user's operation of the scope switch 23.
  • the G light and R light selected from the light are set as the illumination light EL1, and the illumination light setting information ESA indicating the setting content of the illumination light EL1 is output to the control signal generation unit 44c.
  • the illumination light setting unit 44b may set the B light, the G light, and the R light as the illumination light EL1.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESA output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34. Further, the control signal generation unit 44c generates a control signal for stopping the generation of the image data of each color component according to the return light of the illumination light EL1 based on the illumination light setting information ESA output from the illumination light setting unit 44b. Generate and output to the image processing unit 42. Further, the control signal generation unit 44c generates a control signal for stopping the generation of the observation image during the irradiation period of the illumination light EL1 based on the illumination light setting information ESA output from the illumination light setting unit 44b. The data is output to the generation unit 43.
  • the illumination light EL1 including the G light and the R light is irradiated to the subject including the living tissue, and the return from the subject.
  • An imaging signal obtained by imaging light is output from the imaging unit 21, and image data ID ⁇ b> 1 generated according to the imaging signal is output from the signal processing unit 41.
  • the image analysis unit 44a performs analysis processing on the image data ID1 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and sets analysis result information ARA indicating the analysis result obtained by the analysis processing as illumination light setting. It outputs to the part 44b (step S1 of FIG. 4).
  • the image analysis unit 44a performs processing for dividing the image data ID1 output from the signal processing unit 41 into a plurality of regions (step S11 in FIG. 5). According to such processing, for example, the image data ID1 output from the signal processing unit 41 is divided into n (n ⁇ 2) areas Hi (1 ⁇ i ⁇ n).
  • the image analysis unit 44a performs processing for detecting the average color tone of each of the plurality of regions Hi obtained through the processing in step S11 in FIG. 5 (step S12 in FIG. 5).
  • the image analysis unit 44a performs, for example, the calculation of the following formula (1) in each of s pixels excluding the pixel in which halation is generated from all the pixels included in one region Hi.
  • the calculation value CVA is calculated, and the average value AVA of the calculation value CVA calculated in each of the s pixels is detected as a value indicating the average color tone of the one region Hi.
  • the image analysis unit 44a obtains the calculation result of the average value AVA in each of the plurality of areas Hi obtained by repeating the above process n times as the detection result of the average color tone in each of the plurality of areas Hi. To do.
  • the image analysis unit 44a performs a process for determining the color tone of each of the plurality of regions Hi based on the detection result of the average color tone of each of the plurality of regions Hi obtained through the process of step S12 in FIG. 5 step S13).
  • the image analysis unit 44a determines that the color tone of the one region Hi is a low-saturation red tone. Get the judgment result. For example, when the average value AVA calculated in one region Hi is larger than the threshold value THB (> THA), the image analysis unit 44a determines that the color tone of the one region Hi is a high-saturation red tone. Get the result.
  • the image analysis unit 44a for example, when the average value AVA calculated in one region Hi belongs to a range between the threshold value THA and the threshold value THB, the color tone of the one region Hi is medium. The determination result that the saturation is red is obtained.
  • the image analysis unit 44a evaluates the color tone of the image data ID1 that is the processing target in step S11 in FIG. 5 based on the determination result of the color tone in each of the plurality of regions Hi obtained through the processing in step S13 in FIG. Is performed (step S14 in FIG. 5).
  • the image analysis unit 44a for example, out of n regions Hi obtained by dividing the image data ID1, the number of regions Hi determined to be low saturation red tone is n / 2.
  • the number is larger (occupies the majority)
  • an evaluation result is acquired that the color tone of the image data ID1 corresponds to the color tone of the mucous membrane that has faded.
  • the image analysis unit 44a for example, out of n regions Hi obtained by dividing the image data ID1, the number of regions Hi determined to be a high-saturation red tone is greater than n / 2 (a majority number). If the image data ID1 is in the color, the color tone of the image data ID1 corresponds to the reddish mucous membrane color tone.
  • the image analysis unit 44a has, for example, more than n / 2 regions Hi determined to be medium-saturation red tone among n regions Hi obtained by dividing the image data ID1 ( And the evaluation result that the color tone of the image data ID1 corresponds to the normal color tone of the mucous membrane is acquired. Further, for example, in the n areas Hi obtained by dividing the image data ID1, the image analysis unit 44a determines the number of areas Hi determined to be low chroma red tone and the high chroma red tone. When the number of areas Hi and the number of areas Hi determined to be medium-saturation red tone are both n / 2 or less (less than a majority), the color tone of the image data ID1 is a normal mucous membrane. An evaluation result corresponding to the color tone is acquired.
  • the image analysis unit 44a of the present embodiment performs an analysis process as shown in the flowchart of FIG. 5 on the image data ID1 output from the signal processing unit 41, and the evaluation result relating to the color tone of the image data ID1. Is acquired as an analysis result of the analysis process, and analysis result information ARA indicating the acquired analysis result is output to the illumination light setting unit 44b.
  • the image analysis unit 44a of the present embodiment analyzes the image data ID1 obtained by imaging the subject including the living tissue at the time of irradiation with the illumination light EL1, so that the color tone of the image data ID1 corresponds to an abnormal finding.
  • the evaluation result relating to whether it belongs to the color tone corresponding to the normal tone or the color tone to be obtained is acquired as the analysis result relating to the presence or absence of an abnormal finding in the image data ID1.
  • the illumination light setting unit 44b illuminates one or more colors of light selected from the five colors of light emitted from each LED of the light emitting unit 31 based on the analysis result information ARA output from the image analysis unit 44a.
  • the illumination light setting information ESB indicating the setting content of the illumination light EL2 is output to the control signal generation unit 44c.
  • the illumination light setting unit 44b detects, based on the analysis result information ARA output from the image analysis unit 44a, for example, that the color tone of the image data ID1 corresponds to the color tone of the mucous membrane that has faded
  • the V light, G light and R light selected from the five colors of light emitted from each LED of the light emitting unit 31 are set as illumination light EL2, and illumination light setting information ESB indicating the setting content of the illumination light EL2 is set. It outputs to the control signal generation part 44c.
  • the illumination light setting unit 44b detects, based on the analysis result information ARA output from the image analysis unit 44a, for example, that the color tone of the image data ID1 corresponds to the reddish mucous membrane color tone
  • the light emitting unit 31 The B light, G light and A light selected from the five colors of light emitted from each LED are set as illumination light EL2, and illumination light setting information ESB indicating the setting content of the illumination light EL2 is generated as a control signal.
  • the illumination light setting unit 44b for example, when detecting that the color tone of the image data ID1 corresponds to the normal color tone of the mucous membrane based on the analysis result information ARA output from the image analysis unit 44a.
  • the B light, G light, and R light selected from the five colors of light emitted from each LED are set as illumination light EL2, and illumination light setting information ESB indicating the setting content of the illumination light EL2 is generated as a control signal.
  • illumination light setting information ESB indicating the setting content of the illumination light EL2 is generated as a control signal.
  • the illumination light setting unit 44b of the present embodiment is emitted from each LED of the light emitting unit 31 so as to have different wavelength bands according to the analysis result indicated by the analysis result information ARA output from the image analysis unit 44a.
  • Light in one or more wavelength bands selected from among the five colors of light is set as illumination light EL2.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL2 based on the illumination light setting information ESB output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34 (step of FIG. 4). S3).
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL2 based on the illumination light setting information ESB output from the illumination light setting unit 44b. Are output to the image processing unit 42 (step S3 in FIG. 4).
  • control signal generation unit 44c uses the image data of each color component output from the image processing unit 42 when irradiating the illumination light EL2 based on the illumination light setting information ESB output from the illumination light setting unit 44b. Is generated and output to the observation image generation unit 43 (step S3 in FIG. 4).
  • the illumination light setting unit 44b and the control signal generation unit 44c for example, when the color tone of the image data ID1 corresponds to the color tone of the mucous membrane that has faded, the V light, the G light, An imaging signal obtained by irradiating a subject including biological tissue with illumination light EL2 including R light and imaging return light from the subject is output from the imaging unit 21, and an image generated according to the imaging signal The data ID2 is output from the signal processing unit 41.
  • the illumination light setting unit 44b and the control signal generation unit 44c as described above, for example, when the color tone of the image data ID1 corresponds to the reddish mucous membrane color tone, An imaging signal obtained by irradiating the subject including the living tissue with the illumination light EL2 including the A light and imaging the return light from the subject is output from the imaging unit 21, and an image generated according to the imaging signal The data ID2 is output from the signal processing unit 41.
  • an imaging signal obtained by irradiating a subject including biological tissue with illumination light EL2 including R light and imaging return light from the subject is output from the imaging unit 21, and an image generated according to the imaging signal
  • the data ID2 is output from the signal processing unit 41.
  • the image processing unit 42 Based on the image data ID2 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, the image processing unit 42 corresponds to, for example, the color tone of the mucous membrane in which the color tone of the image data ID1 has faded.
  • Each of the generated image data is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the image processing unit 42 for example, based on the image data ID2 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, for example, the color tone of the mucous membrane in which the color tone of the image data ID1 is reddened.
  • the blue component image data IDB2 included in the image data ID2 the green component image data IDG2 included in the image data ID2
  • each of the generated image data is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the image processing unit 42 for example, based on the image data ID2 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, the color tone of the image data ID1 is a normal mucous membrane color tone.
  • the blue component image data IDB2 included in the image data ID2, the green component image data IDG2 included in the image data ID2, and the red component image data IDR2 included in the image data ID2. are generated, and each of the generated image data is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the observation image generation unit 43 displays the image data IDV2 as B (blue) of the display device 5 when the color tone of the image data ID1 corresponds to the color tone of the mucous membrane that has faded.
  • the observation image KGA is generated by assigning the image data IDG2 to the G (green) channel of the display device 5 and assigning the image data IDR2 to the R (red) channel of the display device 5 and assigning the image data IDG2 to the channel. KGA is output to the display device 5.
  • the observation image generation unit 43 uses the image data IDB2 as the B channel of the display device 5 when the color tone of the image data ID1 corresponds to the color tone of the mucous membrane that is red.
  • the image data IDG2 is assigned to the G channel of the display device 5 and the image data IDA2 is assigned to the R channel of the display device 5 to generate the observation image KGB, and the generated observation image KGB is output to the display device 5 To do.
  • the observation image generation unit 43 uses, for example, the image data IDB2 as the B channel of the display device 5 when the color tone of the image data ID1 corresponds to the normal color tone of the mucous membrane.
  • the image data IDG2 is assigned to the G channel of the display device 5 and the image data IDR2 is assigned to the R channel of the display device 5 to generate the observation image KGC, and the generated observation image KGC is output to the display device 5 To do.
  • the illumination light setting unit 44b outputs the illumination light setting information ESB obtained through the process of step S2 in FIG. 4 to the control signal generation unit 44c, and then outputs the illumination light setting information ESA to the control signal generation unit 44c again. .
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESA output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34. Further, the control signal generation unit 44c generates a control signal for stopping the generation of the image of each color component according to the return light of the illumination light EL1, based on the illumination light setting information ESA output from the illumination light setting unit 44b. And output to the image processing unit 42. Further, the control signal generation unit 44c generates a control signal for stopping the generation of the observation image during the irradiation period of the illumination light EL1 based on the illumination light setting information ESA output from the illumination light setting unit 44b. The data is output to the generation unit 43.
  • the image analysis unit 44a performs analysis processing by the same method as step S1 in FIG. 4 on the image data ID1 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and the analysis result obtained by the analysis processing. Is output to the illumination light setting unit 44b (step S4 in FIG. 4).
  • the illumination light setting unit 44b is referred when the analysis result indicated by the latest analysis result information ARBN corresponding to the analysis result information ARB obtained through the process of step S4 in FIG. 4 sets the current illumination light EL2.
  • a process for determining whether or not the analysis result is the same as the analysis result indicated by the past analysis result information ARBP corresponding to the analysis result information ARA or ARB is performed (step S5 in FIG. 4).
  • the illumination light setting unit 44b acquires the determination result that the analysis result indicated by the latest analysis result information ARBN is the same as the analysis result indicated by the past analysis result information ARBP (S5: YES)
  • the process of step S6 in FIG. the illumination light setting unit 44b acquires a determination result that the analysis result indicated by the latest analysis result information ARBN is different from the analysis result indicated by the past analysis result information ARBP (S5: NO). Then, the process of step S7 in FIG.
  • the illumination light setting unit 44b outputs illumination light setting information ESB indicating the same setting content as the current setting content to the control signal generation unit 44c in order to maintain the current setting content of the illumination light EL2 (FIG. 4). Step S6).
  • the illumination light setting unit 44b performs a process for determining whether or not the number of times that the same analysis result as the analysis result indicated by the latest analysis result information ARBN is continuously acquired is equal to or greater than a predetermined number (FIG. 4). Step S7).
  • the illumination light setting unit 44b acquires a determination result that the number of times of continuously acquiring the same analysis result as the analysis result indicated by the latest analysis result information ARBN is less than a predetermined number (S7: NO) Then, the process of step S6 of FIG. Moreover, when the illumination light setting part 44b acquires the determination result that the frequency
  • the control signal generation unit 44c generates illumination light EL2 corresponding to the illumination light setting information ESB based on the illumination light setting information ESB obtained through the process of either step S6 or step S8 of FIG. A control signal is generated and output to the light source controller 34 (step S9 in FIG. 4). Also, based on the illumination light setting information ESB obtained through the process of either step S6 or step S8 in FIG. 4, an operation according to the illumination light setting information ESB (related to generation of an observation image) is performed. Are output to the image processing unit 42 and the observation image generation unit 43 (step S9 in FIG. 4).
  • the processing in steps S4 to S9 in FIG. 4 is repeated until an instruction to end the observation by the endoscope 2 is given according to the operation of the scope switch 23 by the user. Done.
  • the spectrum of the illumination light EL2 is set according to the color tone of the image data ID1 obtained when the subject is irradiated with the illumination light EL1 set to a predetermined spectrum, and the illumination An observation image corresponding to the light EL2 is displayed on the display device 5.
  • the abnormal finding region ABF corresponding to the mucous membrane in which atrophy occurs is included in the image data ID1, the return light of V light strongly scattered on the surface of the mucous membrane is used.
  • the observation image KGA generated using the corresponding image data IDV2 is displayed on the display device 5 (as an observation image corresponding to the illumination light EL2), the visibility of the abnormal finding area ABF can be improved. Further, according to the present embodiment, for example, when the abnormal finding area ABR corresponding to the mucous membrane in which diffuse redness occurs is included in the image data ID1, the A light having a higher extinction coefficient for hemoglobin than the R light. Since the observation image KGB generated by using the image data IDA2 corresponding to the return light is displayed on the display device 5 (as an observation image corresponding to the illumination light EL2), the visibility of the abnormal finding area ABR is improved. be able to. Therefore, according to the present embodiment, it is possible to reduce the burden on the operator who performs work related to diagnosis of abnormal findings.
  • FIG. 6 relates to the second embodiment of the present invention.
  • the outline of the operation of the control unit 44 is the same as the flowchart of FIG. 4, while the details of the operation of the control unit 44 are partially different from those of the first embodiment. Therefore, in the following, an outline of the operation of the control unit 44 will be described with reference to the flowchart of FIG. 4, and a part different from the first embodiment in the details of the operation of the control unit 44 will be mainly described. It shall be.
  • the illumination light setting unit 44b for example, has five colors emitted from each LED of the light emitting unit 31 when an instruction to start observation with the endoscope 2 is given in response to a user's operation of the scope switch 23.
  • the V light, the G light, and the R light selected from the light are set as the illumination light EL1, and the illumination light setting information ESC indicating the setting content of the illumination light EL1 is output to the control signal generation unit 44c.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34.
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b.
  • the control signal generation unit 44c stops the generation of the observation image and is output from the image processing unit 42 during the irradiation period of the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b.
  • a control signal for holding the image data of each color component is generated and output to the observation image generation unit 43.
  • the illumination light EL1 including the V light, the G light, and the R light is irradiated to the subject including the living tissue, and the subject
  • An imaging signal obtained by imaging the return light from the imaging unit 21 is output from the imaging unit 21, and image data ID 3 generated according to the imaging signal is output from the signal processing unit 41.
  • the image processing unit 42 is included in the image data ID3 during the irradiation period of the illumination light EL1 based on the image data ID3 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c.
  • the purple component image data IDV3, the green component image data IDG3 included in the image data ID3, and the red component image data IDR3 included in the image data ID3 are generated, and the generated image data Is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the observation image generation unit 43 Based on the control signal output from the control unit 44, the observation image generation unit 43 outputs image data (image data IDV3, image data IDG3, and image data) of each color component output from the image processing unit 42 during the irradiation period of the illumination light EL1. Holds data IDR3).
  • the image analysis unit 44a performs analysis processing on the image data ID3 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and sets analysis result information ARC indicating the analysis result obtained by the analysis processing as illumination light setting. It outputs to the part 44b (step S1 of FIG. 4).
  • FIG. 6 is a flowchart for explaining a specific example of analysis processing performed in the endoscope system according to the second embodiment.
  • the image analysis unit 44a performs processing for converting the RGB pixel value of each pixel included in the image data ID3 output from the signal processing unit 41 into coordinate values in the L * a * b * color space (FIG. 6). Step S21).
  • the image analysis unit 44a performs a process for extracting a pixel satisfying a predetermined condition from each pixel included in the image data ID3 based on each coordinate value obtained through the process of step S21 in FIG. Step S22 in FIG.
  • the image analysis unit 44a has, for example, an a * value smaller than the average value of the a * values of the pixels included in the image data ID3 among the pixels included in the image data ID3. And the process for extracting the pixel which has b * value larger than the average value of b * value of each pixel contained in the said image data ID3 is performed.
  • the image analysis unit 44a represents the coordinate values (a *, b *) in each pixel included in the image data ID3 with the coordinate values (r, ⁇ ) in the polar coordinate format, and is included in the image data ID3.
  • the coordinate value in the polar coordinate format obtained based on the average value of the a * value and the average value of the b * value of each pixel is expressed by (rt, ⁇ t), it has an r value equal to or greater than the radius rt, and Then, a process for extracting a pixel having a ⁇ value not less than the angle ⁇ t and not more than 90 degrees is performed.
  • the image analysis unit 44a performs a process for obtaining the degree of adjacency AD of each extracted pixel corresponding to a value indicating the index of the adjacent state of each extracted pixel extracted by the process of step S22 of FIG. 6 (FIG. 6). Step S23).
  • the image analysis unit 44a when one or more extraction pixels exist in the vicinity of 8 of one target pixel selected from each extraction pixel, the image analysis unit 44a counts corresponding to the one extraction pixel. Get 1 as the value. Further, for example, when there is no other extracted pixel in the vicinity of 8 of one target pixel selected from the extracted pixels, the image analysis unit 44a acquires 0 as a count value corresponding to the one extracted pixel. To do. Then, the image analysis unit 44a acquires the total of the count values acquired for each target pixel as the adjacency AD.
  • the image analysis unit 44a performs processing for determining the presence / absence of an abnormal finding region in the image data ID3 subjected to processing in step S21 in FIG. 6 based on the adjacency AD obtained through the processing in step S23 in FIG. (Step S24 in FIG. 6).
  • the image analysis unit 44a acquires a determination result that an abnormal finding area is included in the image data ID3. In addition, for example, when the adjacency AD is less than the threshold value THC, the image analysis unit 44a acquires a determination result that the abnormal finding region is not included in the image data ID3.
  • the image analysis unit 44a of the present embodiment performs analysis processing as shown in the flowchart of FIG. 6 on the image data ID3 output from the signal processing unit 41, and the presence or absence of an abnormal finding region in the image data ID3. Is obtained as an analysis result of the analysis processing, and analysis result information ARC indicating the obtained analysis result is output to the illumination light setting unit 44b.
  • the image analysis unit 44a according to the present embodiment analyzes the image data ID3 obtained by imaging a subject including a living tissue at the time of irradiation with the illumination light EL1, thereby adding a predetermined color tone (yellow tone) to the image data ID3. ) Is acquired as an analysis result relating to the presence or absence of an abnormal finding in the image data ID3.
  • the image analysis unit 44a of the present embodiment performs determination as to whether or not there is an abnormal finding region in the image data ID3 by performing the following processing instead of performing the processing in steps S23 and S24 in FIG. You may acquire a result.
  • the image analysis unit 44a generates a connected region by connecting one target pixel selected from each extracted pixel and pixels in the vicinity of the one target pixel. Furthermore, the image analysis unit 44a consolidates the plurality of connected regions as one label region by giving the same label to the plurality of connected regions that contact or overlap each other. Then, the image analysis unit 44a obtains a determination result that an abnormal finding area is included in the image data ID3 when the number of label areas having the number of pixels equal to or greater than the predetermined number is greater than or equal to the predetermined number. To do. Further, the image analysis unit 44a obtains a determination result that the abnormal finding area is not included in the image data ID3 when the number of label areas having the number of pixels equal to or larger than the predetermined number is less than the predetermined number. To do.
  • the illumination light setting unit 44b Based on the analysis result information ARC output from the image analysis unit 44a, the illumination light setting unit 44b illuminates one or more colors of light selected from the five colors of light emitted from each LED of the light emitting unit 31. In addition to setting as EL2 (step S2 in FIG. 4), illumination light setting information ESD indicating the setting content of the illumination light EL2 is output to the control signal generation unit 44c.
  • the illumination light setting unit 44b detects that an abnormal finding region is included in the image data ID3 based on the analysis result information ARC output from the image analysis unit 44a, for example, the light emitting unit
  • the V light and the A light selected from among the five colors of light emitted from the respective LEDs 31 are set as the illumination light EL2
  • the illumination light setting information ESD indicating the setting content of the illumination light EL2 is set as the control signal generator 44c. Output to.
  • the illumination light setting unit 44b detects that the abnormal findings area is not included in the image data ID3 based on the analysis result information ARC output from the image analysis unit 44a, for example,
  • the B light and the A light selected from the five colors of light emitted from the LED are set as the illumination light EL2, and the illumination light setting information ESD indicating the setting content of the illumination light EL2 is output to the control signal generation unit 44c. .
  • the illumination light setting unit 44b of the present embodiment is emitted from each LED of the light emitting unit 31 so as to have different wavelength bands according to the analysis result indicated by the analysis result information ARC output from the image analysis unit 44a.
  • Light in one or more wavelength bands selected from among the five colors of light is set as illumination light EL2.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL2 based on the illumination light setting information ESD output from the illumination light setting unit 44b, and outputs the control signal to the light source control unit 34 (step of FIG. 4). S3). Further, the control signal generation unit 44c generates a control signal for generating image data of each color component according to the return light of the illumination light EL2 based on the illumination light setting information ESD output from the illumination light setting unit 44b. Are output to the image processing unit 42 (step S3 in FIG. 4).
  • control signal generation unit 44c is one of the image data of each color component output from the image processing unit 42 when the illumination light EL1 is irradiated based on the illumination light setting information ESD output from the illumination light setting unit 44b.
  • An observation image is generated using the image data of the above color components and the image data of one or more color components among the image data of each color component output from the image processing unit 42 when the illumination light EL2 is irradiated. Control signal is generated and output to the observation image generation unit 43 (step S3 in FIG. 4).
  • the illumination light setting unit 44b and the control signal generation unit 44c as described above, for example, when the image data ID3 includes an abnormal finding region, the illumination includes V light and A light.
  • An image signal obtained by irradiating the subject including the living tissue with the light EL2 and imaging the return light from the subject is output from the imaging unit 21, and the image data ID4 generated according to the image signal is subjected to signal processing. Output from the unit 41.
  • the illumination includes B light and A light.
  • An image signal obtained by irradiating the subject including the living tissue with the light EL2 and imaging the return light from the subject is output from the imaging unit 21, and the image data ID2 generated according to the image signal is subjected to signal processing. Output from the unit 41.
  • the image processing unit 42 when the image data ID3 includes an abnormal finding region based on the image data ID4 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, the image processing unit 42 In addition, a purple component image data IDV4 included in the image data ID4 and an amber component image data IDA4 included in the image data ID4 are respectively generated, and a predetermined value is generated for each of the generated image data. Image processing is performed and output to the observation image generation unit 43. Further, the image processing unit 42 includes, for example, an abnormal finding area in the image data ID3 based on the image data ID4 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c. If not, the blue component image data IDB4 included in the image data ID4 and the amber component image data IDA4 included in the image data ID4 are respectively generated, and for each of the generated image data Predetermined image processing is performed and output to the observation image generation unit 43.
  • the observation image generation unit 43 Based on the control signal output from the control unit 44, the observation image generation unit 43, for example, if the image data ID3 includes an abnormal finding region, the image data IDV3 and IDV4, which are aligned with each other, for each pixel.
  • the image data obtained by addition is assigned to the B channel of the display device 5, the image data IDG3 is assigned to the G channel of the display device 5, and the observation data KGD is generated by assigning the image data IDA4 to the R channel of the display device 5. Then, the generated observation image KGD is output to the display device 5.
  • the observation image generation unit 43 uses the image data IDV3 and IDB4 that are aligned with each other as pixels when the image data ID3 does not include an abnormal finding region, for example.
  • the image data obtained by the addition is assigned to the B channel of the display device 5, the image data IDG3 is assigned to the G channel of the display device 5, and the image data IDR3 and IDA4 aligned with each other are added for each pixel.
  • An observation image KGE is generated by assigning the obtained image data to the R channel of the display device 5, and the generated observation image KGE is output to the display device 5.
  • the illumination light setting unit 44b outputs the illumination light setting information ESD obtained through the process of step S2 of FIG. 4 to the control signal generation unit 44c, and then outputs the illumination light setting information ESC to the control signal generation unit 44c again. .
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34.
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b.
  • the control signal generation unit 44c stops the generation of the observation image and is output from the image processing unit 42 during the irradiation period of the illumination light EL1 based on the illumination light setting information ESC output from the illumination light setting unit 44b.
  • a control signal for holding the image data of each color component is generated and output to the observation image generation unit 43.
  • the image analysis unit 44a performs analysis processing by the same method as step S1 in FIG. 4 on the image data ID3 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and the analysis result obtained by the analysis processing. Is output to the illumination light setting unit 44b (step S4 in FIG. 4).
  • the illumination light setting unit 44b refers to the analysis result indicated by the latest analysis result information ARDN corresponding to the analysis result information ARD obtained through the process of step S4 in FIG. 4 when the current illumination light EL2 is set. Processing for determining whether or not the analysis result is the same as the analysis result indicated by the past analysis result information ARDP corresponding to the analysis result information ARC or ARD (step S5 in FIG. 4).
  • the illumination light setting unit 44b acquires the determination result that the analysis result indicated by the latest analysis result information ARDN is the same as the analysis result indicated by the past analysis result information ARDP (S5: YES), The process of step S6 in FIG. Further, the illumination light setting unit 44b obtains a determination result that the analysis result indicated by the latest analysis result information ARDN is different from the analysis result indicated by the past analysis result information ARDP (S5: NO). Then, the process of step S7 in FIG.
  • the illumination light setting unit 44b outputs illumination light setting information ESD indicating the same setting content as the current setting content to the control signal generation unit 44c in order to maintain the current setting content of the illumination light EL2 (FIG. 4). Step S6).
  • the illumination light setting unit 44b performs a process for determining whether or not the number of times the same analysis result as the analysis result indicated by the latest analysis result information ARDN is continuously acquired is equal to or greater than a predetermined number (FIG. 4). Step S7).
  • the illumination light setting unit 44b acquires a determination result that the number of times of continuously acquiring the same analysis result as the analysis result indicated by the latest analysis result information ARDN is less than a predetermined number (S7: NO) Then, the process of step S6 of FIG. Moreover, when the illumination light setting part 44b acquires the determination result that the frequency
  • the control signal generation unit 44c generates illumination light EL2 corresponding to the illumination light setting information ESD based on the illumination light setting information ESD obtained through the process of either step S6 or step S8 in FIG. A control signal is generated and output to the light source controller 34 (step S9 in FIG. 4). Also, based on the illumination light setting information ESD obtained through the process of either step S6 or step S8 in FIG. 4, an operation according to the illumination light setting information ESD (related to generation of an observation image) is performed. Are output to the image processing unit 42 and the observation image generation unit 43 (step S9 in FIG. 4).
  • the processing in steps S4 to S9 in FIG. 4 is repeated until an instruction to end the observation by the endoscope 2 is given according to the operation of the scope switch 23 by the user. Done.
  • the spectrum of the illumination light EL2 is set according to the presence or absence of an abnormal finding region in the image data ID3 obtained when the subject is irradiated with the illumination light EL1 set to a predetermined spectrum.
  • an observation image corresponding to the illumination light EL2 is displayed on the display device 5.
  • the image data ID3 includes an abnormal finding area ABB that is visualized as a reddening area at the time of white light observation and visualized as Brownish Area at the time of narrowband light observation. Since the observation image KGD in which the abnormal finding area ABB is highlighted in yellow is displayed on the display device 5 (as an observation image corresponding to the illumination light EL2), the visibility of the abnormal finding area ABB can be improved. Further, according to the present embodiment, for example, when the abnormal finding area ABB is included in the image data ID3, the illumination light EL2 including A light is irradiated to the abnormal finding area ABB.
  • the observation image KGD that can visually recognize the state of the deep mucous layer in the abnormal finding region ABB is displayed on the display device 5 (as an observation image corresponding to the illumination light EL2), from the surface layer to the deep layer of the abnormal finding region ABB. Changes in the state of the mucous membrane can be confirmed at once. Therefore, according to the present embodiment, it is possible to reduce the burden on the operator who performs work related to diagnosis of abnormal findings.
  • the illumination light setting unit 44b selects the light of five colors emitted from each LED of the light emitting unit 31.
  • the V light may be set as the illumination light EL2.
  • the observation image generation unit 43 adds image data IDV3 and IDV4, which are aligned with each other, to the B channel and the G channel of the display device 5 respectively.
  • the observation image KGF may be generated by assigning the image data IDG3 to the R channel of the display device 5, respectively.
  • the abnormal finding area ABB when the abnormal finding area ABB is included in the image data ID3, the abnormal finding area ABB is highlighted in brown according to the assignment of the image data described above, and Since the observation image KGF in which the brightness of the entire image including the observation area ABB is improved in accordance with the addition of the image data IDV3 and IDV4 is displayed on the display device 5 (as an observation image in accordance with the illumination light EL2), the abnormality finding The visibility of the area ABB can be improved.
  • the outline of the operation of the control unit 44 is the same as the flowchart of FIG. 4, while the details of the operation of the control unit 44 are partially different from those of the first embodiment. Therefore, in the following, an outline of the operation of the control unit 44 will be described with reference to the flowchart of FIG. 4, and both the first embodiment and the second embodiment of the details of the operation of the control unit 44 will be described.
  • the different parts will be explained mainly.
  • the control unit 44 detects that the endoscope 2 corresponds to a model for the upper digestive tract such as the stomach.
  • the explanation is based on the premise. In the present embodiment, a case where a subject existing in the stomach is imaged and observed will be described as an example.
  • the illumination light setting unit 44b for example, has five colors emitted from each LED of the light emitting unit 31 when an instruction to start observation with the endoscope 2 is given in response to a user's operation of the scope switch 23.
  • the V light, the G light, and the R light selected from the light are set as the illumination light EL1, and the illumination light setting information ESE indicating the setting content of the illumination light EL1 is output to the control signal generation unit 44c.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34.
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b.
  • the control signal generation unit 44c stops the generation of the observation image and is output from the image processing unit 42 during the irradiation period of the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b.
  • a control signal for holding the image data of each color component is generated and output to the observation image generation unit 43.
  • the illumination light EL1 including the V light, the G light, and the R light is irradiated to the subject including the living tissue, and the subject
  • the imaging signal obtained by imaging the return light from the imaging unit 21 is output from the imaging unit 21, and the image data ID 5 generated according to the imaging signal is output from the signal processing unit 41.
  • the image processing unit 42 is included in the image data ID5 during the irradiation period of the illumination light EL1 based on the image data ID5 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c.
  • the purple component image data IDV5, the green component image data IDG5 included in the image data ID5, and the red component image data IDR5 included in the image data ID5 are generated, and the generated image data Is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the observation image generation unit 43 Based on the control signal output from the control unit 44, the observation image generation unit 43 outputs image data (image data IDV5, image data IDG5 and image data) of each color component output from the image processing unit 42 during the irradiation period of the illumination light EL1. Holds data IDR5).
  • the image analysis unit 44a performs analysis processing on the image data ID5 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and sets analysis result information ARE indicating the analysis result obtained by the analysis processing as illumination light setting. It outputs to the part 44b (step S1 of FIG. 4).
  • FIG. 7 is a flowchart for explaining a specific example of analysis processing performed in the endoscope system according to the third embodiment.
  • the image analysis unit 44a performs processing for converting the RGB pixel value of each pixel included in the image data ID 5 output from the signal processing unit 41 into coordinate values in the L * a * b * color space (FIG. 7). Step S31).
  • the image analysis unit 44a generates image data ID5a obtained by extracting only the a * value of each pixel of the image data ID5 based on each coordinate value obtained through the process of step S31 in FIG. 7, and the generated image Processing for applying a spatial filter SFA having a predetermined bandpass characteristic to the data ID 5a is performed (step S32 in FIG. 7).
  • the image analysis unit 44a performs processing for excluding non-processing-target pixels from the pixels included in the image data ID5 based on the coordinate values obtained through the processing of step S31 in FIG. 7 step S33).
  • the image analysis unit 44a for example, from among the pixels included in the image data ID5, the L * value obtained by the process of step S31 in FIG. 7 is equal to or greater than the threshold THD, and FIG.
  • the extracted pixel is excluded as a pixel not to be processed.
  • the image analysis unit 44a is not excluded from the processing target in step S33 in FIG. 7 among the pixels included in the image data ID 5b corresponding to the processing result obtained through the processing in step S32 in FIG. Based on the a * value in the pixel, a process for determining the presence or absence of a dendritic blood vessel in the image data ID5 is performed (step S34 in FIG. 7).
  • the image analysis unit 44a displays a determination result that a dendritic blood vessel is included in the image data ID5. get. For example, when the number of pixels having an a * value greater than 0 is less than the threshold value THE, the image analysis unit 44a obtains a determination result that the image data ID5 does not include a dendritic blood vessel.
  • the image analysis unit 44a performs a process for evaluating the degree of atrophy of the gastric mucosa included in the image data ID5 based on the determination result regarding the presence or absence of the dendritic blood vessel obtained through the process of step S33 of FIG. 7 ( Step S35 in FIG.
  • the image analysis unit 44a for example, when the determination result that the dendritic blood vessel is not included in the image data ID5 is obtained, the degree of atrophy of the gastric mucosa included in the image data ID5 is slight or Get an evaluation result that is either moderate.
  • the image analysis unit 44a indicates that the degree of atrophy of the gastric mucosa included in the image data ID5 is high. Obtain evaluation results.
  • the image analysis unit 44a of the present embodiment performs analysis processing as shown in the flowchart of FIG. 7 on the image data ID5 output from the signal processing unit 41, and the gastric mucosa included in the image data ID5.
  • An evaluation result related to the degree of atrophy is acquired as an analysis result of the analysis process, and analysis result information ARE indicating the acquired analysis result is output to the illumination light setting unit 44b.
  • the image analysis unit 44a of the present embodiment analyzes the image data ID5 obtained by imaging the subject including the living tissue at the time of irradiation with the illumination light EL1, so that the degree of mucosal atrophy included in the image data ID5 is analyzed. Is obtained as an analysis result relating to the presence or absence of abnormal findings in the image data ID5.
  • the image analysis unit 44a of the present embodiment for example, in step S34 of FIG. 7, the evaluation result of the color tone of the image data ID5 obtained by performing the same process as the process of steps S11 to S14 of FIG. Based on the determination result obtained through the process of step S33 in FIG. 7, a process for evaluating the degree of atrophy of the gastric mucosa included in the image data ID5 may be performed.
  • the image data ID5 when the color tone of the image data ID5 corresponds to the color tone of the mucous membrane, and the image data ID5 includes a dendritic blood vessel, the image data ID5 is included in the image data ID5.
  • An evaluation result that the degree of atrophy of the stomach mucosa is high can be obtained.
  • the image analysis unit 44a of the present embodiment reads past endoscopy examination information from a database in which electronic medical records and the like are stored, and is included in the read examination information. Even if a process for evaluating the degree of atrophy of the gastric mucosa included in the image data ID5 is performed based on the information related to gastritis and the determination result obtained through the process of step S33 in FIG. Good.
  • information on the aforementioned gastritis for example, information indicating the degree of atrophy of the gastric mucosa, information indicating the presence or absence of Helicobacter pylori infection, information indicating the presence or absence of Helicobacter pylori eradication, etc. Can be used.
  • the illumination light setting unit 44b Based on the analysis result information ARE output from the image analysis unit 44a, the illumination light setting unit 44b emits light of one or more colors selected from the five colors of light emitted from each LED of the light emitting unit 31. While setting as EL2 (step S2 in FIG. 4), the illumination light setting information ESF indicating the setting content of the illumination light EL2 is output to the control signal generation unit 44c.
  • the illumination light setting unit 44b is based on the analysis result information ARE output from the image analysis unit 44a, for example, the degree of atrophy of the gastric mucosa included in the image data ID5 is either mild or moderate.
  • V light, G light and A light selected from the five colors of light emitted from each LED of the light emitting unit 31 are set as the illumination light EL2, and the setting contents of the illumination light EL2 are set.
  • the illumination light setting information ESF shown is output to the control signal generator 44c.
  • the illumination light setting unit 44b for example, when detecting that the degree of atrophy of the gastric mucosa included in the image data ID5 is high based on the analysis result information ARC output from the image analysis unit 44a.
  • the B light, G light, and A light selected from the five colors of light emitted from each LED 31 are set as the illumination light EL2, and the illumination light setting information ESD indicating the setting content of the illumination light EL2 is set as a control signal. It outputs to the production
  • the illumination light setting unit 44b of the present embodiment is emitted from each LED of the light emitting unit 31 so as to have different wavelength bands according to the analysis result indicated by the analysis result information ARE output from the image analysis unit 44a.
  • Light in one or more wavelength bands selected from among the five colors of light is set as illumination light EL2.
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL2 based on the illumination light setting information ESF output from the illumination light setting unit 44b, and outputs the control signal to the light source control unit 34 (step of FIG. 4). S3).
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL2 based on the illumination light setting information ESF output from the illumination light setting unit 44b. Are output to the image processing unit 42 (step S3 in FIG. 4).
  • control signal generation unit 44c performs observation using at least the image data of each color component output from the image processing unit 42 when the illumination light EL2 is irradiated based on the illumination light setting information ESF output from the illumination light setting unit 44b.
  • a control signal for generating an image is generated and output to the observation image generation unit 43 (step S3 in FIG. 4).
  • the illumination light setting unit 44b and the control signal generation unit 44c as described above, for example, when the degree of atrophy of the gastric mucosa included in the image data ID5 is either mild or moderate
  • the illumination light EL2 including the V light, the G light, and the A light is irradiated onto the subject including the living tissue, and the imaging signal obtained by imaging the return light from the subject is output from the imaging unit 21, and the imaging signal
  • the image data ID 6 generated according to the above is output from the signal processing unit 41.
  • the illumination light setting unit 44b and the control signal generation unit 44c as described above, for example, when the degree of atrophy of the gastric mucosa included in the image data ID5 is high, the B light and the G light And the illumination light EL2 including the A light is applied to the subject including the living tissue, and the imaging signal obtained by imaging the return light from the subject is output from the imaging unit 21, and is generated according to the imaging signal.
  • Image data ID 6 is output from the signal processing unit 41.
  • the image processing unit 42 Based on the image data ID6 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, the image processing unit 42, for example, has a mild degree of atrophy of the gastric mucosa included in the image data ID5. If the image data ID6 is medium, the purple component image data IDV6 included in the image data ID6, the green component image data IDG6 included in the image data ID6, and the amber color included in the image data ID6. The component image data IDA6 is generated, and the generated image data is subjected to predetermined image processing and output to the observation image generation unit 43.
  • the image processing unit 42 for example, based on the image data ID6 output from the signal processing unit 41 and the control signal output from the control signal generation unit 44c, for example, the degree of atrophy of the gastric mucosa included in the image data ID5 Is the altitude, the blue component image data IDB6 included in the image data ID6, the green component image data IDG6 included in the image data ID6, and the amber component image data included in the image data ID6.
  • IDA6 is generated, and predetermined image processing is performed on each of the generated image data and output to the observation image generation unit 43.
  • the image processing unit 42 selects one of the image data IDV6, IDG6, and IDA6.
  • Structure enhancement processing or gradation conversion processing for clarifying the unevenness of the gastric mucosa may be performed on at least one image data.
  • the observation image generation unit 43 displays the image data IDV6 based on the control signal output from the control unit 44, for example, when the degree of atrophy of the gastric mucosa included in the image data ID5 is either mild or moderate.
  • the observation image KGG is generated by assigning the image data IDG6 to the G channel of the display device 5 and assigning the image data IDA6 to the R channel of the display device 5 and assigning the image data IDG6 to the B channel of the device 5. Output to the display device 5.
  • the observation image generation unit 43 for example, when the degree of atrophy of the gastric mucosa included in the image data ID5 is high, the image data IDV5 aligned with each other and Image data obtained by adding IDB6 for each pixel is assigned to the B channel of the display device 5, image data IDG6 is assigned to the G channel of the display device 5, and the image data IDR5 and IDA6 aligned with each other are assigned to each pixel.
  • the observation image KGH is generated by assigning the image data obtained by the addition to the R channel of the display device 5, and the generated observation image KGH is output to the display device 5.
  • the illumination light setting unit 44b outputs the illumination light setting information ESF obtained through the process of step S2 of FIG. 4 to the control signal generation unit 44c, and then outputs the illumination light setting information ESE to the control signal generation unit 44c again. .
  • the control signal generation unit 44c generates a control signal for generating the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b and outputs the control signal to the light source control unit 34.
  • the control signal generation unit 44c generates a control signal for generating image data of each color component corresponding to the return light of the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b.
  • the control signal generation unit 44c stops the generation of the observation image and is output from the image processing unit 42 during the irradiation period of the illumination light EL1 based on the illumination light setting information ESE output from the illumination light setting unit 44b.
  • a control signal for holding the image data of each color component is generated and output to the observation image generation unit 43.
  • the image analysis unit 44a performs analysis processing by the same method as step S1 in FIG. 4 on the image data ID5 corresponding to the image acquired at the time of irradiation with the illumination light EL1, and the analysis result obtained by the analysis processing. Is output to the illumination light setting unit 44b (step S4 in FIG. 4).
  • the illumination light setting unit 44b refers to when the analysis result indicated by the latest analysis result information ARFN corresponding to the analysis result information ARF obtained through the process of step S4 in FIG. 4 sets the current illumination light EL2.
  • the process for determining whether or not the analysis result is the same as the analysis result indicated by the past analysis result information ARFP corresponding to the analysis result information ARE or ARF (step S5 in FIG. 4).
  • the illumination light setting unit 44b acquires the determination result that the analysis result indicated by the latest analysis result information ARFN is the same as the analysis result indicated by the past analysis result information ARFP (S5: YES)
  • the process of step S6 in FIG. the illumination light setting unit 44b acquires a determination result that the analysis result indicated by the latest analysis result information ARFN is different from the analysis result indicated by the past analysis result information ARFP (S5: NO). Then, the process of step S7 in FIG.
  • the illumination light setting unit 44b outputs illumination light setting information ESF indicating the same setting content as the current setting content to the control signal generating unit 44c in order to maintain the current setting content of the illumination light EL2 (FIG. 4). Step S6).
  • the illumination light setting unit 44b performs a process for determining whether or not the number of times the same analysis result as the analysis result indicated by the latest analysis result information ARFN is continuously acquired is equal to or greater than a predetermined number (FIG. 4). Step S7).
  • the illumination light setting unit 44b acquires a determination result that the number of times of continuously acquiring the same analysis result as the analysis result indicated by the latest analysis result information ARFN is less than a predetermined number (S7: NO) Then, the process of step S6 of FIG. Moreover, when the illumination light setting part 44b acquires the determination result that the frequency
  • the control signal generation unit 44c generates illumination light EL2 corresponding to the illumination light setting information ESF based on the illumination light setting information ESF obtained through the process of either step S6 or step S8 of FIG. A control signal is generated and output to the light source controller 34 (step S9 in FIG. 4). Further, based on the illumination light setting information ESF obtained through the process of either step S6 or step S8 in FIG. 4, a control signal for generating an operation according to the illumination light setting information ESF is generated to generate an image. The data is output to the processing unit 42 and the observation image generation unit 43 (step S9 in FIG. 4).
  • the processing in steps S4 to S9 in FIG. 4 is repeated until an instruction to end the observation by the endoscope 2 is given according to the operation of the scope switch 23 by the user. Done.
  • the spectrum of the illumination light EL2 is set according to the degree of atrophy of the gastric mucosa included in the image data ID5 obtained when the subject is irradiated with the illumination light EL1 set to a predetermined spectrum.
  • an observation image corresponding to the illumination light EL ⁇ b> 2 is displayed on the display device 5.
  • the extinction coefficient for hemoglobin is greater than that of R light. Since the observation image KGG generated using the image data IDA6 corresponding to the high return light A is displayed on the display device 5 (as an observation image corresponding to the illumination light EL2), the observation image KGG is high in the abnormal finding region ABT. Visibility of redness indicating a gastritis-like lesion that occurs frequently can be improved.
  • the observation image KGG generated using the image data IDA6 corresponding to the return light of the A light (illumination) Since it is displayed on the display device 5 (as an observation image corresponding to the light EL2), the histological change of the mucosa deep layer in the abnormal finding region ABT can be confirmed. Therefore, according to the present embodiment, it is possible to reduce the burden on the operator who performs work related to diagnosis of abnormal findings.
  • an LED 31ga (not shown) that generates GS light having a center wavelength set on the short wavelength side of the green region, and a center wavelength on the long wavelength side of the green region
  • the LED 31gb (not shown) that generates GL light for which is set may be provided in the light emitting unit 31.
  • the illumination light EL1 including the V light, the GS light, the GL light, and the R light may be irradiated to the subject including the living tissue.
  • the subject when the degree of atrophy of the gastric mucosa is mild or moderate, the subject is irradiated with light containing GL light instead of G light as illumination light EL2, and An observation image in which the green component image data IDGL corresponding to the GL light included in the return light of the illumination light EL ⁇ b> 2 is assigned to the G channel of the display device 5 may be displayed on the display device 5.
  • the illumination light EL2 including GS light and GL light is irradiated to the subject including the living tissue instead of the G light, and the subject
  • the display device displays the green component image data IDGS corresponding to the GS light included in the return light of the illumination light EL2, and the green component image data IDGL corresponding to the GL light included in the return light of the illumination light EL2.
  • the observation image assigned to the 5 G channels may be displayed on the display device 5.
  • the GL light having a narrower bandwidth than the G light and the center wavelength set on the long wavelength side of the green region is irradiated to the subject including the living tissue, for example.
  • An observation image in which the visibility of the deep mucous layer is improved as compared with the observation image displayed on the display device 5 when the subject is irradiated with G light can be displayed on the display device 5.
  • the illumination light setting unit 44b selects one or more colors of light from the five colors emitted from each LED of the light emitting unit 31 when setting the illumination light.
  • the light amount ratio may be changed in a state where the light of the five colors is selected.
  • the illumination light setting unit 44b changes the illumination light EL1 to the illumination light EL1 in a state where V light, B light, G light, A light, and R light are selected as the illumination light EL1.
  • Information ESG may be output.
  • the illumination light setting unit 44b for example, when the atrophy of the gastric mucosa is either mild or moderate, as shown in FIG. 9, V light, B light, G light, A light and R light.
  • the ratio of the B light contained in the illumination light EL2 is made smaller than the ratio of the V light
  • the ratio of the R light contained in the illumination light EL2 is made smaller than the ratio of the A light.
  • the illumination light setting unit 44b selects the above-described illumination in a state where the V light, the B light, the G light, the A light, and the R light are selected as the illumination light EL2 when the gastric mucosa has a high degree of atrophy.
  • the illumination light setting information ESI having the same setting content as the light setting information ESG may be output.
  • FIGS. 8 and 9 are diagrams illustrating an example of illumination light emitted from the light source device of the endoscope system according to the modification of the third embodiment.
  • the illumination light setting unit 44b is not limited to a setting that selectively causes each LED of the light emitting unit 31 to emit light or extinguish when setting illumination light. For example, a setting is made to selectively change the ratio of the amount of emitted light while causing each LED of the light emitting unit 31 to emit light. Further, according to the configuration described above, the illumination light setting unit 44b sets the light amount ratio of the light of each color included in the illumination light EL1 to the light amount ratio ERM and the light amount of the light of each color included in the illumination light EL2. The ratio is set to one of the light quantity ratios ERM and ERN, which are different light quantity ratios depending on the evaluation result related to the degree of mucosal atrophy included in the image data ID5.
  • the present invention may be applied to imaging and observing a subject existing inside the large intestine. Further, in such a case, for example, by appropriately changing the processing of the flowchart of FIG. 7, an evaluation in which the state of the intestinal mucosa included in the image data ID 5 is evaluated according to the endoscopic finding classification such as Matts classification. The result should be obtained.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡システムは、互いに異なる複数の波長帯域の光を発生可能であるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、第1の照明光及び第2の照明光を交互に発生可能な光源部と、照明光が照射された被写体を撮像する撮像部と、第1の照明光の照射時に被写体を撮像して得られた第1の画像を解析することにより、第1の画像における異常所見の有無に係る解析結果を取得する画像解析部と、複数の波長帯域の光の中から選択した所定の1つ以上の波長帯域の光を前記第1の照明光として設定するとともに、解析結果に応じて異なる波長帯域を有するように複数の波長帯域の光の中から選択した1つ以上の波長帯域の光を前記第2の照明光として設定する照明光設定部と、を有する。

Description

内視鏡システム
 本発明は、内視鏡システムに関し、特に、生体組織の観察に用いられる内視鏡システムに関するものである。 
 医療分野の内視鏡観察においては、被検体内に存在する発赤等の異常所見を含む被写体に対し、特定の波長の照明光を照射して観察を行うような技術が従来知られている。
 具体的には、例えば、日本国特許6247610号公報には、内視鏡システムにおいて、高画質モードに設定されている場合に、青色制限光及び赤色光が照射されている病変可能性部位を撮像して得られた画像信号と、紫色光及び緑色光が照射されている当該病変可能性部位を撮像して得られた画像信号と、を用いて表示用の画像を生成するような構成が開示されている。
 しかし、日本国特許6247610号公報に開示された構成によれば、高画質モード時に病変可能性部位に対して照射される光の種類が固定されていることに起因し、当該病変可能性部位の観察に適さない画像が表示されてしまうおそれがある、という問題点が生じている。
 そのため、日本国特許6247610号公報に開示された構成によれば、異常所見の診断に係る作業を行う術者に対して過度な負担を強いてしまう場合がある、という前述の問題点に応じた課題が生じている。
 本発明は、前述した事情に鑑みてなされたものであり、異常所見の診断に係る作業を行う術者の負担を軽減可能な内視鏡システムを提供することを目的としている。
 本発明の一態様の内視鏡システムは、互いに異なる複数の波長帯域の光を発生することができるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、第1の照明光及び第2の照明光を交互に発生することができるように構成された光源部と、前記照明光が照射された前記被写体からの戻り光を撮像するように構成された撮像部と、前記第1の照明光の照射時に前記被写体を撮像して得られた第1の画像を解析することにより、前記第1の画像における異常所見の有無に係る解析結果を取得するように構成された画像解析部と、前記複数の波長帯域の光の中から選択した所定の1つ以上の波長帯域の光を前記第1の照明光として設定するとともに、前記解析結果に応じて異なる波長帯域を有するように前記複数の波長帯域の光の中から選択した1つ以上の波長帯域の光を前記第2の照明光として設定するように構成された照明光設定部と、を有する。
 本発明の一態様の内視鏡システムは、互いに異なる複数の波長帯域の光を発生することができるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、第1の照明光及び第2の照明光を交互に発生することができるように構成された光源部と、前記照明光が照射された前記被写体からの戻り光を撮像するように構成された撮像部と、前記第1の照明光の照射時に前記被写体を撮像して得られた第1の画像を解析することにより、前記第1の画像に含まれる生体組織における異常所見の有無に係る解析結果を取得するように構成された画像解析部と、前記第1の照明光に含まれる前記複数の波長帯域の光の光量比を第1の光量比に設定するとともに、前記第2の照明光に含まれる前記複数の波長帯域の光の光量比を前記解析結果に応じて異なる第2の光量比に設定するように構成された照明光設定部と、を有する。
実施形態に係る内視鏡システムの要部の構成を示す図。 実施形態に係る内視鏡システムの光源装置に設けられた各LEDから発せられる光の波長帯域の一例を示す図。 実施形態に係る内視鏡システムのプロセッサに設けられた制御部の構成の一例を説明するための図。 実施形態に係る内視鏡システムにおいて行われる動作の概要を示すフローチャート。 第1の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャート。 第2の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャート。 第3の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャート。 第3の実施形態の変形例に係る内視鏡システムの光源装置から発せられる照明光の一例を示す図。 第3の実施形態の変形例に係る内視鏡システムの光源装置から発せられる照明光の一例を示す図。
 以下、本発明の実施形態について、図面を参照しつつ説明を行う。
(第1の実施形態)
 図1から図5は、本発明の第1の実施形態に係るものである。
 内視鏡システム1は、図1に示すように、被検体内に挿入可能であるとともに、当該被検体内に存在する生体組織等の被写体を撮像して撮像信号を出力するように構成された内視鏡2と、内視鏡2の内部に挿通配置されたライトガイド7を介して当該被写体の観察に用いられる照明光を供給するように構成された光源装置3と、内視鏡2から出力される撮像信号に応じた観察画像等を生成して出力するように構成されたプロセッサ4と、プロセッサ4から出力される観察画像を画面上に表示するように構成された表示装置5と、を有している。図1は、実施形態に係る内視鏡システムの要部の構成を示す図である。
 内視鏡2は、被検体内に挿入可能な細長形状に形成された挿入部2aと、挿入部2aの基端側に設けられた操作部2bと、を有している。また、内視鏡2は、例えば、撮像部21(後述)から出力される撮像信号等の種々の信号の伝送に用いられる信号線が内蔵されたユニバーサルケーブル(不図示)を介し、プロセッサ4に着脱可能に接続されるように構成されている。また、内視鏡2は、ライトガイド7の少なくとも一部が内蔵されたライトガイドケーブル(不図示)を介し、光源装置3に着脱可能に接続されるように構成されている。
 挿入部2aの先端部2cには、被検体内に存在する生体組織を含む被写体を撮像するための撮像部21と、ライトガイド7の出射端部と、ライトガイド7により伝送された照明光を被写体へ照射する照明光学系22と、が設けられている。
 撮像部21は、照明光学系22からの照明光が照射された被写体からの戻り光を撮像して撮像信号を出力するように構成されている。具体的には、撮像部21は、照明光学系22からの照明光が照射された被写体から発せられる戻り光を結像するように構成された対物光学系21aと、対物光学系21aにより結像された戻り光を撮像することにより撮像信号を生成し、当該生成した撮像信号をプロセッサ4へ出力するように構成された撮像素子21bと、を有している。
 撮像素子21bは、例えば、CCDまたはCMOSのようなイメージセンサを具備して構成されている。また、撮像素子21bの撮像面には、対物光学系21aから入射した戻り光を赤色、緑色及び青色の3色に分光するための原色ベイヤー配列のカラーフィルタと、当該カラーフィルタを通過した光を撮像するためにマトリクス状に配設された複数の画素と、が設けられている。また、撮像素子21bは、プロセッサ4から出力される制御信号に応じた動作を行うように構成されている。
 操作部2bは、ユーザが把持して操作することが可能な形状を具備して構成されている。また、操作部2bには、ユーザの入力操作に応じた指示をプロセッサ4に対して行うことが可能な1つ以上のスイッチを具備して構成されたスコープスイッチ23が設けられている。
 操作部2bの内部には、内視鏡2の機種等のような内視鏡2に固有の情報を含む内視鏡情報が格納されたスコープメモリ24が設けられている。なお、スコープメモリ24に格納された内視鏡情報は、内視鏡2とプロセッサ4とが電気的に接続され、かつ、プロセッサ4の電源がオンされた際に、プロセッサ4の制御部44(後述)により読み出される。
 光源装置3は、光源部としての機能を有し、互いに異なる複数の波長帯域の光を発生することができるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、照明光EL1及び照明光EL2(いずれも後述)を交互に発生することができるように構成されている。また、光源装置3は、発光部31と、合波器32と、集光レンズ33と、光源制御部34と、を有して構成されている。
 発光部31は、紫色LED31aと、青色LED31bと、緑色LED31cと、琥珀色LED31dと、赤色LED31eと、を有して構成されている。また、発光部31の各LEDは、光源制御部34の制御に応じて個別に発光または消光するように構成されている。また、発光部31の各LEDは、光源制御部34の制御に応じた発光光量で発光するように構成されている。
 紫色LED31aは、紫色域に中心波長を有する紫色光(以降、V光と称する)を発生するように構成されている。具体的には、紫色LED31aは、例えば、図2に示すような、中心波長が400nm~420nmのうちのいずれかの波長に設定された光をV光として発生するよう構成されている。なお、紫色LED31aの発光光量は、V光の波長帯域に含まれる各波長の光の強度を積算して得られる総光量として規定される。図2は、実施形態に係る内視鏡システムの光源装置に設けられた各LEDから発せられる光の波長帯域の一例を示す図である。
 青色LED31bは、V光よりも長波長側の青色域に中心波長を有する青色光(以降、B光と称する)を発生するように構成されている。具体的には、青色LED31bは、例えば、図2に示すような、中心波長が440nm~470nmのうちのいずれかの波長に設定された光をB光として発生するよう構成されている。なお、青色LED31bの発光光量は、B光の波長帯域に含まれる各波長の光の強度を積算して得られる総光量として規定される。
 緑色LED31cは、B光よりも長波長側の緑色域に中心波長を有する緑色光(以降、G光と称する)を発生するように構成されている。具体的には、緑色LED31cは、例えば、図2に示すような、中心波長が510nm~580nmのうちのいずれかの波長に設定された光をG光として発生するよう構成されている。なお、緑色LED31cの発光光量は、G光の波長帯域に含まれる各波長の光の強度を積算して得られる総光量として規定される。
 琥珀色LED31dは、G光よりも長波長側の琥珀色域に中心波長を有する琥珀色光(以降、A光と称する)を発生するように構成されている。具体的には、琥珀色LED31dは、例えば、図2に示すような、中心波長が590nm~610nmのうちのいずれかの波長に設定された光をA光として発生するよう構成されている。なお、琥珀色LED31dの発光光量は、A光の波長帯域に含まれる各波長の光の強度を積算して得られる総光量として規定される。
 赤色LED31eは、A光よりも長波長側の赤色域に中心波長を有する赤色光(以降、R光と称する)を発生するように構成されている。具体的には、赤色LED31eは、例えば、図2に示すような、中心波長が620nm~660nmのうちのいずれかの波長に設定された光をR光として発生するよう構成されている。なお、赤色LED31eの発光光量は、R光の波長帯域に含まれる各波長の光の強度を積算して得られる総光量として規定される。
 合波器32は、発光部31から発せられた各光を合波して集光レンズ33に入射させることができるように構成されている。
 集光レンズ33は、合波器32を経て入射した光を集光してライトガイド7の入射端部へ出射するように構成されている。
 光源制御部34は、例えば、制御回路等を具備して構成されている。また、光源制御部34は、プロセッサ4から出力される制御信号に応じて発光部31の各LEDを駆動させるように構成されている。
 プロセッサ4は、信号処理部41と、画像処理部42と、観察画像生成部43と、制御部44と、を有して構成されている。
 信号処理部41は、例えば、信号処理回路等を具備して構成されている。また、信号処理部41は、内視鏡2から出力される撮像信号に対してA/D変換等の所定の信号処理を施すことにより画像データを生成し、当該生成した画像データを1フレームずつ画像処理部42及び制御部44へそれぞれ出力するように構成されている。
 画像処理部42は、例えば、画像処理回路等を具備して構成されている。また、画像処理部42は、信号処理部41から出力される画像データと、制御部44から出力される制御信号と、に基づき、被写体に対して照射された照明光の戻り光に含まれるV光に対応する紫色成分の画像データIDVと、当該戻り光に含まれるB光に対応する青色成分の画像データIDBと、当該戻り光に含まれるG光に対応する緑色成分の画像データIDGと、当該戻り光に含まれるA光に対応する琥珀色成分の画像データIDAと、当該戻り光に含まれるR光に対応する赤色成分の画像データIDRと、をそれぞれ生成するための処理を行うように構成されている。また、画像処理部42は、前述のように生成した各色成分の画像データに対して所定の画像処理を施して観察画像生成部43へ出力するように構成されている。
 観察画像生成部43は、例えば、画像生成回路等を具備して構成されている。また、観察画像生成部43は、制御部44から出力される制御信号に基づき、画像処理部42から出力される画像データを用いて観察画像を生成し、当該生成した観察画像を1フレームずつ表示装置5へ出力するように構成されている。
 制御部44は、例えば、制御回路等を具備して構成されている。また、制御部44は、スコープスイッチ23からの指示に応じた動作を行わせるための制御信号を生成して出力するように構成されている。また、制御部44は、撮像素子21bの動作を制御するための制御信号を生成して出力するように構成されている。また、制御部44は、内視鏡2とプロセッサ4とが電気的に接続され、かつ、プロセッサ4の電源がオンされた際に、スコープメモリ24に格納された内視鏡情報を読み込むように構成されている。
 制御部44は、照明光EL1及び照明光EL2を交互に発生させるための制御信号を生成して光源制御部34へ出力するように構成されている。また、制御部44は、照明光EL1及びEL2に応じた動作を行わせるための制御信号を生成して画像処理部42及び観察画像生成部43へそれぞれ出力するように構成されている。また、制御部44は、例えば、図3に示すように、画像解析部44aと、照明光設定部44bと、制御信号生成部44cと、を有して構成されている。図3は、実施形態に係る内視鏡システムのプロセッサに設けられた制御部の構成の一例を説明するための図である。
 画像解析部44aは、照明光EL1の照射に応じて信号処理部41から出力される画像データに対して解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報を照明光設定部44bへ出力するように構成されている。なお、画像解析部44aにおいて行われる動作の具体例については、後程説明する。
 照明光設定部44bは、発光部31の各LEDから発せられる5色の光(V光、B光、G光、A光及びR光)の中から選択した所定の1つ以上の色の光を照明光EL1として設定するように構成されている。また、照明光設定部44bは、画像解析部44aから出力される解析結果情報に基づき、発光部31の各LEDから発せられる5色の光の中から1つ以上の色の光を選択するとともに、当該選択した1つ以上の色の光を照明光EL2として設定するように構成されている。また、照明光設定部44bは、画像解析部44aから出力される最新の解析結果情報により示される解析結果と、図示しないメモリ等に格納された過去の解析結果情報により示される解析結果と、を比較するための処理を行うことができるように構成されている。また、照明光設定部44bは、照明光EL1の設定内容を示す照明光設定情報と、照明光EL2の設定内容を示す照明光設定情報と、を交互に制御信号生成部44cへ出力するように構成されている。なお、照明光設定部44bにおいて行われる動作の具体例については、後程説明する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報に基づき、照明光EL1を発生させるための制御信号と、後述の照明光EL2を発生させるための制御信号と、を交互に生成して光源制御部34へ出力するように構成されている。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報に基づき、照明光EL1及びEL2に応じた動作を行わせるための制御信号を生成して画像処理部42及び観察画像生成部43へそれぞれ出力するように構成されている。なお、制御信号生成部44cにおいて行われる動作の具体例については、後程説明する。
 本実施形態においては、制御信号生成部44cが、照明光EL1及びEL2を交互に発生させる際の切替速度を、表示装置5に観察画像を表示する際のフレームレートの設定値の2倍に設定するための制御信号を生成して光源制御部34、画像処理部42及び観察画像生成部43へそれぞれ出力するようにすればよい。具体的には、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報に基づき、例えば、照明光EL1及びEL2を1/60秒毎に切り替えつつ発生させるような制御信号を生成して光源制御部34へ出力するとともに、観察画像を30fpsで表示装置5へ出力させるような制御信号を生成して画像処理部42及び観察画像生成部43へ出力するようにすればよい。
 なお、本実施形態においては、例えば、プロセッサ4の各部が、個々の電子回路として構成されていてもよく、または、FPGA(Field Programmable Gate Array)等の集積回路における回路ブロックとして構成されていてもよい。また、本実施形態においては、例えば、プロセッサ4が1つ以上のCPUを具備して構成されていてもよい。また、本実施形態に係る構成を適宜変形することにより、例えば、プロセッサ4が、信号処理部41、画像処理部42、観察画像生成部43及び制御部44の機能を実行させるためのプログラムをメモリ等の記憶媒体(不図示)から読み込むとともに、当該読み込んだプログラムに応じた動作を行うようにしてもよい。
 表示装置5は、例えば、LCD(液晶ディスプレイ)等を具備し、プロセッサ4から出力される観察画像等を表示することができるように構成されている。
 続いて、本実施形態の作用について、図4及び図5を参照しつつ説明する。図4は、実施形態に係る内視鏡システムにおいて行われる動作の概要を示すフローチャートである。図5は、第1の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャートである。
 照明光設定部44bは、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を開始させる旨の指示が行われた際に、発光部31の各LEDから発せられる5色の光の中から選択したG光及びR光を照明光EL1として設定するとともに、当該照明光EL1の設定内容を示す照明光設定情報ESAを制御信号生成部44cへ出力する。なお、本実施形態においては、照明光設定部44bが、B光、G光及びR光を照明光EL1として設定するようにしてもよい。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1の戻り光に応じた各色成分の画像データの生成を停止させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1の照射期間において観察画像の生成を停止させるための制御信号を生成して観察画像生成部43へ出力する。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、G光及びR光を含む照明光EL1が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID1が信号処理部41から出力される。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID1に対して解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報ARAを照明光設定部44bへ出力する(図4のステップS1)。
 ここで、本実施形態の画像解析部44aにより行われる解析処理の具体例について、図5を参照しつつ以下に説明する。
 画像解析部44aは、信号処理部41から出力される画像データID1を複数の領域に分割するための処理を行う(図5のステップS11)。そして、このような処理によれば、例えば、信号処理部41から出力される画像データID1がn(n≧2)個の領域Hi(1≦i≦n)に分割される。
 画像解析部44aは、図5のステップS11の処理を経て得られた複数の領域Hi各々の平均色調を検出するための処理を行う(図5のステップS12)。
 具体的には、画像解析部44aは、例えば、1つの領域Hiに含まれる全画素の中からハレーションが発生している画素を除いたs個の画素各々において下記数式(1)の演算を行うことにより演算値CVAを算出するとともに、当該s個の画素各々において算出した演算値CVAの平均値AVAを当該1つの領域Hiの平均色調を示す値として検出するような処理を行う。そして、画像解析部44aは、前述の処理をn回繰り返して行うことにより得られた複数の領域Hi各々における平均値AVAの算出結果を、当該複数の領域Hi各々の平均色調の検出結果として取得する。
CVA=32×log2(Rp/Gp) …(1)
 画像解析部44aは、図5のステップS12の処理を経て得られた複数の領域Hi各々の平均色調の検出結果に基づき、当該複数の領域Hi各々の色調を判定するための処理を行う(図5のステップS13)。
 具体的には、画像解析部44aは、例えば、1つの領域Hiにおいて算出された平均値AVAが閾値THA未満である場合に、当該1つの領域Hiの色調が低彩度の赤色調であるとの判定結果を取得する。また、画像解析部44aは、例えば、1つの領域Hiにおいて算出された平均値AVAが閾値THB(>THA)より大きい場合に、当該1つの領域Hiの色調が高彩度の赤色調であるとの判定結果を取得する。また、また、画像解析部44aは、例えば、1つの領域Hiにおいて算出された平均値AVAが閾値THA以上かつ閾値THB以下の範囲内に属している場合に、当該1つの領域Hiの色調が中彩度の赤色調であるとの判定結果を取得する。
 画像解析部44aは、図5のステップS13の処理を経て得られた複数の領域Hi各々の色調の判定結果に基づき、図5のステップS11の処理対象となった画像データID1の色調を評価するための処理を行う(図5のステップS14)。
 具体的には、画像解析部44aは、例えば、画像データID1を分割して得られたn個の領域Hiのうち、低彩度の赤色調と判定された領域Hiの個数がn/2個より多い(過半数を占める)場合に、当該画像データID1の色調が退色した粘膜の色調に相当するとの評価結果を取得する。また、画像解析部44aは、例えば、画像データID1を分割して得られたn個の領域Hiのうち、高彩度の赤色調と判定された領域Hiの個数がn/2個より多い(過半数を占める)場合に、当該画像データID1の色調が発赤した粘膜の色調に相当するとの評価結果を取得する。また、画像解析部44aは、例えば、画像データID1を分割して得られたn個の領域Hiのうち、中彩度の赤色調と判定された領域Hiの個数がn/2個より多い(過半数を占める)場合に、当該画像データID1の色調が通常の粘膜の色調に相当するとの評価結果を取得する。また、画像解析部44aは、例えば、画像データID1を分割して得られたn個の領域Hiにおいて、低彩度の赤色調と判定された領域Hiの個数、高彩度の赤色調と判定された領域Hiの個数、及び、中彩度の赤色調と判定された領域Hiの個数がいずれもn/2個以下である(過半数に満たない)場合に、当該画像データID1の色調が通常の粘膜の色調に相当するとの評価結果を取得する。
 すなわち、本実施形態の画像解析部44aは、信号処理部41から出力される画像データID1に対して図5のフローチャートに示したような解析処理を施し、当該画像データID1の色調に係る評価結果を当該解析処理の解析結果として取得するとともに、当該取得した解析結果を示す解析結果情報ARAを照明光設定部44bへ出力する。また、本実施形態の画像解析部44aは、照明光EL1の照射時に生体組織を含む被写体を撮像して得られた画像データID1を解析することにより、当該画像データID1の色調が異常所見に相当する色調または正常所見に相当する色調のいずれに属するかに係る評価結果を、当該画像データID1における異常所見の有無に係る解析結果として取得する。
 照明光設定部44bは、画像解析部44aから出力される解析結果情報ARAに基づき、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の色の光を照明光EL2として設定する(図4のステップS2)とともに、当該照明光EL2の設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する。
 具体的には、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARAに基づき、例えば、画像データID1の色調が退色した粘膜の色調に相当することを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したV光、G光及びR光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する。また、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARAに基づき、例えば、画像データID1の色調が発赤した粘膜の色調に相当することを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したB光、G光及びA光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する。また、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARAに基づき、例えば、画像データID1の色調が通常の粘膜の色調に相当することを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したB光、G光及びR光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する。
 すなわち、本実施形態の照明光設定部44bは、画像解析部44aから出力される解析結果情報ARAにより示される解析結果に応じて異なる波長帯域を有するように、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の波長帯域の光を照明光EL2として設定する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESBに基づき、照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESBに基づき、照明光EL2の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESBに基づき、照明光EL2の照射時に画像処理部42から出力される各色成分の画像データを用いて観察画像を生成させるための制御信号を生成して観察画像生成部43へ出力する(図4のステップS3)。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID1の色調が退色した粘膜の色調に相当する場合に、V光、G光及びR光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID2が信号処理部41から出力される。また、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID1の色調が発赤した粘膜の色調に相当する場合に、B光、G光及びA光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID2が信号処理部41から出力される。また、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID1の色調が通常の粘膜の色調に相当する場合に、B光、G光及びR光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID2が信号処理部41から出力される。
 画像処理部42は、信号処理部41から出力される画像データID2と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID1の色調が退色した粘膜の色調に相当する場合に、当該画像データID2に含まれる紫色成分の画像データIDV2と、当該画像データID2に含まれる緑色成分の画像データIDG2と、当該画像データID2に含まれる赤色成分の画像データIDR2と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。また、画像処理部42は、信号処理部41から出力される画像データID2と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID1の色調が発赤した粘膜の色調に相当する場合に、当該画像データID2に含まれる青色成分の画像データIDB2と、当該画像データID2に含まれる緑色成分の画像データIDG2と、当該画像データID2に含まれる琥珀色成分の画像データIDA2と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。また、画像処理部42は、信号処理部41から出力される画像データID2と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID1の色調が通常の粘膜の色調に相当する場合に、当該画像データID2に含まれる青色成分の画像データIDB2と、当該画像データID2に含まれる緑色成分の画像データIDG2と、当該画像データID2に含まれる赤色成分の画像データIDR2と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。
 観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID1の色調が退色した粘膜の色調に相当する場合に、画像データIDV2を表示装置5のB(青色)チャンネルに割り当て、画像データIDG2を表示装置5のG(緑色)チャンネルに割り当てるとともに、画像データIDR2を表示装置5のR(赤色)チャンネルに割り当てることにより観察画像KGAを生成し、当該生成した観察画像KGAを表示装置5へ出力する。また、観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID1の色調が発赤した粘膜の色調に相当する場合に、画像データIDB2を表示装置5のBチャンネルに割り当て、画像データIDG2を表示装置5のGチャンネルに割り当てるとともに、画像データIDA2を表示装置5のRチャンネルに割り当てることにより観察画像KGBを生成し、当該生成した観察画像KGBを表示装置5へ出力する。また、観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID1の色調が通常の粘膜の色調に相当する場合に、画像データIDB2を表示装置5のBチャンネルに割り当て、画像データIDG2を表示装置5のGチャンネルに割り当てるとともに、画像データIDR2を表示装置5のRチャンネルに割り当てることにより観察画像KGCを生成し、当該生成した観察画像KGCを表示装置5へ出力する。
 照明光設定部44bは、図4のステップS2の処理を経て得られた照明光設定情報ESBを制御信号生成部44cへ出力した後、照明光設定情報ESAを制御信号生成部44cへ再度出力する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1の戻り光に応じた各色成分の画像の生成を停止させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESAに基づき、照明光EL1の照射期間において観察画像の生成を停止させるための制御信号を生成して観察画像生成部43へ出力する。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID1に対して図4のステップS1と同様の方法による解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報ARBを照明光設定部44bへ出力する(図4のステップS4)。
 照明光設定部44bは、図4のステップS4の処理を経て得られた解析結果情報ARBに相当する最新の解析結果情報ARBNにより示される解析結果が、現在の照明光EL2を設定した際に参照した解析結果情報ARAまたはARBに相当する過去の解析結果情報ARBPにより示される解析結果と同じであるか否かを判定するための処理を行う(図4のステップS5)。
 照明光設定部44bは、最新の解析結果情報ARBNにより示される解析結果が、過去の解析結果情報ARBPにより示される解析結果と同じであるとの判定結果を取得した場合(S5:YES)に、後述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARBNにより示される解析結果が、過去の解析結果情報ARBPにより示される解析結果とは異なるとの判定結果を取得した場合(S5:NO)に、後述の図4のステップS7の処理を続けて行う。
 照明光設定部44bは、照明光EL2の現在の設定内容を維持するために、当該現在の設定内容と同じ設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する(図4のステップS6)。
 照明光設定部44bは、最新の解析結果情報ARBNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるか否かを判定するための処理を行う(図4のステップS7)。
 照明光設定部44bは、最新の解析結果情報ARBNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数未満であるとの判定結果を取得した場合(S7:NO)に、前述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARBNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるとの判定結果を取得した場合(S7:YES)に、照明光EL2の設定内容を当該最新の解析結果情報ARBNにより示される解析結果に応じた設定内容に変更するとともに、変更後の照明光EL2の設定内容を示す照明光設定情報ESBを制御信号生成部44cへ出力する(図4のステップS8)。
 制御信号生成部44cは、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESBに基づき、当該照明光設定情報ESBに応じた照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS9)。また、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESBに基づき、当該照明光設定情報ESBに応じた(観察画像の生成に係る)動作を行わせるための制御信号を生成して画像処理部42及び観察画像生成部43へそれぞれ出力する(図4のステップS9)。
 本実施形態によれば、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を終了させる旨の指示が行われるまでの間、図4のステップS4~ステップS9の処理が繰り返し行われる。また、本実施形態によれば、所定のスペクトルに設定された照明光EL1を被写体に照射した際に得られた画像データID1の色調に応じて照明光EL2のスペクトルが設定されるとともに、当該照明光EL2に応じた観察画像が表示装置5に表示される。また、本実施形態によれば、例えば、萎縮が生じている粘膜に相当する異常所見領域ABFが画像データID1に含まれている場合に、粘膜の表面で強く散乱されるV光の戻り光に応じた画像データIDV2を用いて生成された観察画像KGAが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABFの視認性を向上させることができる。また、本実施形態によれば、例えば、びまん性発赤が生じている粘膜に相当する異常所見領域ABRが画像データID1に含まれている場合に、ヘモグロビンに対する吸光係数がR光よりも高いA光の戻り光に応じた画像データIDA2を用いて生成された観察画像KGBが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABRの視認性を向上させることができる。従って、本実施形態によれば、異常所見の診断に係る作業を行う術者の負担を軽減することができる。
(第2の実施形態)
 図6は、本発明の第2の実施形態に係るものである。
 なお、本実施形態においては、制御部44の動作の概要が図4のフローチャートと同じである一方で、制御部44の動作の詳細が第1の実施形態とは一部異なっている。そのため、以下においては、制御部44の動作の概要を図4のフローチャートを援用しながら説明するとともに、制御部44の動作の詳細のうちの第1の実施形態とは異なる部分を重点的に説明するものとする。
 照明光設定部44bは、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を開始させる旨の指示が行われた際に、発光部31の各LEDから発せられる5色の光の中から選択したV光、G光及びR光を照明光EL1として設定するとともに、当該照明光EL1の設定内容を示す照明光設定情報ESCを制御信号生成部44cへ出力する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1の照射期間において、観察画像の生成を停止させるとともに、画像処理部42から出力される各色成分の画像データを保持させるための制御信号を生成して観察画像生成部43へ出力する。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、V光、G光及びR光を含む照明光EL1が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID3が信号処理部41から出力される。
 画像処理部42は、信号処理部41から出力される画像データID3と、制御信号生成部44cから出力される制御信号と、に基づき、照明光EL1の照射期間において、当該画像データID3に含まれる紫色成分の画像データIDV3と、当該画像データID3に含まれる緑色成分の画像データIDG3と、当該画像データID3に含まれる赤色成分の画像データIDR3と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。
 観察画像生成部43は、制御部44から出力される制御信号に基づき、照明光EL1の照射期間において、画像処理部42から出力される各色成分の画像データ(画像データIDV3、画像データIDG3及び画像データIDR3)を保持する。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID3に対して解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報ARCを照明光設定部44bへ出力する(図4のステップS1)。
 ここで、本実施形態の画像解析部44aにより行われる解析処理の具体例について、図6を参照しつつ以下に説明する。図6は、第2の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャートである。
 画像解析部44aは、信号処理部41から出力される画像データID3に含まれる各画素のRGBの画素値をL*a*b*色空間の座標値に変換するための処理を行う(図6のステップS21)。
 画像解析部44aは、図6のステップS21の処理を経て得られた各座標値に基づき、画像データID3に含まれる各画素の中から所定の条件を満たす画素を抽出するための処理を行う(図6のステップS22)。
 具体的には、画像解析部44aは、例えば、画像データID3に含まれる各画素の中から、当該画像データID3に含まれる各画素のa*値の平均値よりも小さなa*値を有し、かつ、当該画像データID3に含まれる各画素のb*値の平均値よりも大きなb*値を有する画素を抽出するための処理を行う。
 または、画像解析部44aは、例えば、画像データID3に含まれる各画素における座標値(a*,b*)を極座標形式の座標値(r,θ)で表すとともに、当該画像データID3に含まれる各画素のa*値の平均値及びb*値の平均値に基づいて得られる極座標形式の座標値を(rt,θt)で表した場合に、動径rt以上のr値を有し、かつ、角度θt以上90度以下のθ値を有する画素を抽出するための処理を行う。
 画像解析部44aは、図6のステップS22の処理により抽出した各抽出画素の隣接状態の指標を示す値に相当する、当該各抽出画素の隣接度ADを取得するための処理を行う(図6のステップS23)。
 具体的には、画像解析部44aは、例えば、各抽出画素の中から選択した1つの注目画素の8近傍に1つ以上の抽出画素が存在する場合に、当該一の抽出画素に対応するカウント値として1を取得する。また、画像解析部44aは、例えば、各抽出画素の中から選択した1つの注目画素の8近傍に他の抽出画素が存在しない場合に、当該一の抽出画素に対応するカウント値として0を取得する。そして、画像解析部44aは、各注目画素において取得したカウント値の合計を隣接度ADとして取得する。
 画像解析部44aは、図6のステップS23の処理を経て得られた隣接度ADに基づき、図6のステップS21の処理対象となった画像データID3における異常所見領域の有無を判定するための処理を行う(図6のステップS24)。
 具体的には、画像解析部44aは、例えば、隣接度ADが閾値THC以上である場合に、画像データID3に異常所見領域が含まれているとの判定結果を取得する。また、画像解析部44aは、例えば、隣接度ADが閾値THC未満である場合に、画像データID3に異常所見領域が含まれていないとの判定結果を取得する。
 すなわち、本実施形態の画像解析部44aは、信号処理部41から出力される画像データID3に対して図6のフローチャートに示したような解析処理を施し、当該画像データID3における異常所見領域の有無に係る判定結果を当該解析処理の解析結果として取得するとともに、当該取得した解析結果を示す解析結果情報ARCを照明光設定部44bへ出力する。また、本実施形態の画像解析部44aは、照明光EL1の照射時に生体組織を含む被写体を撮像して得られた画像データID3を解析することにより、当該画像データID3に所定の色調(黄色調)を有する異常所見領域が含まれているか否かに係る判定結果を、当該画像データID3における異常所見の有無に係る解析結果として取得する。
 なお、本実施形態の画像解析部44aは、図6のステップS23及びステップS24の処理を行う代わりに、以下に述べるような処理を行うことにより、画像データID3における異常所見領域の有無に係る判定結果を取得するものであってもよい。
 画像解析部44aは、各抽出画素の中から選択した1つの注目画素と、当該1つの注目画素の8近傍の画素と、を連結することにより連結領域を生成する。さらに、画像解析部44aは、互いに接触または重複する複数の連結領域に対して同じラベルを付与することにより、当該複数の連結領域を1つのラベル領域として統合する。そして、画像解析部44aは、所定の画素数以上の画素数を有するラベル領域の個数が所定の個数以上である場合に、画像データID3に異常所見領域が含まれているとの判定結果を取得する。また、画像解析部44aは、所定の画素数以上の画素数を有するラベル領域の個数が所定の個数未満である場合に、画像データID3に異常所見領域が含まれていないとの判定結果を取得する。
 照明光設定部44bは、画像解析部44aから出力される解析結果情報ARCに基づき、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の色の光を照明光EL2として設定する(図4のステップS2)とともに、当該照明光EL2の設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する。
 具体的には、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARCに基づき、例えば、画像データID3に異常所見領域が含まれていることを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したV光及びA光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する。また、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARCに基づき、例えば、画像データID3に異常所見領域が含まれていないことを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したB光及びA光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する。
 すなわち、本実施形態の照明光設定部44bは、画像解析部44aから出力される解析結果情報ARCにより示される解析結果に応じて異なる波長帯域を有するように、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の波長帯域の光を照明光EL2として設定する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESDに基づき、照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESDに基づき、照明光EL2の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESDに基づき、照明光EL1の照射時に画像処理部42から出力された各色成分の画像データのうちの1つ以上の色成分の画像データと、照明光EL2の照射時に画像処理部42から出力される各色成分の画像データのうちの1つ以上の色成分の画像データと、を用いて観察画像を生成させるための制御信号を生成して観察画像生成部43へ出力する(図4のステップS3)。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID3に異常所見領域が含まれている場合に、V光及びA光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID4が信号処理部41から出力される。また、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID3に異常所見領域が含まれていない場合に、B光及びA光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID2が信号処理部41から出力される。
 画像処理部42は、信号処理部41から出力される画像データID4と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID3に異常所見領域が含まれている場合に、当該画像データID4に含まれる紫色成分の画像データIDV4と、当該画像データID4に含まれる琥珀色成分の画像データIDA4と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。また、画像処理部42は、信号処理部41から出力される画像データID4と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID3に異常所見領域が含まれていない場合に、当該画像データID4に含まれる青色成分の画像データIDB4と、当該画像データID4に含まれる琥珀色成分の画像データIDA4と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。
 観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID3に異常所見領域が含まれている場合に、互いに位置合わせされた画像データIDV3及びIDV4を画素毎に加算して得られる画像データを表示装置5のBチャンネルに割り当て、画像データIDG3を表示装置5のGチャンネルに割り当てるとともに、画像データIDA4を表示装置5のRチャンネルに割り当てることにより観察画像KGDを生成し、当該生成した観察画像KGDを表示装置5へ出力する。また、観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID3に異常所見領域が含まれていない場合に、互いに位置合わせされた画像データIDV3及びIDB4を画素毎に加算して得られる画像データを表示装置5のBチャンネルに割り当て、画像データIDG3を表示装置5のGチャンネルに割り当てるとともに、互いに位置合わせされた画像データIDR3及びIDA4を画素毎に加算して得られる画像データを表示装置5のRチャンネルに割り当てることにより観察画像KGEを生成し、当該生成した観察画像KGEを表示装置5へ出力する。
 照明光設定部44bは、図4のステップS2の処理を経て得られた照明光設定情報ESDを制御信号生成部44cへ出力した後、照明光設定情報ESCを制御信号生成部44cへ再度出力する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESCに基づき、照明光EL1の照射期間において、観察画像の生成を停止させるとともに、画像処理部42から出力される各色成分の画像データを保持させるための制御信号を生成して観察画像生成部43へ出力する。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID3に対して図4のステップS1と同様の方法による解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報ARDを照明光設定部44bへ出力する(図4のステップS4)。
 照明光設定部44bは、図4のステップS4の処理を経て得られた解析結果情報ARDに相当する最新の解析結果情報ARDNにより示される解析結果が、現在の照明光EL2を設定した際に参照した解析結果情報ARCまたはARDに相当する過去の解析結果情報ARDPにより示される解析結果と同じであるか否かを判定するための処理を行う(図4のステップS5)。
 照明光設定部44bは、最新の解析結果情報ARDNにより示される解析結果が、過去の解析結果情報ARDPにより示される解析結果と同じであるとの判定結果を取得した場合(S5:YES)に、後述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARDNにより示される解析結果が、過去の解析結果情報ARDPにより示される解析結果とは異なるとの判定結果を取得した場合(S5:NO)に、後述の図4のステップS7の処理を続けて行う。
 照明光設定部44bは、照明光EL2の現在の設定内容を維持するために、当該現在の設定内容と同じ設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する(図4のステップS6)。
 照明光設定部44bは、最新の解析結果情報ARDNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるか否かを判定するための処理を行う(図4のステップS7)。
 照明光設定部44bは、最新の解析結果情報ARDNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数未満であるとの判定結果を取得した場合(S7:NO)に、前述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARDNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるとの判定結果を取得した場合(S7:YES)に、照明光EL2の設定内容を当該最新の解析結果情報ARDNにより示される解析結果に応じた設定内容に変更するとともに、変更後の照明光EL2の設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する(図4のステップS8)。
 制御信号生成部44cは、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESDに基づき、当該照明光設定情報ESDに応じた照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS9)。また、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESDに基づき、当該照明光設定情報ESDに応じた(観察画像の生成に係る)動作を行わせるための制御信号を生成して画像処理部42及び観察画像生成部43へそれぞれ出力する(図4のステップS9)。
 本実施形態によれば、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を終了させる旨の指示が行われるまでの間、図4のステップS4~ステップS9の処理が繰り返し行われる。また、本実施形態によれば、所定のスペクトルに設定された照明光EL1を被写体に照射した際に得られた画像データID3における異常所見領域の有無に応じて照明光EL2のスペクトルが設定されるとともに、当該照明光EL2に応じた観察画像が表示装置5に表示される。また、本実施形態によれば、例えば、白色光観察時に発赤領域として可視化されるとともに狭帯域光観察時にBrownish Areaとして可視化される異常所見領域ABBが画像データID3に含まれている場合に、当該異常所見領域ABBが黄色で強調された観察画像KGDが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABBの視認性を向上させることができる。また、本実施形態によれば、例えば、異常所見領域ABBが画像データID3に含まれている場合に、A光を含む照明光EL2が当該異常所見領域ABBに対して照射されることに伴い、当該異常所見領域ABBにおける粘膜深層の状態を視認可能な観察画像KGDが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABBの表層から深層に至るまでの粘膜の状態の変化を一度に確認することができる。従って、本実施形態によれば、異常所見の診断に係る作業を行う術者の負担を軽減することができる。
 なお、本実施形態においては、例えば、照明光設定部44bが、画像データID3に異常所見領域が含まれている場合に、発光部31の各LEDから発せられる5色の光の中から選択したV光を照明光EL2として設定するようにしてもよい。また、このような場合において、例えば、観察画像生成部43が、互いに位置合わせされた画像データIDV3及びIDV4を画素毎に加算して得られる画像データを表示装置5のBチャンネル及びGチャンネルにそれぞれ割り当てるとともに、画像データIDG3を表示装置5のRチャンネルにそれぞれ割り当てることにより観察画像KGFを生成するようにしてもよい。そして、このような構成によれば、異常所見領域ABBが画像データID3に含まれている場合に、当該異常所見領域ABBが前述の画像データの割り当てに応じて茶褐色で強調されるとともに、当該異常所見領域ABBを含む画像全域の明るさが画像データIDV3及びIDV4の加算に応じて向上した観察画像KGFが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABBの視認性を向上させることができる。
(第3の実施形態)
 図7から図9は、本発明の第3の実施形態に係るものである。
 なお、本実施形態においては、制御部44の動作の概要が図4のフローチャートと同じである一方で、制御部44の動作の詳細が第1の実施形態とは一部異なっている。そのため、以下においては、制御部44の動作の概要を図4のフローチャートを援用しながら説明するとともに、制御部44の動作の詳細のうちの第1の実施形態及び第2の実施形態のいずれとも異なる部分を重点的に説明するものとする。また、本実施形態においては、例えば、スコープメモリ24に格納された内視鏡情報に基づき、内視鏡2が胃等の上部消化管用の機種に該当することが制御部44により検出されたことを前提として説明を行う。また、本実施形態においては、胃の内部に存在する被写体を撮像及び観察する場合を例に挙げて説明を行う。
 照明光設定部44bは、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を開始させる旨の指示が行われた際に、発光部31の各LEDから発せられる5色の光の中から選択したV光、G光及びR光を照明光EL1として設定するとともに、当該照明光EL1の設定内容を示す照明光設定情報ESEを制御信号生成部44cへ出力する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1の照射期間において、観察画像の生成を停止させるとともに、画像処理部42から出力される各色成分の画像データを保持させるための制御信号を生成して観察画像生成部43へ出力する。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、V光、G光及びR光を含む照明光EL1が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID5が信号処理部41から出力される。
 画像処理部42は、信号処理部41から出力される画像データID5と、制御信号生成部44cから出力される制御信号と、に基づき、照明光EL1の照射期間において、当該画像データID5に含まれる紫色成分の画像データIDV5と、当該画像データID5に含まれる緑色成分の画像データIDG5と、当該画像データID5に含まれる赤色成分の画像データIDR5と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。
 観察画像生成部43は、制御部44から出力される制御信号に基づき、照明光EL1の照射期間において、画像処理部42から出力される各色成分の画像データ(画像データIDV5、画像データIDG5及び画像データIDR5)を保持する。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID5に対して解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報AREを照明光設定部44bへ出力する(図4のステップS1)。
 ここで、本実施形態の画像解析部44aにより行われる解析処理の具体例について、図7を参照しつつ以下に説明する。図7は、第3の実施形態に係る内視鏡システムにおいて行われる解析処理の具体例を説明するためのフローチャートである。
 画像解析部44aは、信号処理部41から出力される画像データID5に含まれる各画素のRGBの画素値をL*a*b*色空間の座標値に変換するための処理を行う(図7のステップS31)。
 画像解析部44aは、図7のステップS31の処理を経て得られた各座標値に基づき、画像データID5の各画素のa*値のみを抽出した画像データID5aを生成するとともに、当該生成した画像データID5aに対して所定のバンドパス特性を有する空間フィルタSFAを適用するための処理を行う(図7のステップS32)。
 画像解析部44aは、図7のステップS31の処理を経て得られた各座標値に基づき、画像データID5に含まれる各画素の中から処理対象外の画素を除外するための処理を行う(図7のステップS33)。
 具体的には、画像解析部44aは、例えば、画像データID5に含まれる各画素の中から、図7のステップS31の処理により得られたL*値が閾値THD以上であり、かつ、図7のステップS31の処理により得られたa*値の絶対値及びb*値の絶対値がいずれも所定の範囲に属するという条件を満たす画素に相当するハレーションが発生している画素を抽出するとともに、当該抽出した画素を処理対象外の画素として除外する。
 画像解析部44aは、図7のステップS32の処理を経て得られた処理結果に相当する画像データID5bに含まれる各画素のうち、図7のステップS33の処理により処理対象外として除外されなかった画素におけるa*値に基づき、画像データID5における樹枝状血管の有無を判定するための処理を行う(図7のステップS34)。
 具体的には、画像解析部44aは、例えば、0より大きなa*値を有する画素の個数が閾値THE以上である場合に、画像データID5に樹枝状血管が含まれているとの判定結果を取得する。また、画像解析部44aは、例えば、0より大きなa*値を有する画素の個数が閾値THE未満である場合に、画像データID5に樹枝状血管が含まれていないとの判定結果を取得する。
 画像解析部44aは、図7のステップS33の処理を経て得られた樹枝状血管の有無に係る判定結果に基づき、画像データID5に含まれる胃粘膜の萎縮度を評価するための処理を行う(図7のステップS35)。
 具体的には、画像解析部44aは、例えば、画像データID5に樹枝状血管が含まれていないとの判定結果が得られた場合に、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかであるとの評価結果を得る。また、画像解析部44aは、例えば、画像データID5に樹枝状血管が含まれているとの判定結果が得られた場合に、画像データID5に含まれる胃粘膜の萎縮度が高度であるとの評価結果を得る。
 すなわち、本実施形態の画像解析部44aは、信号処理部41から出力される画像データID5に対して図7のフローチャートに示したような解析処理を施し、当該画像データID5に含まれる胃粘膜の萎縮度に係る評価結果を当該解析処理の解析結果として取得するとともに、当該取得した解析結果を示す解析結果情報AREを照明光設定部44bへ出力する。また、本実施形態の画像解析部44aは、照明光EL1の照射時に生体組織を含む被写体を撮像して得られた画像データID5を解析することにより、当該画像データID5に含まれる粘膜の萎縮度に係る評価結果を、当該画像データID5における異常所見の有無に係る解析結果として取得する。
 なお、本実施形態の画像解析部44aは、例えば、図7のステップS34において、図5のステップS11~ステップS14の処理と同様の処理を行うことにより得られる画像データID5の色調の評価結果と、図7のステップS33の処理を経て得られた判定結果と、に基づき、当該画像データID5に含まれる胃粘膜の萎縮度を評価するような処理を行うものであってもよい。そして、このような場合においては、例えば、画像データID5の色調が退色した粘膜の色調に相当し、かつ、当該画像データID5に樹枝状血管が含まれている場合に、当該画像データID5に含まれる胃粘膜の萎縮度が高度であるとの評価結果を得ることができる。
 また、本実施形態の画像解析部44aは、例えば、図7のステップS34において、電子カルテ等が格納されたデータベースから過去の内視鏡検査の検査情報を読み込むとともに、当該読み込んだ検査情報に含まれる胃炎に関する情報と、図7のステップS33の処理を経て得られた判定結果と、に基づき、当該画像データID5に含まれる胃粘膜の萎縮度を評価するような処理を行うものであってもよい。なお、前述の胃炎に関する情報としては、例えば、胃粘膜の萎縮度を示す情報、ピロリ菌(ヘリコバクター・ピロリ)の感染の有無を示す情報、及び、ピロリ菌の除菌の有無を示す情報等を用いることができる。
 照明光設定部44bは、画像解析部44aから出力される解析結果情報AREに基づき、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の色の光を照明光EL2として設定する(図4のステップS2)とともに、当該照明光EL2の設定内容を示す照明光設定情報ESFを制御信号生成部44cへ出力する。
 具体的には、照明光設定部44bは、画像解析部44aから出力される解析結果情報AREに基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかであることを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したV光、G光及びA光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESFを制御信号生成部44cへ出力する。また、照明光設定部44bは、画像解析部44aから出力される解析結果情報ARCに基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が高度であることを検出した際に、発光部31の各LEDから発せられる5色の光の中から選択したB光、G光及びA光を照明光EL2として設定するとともに、当該照明光EL2の設定内容を示す照明光設定情報ESDを制御信号生成部44cへ出力する。
 すなわち、本実施形態の照明光設定部44bは、画像解析部44aから出力される解析結果情報AREにより示される解析結果に応じて異なる波長帯域を有するように、発光部31の各LEDから発せられる5色の光の中から選択した1つ以上の波長帯域の光を照明光EL2として設定する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESFに基づき、照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESFに基づき、照明光EL2の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する(図4のステップS3)。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESFに基づき、照明光EL2の照射時に画像処理部42から出力される各色成分の画像データを少なくとも用いて観察画像を生成させるための制御信号を生成して観察画像生成部43へ出力する(図4のステップS3)。
 そして、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、V光、G光及びA光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID6が信号処理部41から出力される。また、以上に述べたような照明光設定部44b及び制御信号生成部44cの動作によれば、例えば、画像データID5に含まれる胃粘膜の萎縮度が高度である場合に、B光、G光及びA光を含む照明光EL2が生体組織を含む被写体に照射され、当該被写体からの戻り光を撮像して得られた撮像信号が撮像部21から出力され、当該撮像信号に応じて生成された画像データID6が信号処理部41から出力される。
 画像処理部42は、信号処理部41から出力される画像データID6と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、当該画像データID6に含まれる紫色成分の画像データIDV6と、当該画像データID6に含まれる緑色成分の画像データIDG6と、当該画像データID6に含まれる琥珀色成分の画像データIDA6と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。また、画像処理部42は、信号処理部41から出力される画像データID6と、制御信号生成部44cから出力される制御信号と、に基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が高度である場合に、当該画像データID6に含まれる青色成分の画像データIDB6と、当該画像データID6に含まれる緑色成分の画像データIDG6と、当該画像データID6に含まれる琥珀色成分の画像データIDA6と、をそれぞれ生成するとともに、当該生成した各画像データに対して所定の画像処理を施して観察画像生成部43へ出力する。
 なお、本実施形態においては、例えば、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、画像処理部42が、画像データIDV6、IDG6及びIDA6のうちの少なくとも1つの画像データに対し、当該胃粘膜の凹凸を明瞭化するための構造強調処理または階調変換処理を施すようにしてもよい。
 観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、画像データIDV6を表示装置5のBチャンネルに割り当て、画像データIDG6を表示装置5のGチャンネルに割り当てるとともに、画像データIDA6を表示装置5のRチャンネルに割り当てることにより観察画像KGGを生成し、当該生成した観察画像KGGを表示装置5へ出力する。また、観察画像生成部43は、制御部44から出力される制御信号に基づき、例えば、画像データID5に含まれる胃粘膜の萎縮度が高度である場合に、互いに位置合わせされた画像データIDV5及びIDB6を画素毎に加算して得られる画像データを表示装置5のBチャンネルに割り当て、画像データIDG6を表示装置5のGチャンネルに割り当てるとともに、互いに位置合わせされた画像データIDR5及びIDA6を画素毎に加算して得られる画像データを表示装置5のRチャンネルに割り当てることにより観察画像KGHを生成し、当該生成した観察画像KGHを表示装置5へ出力する。
 照明光設定部44bは、図4のステップS2の処理を経て得られた照明光設定情報ESFを制御信号生成部44cへ出力した後、照明光設定情報ESEを制御信号生成部44cへ再度出力する。
 制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1を発生させるための制御信号を生成して光源制御部34へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1の戻り光に応じた各色成分の画像データを生成させるための制御信号を生成して画像処理部42へ出力する。また、制御信号生成部44cは、照明光設定部44bから出力される照明光設定情報ESEに基づき、照明光EL1の照射期間において、観察画像の生成を停止させるとともに、画像処理部42から出力される各色成分の画像データを保持させるための制御信号を生成して観察画像生成部43へ出力する。
 画像解析部44aは、照明光EL1の照射時に取得された画像に相当する画像データID5に対して図4のステップS1と同様の方法による解析処理を施すとともに、当該解析処理により得られた解析結果を示す解析結果情報ARFを照明光設定部44bへ出力する(図4のステップS4)。
 照明光設定部44bは、図4のステップS4の処理を経て得られた解析結果情報ARFに相当する最新の解析結果情報ARFNにより示される解析結果が、現在の照明光EL2を設定した際に参照した解析結果情報AREまたはARFに相当する過去の解析結果情報ARFPにより示される解析結果と同じであるか否かを判定するための処理を行う(図4のステップS5)。
 照明光設定部44bは、最新の解析結果情報ARFNにより示される解析結果が、過去の解析結果情報ARFPにより示される解析結果と同じであるとの判定結果を取得した場合(S5:YES)に、後述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARFNにより示される解析結果が、過去の解析結果情報ARFPにより示される解析結果とは異なるとの判定結果を取得した場合(S5:NO)に、後述の図4のステップS7の処理を続けて行う。
 照明光設定部44bは、照明光EL2の現在の設定内容を維持するために、当該現在の設定内容と同じ設定内容を示す照明光設定情報ESFを制御信号生成部44cへ出力する(図4のステップS6)。
 照明光設定部44bは、最新の解析結果情報ARFNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるか否かを判定するための処理を行う(図4のステップS7)。
 照明光設定部44bは、最新の解析結果情報ARFNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数未満であるとの判定結果を取得した場合(S7:NO)に、前述の図4のステップS6の処理を続けて行う。また、照明光設定部44bは、最新の解析結果情報ARFNにより示される解析結果と同じ解析結果を連続して取得した回数が所定の回数以上であるとの判定結果を取得した場合(S7:YES)に、照明光EL2の設定内容を当該最新の解析結果情報ARFNにより示される解析結果に応じた設定内容に変更するとともに、変更後の照明光EL2の設定内容を示す照明光設定情報ESFを制御信号生成部44cへ出力する(図4のステップS8)。
 制御信号生成部44cは、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESFに基づき、当該照明光設定情報ESFに応じた照明光EL2を発生させるための制御信号を生成して光源制御部34へ出力する(図4のステップS9)。また、図4のステップS6またはステップS8のいずれかの処理を経て得られた照明光設定情報ESFに基づき、当該照明光設定情報ESFに応じた動作を行わせるための制御信号を生成して画像処理部42及び観察画像生成部43へそれぞれ出力する(図4のステップS9)。
 本実施形態によれば、例えば、ユーザのスコープスイッチ23の操作に応じ、内視鏡2による観察を終了させる旨の指示が行われるまでの間、図4のステップS4~ステップS9の処理が繰り返し行われる。また、本実施形態によれば、所定のスペクトルに設定された照明光EL1を被写体に照射した際に得られた画像データID5に含まれる胃粘膜の萎縮度に応じて照明光EL2のスペクトルが設定されるとともに、当該照明光EL2に応じた観察画像が表示装置5に表示される。また、本実施形態によれば、例えば、軽度または中等度の萎縮が生じている胃粘膜に相当する異常所見領域ABTが画像データID5に含まれている場合に、ヘモグロビンに対する吸光係数がR光よりも高いA光の戻り光に応じた画像データIDA6を用いて生成された観察画像KGGが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABTにおいて高い頻度で発生する胃炎類似型の病変を示す発赤の視認性を向上させることができる。また、本実施形態によれば、例えば、異常所見領域ABTが画像データID5に含まれている場合に、A光の戻り光に応じた画像データIDA6を用いて生成された観察画像KGGが(照明光EL2に応じた観察画像として)表示装置5に表示されるため、当該異常所見領域ABTにおける粘膜深層の組織学的変化を確認することができる。従って、本実施形態によれば、異常所見の診断に係る作業を行う術者の負担を軽減することができる。
 なお、本実施形態においては、例えば、緑色LED31cの代わりに、緑色域の短波長側に中心波長が設定されたGS光を発生するLED31ga(不図示)と、緑色域の長波長側に中心波長が設定されたGL光を発生するLED31gb(不図示)と、が発光部31に設けられていてもよい。そして、このような構成においては、V光、GS光、GL光及びR光を含む照明光EL1が生体組織を含む被写体に照射されるようにすればよい。また、前述のような構成においては、胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、G光の代わりにGL光を含む光が照明光EL2として被写体に照射されるとともに、当該照明光EL2の戻り光に含まれる当該GL光に対応する緑色成分の画像データIDGLを表示装置5のGチャンネルに割り当てた観察画像が表示装置5に表示されるようにすればよい。また、前述のような構成においては、胃粘膜の萎縮度が高度である場合に、G光の代わりにGS光及びGL光を含む照明光EL2が生体組織を含む被写体に照射されるとともに、当該照明光EL2の戻り光に含まれる当該GS光に対応する緑色成分の画像データIDGSと、当該照明光EL2の戻り光に含まれる当該GL光に対応する緑色成分の画像データIDGLと、を表示装置5のGチャンネルに割り当てた観察画像が表示装置5に表示されるようにすればよい。そして、前述のような構成によれば、G光よりも帯域幅が狭くかつ緑色域の長波長側に中心波長が設定されたGL光が生体組織を含む被写体に照射されるため、例えば、当該G光を当該被写体に照射した際に表示装置5に表示される観察画像に比べて粘膜深層の視認性が向上した観察画像を表示装置5に表示させることができる。
 また、本実施形態によれば、照明光設定部44bが、照明光の設定を行う際に、発光部31の各LEDから発せられる5色の光の中から1つ以上の色の光を選択するものに限らず、例えば、当該5色の光を選択した状態で光量比を変更するものであってもよい。
 具体的には、照明光設定部44bは、例えば、図8に示すように、V光、B光、G光、A光及びR光を照明光EL1として選択した状態で、当該照明光EL1に含まれるV光の比率をB光の比率よりも小さくするとともに、当該照明光EL1に含まれるA光の比率をR光の比率よりも小さくするような光量比ERGの設定内容を示す照明光設定情報ESGを出力するようにしてもよい。また、照明光設定部44bは、例えば、胃粘膜の萎縮度が軽度または中等度のいずれかである場合に、図9に示すように、V光、B光、G光、A光及びR光を照明光EL2として選択した状態で、当該照明光EL2に含まれるB光の比率をV光の比率よりも小さくするとともに、当該照明光EL2に含まれるR光の比率をA光の比率よりも小さくするような光量比ERHの設定内容を示す照明光設定情報ESHを出力するようにしてもよい。また、照明光設定部44bは、例えば、胃粘膜の萎縮度が高度である場合に、V光、B光、G光、A光及びR光を照明光EL2として選択した状態で、前述の照明光設定情報ESGと同じ設定内容を有する照明光設定情報ESIを出力するようにしてもよい。なお、前述の照明光設定情報ESG、ESH及びESIが照明光設定部44bから出力される場合には、例えば、照明光EL2の照射時に画像処理部42から出力される画像データを用いて観察画像を生成させるような制御信号が制御信号生成部44cから出力されるようにすればよい。図8及び図9は、第3の実施形態の変形例に係る内視鏡システムの光源装置から発せられる照明光の一例を示す図である。
 すなわち、以上に述べた構成によれば、照明光設定部44bが、照明光の設定を行う際に、発光部31の各LEDを選択的に発光または消光させるような設定を行うものに限らず、例えば、発光部31の各LEDを発光させつつ発光光量の比率を選択的に変化させるような設定を行う。また、以上に述べた構成によれば、照明光設定部44bが、照明光EL1に含まれる各色の光の光量比を光量比ERMに設定するとともに、照明光EL2に含まれる各色の光の光量比を、画像データID5に含まれる粘膜の萎縮度に係る評価結果に応じて異なる光量比である光量比ERMまたはERNのいずれかに設定する。
 また、本実施形態の各部の構成を適宜変形することにより、例えば、大腸の内部に存在する被写体を撮像及び観察する場合に適用させるようにしてもよい。また、このような場合においては、例えば、図7のフローチャートの処理を適宜変更することにより、画像データID5に含まれる腸粘膜の状態をMatts分類等の内視鏡所見分類に応じて評価した評価結果が得られるようにすればよい。
 本発明は、上述した各実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2018年4月24日に日本国に出願された特願2018-083282号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (16)

  1.  互いに異なる複数の波長帯域の光を発生することができるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、第1の照明光及び第2の照明光を交互に発生することができるように構成された光源部と、
     前記照明光が照射された前記被写体からの戻り光を撮像するように構成された撮像部と、
     前記第1の照明光の照射時に前記被写体を撮像して得られた第1の画像を解析することにより、前記第1の画像における異常所見の有無に係る解析結果を取得するように構成された画像解析部と、
     前記複数の波長帯域の光の中から選択した所定の1つ以上の波長帯域の光を前記第1の照明光として設定するとともに、前記解析結果に応じて異なる波長帯域を有するように前記複数の波長帯域の光の中から選択した1つ以上の波長帯域の光を前記第2の照明光として設定するように構成された照明光設定部と、
     を有することを特徴とする内視鏡システム。
  2.  前記照明光設定部は、前記複数の波長帯域の光の中から選択した緑色光及び赤色光を前記第1の照明光として設定し、
     前記画像解析部は、前記第1の画像を解析することにより、前記第1の画像の色調が異常所見に相当する色調または正常所見に相当する色調のいずれに属するかに係る評価結果を前記解析結果として取得する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記照明光設定部は、前記第1の画像の色調が退色した粘膜の色調に相当するとの第1の評価結果が得られた場合に、前記複数の波長帯域の光の中から選択した紫色光、前記緑色光及び前記赤色光を前記第2の照明光として設定し、前記第1の画像の色調が発赤した粘膜の色調に相当するとの第2の評価結果が得られた場合に、前記複数の波長帯域の光の中から選択した青色光、前記緑色光及び琥珀色光を前記第2の照明光として設定し、前記第1の画像の色調が通常の粘膜の色調に相当するとの第3の評価結果が得られた場合に、前記複数の波長帯域の光の中から選択した前記青色光、前記緑色光及び前記赤色光を前記第2の照明光として設定する
     ことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記第1の評価結果が得られた場合に、前記第2の照明光の照射時に前記被写体を撮像して得られた第2の画像に含まれる紫色成分、緑色成分及び赤色成分を用いて観察画像を生成し、前記第2の評価結果が得られた場合に、前記第2の画像に含まれる青色成分、緑色成分及び琥珀色成分を用いて観察画像を生成し、前記第3の評価結果が得られた場合に、前記第2の画像に含まれる青色成分、緑色成分及び赤色成分を用いて観察画像を生成するように構成された観察画像生成部をさらに有する
     ことを特徴とする請求項3に記載の内視鏡システム。
  5.  前記照明光設定部は、前記複数の波長帯域の光の中から選択した紫色光、緑色光及び赤色光を前記第1の照明光として設定し、
     前記画像解析部は、前記第1の画像を解析することにより、前記第1の画像に所定の色調を有する異常所見領域が含まれているか否かに係る判定結果を前記解析結果として取得する
     ことを特徴とする請求項1に記載の内視鏡システム。
  6.  前記照明光設定部は、前記第1の画像に前記所定の色調を有する異常所見領域が含まれているとの第1の判定結果が得られた場合に、前記複数の波長帯域の光の中から選択した前記紫色光及び琥珀色光を前記第2の照明光として設定し、前記第1の画像に前記所定の色調を有する異常所見領域が含まれていないとの第2の判定結果が得られた場合に、前記複数の波長帯域の光の中から選択した青色光及び前記琥珀色光を前記第2の照明光として設定する
     ことを特徴とする請求項5に記載の内視鏡システム。
  7.  前記第1の判定結果が得られた場合に、前記第1の画像に含まれる紫色成分及び緑色成分と、前記第2の照明光の照射時に前記被写体を撮像して得られた第2の画像に含まれる紫色成分及び琥珀色成分と、を用いて観察画像を生成し、前記第2の判定結果が得られた場合に、前記第1の画像に含まれる紫色成分、緑色成分及び赤色成分と、前記第2の画像に含まれる青色成分及び琥珀色成分と、を用いて観察画像を生成するように構成された観察画像生成部をさらに有する
     ことを特徴とする請求項6に記載の内視鏡システム。
  8.  前記照明光設定部は、前記第1の画像に前記所定の異常所見に該当する生体組織が含まれているとの第1の判定結果が得られた場合に、前記複数の波長帯域の光の中から選択した前記紫色光を前記第2の照明光として設定し、前記第1の画像に前記所定の異常所見に該当する生体組織が含まれていないとの第2の判定結果が得られた場合に、前記複数の波長帯域の光の中から選択した青色光及び前記琥珀色光を前記第2の照明光として設定する
     ことを特徴とする請求項5に記載の内視鏡システム。
  9.  前記第1の判定結果が得られた場合に、前記第1の画像に含まれる紫色成分及び緑色成分と、前記第2の照明光の照射時に前記被写体を撮像して得られた第2の画像に含まれる紫色成分と、を用いて観察画像を生成し、前記第2の判定結果が得られた場合に、前記第1の画像に含まれる紫色成分、緑色成分及び赤色成分と、前記第2の画像に含まれる青色成分及び琥珀色成分と、を用いて観察画像を生成するように構成された観察画像生成部をさらに有する
     ことを特徴とする請求項8に記載の内視鏡システム。
  10.  前記照明光設定部は、前記複数の波長帯域の光の中から選択した紫色光、緑色光及び赤色光を前記第1の照明光として設定し、
     前記画像解析部は、前記第1の画像を解析することにより、前記第1の画像に含まれる粘膜の萎縮度に係る評価結果を前記解析結果として取得する
     ことを特徴とする請求項1に記載の内視鏡システム。
  11.  前記照明光設定部は、前記第1の画像に含まれる粘膜の萎縮度が軽度または中等度のいずれかであるとの第1の評価結果が得られた場合に、前記複数の波長帯域の光の中から選択した前記紫色光、前記緑色光及び琥珀色光を前記第2の照明光として設定し、前記第1の画像に含まれる粘膜の萎縮度が高度であるとの第2の評価結果が得られた場合に、前記複数の波長帯域の光の中から選択した青色光、前記緑色光及び前記琥珀色光を前記第2の照明光として設定する
     ことを特徴とする請求項10に記載の内視鏡システム。
  12.  前記第1の評価結果が得られた場合に、前記第2の照明光の照射時に前記被写体を撮像して得られた第2の画像に含まれる紫色成分、緑色成分及び琥珀色成分を用いて観察画像を生成し、前記第2の評価結果が得られた場合に、前記第1の画像に含まれる紫色成分及び赤色成分と、前記第2の画像に含まれる青色成分、緑色成分及び琥珀色成分と、を用いて観察画像を生成するように構成された観察画像生成部をさらに有する
     ことを特徴とする請求項11に記載の内視鏡システム。
  13.  前記照明光設定部は、前記画像解析部の処理により得られた最新の解析結果が前記第2の照明光を設定した際に参照した過去の解析結果と異なり、かつ、前記最新の解析結果と同じ解析結果を連続して取得した回数が所定の回数以上である場合に、前記第2の照明光の設定内容を前記最新の解析結果に応じた設定内容に変更する
     ことを特徴とする請求項1に記載の内視鏡システム。
  14.  互いに異なる複数の波長帯域の光を発生することができるとともに、被検体内に存在する生体組織を含む被写体を照明するための照明光として、第1の照明光及び第2の照明光を交互に発生することができるように構成された光源部と、
     前記照明光が照射された前記被写体からの戻り光を撮像するように構成された撮像部と、
     前記第1の照明光の照射時に前記被写体を撮像して得られた第1の画像を解析することにより、前記第1の画像に含まれる生体組織における異常所見の有無に係る解析結果を取得するように構成された画像解析部と、
     前記第1の照明光に含まれる前記複数の波長帯域の光の光量比を第1の光量比に設定するとともに、前記第2の照明光に含まれる前記複数の波長帯域の光の光量比を前記解析結果に応じて異なる第2の光量比に設定するように構成された照明光設定部と、
     を有することを特徴とする内視鏡システム。
  15.  前記照明光設定部は、前記第1の照明光に含まれる紫色光の比率を青色光の比率よりも小さくするとともに、前記第1の照明光に含まれる琥珀色光の比率を赤色光の比率よりも小さくするような光量比を前記第1の光量比として設定し、
     前記画像解析部は、前記第1の画像を解析することにより、前記第1の画像に含まれる粘膜の萎縮度に係る評価結果を前記解析結果として取得する
     ことを特徴とする請求項14に記載の内視鏡システム。
  16.  前記照明光設定部は、前記第1の画像に含まれる粘膜の萎縮度が軽度または中等度のいずれかであるとの第1の評価結果が得られた場合に、前記第2の照明光に含まれる前記青色光の比率を前記紫色光の比率よりも小さくするとともに、前記第2の照明光に含まれる前記赤色光の比率を前記琥珀色光の比率よりも小さくするような光量比を前記第2の光量比として設定し、前記第1の画像に含まれる粘膜の萎縮度が高度であるとの第2の評価結果が得られた場合に、前記第2の光量比を前記第1の光量比と同じ光量比に設定する
     ことを特徴とする請求項15に記載の内視鏡システム。
PCT/JP2019/010619 2018-04-24 2019-03-14 内視鏡システム WO2019208011A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020516095A JP7105300B2 (ja) 2018-04-24 2019-03-14 内視鏡システム及び内視鏡システムの作動方法
CN201980026948.5A CN111989027A (zh) 2018-04-24 2019-03-14 内窥镜系统
US17/060,509 US11915413B2 (en) 2018-04-24 2020-10-01 Endoscope system and method of controlling endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018083282 2018-04-24
JP2018-083282 2018-04-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/060,509 Continuation US11915413B2 (en) 2018-04-24 2020-10-01 Endoscope system and method of controlling endoscope system

Publications (1)

Publication Number Publication Date
WO2019208011A1 true WO2019208011A1 (ja) 2019-10-31

Family

ID=68293542

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010619 WO2019208011A1 (ja) 2018-04-24 2019-03-14 内視鏡システム

Country Status (4)

Country Link
US (1) US11915413B2 (ja)
JP (1) JP7105300B2 (ja)
CN (1) CN111989027A (ja)
WO (1) WO2019208011A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6916768B2 (ja) * 2018-09-05 2021-08-11 富士フイルム株式会社 内視鏡システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012000160A (ja) * 2010-06-14 2012-01-05 Fujifilm Corp 内視鏡装置
JP2012213550A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
WO2013085061A1 (ja) * 2011-12-08 2013-06-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014156937A1 (ja) * 2013-03-27 2014-10-02 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
JP2015204960A (ja) * 2014-04-18 2015-11-19 オリンパス株式会社 カプセル内視鏡システム、カプセル内視鏡、受信装置、カプセル内視鏡の発光制御方法、及びプログラム
JP2016059402A (ja) * 2014-09-12 2016-04-25 富士フイルム株式会社 内視鏡用光源装置及び内視鏡システム
WO2017057392A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3731814B2 (ja) * 2001-05-07 2006-01-05 富士写真フイルム株式会社 蛍光画像表示装置
CN102215736B (zh) * 2008-11-18 2015-04-29 斯特赖克公司 具有反馈控制系统的内窥镜led光源
US10117705B2 (en) * 2011-05-16 2018-11-06 Covidien Lp Optical recognition of tissue and vessels
WO2015151663A1 (ja) * 2014-03-31 2015-10-08 富士フイルム株式会社 医用画像処理装置及びその作動方法並びに内視鏡システム
JP6247610B2 (ja) 2014-07-30 2017-12-13 富士フイルム株式会社 内視鏡システム、内視鏡システムの作動方法、光源装置、光源装置の作動方法
JP6367683B2 (ja) * 2014-10-21 2018-08-01 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6581923B2 (ja) * 2016-03-03 2019-09-25 富士フイルム株式会社 画像処理装置とその作動方法および作動プログラム
CN109998456A (zh) * 2019-04-12 2019-07-12 安翰科技(武汉)股份有限公司 胶囊型内窥镜及其控制方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012000160A (ja) * 2010-06-14 2012-01-05 Fujifilm Corp 内視鏡装置
JP2012213550A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 生体情報取得システムおよび生体情報取得方法
WO2013085061A1 (ja) * 2011-12-08 2013-06-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014156937A1 (ja) * 2013-03-27 2014-10-02 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
JP2015204960A (ja) * 2014-04-18 2015-11-19 オリンパス株式会社 カプセル内視鏡システム、カプセル内視鏡、受信装置、カプセル内視鏡の発光制御方法、及びプログラム
JP2016059402A (ja) * 2014-09-12 2016-04-25 富士フイルム株式会社 内視鏡用光源装置及び内視鏡システム
WO2017057392A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法

Also Published As

Publication number Publication date
CN111989027A (zh) 2020-11-24
JPWO2019208011A1 (ja) 2021-02-25
JP7105300B2 (ja) 2022-07-22
US11915413B2 (en) 2024-02-27
US20210113058A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
JP6285383B2 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び内視鏡システムの作動方法
US10251538B2 (en) Endoscope system and method for controlling the same
JP4847250B2 (ja) 内視鏡装置
JP5496075B2 (ja) 内視鏡診断装置
JP2019081044A (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP6336098B2 (ja) 生体観察システム
JP6454359B2 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
EP2803313A1 (en) Processor device, endoscope system, and operation method of endoscope system
JP2001170009A (ja) 被検体観察装置
EP1743568B1 (en) Image processing device
JP5972312B2 (ja) 医用画像処理装置及びその作動方法
WO2018142658A1 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム
US20200397278A1 (en) Endoscope system, image processing apparatus, image processing method, and recording medium
WO2019208011A1 (ja) 内視鏡システム
CN110573056B (zh) 内窥镜系统
JP6047536B2 (ja) 医用画像処理装置及びその作動方法
US20210052150A1 (en) Endoscope system and image processing method
JP6425995B2 (ja) 内視鏡システム及びその作動方法
JP6669539B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP6586206B2 (ja) 内視鏡システム及びその作動方法
JP6855610B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP2022160298A (ja) 医用画像処理装置及びその作動方法
JP2021184924A (ja) 医用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19791485

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020516095

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19791485

Country of ref document: EP

Kind code of ref document: A1