WO2019059059A1 - 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置 - Google Patents

医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置 Download PDF

Info

Publication number
WO2019059059A1
WO2019059059A1 PCT/JP2018/033756 JP2018033756W WO2019059059A1 WO 2019059059 A1 WO2019059059 A1 WO 2019059059A1 JP 2018033756 W JP2018033756 W JP 2018033756W WO 2019059059 A1 WO2019059059 A1 WO 2019059059A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
specific
image
light emission
specific light
Prior art date
Application number
PCT/JP2018/033756
Other languages
English (en)
French (fr)
Inventor
青山 達也
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP18857613.6A priority Critical patent/EP3685731B1/en
Priority to CN201880061401.4A priority patent/CN111107778B/zh
Priority to JP2019543581A priority patent/JP6924837B2/ja
Publication of WO2019059059A1 publication Critical patent/WO2019059059A1/ja
Priority to US16/824,629 priority patent/US11439297B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs

Definitions

  • the present invention relates to a medical image processing apparatus using a white light for observing an observation target and a specific light for detecting a region of interest such as a lesion, an endoscope system, a diagnosis support apparatus, and a medical service support apparatus. .
  • an endoscope system illumination light is irradiated to an observation target and an observation target is imaged to acquire an endoscope image which is one of medical images.
  • the acquired endoscopic image is displayed on a display unit such as a monitor and used for diagnosis of an observation target.
  • a lesion is provided by illuminating a specific light having a specific wavelength band including a narrow band light of a short wave on an observation target to improve the visibility of a lesion on the observation target. It is also practiced to make it easier to detect parts.
  • the specific light image obtained by the specific light is displayed in a color different from the color of the observation target such as pseudo color, the user may not be familiar with the white light image as compared with the white light image usually used for observation. There are many. Therefore, in Patent Document 1, a lesion area is detected from a specific light image, and the detected lesion area is highlighted with a white light image so that the lesion area can be observed on a familiar white light image.
  • the observation condition of the observation target is changed according to the operation mode by the user, the purpose of diagnosis, and the like. For example, in a region where there is no lesion, or in a region where lesion confirmation is easy, etc., while the moving speed of the endoscope is fast, in a region where there is a suspicion of a lesion or in a region where lesion confirmation is difficult, etc. The mirror moves slowly.
  • the zoom of the endoscope is used to enlarge the area considered to be a lesion.
  • observation is performed with a low amount of light when it is separated from the observation target, observation is performed with a high amount of light when it is close to the observation target when identifying a lesion or the like. It will be.
  • the frame rate of the white light may be lowered, and the observation image may be dropped.
  • the lowering of the frame rate becomes remarkable due to the influence of the rolling shutter.
  • the ratio of the light emission frame of the specific light is reduced in order to suppress frame dropping of the observation image, the timing at which the lesion can be detected decreases, and the lesion may be overlooked.
  • the appearance changes depending on the difference in the photographing angle and the distance even at the same place. Therefore, the possibility of missing a lesion is increased by decreasing the ratio of the light emission frame of the specific light.
  • the present invention is a medical image processing system capable of reliably detecting a region of interest such as a lesion and making it easy to grasp an observation target, in accordance with an observation condition changing according to an operation mode or a diagnostic purpose by a user.
  • An object of the present invention is to provide an endoscope system, a diagnosis support device, and a medical service support device.
  • the medical image processing system of the present invention includes a light source unit, an imaging unit, an observation status acquisition unit, and a light source control unit.
  • the light source emits white light or specific light having a spectrum different from white light.
  • the imaging unit captures an observation target under illumination with white light to obtain a white light image, and images a viewing target under illumination with specific light to obtain a specific light image.
  • the observation state acquisition unit acquires at least one of the moving speed of the imaging unit, the zoom information on the zoom for enlarging the observation target, or the light emission amount of the white light or the specific light.
  • the light source control unit controls the number of light emission frames of white light and the light emission frame of the specific light in one light emission cycle according to at least one of the moving speed of the imaging unit, the zoom information, or the light emission amount of the white light or the specific light Control the number of Furthermore, an attention area detection image for performing attention area detection processing for detecting the attention area from the specific light image, and an attention area display image in which the detection result in the attention area detection unit is reflected on the white light image It is preferable to provide a display unit.
  • the light source control unit performs control to increase the number of light emission frames of specific light more than the number of light emission frames of white light when the zoom is used, and when the zoom is not used, the number of light emission frames of the white light It is preferable to perform control to increase the number of light emission frames of specific light.
  • the moving speed of the imaging unit exceeds the speed threshold, the light source control unit performs control to increase the number of light emitting frames of white light more than the number of light emitting frames of specific light, and the moving speed of the imaging unit is the speed When it becomes below the threshold value, it is preferable to perform control to make the number of light emission frames of specific light larger than the number of light emission frames of white light.
  • the light source control unit performs control to increase the number of light emission frames of white light more than the number of light emission frames of specific light when the light emission amount of the white light or the specific light exceeds the light emission amount threshold, When the light emission amount of the specific light is equal to or less than the light emission amount threshold, it is preferable to perform control to make the number of light emission frames of the specific light larger than the number of light emission frames of white light.
  • a specific light detection result determination unit that determines a specific light detection result to be reflected on a white light image. If the result of presence / absence of attention area detection is obtained for the same area of the observation target from a plurality of specific light images, the specific light detection result determination unit can obtain attention area detection It is preferable to determine, as the specific light detection result, either the result with presence of area of interest detection or the result with no area of interest detection according to a majority decision based on the number of results of and the number of results without area of interest detection.
  • a discrimination part which performs the discrimination process which discriminates the observation object contained in the attention area, and the result of the discrimination process is displayed on a display part.
  • a discrimination result determination unit that determines a specific light discrimination result to be displayed on the display unit based on the result of discrimination processing for each attention area.
  • the result of the discrimination process is represented by a stage determined according to the state of the observation target, and the discrimination result determination unit determines, when the result of a plurality of discrimination processes with different stages is obtained for the same attention area, It is preferable to determine the stage as a specific light discrimination result by majority based on the result of a plurality of discrimination processes.
  • the result of the discrimination process is represented by a stage determined according to the state of the observation target, and the discrimination result determination unit determines, when the result of a plurality of discrimination processes with different stages is obtained for the same attention area, It is preferable to determine the stage as a specific light discrimination result by averaging the results of a plurality of discrimination processes.
  • the light source unit emits discrimination illumination light instead of or in addition to the specific light.
  • the peak wavelength of the identification illumination light preferably includes 410 nm.
  • the peak wavelength of the specific light preferably includes 450 nm.
  • the endoscope system of the present invention includes a light source unit, an endoscope, an observation state acquisition unit, and a light source control unit.
  • the light source emits white light or specific light having a spectrum different from white light.
  • the endoscope has an imaging unit that captures an observation target under illumination with white light to obtain a white light image, captures an observation target under illumination using specific light, and obtains a specific light image.
  • the observation state acquisition unit acquires an observation state including at least one of the moving speed of the endoscope, zoom information on a zoom for enlarging the observation target, or the amount of light of white light or specific light.
  • the light source control unit controls the ratio of the light emission frame of the white light to the light emission frame of the specific light according to at least one of the moving speed of the endoscope, the zoom information, or the light emission amount of the white light or the specific light. Do. Furthermore, an attention area detection image for performing attention area detection processing for detecting the attention area from the specific light image, and an attention area display image in which the detection result in the attention area detection unit is reflected on the white light image It is preferable to provide a display unit.
  • the diagnostic support apparatus of the present invention includes the medical image processing system of the present invention described above.
  • the medical service support device of the present invention includes the medical image processing system of the present invention described above.
  • the present invention it is possible to reliably detect an attention area such as a lesion and to easily grasp an observation target in accordance with an observation situation which changes depending on an operation mode or a diagnostic purpose by a user.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
  • the endoscope 12 emits illumination light to an observation target to be observed, and captures an image of the observation target illuminated by the illumination light.
  • the light source device 14 generates illumination light for irradiating an observation target.
  • the processor device 16 performs system control, image processing, and the like of the endoscope system 10.
  • the monitor 18 is a display unit that displays an image output from the processor device 16.
  • the user interface 19 is an input device for performing setting input and the like to the processor device 16 and the like, and includes a keyboard KB, a mouse MS, and the like.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a curved portion 12c provided at the distal end side of the insertion portion 12a, and a distal end portion 12d. ,have.
  • the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b.
  • the bending of the bending portion 12 c causes the tip 12 d to face in a desired direction.
  • the tip 12 d is provided with an injection port (not shown) for injecting air, water, and the like toward the observation target.
  • the zoom operation unit 13 is provided in the operation unit 12b. By operating the zoom operation unit 13, it is possible to magnify or reduce the image of the observation target. Further, a forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the distal end portion 12d. The treatment tool is inserted into the forceps channel from the forceps inlet 12f.
  • the light source device 14 includes a light source unit 20 and a light source control unit 22.
  • the light source unit 20 emits illumination light for illuminating the observation target.
  • the light source unit 20 includes one or more light sources, and emits white light or a plurality of illumination lights including specific light having a spectrum different from white light. Specifically, the light source unit 20 emits white light having a blue band, a green band, and a red band, or specific light having a specific band whose peak wavelength includes 450 nm.
  • the light source unit 20 is provided with a light emission amount measurement unit 21 that measures the light emission amount of white light or the light emission amount of specific light. Information on the light emission amount of the white light or the light emission amount of the specific light is sent to the light source control unit 22.
  • the “observation condition acquisition unit” in the present invention corresponds to the “emission amount measurement unit 21”.
  • the light source control unit 22 controls the drive of the light source unit 20.
  • the light source control unit 22 independently controls the timing of turning on or off the light source constituting the light source unit 20, the light emission amount at the time of lighting, and the like.
  • the light source unit 20 can emit plural types of illumination lights having different light emission amounts and light emission timings.
  • a light emission mode for controlling the light emission of the light source unit 20 a normal mode for emitting white light, white light and specific light are automatically switched in accordance with a specific light emission pattern to emit light. It has a special mode.
  • the light source control unit 22 sets a specific light emission pattern according to the moving speed of the endoscope 12, zoom information, or the amount of light emission of white light or specific light. For example, when the moving speed of the endoscope 12 exceeds the speed threshold, the number of light emission frames of white light is made larger than the number of light emission frames of a specific light in one light emission cycle as a specific light emission pattern A light emission pattern of 1 is set, and the light source control unit 22 performs light emission control based on the first light emission pattern.
  • one light emission cycle includes a specific number of light emission frames, and includes a light emission frame that emits white light and a light emission frame that emits specific light.
  • the first light emission pattern is set to reduce the number of light emission frames of the specific light.
  • the number of light emission frames per light emission cycle (the sum of the number of light emission frames of white light and the number of light emission frames of specific light) may be fixed or may be changed according to the specific frame number change condition. It is also good. For example, in the case where the number of light emission frames per light emission frame is nine, the number of light emission frames per light emission frame is changed to five when a specific frame number change condition is satisfied.
  • the first light emission pattern is set, there are cases where "zoom not used” or the amount of light emission of white light or specific light exceeds the light emission amount threshold. Even in such a case, as in the case where the movement speed of the endoscope 12 exceeds the speed threshold, the lesion is detected under the condition where the region without lesion or where the lesion confirmation is easy to observe is observed. It is considered that the first light emission pattern is set because it is considered that the need to do so is low.
  • the number of light emission frames of specific light is set to be larger than the number of light emission frames of white light in one light emission cycle as a specific light emission pattern.
  • a second light emission pattern to be the same is set, and the light source control unit 22 performs light emission control based on the second specific light emission pattern.
  • the second light emission pattern is set to increase the number of light emission frames of the specific light.
  • the specific light is emitted continuously for the “3” frame.
  • the second light emission pattern there may be a case of “during zoom in use” or a light emission amount of white light or specific light may be equal to or less than a light emission amount threshold.
  • the second light emission pattern is set because it is considered that the need for detection is high.
  • the number of light emission frames of white light and the number of light emission frames of specific light are the same. It is preferable to set to the 2nd light emission pattern to be used. For example, as shown in FIG. 5, when the number of light emission frames of white light is “1” and the number of light emission frames of specific light is “1” in one light emission cycle as the second light emission pattern, White light and specific light are alternately emitted for each frame. In the second light emission pattern, it is preferable to increase the number of light emission frames of the specific light in one light emission cycle as the zoom magnification becomes higher in “in use of zoom”.
  • the identification processing by the identification unit 78 described later may be performed.
  • the identification illumination light whose peak wavelength is 410 nm It is preferable to switch. In FIG. 6, in one light emission cycle, the number of light emission frames of white light is “1”, and the number of light emission frames of identification illumination light is “3”.
  • the illumination light for discrimination clearly illuminates surface structures such as a blood vessel structure and a duct structure. Because it can be used to distinguish lesions. Therefore, it is preferable to switch from the specific light to the illumination light for discrimination when the observation is performed by enlarging the lesion or the like by using the zoom.
  • the identification illumination light may be emitted without switching from the identification light to the identification illumination light.
  • the illumination light emitted by the light source unit 20 is incident on the light guide 41.
  • the light guide 41 is incorporated in the endoscope 12 and the universal cord (not shown), and propagates the illumination light to the distal end 12 d of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used. As an example, it is possible to use a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer to be an outer shell.
  • An illumination optical system 30 a and an imaging optical system 30 b are provided at the distal end 12 d of the endoscope 12.
  • the illumination optical system 30 a includes an illumination lens 45, and illumination light is emitted toward the observation target via the illumination lens 45.
  • the imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an image sensor 48.
  • the image sensor 48 includes reflected light of illumination light returning from the observation target via the objective lens 46 and the zoom lens 47 (in addition to reflected light, scattered light, fluorescence emitted from the observation target, or a drug administered to the observation target, etc. Image of the observation target using the fluorescence etc. caused by
  • the zoom lens 47 moves by operating the zoom operation unit 13 and enlarges or reduces the observation target to be imaged using the image sensor 48.
  • the zoom information on the zoom for enlarging the observation target by the zoom lens 47 is sent from the zoom information output unit 49 to the light source control unit 22 of the light source device 14.
  • zoom information for example, when the zoom lens 47 is positioned at the wide end and the observation target is not magnified, “zoom not used” is set. On the other hand, when the zoom lens 47 is moved from the wide end to the tele end side and the observation target is enlarged, “zoom in use” is made.
  • the zoom information also includes information on the zoom magnification of the zoom lens 47 in “in use of zoom”.
  • the image sensor 48 is, for example, a color sensor having a primary color filter, and has B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R having red color filters. There are three types of pixels (red pixels). Blue color filters transmit mainly violet to blue light. The green color filter transmits mainly green light. The red color filter transmits mainly red light. As described above, when the observation target is imaged using the primary color image sensor 48, the B image (blue image) obtained from the B pixels, the G image (green image) obtained from the G pixels, and the R pixels are obtained at the maximum. Three types of images of R image (red image) can be obtained simultaneously.
  • a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor can be used.
  • CMOS complementary metal oxide semiconductor
  • the complementary color sensor includes, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter.
  • the image obtained from the pixels of each color when using a complementary color sensor can be converted into a B image, a G image, and an R image by performing complementary-primary color conversion.
  • a monochrome sensor without a color filter can be used as the image sensor 48. In this case, an image of each color can be obtained by sequentially imaging the observation target using illumination light of each color such as BGR.
  • the processor device 16 includes a central control unit 52, an image acquisition unit 54, an image processing unit 61, and a display control unit 66.
  • the central control unit 52 performs overall control of the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the imaging timing.
  • the central control unit 52 controls the input various settings as the light source control unit 22, the image sensor 48, or the image processing unit 61.
  • the data is input to each part of the endoscope system 10.
  • the image acquisition unit 54 acquires an image obtained by capturing an observation target from the image sensor 48.
  • the image acquired by the image acquisition unit 54 is an image acquired by a medical device such as the endoscope 12 and thus is referred to as a medical image.
  • the image acquisition unit 54 includes a DSP (Digital Signal Processor) 56, a noise reduction unit 58, and a conversion unit 59, and uses these to perform various processes on the acquired medical image as needed.
  • the DSP 56 performs various processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, demosaicing processing, and YC conversion processing, as necessary, on the acquired medical image.
  • the defect correction process is a process of correcting the pixel value of the pixel corresponding to the defective pixel of the image sensor 48.
  • the offset process is a process of reducing the dark current component from the image subjected to the defect correction process and setting an accurate zero level.
  • the gain correction process is a process of adjusting the signal level of each image by multiplying the image subjected to the offset process by the gain.
  • the linear matrix processing is processing for improving the color reproducibility of the image subjected to the offset processing, and the gamma conversion processing is processing for adjusting the brightness and saturation of the image after the linear matrix processing.
  • demosaicing processing is processing for interpolating the pixel value of a missing pixel, and is applied to an image after gamma conversion processing.
  • the missing pixels are pixels having no pixel value due to the arrangement of the color filters (because pixels of other colors are arranged in the image sensor 48).
  • the demosaicing process interpolates the B image to generate pixel values of pixels located at G and R pixel positions of the image sensor 48.
  • the YC conversion process is a process of converting the image after the demosaicing process into a luminance channel Y, a color difference channel Cb, and a color difference channel Cr.
  • the noise reduction unit 58 performs noise reduction processing on the luminance channel Y, the color difference channel Cb, and the color difference channel Cr using, for example, a moving average method or a median filter method.
  • the conversion unit 59 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into an image of each color of BGR.
  • the image processing unit 61 performs various types of image processing on the medical image acquired by the image acquisition unit 54.
  • the types of image processing performed in the normal mode and the special mode are different.
  • a white light image is generated by performing image processing (white light image processing) corresponding to white light on a medical image obtained at the time of illumination of white light.
  • a white light image is generated by performing image processing (white light image processing) corresponding to white light on a medical image obtained at the time of illumination of white light.
  • an attention area is detected from the specific light image which is a medical image obtained at the time of illumination of the specific light, and a discrimination process regarding a lesion is performed on the detected attention area.
  • an attention area display image is generated by reflecting the detection result of the attention area and the result of the discrimination process on the white light image.
  • the display control unit 66 converts the white light image or the image for attention area display image sent from the image processing unit 61 into a format suitable for display on the monitor 18 and outputs the converted format to the monitor 18. As a result, a white light image or an image for displaying a region of interest is displayed on the monitor 18.
  • the image processing unit 61 identifies the white light image processing unit 70, the movement speed calculation unit 72, the attention area detection unit 74, the specific light detection result determination unit 76, and the discrimination unit 78. And a result determination unit 80.
  • the white light image processing unit 70 performs white light image processing, which is image processing corresponding to white light, on a medical image obtained when white light is illuminated in the normal mode or the special mode. This gives a white light image.
  • the white light image processing includes, in addition to the color adjustment processing for approaching the color of the observation target, the structure emphasis processing for emphasizing the structure on the observation target.
  • the moving speed calculation unit 72 calculates the moving speed of the endoscope 12 using either the white light image or the specific light image.
  • the calculated moving speed of the endoscope 12 is sent to the light source control unit 22 of the light source device 14.
  • the moving speed of the endoscope 12 refers to the image sensor 48 (the “imaging unit” of the present invention) by the operation of the other endoscope 12 by which the user pushes or pulls the insertion portion 12 a of the endoscope 12 into the lumen.
  • the speed at which the tip of the endoscope 12 in which the corresponding) is built is moved.
  • a moving vector is calculated from a plurality of white light images or specific light images different in image acquisition timing, and the moving speed of the endoscope 12 is calculated based on the moving vector.
  • the moving speed of the endoscope 12 becomes faster as the moving vector becomes larger.
  • the “observation status acquisition unit” in the present invention corresponds to the “moving speed calculation unit 72”.
  • the attention area detection unit 74 performs attention area detection processing of detecting an attention area to be noted as a target of examination or diagnosis from the specific light image.
  • the feature quantity is calculated from the specific light image, and the area in which the calculated feature quantity falls within the specific range is detected as the attention area.
  • the detected region of interest is displayed on the white light image as a rectangular region ROI as shown in FIG.
  • the attention area detected by the attention area detection unit 74 is not limited to a two-dimensional area such as the surface of the observation target. For example, in addition to the surface of the observation target, a three-dimensional region in the depth direction (infiltration) of the observation target may be detected as a region of interest.
  • the feature value may be a blood vessel index value regarding a blood vessel described later, or a duct duct index value regarding a duct structure.
  • the feature amount for example, in addition to performing a convolutional neural network on a specific light image, a feature amount obtained by color information of a specific light image, a gradient of pixel values, or the like may be used.
  • the gradient of the pixel value is, for example, the shape of the subject (such as the global unevenness of the mucous membrane or the local depression or bulge), the color (color such as inflammation, hemorrhage, redness, or whitening due to atrophy)
  • the attention area detected by the attention area detection unit 74 includes, for example, a lesion area represented by cancer, a benign tumor area, and an inflammation area (including a so-called inflammation, a part having a change such as bleeding or atrophy)
  • a lesion area represented by cancer
  • a benign tumor area and an inflammation area (including a so-called inflammation, a part having a change such as bleeding or atrophy)
  • This is a region including a marking portion marked by heating scars or coloring agents, coloring with a fluorescent agent or the like, or a biopsy performing portion where a biopsy (so-called biopsy) is performed. That is, for an area including a lesion, an area having a possibility of a lesion, an area subjected to some kind of treatment such as a biopsy, a treatment tool such as a clip or a clamp, or a dark area (back of a fold).
  • the attention area detection unit 74 detects an area including at least one of a lesion, a benign tumor, an inflammation, a marking unit, and a biopsy performing unit as an attention area.
  • the attention area detected from the one specific light image is superimposed on the white light image as it is indicate.
  • attention area detection processing is performed on each specific light image, and attention on each of the specific light images is performed. It is preferable to determine the specific light detection result to be reflected on the white light image based on the result of the area detection process.
  • the specific light detection result determination unit 76 obtains both the result of presence / absence of attention area detection and the result of absence of attention area detection for the same area from a plurality of specific light images in one light emission cycle. Based on the number of results of attention area detection and the number of results of no detection of attention area, either the result of attention area detection or the result of no attention area detection is determined as the specific light detection result.
  • the specific light image having the result of detection of the target area is “3” for the same area.
  • the specific light image having the result of no detection is “2”
  • the result of presence / intention area detection is determined as the specific light detection result by majority decision.
  • the number of results of attention area detection is the same as the number of results of attention area detection, it is preferable to set the result of attention area detection as the specific light detection result.
  • the discrimination unit 78 calculates various index values from the region of interest detected by the region of interest detection unit 74, and performs a discrimination process of identifying an observation target included in the region of interest based on the calculated various index values.
  • the various index values include blood vessel index values related to blood vessels such as blood vessel density and blood vessel travel patterns, and ductal index values related to duct structure.
  • the discrimination process for example, the degree of progression (stage) of the lesion site and the like can be mentioned.
  • the result of the discrimination process is displayed on the monitor 18 in association with the region of interest ROI as shown in FIG. 10 (“Stage 2” in FIG. 10).
  • the discrimination processing Display on the result.
  • discrimination processing is performed on each attention image, and discrimination processing on each of these attention areas. It is preferable to determine the specific light discrimination result to be displayed on the monitor 18 based on the result of the above.
  • the discrimination result processing for determining the specific light discrimination result is performed in the discrimination result determination unit 80.
  • the specific light discrimination result determined by the discrimination result determination unit 80 is displayed on the monitor 18 together with the white light image on which the region of interest ROI is displayed superimposed.
  • the discrimination result determination unit 80 detects the regions of interest respectively from the plurality of specific light images in one light emission cycle, and when the discrimination process is performed on each of the regions of attention, the discrimination result determination unit 80 is based on the result of the discrimination process on each of the regions of attention You may determine as a specific light discrimination result by majority decision. For example, as shown in FIG. 11, when five specific light images are obtained in one light emission cycle and one attention area is detected from each of the specific light images, attention is paid to the fact that the result of the discrimination process is "stage 2". If the region of interest is “3” and the result of the discrimination process is “stage 1” and the region of interest is “2”, “stage 2” is determined as the specific light discrimination result.
  • the "stage” is predetermined according to the state of the observation target such as a lesion, and generally, the larger the number of the "stage", the higher the progression of the lesion.
  • the discrimination result determination unit 80 detects a region of interest from each of a plurality of specific light images in one light emission cycle, and when discrimination processing is performed on each region of interest, the result of discrimination processing on each region of interest The averaged result of may be determined as the specific light discrimination result. For example, as shown in FIG. 12, when five specific light images are obtained in one light emission cycle and one target area is detected from each of the specific light images, it is noted that the result of the discrimination process is “stage 3”.
  • the movement speed calculation unit 72 calculates the movement speed of the endoscope 12. Further, the zoom information output unit 49 outputs zoom information regarding the zoom for enlarging the observation target. In addition, the light emission amount measurement unit 21 measures the light emission amount of white light or the light emission amount of the specific light.
  • the number of emission frames of white light in one emission cycle is the number of emission frames of the specific light
  • the first light emission pattern which is larger than the first light emission pattern or the second light emission pattern which makes the number of light emission frames of specific light larger than the number of light emission frames of white light in one light emission cycle is determined. If the moving speed of the endoscope 12 exceeds the speed threshold, if the zoom is not used, or if the amount of light of white light or specific light exceeds the threshold for light emission, the first light emission pattern Set to Then, the light source control unit 22 performs light source control in accordance with the first light emission pattern.
  • the light source control unit 22 performs light source control in accordance with the second light emission pattern.
  • a white light image is obtained by imaging an observation object illuminated by white light. Moreover, a specific light image is acquired by imaging the observation object illuminated by the specific light.
  • the attention area detection unit 74 detects the attention area ROI from the specific light image. The detected area of interest is displayed superimposed on the white light image. When one frame of specific light is emitted in one light emission cycle and a specific light image for one frame is obtained, the attention area detected from the specific light image of one frame is displayed superimposed on the white light image.
  • attention area detection processing is performed on each specific light image. Then, the specific light detection result determination unit 76 determines the specific light detection result to be reflected on the white light image based on the result of the attention area detection processing for each specific light image. The specific light detection result is reflected on the white light image.
  • the number of white light emission frames or the number of specific light emission frames is controlled depending on whether or not the moving speed of the endoscope 12 exceeds the speed threshold.
  • the learning device learns the relationship between the moving speed of the endoscope 12 and the number of luminous frames of white light or the number of luminous frames of specific light using a method such as AI (Artificial Intelligence), etc.
  • the number of emission frames of white light or the number of emission frames of specific light may be determined by inputting the moving speed of 12 into the learning device.
  • the learning device is made to learn the relationship between the number of light emission frames of white light or the number of light emission frames of specific light as to the zoom information or the light emission amount of white light or specific light.
  • the number of emission frames of white light or the number of emission frames of specific light may be determined by inputting zoom information or the amount of emission of white light or specific light into the learning device. Further, as described in the above embodiment, the number of light emission frames of the white light or the specific light is comprehensively taken into consideration comprehensively the moving speed of the endoscope 12, the zoom information, or the light emission amount of the white light or the specific light. The number of light emission frames may be determined.
  • the light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, and a G-LED (Green Light Emitting Diode). It is preferable to emit illumination light using four color LEDs 20c and R-LED (Red Light Emitting Diode) 20d and the wavelength cut filter 23.
  • V-LED Volt Light Emitting Diode
  • B-LED Blue Light Emitting Diode
  • G-LED Green Light Emitting Diode
  • the V-LED 20a emits violet light V in a wavelength band of 380 nm to 420 nm.
  • the B-LED 20b emits blue light B in a wavelength band of 420 nm to 500 nm.
  • the wavelength cut filter 23 cuts off at least the wavelength side longer than 450 nm of the peak wavelength.
  • the blue light Bx transmitted through the wavelength cut filter 23 is in the wavelength range of 420 to 460 nm.
  • the reason why light in the wavelength range longer than 460 nm is cut is a factor that reduces the blood vessel contrast of the blood vessel to be observed. It is because there is.
  • the wavelength cut filter 23 may reduce the light in the wavelength range longer than 460 nm instead of cutting the light in the wavelength range longer than 460 nm.
  • the G-LED 20c emits green light G having a wavelength band ranging from 480 nm to 600 nm.
  • the R-LED 20d emits red light R in a wavelength band of 600 nm to 650 nm.
  • the V-LED 20a, the B-LED 20b, the G-LED 20c, and the R-LED 20d are all turned on.
  • the light source device 14 emits white light including violet light V, blue light Bx, green light G, and red light R.
  • White light is almost white because it has a certain intensity or more from the blue band to the red band.
  • the light emission control of the V-LED 20a, the B-LED 20b, the G-LED 20c, and the R-LED 20d is performed such that white light or specific light emits light according to a specific light emission pattern.
  • white light is emitted, as described above, white light having a spectrum shown in FIG. 15 is emitted.
  • specific light when specific light is emitted, as shown in FIG. 16, the specific light of which the light emission amount of blue light Bx is larger than the light emission amounts of all of purple light V, green light G and red light R is It is emitted.
  • the illumination light may be emitted using a laser light source and a phosphor.
  • a blue laser light source (denoted as “445 LD”, where LD represents “Laser Diode”) 104 which emits blue laser light having a peak wavelength of 445 ⁇ 10 nm, as shown in FIG.
  • a blue-violet laser light source (denoted as "405 LD") 106 which emits blue-violet laser light having a peak wavelength of 405 ⁇ 10 nm.
  • the illumination optical system 30a is provided with a phosphor 110 to which blue laser light or blue-violet laser light from the light guide 24 is incident.
  • the phosphor 110 is excited by blue laser light to emit fluorescence.
  • part of the blue laser light transmits without exciting the phosphor 110.
  • the blue-violet laser light transmits without exciting the phosphor 110.
  • the light emitted from the phosphor 110 illuminates the body to be observed through the illumination lens 32.
  • the blue laser light source 104 since the blue laser light source 104 is turned on and mainly the blue laser light is incident on the phosphor 110, excitation from the phosphor 110 is performed by the blue laser light and the blue laser light as shown in FIG. White light is generated by combining the emitted fluorescent light.
  • emission control of the blue laser light source 104 and the blue-violet laser light source 106 is performed such that white light or specific light emits light in accordance with a specific light emission pattern.
  • white light having a spectrum shown in FIG. 18 is emitted.
  • the blue laser light source 104 and the blue-violet laser light source 106 are turned on, and both the blue-violet laser light and the blue laser light are incident on the phosphor 110.
  • the specific light which combined the fluorescence which carried out the excitation light emission from the fluorescent substance 110 by blue-violet laser light, blue laser light, and blue laser light is emitted.
  • the half width of the blue laser light or the blue-violet laser light is preferably about ⁇ 10 nm.
  • a broad area type InGaN-based laser diode can be used, and an InGaNAs-based laser diode or a GaNAs-based laser diode can also be used.
  • a light emitter such as a light emitting diode may be used as the light source.
  • the phosphor 110 absorbs a part of blue laser light and emits plural colors of green to yellow (for example, a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )). It is preferable to use what is comprised including.
  • a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 ) for example, a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )
  • BAM BaMgAl 10 O 17
  • the illumination light may be emitted using a broadband light source such as a xenon lamp and a rotary filter.
  • the light source unit 20 is provided with a broadband light source 202, a rotation filter 204, and a filter switching unit 206.
  • a diaphragm 203 is provided between the broadband light source 202 and the rotary filter 204.
  • the diaphragm control unit 205 adjusts the area of the opening of the diaphragm 203.
  • the aperture control unit 205 controls the aperture 203 based on the light control signal from the processor device 16.
  • the broadband light source 202 is a xenon lamp, a white LED, or the like, and emits broadband light ranging in wavelength from blue to red.
  • the rotation filter 204 includes a normal mode filter 210 provided on the inner side closest to the rotation axis, and a special mode filter 212 provided on the outer side of the normal mode filter 210 (see FIG. 21).
  • the filter switching unit 206 moves the rotary filter 204 in the radial direction. Specifically, the filter switching unit 206 inserts the normal mode filter 210 into the optical path of the white light when the mode switching unit 13c sets the normal mode. When the special mode is set, the filter switching unit 206 inserts the special mode filter 212 into the optical path of the white light.
  • the normal mode filter 210 is provided with a B filter 210a, a G filter 210b, and an R filter 210c along the circumferential direction.
  • the B filter 210a transmits wide band blue light B having a wavelength range of 400 to 500 nm out of the wide band light.
  • the G filter 210 b transmits green light G of the broadband light.
  • the R filter 210c transmits the red light R of the broadband light. Therefore, in the normal mode, the rotation filter 204 rotates.
  • the special mode filter 212 is provided with a B filter 212a, a G filter 212b, an R filter 212c, a Bn filter 212a, and a Gn filter 212b along the circumferential direction.
  • the B filter 212a transmits the blue light B similarly to the B filter 210a.
  • the G filter 212 b transmits green light G similarly to the G filter 210 a.
  • the R filter 212c transmits the red light R similarly to the R filter 210c.
  • the Bn filter 212 d transmits blue narrow band light Bn of 400 to 450 nm out of the wide band light.
  • the Gn filter 212 e transmits the green light G of the broadband light.
  • a monochrome image sensor When emitting illumination light using a broadband light source such as a xenon lamp and a rotary filter, a monochrome image sensor each time the observation target is illuminated with blue light B, green light G, and red light R in the normal mode Image the observation target with.
  • a white light image is generated by the B image, the G image, and the R image obtained by imaging the observation target.
  • the observation target is imaged with a monochrome image sensor, and B obtained by this imaging
  • a white light image is generated by the image, the G image, and the R image.
  • the observation target is imaged by a monochrome image sensor, and Bn image and G image obtained by this imaging Generate a specific light image.
  • the present invention is applied to an endoscope system for processing an endoscopic image which is one of medical images, but medical images other than endoscopic images are processed.
  • the present invention is also applicable to medical image processing systems.
  • the present invention is also applicable to a diagnosis support apparatus for performing diagnosis support to a user using a medical image.
  • the present invention can be applied to a medical service support apparatus for supporting medical services such as diagnostic reports using medical images.
  • the diagnosis support apparatus 600 is used in combination with a modality such as the medical imaging system 602 or a Picture Archiving and Communication Systems (PACS) 604.
  • the medical service support apparatus 610 includes various inspection apparatuses such as the first medical image processing system 621, the second medical image processing system 622, ..., the Nth medical image processing system 623, and any network. Connect via 626.
  • the medical service support device 610 receives medical images from the first to Nth medical image processing systems 621, 622, ..., 623, and supports medical services based on the received medical images.
  • various types such as white light image processing unit 70 included in image processing unit 61, movement speed calculation unit 72, attention area detection unit 74, specific light detection result determination unit 76, discrimination unit 78, and discrimination result determination unit 80
  • the hardware-like structure of a processing unit (processing unit) that executes the processing of (1) is various processors as shown below.
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • PLD Programmable logic device
  • One processing unit may be configured by one of these various types of processors, or a combination of two or more processors of the same or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, a CPU and (A combination of GPUs).
  • a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
  • SoC system on chip
  • IC integrated circuit
  • circuitry in the form in which circuit elements such as semiconductor elements are combined.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Endoscopes (AREA)

Abstract

ユーザーによる操作態様や診断目的などによって変化する観察状況に合わせて、病変部などの注目領域を確実に検出し、且つ、観察対象を把握し易くすることができる医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置を提供する。 撮像部は、白色光によって照明中の観察対象を撮像して白色光画像を取得し、特定光によって照明中の前記観察対象を撮像して特定光画像を取得する。光源制御部は、撮像部の移動速度、ズーム情報、又は発光量のうち少なくとも一つに応じて、1発光サイクルにおける前記白色光の発光フレームの数と前記特定光の発光フレームの数を制御する。

Description

医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
 本発明は、観察対象を観察するための白色光と病変部などの注目領域を検出するための特定光とを用いる医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置に関する。
 現在の医療分野においては、観察対象の診断において、医療画像を用いる医療画像処理システムが普及している。医療画像処理システムの中でも、内視鏡システムにおいては、観察対象に対して照明光を照射し、観察対象を撮像することにより、医療画像の一つである内視鏡画像を取得している。取得した内視鏡画像は、モニタなどの表示部に表示され、観察対象の診断に用いられる。
 また、近年の内視鏡システムにおいては、短波の狭帯域光を含む特定の波長帯域を有する特定光を観察対象に照明して、観察対象上の病変部の視認性を向上することによって、病変部の検出をし易くすることも行われている。ただし、特定光により得られる特定光画像は、疑似カラーなど観察対象の色と異なる色で表示されるため、ユーザーにとっては、通常観察に用いられる白色光画像と比較して、見慣れていない場合も多い。そこで、特許文献1では、特定光画像から病変領域を検出し、検出した病変領域を白色光画像で強調表示することで、見慣れた白色光画像上で病変領域を観察できるようにしている。
特開2011-135983号公報
 内視鏡観察においては、ユーザーによる操作態様や診断目的などに応じて、観察対象に対する観察状況が変化している。例えば、病変部が無い領域や、病変確認が容易な領域などでは、内視鏡の移動速度が速くなる一方で、病変部の疑いがある領域や、病変確認が困難な領域などでは、内視鏡の移動速度が遅くなる。また、病変部を検出した場合などにおいては、内視鏡のズームを使用して、病変と思われる領域を拡大することも行われている。また、スクリーニング時のように、観察対象から離れている場合には光量が低い状態で観察が行われる一方、病変部を鑑別する場合など観察対象に近い場合には光量が高い状態で観察が行われる。
 ここで、特許文献1のように、特定光に基づく特定光画像から検出した病変領域を、白色光画像上で観察する場合には、上記のように、内視鏡の移動速度、ズームの使用の有無、光量などの観察状況が変化すると、特定光画像から病変部を検出することができないことがあり、また、白色光画像上で観察対象を把握しにくくなることがあった。
 例えば、白色光と特定光を切り替えて観察対象に照明する場合には、白色光のフレームレートが落ちて、コマ落ちしたような観察画像になることがあった。また、観察対象の撮像にCMOSイメージセンサを用いた場合には、ローリングシャッターの影響により、フレームレートの低下が顕著となる。更には、観察画像のコマ落ちを抑えるため、特定光の発光フレームの比率を落とした場合には、病変部を検出できるタイミングが減り、病変部を見落とす可能性がある。特に、内視鏡では、同じ場所でも微妙な撮影角度や距離の違いにより見え方が変わるため、特定光の発光フレームの比率を落とすことで、病変部を見逃す可能性が高くなる。
 本発明は、ユーザーによる操作態様や診断目的などによって変化する観察状況に合わせて、病変部などの注目領域を確実に検出し、且つ、観察対象を把握し易くすることができる医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置を提供することを目的とする。
 本発明の医療画像処理システムは、光源部と、撮像部と、観察状況取得部と、光源制御部とを備える。光源部は、白色光、又は、白色光と異なるスペクトルを有する特定光を発光する。撮像部は、白色光によって照明中の観察対象を撮像して白色光画像を取得し、特定光によって照明中の観察対象を撮像して特定光画像を取得する。観察状況取得部は、撮像部の移動速度、観察対象を拡大するズームに関するズーム情報、又は、白色光又は特定光の発光量のうち少なくとも一つを取得する。光源制御部は、撮像部の移動速度、ズーム情報、又は、白色光又は特定光の発光量のうち少なくとも一つに応じて、1発光サイクルにおける白色光の発光フレームの数と特定光の発光フレームの数を制御する。さらに、特定光画像から注目領域を検出する注目領域検出処理を行う注目領域検出部と、白色光画像に対して、注目領域検出部での検出結果を反映させた注目領域表示用画像を表示する表示部とを備えることが好ましい。
 光源制御部は、ズーム使用時は、特定光の発光フレームの数を白色光の発光フレームの数よりも多くする制御を行い、前記ズーム不使用時は、前記白色光の発光フレームの数を前記特定光の発光フレームの数よりも多くする制御を行うことが好ましい。光源制御部は、撮像部の移動速度が速度用閾値を超える場合には、白色光の発光フレームの数を特定光の発光フレームの数よりも多くする制御を行い、撮像部の移動速度が速度用閾値以下になる場合には、特定光の発光フレームの数を白色光の発光フレームの数よりも多くする制御を行うことが好ましい。光源制御部は、白色光又は特定光の発光量が発光量用閾値を超える場合には、白色光の発光フレームの数を特定光の発光フレームの数よりも多くする制御を行い、白色光又は特定光の発光量が発光量用閾値以下になる場合には、特定光の発光フレームの数を白色光の発光フレームの数よりも多くする制御を行うことが好ましい。
 複数の特定光の発光フレームから複数の特定光画像を取得し、各特定光画像に対して注目領域検出処理を行った場合には、各特定光画像に対する注目領域検出処理の検出結果に基づいて、白色光画像上に反映させるための特定光検出結果を決定する特定光検出結果決定部を有することが好ましい。特定光検出結果決定部は、複数の特定光画像から、観察対象の同一領域に対して、注目領域検出有りの結果と、注目領域検出無しの結果が得られた場合には、注目領域検出有りの結果の数と注目領域検出無しの結果の数に基づく多数決により、特定光検出結果として、注目領域検出有りの結果又は注目領域検出無しの結果のいずれかを決定することが好ましい。
 注目領域に含まれる観察対象を鑑別する鑑別処理を行う鑑別部を有し、鑑別処理の結果は表示部に表示されることが好ましい。複数の特定光の発光フレームから複数の特定光画像を取得し、各特定光画像に対して注目領域検出処理を行い、注目領域検出処理で検出された各注目領域に対して鑑別処理を行う場合には、各注目領域に対する鑑別処理の結果に基づいて、表示部に表示させるための特定光鑑別結果を決定する鑑別結果決定部を有することが好ましい。
 鑑別処理の結果は、観察対象の状態に応じて定められるステージで表され、鑑別結果決定部は、同一の注目領域に対して、ステージが異なる複数の鑑別処理の結果が得られた場合は、複数の鑑別処理の結果に基づく多数決により、特定光鑑別結果としてのステージを決定することが好ましい。鑑別処理の結果は、観察対象の状態に応じて定められるステージで表され、鑑別結果決定部は、同一の注目領域に対して、ステージが異なる複数の鑑別処理の結果が得られた場合は、複数の鑑別処理の結果の平均化を行うことにより、特定光鑑別結果としてのステージを決定することが好ましい。
 光源部は、鑑別処理を行う場合には、特定光に代えて又は加えて、鑑別用照明光を発光することが好ましい。鑑別用照明光のピーク波長には410nmが含まれることが好ましい。特定光のピーク波長には450nmが含まれることが好ましい。
 本発明の内視鏡システムは、光源部と、内視鏡と、観察状況取得部と、光源制御部とを備える。光源部は、白色光、又は、白色光と異なるスペクトルを有する特定光を発光する。内視鏡は、白色光によって照明中の観察対象を撮像して白色光画像を取得し、特定光によって照明中の観察対象を撮像して特定光画像を取得する撮像部を有する。観察状況取得部は、内視鏡の移動速度、観察対象を拡大するズームに関するズーム情報、又は、白色光又は特定光の発光量のうち少なくとも一つを含む観察状況を取得する。光源制御部は、内視鏡の移動速度、ズーム情報、又は、白色光又は特定光の発光量のうち少なくとも一つに応じて、白色光の発光フレームと特定光の発光フレームとの比率を制御する。さらに、特定光画像から注目領域を検出する注目領域検出処理を行う注目領域検出部と、白色光画像に対して、注目領域検出部での検出結果を反映させた注目領域表示用画像を表示する表示部とを備えることが好ましい。
 本発明の診断支援装置は、上記記載の本発明の医療画像処理システムを有する。本発明の医療業務支援装置は、上記記載の本発明の医療画像処理システムを有する。
 本発明によれば、ユーザーによる操作態様や診断目的などによって変化する観察状況に合わせて、病変部などの注目領域を確実に検出し、且つ、観察対象を把握し易くすることができる。
内視鏡システムの外観図である。 内視鏡システムのブロック図である。 第1の発光パターンを示す説明図である。 1発光サイクルにおける特定光の発光フレームの数が白色光の発光フレームの数よりも大きい第2の発光パターンを示す説明図である。 1発光サイクルにおける白色光の発光フレームの数と特定光の発光フレームの数が同じである第2の発光パターンを示す説明図である。 白色光と鑑別用照明光を発光する第2の発光パターンを示す説明図である。 画像処理部の機能を示すブロック図である。 注目領域ROIが重畳表示された白色光画像を示す画像図である。 多数決により特定光検出結果を決定することを示す説明図である。 注目領域ROIが重畳表示された白色光画像と鑑別結果を示す画像図である。 多数決により特定光鑑別結果を決定することを示す説明図である。 平均化により特定光鑑別結果を決定することを示す説明図である。 特殊モードの一連の流れを示すフローチャートである。 複数のLEDを備える光源部を示すブロック図である。 複数のLEDを発光して得られる白色光のスペクトルを示すグラフである。 複数のLEDを発光して得られる特定光のスペクトルを示すグラフである。 レーザ光源を備える光源部と蛍光体を示すブロック図である。 レーザ光源及び蛍光体を用いて発光する白色光のスペクトルを示すグラフである。 レーザ光源及び蛍光体を用いて発光する特定光のスペクトルを示すグラフである。 広帯域光源及び回転フィルタを備える光源部を示すブロック図である。 回転フィルタを示す平面図である。 診断支援装置を示すブロック図である。 医療業務支援装置を示すブロック図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19と、を備える。内視鏡12は、観察対象である観察対象に照明光を照射し、照明光で照射された観察対象を撮像する。光源装置14は、観察対象に照射するための照明光を発生する。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。モニタ18は、プロセッサ装置16から出力された画像を表示する表示部である。ユーザーインターフェース19は、プロセッサ装置16等への設定入力等を行う入力デバイスであり、キーボードKBやマウスMSなどから構成される。
 内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dと、を有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。湾曲部12cが湾曲することにより、先端部12dが所望の方向に向く。先端部12dには、観察対象に向けて空気や水等を噴射する噴射口(図示しない)が設けられている。
 また、操作部12bには、アングルノブ12eの他、ズーム操作部13が設けられている。ズーム操作部13を操作することによって、観察対象を拡大または縮小して撮像することができる。また、挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)が設けられている。処置具は、鉗子入口12fから鉗子チャンネル内に挿入される。
 図2に示すように、光源装置14は、光源部20と、光源制御部22と、を備える。光源部20は、観察対象を照明するための照明光を発光する。光源部20は、1又は複数の光源を備えており、白色光、又は、白色光と異なるスペクトルを有する特定光を含む複数の照明光を発光する。具体的には、光源部20は、青色帯域、緑色帯域、及び赤色帯域を有する白色光、又は、ピーク波長に450nmが含まれる特定帯域を有する特定光を発光する。光源部20には、白色光の発光量、又は特定光の発光量を測定する発光量測定部21が設けられている。これら白色光の発光量又は特定光の発光量に関する情報は、光源制御部22に送られる。なお、本発明の「観察状況取得部」は、「発光量測定部21」に対応する。
 光源制御部22は、光源部20の駆動を制御する。光源制御部22は、光源部20を構成する光源の点灯または消灯のタイミング、及び、点灯時の発光量等をそれぞれ独立に制御する。その結果、光源部20は、発光量や発光タイミングが異なる複数種類の照明光を発光することができる。光源装置14においては、光源部20の発光を制御するための発光モードとして、白色光を発光する通常モードと、白色光と特定光とを、特定の発光パターンに従って、自動で切り替えて発光を行う特殊モードとを備えている。
 特殊モードに設定されている場合には、光源制御部22は、内視鏡12の移動速度、ズーム情報、又は、白色光又は特定光の発光量に応じて、特定の発光パターンを設定する。例えば、内視鏡12の移動速度が速度用閾値を超える場合には、特定の発光パターンとして、1発光サイクルにおいて、白色光の発光フレームの数を特定光の発光フレームの数よりも多くする第1の発光パターンを設定し、この第1の発光パターンに基づいて、光源制御部22は発光制御を行う。ここで、1発光サイクルは、特定数の発光フレームからなり、白色光を発光する発光フレームと特定光を発光する発光フレームとが含まれる。
 このように、内視鏡12の移動速度が速度用閾値を超える場合には、病変がない、あるいは病変確認が容易な領域を観察している状況下で、病変部を検出する必要性が低いと考えられるため、特定光の発光フレームの数を小さくする第1の発光パターンを設定するようにしている。なお、1発光サイクル当たりの発光フレーム数(白色光の発光フレームの数と特定光の発光フレームの数の合計)は、固定でもよく、特定のフレーム数変更条件に応じて、変化するようにしてもよい。例えば、1発光フレーム当たりの発光フレーム数が9フレームの場合には、特定のフレーム数変更条件を満たしたときに、1発光フレーム当たりの発光フレーム数を5に変化させる。
 例えば、図3に示すように、第1の発光パターンとして、1発光サイクルにおいて、白色光の発光フレームの数を「9」、特定光の発光フレームの数を「1」とした場合には、白色光が連続して「9」フレーム分だけ発光した後に、特定光が「1」フレーム分だけ発光される。なお、第1の発光パターンを設定する場合としては、「ズーム不使用」である場合や、白色光又は特定光の発光量が発光量用閾値を超える場合がある。このような場合においても、内視鏡12の移動速度が速度用閾値を超えている場合と同様、病変がない、あるいは病変確認が容易な領域を観察している状況下で、病変部を検出する必要性が低いと考えられるため、第1の発光パターンを設定するようにしている。
 また、内視鏡12の移動速度が速度用閾値以下となる場合には、特定の発光パターンとして、1発光サイクルにおいて、特定光の発光フレームの数を白色光の発光フレームの数よりも多くする又は同じにする第2の発光パターンを設定し、この第2の特定発光パターンに基づいて、光源制御部22は発光制御を行う。このように、内視鏡12の移動速度が速度用閾値以下になる場合には、病変が有る可能性があり、あるいは病変を検出して精査している状況下で、病変部を検出する必要性が高いと考えられるため、特定光の発光フレームの数を大きくする第2の発光パターンを設定するようにしている。
 例えば、図4に示すように、第2の発光パターンとして、1発光サイクルにおいて、白色光の発光フレームの数を「1」、特定光の発光フレームの数を「3」とした場合には、白色光が「1」フレーム分だけ発光した後に、特定光が連続して「3」フレーム分だけ発光される。なお、第2の発光パターンを設定する場合としては、「ズーム使用中」である場合や、白色光又は特定光の発光量が発光量用閾値以下となる場合がある。このような場合においても、内視鏡12の移動速度が速度用閾値以下になる場合と同様、病変が有る可能性があり、あるいは病変を検出して精査している状況下で、病変部を検出する必要性が高いと考えられるため、第2の発光パターンを設定するようにしている。
 なお、白色光又は特定光の発光量が発光量用閾値以下となったものの、「ズーム不使用」である場合には、白色光の発光フレームの数と特定光の発光フレームの数とを同じにする第2の発光パターンに設定することが好ましい。例えば、図5に示すように、第2の発光パターンとして、1発光サイクルにおいて、白色光の発光フレームの数を「1」、特定光の発光フレームの数を「1」とした場合には、白色光と特定光が1フレーム毎に交互に発光される。なお、第2の発光パターンにおいては、「ズーム使用中」でズーム倍率が高くなるほど、1発光サイクルにおける特定光の発光フレームの数を大きくすることが好ましい。
 また、白色光又は特定光の発光量が発光量用閾値以下となり、且つ、「ズーム使用中」となった場合には、後述する鑑別部78による鑑別処理を行う可能性があることから、特定光の発光フレームの数を白色光の発光フレームの数よりも大きくする又は同じにすることに加えて、ピーク波長に450nmが含まれる特定光から、ピーク波長に410nmが含まれる鑑別用照明光に切り替えることが好ましい。図6では、1発光サイクルにおいて、白色光の発光フレームの数を「1」、鑑別用照明光の発光フレームの数を「3」としている。ここで、特定光は、スクリーニング時のように、病変部の検出(病変部の拾い上げ)に適している一方、鑑別用照明光は、血管構造や腺管構造などの表面構造を鮮明に照明することができるため、病変部の鑑別に適している。したがって、ズームの使用により、病変部などを拡大して観察を行う場合には、特定光から鑑別用照明光に切り替えて照明することが好ましい。なお、特定光から鑑別用照明光に切り替えることなく、特定光に加えて、鑑別用照明光を発光するようにしてもよい。
 図2に示すように、光源部20が発光した照明光は、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード(図示しない)内に内蔵されており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用できる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用できる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは、照明レンズ45を有しており、この照明レンズ45を介して照明光が観察対象に向けて出射する。撮像光学系30bは、対物レンズ46、ズームレンズ47、及びイメージセンサ48を有している。イメージセンサ48は、対物レンズ46及びズームレンズ47を介して、観察対象から戻る照明光の反射光等(反射光の他、散乱光、観察対象が発する蛍光、または、観察対象に投与等した薬剤に起因した蛍光等を含む)を用いて観察対象を撮像する。
 ズームレンズ47は、ズーム操作部13の操作をすることで移動し、イメージセンサ48を用いて撮像する観察対象を拡大または縮小する。ズームレンズ47により観察対象を拡大するズームに関するズーム情報は、ズーム情報出力部49から、光源装置14の光源制御部22に送られる。ズーム情報としては、例えば、ズームレンズ47がワイド端に位置して、観察対象を拡大していない場合には、「ズーム不使用」とされる。一方、ズームレンズ47がワイド端からテレ端側に移動して、観察対象を拡大している場合には、「ズーム使用中」とされる。また、ズーム情報には、「ズーム使用中」において、ズームレンズ47のズーム倍率に関する情報も含まれる。
 イメージセンサ48は、例えば原色系のカラーフィルタを有するカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。青色カラーフィルタは、主として紫色から青色の光を透過する。緑色カラーフィルタは、主として緑色の光を透過する。赤色カラーフィルタは、主として赤色の光を透過する。上記のように原色系のイメージセンサ48を用いて観察対象を撮像すると、最大で、B画素から得るB画像(青色画像)、G画素から得るG画像(緑色画像)、及び、R画素から得るR画像(赤色画像)の3種類の画像を同時に得ることができる。
 なお、イメージセンサ48としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ48は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色-原色色変換をすれば、B画像、G画像、及びR画像に変換できる。また、カラーセンサの代わりに、カラーフィルタを設けていないモノクロセンサをイメージセンサ48として使用できる。この場合、BGR等各色の照明光を用いて観察対象を順次撮像することにより、上記各色の画像を得ることができる。
 プロセッサ装置16は、中央制御部52と、画像取得部54と、画像処理部61と、表示制御部66とを有する。中央制御部52は、照明光の照射タイミングと撮像のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。また、ユーザーインターフェース19等を用いて、各種設定の入力等をした場合には、中央制御部52は、入力された各種設定を、光源制御部22、イメージセンサ48、または画像処理部61等の内視鏡システム10の各部に入力する。
 画像取得部54は、イメージセンサ48から、観察対象を撮像した画像を取得する。この画像取得部54で取得する画像は、内視鏡12のような医療用装置により得られた画像であることから、医療画像と称する。画像取得部54は、DSP(Digital Signal Processor)56と、ノイズ低減部58と、変換部59と、を有し、これらを用いて、取得した医療画像に必要に応じて各種処理を施す。DSP56は、取得した医療画像に対し、必要に応じて欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種処理を施す。
 欠陥補正処理は、イメージセンサ48の欠陥画素に対応する画素の画素値を補正する処理である。オフセット処理は、欠陥補正処理を施した画像から暗電流成分を低減し、正確な零レベルを設定する処理である。ゲイン補正処理は、オフセット処理をした画像にゲインを乗じることにより各画像の信号レベルを整える処理である。リニアマトリクス処理は、オフセット処理をした画像の色再現性を高める処理であり、ガンマ変換処理は、リニアマトリクス処理後の画像の明るさや彩度を整える処理である。
 なお、イメージセンサ48がカラーセンサである場合には、デモザイク処理が行われる。デモザイク処理(等方化処理や同時化処理とも言う)は、欠落した画素の画素値を補間する処理であり、ガンマ変換処理後の画像に対して施す。欠落した画素とは、カラーフィルタの配列に起因して(イメージセンサ48において他の色の画素を配置しているため)、画素値がない画素である。例えば、B画像はB画素において観察対象を撮像して得る画像なので、G画素やR画素に対応する位置の画素には画素値がない。デモザイク処理は、B画像を補間して、イメージセンサ48のG画素及びR画素の位置にある画素の画素値を生成する。YC変換処理は、デモザイク処理後の画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrに変換する処理である。
 ノイズ低減部58は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrに対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部59は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色の画像に再変換する。
 画像処理部61は、画像取得部54が取得した医療画像に対して各種の画像処理を施す。画像処理部61においては、通常モードと特殊モードで施される画像処理の種類は異なっている。通常モードでは、白色光の照明時に得られた医療画像に対して、白色光に対応する画像処理(白色光画像処理)を医療画像に施すことによって、白色光画像を生成する。また、特殊モードでは、白色光の照明時に得られた医療画像に対して、白色光に対応する画像処理(白色光画像処理)を施すことによって、白色光画像を生成する。一方、特定光の照明時に得られた医療画像である特定光画像から注目領域を検出し、検出した注目領域に対して病変に関する鑑別処理を行う。注目領域の検出と鑑別処理の詳細については後述する。そして、注目領域の検出結果と鑑別処理の結果は白色光画像に反映することによって、注目領域表示用画像が生成される。表示制御部66は、画像処理部61から送られる白色光画像又は注目領域表示用画像を用い、モニタ18での表示に適した形式に変換してモニタ18に出力する。これにより、モニタ18には、白色光画像又は注目領域表示用画像が表示される。
 図7に示すように、画像処理部61は、白色光画像処理部70と、移動速度算出部72と、注目領域検出部74と、特定光検出結果決定部76と、鑑別部78と、鑑別結果決定部80とを備えている。白色光画像処理部70は、通常モード又は特殊モードにおいて白色光の照明時に得られる医療画像に対して、白色光に対応する画像処理である白色光画像処理を施す。これにより、白色光画像が得られる。なお、白色光画像処理には、観察対象の色に近づけるための色調整処理の他、観察対象上の構造物を強調する構造強調処理が含まれる。
 移動速度算出部72は、白色光画像又は特定光画像のいずれかを用いて、内視鏡12の移動速度を算出する。算出された内視鏡12の移動速度は、光源装置14の光源制御部22に送られる。内視鏡12の移動速度とは、ユーザーが内視鏡12の挿入部12aを管腔内に押し込む又は引き込むその他の内視鏡12の操作によって、イメージセンサ48(本発明の「撮像部」に対応する)が内蔵された内視鏡12の先端部が移動する速度のことをいう。移動速度の算出方法としては、例えば、画像取得タイミングが異なる複数の白色光画像又は特定光画像から移動ベクトルを算出し、移動ベクトルに基づいて、内視鏡12の移動速度を算出する。内視鏡12の移動速度は、移動ベクトルが大きくなる程、速くなる。なお、本発明の「観察状況取得部」は、「移動速度算出部72」に対応する。
 注目領域検出部74は、特定光画像から検査または診断の対象として注目すべき注目領域を検出する注目領域検出処理を行う。注目領域検出処理においては、特定光画像から特徴量を算出し、算出した特徴量が、特定の範囲に入っている領域を注目領域として検出する。検出した注目領域については、図8に示すように、矩形上の領域ROIとして、白色光画像上に表示される。なお、注目領域検出部74により検出する注目領域は、観察対象の表面など2次元の領域に限られない。例えば、観察対象の表面に加えて、観察対象の深さ方向(浸潤)の3次元の領域を、注目領域として検出するようにしてもよい。
 ここで、特徴量としては、後述する血管に関する血管指標値や、腺管構造に関する腺管指標値であってもよい。また、特徴量としては、例えば、特定光画像に対してConvolutional Neural Networkを行うことの他、特定光画像の色情報、画素値の勾配等で得られる特徴量を用いてもよい。なお、画素値の勾配等は、例えば、被写体の形状(粘膜の大局的な起伏または局所的な陥凹もしくは隆起等)、色(炎症、出血、発赤、または萎縮に起因した白化等の色)、組織の特徴(血管の太さ、深さ、密度、もしくはこれらの組み合わせ等)、または、構造の特徴(ピットパターン等)等によって、変化が表れる。
 また、注目領域検出部74で検出される注目領域は、例えば、がんに代表される病変部、良性腫瘍部、炎症部(いわゆる炎症の他、出血または萎縮等の変化がある部分を含む)、加熱による焼灼跡もしくは着色剤、蛍光薬剤等による着色によってマーキングしたマーキング部、または、生体検査(いわゆる生検)を実施した生検実施部を含む領域である。すなわち、病変を含む領域、病変の可能性がある領域、生検等の何らかの処置をした領域、クリップやかん子などの処置具、または、暗部領域(ヒダ(襞)の裏、管腔奥のため観察光が届きにくい領域)など病変の可能性にかかわらず詳細な観察が必要である領域等が注目領域になり得る。内視鏡システム10においては、注目領域検出部74は、病変部、良性腫瘍部、炎症部、マーキング部、または、生検実施部のうち少なくともいずれかを含む領域を注目領域として検出する。
 ここで、1発光サイクルにおいて、特定光の発光フレームが「1」で、1の特定光画像が得られた場合には、1の特定光画像から検出される注目領域を白色光画像にそのまま重畳表示する。一方、1発光サイクルにおいて、特定光の発光フレームが複数で、複数の特定光画像が得られた場合には、各特定光画像に対して注目領域検出処理を行い、これら各特定光画像に対する注目領域検出処理の結果に基づいて、白色光画像に反映させるための特定光検出結果を決定することが好ましい。このように複数の注目領域の検出結果から1の特定光検出結果を決定するようにすることで、白色光又は特定光の発光量が低いような場合であっても、ノイズに対するロバスト性を確保することができる。なお、特定光検出結果を決定するための検出結果処理は、特定光検出結果決定部76において行われる。この特定光検出結果決定部76にて決定された特定光検出結果が白色光画像に反映される。
 特定光検出結果決定部76は、1発光サイクルにおける複数の特定光画像から、同一の領域に対して、注目領域検出有りの結果と、注目領域検出無しの結果の両方が得られた場合には、注目領域検出有りの結果の数と注目領域の検出無しの結果の数に基づく多数決により、注目領域検出有りの結果又は注目領域検出無しの結果のいずれかを、特定光検出結果として決定する。
 例えば、図9に示すように、1発光サイクルにおいて5つの特定光画像が得られた場合において、同一の領域に対して、注目領域検出有りの結果を有する特定光画像が「3」、注目領域検出無しの結果を有する特定光画像が「2」である場合には、多数決により、注目領域検出有りの結果を特定光検出結果として決定する。なお、注目領域検出有りの結果の数と注目領域検出無しの結果の数とが同じである場合には、注目領域検出有りの結果を特定光検出結果とすることが好ましい。
 鑑別部78は、注目領域検出部74で検出された注目領域から各種指標値を算出し、算出した各種指標値に基づいて、注目領域に含まれる観察対象を鑑別する鑑別処理を行う。各種指標値としては、血管密度や血管走行パターンなどの血管に関する血管指標値や、腺管構造に関する腺管指標値などが含まれる。鑑別処理の結果としては、例えば、病変部の進行度(ステージ)などが挙げられる。鑑別処理の結果は、図10に示すように、注目領域ROIに対応づけられてモニタ18に表示される(図10では「ステージ2」)。
 ここで、1発光サイクルにおいて、特定光の発光フレームが「1」で、1の特定光画像から検出された1の注目領域に対して、鑑別処理が行われた場合には、その鑑別処理の結果に表示する。一方、1発光サイクルにおいて、特定光の発光フレームが複数で、複数の特定光画像からそれぞれ注目領域を検出した場合には、各注目画像に対して鑑別処理を行い、これら各注目領域に対する鑑別処理の結果に基づいて、モニタ18に表示させるための特定光鑑別結果を決定することが好ましい。このような複数の鑑別処理の結果から1の特定光鑑別結果を決定するようにすることで、白色光又は特定光の発光量が低いような場合であっても、ノイズに対するロバスト性を確保することができる。なお、特定光鑑別結果を決定するための鑑別結果処理は、鑑別結果決定部80において行われる。この鑑別結果決定部80にて決定された特定光鑑別結果が、注目領域ROIが重畳表示された白色光画像とともに、モニタ18に表示される。
 鑑別結果決定部80は、1発光サイクルにおける複数の特定光画像からそれぞれ注目領域が検出され、各注目領域に対して鑑別処理が行われた場合には、各注目領域に対する鑑別処理の結果に基づく多数決により、特定光鑑別結果として決定してもよい。例えば、図11に示すように、1発光サイクルにおいて5つの特定光画像が得られ、各特定光画像からそれぞれ1つの注目領域が検出された場合、鑑別処理の結果が「ステージ2」である注目領域が「3」、鑑別処理の結果が「ステージ1」である注目領域が「2」である場合、「ステージ2」を特定光鑑別結果として決定する。なお、「ステージ」は、病変部など観察対象の状態に応じて予め定められており、一般的に、「ステージ」の数字が大きくなるほど、病変の進行度が高いとされる。
 また、鑑別結果決定部80は、1発光サイクルにおける複数の特定光画像からそれぞれ注目領域が検出され、各注目領域に対して鑑別処理が行われた場合には、各注目領域に対する鑑別処理の結果の平均化した結果を、特定光鑑別結果として決定してもよい。例えば、図12に示すように、1発光サイクルにおいて5つの特定光画像が得られ、各特定光画像からそれぞれ1つの注目領域が検出された場合、鑑別処理の結果が「ステージ3」である注目領域が「2」、鑑別処理の結果が「ステージ2」である注目領域が「2」、鑑別処理の結果が「ステージ1」である注目領域が「1」である場合、それらを平均化した結果「2.2(=(3×2+2×2+1)/5)」を、特別鑑定結果として決定する。なお、平均化した結果については、四捨五入することが好ましい(例えば、図12の場合であれば、特別鑑定結果は四捨五入により「2」となる)。
 次に、特殊モードの流れについて、図13に示すフローチャートに沿って説明を行う。特殊モードに切り替えられると、移動速度算出部72において、内視鏡12の移動速度を算出する。また、ズーム情報出力部49は、観察対象を拡大するズームに関するズーム情報を出力する。また、発光量測定部21は白色光の発光量、又は特定光の発光量を測定する。
 そして、内視鏡12の移動速度、ズーム情報、又は、白色光又は特定光の発光量の少なくとも1つに応じて、1発光サイクルにおいて白色光の発光フレームの数を特定光の発光フレームの数よりも多くする第1の発光パターン、又は、1発光サイクルにおいて特定光の発光フレームの数を白色光の発光フレームの数よりも多くする第2の発光パターンのいずれかを決定する。内視鏡12の移動速度が速度用閾値を超える場合、「ズーム不使用」である場合、又は、白色光又は特定光の発光量が発光量用閾値を超える場合には、第1の発光パターンに設定する。そして、光源制御部22は、第1の発光パターンに従って、光源制御を行う。
 これに対して、内視鏡12の移動速度が速度用閾値以下となる場合、「ズーム使用中」である場合、又は、白色光又は特定光の発光量が発光量用閾値以下である場合には、第2の発光パターンに設定する。そして、光源制御部22は、第2の発光パターンに従って、光源制御を行う。
 白色光によって照明された観察対象を撮像することによって、白色光画像を取得する。また、特定光によって照明された観察対象を撮像することによって、特定光画像を取得する。注目領域検出部74は、特定光画像から注目領域ROIを検出する。検出された注目領域は、白色光画像上に重畳表示される。1発光サイクルにおいて1フレームの特定光が発光され、1フレーム分の特定光画像が得られた場合には、1フレームの特定光画像から検出した注目領域を白色光画像上に重畳表示する。一方、1発光サイクルにおいて複数フレームの特定光が発光され、複数フレーム分の特定光画像が得られた場合には、各特定光画像に対して注目領域検出処理を行う。そして、特定光検出結果決定部76は、各特定光画像に対する注目領域検出処理の結果に基づいて、白色光画像に反映されるための特定光検出結果を決定する。この特定光検出結果が白色光画像に反映される。
 なお、上記実施形態では、内視鏡12の移動速度が速度用閾値を超えた場合か否かによって、白色光の発光フレームの数又は特定光の発光フレームの数を制御するようにしているが、AI(Artificial Intelligence)などの方法を用い、内視鏡12の移動速度と白色光の発光フレームの数又は特定光の発光フレームの数との関係を学習装置に学習させておき、内視鏡12の移動速度を学習装置に入力することによって、白色光の発光フレームの数又は特定光の発光フレームの数を決定するようにしてもよい。ズーム情報、又は、白色光又は特定光の発光量についても、内視鏡12の移動速度と同様、白色光の発光フレームの数又は特定光の発光フレームの数との関係を学習装置に学習させておき、ズーム情報、又は、白色光又は特定光の発光量を学習装置に入力することによって、白色光の発光フレームの数又は特定光の発光フレームの数を決定するようにしてもよい。また、上記実施形態で示したように、内視鏡12の移動速度、ズーム情報、又は、白色光又は特定光の発光量を総合的に勘案して、白色光の発光フレームの数又は特定光の発光フレームの数を決定するようにしてもよい。
 なお、上記実施形態では、図14に示すように、光源部20として、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDと、波長カットフィルタ23とを用いて、照明光の発光を行うことが好ましい。
 V-LED20aは、波長帯域380nm~420nmの紫色光Vを発する。B-LED20bは、波長帯域420nm~500nmの青色光Bを発する。B-LED23bから出射した青色光Bのうち少なくともピーク波長の450nmよりも長波長側は、波長カットフィルタ23によりカットされる。これにより、波長カットフィルタ23を透過した後の青色光Bxは、420~460nmの波長範囲になる。このように、460nmよりも長波長側の波長域の光をカットしているのは、この460nmよりも長波長側の波長域の光は、観察対象である血管の血管コントラストを低下させる要因であるためである。なお、波長カットフィルタ23は、460nmよりも長波長側の波長域の光をカットする代わりに、460nmよりも長波長側の波長域の光を減光させてもよい。G-LED20cは、波長帯域が480nm~600nmに及ぶ緑色光Gを発する。R-LED20dは、波長帯域が600nm~650nmに及び赤色光Rを発する。
 通常モードの場合、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。これにより、図15に示すように、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む白色光が発せられる。白色光は、青色帯域から赤色帯域まで一定以上の強度を有しているため、ほぼ白色となっている。
 特殊モードの場合には、白色光又は特定光が特定の発光パターンに従って発光するように、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dの発光制御が行われる。白色光を発光する場合には、上記したように、図15に示すスペクトルを有する白色光が発せられる。一方、特定光を発光する場合には、図16に示すように、青色光Bxの発光量が、紫色光V、緑色光G、及び赤色光Rのいずれの発光量よりも大きくなる特定光が発せられる。
 また、上記実施形態では、レーザ光源と蛍光体を用いて、照明光の発光を行うようにしてもよい。この場合には、図17に示すように、光源部20には、ピーク波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記。LDは「Laser Diode」を表す)104と、ピーク波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(「405LD」と表記)106とが設けられている。
 照明光学系30aには、照明レンズ32の他に、ライトガイド24からの青色レーザ光又は青紫色レーザ光が入射する蛍光体110が設けられている。蛍光体110は、青色レーザ光によって励起され、蛍光を発する。また、青色レーザ光の一部は、蛍光体110を励起させることなく透過する。青紫色レーザ光は、蛍光体110を励起させることなく透過する。蛍光体110を出射した光は、照明レンズ32を介して、観察対象の体内を照明する。
 ここで、通常モードでは、青色レーザ光源104が点灯して、主として青色レーザ光が蛍光体110に入射するため、図18に示すような、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した白色光が発せられる。一方、特殊モードでは、白色光又は特定光が特定の発光パターンに従って発光するように、青色レーザ光源104及び青紫色レーザ光源106の発光制御が行われる。白色光を発光する場合には、上記したように、図18に示すスペクトルを有する白色光が発せられる。一方、特定光を発光する場合には、青色レーザ光源104及び青紫色レーザ光源106が点灯して、青紫色レーザ光と青色レーザ光の両方を蛍光体110に入射させる。これにより、図19に示すような、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した特定光が発せられる。
 なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源104及び青紫色レーザ光源106は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
 なお、蛍光体110は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl1017)などの蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体110の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。
 また、上記実施形態では、キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行うようにしてもよい。この場合には、図20に示すように、光源部20には、広帯域光源202と、回転フィルタ204と、フィルタ切替部206とが設けられている。また、広帯域光源202と回転フィルタ204との間には絞り203が設けられており、この絞り203は絞り制御部205によって開口部の面積が調整される。絞り制御部205は、プロセッサ装置16からの調光信号に基づいて絞り203の制御を行う。
 広帯域光源202はキセノンランプや白色LED等であり、波長域が青色から赤色に及ぶ広帯域光を発する。回転フィルタ204は、回転軸に一番近い内側に設けた通常モード用フィルタ210と、この通常モード用フィルタ210の外側に設けた特殊モード用フィルタ212とを備えている(図21参照)。
 フィルタ切替部206は、回転フィルタ204を径方向に移動する。具体的には、フィルタ切替部206は、モード切替部13cにより通常モードにセットした場合に、通常モード用フィルタ210を白色光の光路に挿入する。フィルタ切替部206は、特殊モードにセットした場合に、特殊モード用フィルタ212を白色光の光路に挿入する。
 図21に示すように、通常モード用フィルタ210には、周方向に沿って、Bフィルタ210aと、Gフィルタ210bと、Rフィルタ210cとが設けられている。Bフィルタ210aは、広帯域光のうち400~500nmの波長範囲を持つ広帯域の青色光Bを透過する。Gフィルタ210bは、広帯域光のうち緑色光Gを透過する。Rフィルタ210cは、広帯域光のうち赤色光Rを透過する。したがって、通常モード時には、回転フィルタ204が回転することで、
 特殊モード用フィルタ212には、周方向に沿って、Bフィルタ212aと、Gフィルタ212bと、Rフィルタ212cと、Bnフィルタ212aと、Gnフィルタ212bとが設けられている。Bフィルタ212aは、Bフィルタ210aと同様に、青色光Bを透過する。Gフィルタ212bは、Gフィルタ210aと同様に、緑色光Gを透過する。Rフィルタ212cは、Rフィルタ210cと同様に、赤色光Rを透過する。Bnフィルタ212dは、広帯域光のうち400~450nmの青色狭帯域光Bnを透過する。Gnフィルタ212eは、広帯域光のうち緑色光Gを透過する。
 したがって、特殊モード時には、回転フィルタ204が回転することで、白色光として、青色光B、緑色光G、赤色光Rが、観察対象に向けて、順次照射される。赤色光Rが照射された後は、特定光として、青色狭帯域光Bn、緑色光Gが、観察対象に向けて、順次照射される。
 キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行う場合には、通常モード時には、青色光B、緑色光G、赤色光Rで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像する。この観察対象の撮像により得られるB画像、G画像、R画像によって、白色光画像を生成する。
 また、特殊モード時には、白色光の照明時、即ち、青色光B、緑色光G、赤色光Rで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像し、この撮像により得られるB画像、G画像、R画像によって、白色光画像を生成する。また、特定光の照明時、即ち、青色狭帯域光Bn、緑色光Gで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像し、この撮像により得られるBn画像、G画像によって、特定光画像を生成する。
 なお、上記実施形態では、医療画像の一つである内視鏡画像の処理を行う内視鏡システムに対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理システムに対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。
 例えば、図22に示すように、診断支援装置600は、医療画像処理システム602などのモダリティやPACS(Picture Archiving and Communication Systems)604を組み合わせて使用される。また、図23に示すように、医療業務支援装置610は、第1医療画像処理システム621、第2医療画像処理システム622、…、第N医療画像処理システム623等の各種検査装置と任意のネットワーク626を介して接続する。医療業務支援装置610は、第1~第N医療画像処理システム621、622・・・、623からの医療画像を受信し、受信した医療画像に基づいて、医療業務の支援を行う。
 上記実施形態において、画像処理部61に含まれる白色光画像処理部70、移動速度算出部72、注目領域検出部74、特定光検出結果決定部76、鑑別部78、鑑別結果決定部80といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路、GPU(Graphical Processing Unit)などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ、CPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 鉗子入口
13 ズーム操作部
13c モード切替部
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
20a V-LED(Violet Light Emitting Diode)
20b B-LED(Blue Light Emitting Diode)
20c G-LED(Green Light Emitting Diode)
20d R-LED(Red Light Emitting Diode)
21 発光量測定部
22 光源制御部
23 波長カットフィルタ
24 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 イメージセンサ
49 ズーム情報出力部
52 中央制御部
54 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ低減部
59 変換部
61 画像処理部
66 表示制御部
70 白色光画像処理部
72 移動速度算出部
74 注目領域検出部
76 特定光検出結果決定部
78 鑑別部
80 鑑別結果決定部
104 青色レーザ光源
106 青紫色レーザ光源
110 蛍光体
202 広帯域光源
204 回転フィルタ
205 制御部
206 フィルタ切替部
210 通常モード用フィルタ
210a Bフィルタ
210b Gフィルタ
210c Rフィルタ
212 特殊モード用フィルタ
212a Bフィルタ
212b Gフィルタ
212c Rフィルタ
212d Bnフィルタ
212e Gnフィルタ
600 診断支援装置
602 医療画像処理システム
604 PACS
610 医療業務支援装置
621 第1医療画像処理システム
622 第2医療画像処理システム
623 第N医療画像処理システム
626 ネットワーク

Claims (18)

  1.  白色光、又は、前記白色光と異なるスペクトルを有する特定光を発光する光源部と、
     前記白色光によって照明中の観察対象を撮像して白色光画像を取得し、前記特定光によって照明中の前記観察対象を撮像して特定光画像を取得する撮像部と、
     前記撮像部の移動速度、前記観察対象を拡大するズームに関するズーム情報、又は、前記白色光又は前記特定光の発光量のうち少なくとも一つを取得する観察状況取得部と、
     前記撮像部の移動速度、前記ズーム情報、又は、前記白色光又は前記特定光の発光量のうち少なくとも一つに応じて、1発光サイクルにおける前記白色光の発光フレームの数と前記特定光の発光フレームの数を制御する光源制御部とを備える医療画像処理システム。
  2.  前記光源制御部は、前記ズーム使用時は、前記特定光の発光フレームの数を前記白色光の発光フレームの数よりも多くする制御を行い、前記ズーム不使用時は、前記白色光の発光フレームの数を前記特定光の発光フレームの数よりも多くする制御を行う請求項1記載の医療画像処理システム。
  3.  前記光源制御部は、前記撮像部の移動速度が速度用閾値を超える場合には、前記白色光の発光フレームの数を前記特定光の発光フレームの数よりも多くする制御を行い、前記撮像部の移動速度が前記速度用閾値以下になる場合には、前記特定光の発光フレームの数を前記白色光の発光フレームの数よりも多くする制御を行う請求項1または2記載の医療画像処理システム。
  4.  前記光源制御部は、前記白色光又は前記特定光の発光量が発光量用閾値を超える場合には、前記白色光の発光フレームの数を前記特定光の発光フレームの数よりも多くする制御を行い、前記白色光又は前記特定光の発光量が前記発光量用閾値以下になる場合には、前記特定光の発光フレームの数を前記白色光の発光フレームの数よりも多くする制御を行う請求項1ないし3いずれか1項記載の医療画像処理システム。
  5.  前記特定光画像から注目領域を検出する注目領域検出処理を行う注目領域検出部と、
     前記白色光画像に対して、前記注目領域検出部での検出結果を反映させた注目領域表示用画像を表示する表示部とを備える請求項1ないし4いずれか1項記載の医療画像処理システム。
  6.  複数の特定光の発光フレームから複数の前記特定光画像を取得し、各特定光画像に対して前記注目領域検出処理を行った場合には、前記各特定光画像に対する前記注目領域検出処理の検出結果に基づいて、前記白色光画像上に反映させるための特定光検出結果を決定する特定光検出結果決定部を有する請求項5記載の医療画像処理システム。
  7.  前記特定光検出結果決定部は、前記複数の特定光画像から、前記観察対象の同一領域に対して、注目領域検出有りの結果と、注目領域検出無しの結果が得られた場合には、前記注目領域検出有りの結果の数と前記注目領域検出無しの結果の数に基づく多数決により、前記特定光検出結果として、前記注目領域検出有りの結果又は前記注目領域検出無しの結果のいずれかを決定する請求項6記載の医療画像処理システム。
  8.  前記注目領域に含まれる観察対象を鑑別する鑑別処理を行う鑑別部を有し、
     前記鑑別処理の結果は前記表示部に表示される請求項5記載の医療画像処理システム。
  9.  複数の特定光の発光フレームから複数の前記特定光画像を取得し、各特定光画像に対して前記注目領域検出処理を行い、前記注目領域検出処理で検出された各注目領域に対して前記鑑別処理を行う場合には、前記各注目領域に対する鑑別処理の結果に基づいて、前記表示部に表示させるための特定光鑑別結果を決定する鑑別結果決定部を有する請求項8記載の医療画像処理システム。
  10.  前記鑑別処理の結果は、前記観察対象の状態に応じて定められるステージで表され、
     前記鑑別結果決定部は、同一の注目領域に対して、ステージが異なる複数の鑑別処理の結果が得られた場合は、前記複数の鑑別処理の結果に基づく多数決により、前記特定光鑑別結果としての前記ステージを決定する請求項9記載の医療画像処理システム。
  11.  前記鑑別処理の結果は、前記観察対象の状態に応じて定められるステージで表され、
     前記鑑別結果決定部は、同一の注目領域に対して、ステージが異なる複数の鑑別処理の結果が得られた場合は、前記複数の鑑別処理の結果の平均化を行うことにより、前記特定光鑑別結果としての前記ステージを決定する請求項9記載の医療画像処理システム。
  12.  前記光源部は、前記鑑別処理を行う場合には、前記特定光に代えて又は加えて、鑑別用照明光を発光する請求項8ないし11いずれか1項記載の医療画像処理システム。
  13.  前記鑑別用照明光のピーク波長には410nmが含まれる請求項12記載の医療画像処理システム。
  14.  前記特定光のピーク波長には450nmが含まれる請求項1ないし13いずれか1項記載の医療画像処理システム。
  15.  白色光、又は、前記白色光と異なるスペクトルを有する特定光を発光する光源部と、
     前記白色光によって照明中の観察対象を撮像して白色光画像を取得し、前記特定光によって照明中の前記観察対象を撮像して特定光画像を取得する撮像部を有する内視鏡と、
     前記内視鏡の移動速度、前記観察対象を拡大するズームに関するズーム情報、又は、前記白色光又は前記特定光の発光量のうち少なくとも一つを含む観察状況を取得する観察状況取得部と、
     前記内視鏡の移動速度、前記ズーム情報、又は、前記白色光又は前記特定光の発光量のうち少なくとも一つに応じて、前記白色光の発光フレームと前記特定光の発光フレームとの比率を制御する光源制御部とを備える内視鏡システム。
  16.  前記特定光画像から注目領域を検出する注目領域検出処理を行う注目領域検出部と、
     前記白色光画像に対して、前記注目領域検出部での検出結果を反映させた注目領域表示用画像を表示する表示部とを備える請求項15記載の内視鏡システム。
  17.  請求項1ないし14いずれか1項記載の医療画像処理システムを有する診断支援装置。
  18.  請求項1ないし14いずれか1項記載の医療画像処理システムを有する医療業務支援装置。
PCT/JP2018/033756 2017-09-22 2018-09-12 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置 WO2019059059A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18857613.6A EP3685731B1 (en) 2017-09-22 2018-09-12 Medical image processing system, endoscope system, diagnostic support device, and medical task support device
CN201880061401.4A CN111107778B (zh) 2017-09-22 2018-09-12 医疗图像处理系统、内窥镜系统、诊断支持装置及医疗服务支持装置
JP2019543581A JP6924837B2 (ja) 2017-09-22 2018-09-12 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
US16/824,629 US11439297B2 (en) 2017-09-22 2020-03-19 Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-181906 2017-09-22
JP2017181906 2017-09-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/824,629 Continuation US11439297B2 (en) 2017-09-22 2020-03-19 Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus

Publications (1)

Publication Number Publication Date
WO2019059059A1 true WO2019059059A1 (ja) 2019-03-28

Family

ID=65810254

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/033756 WO2019059059A1 (ja) 2017-09-22 2018-09-12 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置

Country Status (5)

Country Link
US (1) US11439297B2 (ja)
EP (1) EP3685731B1 (ja)
JP (1) JP6924837B2 (ja)
CN (1) CN111107778B (ja)
WO (1) WO2019059059A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021205777A1 (ja) * 2020-04-08 2021-10-14
JP2022018842A (ja) * 2020-07-16 2022-01-27 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022038803A1 (ja) * 2020-08-19 2022-02-24 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法
TWI784811B (zh) * 2021-11-25 2022-11-21 盟立自動化股份有限公司 腸道內視鏡移動速率監測方法及系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135983A (ja) 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2015054062A (ja) * 2013-09-11 2015-03-23 富士フイルム株式会社 内視鏡システム、プロセッサ装置及び光源装置並びに作動方法
WO2017085793A1 (ja) * 2015-11-17 2017-05-26 オリンパス株式会社 内視鏡システム、画像処理装置、画像処理方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5164473B2 (ja) * 2007-08-10 2013-03-21 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5203861B2 (ja) * 2008-09-10 2013-06-05 富士フイルム株式会社 内視鏡システム、およびその作動方法
JP5591570B2 (ja) * 2010-03-23 2014-09-17 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP5707758B2 (ja) * 2010-07-13 2015-04-30 ソニー株式会社 撮像装置、撮像システム、手術用ナビゲーションシステム、及び撮像方法
WO2012056860A1 (ja) * 2010-10-26 2012-05-03 オリンパスメディカルシステムズ株式会社 内視鏡
JP6057921B2 (ja) * 2012-01-31 2017-01-11 オリンパス株式会社 生体観察装置
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP5802860B2 (ja) * 2013-08-01 2015-11-04 オリンパス株式会社 内視鏡システム
JP6392570B2 (ja) * 2014-07-11 2018-09-19 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、画像処理プログラム、及び内視鏡システム
US10039439B2 (en) * 2014-09-30 2018-08-07 Fujifilm Corporation Endoscope system and method for operating the same
CN106793932B (zh) * 2014-10-10 2019-06-18 奥林巴斯株式会社 摄像系统
WO2016071991A1 (ja) 2014-11-06 2016-05-12 オリンパス株式会社 観察装置と内視鏡システム
JP6243364B2 (ja) * 2015-01-26 2017-12-06 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP6430880B2 (ja) * 2015-03-31 2018-11-28 富士フイルム株式会社 内視鏡システム、及び、内視鏡システムの作動方法
JP2016214594A (ja) * 2015-05-21 2016-12-22 Hoya株式会社 電子内視鏡システム
CN106714651B (zh) * 2015-08-13 2019-06-28 Hoya株式会社 评价值计算装置以及电子内窥镜系统
WO2019016912A1 (ja) * 2017-07-20 2019-01-24 オリンパス株式会社 診断支援装置、診断支援方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135983A (ja) 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2015054062A (ja) * 2013-09-11 2015-03-23 富士フイルム株式会社 内視鏡システム、プロセッサ装置及び光源装置並びに作動方法
WO2017085793A1 (ja) * 2015-11-17 2017-05-26 オリンパス株式会社 内視鏡システム、画像処理装置、画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3685731A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021205777A1 (ja) * 2020-04-08 2021-10-14
WO2021205777A1 (ja) * 2020-04-08 2021-10-14 富士フイルム株式会社 プロセッサ装置及びその作動方法
JP7447243B2 (ja) 2020-04-08 2024-03-11 富士フイルム株式会社 プロセッサ装置及びその作動方法
JP2022018842A (ja) * 2020-07-16 2022-01-27 富士フイルム株式会社 内視鏡システム及びその作動方法
JP7411515B2 (ja) 2020-07-16 2024-01-11 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022038803A1 (ja) * 2020-08-19 2022-02-24 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法
JP7447281B2 (ja) 2020-08-19 2024-03-11 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法
TWI784811B (zh) * 2021-11-25 2022-11-21 盟立自動化股份有限公司 腸道內視鏡移動速率監測方法及系統

Also Published As

Publication number Publication date
CN111107778A (zh) 2020-05-05
EP3685731A4 (en) 2020-10-07
EP3685731B1 (en) 2023-06-07
EP3685731A1 (en) 2020-07-29
US20200214547A1 (en) 2020-07-09
JPWO2019059059A1 (ja) 2020-10-22
JP6924837B2 (ja) 2021-08-25
CN111107778B (zh) 2022-04-19
US11439297B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP6785941B2 (ja) 内視鏡システム及びその作動方法
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP6924837B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
JP6243364B2 (ja) 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
JP6538634B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6724154B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP6796725B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
WO2018079205A1 (ja) プロセッサ装置及び内視鏡システム
JP2020065685A (ja) 内視鏡システム
JP7130043B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US11627864B2 (en) Medical image processing apparatus, endoscope system, and method for emphasizing region of interest
US20190246874A1 (en) Processor device, endoscope system, and method of operating processor device
JP7214886B2 (ja) 画像処理装置及びその作動方法
JP7217351B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
JPWO2019082993A1 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18857613

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019543581

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018857613

Country of ref document: EP

Effective date: 20200422