WO2019049503A1 - 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 - Google Patents

診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 Download PDF

Info

Publication number
WO2019049503A1
WO2019049503A1 PCT/JP2018/025873 JP2018025873W WO2019049503A1 WO 2019049503 A1 WO2019049503 A1 WO 2019049503A1 JP 2018025873 W JP2018025873 W JP 2018025873W WO 2019049503 A1 WO2019049503 A1 WO 2019049503A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
interest
unit
detection information
Prior art date
Application number
PCT/JP2018/025873
Other languages
English (en)
French (fr)
Inventor
駿平 加門
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP18853256.8A priority Critical patent/EP3679853A4/en
Priority to CN201880057372.4A priority patent/CN111065314B/zh
Priority to JP2019540798A priority patent/JP7091349B2/ja
Publication of WO2019049503A1 publication Critical patent/WO2019049503A1/ja
Priority to US16/795,522 priority patent/US11398033B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a diagnosis support system, an endoscope system, a processor, and a diagnosis support method.
  • a drug and / or equipment may be used for examination and treatment to acquire an image of a subject.
  • Patent Document 1 a drug and / or a device used in an examination are detected by image recognition from an endoscopic image, and a medical worker prepares a medical document based on the detection result (endoscope examination report, examination It is described that the input operation for the implementation record is assisted. Specifically, in the endoscopic examination report, the detection information or reflection information extracted from the detection information is automatically input in the treatment information column of the treatment area, the technique column of the operation area, the addition column, the medicine column, the equipment column, etc. Ru. Moreover, in patent document 1, displaying the name of the detected chemical
  • the present invention has been made in view of such circumstances, and it is an object of the present invention to provide a diagnosis support system, an endoscope system, a processor, and a diagnosis support method capable of presenting useful information to a user.
  • a diagnosis support system includes a medical image acquisition unit for acquiring a plurality of medical images, a display control unit for displaying a list of a plurality of medical images on a display device
  • a first detection unit that detects a drug and / or a device used when capturing a plurality of medical images from the plurality of medical images by image recognition, and a region of interest in the plurality of medical images is detected by the image recognition
  • a first detection information application unit for applying first detection information indicating a detected drug and / or device to a medical image in which the drug and / or device are detected, and a detected region of interest
  • a second detection information adding unit that adds the second detection information indicating the region of interest to the medical image in which the region of interest is detected, and the display control unit is responsive to the first detection information and the second detection information.
  • the first detection information indicating the detected medicine and / or equipment and the second detection information indicating the detected region of interest are added to the medical image, and the detection information is determined according to the detection information. Since the list is displayed in an aspect, the user can easily grasp the relationship between medicine and / or equipment, region of interest, and image. As described above, according to the first aspect, useful information can be presented to the user, and the user can perform diagnosis, report creation, etc. efficiently.
  • the “agent” includes a coloring agent and a staining agent for observing the shape, unevenness, etc. of the region of interest (lesion etc.), and the “device (device)” It includes a treatment tool for performing biopsy, excision and the like on a sample.
  • the "region of interest” includes a lesion area, a lesion candidate area, and an area after treatment.
  • the medical image acquisition unit may capture an image by an imaging device including an imaging optical system and an imaging element to acquire a plurality of medical images, or a network of a plurality of separately recorded medical images. And / or may be obtained via a recording medium.
  • the medical image is also referred to as a medical image.
  • the light source used in medical imaging may be light in a white band, light including a plurality of wavelengths (narrow band light) as a white band, infrared light, and excitation light.
  • the medical image acquired in the first aspect may be a white light or a normal light image obtained by irradiating light of a plurality of wavelength bands as light of the white light band, or was obtained based on the normal light image. It may be a special light image having information of a specific wavelength band.
  • a region of interest identical to the region of interest included in the target image, which is an image among the plurality of medical images is another medical image among the plurality of medical images
  • the image processing apparatus further comprises a region-of-interest determination unit that determines whether an image is included in a comparison image that is a medical image in which a drug and / or a device is detected.
  • the first detection information application unit is identical to the comparison image. When the region of interest is included, the first detection information is added to the target image even when medicines and / or equipment are not detected from the target image.
  • the first detection information (for an image not showing the medicine and / or the equipment but containing the same region of interest as the image in which the medicine and / or the equipment are detected) Information indicating medicine and / or equipment is given, and the image is displayed in a mode according to the given first detection information. Therefore, according to the second aspect, information useful to the user (the displayed image is an image relating to the medicine and / or the equipment although it does not actually reflect the medicine and / or the equipment) be able to.
  • the determination as to “whether or not the same region of interest is included in another medical image” can be made based on the similarity of the images, the feature amount, and the like.
  • the medical image acquisition unit acquires a moving image composed of a plurality of frame images
  • the second detection unit is interested by image recognition from the plurality of frame images
  • the region of interest is detected, and the region of interest identical to the region of interest included in the target image, which is an image among a plurality of medical images, is an image included in a plurality of frame images and an image in which medicine and / or equipment are detected.
  • the system further comprises a region-of-interest determination unit that determines whether or not it is included in a certain comparison image, and the first detection information adding unit determines the medicine and / or the object image from the target image when the comparison image includes the same region of interest. Even when no equipment is detected, the first detection information is added to the target image.
  • the medicine and / or the equipment are detected.
  • the first detection information is added, so information useful to the user (the image being displayed is actually a drug and And / or the equipment is not shown, but it can be presented that it is an image of a drug and / or equipment.
  • the determination as to "whether or not the same area is included in another medical image" can be made based on the similarity of the image, the feature amount, and the like.
  • the “moving image” may be a live view image not assuming recording, or a moving image for recording.
  • the medical image acquisition unit acquires medical images constituting a plurality of medical images in accordance with a user's imaging instruction operation.
  • the user can capture a desired image by his / her operation.
  • the medical image acquisition unit acquires a medical image in response to detection of a medicine and / or a device.
  • a medical image is automatically taken according to the detection of medicine and / or equipment, and an image suitable for diagnosis (for example, an image of a scene such as examination or treatment) is efficiently acquired and displayed.
  • the detection target of the medicine and / or the equipment may be a frame image constituting a live view image or a frame image constituting a moving image for recording.
  • the medical image acquisition unit acquires a medical image in response to the detection of the region of interest.
  • a medical image can be automatically taken according to the detection of a region of interest, and an image suitable for examination and diagnosis can be efficiently acquired and displayed.
  • the detection target of the region of interest may be a frame image constituting a live view image or a frame image constituting a moving image for recording.
  • the display control unit displays a list of only medical images in which a region of interest is detected. According to the seventh aspect, by displaying only the medical images in which the region of interest is detected in a list, diagnosis, report creation, and the like can be efficiently performed.
  • the display control unit is configured to display characters according to first detection information in a medical image in which a drug and / or a device is detected. , At least one of a number, a symbol, and a color, and at least one of a letter, a number, a symbol, and a color is attached to the medical image in which the region of interest is detected according to the second detection information. Display a list of medical images.
  • the eighth aspect defines a specific aspect of the identification display.
  • the display control unit displays a list of a plurality of medical images in an arrangement according to the feature of the medicine and / or the equipment.
  • a list can be displayed in an arrangement (for example, images having the same or similar features are collectively arranged) according to the presence or absence of medicines and / or equipment, types, etc. Can efficiently browse the displayed image.
  • the display control unit displays a list of a plurality of medical images in an arrangement according to the feature of the region of interest.
  • the list can be displayed in an arrangement (for example, images having the same or similar features are collectively arranged) according to the presence or absence of the region of interest in the image, the size, and the like.
  • the diagnostic support system further includes a feature designation unit for specifying the feature of the medicine and / or the equipment in any one of the first to tenth aspects, and the display control unit is configured to Only medical images in which medicines and / or equipment are detected are listed.
  • the user can display an image in which a specific medicine and / or equipment is used, and efficiently perform diagnosis and report creation by viewing the displayed image.
  • an endoscope system is inserted into a diagnostic support system according to any one of the first to eleventh aspects, a display device, and a subject
  • An imaging unit including an operation unit connected on the end side, an imaging lens for imaging an optical image of an object, and an imaging element for imaging the optical image
  • an endoscope system and the medical image acquisition unit acquires a plurality of medical images by the imaging unit.
  • the endoscope system includes the diagnosis support system according to any one of the first to eleventh aspects, useful information (detection information) is detected based on the image acquired by the endoscope. It can be presented to the user, and the user can perform diagnosis, report creation, etc. efficiently.
  • a processor is a processor of an endoscope system according to the twelfth aspect, comprising: a display control unit; a first detection unit; And a first detection information attachment unit, and a second detection information attachment unit. According to the thirteenth aspect, it is possible to execute processing for presenting useful information (detection information) to the user in the endoscope system according to the twelfth aspect.
  • a diagnosis support method for acquiring a plurality of medical images for acquiring a plurality of medical images, a display control process for displaying a list of a plurality of medical images on a display device, and a diagnosis support method according to a fourteenth aspect of the present invention.
  • a first detection step of detecting a drug and / or a material used for taking a plurality of medical images from the plurality of medical images by image recognition; and a second detecting step for detecting regions of interest in the plurality of medical images A detection step of applying the first detection information indicating the detected drug and / or equipment to the medical image on which the drug and / or the equipment are detected; a detected region of interest And d) adding a second detection information indicating the second detection information to the medical image in which the region of interest is detected, and in the display control step, an aspect according to the first detection information and the second detection information In To display the medical image list.
  • useful information can be presented to the user, and the user can efficiently perform diagnosis, report preparation, and the like.
  • a diagnostic support method further having a configuration similar to that of the second to eleventh aspects with respect to the configuration of the fourteenth aspect, and a computer readable code of a program that causes the diagnostic support system to execute the diagnostic support methods of these aspects.
  • a recording medium recorded can also be mentioned as an aspect of the present invention.
  • the diagnosis support system As described above, according to the diagnosis support system, the endoscope system, the processor, and the diagnosis support method of the present invention, useful information can be presented to the user.
  • FIG. 1 is an external view of an endoscope system according to a first embodiment.
  • FIG. 2 is a block diagram showing the configuration of the endoscope system.
  • FIG. 3 is a view showing the configuration of the distal end rigid portion of the endoscope.
  • FIG. 4 is a diagram showing a functional configuration of the image processing unit.
  • FIG. 5 is a diagram showing images and information stored in the storage unit.
  • FIG. 6 is a diagram showing how medical images are associated with first and second detection information.
  • FIG. 7 is a flowchart showing processing of the diagnosis support method.
  • FIG. 8 is another flowchart showing the process of the diagnosis support method.
  • FIG. 9 is a view showing an example of the photographing condition setting screen.
  • FIG. 10 is a diagram showing an example of the display condition setting screen.
  • FIG. 11 is a flowchart showing the process of providing the first and second detection information.
  • FIG. 12 is a view showing the appearance of a list of images.
  • FIG. 13 is another view showing the appearance of a list of images.
  • FIG. 14 is still another view showing the appearance of a list of images.
  • FIG. 15 is still another view showing the appearance of a list of images.
  • FIG. 16 is another view showing an example of the display condition setting screen.
  • FIG. 17 is a diagram showing how the designated image is stored.
  • FIG. 18 is a diagram showing an automatic imaging process according to the detection of the region of interest.
  • FIG. 19 is a diagram showing how a still image is shot while shooting a moving image.
  • FIG. 20 is a diagram showing a functional configuration of the image processing unit in the second embodiment.
  • FIG. 20 is a diagram showing a functional configuration of the image processing unit in the second embodiment.
  • FIG. 21 is a flowchart showing the process of providing the first and second detection information.
  • FIG. 22 is a diagram showing how detection information is attached based on comparison with another image.
  • FIG. 23 is a flowchart showing a process of providing detection information based on comparison with a frame image.
  • FIG. 1 is an external view showing an endoscope system 10 (diagnosis support system, diagnosis support apparatus, endoscope system, processor, medical image processing apparatus) according to the first embodiment
  • FIG. 2 is an endoscope
  • FIG. 1 is a block diagram showing the main configuration of a system 10;
  • the endoscope system 10 includes an endoscope main body 100 (endoscope), a processor 200 (processor, medical image processing apparatus), a light source 300, and a monitor 400 (display). Configured
  • the endoscope main body 100 includes a hand operation unit 102 (operation unit) and an insertion unit 104 (insertion unit) connected to the hand operation unit 102.
  • the operator holds and operates the hand operation unit 102, inserts the insertion unit 104 into the body of a subject (living body), and observes it.
  • the hand operation unit 102 is provided with an air / water supply button BT1, a suction button BT2, a function button BT3 to which various functions can be assigned, and a photographing button BT4 for receiving a photographing instruction operation.
  • the insertion part 104 is comprised from the soft part 112 (soft part), the curved part 114 (curved part), and the front-end
  • the proximal operating portion 102 is connected to the proximal end side of the insertion portion 104. The user can bend the bending portion 114 by operating the hand operation portion 102 to change the direction of the distal end hard portion 116 vertically and horizontally.
  • the distal end hard portion 116 is provided with an imaging optical system 130 (medical image acquisition unit, medical image imaging unit, imaging device, imaging unit), an illumination unit 123, a forceps port 126 and the like (see FIGS. 1 to 3).
  • either or both of visible light and infrared light can be emitted from the illumination lenses 123A and 123B of the illumination unit 123 by the operation of the operation unit 208 (see FIG. 2). Further, washing water is released from a water feeding nozzle (not shown) by the operation of the air / water feeding button BT1, and the photographing lens 132 (photographing lens) of the photographing optical system 130 and the illumination lenses 123A and 123B can be cleaned.
  • a conduit (not shown) communicates with the forceps port 126 opened at the distal end hard portion 116, and a treatment tool (not shown) for tumor extraction and the like is inserted through this conduit, and advances and retracts as appropriate to the subject Necessary measures can be taken.
  • a photographing lens 132 (imaging unit) is disposed on the distal end side end face 116A of the distal end hard portion 116.
  • a CMOS (Complementary Metal-Oxide Semiconductor) type imaging device 134 imaging device, imaging unit, imaging device, medical image acquisition unit
  • drive circuit 136 drive circuit 136
  • AFE 138 Analog Front End
  • the image pickup device 134 is a color image pickup device, and includes a plurality of light receiving elements arranged (two-dimensionally arranged) in a matrix in a specific pattern arrangement (Bayer arrangement, X-Trans (registered trademark) arrangement, honeycomb arrangement etc.) And a plurality of pixels.
  • Each pixel of the imaging device 134 includes a microlens, a color filter of red (R), green (G), or blue (B) and a photoelectric conversion unit (such as a photodiode).
  • the photographing optical system 130 can also generate a color image from pixel signals of three colors of red, green and blue, or generate an image from pixel signals of any one color or two of red, green and blue. It can also be done.
  • the imaging device 134 is a CMOS imaging device will be described, but the imaging device 134 may be a CCD (Charge Coupled Device) type.
  • CCD Charge Coupled Device
  • the optical image of the subject is imaged on the light receiving surface (imaging surface) of the imaging device 134 by the imaging lens 132, converted into an electrical signal, and output to the processor 200 via a signal cable (not shown) And converted into a video signal. Thereby, the observation image is displayed on the monitor 400 connected to the processor 200.
  • illumination lenses 123A (for visible light) and 123B (for infrared light) of the illumination unit 123 are provided adjacent to the photographing lens 132 at the tip end face 116A of the distal end hard portion 116.
  • An emission end of a light guide 170 described later is disposed at the back of the illumination lenses 123A and 123B, and the light guide 170 is inserted into the insertion portion 104, the hand operation portion 102, and the universal cable 106.
  • An entrance end is disposed within the light guide connector 108.
  • the light source device 300 includes a light source 310 for illumination, a diaphragm 330, a condenser lens 340, a light source control unit 350, and the like, and lights illumination light (visible light or infrared light).
  • the light is incident on the guide 170.
  • the light source 310 includes a visible light source 310A and an infrared light source 310B, and can emit one or both of visible light and infrared light.
  • the illuminance of the illumination light by the visible light source 310A and the infrared light source 310B is controlled by the light source control unit 350, and the illuminance of the illumination light can be lowered or the illumination can be stopped as needed.
  • the light source 310 may be a light source generating white band light or light of a plurality of wavelength bands as white band light, or a light source generating light of a specific wavelength band narrower than the white wavelength band May be.
  • the specific wavelength band may be a blue band or a green band in the visible range, or a red band in the visible range.
  • the specific wavelength band is a blue band or a green band in the visible range, it includes a wavelength band of 390 nm or more and 450 nm or less, or 530 nm or more and 550 nm or less, and peaks in a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less It may have a wavelength.
  • the specific wavelength band when the specific wavelength band is a red band in the visible range, it includes a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm, and light of the specific wavelength band is 585 nm to 615 nm or 610 nm or more It may have a peak wavelength within a wavelength band of 730 nm or less.
  • the specific wavelength band includes the wavelength band of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm
  • the peak wavelength may be in the following wavelength band.
  • the light generated by the light source 310 includes a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm, and has a peak wavelength in the wavelength band of 790 nm to 820 nm or 905 nm to 970 nm. It may be done.
  • the light source 310 may include a light source that emits excitation light having a peak of 390 nm or more and 470 nm or less.
  • a medical image in-vivo image
  • a fluorochrome fluorescent, acridine orange, etc.
  • the light source type of the light source 310 (laser light source, xenon light source, LED light source (LED: Light-Emitting Diode), etc.), wavelength, presence or absence of a filter, etc. are preferably configured according to the type of object, purpose of observation At the time of observation, it is preferable to combine and / or switch the wavelength of the illumination light in accordance with the type of subject, the purpose of observation, and the like.
  • the wavelength of the light to be irradiated is switched by rotating a disk-shaped filter (rotary color filter) provided in front of the light source and provided with a filter for transmitting or blocking light of a specific wavelength. It is also good.
  • the image pickup device used in practicing the present invention is not limited to a color image pickup device in which a color filter is disposed for each pixel as in the image pickup device 134, and may be a monochrome image pickup device.
  • the wavelength of the illumination light can be switched sequentially to capture an image in a frame-sequential (color-sequential) manner.
  • the wavelength of the illumination light to be emitted may be sequentially switched among (purple, blue, green, red), or broadband light (white light) is irradiated and emitted by a rotary color filter (red, green, blue, etc.)
  • the wavelength of the illumination light may be switched.
  • one or more narrow band lights may be irradiated to switch the wavelength of the illumination light emitted by the rotary color filter (green, blue, etc.).
  • the narrow band light may be infrared light of two or more wavelengths different in wavelength.
  • the illumination light emitted from the light source device 300 is transmitted to the illumination lenses 123A and 123B through the light guide 170, and the illumination lens 123A, It irradiates to the observation range from 123B.
  • the configuration of the processor 200 will be described based on FIG.
  • the processor 200 inputs an image signal output from the endoscope main body 100 via the image input controller 202 and the image input interface 205, performs necessary image processing in the image processing unit 204, and outputs the image signal via the video output unit 206. Output.
  • the observation image in-vivo image
  • the monitor 400 display device.
  • the CPU 210 functions as a medical image acquisition unit, a display control unit, a first detection unit, a second detection unit, a first detection information application unit, a second detection information application unit, a region of interest judgment unit, and a feature specification unit.
  • the storage unit 207 stores an image of an object (medical image, photographed image) and detection information (first and second detection information) to be described later.
  • the sound processing unit 209 outputs, from the speaker 209A, a warning message (sound) and the like in setting display conditions.
  • a ROM 211 (ROM: Read Only Memory) is a non-volatile storage element (non-temporary recording medium), and computer readable by a program that causes the CPU 210 and / or the image processing unit 204 to execute the diagnosis support method according to the present invention. Code is stored.
  • a RAM 212 (RAM: Random Access Memory) is a storage element for temporary storage at the time of various processing, and can also be used as a buffer at the time of image acquisition.
  • FIG. 4 is a diagram showing a functional configuration of the image processing unit 204 (medical image acquisition unit, medical image analysis processing unit, medical image analysis result acquisition unit).
  • the image processing unit 204 includes a medical image acquisition unit 204A, a display control unit 204B, a first detection unit 204C, a second detection unit 204D, a first detection information application unit 204E, a second detection information application unit 204F, and feature specification.
  • the unit 204G includes a storage control unit 204H.
  • the first detection unit 204C and the second detection unit 204D also operate as a medical image analysis processing unit.
  • the image processing unit 204 acquires a special light image having information of a specific wavelength band based on a normal light image obtained by irradiating light of a plurality of wavelength bands as light of the white band or light of the white band. May be provided.
  • the signal of the specific wavelength band is usually the color information of RGB (R: red, G: green, B: blue) or CMY (C: cyan, M: magenta, Y: yellow) included in the light image. It can be obtained by calculation based on.
  • the image processing unit 204 generates a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band, and a special light image obtained by irradiating light of a specific wavelength band.
  • a feature amount image generation unit that generates a feature amount image by calculation based on at least one of the above may be provided, and a feature amount image as a medical image (medical image) may be acquired and displayed.
  • the functions of the image processing unit 204 described above can be realized using various processors.
  • the various processors include, for example, a central processing unit (CPU) that is a general-purpose processor that executes software (programs) to realize various functions.
  • the various processors described above also include a programmable logic device (PLD) which is a processor whose circuit configuration can be changed after manufacturing an FPGA (Field Programmable Gate Array) or the like.
  • PLD programmable logic device
  • FPGA Field Programmable Gate Array
  • dedicated electric circuits and the like which are processors having a circuit configuration specially designed to execute specific processing such as application specific integrated circuits (ASICs) are also included in the various processors described above.
  • ASICs application specific integrated circuits
  • each unit may be realized by one processor or may be realized by combining a plurality of processors. Also, multiple functions may be realized by one processor. As an example in which a plurality of functions are configured by one processor, first, one processor or more is configured by a combination of one or more CPUs and software, as represented by computers such as clients and servers; Is realized as a plurality of functions. Second, as typified by a system on chip (SoC) or the like, there is a mode using a processor that realizes the functions of the entire system with one integrated circuit (IC) chip. Thus, the function of each part is configured using one or more of the various processors described above as a hardware-like structure.
  • SoC system on chip
  • circuitry circuitry
  • the processor executes software (program)
  • the computer readable code of the software to be executed (including the program for executing the diagnosis support method according to the present invention) is ROM 211 (see FIG. 2). Etc.) and the processor refers to the software.
  • the RAM 212 (see FIG. 2) is used as a temporary storage area, and data stored in, for example, an EEPROM (Electronically Erasable and Programmable Read Only Memory) is referred to. Note that illustration of devices such as an EEPROM is omitted in FIG.
  • the processor 200 includes an operation unit 208.
  • the operation unit 208 includes an operation mode setting switch (not shown) and the like, and can operate irradiation of visible light and / or infrared light.
  • the operation unit 208 also includes a keyboard and a mouse (not shown), and the user can perform setting operations of imaging conditions and display conditions via these devices (described later).
  • the setting of the operation mode may be performed by assigning the operation mode setting function to the function button BT3 (see FIG. 1) of the hand operation unit 102 as described above.
  • the storage unit 207 (recording device) is composed of non-temporary recording media such as a CD (Compact Disk), a DVD (Digital Versatile Disk), a hard disk (Hard Disk), and various semiconductor memories, and the images and information shown in FIG. Associate and store.
  • the storage unit 207 stores a photographed image 207A, first detection information 207B, second detection information 207C, a designated image 207D, and association information 207E.
  • the photographed image 207A, the designated image 207D, and the first detection information 207B and / or the second detection information 207C are recorded in association with each other as shown in FIG.
  • "i101" and the like are image identification information.
  • the photographed image 207A, the designated image 207D, the first detection information 207B, and the second detection information 207C are displayed on the monitor 400 by the operation through the operation unit 208 and the control of the CPU 210 and / or the image processing unit 204.
  • region of interest which is a region of interest included in a medical image (medical image) and / or presence or absence of an aspect to be noted It may be stored in the unit 207 (recording device).
  • the image processing unit 204 (medical image analysis processing unit, medical image analysis result acquisition unit) can acquire the analysis results from the storage unit 207 and can display the results on the monitor 400.
  • the monitor 400 (display device) operates the operation via the operation unit 208 and controls the CPU 210 and / or the image processing unit 204 to obtain a photographed image (medical image), an imaging condition setting screen, a display condition setting screen, first detection information, The second detection information and the like are displayed (see FIGS. 9 to 11).
  • the monitor 400 also has a touch panel (not shown) for performing a shooting condition setting operation and / or a display condition setting operation.
  • FIG. 7 and 8 are flowcharts showing processing of the diagnosis support method according to the first embodiment.
  • FIG. 9 is a view showing an example of a photographing condition setting screen.
  • condition names areas C01 to C06
  • contents of setting conditions areas V01 to V06
  • pull-down buttons buttons A01 to A06
  • a button B01 provided at the lower part of the screen is for display condition determination
  • a button B02 is for cancellation of the condition change
  • a button B03 is a button for returning to the initial setting.
  • the screen of FIG. 9 is displayed on the monitor 400, and the display conditions can be set by the user's operation via the touch panel of the monitor 400 and / or the keyboard and / or the mouse of the operation unit 208.
  • Regions C01 and V01 indicate "whether or not to detect the region of interest from the acquired image", and ON (detected) or OFF (not detected) via the button A01 can be designated.
  • a region of interest (lesion region, lesion candidate region, etc .; also referred to as a region of interest) is detected by the image processing unit 204 (second detection unit 204D).
  • Regions C02 and V02 indicate "whether automatic imaging is performed when the region of interest is detected", and ON (automatic imaging) or OFF (not automatic imaging) is designated by an operation via button A02. be able to.
  • the medical image acquisition unit 204A (medical image acquisition unit) controls the imaging optical system 130 according to the detection of the region of interest and imaging is performed.
  • Areas C03 and V03 indicate "whether or not to detect equipment from the acquired image", and can be selected as ON (detected) or OFF (not detected) by an operation via the button A03.
  • the “apparatus” includes a treatment tool (eg, forceps, an injection needle, a clip, a tube, etc.) for performing biopsy, excision and the like on the subject, and can be inserted into the subject from the forceps port 126.
  • areas C04 and V04 indicate "whether or not to automatically shoot when the equipment is detected", and are turned on (automatically shot) or off (automatically shot) by a selection operation via button A04. Can be selected.
  • the medical image acquisition unit 204A controls the imaging optical system 130 and imaging is performed according to the detection of the device by the first detection unit 204C (first detection unit).
  • Regions C05 and V05 indicate "whether or not to detect a drug from the acquired image", and can be selected as ON (detected) or OFF (not detected) by an operation via the button A05.
  • the "drug” includes a coloring agent and a staining agent for observing the shape, unevenness, etc. of a lesion.
  • regions C06 and V06 indicate “whether or not to automatically perform imaging when a drug is detected”, and are turned on (automatically captured) or off (automatically captured) by a selection operation via button A06. Can be selected.
  • the medical image acquisition unit 204A controls the imaging optical system 130 and imaging is performed according to the detection of the medicine by the first detection unit 204C.
  • imaging can be performed under a desired condition by setting the conditions via such a setting screen, the user can efficiently perform diagnosis, report generation, and the like.
  • the setting of conditions in FIG. 9 is an example, and addition or deletion of conditions, and change of contents may be performed.
  • FIG. 10 is a diagram showing an example of a list display condition setting screen.
  • Areas C07 and V07 indicate the display mode of the detected medicine, and character display of a name, symbol display and the like can be designated by a selection operation via a button A07.
  • Areas C08 and V08 indicate the display modes of the detected equipment, and it is possible to designate a name display, a procedure name display and the like by a selection operation via the button A08.
  • Regions C09 and V09 indicate the identification display mode of the image in which the region of interest is detected, and it is possible to designate a frame (graphic) addition, a character and / or a number addition, a color addition, etc. by selection operation via button A09. it can.
  • the regions C10 and V10 indicate "whether or not only the image in which the region of interest is detected is to be displayed", and ON or OFF can be designated by a selection operation via the button A10.
  • Regions C11 and V11 indicate "whether or not to display an image for each type of medicine", and ON or OFF can be designated by a selection operation via the button A11.
  • Areas C12 and V12 indicate "whether or not only a specific type of medicine is to be displayed”, and ON or OFF can be designated by a selection operation via the button A12.
  • the image can be displayed under a desired condition by setting the condition via such a setting screen, the user can perform diagnosis, report creation, etc. efficiently.
  • the imaging optical system 130 and the image processing unit 204 (medical image acquisition unit 204A) Acquisition of the live view image and display on the monitor 400 are started (step S104). This allows the user to observe the inside of the subject.
  • the medical image acquisition unit 204A receives an imaging instruction operation.
  • step S106 the determination (presence or absence of the imaging instruction) in step S106 is affirmed, and the process proceeds to step S108 (medical image acquisition process), and the imaging optical system 130 (medical image imaging unit, imaging device, medical image acquisition unit) and medical image acquisition A medical image (still image; medical image, endoscopic image) is acquired by the unit 204A (imaging control unit, medical image acquisition unit).
  • the imaging button BT4 is not operated, when automatic imaging (refer to FIG. 9) by region of interest detection, medicine detection, etc. is ON, the imaging instruction is issued by the medical image acquisition unit 204A when the setting conditions are satisfied ( YES in step S106) A medical image is taken (step S108).
  • the image captured in step S108 may be a still image or a moving image, but in the following description, it is assumed that a still image is captured.
  • the acquired medical image is stored in the storage unit 207.
  • the medical image acquisition unit 204A continues acquisition and storage of medical images until the end of imaging (YES in step S110), and acquires a plurality of medical images.
  • the medical image acquisition unit 204A ends the acquisition and display of the live view image.
  • step S110 the image processing unit 204 (first detection unit 204C) detects a drug and / or a device by image recognition from the plurality of acquired medical images (step S112: First detection step).
  • step S112 First detection step
  • step S11D second detection unit
  • step S114 second detection step
  • the detection of the drug (including the coloring agent and the staining agent) in step S112 is performed based on the color tone feature amount using, for example, the method described in Patent Document 1 (Japanese Patent Application Laid-Open No. 2016-62488) described above. Can.
  • the image processing unit 204 (first detection unit 204C) detects dark area pixels and halation pixels based on pixel values of R (red), G (green) and B (blue) in each pixel of the medical image.
  • the color tone feature quantities (G / R, B / G) are calculated for each pixel excluded and not excluded, and the average value of the color tone feature quantity is calculated for each small block obtained by dividing the medical image.
  • the drug used in the acquired medical image can be determined by comparing the plotting result (the position in the feature amount space) for the detection target drug with the distribution for each drug.
  • a treatment to be performed using the type of the detection result for example, the type and name of the medicine), the content of the procedure, and the like may be associated in advance, and may be included in the detection information (first detection information) added to the image.
  • the detection of the medicine may be performed using the result of machine learning (depth learning and the like) (see the description below for the detection of the region of interest).
  • the detection of the equipment in step S112 can also be performed using the method described in Patent Document 1 described above. Specifically, when each treatment tool is inserted into the forceps channel (a conduit (not shown) communicating with the forceps port 126), an endoscopic image is used as a template image, and the first detection unit 204C performs inspection with the template image By checking the endoscopic image of the subject, it is detected that any treatment tool has been used.
  • the template image prepares a plurality of images having different forceps channel directions, protrusion lengths, and open / close states for each treatment tool. Moreover, about the treatment tool of the asymmetrical shape from which the shape on an image changes with rotation, multiple images with which rotation angles differ are prepared.
  • the first detection unit 204C detects an edge from the endoscopic image.
  • an image for edge detection an R image (an image generated from a pixel signal of red pixels) or a G image (an image generated from a pixel signal of green pixels) is used. If the treatment sheath is red, it is recommended to use a G image.
  • the line segment shape is detected from within the edge image using template matching, Hough transform, etc., and the detected line segment shape is compared with the template image to calculate the degree of coincidence.
  • the treatment tool of the template image with the highest degree of matching is taken as the detection result.
  • the treatment performed using the equipment and the content of the procedure, etc. may be associated in advance with the detection result (for example, the type and name of the equipment), and may be included in the detection information (first detection information) added to the image .
  • the detection of the equipment may be performed using the result of machine learning (deep learning etc.) as in the case of the detection of the medicine (see the description of detection of the region of interest described later).
  • the detection of the region of interest in step S114 can be performed, for example, by providing the second detection unit 204D with a known CAD system (CAD: Computer Aided Diagnosis). CAD: Computer Aided Diagnosis. Specifically, based on, for example, feature amounts of pixels of a medical image, it is possible to extract the presence / absence of an area of interest (an area of interest that is an area to be noted) and an object (an object to be observed) in the area of interest. In this case, the second detection unit 204D divides the detection target image into a plurality of rectangular areas, and sets each divided rectangular area as a local area. The second detection unit 204D calculates feature amounts (for example, hue) of pixels in the local region for each local region of the detection target image, and determines a local region having a specific hue as a region of interest from each local region. .
  • CAD Computer Aided Diagnosis
  • the detection of the region of interest may be performed using the result of machine learning (depth learning and the like). For example, every time a new image is stored in the storage unit 207 (or every time a new image is taken), an image in which the second detection unit 204D uses deep learning based on the deep learning algorithm By performing analysis processing, it is analyzed whether or not the region of interest is included in the image.
  • the depth learning algorithm is a known convolutional neural network (convolutional neural network) method, that is, the repetition of the convolutional layer and the pooling layer, the entire combined layer, and the output layer, and the region of interest is included in the image. Is an algorithm that recognizes “Whether or not to perform such machine learning”, and / or “whether or not to use the learning result” may be set on the condition setting screen as shown in FIG.
  • step S114 the type, number, shape, size and the like of the region of interest can be detected.
  • detection of medicine and / or equipment and region of interest is performed after completion of photographing for all images (YES in step S110) in FIG. 7, detection of medicine and / or equipment and region of interest is photographing images It may be performed each time (between step S108 and step S110).
  • step S116 first detection information application process, second detection information application process.
  • the first detection information attachment unit 204E determines whether the first detection unit 204C has detected a drug and / or a device (step S116-1). When a drug and / or a device are detected (YES in step S116-1), the first detection information providing unit 204E generates first detection information (first detection information 207B) indicating the drug and / or the device. The medicine and / or the equipment are applied to the detected image (medical image) (step S116-2), and the process proceeds to step S116-3. If no drug and / or equipment is detected (NO in step S116-1), the first detection information attachment unit 204E proceeds to step S116-3 without providing the first detection information.
  • step S116-3 the second detection information attachment unit 204F (second detection information attachment unit) determines whether the second detection unit 204D has detected the region of interest.
  • the second detection information adding unit 204F detects the second detection information (second detection information 207C) indicating the region of interest from the region of interest
  • the image (medical image) is assigned (step S116-4), and the process proceeds to step S116-5. If the region of interest is not detected (NO in step S116-3), the second detection information assignment unit 204F proceeds to step S116-5 without assigning the second detection information.
  • step S116-5 the first detection information attachment unit 204E and the second detection information attachment unit 204F determine whether the processing has been completed for all the images, and when the processing is completed (YES in step S116-5) It returns to the flowcharts 7 and 8 (step S118 in FIG. 8). If the process has not ended (NO in step S116-5), the process returns to step S116-1.
  • the first detection information giving unit 204E gives, for example, the type of medicine and / or equipment, the name, the content of the procedure performed using the detected medicine and / or equipment as the first detection information.
  • the second detection information attachment unit 204F can, for example, assign the type (lesion, lesion candidate, etc.), size, and shape of the region of interest as second detection information.
  • the display control unit 204B displays a list of captured images (a plurality of medical images) on the monitor 400 (step S118: display control step).
  • the conditions for displaying the list can be set via the display condition setting screen shown in FIG. 10, as in the case of the setting of the imaging conditions described above with reference to FIG.
  • the user performs a display condition setting operation using the operation unit 208, and the display control unit 204B sets the display condition based on the operation.
  • the display conditions may be set before, during or after shooting. Items and contents shown in FIG. 10 are an example of display conditions, and other items and contents may be adopted.
  • FIG. 12 is a diagram showing a mode 1 of list display.
  • the first and second detection information given in step S116 is given by characters and / or symbols, and images are displayed in a list on the monitor 400 (display device).
  • the first detection information name of medicine, content of procedure
  • the first detection information is added to the image as character information, and it is shown in part (b) of FIG.
  • the first detection information is attached as a symbol to the same image as the part (a). These letters and symbols may be colored differently depending on the content. Display control of such an image is performed by the display control unit 204B.
  • the image which attached the frame line (example which displayed the 2nd detection information graphically) of the double line in FIG. 12 shows that it is an image by which the region of interest (region of interest ROI) was detected.
  • the upper right image in (a) part and (b) part in FIG. 12 is an image in which the region of interest is not detected and no frame line is attached, and in the lower right image, the region of interest ROI and forceps FR are detected. Image.
  • the button B04 is a button for displaying an image captured before the displayed image
  • the button B05 is a button for displaying an image captured after the displayed image.
  • the display control unit 204B displays a list of images (a plurality of medical images) on the monitor 400 in an arrangement according to the characteristics of the medicine and / or the equipment. For example, in the case of the same image as in FIG. 12, in mode 2, as shown in FIG. 13, the display position of the image is divided into the regions R1 to R4 according to the type of medicine and / or equipment. In addition, at the time of display, the display position is changed according to the number of belonging images (the type with a large number of images is displayed above).
  • the feature of the image to be displayed (the type of medicine and / or equipment, the content of the procedure, the presence or absence of the region of interest, etc.) is specified based on the user's operation, and only the image having the specified feature is displayed control unit 204B displays a list.
  • the user performs a feature specification operation through the keyboard and / or the mouse of the operation unit 208 and the touch panel of the monitor 400, and according to this operation, the feature of the image displayed by the feature specification unit 204G (feature specification unit) , And the display control unit 204B displays a list of images on the monitor 400 according to the specified feature.
  • FIG. 14 is an example of display according to aspect 3. Part (a) of FIG.
  • FIG. 14 shows a state in which only the “no treatment” image is displayed as a list, and the characteristic (“no treatment”) of the designated image is shown in the region R5 at the upper left of the screen.
  • a button B06 for displaying an image of another type (“biopsy image”) is displayed at the lower right of the screen, and when the user operates the button B06 via the operation unit 208, the image features
  • biopsy image an image of another type
  • the display control unit 204B changes the type of the images listed in the area R5 to "biopsy”, and changes the display of the button B06 to another feature (in this case, "ablation") .
  • the display control unit 204B displays a list of only the images in which the region of interest is detected.
  • the display position is changed according to the feature (for example, the size) of the region of interest.
  • the image in which the region of interest is detected as shown in the example of FIG. 15 corresponds to the size of the region of interest (“5 mm or more” and “3 mm or more and less than 5 mm” in the example of FIG. Display a list.
  • the setting of the size of the region of interest to be displayed in a list is made, for example, via the screen shown in FIG. 16 (displays the image in which the region of interest of the checked type is detected; black circle indicates the checked type). Can be done.
  • the size of the region of interest can be calculated based on the imaging conditions (the imaging magnification, the number of pixels of the region of interest, etc.) by the second detection unit 204D, but instead of the size calculation by the second detection unit 204D.
  • a scale or marker for measuring the size may be displayed together with the image.
  • the image processing unit 204 determines whether or not there is a designation of an image to be stored (step S120 in FIG. 8). In this determination, a check box CB is provided for the images i1 to i6 displayed as a list as shown in the example of FIG. 17, and the storage control unit determines whether there is an image checked when the button B07 is operated. This can be done by the judgment of 204 H.
  • the button B08 is a cancel button.
  • the storage control unit 204H saves the image whose check box CB is checked (the images i1, i3, i4, i5, and i6 in the example of FIG. 17) in the storage unit 207 as a designated image 207D (step S122). These images can be attached to (associated with) a diagnostic report template, for example, which enables efficient report creation.
  • the storage control unit 204H stores the first and second detection information assigned in step S116 in the storage unit 207 in association with the designated image 207D as first detection information 207B and second detection information 207C, respectively ( Step S122; see FIG. 5). At this time, the storage control unit 204H causes the storage unit 207 to store information associating the specified image 207D with the first detection information 207B and the second detection information 207C as association information 207E (see FIGS. 5 and 6).
  • the CPU 210 and the image processing unit 204 determine whether to end the processing (step S124). If YES, the process ends, and if NO, the process returns to the live view image display start in step S104.
  • detection of medicines and / or equipment and automatic imaging according to the detection are also performed by setting conditions (regions V03 to V06 are ON) via the imaging condition setting screen of FIG. Images can be displayed.
  • the user can easily acquire and display an image suitable for diagnosis, thereby making report creation efficient. Can be done.
  • the live view image is acquired and displayed in the flowcharts shown in FIGS. 7 and 8 (step S104), and the still image is photographed according to the user's instruction (steps S106 and S108).
  • Shooting is not limited to such an aspect.
  • Still images may be taken according to a user's instruction while taking a moving image.
  • the live view image display start in step S104 in response to a moving image shooting instruction via operation unit 208 and / or shooting button BT4 (YES in step S105-2
  • the medical image acquisition unit 204A starts moving image shooting (step S105-3).
  • the medical image acquisition unit 204A captures a still image (step S105-5) in response to a moving image shooting instruction via the operation unit 208 and / or the shooting button BT4 (YES in step S105-4).
  • the processes in steps S105-4 and S105-5 are repeated until the photographing is completed (YES in step S105-6).
  • the process proceeds to step S112 in FIG. According to such an aspect, it is possible to capture a still image in a particularly remarkable situation while capturing a moving image for continuous observation.
  • useful information can be presented to the user, and the user can perform diagnosis, report creation, etc. efficiently.
  • the first and second detection information is given to the image in which the drug and / or the material and the region of interest are actually detected (see FIG. 11).
  • the first detection information is also given to an image in which no medicine and / or equipment is actually detected when the condition is satisfied.
  • the addition of the detection information in the second embodiment will be described below.
  • the configuration of the endoscope system in the second embodiment differs in that the image processing unit 204 includes a region of interest determination unit 204I (region of interest determination unit; see FIG. 20), the other elements are the same.
  • the same elements as those in the first embodiment are denoted by the same reference numerals, and detailed descriptions thereof will be omitted.
  • the first embodiment it is determined whether or not the same region of interest as that included in the detected image of the drug and / or the equipment is displayed in the plurality of images displayed in a list, and the same region of interest is displayed.
  • the first detection information is given even if the medicine and / or the equipment are not detected.
  • the list display of the images is performed based on the first detection information provided in this manner. Therefore, according to the first aspect, the user can grasp that "the image is related to the treatment for the region of interest" even if the image does not show the medicine and / or the equipment.
  • FIG. 21 is a flowchart showing details of the addition of detection information (corresponding to step S116 in FIG. 7) in the second embodiment (aspect 1).
  • the first detection unit 204C has detected the medicine and / or the equipment in the target image (each of the plurality of medical images to be displayed in a list; target of judgment of the detection information). It is determined whether or not (step S116-6). This determination can be made based on the result of step S112.
  • the process proceeds to step S116-7, and the second detection information adding unit 204F detects the region of interest from the target image by the second detection unit 204D. Determine if you did. This determination can be made based on the result of step S114. If the region of interest is also detected (YES in step S116-7), the first detection information adding unit 204E sets the first detection information (first detection information 207B) indicating medicine and / or equipment as a target image. Grant (step S116-8).
  • the second detection information attachment unit 204F attaches second detection information (second detection information 207C) indicating the region of interest to the target image.
  • second detection information second detection information 207C
  • the first detection information giving unit 204E gives, for example, the type of medicine and / or equipment, the name, the content of the procedure performed using the detected medicine and / or equipment as the first detection information.
  • the second detection information attachment unit 204F can, for example, assign the type (lesion, lesion candidate, etc.), size, and shape of the region of interest as second detection information.
  • step S116-6 the second detection information adding unit 204F detects whether the second detection unit 204D has detected the region of interest. It judges (step S116-10). This determination can be made based on the result of step S114. If the region of interest is detected (YES in step S116-10), that is, if the drug and / or the device has not been detected from the target image but the region of interest has been detected, the process proceeds to step S116-11. In step S116-11, “the same region of interest as included in the target image is the other image among the plurality of medical images to be displayed in a list, and the drug and / or the device are detected (comparative image Determine whether it is included in).
  • the region-of-interest determination unit 204I determines, for example, image similarity, feature amounts of images, information of imaging time of each image, motion vectors between images, and determination criteria thereof Can be done on the basis of In addition, whether or not a drug and / or a device is detected in the comparison image can be determined based on the result of step S112.
  • the second detection information adding unit 204F adds the second detection information
  • the first The detection information adding unit 204E adds the first detection information to the target image (step S116-12).
  • the first detection information to be added to the target image may be identical to the comparison image, or may be changed so that it can be identified as information added in consideration of the identity of the region of interest. For example, detection information such as "biopsy equipment: deemed detection” can be attached. A state of provision of detection information in steps S116-11 and 12 is shown in FIG. In the example shown in FIG.
  • the biopsy device is detected from the image i7 (comparative image), and the biopsy device is not detected from the image i8 (target image), but the region of interest included in the image i8 is the image i7
  • the detection information (first detection information) of “biopsy instrument material: detection” is added to the image i 8 because it is the same as the region of interest included in the image.
  • the first detection information adding unit 204E adds the first detection information (for example, “pictanin: detection”, “pictanin: deemed detection”) to the target image. .
  • step S116-15 the first detection information attachment unit 204E and the second detection information attachment unit 204F end the processing for all images (all of the plurality of images displayed in a list) in step S116-15. If the process is completed (YES in step S116-15), the process returns to the flowchart of FIG. 7 (step S118). If the process has not ended (NO in step S116-15), the process returns to step S116-6.
  • the drug and / or the device is not actually reflected, but the same region of interest as the image (comparative image) in which the drug and / or the device is detected is included.
  • the first detection information is also added to the “image (target image)”.
  • the list display of the images is performed in a mode according to the first and second detection information as described above in the first embodiment. Therefore, according to the second embodiment (aspect 1), information useful to the user (even if the image does not show medicine and / or equipment "it is an image related to the treatment for the region of interest") is presented can do.
  • Step S116-11 If the same region of interest is not included in another image (NO in step S116-11), only the second detection information indicating the region of interest is added to the image by the second detection information addition unit 204F. (Step S116-13). Further, in the case of NO at step S116-10, that is, when neither the medicine and / or the equipment nor the region of interest is detected, neither the first detection information nor the second detection information is given (step S116-14).
  • detection information is added based on the result of comparing one image with another image in a plurality of images displayed in a list, but in the second embodiment, individual images included in a plurality of medical images displayed in a list Detection information is added by comparing (target image) with a plurality of frame images constituting a moving image and images (comparison images) in which medicines and / or equipment are detected.
  • the user When giving the first and second detection information to the photographed image, the user is not photographing the scene using the medicine and / or the equipment (the image showing the medicine and / or the equipment is displayed in a list) Not included in multiple images of interest).
  • the target image is an image relating to medicine and / or equipment only by comparing the photographed images, and detection information may not be properly provided.
  • the drug and / or the device are detected for a plurality of frame images constituting the moving image acquired during the examination, and the frame image (comparative image) in which the drug and / or the device is detected It is determined whether the same region of interest is shown. If the same region of interest is displayed, detection information is added to the target image. By processing in this manner, it is possible to provide the first detection information indicating the medicine and / or the equipment even if the image showing the medicine and / or the equipment is not included in the list image.
  • step S116-11 of FIG. 21 an image included in a plurality of frame images constituting a moving image and in which a drug and / or a device are detected is compared It is an image.
  • Shooting of a still image parallel to a moving image can be performed, for example, according to the mode described above with reference to FIG. FIG. 23 (step S116-11a) shows the process of the comparison portion between the target image and the comparison image in the second embodiment. It can be judged based on the result of steps S112 and S114 whether the medicine and / or the equipment and the region of interest are detected.
  • the first detection information adding unit 204E adds the first detection information in addition to the second detection information.
  • the first detection information to be added to the target image in step S116-12 may be the same as the comparison image, or may be changed so that it can be identified as information added in consideration of the identity of the region of interest. For example, detection information such as "biopsy equipment: deemed detection" can be attached.
  • the second embodiment (aspect 2), although "the drug and / or the device is not actually reflected, the same region of interest as the image (comparative image) in which the drug and / or the device is detected is included"
  • the first detection information is also added to the “image (target image)”.
  • the list display of the images is performed in a mode according to the first and second detection information as in mode 1. Therefore, according to the second aspect, it is possible to present useful information to the user (even if the image does not show the medicine and / or the equipment, "it is an image related to the treatment for the region of interest").
  • useful information can be presented to the user also in the second embodiment, and the user can perform diagnosis, report creation, etc. efficiently.
  • detection of the region of interest and determination of "whether or not the same region of interest is reflected" are performed using the result of machine learning (deep layer learning etc.) It is also good.
  • the medical image analysis processing unit detects an attention area which is an area to be noted based on the feature amount of pixels of the medical image
  • the medical image analysis result acquisition unit is a medical image processing apparatus that acquires the analysis result of the medical image analysis processing unit.
  • the medical image analysis processing unit detects the presence or absence of an object to be noted based on the feature amount of the pixel of the medical image
  • the medical image analysis result acquisition unit is a medical image processing apparatus that acquires the analysis result of the medical image analysis processing unit.
  • An analysis result is a medical image processing apparatus, which is one or both of a focused area which is a notable area included in a medical image and a presence or absence of a notable object.
  • the medical image processing apparatus is a medical image, which is a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band.
  • a medical image is an image obtained by irradiating light of a specific wavelength band, The medical image processing apparatus, wherein the specific wavelength band is a band narrower than the white wavelength band.
  • a medical image processing apparatus in which a specific wavelength band is a blue or green band in the visible range.
  • a specific wavelength band includes a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less, and light of a specific wavelength band is a medical having a peak wavelength within a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less Image processing device.
  • the specific wavelength band is a medical image processing apparatus that is a red band in the visible range.
  • the specific wavelength band includes a wavelength band of 585 nm to 615 nm or less and 610 nm to 730 nm, and light of a specific wavelength band is a medical having a peak wavelength within a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm.
  • Image processing device
  • the specific wavelength band includes wavelength bands in which the absorption coefficients of oxygenated hemoglobin and reduced hemoglobin differ, and light of a specific wavelength band has peak wavelengths in wavelength bands in which the absorption coefficients of oxygenated hemoglobin and reduced hemoglobin are different. Medical imaging device.
  • the specific wavelength band includes wavelength bands of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and light of the specific wavelength band is 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm.
  • a medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or 600 nm to 750 nm.
  • the medical image is an in-vivo image of the inside of the body
  • An in-vivo image is a medical image processing apparatus having information of fluorescence emitted from a fluorescent substance in the living body.
  • Fluorescence is a medical image processing apparatus obtained by irradiating excitation light having a peak of 390 or more and 470 nm or less into a living body.
  • the medical image is an in-vivo image of the inside of the body,
  • the specific wavelength band is a medical image processing apparatus that is a wavelength band of infrared light.
  • a specific wavelength band includes a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less, and light of a specific wavelength band is a medical image having a peak wavelength in a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less Processing unit.
  • the medical image acquisition unit acquires a special light image having information of a specific wavelength band based on a normal light image obtained by irradiating white band light or light of a plurality of wavelength bands as white band light. It has an optical image acquisition unit, A medical image processing apparatus whose medical image is a special light image.
  • a medical image processing apparatus for obtaining a signal in a specific wavelength band by calculation based on RGB or CMY color information usually included in a light image.
  • Appendix 18 By an operation based on at least one of a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band, and a special light image obtained by irradiating light of a specific wavelength band A feature amount image generation unit that generates a feature amount image; A medical image processing apparatus whose medical image is a feature image.
  • Appendix 19 A medical image processing apparatus according to any one of appendices 1 to 18, An endoscope which emits light of a white wavelength band and / or light of a specific wavelength band to acquire an image; Endoscope apparatus provided with.
  • a diagnostic support apparatus comprising the medical image processing apparatus according to any one of appendices 1 to 18.
  • a medical service support device comprising the medical image processing device according to any one of appendices 1 to 18.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、有用な情報をユーザに提示することができる診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法を提供することを目的とする。本発明の一の態様に係る診断支援システムによれば、検出された薬剤及び/または器材を示す第1の検出情報と、検出された関心領域を示す第2の検出情報とを医用画像に付与し、検出情報に応じた態様で一覧表示するので、ユーザは検出情報(第1,第2の検出情報)及び検出情報と画像との関係を容易に把握することができる。このように、第1の態様によれば有用な情報(検出情報)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。

Description

診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法
 本発明は診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法に関する。
 医用機器を用いた診断では、薬剤及び/または器材を用いて検査、処置を行い被検体の画像を取得する場合がある。この場合、使用した薬剤及び/または器材、手技の内容等を診断後に作成するレポートに記載する必要があるが、医師等のユーザの作業負担が大きいため、作業負担を軽減する技術が知られている。
 例えば下記特許文献1では、内視鏡画像から検査で使用された薬剤及び/または器材を画像認識により検出し、検出結果をもとに医療従事者による医療文書作成(内視鏡検査レポート、検査実施記録)のための入力操作を補助することが記載されている。具体的には内視鏡検査レポートにおいて、検出情報または検出情報から抽出された反映情報が、処置エリアの処置情報欄、実施エリアの手技欄、加算欄、薬剤欄、器材欄等に自動入力される。また特許文献1では、検出した薬剤及び/または器材の名称を表示する(画像のタブに薬剤名、処置具名を表示する等)ことが記載されている。
特開2016-62488号公報
 内視鏡等で取得した画像に基づく検査を行う場合、使用した薬剤及び/または器材と関心領域(病変、病変候補等)との関係(どのような関心領域に対してどのような薬剤及び/または器材を用いたか)が重要である。しかしながら、上述した特許文献1ではそのような関係は考慮されておらず、薬剤及び/または器材と関心領域との関係が把握困難であった。ユーザが関係付けを行うのは負担が大きく、誤りのおそれもある。
 このように、従来の技術では提示される情報の有用性が低く、ユーザは画像に基づく診断、レポート作成等を効率的に行うことが困難であった。
 本発明はこのような事情に鑑みてなされたもので、有用な情報をユーザに提示することができる診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法を提供することを目的とする。
 上述した目的を達成するため、本発明の第1の態様に係る診断支援システムは、複数の医用画像を取得する医用画像取得部と、複数の医用画像を表示装置に一覧表示させる表示制御部と、複数の医用画像を撮影する際に使用された薬剤及び/または器材を複数の医用画像から画像認識により検出する第1の検出部と、複数の医用画像における関心領域を画像認識により検出する第2の検出部と、検出された薬剤及び/または器材を示す第1の検出情報を薬剤及び/または器材が検出された医用画像に付与する第1の検出情報付与部と、検出された関心領域を示す第2の検出情報を関心領域が検出された医用画像に付与する第2の検出情報付与部と、を備え、表示制御部は、第1の検出情報及び第2の検出情報に応じた態様で複数の医用画像を一覧表示する。
 第1の態様によれば、検出された薬剤及び/または器材を示す第1の検出情報と、検出された関心領域を示す第2の検出情報とを医用画像に付与し、検出情報に応じた態様で一覧表示するので、ユーザは薬剤及び/または器材、関心領域、及び画像の関係を容易に把握することができる。このように、第1の態様によれば有用な情報をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。
 第1の態様及び以下の各態様において、「薬剤」とは関心領域(病変部等)の形状、凹凸等を観察するための色素剤及び染色剤を含み、「器材(器具)」とは被検体に対して生検、切除等を行うための処置具を含む。また、「関心領域」とは病変領域、病変候補領域、処置後の領域を含む。なお第1の態様において、医用画像取得部は撮影光学系及び撮像素子を含む撮像装置により画像を撮影して複数の医用画像を取得してもよいし、別途記録された複数の医用画像をネットワーク及び/または記録媒体経由で取得してもよい。
 第1の態様及び以下の各態様において、医用画像は医療画像ともいう。また、医用画像撮影の際に用いる光源は白色帯域の光、白色帯域として複数の波長(狭帯域光)を含む光、赤外光、励起光を発生する光源を用いることができる。また、第1の態様で取得する医用画像は白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像でもよいし、通常光画像に基づいて取得した、特定の波長帯域の情報を有する特殊光画像でもよい。
 第2の態様に係る診断支援システムは第1の態様において、複数の医用画像のうちの画像である対象画像に含まれる関心領域と同一の関心領域が、複数の医用画像のうちの他の医用画像であって薬剤及びまたは器材が検出された医用画像である比較画像に含まれているか否かを判定する関心領域判定部をさらに備え、第1の検出情報付与部は、比較画像に同一の関心領域が含まれる場合は、対象画像から薬剤及び/または器材が検出されない場合においても対象画像に第1の検出情報を付与する。第2の態様によれば、「薬剤及び/または器材は映っていないが、薬剤及び/または器材が検出された画像と同一の関心領域が含まれる画像」に対しても第1の検出情報(薬剤及び/または器材を示す情報)を付与し、付与した第1の検出情報に応じた態様で画像を表示する。したがって第2の態様によれば、ユーザに有用な情報(表示されている画像は、実際には薬剤及び/または器材は映っていないが、薬剤及び/または器材に関する画像であること)を提示することができる。なお、「同一の関心領域が他の医用画像に含まれているか否か」の判定は画像の類似度、特徴量等に基づいて行うことができる。
 第3の態様に係る診断支援システムは第1の態様において、医用画像取得部は複数のフレーム画像から構成される動画像を取得し、第2の検出部は複数のフレーム画像から画像認識により関心領域を検出し、複数の医用画像のうちの画像である対象画像に含まれる関心領域と同一の関心領域が、複数のフレーム画像に含まれる画像であって薬剤及びまたは器材が検出された画像である比較画像に含まれているか否かを判定する関心領域判定部をさらに備え、第1の検出情報付与部は、比較画像に同一の関心領域が含まれる場合は、対象画像から薬剤及び/または器材が検出されない場合においても対象画像に第1の検出情報を付与する。
 第3の態様によれば、一覧表示される複数の医用画像のうちの画像(対象画像)が薬剤及び/または器材が含まれていない画像であっても、薬剤及び/または器材が検出されたフレーム画像(比較画像)に含まれる関心領域と同一の関心領域が含まれる場合は第1の検出情報が付与されるので、ユーザに有用な情報(表示されている画像は、実際には薬剤及び/または器材は映っていないが、薬剤及び/または器材に関する画像であること)を提示することができる。なお、「同一の領域が他の医用画像に含まれているか否か」の判定は画像の類似度、特徴量等に基づいて行うことができる。なお、第3の態様において「動画像」は記録を前提としないライブビュー画像でもよいし、記録用の動画像でもよい。
 第4の態様に係る診断支援システムは第1から第3の態様のいずれか1つにおいて、医用画像取得部はユーザの撮影指示操作に応じて複数の医用画像を構成する医用画像を取得する。第4の態様によれば、ユーザは自らの操作により所望の画像を撮影することができる。
 第5の態様に係る診断支援システムは第1から第4の態様のいずれか1つにおいて、医用画像取得部は薬剤及び/または器材の検出に応じて医用画像を取得する。第5の態様によれば、薬剤及び/または器材の検出に応じて医用画像を自動撮影し、診断に適した画像(例えば検査、処置等の場面の画像)を効率的に取得、表示することができる。第5の態様において、薬剤及び/または器材の検出対象はライブビュー画像を構成するフレーム画像でもよいし、記録用の動画像を構成するフレーム画像でもよい。
 第6の態様に係る診断支援システムは第1から第5の態様のいずれか1つにおいて、医用画像取得部は関心領域の検出に応じて医用画像を取得する。第6の態様によれば、関心領域の検出に応じて医用画像を自動撮影し、検査、診断に適した画像を効率的に取得、表示することができる。第6の態様において、関心領域の検出対象はライブビュー画像を構成するフレーム画像でもよいし、記録用の動画像を構成するフレーム画像でもよい。
 第7の態様に係る診断支援システムは第1から第6の態様のいずれか1つにおいて、表示制御部は関心領域が検出された医用画像のみを一覧表示する。第7の態様によれば、関心領域が検出された医用画像のみを一覧表示することにより診断、レポート作成等を効率的に行うことができる。
 第8の態様に係る診断支援システムは第1から第7の態様のいずれか1つにおいて、表示制御部は、薬剤及び/または器材が検出された医用画像に第1の検出情報に応じて文字、数字、記号、色彩のうち少なくとも1つを付し、関心領域が検出された医用画像に第2の検出情報に応じて文字、数字、記号、色彩のうち少なくとも1つを付して複数の医用画像を一覧表示させる。第8の態様は識別表示の具体的態様を規定するものである。
 第9の態様に係る診断支援システムは第1から第8の態様のいずれか1つにおいて、表示制御部は、薬剤及び/または器材の特徴に応じた配置で複数の医用画像を一覧表示する。第9の態様では、薬剤及び/または器材の有無、種類等の特徴に応じた配置(例えば、特徴が同一あるいは近似している画像をまとめて配置する)で一覧表示を行うことができ、ユーザは表示された画像を効率的に閲覧することができる。
 第10の態様に係る診断支援システムは第1から第9の態様のいずれか1つにおいて、表示制御部は、関心領域の特徴に応じた配置で複数の医用画像を一覧表示する。第10の態様では、画像における関心領域の有無、大きさ等の特徴に応じた配置(例えば、特徴が同一あるいは近似している画像をまとめて配置する)で一覧表示を行うことができる。
 第11の態様に係る診断支援システムは第1から第10の態様のいずれか1つにおいて、薬剤及び/または器材の特徴を指定する特徴指定部をさらに備え、表示制御部は指定された特徴を有する薬剤及び/または器材が検出された医用画像のみを一覧表示する。第11の態様によれば、ユーザは特定の薬剤及び/または器材が使用された画像を表示させ、表示された画像を閲覧することで効率的に診断、レポート作成を行うことができる。
 上述した目的を達成するため、本発明の第12の態様に係る内視鏡システムは第1から第11の態様のいずれか1つに係る診断支援システムと、表示装置と、被検体に挿入される挿入部であって、先端硬質部と、先端硬質部の基端側に接続された湾曲部と、湾曲部の基端側に接続された軟性部とを有する挿入部と、挿入部の基端側に接続された操作部と、被写体の光学像を結像させる撮影レンズと、光学像が結像される撮像素子と、を備える撮像部と、を有し撮影レンズが先端硬質部に設けられた内視鏡と、を備える内視鏡システムであって、医用画像取得部は撮像部により複数の医用画像を取得する。第12の態様に係る内視鏡システムは第1から第11の態様のいずれか1つに係る診断支援システムを備えるので、内視鏡で取得した画像に基づいて有用な情報(検出情報)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。
 上述した目的を達成するため、本発明の第13の態様に係るプロセッサは、第12の態様に係る内視鏡システムのプロセッサであって、表示制御部と、第1の検出部と、第2の検出部と、第1の検出情報付与部と、第2の検出情報付与部と、を備える。第13の態様によれば、第12の態様に係る内視鏡システムにおいて有用な情報(検出情報)をユーザに提示するための処理を実行することができる。
 上述した目的を達成するため、本発明の第14の態様に係る診断支援方法は複数の医用画像を取得する医用画像取得工程と、複数の医用画像を表示装置に一覧表示させる表示制御工程と、複数の医用画像を撮影する際に使用された薬剤及び/または器材を複数の医用画像から画像認識により検出する第1の検出工程と、複数の医用画像における関心領域を画像認識により検出する第2の検出工程と、検出された薬剤及び/または器材を示す第1の検出情報を薬剤及び/または器材が検出された医用画像に付与する第1の検出情報付与工程と、検出された関心領域を示す第2の検出情報を関心領域が検出された医用画像に付与する第2の検出情報付与工程と、を備え、表示制御工程では、第1の検出情報及び第2の検出情報に応じた態様で複数の医用画像を一覧表示する。第14の態様によれば、第1の態様と同様に有用な情報(検出情報)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。なお、第14の態様の構成に対し第2から第11の態様と同様の構成をさらに有する診断支援方法、及びこれら態様の診断支援方法を診断支援システムに実行させるプログラムのコンピュータ読み取り可能なコードを記録した記録媒体も本発明の態様として挙げることができる。
 以上説明したように、本発明の診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法によれば、有用な情報をユーザに提示することができる。
図1は、第1の実施形態に係る内視鏡システムの外観図である。 図2は、内視鏡システムの構成を示すブロック図である。 図3は、内視鏡の先端硬質部の構成を示す図である。 図4は、画像処理部の機能構成を示す図である。 図5は、記憶部に記憶される画像及び情報を示す図である。 図6は、医用画像と第1,第2の検出情報との対応付けの様子を示す図である。 図7は、診断支援方法の処理を示すフローチャートである。 図8は、診断支援方法の処理を示す他のフローチャートである。 図9は、撮影条件設定画面の例を示す図である。 図10は、表示条件設定画面の例を示す図である。 図11は、第1,第2の検出情報の付与の処理を示すフローチャートである。 図12は、画像の一覧表示の様子を示す図である。 図13は、画像の一覧表示の様子を示す他の図である。 図14は、画像の一覧表示の様子を示すさらに他の図である。 図15は、画像の一覧表示の様子を示すさらに他の図である。 図16は、表示条件設定画面の例を示す他の図である。 図17は、指定画像の保存の様子を示す図である。 図18は、関心領域の検出に応じた自動撮影の処理を示す図である。 図19は、動画を撮影しながら静止画を撮影する様子を示す図である。 図20は、第2の実施形態における画像処理部の機能構成を示す図である。 図21は、第1,第2の検出情報の付与の処理を示すフローチャートである。 図22は、他の画像との比較に基づく検出情報の付与の様子を示す図である。 図23は、フレーム画像との比較に基づく検出情報の付与の処理を示すフローチャートである。
 以下、添付図面を参照しつつ、本発明に係る診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法の実施形態について、詳細に説明する。
 <第1の実施形態>
 図1は、第1の実施形態に係る内視鏡システム10(診断支援システム、診断支援装置、内視鏡システム、プロセッサ、医療画像処理装置)を示す外観図であり、図2は内視鏡システム10の要部構成を示すブロック図である。図1,2に示すように、内視鏡システム10は、内視鏡本体100(内視鏡)、プロセッサ200(プロセッサ、医療画像処理装置)、光源装置300、及びモニタ400(表示装置)から構成される。
 <内視鏡本体の構成>
 内視鏡本体100は、手元操作部102(操作部)と、この手元操作部102に連設される挿入部104(挿入部)とを備える。術者(ユーザ)は手元操作部102を把持して操作し、挿入部104を被検体(生体)の体内に挿入して観察する。また、手元操作部102には送気送水ボタンBT1、吸引ボタンBT2、及び各種の機能を割り付けられる機能ボタンBT3、及び撮影指示操作を受け付ける撮影ボタンBT4が設けられている。挿入部104は、手元操作部102側から順に、軟性部112(軟性部)、湾曲部114(湾曲部)、先端硬質部116(先端硬質部)で構成されている。すなわち、先端硬質部116の基端側に湾曲部114が接続され、湾曲部114の基端側に軟性部112が接続される。挿入部104の基端側に手元操作部102が接続される。ユーザは、手元操作部102を操作することにより湾曲部114を湾曲させて先端硬質部116の向きを上下左右に変えることができる。先端硬質部116には、撮影光学系130(医用画像取得部、医用画像撮影部、撮影装置、撮像部)、照明部123、鉗子口126等が設けられる(図1~図3参照)。
 観察、処置の際には、操作部208(図2参照)の操作により、照明部123の照明用レンズ123A,123Bから可視光と赤外光のいずれか、または両方を照射することができる。また、送気送水ボタンBT1の操作により図示せぬ送水ノズルから洗浄水が放出されて、撮影光学系130の撮影レンズ132(撮影レンズ)、及び照明用レンズ123A,123Bを洗浄することができる。先端硬質部116で開口する鉗子口126には不図示の管路が連通しており、この管路に腫瘍摘出等のための図示せぬ処置具が挿通されて、適宜進退して被検体に必要な処置を施せるようになっている。
 図1~図3に示すように、先端硬質部116の先端側端面116Aには撮影レンズ132(撮像部)が配設されている。撮影レンズ132の奥にはCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子134(撮像素子、撮像部、撮影装置、医療画像取得部)、駆動回路136、AFE138(AFE:Analog Front End)が配設されて、これらの要素により画像信号を出力する。撮像素子134はカラー撮像素子であり、特定のパターン配列(ベイヤー配列、X-Trans(登録商標)配列、ハニカム配列等)でマトリクス状に配置(2次元配列)された複数の受光素子により構成される複数の画素を備える。撮像素子134の各画素はマイクロレンズ、赤(R)、緑(G)、または青(B)のカラーフィルタ及び光電変換部(フォトダイオード等)を含んでいる。撮影光学系130は、赤,緑,青の3色の画素信号からカラー画像を生成することもできるし、赤,緑,青のうち任意の1色または2色の画素信号から画像を生成することもできる。なお、第1の実施形態では撮像素子134がCMOS型の撮像素子である場合について説明するが、撮像素子134はCCD(Charge Coupled Device)型でもよい。
 被検体(腫瘍部、病変部)の光学像は撮影レンズ132により撮像素子134の受光面(撮像面)に結像されて電気信号に変換され、不図示の信号ケーブルを介してプロセッサ200に出力されて映像信号に変換される。これにより、プロセッサ200に接続されたモニタ400に観察画像が表示される。
 また、先端硬質部116の先端側端面116Aには、撮影レンズ132に隣接して照明部123の照明用レンズ123A(可視光用)、123B(赤外光用)が設けられている。照明用レンズ123A,123Bの奥には、後述するライトガイド170の射出端が配設され、このライトガイド170が挿入部104、手元操作部102、及びユニバーサルケーブル106に挿通され、ライトガイド170の入射端がライトガイドコネクタ108内に配置される。
 <光源装置の構成>
 図2に示すように、光源装置300は、照明用の光源310、絞り330、集光レンズ340、及び光源制御部350等から構成されており、照明光(可視光または赤外光)をライトガイド170に入射させる。光源310は、可視光源310A及び赤外光源310Bを備えており、可視光及び赤外光の一方または両方を照射可能である。可視光源310A及び赤外光源310Bによる照明光の照度は光源制御部350により制御され、必要に応じて照明光の照度を下げたり、照明を停止したりすることができる。
 <光源の波長帯域>
 光源310(可視光源310A)は白色帯域の光、または白色帯域の光として複数の波長帯域の光を発生する光源でもよいし、白色の波長帯域よりも狭い特定の波長帯域の光を発生する光源でもよい。特定の波長帯域は、可視域の青色帯域もしくは緑色帯域、あるいは可視域の赤色帯域であってもよい。特定の波長帯域が可視域の青色帯域もしくは緑色帯域である場合、390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有していてもよい。また、特定の波長帯域が可視域の赤色帯域である場合、585nm以上615nm以下、または610nm以上730nm以下、の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有していてもよい。
 上述した特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有していてもよい。この場合、特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nmの波長帯域を含み、かつ、400±10nm、440±10nm、470±10nm、または600nm以上750nm以下の波長帯域にピーク波長を有していてもよい。
 また、光源310(赤外光源310B)が発生する光は790nm以上820nm以下、または905nm以上970nm以下の波長帯域を含み、かつ、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有していてもよい。
 また、光源310は、ピークが390nm以上470nm以下である励起光を照射する光源を備えていてもよい。この場合、被検体(生体)内の蛍光物質が発する蛍光の情報を有する医用画像(生体内画像)を取得することができる。蛍光画像を取得する場合は、蛍光法用色素剤(フルオレスチン、アクリジンオレンジ等)を使用してもよい。
 光源310の光源種類(レーザ光源、キセノン光源、LED光源(LED:Light-Emitting Diode)等)、波長、フィルタの有無等は被写体の種類、観察の目的等に応じて構成することが好ましく、また観察の際は被写体の種類、観察の目的等に応じて照明光の波長を組合せ及び/または切り替えることが好ましい。波長を切り替える場合、例えば光源の前方に配置され特定波長の光を透過または遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
 また、本発明を実施する際に用いる撮像素子は撮像素子134のように各画素に対しカラーフィルタが配設されたカラー撮像素子に限定されるものではなく、モノクロ撮像素子でもよい。モノクロ撮像素子を用いる場合、照明光の波長を順次切り替えて面順次(色順次)で撮像することができる。例えば出射する照明光の波長を(紫色、青色、緑色、赤色)の間で順次切り替えてもよいし、広帯域光(白色光)を照射してロータリカラーフィルタ(赤色、緑色、青色等)により出射する照明光の波長を切り替えてもよい。また、1または複数の狭帯域光(緑色、青色等)を照射してロータリカラーフィルタ(緑色、青色等)により出射する照明光の波長を切り替えてもよい。狭帯域光は波長の異なる2波長以上の赤外光でもよい。
 ライトガイドコネクタ108(図1参照)を光源装置300に連結することにより、光源装置300から照射された照明光がライトガイド170を介して照明用レンズ123A、123Bに伝送され、照明用レンズ123A、123Bから観察範囲に照射される。
 <プロセッサの構成>
 図2に基づきプロセッサ200の構成を説明する。プロセッサ200は、内視鏡本体100から出力される画像信号を画像入力コントローラ202及び画像入力インタフェース205を介して入力し、画像処理部204で必要な画像処理を行ってビデオ出力部206を介して出力する。これによりモニタ400(表示装置)に観察画像(生体内画像)が表示される。これらの処理はCPU210(CPU:Central Processing Unit)の制御下で行われる。すなわち、CPU210は医用画像取得部、表示制御部、第1の検出部、第2の検出部、第1の検出情報付与部、第2の検出情報付与部、関心領域判定部、特徴指定部としての機能を有する。記憶部207には、被写体の画像(医用画像、撮影画像)及び後述する検出情報(第1,第2の検出情報)が記憶される。音声処理部209は、CPU210及び画像処理部204の制御により、表示条件設定の際の警告メッセージ(音声)等をスピーカ209Aから出力する。
 また、ROM211(ROM:Read Only Memory)は不揮発性の記憶素子(非一時的記録媒体)であり、本発明に係る診断支援方法をCPU210及び/または画像処理部204に実行させるプログラムのコンピュータ読み取り可能なコードが記憶されている。RAM212(RAM:Random Access Memory)は各種処理の際の一時記憶用の記憶素子であり、また画像取得時のバッファとしても使用することができる。
 <画像処理部の機能>
 図4は画像処理部204(医療画像取得部、医療画像解析処理部、医療画像解析結果取得部)の機能構成を示す図である。画像処理部204は医用画像取得部204A、表示制御部204B、第1の検出部204C、第2の検出部204D、第1の検出情報付与部204E、第2の検出情報付与部204F、特徴指定部204G、記憶制御部204Hを有する。第1の検出部204C及び第2の検出部204Dは医療画像解析処理部としても動作する。
 また、画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備えていてもよい。この場合、特定の波長帯域の信号は、通常光画像に含まれるRGB(R:赤、G:緑、B:青)あるいはCMY(C:シアン、M:マゼンタ、Y:イエロー)の色情報に基づく演算により得ることができる。
 また、画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、医用画像(医療画像)としての特徴量画像を取得及び表示してもよい。
 画像処理部204のこれらの機能による処理については、詳細を後述する。なお、これらの機能による処理はCPU210の制御下で行われる。
 上述した画像処理部204の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。
また、上述した各種のプロセッサには、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。
 各部の機能は1つのプロセッサにより実現されてもよいし、複数のプロセッサを組み合わせて実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各部の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 上述したプロセッサ(あるいは電気回路)がソフトウェア(プログラム)を実行する際は、実行するソフトウェア(本発明に係る診断支援方法を実行するプログラムを含む)のコンピュータ読み取り可能なコードをROM211(図2を参照)等の非一時的記録媒体に記憶しておき、プロセッサがそのソフトウェアを参照する。ソフトウェアを用いた処理の際には例えばRAM212(図2を参照)が一時的記憶領域として用いられ、また例えばEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータが参照される。なお、図4ではEEPROM等のデバイスの図示は省略する。
 <操作部の構成>
 プロセッサ200は操作部208を備えている。操作部208は図示せぬ操作モード設定スイッチ等を備えており、可視光及び/または赤外光の照射を操作することができる。また、操作部208は図示せぬキーボード及びマウスを含み、ユーザはこれらデバイスを介して撮影条件及び表示条件の設定操作を行うことができる(後述)。なお、操作モードの設定は、上述のように手元操作部102の機能ボタンBT3(図1参照)に操作モード設定機能を割り付けて行ってもよい。
 <記憶部の構成>
 記憶部207(記録装置)はCD(Compact Disk)、DVD(Digital Versatile Disk)、ハードディスク(Hard Disk)、各種半導体メモリ等の非一時的記録媒体により構成され、図5に示す画像及び情報を互いに関連付けて記憶する。図5に示すように、記憶部207には撮影画像207A、第1の検出情報207B、第2の検出情報207C、指定画像207D、及び関連付け情報207Eが記憶される。撮影画像207A、指定画像207Dと第1の検出情報207B及び/または第2の検出情報207Cとは、関連付け情報207Eにより例えば図6に示すように対応させて記録される。図6において、「i101」等は画像の識別情報である。撮影画像207A、指定画像207D、第1の検出情報207B、及び第2の検出情報207Cは、操作部208を介した操作、CPU210及び/または画像処理部204の制御によりモニタ400に表示される。
 上述した画像の他に、医用画像(医療画像)に含まれる注目すべき領域である注目領域(関心領域)と、注目すべき態様の有無のいずれか、もしくは両方と、についての解析結果を記憶部207(記録装置)に記憶してもよい。この場合、画像処理部204(医療画像解析処理部、医療画像解析結果取得部)がそれら解析結果を記憶部207から取得してモニタ400に表示することができる。
 <表示装置の構成>
 モニタ400(表示装置)は、操作部208を介した操作、CPU210及び/または画像処理部204の制御により撮影画像(医用画像)、撮影条件設定画面、表示条件設定画面、第1の検出情報、第2の検出情報等を表示する(図9~11等を参照)。また、モニタ400は撮影条件設定操作及び/または表示条件設定操作を行うための図示せぬタッチパネルを有する。
 <診断支援方法の処理>
 内視鏡システム10を用いた被検体の診断支援方法について説明する。図7,8は第1の実施形態に係る診断支援方法の処理を示すフローチャートである。
 <撮影条件の設定>
 図7,8のフローチャートでは、撮影に先立って、ユーザ指示に基づいて撮影条件及び表示条件の設定を行う(ステップS100,S102)。ただしこの設定は撮影中、あるいは撮影後に行ってもよい。図9は撮影条件設定画面の例を示す図である。図9では、撮影条件の各項目について条件名(領域C01~C06)、設定条件の内容(領域V01~V06)、及びプルダウン用のボタン(ボタンA01~A06)が示されている。画面下部に設けられたボタンB01は表示条件確定用、ボタンB02は条件変更のキャンセル用、ボタンB03は初期設定に戻すためのボタンである。図9の画面はモニタ400に表示され、モニタ400のタッチパネル及び/または操作部208のキーボード及び/またはマウスを介したユーザの操作により表示条件を設定することができる。
 領域C01,V01は「取得した画像から関心領域を検出するか否か」を示しており、ボタンA01を介したON(検出する)またはOFF(検出しない)を指定することができる。ONが選択された場合、画像処理部204(第2の検出部204D)により関心領域(病変領域、病変候補領域等;注目領域ともいう)が検出される。領域C02,V02は「関心領域を検出した場合に自動撮影を行うか否か」を示しており、ボタンA02を介した操作により、ON(自動撮影する)またはOFF(自動撮影しない)を指定することができる。ONが選択された場合、医用画像取得部204A(医用画像取得部)が関心領域の検出に応じて撮影光学系130を制御して撮影が行われる。領域C03,V03は「取得した画像から器材を検出するか否か」を示しており、ボタンA03を介した操作によりON(検出する)またはOFF(検出しない)を選択することができる。「器材」は被検体に対して生検、切除等を行うための処置具(例えば鉗子、注射針、クリップ、チューブ等)を含み、鉗子口126から被検体内に挿入できる。また、領域C04,V04は「器材が検出された場合に、自動的に撮影を行うか否か」を示しており、ボタンA04を介した選択操作によりON(自動撮影する)またはOFF(自動撮影しない)を選択することができる。ONが選択された場合、第1の検出部204C(第1の検出部)による器材の検出に応じて、医用画像取得部204Aが撮影光学系130を制御して撮影が行われる。
 領域C05,V05は「取得した画像から薬剤を検出するか否か」を示しており、ボタンA05を介した操作によりON(検出する)またはOFF(検出しない)を選択することができる。「薬剤」は病変の形状、凹凸等を観察するための色素剤及び染色剤を含む。また、領域C06,V06は「薬剤が検出された場合に、自動的に撮影を行うか否か」を示しており、ボタンA06を介した選択操作によりON(自動撮影する)またはOFF(自動撮影しない)を選択することができる。ONが選択された場合、第1の検出部204Cによる薬剤の検出に応じて、医用画像取得部204Aが撮影光学系130を制御して撮影が行われる。
 このような設定画面を介して条件を設定することにより所望の条件で撮影を行うことができるので、ユーザは効率的に診断、レポート作成等を行うことができる。なお、図9における条件設定は一例であり、条件の追加または削除、内容の変更を行ってもよい。
 <表示条件の設定>
 図10は一覧表示条件設定画面の例を示す図である。領域C07,V07は検出された薬剤の表示態様を示しており、ボタンA07を介した選択操作により名称の文字表示、記号表示等を指定することができる。領域C08,V08は検出された器材の表示態様を示しており、ボタンA08を介した選択操作により名称表示、手技名表示等を指定することができる。領域C09,V09は関心領域が検出された画像の識別表示態様を示しており、ボタンA09を介した選択操作により枠(図形)付与、文字及び/または数字付与、色彩付与等を指定することができる。領域C10,V10は「関心領域が検出された画像のみを表示するか否か」を示しており、ボタンA10を介した選択操作によりONまたはOFFを指定することができる。領域C11,V11は「薬剤の種類ごとに画像を表示するか否か」を示しており、ボタンA11を介した選択操作によりONまたはOFFを指定することができる。領域C12,V12は「特定種類の薬剤のみ画像を表示するか否か」を示しており、ボタンA12を介した選択操作によりONまたはOFFを指定することができる。
 このような設定画面を介して条件を設定することにより所望の条件で画像を表示させることができるので、ユーザは効率的に診断、レポート作成等を行うことができる。
 ステップS100,S102で撮影条件及び表示条件の設定が終了し、内視鏡本体100の挿入部104が被検体内に挿入されると、撮影光学系130及び画像処理部204(医用画像取得部204A)によりライブビュー画像の取得及びモニタ400への表示が開始される(ステップS104)。これによりユーザは被検体内の様子を観察することができる。ユーザが挿入部104の挿入操作及び湾曲操作により先端硬質部116を所望の方向に向け撮影ボタンBT4を操作すると、医用画像取得部204Aが撮影指示操作を受け付ける。これによりステップS106での判断(撮影指示の有無)が肯定されてステップS108(医用画像取得工程)へ進み、撮影光学系130(医用画像撮影部、撮影装置、医療画像取得部)及び医用画像取得部204A(撮影制御部、医療画像取得部)により医用画像(静止画;医療画像、内視鏡画像)が取得される。また、撮影ボタンBT4の操作がない場合でも、関心領域検出、薬剤検出等による自動撮影(図9参照)がONの場合、設定条件が満たされると医用画像取得部204Aにより撮影指示がなされて(ステップS106でYES)医用画像が撮影される(ステップS108)。ステップS108で撮影する画像は静止画像でも動画像でもよいが、以下では静止画像を撮影するものとして説明する。
 ステップS108で医用画像が取得されたら、取得された医用画像を記憶部207に記憶する。医用画像取得部204Aは、医用画像の取得及び記憶を撮影終了(ステップS110でYES)まで継続し、複数の医用画像を取得する。撮影終了の場合、医用画像取得部204Aはライブビュー画像の取得及び表示を終了する。
 <薬剤及び/または器材の検出>
 ステップS110までの処理で複数の医用画像が取得されたら、画像処理部204(第1の検出部204C)は取得した複数の医用画像から画像認識により薬剤及び/または器材を検出する(ステップS112:第1の検出工程)。また、第2の検出部204D(第2の検出部)は取得した複数の医用画像から画像認識により関心領域を検出する(ステップS114:第2の検出工程)。ステップS112,S114はどちらを先に行ってもよい。
 <薬剤の検出方法>
 ステップS112における薬剤(色素剤、染色剤を含む)の検出は、例えば上述した特許文献1(特開2016-62488号公報)に記載されている手法を用いて、色調特徴量に基づいて行うことができる。具体的には、画像処理部204(第1の検出部204C)は医用画像の各画素におけるR(赤色),G(緑色),B(青色)の画素値に基づいて暗部画素及びハレーション画素を除外し、除外されなかった各画素について色調特徴量(G/R、B/G)を算出して、医用画像を分割した小ブロックごとに色調特徴量の平均値を算出する。G/Rについての平均値をμGRとし、B/Gについての平均値をμBGとしてμGR、μBGをプロットすると、プロット結果は個々の薬剤(色素剤、染色剤等)により異なる分布を示す。したがって、検出対象薬剤についてのプロット結果(特徴量空間における位置)を個々の薬剤についての分布と比較することにより、取得した医用画像において使用されている薬剤を判別することができる。検出結果(例えば薬剤の種類、名称)に対しその種類を用いて行う処置、手技の内容等をあらかじめ関連付けておき、画像に付与する検出情報(第1の検出情報)に含めてもよい。
 なお、薬剤の検出は、機械学習(深層学習等)の結果を利用して行ってもよい(関心領域の検出について後述する記載を参照)。
 <器材の検出方法>
 ステップS112における器材の検出も、上述した特許文献1に記載されている手法を用いて行うことができる。具体的には、各処置具を鉗子チャネル(鉗子口126に連通する不図示の管路)に挿通した際の内視鏡画像をテンプレート画像とし、第1の検出部204Cがテンプレート画像と検査時の内視鏡画像とを照合することにより、いずれかの処置具が使用されたことを検出する。テンプレート画像は処置具ごとに、鉗子チャネル方向、突出長、開閉状態が異なる画像を複数用意する。また回転により画像上の形状が変化する非対称形状の処置具については、回転角度が異なる画像を複数用意する。
 内視鏡画像から処置具を検出するために、第1の検出部204Cは内視鏡画像からエッジを検出する。エッジ検出用の画像にはR画像(赤色画素の画素信号から生成した画像)またはG画像(緑色画素の画素信号から生成した画像)を用いる。処置具シースが赤い場合はG画像を用いるとよい。エッジ画像内からテンプレートマッチング、ハフ変換などを用いて線分形状を検出し、検出した線分形状とテンプレート画像を照合し、一致度を算出する。一致度が最も高いテンプレート画像の処置具を検出結果とする。なお、検出結果(例えば器材の種類、名称)に対しその器材を用いて行う処置、手技の内容等をあらかじめ関連付けておき、画像に付与する検出情報(第1の検出情報)に含めてもよい。
 なお器材の検出は、薬剤の検出と同様に、機械学習(深層学習等)の結果を利用して行ってもよい(関心領域の検出について後述する記載を参照)。
 <関心領域の検出方法>
 ステップS114における関心領域の検出は、第2の検出部204Dが例えば公知のCADシステム(CAD:Computer Aided Diagnosis)を備えることにより行うことができる。具体的には、例えば医用画像の画素の特徴量に基づいて、関心領域(注目すべき領域である注目領域)及び関心領域における対象(注目すべき対象)の有無を抽出することができる。この場合、第2の検出部204Dが検出対象画像を複数の矩形領域に分割し、分割した各矩形領域を局所領域として設定する。第2の検出部204Dは検出対象画像の局所領域ごとに局所領域内の画素の特徴量(例えば色相)を算出し、各局所領域の中から特定の色相を有する局所領域を関心領域として決定する。
 関心領域の検出は、機械学習(深層学習等)の結果を利用して行ってもよい。例えば、新たな画像が記憶部207に記憶されるごとに(または新たな画像が撮影されるごとに)、第2の検出部204Dが深層学習アルゴリズムに基づき深層学習(ディープラーニング)を用いた画像解析処理を行うことにより、画像に関心領域が含まれるか否かを解析する。深層学習アルゴリズムは、公知のコンボリューションニューラルネットワーク(畳み込みニューラルネットワーク)の手法、すなわち畳み込み層及びプーリング層の繰り返しと、全結合層と、出力層とを経て、画像に関心領域が含まれている否かを認識するアルゴリズムである。「このような機械学習を行うか否か」、及び/または「学習結果を利用するか否か」を図9に示すような条件設定画面で設定できるようにしてもよい。
 なお、ステップS114では関心領域の種類、数、形状、大きさ等を検出対象とすることができる。また、図7では全画像についての撮影終了(ステップS110でYES)後に薬剤及び/または器材、及び関心領域の検出を行っているが、薬剤及び/または器材、及び関心領域の検出は画像を撮影するごと(ステップS108とステップS110の間)に行ってもよい。
 <検出情報の付与>
 ステップS112,S114で薬剤及び/または器材、関心領域を検出したら、画像処理部204(第1の検出情報付与部204E、第2の検出情報付与部204F)は検出結果に基づいて撮影画像に第1,第2の検出情報を付与する(ステップS116:第1の検出情報付与工程、第2の検出情報付与工程)。検出情報の付与について、図11を参照して説明する。
 第1の検出情報付与部204E(第1の検出情報付与部)は、第1の検出部204Cが薬剤及び/または器材を検出したか否か判断する(ステップS116-1)。薬剤及び/または器材が検出されている場合(ステップS116-1でYES)、第1の検出情報付与部204Eは薬剤及び/または器材を示す第1の検出情報(第1の検出情報207B)を薬剤及び/または器材が検出された画像(医用画像)に付与して(ステップS116-2)、ステップS116-3へ進む。薬剤及び/または器材が検出されない場合(ステップS116-1でNO)、第1の検出情報付与部204Eが第1の検出情報を付与することなくステップS116-3へ進む。
 ステップS116-3では、第2の検出情報付与部204F(第2の検出情報付与部)は、第2の検出部204Dが関心領域を検出したか否か判断する。関心領域が検出されている場合(ステップS116-3でYES)、第2の検出情報付与部204Fは関心領域を示す第2の検出情報(第2の検出情報207C)を関心領域が検出された画像(医用画像)に付与して(ステップS116-4)、ステップS116-5へ進む。関心領域が検出されない場合(ステップS116-3でNO)、第2の検出情報付与部204Fは第2の検出情報を付与せずにステップS116-5へ進む。ステップS116-5では第1の検出情報付与部204E及び第2の検出情報付与部204Fは全画像について処理を終了したか否かを判断し、処理が終了したら(ステップS116-5でYES)図7,8のフローチャート(図8のステップS118)に戻る。処理が終了していない場合は(ステップS116-5でNO)、ステップS116-1に戻る。
 上述したステップにおいて、第1の検出情報付与部204Eは例えば薬剤及び/または器材の種類、名称、検出された薬剤及び/または器材を用いて行う手技の内容を第1の検出情報として付与することができる。また第2の検出情報付与部204Fは例えば関心領域の種類(病変、病変候補等)、大きさ、形状を第2の検出情報として付与することができる。
 <医用画像の一覧表示>
 第1,第2の検出情報の処理が終了すると、表示制御部204B(表示制御部)は撮影画像(複数の医用画像)をモニタ400に一覧表示する(ステップS118:表示制御工程)。一覧表示の条件は、図9について上述した撮影条件の設定と同様に、図10に示す表示条件設定画面を介して行うことができる。ユーザは操作部208により表示条件設定操作を行い、その操作に基づいて表示制御部204Bが表示条件を設定する。表示条件の設定は撮影前、撮影中、撮影後のいずれでもよい。なお、図10に示す項目及び内容は表示条件の一例であり、他の項目及び内容を採用してもよい。
 <一覧表示の態様1>
 図12は一覧表示の態様1を示す図である。態様1では、ステップS116で付与された第1,第2の検出情報を文字及び/または記号で付与して画像をモニタ400(表示装置)に一覧表示する。具体的には、図12の(a)部分に示す例では第1の検出情報(薬剤の名称、手技の内容)を画像に文字情報として付与しており、図12の(b)部分に示す例は(a)部分と同じ画像について第1の検出情報を記号として付与している。これらの文字及び記号は内容に応じて異なる数字、色を付してもよい。このような画像の表示制御は、表示制御部204Bが行う。
 なお、図12において二重線の枠線(第2の検出情報を図形表示した例)を付した画像は関心領域(関心領域ROI)が検出された画像であることを示す。また、図12の(a)部分,(b)部分の右上の画像は関心領域が検出されず枠線を付していない画像であり、右下の画像は関心領域ROI及び鉗子FRが検出された画像である。関心領域が検出された画像を識別表示することで、有用な情報(表示された画像が確認の必要性が高い画像であること)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。なお、ボタンB04は表示された画像より前に撮影された画像を表示させるためのボタンであり、ボタンB05は表示された画像より後に撮影された画像を表示させるためのボタンである。
 <一覧表示の態様2>
 態様2では、表示制御部204Bは薬剤及び/または器材の特徴に応じた配置で画像(複数の医用画像)をモニタ400に一覧表示する。例えば、図12と同じ画像の場合、態様2では図13に示すように薬剤及び/または器材の種類に応じて画像の表示位置を領域R1~R4に分ける。また表示の際、属する画像の数に応じて表示位置を変更している(画像の数が多い種類を上に表示している)。
 <一覧表示の態様3>
 態様3では、表示する画像の特徴(薬剤及び/または器材の種類、手技の内容、関心領域の有無等)をユーザの操作に基づいて指定し、指定された特徴を有する画像のみを表示制御部204Bが一覧表示する。具体的には、ユーザは操作部208のキーボード及び/またはマウス、モニタ400のタッチパネルを介して特徴指定の操作を行い、この操作にしたがって特徴指定部204G(特徴指定部)が表示する画像の特徴を指定して、指定された特徴により表示制御部204Bが画像をモニタ400に一覧表示する。図14は態様3による表示の例である。図14の(a)部分は「処置なし」の画像のみを一覧表示した様子を示しており、指定された画像の特徴(「処置なし」)が画面左上の領域R5に示されている。また、画面右下には他の種類(「生検画像」)の画像を表示させるためのボタンB06が表示されており、ユーザが操作部208を介してボタンB06を操作すると、画像の特徴として「生検」が指定されて図14の(b)部分のように生検画像のみが一覧表示される。これに合わせて、表示制御部204Bは領域R5に一覧表示されている画像の種類を「生検」に変更し、またボタンB06の表示を他の特徴(この場合、「切除」)に変更する。
 <一覧表示の態様4>
 態様4では、表示制御部204Bは関心領域が検出された画像のみを一覧表示する。表示の際は、関心領域の特徴(例えば、大きさ)に応じて表示位置を変更する。具体的には、図15の例に示すように関心領域が検出された画像のみを、関心領域の大きさ(図15の例では、「5mm以上」と「3mm以上5mm未満」)に応じて一覧表示する。一覧表示する関心領域の大きさの設定は、例えば図16に示す画面(チェックされた種類の大きさの関心領域が検出された画像を表示する;黒丸印がチェックされた種類を示す)を介して行うことができる。関心領域の大きさは第2の検出部204Dが撮影条件(撮影倍率、関心領域の画素数等)等に基づいて算出することができるが、第2の検出部204Dでの大きさ算出に代えて、またはこれに加えて、大きさ計測用のスケール、あるいはマーカを画像と共に表示してもよい。
 <指定画像の保存>
 ステップS118における画像の一覧表示が終了したら、画像処理部204(記憶制御部204H)は保存する画像の指定があるか否かを判断する(図8のステップS120)。この判断は、図17の例に示すように一覧表示された画像i1~i6に対しチェックボックスCBを設け、ボタンB07が操作された時点でチェックされている画像があるか否かを記憶制御部204Hが判断することにより行うことができる。なお、ボタンB08はキャンセルボタンである。記憶制御部204Hは、チェックボックスCBがチェックされている画像(図17の例では、画像i1,i3,i4,i5,i6)を指定画像207Dとして記憶部207に保存する(ステップS122)。これらの画像は例えば診断レポートのひな形に添付する(関連付ける)ことができ、これによりレポート作成を効率的に行うことができる。
 なお記憶制御部204Hは、ステップS116で付与した第1,第2の検出情報を、それぞれ第1の検出情報207B,第2の検出情報207Cとして指定画像207Dと関連付けて記憶部207に記憶させる(ステップS122;図5参照)。この際、記憶制御部204Hは指定画像207Dと第1の検出情報207B,第2の検出情報207Cとを関連付ける情報を、関連付け情報207E(図5,6参照)として記憶部207に記憶させる。
 指定画像を保存したら、CPU210及び画像処理部204は処理を終了するか否か判断する(ステップS124)。YESなら処理を終了し、NOならステップS104のライブビュー画像表示開始に戻る。
 <撮影及び表示の他の態様>
 医用画像の撮影及び表示の他の態様について説明する。以下で説明する態様は、撮影条件設定画面(図9)、表示条件設定画面(図10)を介した設定に応じて実行される。
 <関心領域等の検出に応じた自動撮影>
 図9の撮影条件設定画面において「関心領域検出」(領域V01)及び「関心領域検出時の自動撮影」(領域V02)がONの場合、関心領域の検出及び検出時の自動撮影が実行される。具体的には、第2の検出部204Dがフレーム画像(複数のフレーム画像により構成される、ライブビュー画像または記録用動画像のフレーム画像)から関心領域を検出したら(図18のステップS105-1でYES)、撮影光学系130及び医用画像取得部204Aにより医用画像が取得される(ステップS108)。関心領域の検出により自動撮影された画像は、表示制御部204Bにより上述した図15のように一覧表示することができる。関心領域(病変候補等)の検出は、ステップS114で上述したのと同様に行うことができる。
 薬剤及び/または器材の検出、及び検出に応じた自動撮影についても、関心領域の場合と同様に、図9の撮影条件設定画面を介した条件設定(領域V03~V06をON)により実行し、画像を表示することができる。
 このような関心領域、薬剤及び/または器材の検出に応じた自動撮影を行う態様によれば、ユーザは診断に適した画像を容易に取得、表示することができ、これによりレポート作成を効率的に行うことができる。
 <動画撮影と平行した静止画撮影>
 上述した態様では、図7,8に示すフローチャートにおいてライブビュー画像を取得、表示させ(ステップS104)ユーザの指示に応じて静止画像を撮影する(ステップS106,S108)場合について説明したが、画像の撮影はこのような態様に限定されるものではない。動画を撮影しつつ、ユーザの指示に応じて静止画を撮影してもよい。具体的には例えば図19のフローチャートに示すように、ステップS104でのライブビュー画像表示開始後、操作部208及び/または撮影ボタンBT4を介した動画撮影指示に応じて(ステップS105-2でYES)、医用画像取得部204Aが動画撮影を開始する(ステップS105-3)。また、医用画像取得部204Aは操作部208及び/または撮影ボタンBT4を介した動画撮影指示に応じて(ステップS105-4でYES)静止画を撮影し(ステップS105-5)、静止画及び動画撮影が終了する(ステップS105-6でYES)までステップS105-4,S105-5の処理を繰り返す。静止画及び動画撮影が終了したら(ステップS105-6でYES)図7のステップS112へ進む。このような態様によれば、連続的な観察のための動画像を撮影しつつ特に注目すべき状況で静止画を撮影することができる。
 以上説明したように、第1の実施形態によれば有用な情報(検出情報)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。
 <第2の実施形態>
 上述した第1の実施形態では実際に薬剤及び/または器材、関心領域が実際に検出された画像に対して第1,第2の検出情報を付与している(図11参照)が、第2の実施形態では、条件を満たす場合は実際に薬剤及び/または器材が検出されない画像に対しても第1の検出情報を付与する。このような第2の実施形態における検出情報の付与について、以下説明する。なお、第2の実施形態における内視鏡システムの構成は画像処理部204が関心領域判定部204I(関心領域判定部;図20参照)を備えている点で異なるが、他の要素については第1の実施形態と同様であるので、同一の要素については同一の参照符号を付し詳細な説明を省略する。
 <他の一覧表示画像との比較に基づく検出情報付与(態様1)>
 実際に薬剤及び/または器材が映っている画像のみに第1の検出情報を付与する場合、病変部(関心領域)に対する薬剤散布前、処置前等に撮影したこと等により薬剤及び/または器材が映っていない画像には検出情報を付与することができない。しかしながら、そのような薬剤及び/または器材が映っていない画像であっても、「関心領域に対する処置に関連する画像である」ことが把握できるようにすることが好ましい。そこで態様1では、一覧表示する複数の画像において「薬剤及び/または器材が検出された画像に含まれるのと同一の関心領域が映っているか否か」の判定を行い、同一の関心領域が映っている画像の場合は薬剤及び/または器材が検出されていなくても第1の検出情報を付与する。画像の一覧表示はこのようにして付与した第1の検出情報に基づいて行われる。したがって態様1によれば、ユーザは薬剤及び/または器材が映っていない画像であっても「関心領域に対する処置に関連する画像である」ことを把握することができる。
 図21は、第2の実施形態(態様1)における検出情報の付与(図7のステップS116に相当)の詳細を示すフローチャートである。第1の検出情報付与部204Eは、対象画像(一覧表示する複数の医用画像を構成する個々の画像;検出情報付与の判断対象)において第1の検出部204Cが薬剤及び/または器材を検出したか否か判断する(ステップS116-6)。この判断は、ステップS112の結果に基づいて行うことができる。薬剤及び/または器材が検出されている場合(ステップS116-6でYES)はステップS116-7へ進み、第2の検出情報付与部204Fは第2の検出部204Dが対象画像から関心領域を検出したか否か判断する。この判断は、ステップS114の結果に基づいて行うことができる。関心領域も検出されている場合(ステップS116-7でYES)、第1の検出情報付与部204Eは薬剤及び/または器材を示す第1の検出情報(第1の検出情報207B)を対象画像に付与する(ステップS116-8)。
 またステップS116-8では、第2の検出情報付与部204Fは関心領域を示す第2の検出情報(第2の検出情報207C)を対象画像に付与する。対象画像から薬剤及び/または器材が検出されているが関心領域が検出されていない場合(ステップS116-7でNO)、第1の検出情報付与部204Eにより第1の検出情報のみが付与される(ステップS116-9)。上述したステップにおいて、第1の検出情報付与部204Eは例えば薬剤及び/または器材の種類、名称、検出された薬剤及び/または器材を用いて行う手技の内容を第1の検出情報として付与することができる。また第2の検出情報付与部204Fは例えば関心領域の種類(病変、病変候補等)、大きさ、形状を第2の検出情報として付与することができる。
 一方、対象画像から薬剤及び/または器材が検出されていない場合も(ステップS116-6でNO)、第2の検出情報付与部204Fは第2の検出部204Dが関心領域を検出したか否か判断する(ステップS116-10)。この判断は、ステップS114の結果に基づいて行うことができる。関心領域が検出されている場合(ステップS116-10でYES)、すなわち対象画像から薬剤及び/または器材は検出されていないが関心領域が検出されている場合はステップS116-11に進む。ステップS116-11では、「対象画像に含まれるのと同一の関心領域が、一覧表示する複数の医用画像のうちの他の画像であって、薬剤及び/または器材が検出された画像(比較画像)に含まれているか否か」を判断する。ステップS116-11における関心領域の同一性の判断は、関心領域判定部204Iが例えば画像の類似度、画像の特徴量、各画像の撮像時間の情報、画像間の動きベクトル、及びこれらの判断基準の複合に基づいて行うことができる。また、比較画像において薬剤及び/または器材が検出されているか否かは、ステップS112の結果に基づいて判断することができる。
 同一の関心領域が他の画像(比較画像)に含まれている場合(ステップS116-11でYES)は、第2の検出情報付与部204Fが第2の検出情報を付与し、さらに第1の検出情報付与部204Eが、第1の検出情報を対象画像に付与する(ステップS116-12)。対象画像に付与する第1の検出情報は比較画像と全く同じでもよいし、関心領域の同一性を考慮して付与した情報であることが識別できるように変えてもよい。例えば、「生検器材:みなし検出」のような検出情報を付すことができる。ステップS116-11,12における検出情報付与の様子を図22に示す。図22に示す例では画像i7(比較画像)から生検器材が検出されており、画像i8(対象画像)からは生検器材が検出されていないが、画像i8に含まれる関心領域は画像i7に含まれる関心領域と同一なので、画像i8に「生検器材:検出」の検出情報(第1の検出情報)を付与する。同様に比較画像から薬剤が検出された場合も、第1の検出情報付与部204Eが、第1の検出情報(例えば、「ピオクタニン:検出」、「ピオクタニン:みなし検出」)を対象画像に付与する。
 1つの画像についての処理が終了すると、第1の検出情報付与部204E及び第2の検出情報付与部204FはステップS116-15で全画像(一覧表示する複数の画像の全て)について処理を終了したか否かを判断し、処理が終了したら(ステップS116-15でYES)図7のフローチャート(ステップS118)に戻る。処理が終了していない場合(ステップS116-15でNO)はステップS116-6に戻る。
 このように、第2の実施形態(態様1)では「実際には薬剤及び/または器材は映っていないが、薬剤及び/または器材が検出された画像(比較画像)と同一の関心領域が含まれる画像(対象画像)」に対しても第1の検出情報を付与する。画像の一覧表示は、第1の実施形態について上述したように第1,第2の検出情報に応じた態様で行われる。したがって第2の実施形態(態様1)によれば、ユーザに有用な情報(薬剤及び/または器材が映っていない画像であっても「関心領域に対する処置に関連する画像である」こと)を提示することができる。
 なお、同一の関心領域が他の画像に含まれない場合(ステップS116-11でNO)は、第2の検出情報付与部204Fにより関心領域を示す第2の検出情報のみが画像に付与される(ステップS116-13)。また、ステップS116-10でNOの場合、すなわち薬剤及び/または器材も関心領域も検出されていない場合は、第1の検出情報も第2の検出情報も付与しない(ステップS116-14)。
 <動画のフレーム画像との比較に基づく検出情報付与(態様2)>
 上述した態様1では一覧表示する複数の画像において1つの画像を他の画像と比較した結果に基づいて検出情報を付与するが、態様2では、一覧表示する複数の医用画像に含まれる個々の画像(対象画像)を、動画像を構成する複数のフレーム画像であって薬剤及び/または器材が検出された画像(比較画像)と比較して検出情報を付与する。
 撮影画像に第1,第2の検出情報を付与する際に、薬剤及び/または器材を使用している場面をユーザが撮影していない(薬剤及び/または器材が映った画像が、一覧表示の対象である複数の画像に含まれていない)可能性がある。この場合、撮影画像どうしの比較を行っただけでは、対象画像が薬剤及び/または器材に関する画像であることを判断するのは困難であり、検出情報を適切に付与することができない場合がある。このため態様2では、検査中に取得した動画像を構成する複数のフレーム画像について薬剤及び/または器材を検出し、薬剤及び/または器材が検出されたフレーム画像(比較画像)と対象画像とで同一の関心領域が映っているか否かの判定を行う。同一の関心領域が映っている場合は、対象画像に検出情報を付与する。このように処理することで、薬剤及び/または器材が映っている画像が一覧表示する画像に含まれていなくても、薬剤及び/または器材を示す第1の検出情報を付与することができる。
 態様2の処理は態様1と同様である。ただし態様2では、図21のステップS116-11における「他の画像」に代えて、動画像を構成する複数のフレーム画像に含まれる画像であって薬剤及び/または器材が検出された画像を比較画像とする。動画像と平行した静止画像の撮影は、例えば図19について上述した態様により行うことができる。態様2における対象画像と比較画像との比較部分の処理を図23(ステップS116-11a)に示す。薬剤及び/または器材、関心領域が検出されたか否かはステップS112,S114の結果に基づいて判断することができる。ステップS116-11aでYESの場合は、ステップS116-12において、第2の検出情報に加えて第1の検出情報付与部204Eが第1の検出情報を加える。ステップS116-12で対象画像に付与する第1の検出情報は比較画像と全く同じでもよいし、関心領域の同一性を考慮して付与した情報であることが識別できるように変えてもよい。例えば、「生検器材:みなし検出」のような検出情報を付すことができる。
 このように、第2の実施形態(態様2)では「実際には薬剤及び/または器材は映っていないが、薬剤及び/または器材が検出された画像(比較画像)と同一の関心領域が含まれる画像(対象画像)」に対しても第1の検出情報を付与する。画像の一覧表示は、態様1と同様に第1,第2の検出情報に応じた態様で行われる。したがって態様2によれば、ユーザに有用な情報(薬剤及び/または器材が映っていない画像であっても「関心領域に対する処置に関連する画像である」こと)を提示することができる。
 態様1,2について上述したように、第2の実施形態においても有用な情報(検出情報)をユーザに提示することができ、ユーザは効率的に診断、レポート作成等を行うことができる。なお、第1の実施形態について上述したのと同様に、関心領域の検出、及び「同一の関心領域が映っているか否か」の判断を機械学習(深層学習等)の結果を用いて行ってもよい。
 (付記)
 上述した実施形態の各態様に加えて、以下に記載の構成も本発明の範囲に含まれる。
 (付記1)
 医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
 医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
 (付記2)
 医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、
 医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
 (付記3)
 医療画像解析結果取得部は、
 医療画像の解析結果を記録する記録装置から取得し、
 解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
 (付記4)
 医療画像は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
 (付記5)
 医療画像は、特定の波長帯域の光を照射して得た画像であり、
 特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
 (付記6)
 特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
 (付記7)
 特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
 (付記8)
 特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
 (付記9)
 特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
 (付記10)
 特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
 (付記11)
 特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
 (付記12)
 医療画像は生体内を写した生体内画像であり、
 生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
 (付記13)
 蛍光は、ピークが390以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
 (付記14)
 医療画像は生体内を写した生体内画像であり、
 特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
 (付記15)
 特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
 (付記16)
 医療画像取得部は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、
 医療画像は特殊光画像である医療画像処理装置。
 (付記17)
 特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得る医療画像処理装置。
 (付記18)
 白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、
 医療画像は特徴量画像である医療画像処理装置。
 (付記19)
 付記1から18のいずれか1つに記載の医療画像処理装置と、
 白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、
 を備える内視鏡装置。
 (付記20)
 付記1から18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
 (付記21)
 付記1から18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
 以上で本発明の実施形態及び他の態様に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
10   内視鏡システム
100  内視鏡本体
102  手元操作部
104  挿入部
106  ユニバーサルケーブル
108  ライトガイドコネクタ
112  軟性部
114  湾曲部
116  先端硬質部
116A 先端側端面
123  照明部
123A 照明用レンズ
123B 照明用レンズ
126  鉗子口
130  撮影光学系
132  撮影レンズ
134  撮像素子
136  駆動回路
138  AFE
170  ライトガイド
200  プロセッサ
202  画像入力コントローラ
204  画像処理部
204A 医用画像取得部
204B 表示制御部
204C 第1の検出部
204D 第2の検出部
204E 第1の検出情報付与部
204F 第2の検出情報付与部
204G 特徴指定部
204H 記憶制御部
204I 関心領域判定部
205  画像入力インタフェース
206  ビデオ出力部
207  記憶部
207A 撮影画像
207B 第1の検出情報
207C 第2の検出情報
207D 指定画像
207E 関連付け情報
208  操作部
209  音声処理部
209A スピーカ
210  CPU
211  ROM
212  RAM
300  光源装置
310  光源
310A 可視光源
310B 赤外光源
330  絞り
340  集光レンズ
350  光源制御部
400  モニタ
A01  ボタン
A02  ボタン
A03  ボタン
A04  ボタン
A05  ボタン
A06  ボタン
A07  ボタン
A08  ボタン
A09  ボタン
A10  ボタン
A11  ボタン
A12  ボタン
B01  ボタン
B02  ボタン
B03  ボタン
B04  ボタン
B05  ボタン
B06  ボタン
B07  ボタン
B08  ボタン
BT1  送気送水ボタン
BT2  吸引ボタン
BT3  機能ボタン
BT4  撮影ボタン
C01  領域
C02  領域
C03  領域
C04  領域
C05  領域
C06  領域
C07  領域
C08  領域
C09  領域
C10  領域
C11  領域
C12  領域
CB   チェックボックス
FR   鉗子
R1   領域
R2   領域
R3   領域
R4   領域
R5   領域ROI  関心領域
S100~S124 診断支援方法の各ステップ
V01  領域
V02  領域
V03  領域
V04  領域
V05  領域
V06  領域
V07  領域
V08  領域
V09  領域
V10  領域
V11  領域
V12  領域
i1   画像
i2   画像
i3   画像
i4   画像
i5   画像
i6   画像
i7   画像
i8   画像

Claims (14)

  1.  複数の医用画像を取得する医用画像取得部と、
     前記複数の医用画像を表示装置に一覧表示させる表示制御部と、
     前記複数の医用画像を撮影する際に使用された薬剤及び/または器材を前記複数の医用画像から画像認識により検出する第1の検出部と、
     前記複数の医用画像における関心領域を画像認識により検出する第2の検出部と、
     前記検出された前記薬剤及び/または器材を示す第1の検出情報を前記薬剤及び/または器材が検出された医用画像に付与する第1の検出情報付与部と、
     前記検出された前記関心領域を示す第2の検出情報を前記関心領域が検出された医用画像に付与する第2の検出情報付与部と、
     を備え、
     前記表示制御部は、前記第1の検出情報及び前記第2の検出情報に応じた態様で前記複数の医用画像を一覧表示する診断支援システム。
  2.  前記複数の医用画像のうちの画像である対象画像に含まれる関心領域と同一の関心領域が、前記複数の医用画像のうちの他の医用画像であって前記薬剤及びまたは器材が検出された医用画像である比較画像に含まれているか否かを判定する関心領域判定部をさらに備え、
     前記第1の検出情報付与部は、前記比較画像に前記同一の関心領域が含まれる場合は、前記対象画像から前記薬剤及び/または器材が検出されない場合においても前記対象画像に前記第1の検出情報を付与する請求項1に記載の診断支援システム。
  3.  前記医用画像取得部は複数のフレーム画像から構成される動画像を取得し、
     前記第2の検出部は前記複数のフレーム画像から画像認識により前記関心領域を検出し、
     前記複数の医用画像のうちの画像である対象画像に含まれる関心領域と同一の関心領域が、前記複数のフレーム画像に含まれる画像であって前記薬剤及びまたは器材が検出された画像である比較画像に含まれているか否かを判定する関心領域判定部をさらに備え、
     前記第1の検出情報付与部は、前記比較画像に前記同一の関心領域が含まれる場合は、前記対象画像から前記薬剤及び/または器材が検出されない場合においても前記対象画像に前記第1の検出情報を付与する請求項1に記載の診断支援システム。
  4.  前記医用画像取得部はユーザの撮影指示操作に応じて前記複数の医用画像を構成する医用画像を取得する請求項1から3のいずれか1項に記載の診断支援システム。
  5.  前記医用画像取得部は前記薬剤及び/または器材の検出に応じて前記複数の医用画像を取得する請求項1から4のいずれか1項に記載の診断支援システム。
  6.  前記医用画像取得部は前記関心領域の検出に応じて前記複数の医用画像を取得する請求項1から5のいずれか1項に記載の診断支援システム。
  7.  前記表示制御部は前記関心領域が検出された医用画像のみを一覧表示する請求項1から6のいずれか1項に記載の診断支援システム。
  8.  前記表示制御部は、前記薬剤及び/または器材が検出された医用画像に前記第1の検出情報に応じて文字、数字、記号、色彩のうち少なくとも1つを付し、前記関心領域が検出された医用画像に前記第2の検出情報に応じて文字、数字、記号、色彩のうち少なくとも1つを付して前記複数の医用画像を一覧表示させる請求項1から7のいずれか1項に記載の診断支援システム。
  9.  前記表示制御部は、前記薬剤及び/または器材の特徴に応じた配置で前記複数の医用画像を一覧表示する請求項1から8のいずれか1項に記載の診断支援システム。
  10.  前記表示制御部は、前記関心領域の特徴に応じた配置で前記複数の医用画像を一覧表示する請求項1から9のいずれか1項に記載の診断支援システム。
  11.  前記薬剤及び/または器材の特徴を指定する特徴指定部をさらに備え、
     前記表示制御部は前記指定された特徴を有する前記薬剤及び/または器材が検出された医用画像のみを一覧表示する請求項1から10のいずれか1項に記載の診断支援システム。
  12.  請求項1から11のいずれか1項に記載の診断支援システムと、
     前記表示装置と、
     被検体に挿入される挿入部であって、先端硬質部と、前記先端硬質部の基端側に接続された湾曲部と、前記湾曲部の基端側に接続された軟性部とを有する挿入部と、前記挿入部の基端側に接続された操作部と、被写体の光学像を結像させる撮影レンズと、前記光学像が結像される撮像素子と、を備える撮像部と、を有し前記撮影レンズが前記先端硬質部に設けられた内視鏡と、
     を備える内視鏡システムであって、
     前記医用画像取得部は前記撮像部により前記複数の医用画像を取得する内視鏡システム。
  13.  請求項12に記載の内視鏡システムのプロセッサであって、
     前記表示制御部と、前記第1の検出部と、前記第2の検出部と、前記第1の検出情報付与部と、前記第2の検出情報付与部と、を備えるプロセッサ。
  14.  複数の医用画像を取得する医用画像取得工程と、
     前記複数の医用画像を表示装置に一覧表示させる表示制御工程と、
     前記複数の医用画像を撮影する際に使用された薬剤及び/または器材を前記複数の医用画像から画像認識により検出する第1の検出工程と、
     前記複数の医用画像における関心領域を画像認識により検出する第2の検出工程と、
     前記検出された前記薬剤及び/または器材を示す第1の検出情報を前記薬剤及び/または器材が検出された医用画像に付与する第1の検出情報付与工程と、
     前記検出された前記関心領域を示す第2の検出情報を前記関心領域が検出された医用画像に付与する第2の検出情報付与工程と、
     を備え、
     前記表示制御工程では、前記第1の検出情報及び前記第2の検出情報に応じた態様で前記複数の医用画像を一覧表示する診断支援方法。
PCT/JP2018/025873 2017-09-07 2018-07-09 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 WO2019049503A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18853256.8A EP3679853A4 (en) 2017-09-07 2018-07-09 DIAGNOSIS SUPPORT SYSTEM, ENDOSCOPE SYSTEM, PROCESSOR, AND DIAGNOSIS SUPPORT METHOD
CN201880057372.4A CN111065314B (zh) 2017-09-07 2018-07-09 诊断支持系统、内窥镜系统、处理器及诊断支持方法
JP2019540798A JP7091349B2 (ja) 2017-09-07 2018-07-09 診断支援システム、内視鏡システム、プロセッサ、及び診断支援システムの作動方法
US16/795,522 US11398033B2 (en) 2017-09-07 2020-02-19 Diagnosis support system, endoscope system, processor, and diagnosis support method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-172325 2017-09-07
JP2017172325 2017-09-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/795,522 Continuation US11398033B2 (en) 2017-09-07 2020-02-19 Diagnosis support system, endoscope system, processor, and diagnosis support method

Publications (1)

Publication Number Publication Date
WO2019049503A1 true WO2019049503A1 (ja) 2019-03-14

Family

ID=65634781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025873 WO2019049503A1 (ja) 2017-09-07 2018-07-09 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法

Country Status (5)

Country Link
US (1) US11398033B2 (ja)
EP (1) EP3679853A4 (ja)
JP (1) JP7091349B2 (ja)
CN (1) CN111065314B (ja)
WO (1) WO2019049503A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021045337A (ja) * 2019-09-18 2021-03-25 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
CN113613543A (zh) * 2019-03-18 2021-11-05 奥林巴斯株式会社 诊断辅助装置、诊断辅助方法以及程序
WO2023149013A1 (ja) * 2022-02-01 2023-08-10 富士フイルム株式会社 医療支援装置、内視鏡装置、医療支援方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11759110B2 (en) * 2019-11-18 2023-09-19 Koninklijke Philips N.V. Camera view and screen scraping for information extraction from imaging scanner consoles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132840A1 (ja) * 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
JP2016062488A (ja) 2014-09-19 2016-04-25 オリンパス株式会社 内視鏡業務支援システム
JP2016067782A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
JP2016158752A (ja) * 2015-02-27 2016-09-05 オリンパス株式会社 内視鏡業務支援システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101043843A (zh) 2004-06-30 2007-09-26 詹姆士·V·西茨曼 用于微创手术和其它内部处置的医疗装置
EP1780651A1 (en) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Method and system for automatic processing and evaluation of images, particularly diagnostic images
CN101686799B (zh) * 2007-07-12 2012-08-22 奥林巴斯医疗株式会社 图像处理装置以及图像处理装置的动作方法
US9147174B2 (en) * 2008-08-08 2015-09-29 Snap-On Incorporated Image-based inventory control system using advanced image recognition
DE112012000752A5 (de) * 2011-02-11 2013-11-21 Olaf Christiansen Endoskopisches Bildverarbeitungssystem mit Mitteln, welche im Erfassungsbereich einer optischen Digitalkamera eine geometrische Vermessungsinformation erzeugen
EP3040016A4 (en) * 2013-08-30 2017-04-19 Olympus Corporation Image management device
US9824443B2 (en) * 2013-09-10 2017-11-21 Sony Corporation Image processing device, image processing method, and program
WO2015194580A1 (ja) 2014-06-19 2015-12-23 オリンパス株式会社 内視鏡システム
JP6192602B2 (ja) 2014-06-25 2017-09-06 オリンパス株式会社 画像記録装置
JP2017086685A (ja) * 2015-11-13 2017-05-25 オリンパス株式会社 内視鏡業務支援システム
CN114019990A (zh) * 2016-02-24 2022-02-08 深圳市大疆创新科技有限公司 用于控制可移动物体的系统和方法
WO2018211590A1 (ja) * 2017-05-16 2018-11-22 オリンパス株式会社 内視鏡のための画像処理装置及び内視鏡システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132840A1 (ja) * 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
JP2016062488A (ja) 2014-09-19 2016-04-25 オリンパス株式会社 内視鏡業務支援システム
JP2016067782A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム
JP2016158752A (ja) * 2015-02-27 2016-09-05 オリンパス株式会社 内視鏡業務支援システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3679853A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113613543A (zh) * 2019-03-18 2021-11-05 奥林巴斯株式会社 诊断辅助装置、诊断辅助方法以及程序
JP2021045337A (ja) * 2019-09-18 2021-03-25 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP7373335B2 (ja) 2019-09-18 2023-11-02 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
WO2023149013A1 (ja) * 2022-02-01 2023-08-10 富士フイルム株式会社 医療支援装置、内視鏡装置、医療支援方法、及びプログラム

Also Published As

Publication number Publication date
US11398033B2 (en) 2022-07-26
EP3679853A1 (en) 2020-07-15
CN111065314A (zh) 2020-04-24
EP3679853A4 (en) 2020-10-14
JPWO2019049503A1 (ja) 2020-10-15
US20200193602A1 (en) 2020-06-18
JP7091349B2 (ja) 2022-06-27
CN111065314B (zh) 2022-06-07

Similar Documents

Publication Publication Date Title
JP7346285B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
JP7091349B2 (ja) 診断支援システム、内視鏡システム、プロセッサ、及び診断支援システムの作動方法
JP6907324B2 (ja) 診断支援システム、内視鏡システム及び診断支援方法
JP7383105B2 (ja) 医療画像処理装置及び内視鏡システム
JP7170032B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
US11950760B2 (en) Endoscope apparatus, endoscope operation method, and program
US11957299B2 (en) Endoscope image processing apparatus, endoscope image processing method, and program
JP6941233B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP7411772B2 (ja) 内視鏡システム
JP7326308B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2019130924A1 (ja) 画像処理装置、内視鏡システム、画像処理方法、及びプログラム
JP7374280B2 (ja) 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の作動方法
WO2020184257A1 (ja) 医用画像処理装置及び方法
US20220007942A1 (en) Medical imaging systems and methods that facilitate use of different fluorescence imaging agents
US20220007925A1 (en) Medical imaging systems and methods
US20230157768A1 (en) Medical image processing apparatus, medical image processing method, endoscope system, and medical image processing program
CN113747826A (zh) 利用窄带成像的医学仪器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18853256

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019540798

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018853256

Country of ref document: EP

Effective date: 20200407