WO2021044910A1 - 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム - Google Patents

医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム Download PDF

Info

Publication number
WO2021044910A1
WO2021044910A1 PCT/JP2020/032049 JP2020032049W WO2021044910A1 WO 2021044910 A1 WO2021044910 A1 WO 2021044910A1 JP 2020032049 W JP2020032049 W JP 2020032049W WO 2021044910 A1 WO2021044910 A1 WO 2021044910A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unobserved
image processing
unit
interest
Prior art date
Application number
PCT/JP2020/032049
Other languages
English (en)
French (fr)
Inventor
美沙紀 目黒
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021543711A priority Critical patent/JP7256275B2/ja
Priority to EP20860022.1A priority patent/EP4026479A4/en
Priority to CN202080058661.3A priority patent/CN114269221A/zh
Publication of WO2021044910A1 publication Critical patent/WO2021044910A1/ja
Priority to US17/591,976 priority patent/US20220151467A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a medical image processing apparatus, an endoscopic system, a medical image processing method and a program.
  • a system that introduces AI technology for endoscopic images and supports lesion detection and diagnosis is attracting attention as it reduces the oversight rate of lesions and leads to the reduction of unnecessary biopsies.
  • Such a system operates in real time during the endoscopy, and realizes notification to the doctor such as displaying the recognition result on the screen.
  • AI is an abbreviation for Artificial Intelligence.
  • Patent Documents 1 to 3 describe an endoscopic system that detects a lesion candidate region of an observation image based on a feature amount calculated from an observation image and displays the detected lesion candidate region on a display device. ..
  • a marker image that emphasizes the position of the lesion candidate region is added to the observation image.
  • the system changes the display mode of the marker image according to the length of the detection duration of the lesion candidate region. Specifically, the emphasis process is started when the detection duration of the lesion candidate region reaches the specified period.
  • the endoscope system described in Patent Document 2 stores observation images sequentially output from a video processor during a continuous detection period. If the continuous detection period is less than the specified period, the system stores the observed image in a display area other than the display area for displaying the observed image in the reverse order of the storage order after the specified period elapses. Display the observed image.
  • the endoscopic system described in Patent Document 3 temporarily stores a still image in a memory when a lesion candidate region is detected and notification processing is started.
  • the system adds a marker image to the still image temporarily stored in the memory when the operation switch is turned on, and displays the still image on the display unit.
  • Patent Document 4 describes an electronic endoscopy device that is inserted into a subject and observes the inside of the subject.
  • the apparatus described in the same document automatically temporarily stores a still image in a memory when an abnormal pixel is detected.
  • the device displays thumbnail images of still images temporarily stored in the memory in the thumbnail display area.
  • Patent Documents 1 to 4 do not describe or suggest the above-mentioned information on the overlooked region of interest.
  • Patent Document 1 reduces the burden on the doctor who visually confirms the lesion candidate area by performing emphasis processing on the lesion area or the like when the detection period of the lesion area or the like reaches a specified period. There is. On the other hand, the system described in the same document does not have a component for storing information on a missed lesion candidate region.
  • the system described in Patent Document 2 stores one or more observation images during the period from the start of detection of the region of interest to the interruption, and automatically stores the observation images stored after the detection of the region of interest is interrupted. Is displayed to reduce oversight of lesions. On the other hand, the sequential and automatic redisplay of the observed images may lead to a decrease in the concentration of the doctor and may lead to an oversight of the area of interest.
  • the system described in the same document does not include a component for storing information on a missed lesion candidate region.
  • Patent Document 3 temporarily stores a still image including a lesion candidate region when a lesion candidate region is detected, and displays the still image when the operation switch is turned on.
  • the still image in which the lesion candidate area is detected is selectively stored, and it is considered that the system described in the document stores all the still images including the lesion candidate area. Be done. Then, it is difficult to distinguish whether or not the doctor is observing the temporarily stored still image.
  • Patent Document 4 does not describe that a still image is selectively temporarily stored when an abnormal pixel is detected, and the device described in the same document temporarily stores all the still images when an abnormal pixel is detected. It is thought that he remembers it. Then, it is difficult to distinguish whether or not the doctor is observing the temporarily stored still image.
  • Patent Documents 1 to 4 it is difficult for any of the systems and the like described in Patent Documents 1 to 4 to support the search for an unobserved area of interest that a doctor has overlooked.
  • the present invention has been made in view of such circumstances, and provides a medical image processing apparatus, an endoscopic system, a medical image processing method, and a program that can support a search using information of an unobserved region of interest.
  • the purpose is.
  • the medical image processing device includes an image acquisition unit that acquires an observation image of a subject, a display signal transmission unit that transmits a first display signal representing the observation image to the display device, and a frame image that constitutes the observation image.
  • a medical image including a region of interest detection unit that detects an region of interest from the image, and an unobserved image storage unit that stores a frame image that satisfies an unobserved condition indicating that the region of interest is unobserved from the frame image in which the region of interest is detected. It is a processing device.
  • a frame image including an unobserved region of interest that satisfies the unobserved condition is stored from the observed image in which the region of interest is detected. This can support the search for an unobserved region of interest using an unobserved image.
  • the observation image of the subject may be a moving image or a still image group including a plurality of still images.
  • An example of an observation image is an endoscopic image taken with an endoscope.
  • a frame image is synonymous with one still image included in a still image group including a plurality of still images.
  • An example of an unobserved region of interest is an region of interest in which the user does not operate an imaging device such as a zoom.
  • the second aspect includes an unobserved condition determination unit that determines whether or not the unobserved condition is satisfied for the frame image in which the attention area is detected by using the attention area detection unit in the medical image processing apparatus of the first aspect. It may be configured as a new type.
  • the unobserved image can be determined from the plurality of frame images in which the region of interest is detected based on the unobserved condition.
  • an unobserved condition setting unit for setting an unobserved condition.
  • the unobserved condition determination unit determines that the unobserved condition is satisfied when the number of frame images including the same region of interest is less than or equal to the specified number within the specified period. It may be configured.
  • the number of frame images including the same region of interest can be applied.
  • the unobserved condition determination unit determines that the unobserved condition is satisfied when the amount of change between frame images is equal to or greater than a predetermined threshold value. May be.
  • the amount of change between frame images can be applied as an unobserved condition.
  • the fifth aspect is in the medical image processing apparatus of any one of the second to fourth aspects, when the unobserved condition determination unit stays in an arbitrary area in the screen within a specified period. It may be configured to determine that the unobserved condition is satisfied.
  • the position in the screen of the same area of interest can be applied as an unobserved condition.
  • the sixth aspect represents an unobserved image determined by the unobserved condition determination unit to satisfy the unobserved condition in the medical image processing apparatus according to any one of the second to fifth aspects.
  • the second display signal may be transmitted to the display device.
  • the unobserved image is displayed using the display device. This can support the search for an unobserved region of interest using the unobserved image displayed on the display device.
  • a seventh aspect is the medical image processing apparatus of the sixth aspect, which includes a user input signal acquisition unit that acquires a user input signal transmitted in response to a user operation, and the display signal transmission unit includes a user input signal acquisition unit.
  • the display signal transmission unit includes a user input signal acquisition unit.
  • a display signal representing an unobserved image is transmitted to the display device in response to the acquisition of the user input signal. This can support the search for an unobserved region of interest using the unobserved image displayed on the display device.
  • the first image processing unit that generates the first image by performing the first image processing on the attention area detected by using the attention area detection unit is used.
  • the display signal transmission unit may be configured to transmit a display signal representing the first image to the display device as the first display signal.
  • the first image on which the first image processing has been performed can be displayed on the display device.
  • the first image processing result storage unit for storing the result of the first image processing may be provided.
  • the first image may be applied to the processing result of the first image processing, or a combination of the observation image and the information representing the processing result of the first image processing associated with the observation image may be applied.
  • a ninth aspect is the medical image processing apparatus of the eighth aspect, comprising a second image generation unit that performs a second image processing on an unobserved image to generate a second image, and a display signal transmission unit is a ninth aspect.
  • the display signal representing the two images may be transmitted to the display device as the second display signal.
  • the second image obtained by performing the second image processing on the unobserved image can be displayed on the display device.
  • the first image processing unit performs the enhancement processing of the region of interest on the observed image
  • the second image processing unit performs the enhancement processing on the observed image with respect to the unobserved image. It may be configured to carry out an emphasis process in which the degree of emphasis is stronger than the emphasis process of the area of interest.
  • a second image having a stronger degree of emphasis than the enhancement process of the observed image can be displayed on the display device. This makes it easy to visually recognize the region of interest in the second image.
  • the second image processing unit performs the second image processing on each of the plurality of unobserved images
  • the display signal transmitting unit performs the second image processing.
  • the display signal corresponding to each of the plurality of second images may be transmitted to the display device as the second display signal.
  • a plurality of unobserved images or a plurality of second images can be displayed on the display device. Thereby, the user can search the area of interest in the observed image using the plurality of unobserved images or the plurality of second images.
  • one or more unobserved images are selected from the plurality of unobserved images displayed on the display device, or a plurality of second images displayed on the display device.
  • the configuration may include a selection unit for selecting one or more second images from.
  • the user sets an unobserved image applied to the search for the region of interest in the observed image from a plurality of unobserved images, or applies the search for the region of interest in the observed image from the plurality of second images.
  • a second image to be created can be set.
  • the third image processing is performed on the processing result of the unobserved image or the second image processing displayed on the display device.
  • the configuration may include a third image processing unit.
  • the third image processing can be performed on the unobserved image or the second image.
  • the fourteenth aspect may be a configuration in which the medical image processing apparatus of the thirteenth aspect includes a third image processing result storage unit for storing the processing result of the third image processing.
  • the processing result of the third image processing can be stored.
  • the third image processing result storage unit can store the third image as the processing result of the third image processing.
  • the third image processing result storage unit may store a combination of the image to be processed and the information representing the processing result of the third image processing associated with the image to be processed as the processing result of the third image processing.
  • a fifteenth aspect is the medical image processing apparatus of the thirteenth aspect or the fourteenth aspect, in which the third image processing unit is unobserved when the user input signal acquisition unit acquires a user input signal representing editing of an unobserved image.
  • the image may be edited, or the second image may be edited when the user input signal acquisition unit acquires the user input signal representing the editing of the second image.
  • the unobserved image or the second image can be edited according to the acquisition of the user input signal.
  • a sixteenth aspect is the medical image processing device according to any one of the thirteenth to fifteenth aspects, wherein the third image processing unit acquires a user input signal representing transmission of an unobserved image to an external device.
  • the unit acquires an unobserved image, or when the user input signal acquisition unit acquires a user input signal indicating transmission of the second image to the external device, the second image is externally transmitted. It may be configured to transmit to the device.
  • the unobserved image or the second image can be transmitted to an external device.
  • a seventh aspect is the medical image processing apparatus according to any one of the thirteenth to sixteenth aspects, wherein the third image processing unit obtains a user input signal representing the rearrangement of a plurality of unobserved images.
  • the user input signal acquisition unit acquires a user input signal representing the rearrangement of a plurality of unobserved images or a plurality of second images when the image is acquired by the user input signal acquisition unit, the plurality of second images are rearranged. It may be configured to carry out the rearrangement of.
  • the plurality of unobserved images may be rearranged or the plurality of second images may be rearranged. ..
  • the third image processing unit acquires a user input signal indicating deletion of an unobserved image by the user input signal acquisition unit.
  • the second image may be deleted when the unobserved image is deleted or the user input signal acquisition unit acquires the user input signal indicating the deletion of the second image.
  • the unobserved image or the second image can be deleted according to the acquisition of the user input signal.
  • a nineteenth aspect is the medical image processing apparatus according to any one of the sixth to eighteenth aspects, wherein the display signal transmission unit performs a second display signal after a predetermined period has elapsed from the transmission timing of the second display signal. It may be configured to stop the transmission of.
  • the unobserved image or the second image can be automatically hidden.
  • a twentieth aspect is the medical image processing apparatus according to any one of the sixth to eighteenth aspects, wherein the display signal transmission unit of the second display signal when an unobserved region of interest is displayed on the display device. It may be configured to stop transmission.
  • the unobserved image or the second image can be hidden.
  • the 21st aspect is the medical image processing apparatus according to any one of the 1st to 19th aspects, which includes a user operation unit operated by the user, and the user input signal acquisition unit is used when the user operates the user operation unit. It may be configured to acquire the user input signal transmitted to.
  • the user input signal can be transmitted according to the operation of the user.
  • the 22nd aspect is the medical image processing apparatus according to any one of the 1st to 21st aspects, which includes a voice acquisition unit for acquiring the user's voice, and the user input signal acquisition unit acquires the user's voice using the voice acquisition unit. It may be configured to acquire a user input signal representing the voice of the user.
  • the user input signal can be transmitted according to the user's voice.
  • the 23rd aspect is an observed image showing that the attention area has been observed from the frame image in which the attention area is detected by using the attention area detection unit in the medical image processing apparatus according to any one of the 1st to 22nd aspects. It may be configured to include an observed image storage unit that stores the image.
  • the observed image is stored. This can support the search for the region of interest for observation using the observed image.
  • the 24th aspect may be configured in the medical image processing apparatus of any one of the 1st to 23rd aspects, which includes a notification unit for notifying the detection of the region of interest in the observation image.
  • the user can recognize the detection of the region of interest.
  • the endoscope system includes an endoscope, an endoscope control device that controls the endoscope, and a medical image processing device that processes an endoscopic image acquired by using the endoscope.
  • the medical image processing device includes an image acquisition unit that acquires an observation image of a subject, a display signal transmission unit that transmits a first display signal representing the observation image to the display device, and an endoscope system including.
  • An unobserved image storage unit that detects an attention region from a frame image constituting an observation image and stores an unobserved image satisfying an unobserved condition indicating unobservation of the attention region from the frame image in which the attention region is detected. It is an endoscopic system equipped with a part.
  • the same items as those specified in the 2nd to 24th aspects can be appropriately combined.
  • the component responsible for the processing or function specified in the medical image processing apparatus can be grasped as the component of the endoscope system responsible for the corresponding processing or function.
  • the medical image processing method includes an image acquisition step of acquiring an observation image of a subject, a display signal transmission step of transmitting a first display signal representing the observation image to a display device, and a frame image constituting the observation image.
  • a medical image including a focus area detection step of detecting a region of interest from the image and an unobserved image storage step of storing an unobserved image satisfying an unobserved condition representing the unobserved region of interest from the frame image in which the region of interest is detected. It is a processing method.
  • the same items as those specified in the 2nd to 24th aspects can be appropriately combined.
  • the component responsible for the processing or function specified in the medical image processing apparatus can be grasped as the component of the medical image processing method responsible for the corresponding processing or function.
  • the program according to the 27th aspect pays attention to a computer from an image acquisition function for acquiring an observation image of a subject, a display signal transmission function for transmitting a first display signal representing the observation image to a display device, and a frame image constituting the observation image. It is a program that realizes a region of interest detection function for detecting a region and an unobserved image storage function for storing an unobserved image satisfying an unobserved condition indicating unobserved region of interest from a frame image in which the region of interest is detected.
  • the same items as those specified in the 2nd to 24th aspects can be appropriately combined.
  • the component responsible for the processing or function specified in the medical image processing apparatus can be grasped as the component of the program responsible for the corresponding processing or function.
  • a frame image including an unobserved region of interest that satisfies the unobserved condition is stored from the observed image in which the region of interest is detected. This can support the search for an unobserved region of interest using an unobserved image.
  • FIG. 1 is an overall configuration diagram of an endoscope system including an image processing device according to an embodiment.
  • FIG. 2 is a functional block diagram of the endoscopic system.
  • FIG. 3 is a functional block diagram of the image processing apparatus according to the first embodiment.
  • FIG. 4 is a flowchart showing the procedure of the image processing method according to the first embodiment.
  • FIG. 5 is a schematic view of an observation image.
  • FIG. 6 is a schematic view of the first image.
  • FIG. 7 is a schematic view of a screen when a user input signal representing an unobserved display of a region of interest is acquired.
  • FIG. 8 is a schematic view of the non-display of the unobserved image display area.
  • FIG. 9 is a functional block diagram of the image processing apparatus according to the second embodiment.
  • FIG. 9 is a functional block diagram of the image processing apparatus according to the second embodiment.
  • FIG. 10 is a flowchart showing the procedure of the image processing method according to the second embodiment.
  • FIG. 11 is a schematic view of a second image to which image processing for increasing the degree of emphasis is applied.
  • FIG. 12 is a schematic view of a mode in which a plurality of second images are displayed.
  • FIG. 13 is a schematic diagram of selection of a second image in a mode of displaying a plurality of second images.
  • FIG. 14 is a functional block diagram of the image processing apparatus according to the third embodiment.
  • FIG. 15 is a flowchart showing the procedure of the image processing method according to the third embodiment.
  • FIG. 16 is an explanatory diagram of an example of the third image processing.
  • FIG. 1 is an overall configuration diagram of an endoscope system including an image processing device according to an embodiment.
  • the endoscope system 10 includes an endoscope main body 100, a processor device 200, a light source device 300, and a monitor 400.
  • a part of the tip rigid portion 116 provided in the endoscope main body 100 is enlarged and shown.
  • the endoscope main body 100 includes a hand operation unit 102 and an insertion unit 104.
  • the user grasps and operates the hand operation unit 102, inserts the insertion unit 104 into the body of the subject, and observes the inside of the subject.
  • the user is synonymous with a doctor, a surgeon, and the like.
  • the subject referred to here is synonymous with a patient and a subject.
  • the hand operation unit 102 includes an air supply / water supply button 141, a suction button 142, a function button 143, and an image pickup button 144.
  • the air supply water supply button 141 accepts the operation of the air supply instruction and the water supply instruction.
  • the suction button 142 receives a suction instruction.
  • Various functions are assigned to the function button 143.
  • the function button 143 receives instructions for various functions.
  • the image pickup button 144 receives an image pickup instruction operation. Imaging includes moving image imaging and still image imaging.
  • the hand operation unit 102 functions as a user input unit.
  • a foot switch may be provided as a user input unit.
  • the footswitch comprises a pedal, a pedal indicator and a cable.
  • the cable is connected to the processor device 200.
  • the user can operate the foot switch to transmit a user input signal to the processor device 200.
  • the processor device 200 acquires a user input signal transmitted from the foot switch and performs a process corresponding to the user input signal.
  • the insertion portion 104 includes a soft portion 112, a curved portion 114, and a tip hard portion 116.
  • the soft portion 112, the curved portion 114, and the tip hard portion 116 are arranged in the order of the soft portion 112, the curved portion 114, and the tip hard portion 116 from the side of the hand operation portion 102. That is, the curved portion 114 is connected to the base end side of the tip hard portion 116, the soft portion 112 is connected to the proximal end side of the curved portion 114, and the hand operation portion 102 is connected to the proximal end side of the insertion portion 104.
  • the user can operate the hand operation unit 102 to bend the curved portion 114 and change the direction of the hard tip portion 116 up, down, left and right.
  • the hard tip portion 116 includes an imaging unit, an illumination unit, and a forceps opening 126.
  • FIG. 1 illustrates the photographing lens 132 that constitutes the imaging unit. Further, in the figure, the illumination lens 123A and the illumination lens 123B constituting the illumination unit are shown.
  • the imaging unit is illustrated with reference numeral 130. Further, the illumination unit is illustrated with reference numeral 123 in FIG.
  • wash water is discharged from the water supply nozzle or gas is discharged from the air supply nozzle.
  • the cleaning water and gas are used for cleaning the illumination lens 123A and the like.
  • the water supply nozzle and the air supply nozzle are not shown.
  • the water supply nozzle and the air supply nozzle may be shared.
  • the forceps opening 126 communicates with the pipeline. Treatment tools are inserted into the pipeline. The treatment tool is supported so that it can move forward and backward as appropriate. When removing a tumor or the like, a treatment tool is applied and necessary treatment is performed. It should be noted that the illustration of the pipeline communicating with the forceps opening 126 is omitted.
  • FIG. 2 is a functional block diagram of the endoscope system.
  • the endoscope main body 100 includes an imaging unit 130.
  • the image pickup unit 130 is arranged inside the tip rigid portion 116.
  • the image pickup unit 130 includes a photographing lens 132, an image pickup element 134, a drive circuit 136, and an analog front end 138.
  • AFE shown in FIG. 2 is an abbreviation for Analog Front End.
  • the photographing lens 132 is arranged on the tip end surface 116A of the tip hard portion 116.
  • the image sensor 134 is arranged at a position opposite to the tip end surface 116A of the photographing lens 132.
  • a CMOS type image sensor is applied to the image sensor 134.
  • a CCD type image sensor may be applied to the image sensor 134.
  • CMOS is an abbreviation for Complementary Metal-Oxide Semiconductor.
  • CCD is an abbreviation for Charge Coupled Device.
  • a color image sensor is applied to the image sensor 134.
  • An example of a color image sensor is an image sensor equipped with a color filter corresponding to RGB.
  • RGB is an acronym for Red, Green, and Yellow, which are English notations for red, green, and blue, respectively.
  • a monochrome image sensor may be applied to the image sensor 134.
  • the image sensor 130 can switch the wavelength band of the incident light of the image sensor 134 to perform surface-sequential or color-sequential imaging.
  • the drive circuit 136 supplies various timing signals necessary for the operation of the image pickup device 134 to the image pickup device 134 based on the control signal transmitted from the processor device 200.
  • the analog front end 138 includes an amplifier, a filter and an AD converter.
  • AD is an acronym for analog and digital, which are the English notations for analog and digital, respectively.
  • the analog front end 138 performs processing such as amplification, noise removal, and analog-to-digital conversion on the output signal of the image sensor 134.
  • the output signal of the analog front end 138 is transmitted to the processor device 200.
  • the optical image to be observed is formed on the light receiving surface of the image sensor 134 via the photographing lens 132.
  • the image sensor 134 converts an optical image to be observed into an electric signal.
  • the electric signal output from the image pickup device 134 is transmitted to the processor device 200 via the signal line.
  • the lighting unit 123 is arranged at the tip hard portion 116.
  • the illumination unit 123 includes an illumination lens 123A and an illumination lens 123B.
  • the illumination lens 123A and the illumination lens 123B are arranged at positions adjacent to the photographing lens 132 on the distal end surface 116A.
  • the lighting unit 123 includes a light guide 170.
  • the injection end of the light guide 170 is arranged at a position opposite to the tip end surface 116A of the illumination lens 123A and the illumination lens 123B.
  • the light guide 170 is inserted into the insertion unit 104, the hand operation unit 102, and the universal cable 106 shown in FIG.
  • the incident end of the light guide 170 is arranged inside the light guide connector 108.
  • the endoscope main body 100 described in the embodiment corresponds to an example of an endoscope.
  • the processor device 200 includes an image input controller 202, an image processing unit 204, and a video output unit 206.
  • the image input controller 202 acquires an electric signal corresponding to an optical image to be observed, which is transmitted from the endoscope main body 100.
  • the image processing unit 204 generates an endoscopic image of the observation target based on an imaging signal which is an electrical signal corresponding to the optical image of the observation target.
  • image in the present specification may include the meaning of the image itself and the image data representing the image.
  • the image may include moving and still images.
  • the endoscopic image is illustrated with reference numeral 38 in FIG.
  • the image processing unit 204 can perform image quality correction by applying digital signal processing such as white balance processing and shading correction processing to the image pickup signal.
  • the image processing unit 204 may add incidental information defined by the DICOM standard to the endoscopic image.
  • DICOM is an abbreviation for Digital Imaging and Communications in Medicine.
  • the video output unit 206 transmits a display signal representing an image generated by using the image processing unit 204 to the monitor 400.
  • the monitor 400 displays an image to be observed.
  • the processor device 200 When the image pickup button 144 shown in FIG. 1 is operated, the processor device 200 operates the image input controller 202, the image processing unit 204, and the like in response to the image pickup instruction signal transmitted from the endoscope main body 100.
  • the processor device 200 When the processor device 200 acquires a freeze instruction signal indicating still image imaging from the endoscope main body 100, the processor device 200 applies the image processing unit 204 to generate a still image based on the frame image at the operation timing of the imaging button 144. ..
  • the processor device 200 displays a still image on the monitor 400.
  • the frame image is illustrated with reference numeral 38B in FIG.
  • the still image is illustrated with reference numeral 39 in FIG.
  • the processor device 200 includes a communication control unit 205.
  • the communication control unit 205 controls communication with a device that is communicably connected via an in-hospital system, an in-hospital LAN, and the like.
  • the communication control unit 205 may apply a communication protocol conforming to the DICOM standard.
  • An example of an in-hospital system is HIS (Hospital Information System).
  • LAN is an abbreviation for Local Area Network.
  • the processor device 200 includes a storage unit 207.
  • the storage unit 207 stores an endoscope image generated by using the endoscope main body 100.
  • the storage unit 207 may store various information incidental to the endoscopic image.
  • the processor device 200 includes an operation unit 208.
  • the operation unit 208 outputs an instruction signal according to the user's operation.
  • the operation unit 208 may apply a keyboard, a mouse, a joystick, or the like.
  • the user input signal transmitted from the operation unit 208 is transmitted to the CPU 210.
  • the CPU 210 acquires a user input signal transmitted from the operation unit 208, and performs control corresponding to the acquired user input signal.
  • the operation unit 208 may include the above-mentioned foot switch.
  • the CPU 210 acquires a user input signal transmitted from the hand operation unit 102 shown in FIG. 1, and controls the endoscope main body 100, the processor device 200, and the light source device 300 corresponding to the acquired user input signal. carry out.
  • the processor device 200 includes a voice processing unit 209 and a speaker 209A.
  • the voice processing unit 209 generates a voice signal representing information to be notified as voice.
  • the speaker 209A converts the voice signal generated by using the voice processing unit 209 into voice. Examples of the voice output from the speaker 209A include a message, voice guidance, a warning sound, and the like.
  • the processor device 200 includes a CPU 210, a ROM 211, and a RAM 212.
  • CPU is an abbreviation for Central Processing Unit.
  • ROM is an abbreviation for Read Only Memory.
  • RAM is an abbreviation for Random Access Memory.
  • the CPU 210 functions as an overall control unit of the processor device 200.
  • the CPU 210 functions as a memory controller that controls the ROM 211 and the RAM 212.
  • the ROM 211 stores various programs, control parameters, and the like applied to the processor device 200.
  • the RAM 212 is applied to a temporary storage area for data in various processes and a processing area for arithmetic processing using the CPU 210.
  • the RAM 212 can be applied to the buffer memory when the endoscopic image is acquired.
  • the processor device 200 performs various processes on the endoscope image generated by using the endoscope main body 100, and displays the endoscope image and various information incidental to the endoscope image on the monitor 400. ..
  • the processor device 200 stores the endoscopic image and various information incidental to the endoscopic image.
  • the processor device 200 displays an endoscopic image or the like using the monitor 400, outputs audio information using the speaker 209A, and various types of the endoscopic image. Carry out the process.
  • the processor device 200 can function as an image processing device that performs a predetermined process on a medical image by using a component such as an image processing unit 204.
  • a component such as an image processing unit 204.
  • the prescribed processing include detection processing of the region of interest, enhancement processing of the region of interest, classification processing of the region of interest, discrimination processing of medical images, measurement processing of the region of interest, and the like.
  • the processor device 200 may apply a computer.
  • the computer may apply the following hardware and execute a specified program to realize the functions of the processor device 200.
  • a program is synonymous with software.
  • the processor device 200 can apply various processors as a signal processing unit that performs signal processing.
  • processors include CPUs and GPUs (Graphics Processing Units).
  • the CPU is a general-purpose processor that executes a program and functions as a signal processing unit.
  • the GPU is a processor specialized in image processing.
  • As the hardware of the processor an electric circuit in which an electric circuit element such as a semiconductor element is combined is applied.
  • Each control unit includes a ROM in which a program or the like is stored and a RAM in which a work area for various operations or the like is stored.
  • Two or more processors may be applied to one signal processing unit.
  • the two or more processors may be the same type of processor or different types of processors. Further, one processor may be applied to a plurality of signal processing units.
  • the processor device 200 described in the embodiment corresponds to an example of an endoscope control device.
  • the light source device 300 includes a light source 310, an aperture 330, a condenser lens 340, and a light source control unit 350.
  • the light source device 300 causes the observation light to be incident on the light guide 170.
  • the light source 310 includes a red light source 310R, a green light source 310G, and a blue light source 310B.
  • the red light source 310R, the green light source 310G, and the blue light source 310B emit red, green, and blue narrow-band light, respectively.
  • the light source 310 can generate illumination light in which narrow band lights of red, green and blue are arbitrarily combined.
  • the light source 310 may combine red, green, and blue narrowband light to produce white light.
  • the light source 310 can generate narrow band light by combining any two colors of red, green and blue narrow band light.
  • the light source 310 can generate narrow-band light using any one color of red, green, and blue narrow-band light.
  • the light source 310 may selectively switch and emit white light or narrow band light. Narrow band light is synonymous with special light.
  • the light source 310 may include an infrared light source that emits infrared light, an ultraviolet light source that emits ultraviolet light, and the like.
  • the light source 310 may employ an embodiment including a white light source that emits white light, a filter that allows white light to pass through, and a filter that allows narrow-band light to pass through.
  • the light source 310 of this aspect can selectively emit either white light or narrow band light by switching between a filter that allows white light to pass through and a filter that allows narrow band light to pass through.
  • the filter that passes narrow band light may include a plurality of filters corresponding to different bands.
  • the light source 310 may selectively switch between a plurality of filters corresponding to different bands to selectively emit a plurality of narrow band lights having different bands.
  • the type, wavelength band, etc. can be applied according to the type of observation target, the purpose of observation, and the like.
  • Examples of the types of the light source 310 include a laser light source, a xenon light source, an LED light source, and the like.
  • LED is an abbreviation for Light-Emitting Diode.
  • the observation light emitted from the light source 310 reaches the incident end of the light guide 170 via the diaphragm 330 and the condenser lens 340.
  • the observation light is applied to the observation target via the light guide 170, the illumination lens 123A, and the like.
  • the light source control unit 350 transmits a control signal to the light source 310 and the aperture 330 based on the instruction signal transmitted from the processor device 200.
  • the light source control unit 350 controls the illuminance of the observation light emitted from the light source 310, the switching of the observation light, the on / off of the observation light, and the like.
  • the image processing apparatus shown in the present embodiment reads out an unobserved image, which is a frame image including an unobserved region of interest, when a doctor transmits a user input signal indicating a redisplay of the unobserved region of interest. It is displayed on the monitor 400 shown in 1.
  • the unobserved image is displayed in an area different from the observed image display area where the observed image is displayed.
  • the doctor can compare the observed image with the unobserved image, and can search for the area of interest missed in the observed image.
  • the observation image is a real-time endoscopic image of the observation target displayed on the monitor 400 during endoscopy.
  • the observation image may be a moving image or a still image.
  • the observation target described in the embodiment corresponds to an example of a subject.
  • the monitor 400 described in the embodiment corresponds to an example of a display device.
  • the real-time endoscopic image may include a case where it is displayed on the monitor 400 after a certain delay period due to signal processing or the like has elapsed from the imaging timing.
  • the image processing apparatus shown in this embodiment has the same meaning as a medical image processing apparatus and a medical image processing apparatus. The same applies to the second embodiment and the third embodiment.
  • FIG. 3 is a functional block diagram of the image processing device according to the first embodiment.
  • the image processing device 14 shown in the figure is realized by applying components such as the image processing unit 204 in the processor device 200 shown in FIG.
  • the image processing device 14 includes an image acquisition unit 40, a user input signal acquisition unit 42, a display control unit 44, and a notification unit 46.
  • the image processing device 14 includes a region of interest detection unit 50, an unobserved condition determination unit 51, a first image processing unit 52, an endoscopic image storage unit 70, an unobserved image storage unit 71, an observed image storage unit 71A, and a first image processing device 14.
  • An image processing result storage unit 72 is provided. Each part will be described below.
  • the image acquisition unit 40 acquires an endoscope image 38 imaged using the endoscope main body 100 shown in FIG.
  • the acquisition of the endoscopic image 38 may include the acquisition of the moving image 38A, the acquisition of the frame image 38B, and the acquisition of the still image 39.
  • the image acquisition unit 40 stores the endoscopic image 38 in the endoscopic image storage unit 70.
  • the image acquisition unit 40 may acquire the endoscope image 38 from the processor device 200 via a cable that transmits a signal representing the endoscope image 38.
  • the image acquisition unit 40 may acquire the endoscopic image 38 from the processor device 200 via an information storage medium such as a memory card.
  • the image acquisition unit 40 may acquire the endoscopic image 38 via the communication network.
  • the image acquisition unit 40 can acquire a moving image 38A composed of a time-series frame image 38B.
  • the image acquisition unit 40 can acquire the still image 39 when the still image is captured during the acquisition of the moving image 38A.
  • the image acquisition unit 40 corresponds to the image input controller 202 shown in FIG.
  • the user input signal acquisition unit 42 acquires the user input signal transmitted from the operation unit 30 in response to the operation of the operation unit 30 of the user.
  • the operation unit 30 shown in FIG. 3 may include a hand operation unit 102 shown in FIG. 1, an operation unit 208 shown in FIG. 2, a foot switch (not shown), and the like.
  • the user input signal acquisition unit 42 may include a microphone that acquires the user's voice. That is, the user input signal acquisition unit 42 may acquire the user input signal based on the user's voice.
  • the operation unit 30 described in the embodiment corresponds to an example of the user operation unit.
  • the microphone described in the embodiment corresponds to an example of a voice acquisition unit that acquires a user's voice.
  • the display control unit 44 transmits a display signal representing the endoscopic image 38 to the monitor 400.
  • the monitor 400 displays the endoscopic image 38 as an observation image.
  • the display control unit 44 displays the first image in which the first image processing is performed on the endoscopic image 38 by using the first image processing unit 52.
  • the display signal to be represented is transmitted to the monitor 400.
  • the display control unit 44 transmits the display signal representing the unobserved image to the monitor 400.
  • the monitor 400 displays an unobserved image.
  • the display control unit 44 hides the unobserved image based on the non-display condition of the unobserved image displayed on the monitor 400.
  • the display control unit 44 corresponds to the video output unit 206 shown in FIG.
  • the display control unit 44 described in the embodiment corresponds to an example of a display signal transmission unit that transmits a first display signal representing an observation image to the display device.
  • the display signal representing the endoscopic image 38 described in the embodiment corresponds to an example of the first display signal.
  • the display signal representing the unobserved image described in the embodiment corresponds to an example of the second display signal.
  • the notification unit 46 When the region of interest is detected from the frame image 38B constituting the endoscope image 38, the notification unit 46 performs notification indicating the detection of the region of interest in the endoscope image 38.
  • the notification unit 46 can perform voice notification using the speaker 209A shown in FIG.
  • the notification unit 46 can perform notification of character information or the like using the monitor 400.
  • the attention region detection unit 50 detects the attention region from the frame image 38B acquired by the image acquisition unit 40 by applying a learning device such as a CNN (Convolutional Neural Network).
  • the attention area detection unit 50 derives the feature amount of the frame image 38B and determines the presence or absence of the attention area based on the feature amount.
  • the attention area detection unit 50 is applied with a trained learner that has been trained using a pair of the frame image 38B and the attention area in the frame image 38B as learning data. Examples of detection of the region of interest include detection of lesions and detection of specific organs.
  • the unobserved condition determination unit 51 determines whether or not the frame image 38B in which the region of interest is detected satisfies the condition of the frame image 38B stored in the unobserved image storage unit 71. That is, the unobserved condition determination unit 51 determines whether or not the frame image 38B in which the region of interest is detected is an unobserved image.
  • a specified number of frame images 38B including the same area of interest is set in advance, and the unobserved condition determination unit 51 determines that the number of frame images 38B including the same area of interest is equal to or less than the specified number within the specified period. Judged as an unobserved image.
  • the specified number can be specified according to the frame rate of the imaging unit 130 and the moving speed of the imaging unit 130.
  • the specified number may be any integer greater than or equal to 1.
  • the frame images 38B including the same region of interest are often continuous, but the screen may flicker and the detection of the region of interest may be interrupted.
  • the specified number may be the number of continuous frame images 38B or the number of non-continuous frame images 38B.
  • the movement of the imaging unit 130 represents the movement of the imaging unit 130 along the movement path of the endoscope main body 100 in the endoscopy. Further, the moving speed may include the concept of speed representing the absolute value of the moving speed.
  • the unobserved condition determination unit 51 can determine whether or not the unobserved frame image 38B is based on the amount of change between the frame images 38B such as the change of the movement vector of the imaging unit 130. That is, the unobserved condition determination unit 51 can determine an unobserved image when the amount of change between the frame images 38B is equal to or greater than a predetermined threshold value. As another example of the amount of change between the frame images 38B, the value of the cross-correlation function between the frame images 38B and the like can be mentioned.
  • the unobserved condition determination unit 51 can determine an unobserved image when the same region of interest stays in the non-center portion of the screen within a specified period.
  • the central portion of the image is the center of the screen.
  • it is an area including the center of gravity and does not include the edge of the screen.
  • the outside of the image is an area that does not include the center of the screen or the center of gravity, and is an area that includes the edges of the screen.
  • the unobserved condition determination unit 51 determines that the observation is not performed at least in any one of the number of frame images 38B including the same region of interest, the amount of change between the frame images 38B, and the position of the region of interest on the screen. If so, it can be determined as an unobserved image.
  • the unobserved condition determination unit 51 stores the frame image 38B in which the region of interest is detected in the unobserved image storage unit 71 as an unobserved image when the condition of the unobserved image stored in the unobserved image storage unit 71 is satisfied. To do.
  • the unobserved condition determination unit 51 determines the observed image storage unit as an observed image when the frame image 38B in which the region of interest is detected does not satisfy the condition of the unobserved image stored in the unobserved image storage unit 71. Store in 71A.
  • the first image processing unit 52 When the region of interest is detected from the frame image 38B constituting the endoscope image 38, the first image processing unit 52 performs the first image processing on the frame image 38B including the region of interest.
  • the endoscopic image 38 and the frame image 38B including the region of interest correspond to the above-mentioned observation image.
  • the first image processing can apply the enhancement processing of the region of interest.
  • the first image processing unit 52 generates an enhanced image that emphasizes the region of interest detected from the frame image 38B. Examples of the emphasized image include a bounding box superimposed on the region of interest, a predetermined color and pattern added to the region of interest, and the like.
  • the first image processing unit 52 specifies the position of the region of interest and defines the position of the emphasized image according to the position of the region of interest.
  • the first image processing unit 52 specifies the size of the region of interest and defines the size of the enhanced image according to the size of the region of interest.
  • the first image processing unit 52 stores the processing result of the first image processing in the first image processing result storage unit 72.
  • the first image processing result storage unit 72 can store the first image in which the emphasized image is added to the frame image 38B in which the region of interest is detected.
  • the first image processing result storage unit 72 may store a combination of information of the frame image 38B including the region of interest and the information of the emphasized image associated with the frame image 38B including the region of interest. That is, the first image processing unit 52 may store the frame image 38B file and the emphasized image file as separate files.
  • the first image processing unit 52 uses the display control unit 44 to display the frame image 38B on which the emphasized image is superimposed and displayed as the observation image on the monitor 400.
  • the notification unit 46 may perform notification indicating detection of the region of interest in the endoscopic image 38 by using the frame image 38B on which the emphasized image is superimposed and displayed.
  • the endoscopic image storage unit 70 stores the endoscopic image 38 acquired by using the image acquisition unit 40. When the still image imaging is performed, the endoscopic image storage unit 70 stores the still image 39 generated in the still image imaging.
  • the unobserved image storage unit 71 stores an unobserved image.
  • the display control unit 44 reads out the unobserved image stored in the unobserved image storage unit 71.
  • the unobserved image storage unit 71 may store a new unobserved image in place of the already stored unobserved image when a new unobserved image is generated while the unobserved image is stored. ..
  • the unobserved image storage unit 71 may specify the number of stored unobserved images. Further, the unobserved image storage unit 71 may define the storage period of the unobserved image. That is, the unobserved image storage unit 71 may store the unobserved image that is likely to be redisplayed and delete the unobserved image that is unlikely to be redisplayed. In FIG. 3, the unobserved image is not shown.
  • the observed image storage unit 71A stores the observed image.
  • the display control unit 44 reads out the observed image stored in the observed image storage unit 71A.
  • the first image processing result storage unit 72 stores the processing result of the first image processing performed by using the first image processing unit 52. As the first image processing result, the first image may be applied, or the frame image 38B and the combination of the information of the region of interest associated with the frame image 38B may be applied.
  • Each of the endoscopic image storage unit 70, the unobserved image storage unit 71, the observed image storage unit 71A, and the first image processing result storage unit 72 may apply one or more storage elements. That is, the image processing device 14 may include four storage elements corresponding to each of the endoscopic image storage unit 70, the unobserved image storage unit 71, the observed image storage unit 71A, and the first image processing result storage unit 72. ..
  • the endoscopic image storage unit 70, the unobserved image storage unit 71, the observed image storage unit 71A, and the first image processing result storage unit 72 may be configured by using one storage element of any two to four. ..
  • one storage element may be used to form an endoscopic image storage unit 70, an unobserved image storage unit 71, and an observed image storage unit 71A.
  • FIG. 4 is a flowchart showing the procedure of the image processing method according to the first embodiment.
  • the image processing method shown in this embodiment is synonymous with a medical image processing method, a medical image processing method, and the like. The same applies to the second embodiment and the third embodiment.
  • the image acquisition unit 40 shown in FIG. 3 acquires the endoscopic image 38.
  • the image acquisition unit 40 stores the endoscopic image 38 in the endoscopic image storage unit 70.
  • the process proceeds to the region of interest detection step S12.
  • the attention area detection unit 50 detects the attention area from each frame image 38B constituting the endoscopic image 38.
  • the attention region detection unit 50 may detect the attention region from all the frame images 38B of the moving image 38A, or may detect the attention region from the frame images 38B at predetermined intervals. .. After the attention area detection step S12, the process proceeds to the notification step S14.
  • the notification unit 46 performs notification indicating detection of the region of interest in the frame image 38B.
  • a notification stop step for stopping notification may be performed. After the notification step S14, the process proceeds to the first image processing step S16.
  • the first image processing unit 52 performs the first image processing on the frame image 38B in which the region of interest is detected. After the first image processing step S16, the process proceeds to the first image processing result storage step S17. After performing the first image processing step S16, the notification step S14 may be carried out.
  • the first image processing unit 52 stores the processing result of the first image processing in the first image processing result storage unit 72.
  • the process proceeds to the unobserved condition determination step S18.
  • a display step of displaying the first image may be performed after the first image processing result storage step S17. Further, the first image processing step S16 and the first image processing result storage step S17 may be omitted.
  • the unobserved condition determination unit 51 determines whether or not the frame image 38B in which the region of interest is detected satisfies the unobserved condition. That is, in the unobserved condition determination step S18, the unobserved condition determination unit 51 determines whether or not the frame image 38B in which the region of interest is detected is an unobserved image.
  • the unobserved condition determination step S18 when the unobserved condition determination unit 51 determines that the unobserved condition is not satisfied, a No determination is made. In the case of No determination, the process proceeds to the user input signal acquisition determination step S20.
  • the unobserved condition determination step S18 when the unobserved condition determination unit 51 determines that the unobserved condition is satisfied, a Yes determination is made. In the case of Yes determination, the process proceeds to the unobserved image storage step S19.
  • the unobserved condition determination unit 51 stores the unobserved image in the unobserved image storage unit 71.
  • the process proceeds to the user input signal acquisition determination step S20.
  • An observed image storage step of storing the observed image in the observed image storage unit 71A may be performed before or after the unobserved image storage step S19 or in parallel with the unobserved image storage step S19.
  • the user input signal acquisition unit 42 determines whether or not the user input signal representing the display of the unobserved region of interest has been acquired. In the user input signal acquisition determination step S20, when it is determined that the user input signal acquisition unit 42 has not acquired the user input signal representing the display of the unobserved region of interest, a No determination is made. In the case of No determination, the process proceeds to the final frame image determination step S32.
  • the user input signal acquisition determination step S20 when it is determined that the user input signal acquisition unit 42 has acquired the user input signal representing the display of the unobserved region of interest, the determination is Yes. In the case of Yes determination, the process proceeds to the display signal transmission step S26.
  • the user input signal acquisition determination step S20 corresponds to an example of the user input signal acquisition step.
  • the display control unit 44 transmits a display signal indicating unobserved to the monitor 400.
  • the monitor 400 displays unobserved.
  • the display control unit 44 determines whether or not the non-display condition of the unobserved image displayed on the monitor 400 is satisfied. In the non-display condition determination step S28, when the display control unit 44 determines that the non-display condition of the unobserved image is not satisfied, a No determination is made. In the case of No determination, the non-display condition determination step S28 is continued until a Yes determination is made in the non-display condition determination step S28.
  • non-display condition determination step S28 when it is determined that the display control unit 44 satisfies the non-display condition of the unobserved image, a Yes determination is made. In the case of Yes determination, the process proceeds to the display signal transmission stop step S30. The details of the non-display condition of the unobserved image will be described later.
  • the display control unit 44 stops the transmission of the display signal representing the unobserved image displayed on the monitor 400. That is, in the display signal transmission stop step S30, the display control unit 44 hides the unobserved image. After the display signal transmission stop step S30, the process proceeds to the final frame image determination step S32.
  • the attention region detection unit 50 determines whether or not the attention region detection process for the final frame image 38B in the endoscope image 38 acquired by using the image acquisition unit 40 has been performed.
  • the process proceeds to the endoscopic image acquisition step S10, and each step from the endoscopic image acquisition step S10 to the final frame image determination step S32 is repeatedly performed until a Yes determination is made in the final frame image determination step S32. ..
  • the image processing device 14 ends the image processing method.
  • FIG. 5 is a schematic view of an observation image.
  • the figure shows a schematic view of an observation image of the large intestine as an endoscopic image 38.
  • the endoscope image 38 is displayed in real time as an observation image on the observation image display area 404 on the screen 402 of the monitor 400.
  • the moving image 38A of the endoscopic image 38 during endoscopy is displayed in real time as an observation image.
  • the observation image shown in FIG. 5 shows a case where the region of interest is not detected from the frame image 38B constituting the endoscopic image 38.
  • FIG. 6 is a schematic view of the first image.
  • the first image processing unit 52 shown in FIG. 3 first refers to the frame image 38B according to the detection result of the region of interest 510. Perform image processing.
  • the enhancement process of the attention area 510 is applied as the first image processing, and the bounding box 512 surrounding the attention area 510 is superimposed on the frame image 38B in which the attention area 510 is detected.
  • the displayed first image 500 is displayed.
  • FIG. 6 shows a first image 500 corresponding to the frame image 38B at an arbitrary timing.
  • FIG. 7 is a schematic view of a screen when a user input signal representing an unobserved display of a region of interest is acquired.
  • the doctor grasps the detection of the attention region 510 due to the notification of the detection of the attention region 510, he / she may want to display the missed attention region 510 on the screen 402.
  • the display control unit 44 When the user input signal acquisition unit 42 shown in FIG. 3 acquires a user input signal representing the display of the unobserved region of interest 510, the display control unit 44 reads an unobserved image from the unobserved image storage unit 71 and reads it out.
  • the unobserved image 39A is displayed in the unobserved image display area 406 of the screen 402.
  • the display control unit 44 causes the unobserved image 39A to be displayed in real time on the observed image display area 404 of the screen 402.
  • the doctor can observe the endoscopic image 38 and discover the missed region of interest 510 by utilizing the unobserved image 39A displayed in the unobserved image display region 406.
  • FIG. 7 shows a second image 520 in which the region of interest 510 and the bounding box 512 are superimposed and displayed on the unobserved image 39A. That is, the unobserved image display area 406 may display the unprocessed unobserved image 39A, or the second image 520 subjected to the second image processing may be applied to the unobserved image 39A. .. The details of the second image processing will be described later.
  • FIG. 8 is a schematic view of the non-display of the unobserved image display area.
  • the second image 520 displayed in the unobserved image display area 406 is hidden.
  • FIG. 8 shows a second image 520 hidden by a dotted line.
  • the image processing device 14 includes a timer.
  • the timer measures the period from the display start timing of the second image 520.
  • the display control unit 44 may hide the second image 520 based on the measured value of the timer. The timer is not shown.
  • the display control unit 44 described in the embodiment corresponds to an example of a display signal transmission unit that stops the transmission of the second display signal after a predetermined period has elapsed from the transmission timing of the second display signal.
  • the attention region detection unit 50 shown in FIG. 3 determines the identity between the attention region 510 in the second image 520 and the attention region 510 detected from the endoscopic image 38.
  • the attention region detection unit 50 shown in FIG. 3 compares the feature amount of the attention region 510 in the second image 520 with the feature amount of the attention region 510 detected from the endoscopic image 38, and based on the comparison result, both of them. Identity can be determined.
  • the attention area detection unit 50 can apply information such as a pixel value, the number of pixels, and a shape as a feature amount of the attention area 510.
  • the display control unit 44 When the display control unit 44 obtains a determination result indicating that the attention area 510 in the second image 520 and the attention area 510 in the endoscopic image 38 are the same, the display control unit 44 displays the image in the unobserved image display area 406. The second image 520 is hidden.
  • the notification unit 46 shown in FIG. 3 applies voice notification, character notification, and the like to make the determination.
  • the result can be notified.
  • the non-display condition of the unobserved image display area 406 also applies to the unobserved image 39A when the unobserved image 39A is displayed in the unobserved image display area 406.
  • the image processing apparatus 14 and the image processing method according to the first embodiment can obtain the following effects.
  • the attention region detection unit 50 detects the attention region 510 from the frame image 38B constituting the moving image 38A of the endoscopic image 38.
  • the unobserved image storage unit 71 stores the unobserved image 39A including the unobserved region of interest 510 among the endoscopic images 38 in which the region of interest 510 is detected.
  • the attention region 510 can be searched by using the unobserved image 39A or the like.
  • the display control unit 44 acquires a user input signal representing the display of the unobserved region of interest 510
  • the display control unit 44 reads out the unobserved image 39A stored in the unobserved image storage unit 71, and reads out the unobserved image 39A or the unobserved image 39A.
  • the second image 520 is displayed on the monitor 400.
  • the display control unit 44 causes the unobserved image 39A or the second image 520 to be displayed in the unobserved image display area 406, which is a region different from the observed image display area 404. This makes it easier for the doctor to search for the region of interest 510 in the observation image.
  • the display control unit 44 hides the unobserved image 39A or the second image 520 when the user input signal indicating the non-display of the unobserved image 39A or the second image 520 is acquired. As a result, when the region of interest 510 to be searched is found, the unobserved image 39A that can interfere with the observation can be hidden.
  • the display control unit 44 hides the unobserved image 39A or the second image 520 after a predetermined period has elapsed from the display start timing of the unobserved image 39A or the second image 520. As a result, the unobserved image 39A or the second image 520, which may interfere with the observation, can be automatically hidden.
  • the user input signal acquisition unit 42 acquires the user input signal transmitted from the operation unit and the user input signal according to the user's voice using the microphone. As a result, the user input signal acquisition unit 42 can apply various forms of user input signals.
  • the first image processing unit 52 performs the first processing on the frame image 38B in which the region of interest 510 is detected.
  • the display control unit 44 displays the first image 500 representing the processing result of the first image processing unit 52 in the observation image display area 404. This allows the physician to visually recognize the detection of the region of interest in the observation image.
  • the first image processing unit 52 generates a second image 520 in which the unobserved image 39A is subjected to the second image processing to which the image processing having the same contents as the first image processing is applied.
  • the display control unit 44 displays the second image 520 in the unobserved image display area 406. As a result, the visibility of the region of interest 510 in the second image 520 can be improved.
  • the unobserved image 39A is displayed by using the monitor 400 based on the user input signal, but the unobserved image 39A is displayed by using the monitor 400 based on the generation of the unobserved image 39A. 39A may be displayed.
  • the unobserved image 39A when the unobserved image 39A occurs, the unobserved image 39A can be automatically displayed on the monitor 400.
  • FIG. 9 is a functional block diagram of the image processing apparatus according to the second embodiment.
  • a second image processing unit 54 and a second image processing result storage unit 74 are added to the image processing device 14 shown in FIG.
  • the second image processing unit 54 performs the second image processing on the unobserved image 39A shown in FIG. 7. That is, when the unobserved image 39A is displayed in the unobserved image display area 406, the second image processing unit 54 has a second image 520 with respect to the display mode of the first image 500 to be displayed in the observed image display area 404. The display mode of is changed.
  • the second image processing may be applied with an enhancement process in which the degree of emphasis is stronger than that of the first image 500.
  • the second image processing may apply a batch display of a plurality of different second images 520.
  • As the second image processing a process of selecting one from a plurality of different second images 520 may be applied.
  • the second image processing unit 54 stores the processing result of the second image processing in the second image processing result storage unit 74.
  • the second image 520 can be applied.
  • a combination of the unobserved image 39A and the information representing the processing result of the second processing for the unobserved image 39A may be applied.
  • the second image processing result storage unit 74 stores the processing result of the second image processing performed by using the second image processing unit 54.
  • the second image processing result storage unit 74 may store the processing result of the second image processing selected from the processing results of the plurality of second image processing.
  • FIG. 10 is a flowchart showing the procedure of the image processing method according to the second embodiment.
  • a second image processing step S22 and a second image processing result storage step S24 are added to the flowchart shown in FIG.
  • Each step from the endoscope image acquisition step S10 to the user input signal acquisition determination step S20 shown in FIG. 10 is the same as each step from the endoscope image acquisition step S10 to the user input signal acquisition determination step S20 shown in FIG. Is.
  • the process proceeds to the second image processing step S22.
  • the second image processing unit 54 shown in FIG. 9 performs the second image processing on the unobserved image 39A. After the second image processing step S22, the process proceeds to the second image processing result storage step S24.
  • the second image processing unit 54 stores the result of the second image processing in the second image processing result storage unit 74.
  • the process proceeds to the display signal transmission step S26.
  • the second image processing step S22 and the second image processing result storage step S24 may be performed between the first image processing result storage step S17 and the unobserved condition determination step S18.
  • FIG. 11 is a schematic view of a second image to which image processing for increasing the degree of emphasis is applied.
  • the second image 530 with a stronger degree of emphasis is displayed as compared with the enhancement process of the first image 500 shown in FIG.
  • a bounding box 532 in which the degree of emphasis of the attention area 510 is stronger than that of the bounding box 512 shown in FIG. 6 is applied.
  • the type of the border is changed from a broken line to a solid line, the width of the border is increased, and the color of the border is conspicuous such as red, as compared with the bounding box 512 applied to the first image 500. Color is used.
  • the process of increasing the degree of emphasis is not limited to the mode shown in FIG.
  • at least one of the border type, border line width, and border color of the bounding box 512 shown in FIG. 6 may be changed.
  • the real-time endoscopic image 38 is displayed in the observation image display area 404.
  • the second image 530 can be referred to when the endoscope main body 100 shown in FIG. 1 is operated to search for the region of interest 510.
  • the second image 530 shown in FIG. 11 can improve the visibility of the attention area 510 as compared with the frame image 38B displayed in the unobserved image display area 406 shown in FIG. 7.
  • FIG. 12 is a schematic diagram of a mode in which a plurality of second images are displayed.
  • the second image 540 and the second image 542 shown in FIG. 12 correspond to the unobserved image 39A generated at different timings.
  • the bounding box 512A is superimposed and displayed on the attention area 510A.
  • the bounding box 512B is superimposed and displayed on the attention area 510B.
  • FIG. 13 is a schematic diagram of selection of a second image in a mode of displaying a plurality of second images.
  • the second image 542 selected from the second image 540 and the second image 542 is highlighted. That is, when the user input signal representing the selection of the second image 540 or the like is acquired, the second image processing unit 54 highlights the selected second image 542 based on the user input signal.
  • the unselected second image 540 may be hidden according to the selection of the second image 542.
  • the highlighting of the second image 542 may be hidden in response to the non-selection of the second image 540.
  • the user input signal acquisition unit 42 shown in FIG. 9 corresponds to an example of a selection unit.
  • FIGS. 12 and 13 show an aspect of displaying two second images 540 and the like, three or more second images may be displayed.
  • information indicating each acquisition timing may be added. It is preferable that the plurality of second images 540 and the like are arranged in the order of acquisition timing. Further, in the selection of the second image carried out by selecting the plurality of second images 540 and the like, two or more second images may be selected.
  • a plurality of second images 540 and the like can be used as a plurality of search candidates.
  • one or more search targets can be selected from a plurality of search candidates.
  • At least one of the hue, lightness, and saturation of the region of interest 510 with respect to the first image 500 may be changed.
  • there is a resolution conversion such as lowering the resolution and increasing the resolution.
  • the image processing apparatus 14A and the image processing method according to the second embodiment can obtain the following effects.
  • the second image processing unit 54 generates a second image 530 or the like whose display mode is different from that of the first image 500.
  • the display control unit 44 displays the second image 530 and the like on the monitor.
  • the enhancement processing of the region of interest 510 is applied.
  • the enhancement process according to the second image processing has a higher degree of enhancement than the enhancement process according to the first image processing. As a result, the visibility of the region of interest 510 in the second image 530 and the like can be improved.
  • the monitor 400 displays a plurality of second images 540 and the like having different acquisition timings. As a result, the region of interest 510 missed in the endoscopic image 38 can be searched from among the plurality of second images 540 and the like.
  • One or more second images 542 and the like can be selected from a plurality of second images 540 and the like having different acquisition timings.
  • the second image 542 or the like applied to the search of the region of interest 510 can be set from the plurality of second images 540 or the like having different acquisition timings.
  • FIG. 14 is a functional block diagram of the image processing apparatus according to the third embodiment.
  • a third image processing unit 56 and a third image processing result storage unit 76 are added to the image processing device 14A shown in FIG.
  • the third image processing unit 56 performs the third image processing on the unobserved image 39A or the second image 520 displayed in the unobserved image display area 406.
  • the second image 520 and the like referred to here represent at least one of the second image 520 shown in FIG. 7, the second image 530 shown in FIG. 11, the second image 540 shown in FIG. 12, and the second image 542. The same applies to the following description.
  • the third image processing includes editing the unobserved image 39A or the second image 520 or the like, storing the third image generated by editing the unobserved image 39A or the second image 520 or the like, the unobserved image 39A or the second image. At least one of transmission to an external device 32 such as 520, deletion of the unobserved image 39A or the second image 520, and rearrangement of the plurality of unobserved images 39A or the plurality of second images 520 may be applied.
  • the third image processing result storage unit 76 when the third image processing applied to the third image processing unit 56 is editing of the unobserved image 39A or the second image 520 or the like, the unobserved image 39A or the second image
  • the third image 560 generated by editing 520 and the like is stored.
  • enlargement or reduction of the unobserved image 39A or the second image 520 or the like may be applied.
  • the third image processing unit 56 sends the unobserved image to the external device 32.
  • 39A or the second image 520 or the like is transmitted.
  • the external device 32 may apply a storage device or the like communicatively connected to the image processing device 14B. Note that FIG. 14 illustrates transmission of the second image 520 or the like to the external device 32.
  • the third image processing unit 56 deletes the unobserved image 39A or the second image 520 or the like. carry out.
  • the third image processing unit 56 arranges the unobserved image 39A or the second image 520 or the like. To rearrange.
  • FIG. 15 is a flowchart showing the procedure of the image processing method according to the third embodiment.
  • FIG. 15 shows a procedure in which editing of the second image 530 is applied as the third image processing.
  • a third image processing instruction step S40, a third image processing step S42, and a third image processing result storage step S44 are added to the flowchart shown in FIG.
  • Each step from the endoscopic image acquisition step S10 to the display signal transmission step S26 shown in FIG. 15 is the same as each step from the endoscope image acquisition step S10 to the display signal transmission step S26 shown in FIG. After the display signal transmission step S26, the process proceeds to the third image processing instruction step S40.
  • the user input signal acquisition unit 42 shown in FIG. 14 acquires a third image processing instruction signal representing the processing content of the third image processing.
  • acquisition of the third image processing instruction signal acquisition of a user input signal transmitted from the operation unit 30 shown in FIG. 14 can be mentioned.
  • the process proceeds to the third image processing step S42.
  • the third image processing unit 56 performs the third image processing on the unobserved image 39A, the second image 520, or the like based on the third image processing instruction signal. After the third image processing step S42, the process proceeds to the third image processing result storage step S44.
  • the third image processing result storage unit 76 shown in FIG. 14 stores the processing result of the third image processing.
  • the process proceeds to the non-display condition determination step S28.
  • the third image processing is transmission of the unobserved image 39A or the second image 520 to the external device 32 and deletion of the unobserved image 39A or the second image 520 or the like, the third image processing result storage step S44 is omitted. To.
  • Each step from the non-display condition determination step S28 to the final frame image determination step S32 shown in FIG. 15 is the same as each step from the non-display condition determination step S28 to the final frame image determination step S32 shown in FIG.
  • FIG. 16 is an explanatory diagram of an example of the third image processing.
  • the third image 560 is displayed instead of the second image 520 and the like shown in FIG.
  • the screen 402 may display both the second image 520 and the like and the third image 560.
  • the third image 560 the area of interest 510 of the second image 520 shown in FIG. 7 is enlarged. That is, the third image 560 shown in FIG. 16 includes a region of interest 510C in which the region of interest 510 shown in FIG. 7 is expanded and a bounding box 512C in which the bounding box 512 shown in FIG. 7 is expanded.
  • the image processing apparatus 14B and the image processing method according to the third embodiment can obtain the following effects.
  • a third image processing unit 56 that performs a third image processing on the unobserved image 39A, the second image 520, or the like is provided. As a result, editing of the unobserved image 39A, the second image 520, or the like can be performed.
  • the third image processing includes editing the unobserved image 39A or the second image 520, storing the editing result of the unobserved image 39A or the second image 520, and printing the unobserved image 39A or the second image 520 to an external device. Transmission, deletion of the unobserved image 39A or the second image 520, etc., and rearrangement of the unobserved image 39A or the second image 540, etc. in the embodiment of displaying the plurality of unobserved images 39A or the plurality of second images 540, etc. are applied. To. Thereby, the unobserved image 39A, the second image 520, or the like can be edited.
  • [Modification example of endoscopic system] [Modification of illumination light] As an example of the medical image that can be acquired by using the endoscope system 10 shown in the present embodiment, there is a white band light or a normal light image obtained by irradiating light of a plurality of wavelength bands as white band light. Be done.
  • Another example of a medical image that can be obtained by using the endoscope system 10 shown in the present embodiment is an image obtained by irradiating light in a specific wavelength band.
  • a narrower band than the white band can be applied to a specific wavelength band. The following modifications can be applied.
  • a first example of a particular wavelength band is the blue or green band in the visible range.
  • the wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less, and the light of the first example is 390 nanometers or more and 450 nanometers or less, or It has a peak wavelength in the wavelength band of 530 nanometers or more and 550 nanometers or less.
  • a second example of a particular wavelength band is the red band in the visible range.
  • the wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less, and the light of the second example is 585 nanometers or more and 615 nanometers or less, or It has a peak wavelength in the wavelength band of 610 nanometers or more and 730 nanometers or less.
  • the third example of a specific wavelength band includes a wavelength band in which the extinction coefficient differs between oxidized hemoglobin and reduced hemoglobin, and the light in the third example has a peak wavelength in a wavelength band in which the extinction coefficient differs between oxidized hemoglobin and reduced hemoglobin.
  • the wavelength band of the third example includes a wavelength band of 400 ⁇ 10 nanometers, 440 ⁇ 10 nanometers, 470 ⁇ 10 nanometers, or 600 nanometers or more and 750 nanometers or less, and the light of the third example is It has a peak wavelength in the wavelength band of 400 ⁇ 10 nanometers, 440 ⁇ 10 nanometers, 470 ⁇ 10 nanometers, or 600 nanometers or more and 750 nanometers or less.
  • the fourth example of the specific wavelength band is the wavelength band of the excitation light used for observing the fluorescence emitted by the fluorescent substance in the living body and exciting the fluorescent substance.
  • it is a wavelength band of 390 nanometers or more and 470 nanometers or less.
  • the observation of fluorescence may be referred to as fluorescence observation.
  • a fifth example of a specific wavelength band is the wavelength band of infrared light.
  • the wavelength band of the fifth example includes a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less, and the light of the fifth example is 790 nanometers or more and 820 nanometers or less. Alternatively, it has a peak wavelength in a wavelength band of 905 nanometers or more and 970 nanometers or less.
  • the processor device 200 may generate a special optical image having information in a specific wavelength band based on a normal optical image obtained by imaging with white light. Note that the generation here includes acquisition. In this case, the processor device 200 functions as a special optical image acquisition unit. Then, the processor device 200 obtains a signal in a specific wavelength band by performing an operation based on color information of red, green and blue, or cyan, magenta and yellow contained in a normal optical image.
  • Cyan, magenta, and yellow may be expressed as CMY using the acronyms Cyan, Magenta, and Yellow, which are the respective English notations.
  • Example of generating a feature image As a medical image, at least one of a white band light, a normal light image obtained by irradiating light in a plurality of wavelength bands as white band light, and a special light image obtained by irradiating light in a specific wavelength band.
  • a feature image can be generated using the based operation.
  • the above-mentioned image processing apparatus and image processing method can be configured as a program that realizes a function corresponding to each part in the image processing apparatus or each process in the image processing method by using a computer.
  • a computer may be configured with a program that realizes an image acquisition function, a display signal transmission function, a region of interest detection function, an unobserved image storage function, and a user input signal acquisition function.
  • the image acquisition function corresponds to the image acquisition unit 40 and the endoscopic image acquisition step S10.
  • the display signal transmission function corresponds to the display control unit 44 and the display signal transmission step S26.
  • the attention area detection function corresponds to the attention area detection unit 50 and the attention area detection step S12.
  • the unobserved image storage function corresponds to the unobserved image storage unit 71 and the unobserved condition determination step S18.
  • the user input signal acquisition function corresponds to the user input signal acquisition unit 42 and the user input signal acquisition determination step S20.
  • the program may include a first image processing unit 52 and a first image processing corresponding to the first image processing step S16.
  • the program may include a first image processing result storage unit 72 and a first image processing result storage function corresponding to the first image processing result storage step S17.
  • the program may include a second image processing function corresponding to the second image processing unit 54 and the second image processing step S22.
  • the program may include a second image processing result storage unit 74 and a second image processing result storage function corresponding to the second image processing result storage step S24.
  • the program may include a third image processing function corresponding to the third image processing unit 56 and the third image processing step S42.
  • the mode in which the program is stored and provided in the non-temporary information storage medium the mode in which the program signal is provided via the communication network is also possible.
  • the constituent requirements can be appropriately changed, added, or deleted without departing from the gist of the present invention.
  • the present invention is not limited to the embodiments described above, and many modifications can be made by a person having ordinary knowledge in the art within the technical idea of the present invention.
  • Endoscope system 14 Image processing device 14A Image processing device 38 Endoscope image 38A Moving image 39 Still image 39A Unobserved image 40 Image acquisition unit 42 User input signal acquisition unit 44 Display control unit 46 Notification unit 50 Attention area detection unit 51 Unobserved condition determination unit 52 First image processing unit 54 Second image processing unit 56 Third image processing unit 70 Endoscopic image storage unit 71 Unobserved image storage unit 71A Observed image storage unit 72 First image processing result storage Part 74 Second image processing result storage part 76 Third image processing result storage part 100 Endoscope body 102 Hand operation part 104 Insertion part 106 Universal cable 108 Light guide connector 112 Flexible part 114 Curved part 116 Tip hard part 116A Tip side end face 123 Illumination unit 123A Illumination lens 123B Illumination lens 126 Force opening 130 Imaging unit 132 Imaging lens 134 Imaging element 136 Drive circuit 138 Analog front end 141 Air supply / water supply button 142 Suction button 143 Function button 144 Imaging button 170 Light guide 200 Processor device 202 Image input

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

未観察の注目領域の情報を用いた探索を支援し得る、医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラムを提供する。観察画像(38)を取得する画像取得部(40)、観察画像を表す第一表示信号を表示装置(400)へ送信する表示信号送信部(44)、観察画像から注目領域を検出する注目領域検出部(50)、注目領域が検出された観察画像から注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶部(71)を備える。

Description

医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
 本発明は医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラムに関する。
 内視鏡画像等に対してAI技術等を導入し、病変の検出及び診断支援を行うシステムは、病変の見落とし率を低下させ、不要な生検の削減に繋がるとして注目を集めている。このようなシステムは、内視鏡検査の実施中においてリアルタイムに動作して、認識結果等の画面表示を実施するなどの医師への報知を実現する。なお、AIはArtificial Intelligenceの省略語である。
 特許文献1から特許文献3は、観察画像から算出された特徴量に基づき観察画像の病変候補領域を検出し、検出された病変候補領域を表示装置へ表示させる内視鏡システムが記載されている。
 特許文献1に記載の内視鏡システムは、病変候補領域の位置を強調するマーカー画像が観察画像に付加される。同システムは、病変候補領域の検出継続期間の長さに応じてマーカー画像の表示態様を変化させる。具体的には、病変候補領域の検出継続期間が規定期間に達した際に強調処理が開始される。
 特許文献2に記載の内視鏡システムは、継続検出期間中にビデオプロセッサから順次出力される観察画像を記憶する。同システムは、継続検出期間が規定の期間未満である場合は、規定の期間が経過した後に、観察画像を表示させる表示領域とは別の表示領域に、記憶順とは逆の順番で、記憶されている観察画像を表示させる。
 特許文献3に記載の内視鏡システムは、病変候補領域が検出され、報知処理が開始された際に静止画像をメモリに一時記憶させる。同システムは操作スイッチがオン状態にされた場合にメモリに一時記憶させた静止画像に対してマーカー画像を付加し、静止画像を表示部へ表示させる。
 特許文献4は、被検体内に挿入し、被検体の内部を観察する電子内視鏡装置が記載されている。同文献に記載の装置は、異常画素が検出された際に、自動的に静止画像がメモリへ一時記憶される。また、同装置はメモリに一時記憶させた静止画像のサムネイル画像をサムネイル表示エリアに表示させる。
国際公開第2018/198161号 国際公開第2017/216922号 国際公開第2017/073337号 特開2006-198106号公報
 注目領域の検出を見逃した医師は、注目領域の検出の報知に起因して、注目領域の見逃しを認識し得る。医師は、見逃した注目領域等の探索を実施する際に、見逃した注目領域に関する情報を用いた支援が必要となる。しかしながら、特許文献1から特許文献4は、上記した見逃された注目領域の情報に関する記載又は示唆はない。
 特許文献1に記載のシステムは、病変領域等の検出期間が規定の期間に達した際に病変領域等の強調処理を実施して、病変候補領域を目視で確認する医師の負担を軽減している。一方、同文献に記載のシステムは、見逃された病変候補領域の情報を記憶する構成要素を備えていない。
 特許文献2に記載のシステムは、注目領域の検出が開始されてから途絶するまでの期間に一以上の観察画像を記憶し、注目領域の検出が途絶した後に記憶されている観察画像を自動的に表示して、病変部の見落としを低減させている。一方、観察画像の順次の自動的な再表示は、医師の集中力の低下に繋がり、注目領域の見逃しに繋がるおそれがある。また、同文献に記載のシステムは、見逃された病変候補領域の情報を記憶する構成要素を備えていない。
 特許文献3に記載のシステムは、病変候補領域が検出された際に病変候補領域が含まれる静止画像を一時的に記憶しておき、操作スイッチのオンに応じて静止画像を表示させる。同文献には、病変候補領域が検出された静止画像を選択的に記憶する旨の記載はなく、同文献に記載のシステムは、病変候補領域が含まれる静止画像を全て記憶していると考えられる。そうすると、一時記憶されている静止画像は、医師が観察を実施しているか否かの区別が困難である。
 特許文献4には、異常画素が検出された際に静止画像を選択的に一時記憶する旨の記載はなく、同文献に記載の装置は異常画素が検出された際に全ての静止画像を一時記憶していると考えられる。そうすると、一時記憶されている静止画像は、医師が観察を実施しているか否かの区別が困難である。
 すなわち、特許文献1から4に記載のシステム等はいずれも、医師が見逃した未観察の注目領域を探察する際の支援が困難である。
 本発明はこのような事情に鑑みてなされたもので、未観察の注目領域の情報を用いた探索を支援し得る、医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラムを提供することを目的とする。
 上記目的を達成するために、次の発明態様を提供する。
 第1態様に係る医療画像処理装置は、被写体の観察画像を取得する画像取得部と、観察画像を表す第一表示信号を表示装置へ送信する表示信号送信部と、観察画像を構成するフレーム画像から注目領域を検出する注目領域検出部と、注目領域が検出されたフレーム画像から注目領域の未観察を表す未観察条件を満たすフレーム画像を記憶する未観察画像記憶部と、を備えた医療画像処理装置である。
 第1態様によれば、注目領域が検出された観察画像から、未観察条件を満たす未観察の注目領域を含むフレーム画像が記憶される。これにより、未観察画像を用いた未観察の注目領域の探索を支援し得る。
 被写体の観察画像は、動画像でもよいし、複数の静止画像を含む静止画像群でもよい。観察画像の一例として、内視鏡を用いて撮像された内視鏡画像が挙げられる。
 フレーム画像は、複数の静止画像を含む静止画像群に含まれる一つの静止画像と同義である。
 未観察の注目領域の例として、ズーム等の撮像装置の操作をユーザが非実施の注目領域が挙げられる。
 第2態様は、第1態様の医療画像処理装置において、注目領域検出部を用いて注目領域が検出されたフレーム画像について、未観察条件を満たすか否かを判定する未観察条件判定部を備えた構成としてもよい。
 第2態様によれば、未観察条件に基づき、注目領域が検出された複数のフレーム画像から未観察画像を判定し得る。
 第2態様において、未観察条件を設定する未観察条件設定部を備える態様が好ましい。
 第3態様は、第2態様の医療画像処理装置において、未観察条件判定部は、規定期間内に同一の注目領域が含まれるフレーム画像が規定数以下の場合に未観察条件を満たすと判定する構成としてもよい。
 第3態様によれば、未観察条件として、同一の注目領域を含むフレーム画像の数を適用し得る。
 第4態様は、第2態様又は第3態様の医療画像処理装置において、未観察条件判定部は、フレーム画像の間の変化量が規定の閾値以上の場合に未観察条件を満たすと判定する構成としてもよい。
 第4態様によれば、未観察条件として、フレーム画像間の変化量を適用し得る。
 第5態様は、第2態様から第4態様のいずれか一態様の医療画像処理装置において、未観察条件判定部は、規定期間内に同一の注目領域が画面内の任意の領域に留まる場合に未観察条件を満たすと判定する構成としてもよい。
 第5態様によれば、未観察条件として、同一の注目領域の画面内の位置を適用し得る。
 第6態様は、第2態様から第5態様のいずれか一態様の医療画像処理装置において、表示信号送信部は、未観察条件判定部において未観察条件を満たすと判定された未観察画像を表す第二表示信号を表示装置へ送信する構成としてもよい。
 第6態様によれば、表示装置を用いて未観察画像が表示される。これにより、表示装置へ表示された未観察画像を用いた未観察の注目領域の探索を支援し得る。
 第7態様は、第6態様の医療画像処理装置において、ユーザの操作に応じて送信されるユーザ入力信号を取得するユーザ入力信号取得部を備え、表示信号送信部は、ユーザ入力信号取得部を用いて未観察の注目領域の表示を表すユーザ入力信号を取得した場合に、未観察画像を表す第二表示信号を表示装置へ送信する構成としてもよい。
 第7態様によれば、ユーザ入力信号の取得に応じて未観察画像を表す表示信号を表示装置へ送信する。これにより、表示装置へ表示された未観察画像を用いた未観察の注目領域の探索を支援し得る。
 第8態様は、第7態様の医療画像処理装置において、注目領域検出部を用いて検出された注目領域に対して第一画像処理を実施して第一画像を生成する第一画像処理部を備え、表示信号送信部は、第一画像を表す表示信号を第一表示信号として表示装置へ送信する構成としてもよい。
 第8態様によれば、第一画像処理が実施された第一画像を表示装置へ表示し得る。
 第8態様において、第一画像処理の結果を記憶する第一画像処理結果記憶部を備え得る。
 第一画像処理の処理結果は、第一画像を適用してもよいし、観察画像及び観察画像に関連付けされた第一画像処理の処理結果を表す情報の組み合わせを適用してもよい。
 第9態様は、第8態様の医療画像処理装置において、未観察画像に対して第二画像処理を実施して第二画像を生成する第二画像生成部を備え、表示信号送信部は、第二画像を表す表示信号を第二表示信号として表示装置へ送信する構成としてもよい。
 第9態様によれば、未観察画像に対して第二画像処理を実施した第二画像を表示装置へ表示し得る。
 第10態様は、第9態様の医療画像処理装置において、第一画像処理部は、観察画像に対する注目領域の強調処理を実施し、第二画像処理部は、未観察画像に対して観察画像に対する注目領域の強調処理よりも強調度合いを強める強調処理を実施する構成としてもよい。
 第10様によれば、観察画像の強調処理よりも強調度合いを強めた第二画像を表示装置へ表示し得る。これにより、第二画像における注目領域の視認が容易となる。
 第11態様は、第9態様又は第10態様の医療画像処理装置において、第二画像処理部は、複数の未観察画像のそれぞれに対して第二画像処理を実施し、表示信号送信部は、複数の第二画像のそれぞれに対応する表示信号を第二表示信号として表示装置へ送信する構成としてもよい。
 第11態様によれば、複数の未観察画像又は複数の第二画像を表示装置に表示し得る。これにより、ユーザは複数の未観察画像又は複数の第二画像を利用する観察画像における注目領域の探索を実施し得る。
 第12態様は、第11態様の医療画像処理装置において、表示装置へ表示される複数の未観察画像から一以上の未観察画像を選択するか、又は表示装置へ表示される複数の第二画像から一以上の第二画像を選択する選択部を備えた構成としてもよい。
 第12態様によれば、ユーザは複数の未観察画像から観察画像における注目領域の探索に適用される未観察画像を設定するか、又は複数の第二画像から観察画像における注目領域の探索に適用される第二画像を設定し得る。
 第13態様は、第9態様から第12態様のいずれか一態様の医療画像処理装置において、表示装置へ表示される未観察画像又は第二画像処理の処理結果に対して第三画像処理を施す第三画像処理部を備えた構成としてもよい。
 第13態様によれば、未観察画像又は第二画像に対して第三画像処理を実施し得る。
 第14態様は、第13態様の医療画像処理装置において、第三画像処理の処理結果を記憶する第三画像処理結果記憶部を備えた構成としてもよい。
 第14態様によれば、第三画像処理の処理結果を記憶し得る。
 第三画像処理結果記憶部は、第三画像処理の処理結果として第三画像を記憶し得る。第三画像処理結果記憶部は、第三画像処理の処理結果として、処理対象の画像及び処理対象の画像と関連付けされた第三画像処理の処理結果を表す情報の組み合わせを記憶してもよい。
 第15態様は、第13態様又は第14態様の医療画像処理装置において、第三画像処理部は、未観察画像の編集を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、未観察画像の編集を実施するか、又は第二画像の編集を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、第二画像の編集を実施する構成としてもよい。
 第15態様によれば、ユーザ入力信号の取得に応じて、未観察画像又は第二画像の編集を実施し得る。
 第16態様は、第13態様から第15態様のいずれか一態様の医療画像処理装置において、第三画像処理部は、未観察画像の外部装置への送信を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、未観察画像を外部装置へ送信するか、又は第二画像の外部装置への送信を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、第二画像を外部装置へ送信する構成としてもよい。
 第16態様によれば、未観察画像又は第二画像の外部装置への送信を実施し得る。
 第17態様は、第13態様から第16態様のいずれか一態様の医療画像処理装置において、第三画像処理部は、複数の未観察画像の並べ替えを表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、複数の未観察画像の並べ替えを実施するか、又は複数の第二画像の並べ替えを表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、複数の第二画像の並べ替えを実施する構成としてもよい。
 第17態様によれば、複数の未観察画像又は複数の第二画像が表示装置に表示される態様において、複数の未観察画像の並べ替え又は複数の第二画像等の並べ替えを実施し得る。
 第18態様は、第13態様から第17態様のいずれか一態様の医療画像処理装置において、第三画像処理部は、未観察画像の削除を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、未観察画像を削除するか、又は第二画像の削除を表すユーザ入力信号をユーザ入力信号取得部が取得した場合に、第二画像を削除する構成としてもよい。
 第18態様によれば、ユーザ入力信号の取得に応じて、未観察画像又は第二画像を削除し得る。
 第19態様は、第6態様から第18態様のいずれか一態様の医療画像処理装置において、表示信号送信部は、第二表示信号の送信タイミングから規定の期間が経過した後に、第二表示信号の送信を停止する構成としてもよい。
 第19態様によれば、未観察画像又は第二画像の非表示を自動的に実施し得る。
 第20態様は、第6態様から第18態様のいずれか一態様の医療画像処理装置において、表示信号送信部は、未観察の注目領域が表示装置へ表示された場合に、第二表示信号の送信を停止する構成としてもよい。
 第20態様によれば、探索対象の注目領域が発見された場合に、未観察画像又は第二画像の非表示を実施し得る。
 第21態様は、第1態様から第19態様のいずれか一態様の医療画像処理装置において、ユーザが操作するユーザ操作部を備え、ユーザ入力信号取得部は、ユーザ操作部をユーザが操作する際に送信されるユーザ入力信号を取得する構成としてもよい。
 第21態様によれば、ユーザの操作に応じてユーザ入力信号を送信し得る。
 第22態様は、第1態様から第21態様のいずれか一態様の医療画像処理装置において、ユーザの音声を取得する音声取得部を備え、ユーザ入力信号取得部は、音声取得部を用いて取得したユーザの音声を表すユーザ入力信号を取得する構成としてもよい。
 第22態様によれば、ユーザの音声に応じてユーザ入力信号を送信し得る。
 第23態様は、第1態様から第22態様のいずれか一態様の医療画像処理装置において、注目領域検出部を用いて注目領域が検出されたフレーム画像から注目領域の観察済みを表す観察済画像を記憶する観察済画像記憶部を備えた構成としてもよい。
 第23態様によれば、観察済画像が記憶される。これにより、観察済画像を用いて観察の注目領域の探索を支援し得る。
 第24態様は、第1態様から第23態様のいずれか一態様の医療画像処理装置において、観察画像における注目領域の検出を報知する報知部を備えた構成としてもよい。
 第24態様によれば、ユーザは注目領域の検出を認識し得る。
 第25態様に係る内視鏡システムは、内視鏡と、内視鏡を制御する内視鏡制御装置と、内視鏡を用いて取得した内視鏡画像に処理を施す医療画像処理装置と、を備えた内視鏡システムであって、医療画像処理装置は、被写体の観察画像を取得する画像取得部と、観察画像を表す第一表示信号を表示装置へ送信する表示信号送信部と、観察画像を構成するフレーム画像から注目領域を検出する注目領域検出部と、注目領域が検出されたフレーム画像から注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶部と、を備えた内視鏡システムである。
 第25態様によれば、第1態様と同様の効果を得ることができる。
 第25態様において、第2態様から第24態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。
 第26態様に係る医療画像処理方法は、被写体の観察画像を取得する画像取得工程と、観察画像を表す第一表示信号を表示装置へ送信する表示信号送信工程と、観察画像を構成するフレーム画像から注目領域を検出する注目領域検出工程と、注目領域が検出されたフレーム画像から注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶工程と、を含む医療画像処理方法である。
 第26態様によれば、第1態様と同様の効果を得ることができる。
 第26態様において、第2態様から第24態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医療画像処理方法の構成要素として把握することができる。
 第27態様に係るプログラムは、コンピュータに、被写体の観察画像を取得する画像取得機能、観察画像を表す第一表示信号を表示装置へ送信する表示信号送信機能、観察画像を構成するフレーム画像から注目領域を検出する注目領域検出機能、及び注目領域が検出されたフレーム画像から注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶機能を実現させるプログラムである。
 第27態様によれば、第1態様と同様の効果を得ることができる。
 第27態様において、第2態様から第24態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
 本発明によれば、注目領域が検出された観察画像から、未観察条件を満たす未観察の注目領域を含むフレーム画像が記憶される。これにより、未観察画像を用いた未観察の注目領域の探索を支援し得る。
図1は実施形態に係る画像処理装置を含む内視鏡システムの全体構成図である。 図2は内視鏡システムの機能ブロック図である。 図3は第一実施形態に係る画像処理装置の機能ブロック図である。 図4は第一実施形態に係る画像処理方法の手順を示すフローチャートである。 図5は観察画像の模式図である。 図6は第一画像の模式図である。 図7は未観察の注目領域の表示を表すユーザ入力信号を取得した場合の画面の模式図である。 図8は未観察画像表示領域の非表示の模式図である。 図9は第二実施形態に係る画像処理装置の機能ブロック図である。 図10は第二実施形態に係る画像処理方法の手順を示すフローチャートである。 図11は強調の度合いを強める画像処理が適用される第二画像の模式図である。 図12は複数の第二画像を表示する態様の模式図である。 図13は複数の第二画像を表示する態様における第二画像の選択の模式図である。 図14は第三実施形態に係る画像処理装置の機能ブロック図である。 図15は第三実施形態に係る画像処理方法の手順を示すフローチャートである。 図16は第三画像処理の一例の説明図である。
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略する。
 [内視鏡システムの全体構成]
 図1は実施形態に係る画像処理装置を含む内視鏡システムの全体構成図である。内視鏡システム10は、内視鏡本体100、プロセッサ装置200、光源装置300及びモニタ400を備える。なお、同図には内視鏡本体100に具備される先端硬質部116の一部を拡大して図示する。
 〔内視鏡本体の構成例〕
 内視鏡本体100は、手元操作部102及び挿入部104を備える。ユーザは、手元操作部102を把持して操作し、挿入部104を被検体の体内に挿入して、被検体の体内を観察する。なお、ユーザは医師及び術者等と同義である。また、ここでいう被検体は患者及び被検査者と同義である。
 手元操作部102は、送気送水ボタン141、吸引ボタン142、機能ボタン143及び撮像ボタン144を備える。送気送水ボタン141は送気指示及び送水指示の操作を受け付ける。
 吸引ボタン142は吸引指示を受け付ける。機能ボタン143は各種の機能が割り付けられる。機能ボタン143は各種機能の指示を受け付ける。撮像ボタン144は、撮像指示操作を受け付ける。撮像は動画像撮像及び静止画像撮像が含まれる。
 手元操作部102は、ユーザ入力部として機能する。図示を省略するが、ユーザ入力部としてフットスイッチを備えてもよい。フットスイッチは、ペダル、ペダル指示部及びケーブルを備える。ケーブルはプロセッサ装置200と接続される。
 ユーザは、フットスイッチを操作してプロセッサ装置200へユーザ入力信号を送信し得る。プロセッサ装置200は、フットスイッチから送信されたユーザ入力信号を取得し、ユーザ入力信号に対応する処理を実施する。
 挿入部104は、軟性部112、湾曲部114及び先端硬質部116を備える。軟性部112、湾曲部114及び先端硬質部116は、手元操作部102の側から、軟性部112、湾曲部114及び先端硬質部116の順に配置される。すなわち、先端硬質部116の基端側に湾曲部114が接続され、湾曲部114の基端側に軟性部112が接続され、挿入部104の基端側に手元操作部102が接続される。
 ユーザは、手元操作部102を操作し湾曲部114を湾曲させて、先端硬質部116の向きを上下左右に変えることができる。先端硬質部116は、撮像部、照明部及び鉗子口126を備える。
 図1では撮像部を構成する撮影レンズ132を図示する。また、同図では照明部を構成する照明用レンズ123A及び照明用レンズ123Bを図示する。なお、撮像部は符号130を付して図2に図示する。また、照明部は符号123を付して図2に図示する。
 観察及び処置の際に、図2に示す操作部208の操作に応じて、照明用レンズ123A及び照明用レンズ123Bを介して、白色光及び狭帯域光の少なくともいずれかが出力される。
 送気送水ボタン141が操作された場合、送水ノズルから洗浄水が放出されるか、又は送気ノズルから気体が放出される。洗浄水及び気体は照明用レンズ123A等の洗浄に用いられる。なお、送水ノズル及び送気ノズルの図示は省略する。送水ノズル及び送気ノズルを共通化してもよい。
 鉗子口126は管路と連通する。管路は処置具が挿入される。処置具は適宜進退可能に支持される。腫瘍等の摘出等の際に、処置具を適用して必要な処置が実施される。なお、鉗子口126と連通する管路の図示は省略する。
 図2は内視鏡システムの機能ブロック図である。内視鏡本体100は、撮像部130を備える。撮像部130は先端硬質部116の内部に配置される。撮像部130は、撮影レンズ132、撮像素子134、駆動回路136及びアナログフロントエンド138を備える。なお、図2に示すAFEはAnalog Front Endの省略語である。
 撮影レンズ132は先端硬質部116の先端側端面116Aに配置される。撮影レンズ132の先端側端面116Aと反対側の位置には、撮像素子134が配置される。撮像素子134は、CMOS型のイメージセンサが適用される。撮像素子134はCCD型のイメージセンサを適用してもよい。なお、CMOSはComplementary Metal-Oxide Semiconductorの省略語である。CCDはCharge Coupled Deviceの省略語である。
 撮像素子134はカラー撮像素子が適用される。カラー撮像素子の例としてRGBに対応するカラーフィルタを備えた撮像素子が挙げられる。なお、RGBは赤、緑及び青のそれぞれの英語表記であるRed、Green及びYellowの頭文字である。
 撮像素子134はモノクロ撮像素子を適用してもよい。撮像素子134にモノクロ撮像素子が適用される場合、撮像部130は、撮像素子134の入射光の波長帯域を切り替えて、面順次又は色順次の撮像を実施し得る。
 駆動回路136は、プロセッサ装置200から送信される制御信号に基づき、撮像素子134の動作に必要な各種のタイミング信号を撮像素子134へ供給する。
 アナログフロントエンド138は、アンプ、フィルタ及びADコンバータを備える。なお、ADはアナログ及びデジタルのそれぞれの英語表記であるanalog及びdigitalの頭文字である。アナログフロントエンド138は、撮像素子134の出力信号に対して、増幅、ノイズ除去及びアナログデジタル変換等の処理を施す。アナログフロントエンド138の出力信号は、プロセッサ装置200へ送信される。
 観察対象の光学像は、撮影レンズ132を介して撮像素子134の受光面に結像される。撮像素子134は、観察対象の光学像を電気信号へ変換する。撮像素子134から出力される電気信号は、信号線を介してプロセッサ装置200へ送信される。
 照明部123は先端硬質部116に配置される。照明部123は、照明用レンズ123A及び照明用レンズ123Bを備える。照明用レンズ123A及び照明用レンズ123Bは、先端側端面116Aにおける撮影レンズ132の隣接位置に配置される。
 照明部123は、ライトガイド170を備える。ライトガイド170の射出端は、照明用レンズ123A及び照明用レンズ123Bの先端側端面116Aと反対側の位置に配置される。
 ライトガイド170は、図1に示す挿入部104、手元操作部102及びユニバーサルケーブル106に挿入される。ライトガイド170の入射端は、ライトガイドコネクタ108の内部に配置される。なお、実施形態に記載の内視鏡本体100は内視鏡の一例に相当する。
 〔プロセッサ装置の構成例〕
 プロセッサ装置200は、画像入力コントローラ202、画像処理部204及びビデオ出力部206を備える。画像入力コントローラ202は、内視鏡本体100から送信される、観察対象の光学像に対応する電気信号を取得する。
 画像処理部204は、観察対象の光学像に対応する電気信号である撮像信号に基づき、観察対象の内視鏡画像を生成する。なお、本明細書における画像という用語は、画像自体及び画像を表す画像データの意味を含み得る。画像は動画像及び静止画像を含み得る。なお、内視鏡画像は符号38を付して図3に図示する。
 画像処理部204は、撮像信号に対してホワイトバランス処理及びシェーディング補正処理等のデジタル信号処理を適用した画質補正を実施し得る。画像処理部204は、DICOM規格で規定された付帯情報を内視鏡画像へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。
 ビデオ出力部206は、画像処理部204を用いて生成された画像を表す表示信号をモニタ400へ送信する。モニタ400は観察対象の画像を表示する。
 プロセッサ装置200は、図1に示す撮像ボタン144が操作された際に、内視鏡本体100から送信される撮像指示信号に応じて、画像入力コントローラ202及び画像処理部204等を動作させる。
 プロセッサ装置200は、内視鏡本体100から静止画像撮像を表すフリーズ指示信号を取得した場合に、画像処理部204を適用して、撮像ボタン144の操作タイミングにおけるフレーム画像に基づく静止画像を生成する。プロセッサ装置200は、静止画像をモニタ400へ表示させる。なお、フレーム画像は符号38Bを付して図3に図示する。静止画像は符号39を付して図3に図示する。
 プロセッサ装置200は通信制御部205を備える。通信制御部205は、病院内システム及び病院内LAN等を介して通信可能に接続される装置との通信を制御する。通信制御部205はDICOM規格に準拠した通信プロトコルを適用し得る。なお、病院内システムの例として、HIS(Hospital Information System)が挙げられる。LANはLocal Area Networkの省略語である。
 プロセッサ装置200は記憶部207を備える。記憶部207は、内視鏡本体100を用いて生成された内視鏡画像を記憶する。記憶部207は、内視鏡画像に付帯する各種情報を記憶してもよい。
 プロセッサ装置200は操作部208を備える。操作部208はユーザの操作に応じた指示信号を出力する。操作部208は、キーボード、マウス及びジョイスティック等を適用し得る。
 操作部208から送信されるユーザ入力信号は、CPU210へ送信される。CPU210は、操作部208から送信されるユーザ入力信号を取得し、取得したユーザ入力信号に対応する制御を実施する。操作部208は上記したフットスイッチを含み得る。
 CPU210は、図1に示す手元操作部102から送信されるユーザ入力信号を取得し、取得したユーザ入力信号に対応する内視鏡本体100の制御、プロセッサ装置200の制御及び光源装置300の制御を実施する。
 プロセッサ装置200は、音声処理部209及びスピーカ209Aを備える。音声処理部209は音声として報知される情報を表す音声信号を生成する。スピーカ209Aは、音声処理部209を用いて生成された音声信号を音声へ変換する。スピーカ209Aから出力される音声の例として、メッセージ、音声ガイダンス及び警告音等が挙げられる。
 プロセッサ装置200は、CPU210、ROM211及びRAM212を備える。なお、CPUはCentral Processing Unitの省略語である。ROMはRead Only Memory省略語である。RAMはRandom Access Memoryの省略語である。
 CPU210は、プロセッサ装置200の全体制御部として機能する。CPU210は、ROM211及びRAM212を制御するメモリコントローラとして機能する。ROM211は、プロセッサ装置200に適用される各種のプログラム及び制御パラメータ等が記憶される。
 RAM212は各種処理におけるデータの一時記憶領域及びCPU210を用いた演算処理の処理領域に適用される。RAM212は内視鏡画像を取得した際のバッファメモリに適用し得る。
 プロセッサ装置200は、内視鏡本体100を用いて生成された内視鏡画像に対して各種の処理を実施し、内視鏡画像及び内視鏡画像に付帯する各種情報をモニタ400へ表示させる。プロセッサ装置200は、内視鏡画像及び内視鏡画像に付帯する各種情報を記憶する。
 すなわち、プロセッサ装置200は、内視鏡本体100を用いた内視鏡検査において、モニタ400を用いた内視鏡画像等の表示、スピーカ209Aを用いた音声情報の出力及び内視鏡画像に対する各種処理を実施する。
 プロセッサ装置200は、画像処理部204などの構成要素を用いて、医用画像に対して規定の処理を実施する画像処理装置として機能し得る。規定の処理の例として、注目領域の検出処理、注目領域の強調処理、注目領域の分類処理、医用画像の鑑別処理及び注目領域の測定処理等が挙げられる。
 〔プロセッサ装置のハードウェア構成〕
 プロセッサ装置200はコンピュータを適用し得る。コンピュータは、以下のハードウェアを適用し、規定のプログラムを実行してプロセッサ装置200の機能を実現し得る。なお、プログラムはソフトウェアと同義である。
 プロセッサ装置200は、信号処理を実施する信号処理部として各種のプロセッサを適用し得る。プロセッサの例として、CPU及びGPU(Graphics Processing Unit)が挙げられる。CPUはプログラムを実行して信号処理部として機能する汎用的なプロセッサである。GPUは画像処理に特化したプロセッサである。プロセッサのハードウェアは、半導体素子等の電気回路素子を組み合わせた電気回路が適用される。各制御部は、プログラム等が記憶されるROM及び各種演算の作業領域等であるRAMを備える。
 一つの信号処理部に対して二つ以上のプロセッサを適用してもよい。二つ以上のプロセッサは、同じ種類のプロセッサでもよいし、異なる種類のプロセッサでもよい。また、複数の信号処理部に対して一つのプロセッサを適用してもよい。なお、実施形態に記載のプロセッサ装置200は内視鏡制御装置の一例に相当する。
 〔光源装置の構成例〕
 光源装置300は、光源310、絞り330、集光レンズ340及び光源制御部350を備える。光源装置300は、ライトガイド170へ観察光を入射させる。光源310は、赤色光源310R、緑色光源310G及び青色光源310Bを備える。赤色光源310R、緑色光源310G及び青色光源310Bはそれぞれ、赤色、緑色及び青色の狭帯域光を放出する。
 光源310は、赤色、緑色及び青色の狭帯域光を任意に組み合わせた照明光を生成し得る。例えば、光源310は赤色、緑色及び青色の狭帯域光を組み合わせて白色光を生成し得る。また、光源310は赤色、緑色及び青色の狭帯域光の任意の二色を組み合わせて狭帯域光を生成し得る。
 光源310は赤色、緑色及び青色の狭帯域光の任意の一色を用いて狭帯域光を生成し得る。光源310は、白色光又は狭帯域光を選択的に切り替えて放出し得る。なお、狭帯域光は特殊光と同義である。光源310は、赤外光を放出する赤外光源及び紫外光を放出する紫外光源等を備え得る。
 光源310は、白色光を放出する白色光源、白色光を通過させるフィルタ及び狭帯域光を通過させるフィルタを備える態様を採用し得る。かかる態様の光源310は、白色光を通過させるフィルタ及び狭帯域光を通過させるフィルタを切り替えて、白色光又は狭帯域光のいずれかを選択的に放出し得る。
 狭帯域光を通過させるフィルタは、異なる帯域に対応する複数のフィルタが含まれ得る。光源310は、異なる帯域に対応する複数のフィルタを選択的に切り替えて、帯域が異なる複数の狭帯域光を選択的に放出し得る。
 光源310は、観察対象の種類及び観察の目的等に応じた、種類及び波長帯域等を適用し得る。光源310の種類の例として、レーザ光源、キセノン光源及びLED光源等が挙げられる。なお、LEDはLight-Emitting Diodeの省略語である。
 光源装置300へライトガイドコネクタ108が接続された際に、光源310から放出された観察光は、絞り330及び集光レンズ340を介して、ライトガイド170の入射端へ到達する。観察光は、ライトガイド170及び照明用レンズ123A等を介して、観察対象へ照射される。
 光源制御部350は、プロセッサ装置200から送信される指示信号に基づき、光源310及び絞り330へ制御信号を送信する。光源制御部350は、光源310から放出される観察光の照度、観察光の切り替え及び観察光のオンオフ等を制御する。
 [第一実施形態に係る画像処理装置の構成例]
 〔概要〕
 内視鏡本体100を操作する医師が観察画像における病変等の注目領域を見逃して、内視鏡検査を進めた場合に、音声報知及び注目領域の強調画像等のトリガに起因して、注目領域の見逃しに気付く場合がある。注目領域の見逃しに気付いた場合、医師は内視鏡本体100を操作して未観察の注目領域を探索することがある。
 本実施形態に示す画像処理装置は、未観察の注目領域の再表示を表すユーザ入力信号を医師が送信した場合に、未観察の注目領域を含むフレーム画像である未観察画像を読み出して、図1に示すモニタ400へ表示させる。未観察画像は、観察画像が表示される観察画像表示領域とは別の領域に表示される。これにより、医師は観察画像と未観察画像との比較が可能となり、観察画像において見逃した注目領域の探索が可能となる。
 観察画像とは、内視鏡検査の際にモニタ400へ表示される、観察対象のリアルタイムの内視鏡画像である。観察画像は動画像でもよいし、静止画像でもよい。なお、実施形態に記載の観察対象は被写体の一例に相当する。実施形態に記載のモニタ400は表示装置の一例に相当する。
 リアルタイムの内視鏡画像は、撮像タイミングから信号処理等に起因する一定の遅延期間が経過した後に、モニタ400へ表示される場合を含み得る。本実施形態に示す画像処理装置は、医用画像処理装置及び医療画像処理装置と同義である。第二実施形態及び第三実施形態についても同様である。
 図3は第一実施形態に係る画像処理装置の機能ブロック図である。同図に示す画像処理装置14は、図2に示すプロセッサ装置200における画像処理部204等の構成要素を適用して実現される。画像処理装置14は、画像取得部40、ユーザ入力信号取得部42、表示制御部44及び報知部46を備える。
 画像処理装置14は、注目領域検出部50、未観察条件判定部51、第一画像処理部52、内視鏡画像記憶部70、未観察画像記憶部71、観察済画像記憶部71A及び第一画像処理結果記憶部72を備える。以下、各部について説明する。
 〔画像取得部〕
 画像取得部40は、図1に示す内視鏡本体100を用いて撮像した内視鏡画像38を取得する。以下、内視鏡画像38の取得は、動画像38Aの取得、フレーム画像38Bの取得及び静止画像39の取得を含み得る。
 画像取得部40は、内視鏡画像38を内視鏡画像記憶部70へ記憶する。画像取得部40は、内視鏡画像38を表す信号を伝送するケーブルを介して、プロセッサ装置200から内視鏡画像38を取得してもよい。
 画像取得部40は、メモリカード等の情報記憶媒体を介して、プロセッサ装置200から内視鏡画像38を取得してもよい。画像取得部40は、通信ネットワークを介して内視鏡画像38を取得してもよい。
 画像取得部40は、時系列のフレーム画像38Bから構成される動画像38Aを取得し得る。画像取得部40は動画像38Aの撮像途中に静止画像撮像が実施された場合に、静止画像39を取得し得る。画像取得部40は、図2に示す画像入力コントローラ202に対応する。
 〔ユーザ入力信号取得部〕
 ユーザ入力信号取得部42は、ユーザの操作部30の操作に応じて操作部30から送信されるユーザ入力信号を取得する。図3に示す操作部30は、図1に示す手元操作部102、図2に示す操作部208及び図示しないフットスイッチ等を含み得る。
 ユーザ入力信号取得部42は、ユーザの音声を取得するマイクロフォンを備えてもよい。すなわち、ユーザ入力信号取得部42は、ユーザの音声に基づくユーザ入力信号を取得してもよい。
 なお、実施形態に記載の操作部30はユーザ操作部の一例に相当する。実施形態に記載のマイクロフォンはユーザの音声を取得する音声取得部の一例に相当する。
 〔表示制御部〕
 表示制御部44は、内視鏡画像38を表す表示信号をモニタ400へ送信する。モニタ400は内視鏡画像38を観察画像として表示する。表示制御部44は、内視鏡画像38から注目領域が検出された場合に、内視鏡画像38に対して第一画像処理部52を用いて第一画像処理が実施された第一画像を表す表示信号をモニタ400へ送信する。
 表示制御部44は、未観察の注目領域の表示を表すユーザ入力信号をユーザ入力信号取得部42が取得した場合に、未観察画像を表す表示信号をモニタ400へ送信する。モニタ400は、未観察画像を表示する。
 表示制御部44は、モニタ400へ表示される未観察画像の非表示条件に基づき、未観察画像の非表示を実施する。表示制御部44は、図2に示すビデオ出力部206に対応する。
 なお、実施形態に記載の表示制御部44は、観察画像を表す第一表示信号を表示装置へ送信する表示信号送信部の一例に相当する。実施形態に記載の内視鏡画像38を表す表示信号は第一表示信号の一例に相当する。実施形態に記載の未観察画像を表す表示信号は第二表示信号の一例に相当する。
 〔報知部〕
 報知部46は、内視鏡画像38を構成するフレーム画像38Bから注目領域が検出された場合に、内視鏡画像38における注目領域の検出を表す報知を実施する。報知部46は、図2に示すスピーカ209Aを用いた音声報知を実施し得る。報知部46は、モニタ400を用いた文字情報等の報知を実施し得る。
 〔注目領域検出部〕
 注目領域検出部50は、CNN(Convolutional Neural Network)等の学習器を適用して、画像取得部40を用いて取得したフレーム画像38Bから注目領域を検出する。注目領域検出部50は、フレーム画像38Bの特徴量を導出し特徴量に基づき注目領域の有無を判定する。
 注目領域検出部50は、フレーム画像38Bとフレーム画像38Bにおける注目領域とのペアを学習データとして学習を実施した学習済みの学習器が適用される。注目領域の検出の例として、病変の検出及び特定臓器の検出等が挙げられる。
 〔未観察条件判定部〕
 未観察条件判定部51は、注目領域が検出されたフレーム画像38Bについて、未観察画像記憶部71へ記憶するフレーム画像38Bの条件を満たすか否かを判定する。すなわち、未観察条件判定部51は、注目領域が検出されたフレーム画像38Bについて、未観察画像であるか否かを判定する。
 注目領域の観察が実施される場合、医師は撮像部130の移動を停止させるか、又は撮像部130の移動速度を遅くすると考えられる。そうすると、注目領域の観察が実施される場合は、注目領域の観察が非実施の場合と比較して、同一の注目領域が含まれるフレーム画像38Bの数が多くなる。
 したがって、同一の注目領域が含まれるフレーム画像38Bの規定数を予め設定し、未観察条件判定部51は、規定の期間内に同一の注目領域が含まれるフレーム画像38Bが規定数以下の場合に未観察画像と判定する。規定数は、撮像部130のフレームレート及び撮像部130の移動速度に応じて規定し得る。規定数は1以上の任意の整数を適用し得る。同一の注目領域が含まれるフレーム画像38Bは連続する場合が多いが、画面がちらついて注目領域の検出が途切れる場合があり得る。規定数は、連続するフレーム画像38Bの数としてもよいし、非連続のフレーム画像38Bの数としてもよい。
 撮像部130の移動は、内視鏡検査における内視鏡本体100の移動経路に沿う撮像部130の移動を表す。また、移動速度は移動速度の絶対値を表す速さの概念が含まれ得る。
 注目領域の観察が実施される場合は、注目領域の観察が非実施の場合と比較して、撮像部130の撮像方向の変更が多くなると考えられる。そうすると、未観察条件判定部51は、撮像部130の移動ベクトルの変化等のフレーム画像38B間の変化量に基づき、医師が未観察のフレーム画像38Bであるか否かを判定し得る。すなわち、未観察条件判定部51は、フレーム画像38Bの間の変化量が規定の閾値以上の場合は未観察画像と判定し得る。フレーム画像38B間の変化量の他の例として、フレーム画像38B間の相互相関関数の値等が挙げられる。
 また、注目領域の観察は画面の中央部で行われる場合が多い。そこで、注目領域が画面の外側に留まったままフレームアウトする場合は未観察画像と判定し得る。換言すると、未観察条件判定部51は、規定の期間内に同一の注目領域が画面の非中央部に留まる場合に、未観察画像と判定し得るここで、画像の中央部とは画面の中心又は重心を含む領域であり、画面の端を含まない領域である。一方、画像の外側は画面の中心又は重心を含まない領域であり、画面の端を含む領域である。
 すなわち、未観察条件判定部51は、同一の注目領域が含まれるフレーム画像38Bの数、フレーム画像38B間の変化量、及び注目領域の画面における位置の少なくともいずれかにおいて観察が非実施と判定された場合は未観察画像と判定し得る。
 未観察条件判定部51は、注目領域が検出されたフレーム画像38Bが、未観察画像記憶部71へ記憶する未観察画像の条件を満たす場合に、未観察画像として未観察画像記憶部71へ記憶する。
 一方、未観察条件判定部51は、注目領域が検出されたフレーム画像38Bが、未観察画像記憶部71へ記憶する未観察画像の条件を満たさない場合に、観察済画像として観察済画像記憶部71Aへ記憶する。
 〔第一画像処理部〕
 第一画像処理部52は、内視鏡画像38を構成するフレーム画像38Bから注目領域が検出された場合、注目領域を含むフレーム画像38Bに対して第一画像処理を実施する。ここでいう内視鏡画像38及び注目領域を含むフレーム画像38Bは上記した観察画像に対応する。
 第一画像処理は、注目領域の強調処理を適用し得る。第一画像処理部52は、フレーム画像38Bから検出された注目領域を強調する強調画像を生成する。強調画像の例として、注目領域に対して重畳させるバウンディングボックス、注目領域に対して付加される規定の色及び模様等が挙げられる。
 第一画像処理部52は、注目領域の位置を特定し、注目領域の位置に応じて強調画像の位置を規定する。第一画像処理部52は、注目領域のサイズを特定し、注目領域のサイズに応じて強調画像のサイズを規定する。
 第一画像処理部52は、第一画像処理の処理結果を第一画像処理結果記憶部72へ記憶する。第一画像処理結果記憶部72は、注目領域が検出されたフレーム画像38Bに強調画像が付加された第一画像を記憶し得る。第一画像処理結果記憶部72は、注目領域を含むフレーム画像38B及び注目領域を含むフレーム画像38Bと関連付けされた強調画像の情報の組み合わせを記憶してもよい。すなわち、第一画像処理部52は、フレーム画像38Bのファイル及び強調画像のファイルを別ファイルとして記憶させてもよい。
 第一画像処理部52は、表示制御部44を用いて、観察画像として強調画像を重畳表示させたフレーム画像38Bをモニタ400へ表示する。報知部46は、強調画像を重畳表示させたフレーム画像38Bを用いて、内視鏡画像38における注目領域の検出を表す報知を実施し得る。
 〔内視鏡画像記憶部〕
 内視鏡画像記憶部70は、画像取得部40を用いて取得した内視鏡画像38を記憶する。静止画像撮像が実施された場合、内視鏡画像記憶部70は静止画像撮像において生成された静止画像39を記憶する。
 〔未観察画像記憶部〕
 未観察画像記憶部71は、未観察画像を記憶する。未観察の注目領域の表示を表すユーザ入力信号を取得した場合に、表示制御部44は未観察画像記憶部71へ記憶された未観察画像を読み出す。
 未観察画像記憶部71は、未観察画像が記憶されている際に新たに未観察画像が発生した場合に、既に記憶されている未観察画像に代わり新たな未観察画像を記憶してもよい。
 未観察画像記憶部71は、未観察画像の記憶数を規定してもよい。また、未観察画像記憶部71は、未観察画像の記憶期間を規定してもよい。すなわち、未観察画像記憶部71は、再表示をさせる可能性が高い未観察画像を記憶し、再表示をさせる可能性が低い未観察画像を削除してもよい。なお、図3では未観察画像の図示を省略する。
 〔観察済画像記憶部〕
 観察済画像記憶部71Aは、観察済画像を記憶する。観察済みの注目領域の表示を表すユーザ入力信号を取得した場合に、表示制御部44は観察済画像記憶部71Aへ記憶された観察済画像を読み出す。
 〔第一画像処理結果記憶部〕
 第一画像処理結果記憶部72は、第一画像処理部52を用いて実施された第一画像処理の処理結果を記憶する。第一画像処理結果は、第一画像を適用してもよいし、フレーム画像38B及びフレーム画像38Bと対応付けした注目領域の情報の組み合わせを適用してもよい。
 内視鏡画像記憶部70、未観察画像記憶部71、観察済画像記憶部71A及び第一画像処理結果記憶部72のそれぞれは、一つ以上の記憶素子を適用し得る。すなわち、画像処理装置14は、内視鏡画像記憶部70、未観察画像記憶部71、観察済画像記憶部71A及び第一画像処理結果記憶部72のそれぞれに対応する四つの記憶素子を備え得る。
 内視鏡画像記憶部70、未観察画像記憶部71、観察済画像記憶部71A及び第一画像処理結果記憶部72は、任意の二つから四つを一つの記憶素子を用いて構成し得る。例えば、一つの記憶素子を用いて内視鏡画像記憶部70、未観察画像記憶部71及び観察済画像記憶部71Aを構成し得る。
 [第一実施形態に係る画像処理方法の手順]
 図4は第一実施形態に係る画像処理方法の手順を示すフローチャートである。なお、本実施形態に示す画像処理方法は、医用画像処理方法及び医療画像処理方法等と同義である。第二実施形態及び第三実施形態についても同様である。
 内視鏡画像取得工程S10では、図3に示す画像取得部40は内視鏡画像38を取得する。内視鏡画像取得工程S10では、画像取得部40は内視鏡画像記憶部70へ内視鏡画像38を記憶する。内視鏡画像取得工程S10の後に注目領域検出工程S12へ進む。
 注目領域検出工程S12では、注目領域検出部50は内視鏡画像38を構成する各フレーム画像38Bから注目領域を検出する。注目領域検出工程S12では、注目領域検出部50は動画像38Aの全てのフレーム画像38Bから注目領域を検出してもよいし、規定の期間おきのフレーム画像38Bから注目領域を検出してもよい。注目領域検出工程S12の後に報知工程S14へ進む。
 報知工程S14では、報知部46はフレーム画像38Bにおける注目領域の検出を表す報知を実施する。報知を停止する報知停止工程を実施してもよい。報知工程S14の後に第一画像処理工程S16へ進む。
 第一画像処理工程S16では、第一画像処理部52は注目領域が検出されたフレーム画像38Bに対して第一画像処理を実施する。第一画像処理工程S16の後に第一画像処理結果記憶工程S17へ進む。第一画像処理工程S16を実施した後に、報知工程S14を実施してもよい。
 第一画像処理結果記憶工程S17では、第一画像処理部52は第一画像処理結果記憶部72へ第一画像処理の処理結果を記憶する。第一画像処理結果記憶工程S17の後に未観察条件判定工程S18へ進む。第一画像処理結果記憶工程S17の後に第一画像を表示する表示工程を実施してもよい。また、第一画像処理工程S16及び第一画像処理結果記憶工程S17を省略してもよい。
 未観察条件判定工程S18では、未観察条件判定部51は注目領域が検出されたフレーム画像38Bが未観察条件を満たすが否かを判定する。すなわち、未観察条件判定工程S18では、未観察条件判定部51は注目領域が検出されたフレーム画像38Bが未観察画像であるか否かを判定する。
 未観察条件判定工程S18において、未観察条件判定部51が未観察条件を満たさないと判定する場合はNo判定となる。No判定の場合はユーザ入力信号取得判定工程S20へ進む。
 一方、未観察条件判定工程S18において、未観察条件判定部51が未観察条件を満たすと判定する場合はYes判定となる。Yes判定の場合は未観察画像記憶工程S19へ進む。
 未観察画像記憶工程S19では、未観察条件判定部51は未観察画像を未観察画像記憶部71へ記憶する。未観察画像記憶工程S19の後にユーザ入力信号取得判定工程S20へ進む。未観察画像記憶工程S19の前後に、又は未観察画像記憶工程S19と並行して、観察済画像を観察済画像記憶部71Aへ記憶する観察済画像記憶工程を実施し得る。
 ユーザ入力信号取得判定工程S20では、ユーザ入力信号取得部42は未観察の注目領域の表示を表すユーザ入力信号を取得したか否かを判定する。ユーザ入力信号取得判定工程S20において、ユーザ入力信号取得部42が、未観察の注目領域の表示を表すユーザ入力信号を取得していないと判定する場合はNo判定となる。No判定の場合は最終フレーム画像判定工程S32へ進む。
 一方、ユーザ入力信号取得判定工程S20において、ユーザ入力信号取得部42が、未観察の注目領域の表示を表すユーザ入力信号を取得したと判定する場合はYes判定となる。Yes判定の場合は表示信号送信工程S26へ進む。なお、ユーザ入力信号取得判定工程S20は、ユーザ入力信号取得工程の一例に相当する。
 表示信号送信工程S26では、表示制御部44は未観察を表す表示信号をモニタ400へ送信する。モニタ400は未観察を表示する。表示信号送信工程S26の後に非表示条件判定工程S28へ進む。
 非表示条件判定工程S28では、表示制御部44はモニタ400へ表示させた未観察画像の非表示条件を満たすか否かを判定する。非表示条件判定工程S28において、表示制御部44が未観察画像の非表示条件を満たしていないと判定する場合はNo判定となる。No判定の場合は非表示条件判定工程S28においてYes判定となるまで、非表示条件判定工程S28の実施を継続する。
 一方、非表示条件判定工程S28において、表示制御部44が未観察画像の非表示条件を満たしていると判定する場合はYes判定となる。Yes判定の場合は表示信号送信停止工程S30へ進む。なお、未観察画像の非表示条件の詳細は後述する。
 表示信号送信停止工程S30では、表示制御部44はモニタ400へ表示させた未観察画像を表す表示信号の送信を停止する。すなわち、表示信号送信停止工程S30において、表示制御部44は未観察画像を非表示とする。表示信号送信停止工程S30の後に最終フレーム画像判定工程S32へ進む。
 最終フレーム画像判定工程S32では、注目領域検出部50は画像取得部40を用いて取得した内視鏡画像38における最終のフレーム画像38Bに対する注目領域の検出処理を実施したか否かを判定する。
 最終フレーム画像判定工程S32において、注目領域検出部50が最終のフレーム画像38Bに対する注目領域の検出処理を実施していないと判定する場合はNo判定となる。No判定の場合は内視鏡画像取得工程S10へ進み、最終フレーム画像判定工程S32においてYes判定となるまで、内視鏡画像取得工程S10から最終フレーム画像判定工程S32までの各工程を繰り返し実施する。
 一方、最終フレーム画像判定工程S32において、注目領域検出部50が最終のフレーム画像38Bに対する注目領域の検出処理を実施したと判定する場合はYes判定となる。Yes判定の場合は、画像処理装置14は画像処理方法を終了させる。
 [内視鏡画像の表示例]
 図5は観察画像の模式図である。同図には、内視鏡画像38として大腸の観察画像の模式図を示す。図6から図11までの各図についても同様である。内視鏡画像38から注目領域が検出されない場合は、モニタ400の画面402における観察画像表示領域404へ、観察画像として内視鏡画像38がリアルタイムに表示される。
 すなわち、図5に示すモニタ400の画面402は、内視鏡検査中の内視鏡画像38の動画像38Aが、観察画像としてリアルタイムに表示される。図5に示す観察画像は、内視鏡画像38を構成するフレーム画像38Bから注目領域が検出されない場合を示す。
 図6は第一画像の模式図である。内視鏡画像38を構成するフレーム画像38Bから注目領域510が検出された場合、図3に示す第一画像処理部52は、注目領域510の検出結果に応じてフレーム画像38Bに対して第一画像処理を実施する。
 図6に示すモニタ400の画面402は、第一画像処理として注目領域510の強調処理が適用され、注目領域510が検出されたフレーム画像38Bに対して、注目領域510を囲むバウンディングボックス512が重畳表示された第一画像500を表示する。
 同一の注目領域510について複数の第一画像500が生成される場合、任意の一以上の第一画像500を記憶してもよい。図6には、任意のタイミングにおけるフレーム画像38Bに対応する第一画像500を示す。
 図7は未観察の注目領域の表示を表すユーザ入力信号を取得した場合の画面の模式図である。医師が注目領域510の検出の報知に起因して注目領域510の検出を把握した際に、見逃した注目領域510を画面402へ表示させたい場合ある。
 図3に示すユーザ入力信号取得部42が未観察の注目領域510の表示を表すユーザ入力信号を取得した際に、表示制御部44は、未観察画像記憶部71から未観察画像を読み出し、読み出した未観察画像39Aを画面402の未観察画像表示領域406へ表示させる。表示制御部44は、画面402の観察画像表示領域404へ未観察画像39Aをリアルタイム表示させる。これにより、未観察画像表示領域406に表示される未観察画像39Aを利用して、医師は内視鏡画像38を観察し、見逃した注目領域510を発見し得る。
 図7には、未観察画像39Aに対して注目領域510及びバウンディングボックス512が重畳表示される第二画像520を示す。すなわち、未観察画像表示領域406は、未処理の未観察画像39Aを表示してもよいし、未観察画像39Aに対して第二画像処理が実施された第二画像520を適用してもよい。なお、第二画像処理の詳細は後述する。
 [未観察画像表示領域の非表示条件]
 図8は未観察画像表示領域の非表示の模式図である。同図に示す画面402では、未観察画像表示領域406に表示されていた第二画像520が非表示とされる。図8には点線を用いて非表示とされた第二画像520を図示する。
 第二画像520の非表示条件は、第二画像520の表示開始タイミングからの規定期間の経過を適用し得る。すなわち、画像処理装置14はタイマーを備える。タイマーは第二画像520の表示開始タイミングからの期間を測定する。表示制御部44はタイマーの測定値に基づき第二画像520を非表示とし得る。なお、タイマーの図示は省略する。
 なお、実施形態に記載の表示制御部44は第二表示信号の送信タイミングから規定の期間が経過した後に第二表示信号の送信を停止する表示信号送信部の一例に相当する。
 第二画像520の非表示条件は、第二画像520における注目領域510と同一の注目領域510の視認を適用し得る。図3に示す注目領域検出部50は、第二画像520における注目領域510と、内視鏡画像38から検出される注目領域510との同一性を判定する。
 図3に示す注目領域検出部50は、第二画像520における注目領域510の特徴量と、内視鏡画像38から検出される注目領域510の特徴量とを比較し、比較結果に基づき両者の同一性を判定し得る。注目領域検出部50は注目領域510の特徴量として、画素値、画素数及び形状等の情報等を適用し得る。
 表示制御部44は、第二画像520における注目領域510と内視鏡画像38における注目領域510とが同一であることを表す判定結果が得られた場合に、未観察画像表示領域406へ表示させた第二画像520の非表示を実施する。
 図3に示す報知部46は、第二画像520における注目領域510と内視鏡画像38における注目領域510とが同一であると判定された場合に、音声報知及び文字報知等を適用して判定結果を報知し得る。未観察画像表示領域406の非表示条件は、未観察画像表示領域406へ未観察画像39Aが表示される場合における未観察画像39Aにも適用される。
 [第一実施形態の作用効果]
 第一実施形態に係る画像処理装置14及び画像処理方法は、以下の作用効果を得ることが可能である。
 〔1〕
 注目領域検出部50は、内視鏡画像38の動画像38Aを構成するフレーム画像38Bから注目領域510を検出する。未観察画像記憶部71は、注目領域510が検出された内視鏡画像38のうち、未観察の注目領域510を含む未観察画像39Aを記憶する。これにより、注目領域510の検出の報知に起因して、医師が注目領域510の見逃しを認識した場合に、未観察画像39A等を利用する注目領域510の探索が可能となる。
 〔2〕
 表示制御部44は、未観察の注目領域510の表示を表すユーザ入力信号を取得した場合に、未観察画像記憶部71に記憶されている未観察画像39Aを読み出し、読み出した未観察画像39A又は第二画像520をモニタ400へ表示させる。これにより、注目領域510の検出の報知に起因して、医師が注目領域510の見逃しを認識した場合に、モニタ400を用いて表示される未観察画像39A等を利用する注目領域510の探索が可能となる。
 〔3〕
 表示制御部44は、未観察画像39A又は第二画像520を観察画像表示領域404とは別の領域である未観察画像表示領域406へ表示させる。これにより、医師が観察画像における注目領域510の探索がし易くなる。
 〔4〕
 表示制御部44は、未観察画像39A又は第二画像520の非表示を表すユーザ入力信号を取得した場合に、未観察画像39A又は第二画像520の非表示を実施する。これにより、探索対象の注目領域510が発見された際に、観察の妨げとなり得る未観察画像39Aを非表示とし得る。
 〔5〕
 表示制御部44は、未観察画像39A又は第二画像520の表示開始タイミングから規定の期間が経過した後に、未観察画像39A又は第二画像520の非表示を実施する。これにより、観察の妨げになり得る未観察画像39A又は第二画像520を自動的に非表示とし得る。
 〔6〕
 ユーザ入力信号取得部42は、操作部から送信されるユーザ入力信号及びマイクロフォンを用いたユーザの音声に応じたユーザ入力信号を取得する。これにより、ユーザ入力信号取得部42は、様々な形態のユーザ入力信号を適用し得る。
 〔7〕
 第一画像処理部52は、注目領域510が検出されたフレーム画像38Bに対して第一処理を実施する。表示制御部44は、第一画像処理部52の処理結果を表す第一画像500を観察画像表示領域404へ表示させる。これにより、医師は観察画像における注目領域の検出を視認し得る。
 〔8〕
 第一画像処理部52は、未観察画像39Aに対して、第一画像処理と同一内容の画像処理が適用される第二画像処理を実施した第二画像520を生成する。表示制御部44は未観察画像表示領域406へ第二画像520を表示する。これにより、第二画像520における注目領域510の視認性が向上し得る。
 [第一実施形態に係る画像処理装置及び方法の変形例]
 第一実施形態に係る画像処理装置及び方法では、ユーザ入力信号に基づきモニタ400を用いて未観察画像39Aを表示させているが、未観察画像39Aの発生に基づきモニタ400を用いて未観察画像39Aを表示させてもよい。
 かかる変形例によれば、未観察画像39Aが発生した場合に、モニタ400へ未観察画像39Aを自動的に表示させ得る。
 [第二実施形態に係る画像処理装置]
 次に、第二実施形態に係る画像処理装置について説明する。図9は第二実施形態に係る画像処理装置の機能ブロック図である。同図に示す画像処理装置14Aは、図3に示す画像処理装置14に対して、第二画像処理部54及び第二画像処理結果記憶部74が追加される。
 〔第二画像処理部〕
 第二画像処理部54は、図7に示す未観察画像39Aに対して第二画像処理を実施する。すなわち、第二画像処理部54は、未観察画像39Aを未観察画像表示領域406へ表示させる際に、観察画像表示領域404へ表示させる第一画像500の表示態様に対して、第二画像520の表示態様を変更する。
 第二画像処理は、第一画像500よりも強調度合いを強める強調処理を適用し得る。第二画像処理は、複数の異なる第二画像520の一括表示を適用し得る。第二画像処理は、複数の異なる第二画像520の中から一つを選択する処理を適用し得る。
 第二画像処理部54は、第二画像処理の処理結果を第二画像処理結果記憶部74へ記憶する。第二画像処理の処理結果は、第二画像520を適用し得る。第二画像処理の処理結果は、未観察画像39Aと未観察画像39Aに対する第二処理の処理結果を表す情報との組み合わせを適用してもよい。
 〔第二画像処理結果記憶部〕
 第二画像処理結果記憶部74は、第二画像処理部54を用いて実施された第二画像処理の処理結果を記憶する。第二画像処理結果記憶部74は、複数の第二画像処理の処理結果から選択された第二画像処理の処理結果を記憶してもよい。
 [第二実施形態に係る画像処理方法の手順]
 図10は第二実施形態に係る画像処理方法の手順を示すフローチャートである。図9に示すフローチャートは、図4に示すフローチャートに対して、第二画像処理工程S22及び、第二画像処理結果記憶工程S24が追加される。
 図10に示す内視鏡画像取得工程S10からユーザ入力信号取得判定工程S20までの各工程は、図4に示す内視鏡画像取得工程S10からユーザ入力信号取得判定工程S20までの各工程と同一である。ユーザ入力信号取得判定工程S20においてYes判定の場合に第二画像処理工程S22へ進む。
 第二画像処理工程S22では、図9に示す第二画像処理部54は未観察画像39Aに対して第二画像処理を実施する。第二画像処理工程S22の後に第二画像処理結果記憶工程S24へ進む。
 第二画像処理結果記憶工程S24では、第二画像処理部54は第二画像処理の結果を第二画像処理結果記憶部74へ記憶する。第二画像処理結果記憶工程S24の後に表示信号送信工程S26へ進む。なお、第二画像処理工程S22及び第二画像処理結果記憶工程S24は、第一画像処理結果記憶工程S17と未観察条件判定工程S18との間に実施されてもよい。
 [第二画像処理の具体例]
 図11は強調の度合いを強める画像処理が適用される第二画像の模式図である。同図に示す未観察画像表示領域406は、図8に示す第一画像500の強調処理と比較して、強調度合いが強められた第二画像530が表示される。
 第二画像530は、図6に示すバウンディングボックス512よりも注目領域510の強調度合いを強めたバウンディングボックス532が適用される。バウンディングボックス532は、第一画像500に適用されるバウンディングボックス512と比較して、枠線の種類が破線から実線に変更され、枠線の幅が太くされ、枠線の色に赤等の目立つ色が用いられる。
 強調度合いを強める処理は図11に示す態様に限定されない。例えば、図6に示すバウンディングボックス512の枠線の種類、枠線の線幅及び枠線の色の少なくともいずれかを変更してもよい。
 未観察画像表示領域406へ第二画像530が表示される画面402は、観察画像表示領域404へリアルタイムの内視鏡画像38が表示される。医師が注目領域510の検出を表す報知に気が付いた際に、図1に示す内視鏡本体100を操作して注目領域510を探索する際に第二画像530を参照し得る。
 図11に示す第二画像530は、図7に示す未観察画像表示領域406に表示したフレーム画像38Bと比較して、注目領域510の視認性が向上し得る。
 図12は複数の第二画像を表示する態様の模式図である。図12に示す第二画像540及び第二画像542は、それぞれ異なるタイミングにおいて生成された未観察画像39Aに対応する。
 第二画像540は注目領域510Aにバウンディングボックス512Aが重畳表示される。第二画像542は注目領域510Bにバウンディングボックス512Bが重畳表示される。複数の第二画像540等を表示する際に、第二画像540等のそれぞれを時分割表示してもよい。
 図13は複数の第二画像を表示する態様における第二画像の選択の模式図である。図13に示す画面402は、第二画像540及び第二画像542の中から選択された第二画像542がハイライト表示される。すなわち、第二画像540等の選択を表すユーザ入力信号を取得した場合に、第二画像処理部54はユーザ入力信号に基づき、選択された第二画像542のハイライト表示を実施する。
 図13に示す画面402において、第二画像542の選択に応じて非選択の第二画像540を非表示としてもよい。非選択の第二画像540の非表示に応じて第二画像542のハイライト表示を非表示としてもよい。なお、図9に示すユーザ入力信号取得部42は、選択部の一例に相当する。
 図12及び図13には二つの第二画像540等を表示する態様を示したが、三つ以上の第二画像を表示してもよい。複数の第二画像540等を表示する場合、それぞれの取得タイミングを表す情報を付加してもよい。複数の第二画像540等のそれぞれが取得されたタイミングの順に配置される態様が好ましい。また、複数の第二画像540等を選択肢として実施される第二画像の選択は、二以上の第二画像を選択してもよい。
 図12及び図13に示す態様によれば、複数の探索候補として複数の第二画像540等を利用し得る。また、複数の探索候補の中から一つ以上の探索対象を選択し得る。
 図11から図13に示す第二処理の他の例として、第一画像500に対する注目領域510の色相、明度及び彩度の少なくともいずれいかの変更が挙げられる。また、第二処理の他の例として、低解像度化及び高解像度化等の解像度変換が挙げられる。更に他の第二処理として、未観察画像39Aの記憶タイミングに関する情報の表示及び未観察画像39Aにおける注目領域510の鑑別結果の表示など、第二画像530等に関する各種情報の表示が挙げられる。各種情報の表示は、文字及び音声を適用し得る。
 [第二実施形態の作用効果]
 第二実施形態に係る画像処理装置14A及び画像処理方法は、以下の作用効果を得ることが可能である。
 〔1〕
 第二画像処理部54は、第一画像500と比較して表示態様が異なる第二画像530等を生成する。表示制御部44は第二画像530等をモニタへ表示させる。これにより、注目領域510の検出の報知に起因して、医師が注目領域510の見逃しを認識した場合に、第二画像530等を利用する注目領域510の探索が可能となる。
 〔2〕
 第一画像処理は、注目領域510の強調処理が適用される。第二画像処理に係る強調処理は、第一画像処理に係る強調処理と比較して強調の度合いが強められる。これにより、第二画像530等における注目領域510の視認性が向上し得る。
 〔3〕
 モニタ400は、取得タイミングが異なる複数の第二画像540等を表示する。これにより、複数の第二画像540等の中から、内視鏡画像38において見逃した注目領域510を探索し得る。
 〔4〕
 取得タイミングが異なる複数の第二画像540等から一以上の第二画像542等を選択し得る。これにより、取得タイミングが異なる複数の第二画像540等から、注目領域510の探索に適用される第二画像542等を設定し得る。
 [第三実施形態に係る画像処理装置]
 次に、第三実施形態に係る画像処理装置について説明する。図14は第三実施形態に係る画像処理装置の機能ブロック図である。同図に示す画像処理装置14Bは、図9に示す画像処理装置14Aに対して、第三画像処理部56及び第三画像処理結果記憶部76が追加される。
 第三画像処理部56は、未観察画像表示領域406に表示される未観察画像39A又は第二画像520等に対して第三画像処理を実施する。ここでいう第二画像520等は、図7に示す第二画像520、図11に示す第二画像530、図12に示す第二画像540及び第二画像542の少なくともいずれかを表す。以下の説明においても同様である。
 第三画像処理は、未観察画像39A又は第二画像520等の編集、未観察画像39A又は第二画像520等を編集して生成される第三画像の記憶、未観察画像39A又は第二画像520等の外部装置32への送信、未観察画像39A又は第二画像520等の削除及び複数の未観察画像39A又は複数の第二画像520等の並べ替えの少なくともいずれかを適用し得る。
 第三画像処理結果記憶部76は、第三画像処理部56に適用される第三画像処理が、未観察画像39A又は第二画像520等の編集の場合に、未観察画像39A又は第二画像520等を編集して生成される第三画像560を記憶する。未観察画像39A又は第二画像520等の編集は、未観察画像39A又は第二画像520等の拡大及び縮小等を適用し得る。
 未観察画像39A又は第二画像520等の外部装置32への送信を表すユーザ入力信号をユーザ入力信号取得部42が取得した場合に、第三画像処理部56は外部装置32へ、未観察画像39A又は第二画像520等を送信する。外部装置32は画像処理装置14Bと通信可能に接続された記憶装置等を適用し得る。なお、図14には、第二画像520等の外部装置32への送信を図示する。
 未観察画像39A又は第二画像520等の削除を表すユーザ入力信号をユーザ入力信号取得部42が取得した場合に、第三画像処理部56は未観察画像39A又は第二画像520等の削除を実施する。
 未観察画像39A又は第二画像520等の並べ替えを表すユーザ入力信号をユーザ入力信号取得部42が取得した場合に、第三画像処理部56は未観察画像39A又は第二画像520等の配置の並べ替えを実施する。
 [第三実施形態に係る画像処理方法の手順]
 図15は第三実施形態に係る画像処理方法の手順を示すフローチャートである。図15には、第三画像処理として第二画像530の編集が適用される態様の手順を示す。図15に示すフローチャートは、図10に示すフローチャートに対して第三画像処理指示工程S40、第三画像処理工程S42及び第三画像処理結果記憶工程S44が追加される。
 図15に示す内視鏡画像取得工程S10から表示信号送信工程S26までの各工程は、図10に示す内視鏡画像取得工程S10から表示信号送信工程S26までの各工程と同一である。表示信号送信工程S26の後に第三画像処理指示工程S40へ進む。
 第三画像処理指示工程S40では、図14に示すユーザ入力信号取得部42は第三画像処理の処理内容を表す第三画像処理指示信号を取得する。第三画像処理指示信号の取得の例として、図14に示す操作部30から送信されるユーザ入力信号の取得が挙げられる。第三画像処理指示工程S40の後に第三画像処理工程S42へ進む。
 第三画像処理工程S42では、第三画像処理部56は第三画像処理指示信号に基づき、未観察画像39A又は第二画像520等に対して第三画像処理を実施する。第三画像処理工程S42の後に第三画像処理結果記憶工程S44へ進む。
 第三画像処理結果記憶工程S44では、図14に示す第三画像処理結果記憶部76は、第三画像処理の処理結果を記憶する。第三画像処理結果記憶工程S44の後に非表示条件判定工程S28へ進む。第三画像処理が未観察画像39A又は第二画像520等の外部装置32への送信及び未観察画像39A又は第二画像520等の削除等の場合、第三画像処理結果記憶工程S44は省略される。
 図15に示す非表示条件判定工程S28から最終フレーム画像判定工程S32までの各工程は、図10に示す非表示条件判定工程S28から最終フレーム画像判定工程S32までの各工程と同一である。
 [第三画像処理の具体例]
 図16は第三画像処理の一例の説明図である。同図に示す画面402は、図7に示す第二画像520等に代わり第三画像560が表示される。画面402は、第二画像520等及び第三画像560の両者を表示してもよい。
 第三画像560は、図7に示す第二画像520の注目領域510が拡大されている。すなわち、図16に示す第三画像560は、図7に示す注目領域510が拡大された注目領域510C及び図7に示すバウンディングボックス512が拡大されたバウンディングボックス512Cが含まれる。
 [第三実施形態の作用効果]
 第三実施形態に係る画像処理装置14B及び画像処理方法は、以下の作用効果を得ることが可能である。
 〔1〕
 未観察画像39A又は第二画像520等に対して第三画像処理を実施する第三画像処理部56を備える。これにより、未観察画像39A又は第二画像520等の編集等を実施し得る。
 〔2〕
 第三画像処理は、未観察画像39A又は第二画像520等の編集、未観察画像39A又は第二画像520等の編集結果の記憶、未観察画像39A又は第二画像520等の外部機
器への送信、未観察画像39A又は第二画像520等の削除及び複数の未観察画像39A又は複数の第二画像540等を表示させる態様における未観察画像39A又は第二画像540等の並べ替えが適用される。これにより、未観察画像39A又は第二画像520等の編集を実施し得る。
 [内視鏡システムの変形例]
 〔照明光の変形例〕
 本実施形態に示す内視鏡システム10を用いて取得可能な医用画像の一例として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光画像が挙げられる。
 本実施形態に示す内視鏡システム10を用いて取得可能な医用画像の他の例として、特定の波長帯域の光を照射して得た画像が挙げられる。特定の波長帯域は白色帯域よりも狭い帯域を適用可能である。以下の変形例の適用が可能である。
 〈第一変形例〉
 特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、かつ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
 〈第二変形例〉
 特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、かつ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
 〈第三変形例〉
 特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、かつ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
 〈第四変形例〉
 特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、かつこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
 〈第五変形例〉
 特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、かつ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
 〔特殊光画像の生成例〕
 プロセッサ装置200は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置200は、特殊光画像取得部として機能する。そして、プロセッサ装置200は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑及び青、或いはシアン、マゼンタ及びイエローの色情報に基づく演算を行うことで得る。
 なお、シアン、マゼンタ及びイエローは、それぞれの英語表記であるCyan、Magenta及びYellowの頭文字を用いてCMYと表されることがある。
 〔特徴量画像の生成例〕
 医用画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。
 [コンピュータを画像処理装置として機能させるプログラムへの適用例]
 上述した画像処理装置及び画像処理方法は、コンピュータを用いて、画像処理装置における各部又は画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。
 例えば、コンピュータに、画像取得機能、表示信号送信機能、注目領域検出機能、未観察画像記憶機能及びユーザ入力信号取得機能を実現させるプログラムを構成し得る。
 画像取得機能は、画像取得部40及び内視鏡画像取得工程S10に対応する。表示信号送信機能は、表示制御部44及び表示信号送信工程S26に対応する。注目領域検出機能は、注目領域検出部50及び注目領域検出工程S12に対応する。
 未観察画像記憶機能は、未観察画像記憶部71及び未観察条件判定工程S18に対応する。ユーザ入力信号取得機能は、ユーザ入力信号取得部42及びユーザ入力信号取得判定工程S20に対応する。
 プログラムは、第一画像処理部52及び第一画像処理工程S16に対応する第1画像処理を含み得る。プログラムは、第一画像処理結果記憶部72及び第一画像処理結果記憶工程S17に対応する第一画像処理結果記憶機能を含み得る。
 プログラムは、第二画像処理部54及び第二画像処理工程S22に対応する第二画像処理機能を含み得る。プログラムは、第二画像処理結果記憶部74及び第二画像処理結果記憶工程S24に対応する第二画像処理結果記憶機能を含み得る。プログラムは、第三画像処理部56及び第三画像処理工程S42に対応する第三画像処理機能を含み得る。
 上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
 また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、通信ネットワークを介してプログラム信号を提供する態様も可能である。
 [実施形態及び変形例等の組み合わせについて]
 上述した実施形態で説明した構成要素及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10 内視鏡システム
14 画像処理装置
14A 画像処理装置
38 内視鏡画像
38A 動画像
39 静止画像
39A 未観察画像
40 画像取得部
42 ユーザ入力信号取得部
44 表示制御部
46 報知部
50 注目領域検出部
51 未観察条件判定部
52 第一画像処理部
54 第二画像処理部
56 第三画像処理部
70 内視鏡画像記憶部
71 未観察画像記憶部
71A 観察済画像記憶部
72 第一画像処理結果記憶部
74 第二画像処理結果記憶部
76 第三画像処理結果記憶部
100 内視鏡本体
102 手元操作部
104 挿入部
106 ユニバーサルケーブル
108 ライトガイドコネクタ
112 軟性部
114 湾曲部
116 先端硬質部
116A 先端側端面
123 照明部
123A 照明用レンズ
123B 照明用レンズ
126 鉗子口
130 撮像部
132 撮影レンズ
134 撮像素子
136 駆動回路
138 アナログフロントエンド
141 送気送水ボタン
142 吸引ボタン
143 機能ボタン
144 撮像ボタン
170 ライトガイド
200 プロセッサ装置
202 画像入力コントローラ
204 画像処理部
205 通信制御部
206 ビデオ出力部
207 記憶部
208 操作部
209 音声処理部
209A スピーカ
210 CPU
211 ROM
212 RAM
300 光源装置
310 光源
310B 青色光源
310G 緑色光源
310R 赤色光源
330 絞り
340 集光レンズ
350 光源制御部
400 モニタ
402 画面
404 観察画像表示領域
406 第二画像表示領域
500 第一画像
510 注目領域
510A 注目領域
510B 注目領域
510C 注目領域
512 バウンディングボックス
512A バウンディングボックス
512B バウンディングボックス
512C バウンディングボックス
520 第二画像
530 第二画像
532 バウンディングボックス
540 第二画像
542 第二画像
560 第三画像
S10からS44 画像処理方法の各工程

Claims (28)

  1.  被写体の観察画像を取得する画像取得部と、
     前記観察画像を表す第一表示信号を表示装置へ送信する表示信号送信部と、
     前記観察画像を構成するフレーム画像から注目領域を検出する注目領域検出部と、
     注目領域が検出されたフレーム画像から前記注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶部と、
     を備えた医療画像処理装置。
  2.  前記注目領域検出部を用いて注目領域が検出されたフレーム画像について、前記未観察条件を満たすか否かを判定する未観察条件判定部を備えた請求項1に記載の医療画像処理装置。
  3.  前記未観察条件判定部は、規定期間内に同一の注目領域が含まれるフレーム画像が規定数以下の場合に前記未観察条件を満たすと判定する請求項2に記載の医療画像処理装置。
  4.  前記未観察条件判定部は、フレーム画像の間の変化量が規定の閾値以上の場合に前記未観察条件を満たすと判定する請求項2又は3に記載の医療画像処理装置。
  5.  前記未観察条件判定部は、規定期間内に同一の注目領域が画面内の任意の領域に留まる場合に前記未観察条件を満たすと判定する請求項2から4のいずれか一項に記載の医療画像処理装置。
  6.  前記表示信号送信部は、前記未観察条件判定部において未観察条件を満たすと判定された前記未観察画像を表す第二表示信号を前記表示装置へ送信する請求項2から5のいずれか一項に記載の医療画像処理装置。
  7.  ユーザの操作に応じて送信されるユーザ入力信号を取得するユーザ入力信号取得部を備え、
     前記表示信号送信部は、前記ユーザ入力信号取得部を用いて未観察の注目領域の表示を表すユーザ入力信号を取得した場合に、前記未観察画像を表す第二表示信号を前記表示装置へ送信する請求項6に記載の医療画像処理装置。
  8.  前記注目領域検出部を用いて検出された注目領域に対して第一画像処理を実施して第一画像を生成する第一画像処理部を備え、
     表示信号送信部は、前記第一画像を表す表示信号を前記第一表示信号として前記表示装置へ送信する請求項7に記載の医療画像処理装置。
  9.  前記未観察画像に対して第二画像処理を実施して第二画像を生成する第二画像処理部を備え、
     前記表示信号送信部は、前記第二画像を表す表示信号を前記第二表示信号として前記表示装置へ送信する請求項8に記載の医療画像処理装置。
  10.  前記第一画像処理部は、前記観察画像に対する前記注目領域の強調処理を実施し、
     前記第二画像処理部は、前記未観察画像に対して前記観察画像に対する注目領域の強調処理よりも強調度合いを強める強調処理を実施する請求項9に記載の医療画像処理装置。
  11.  前記第二画像処理部は、複数の前記未観察画像のそれぞれに対して前記第二画像処理を実施し、
     前記表示信号送信部は、複数の前記第二画像のそれぞれに対応する表示信号を前記第二表示信号として前記表示装置へ送信する請求項9又は10に記載の医療画像処理装置。
  12.  前記表示装置へ表示される複数の前記未観察画像から一以上の前記未観察画像を選択するか、又は前記表示装置へ表示される複数の前記第二画像から一以上の前記第二画像を選択する選択部を備えた請求項11に記載の医療画像処理装置。
  13.  前記表示装置へ表示される前記未観察画像又は前記第二画像処理の処理結果に対して第三画像処理を施す第三画像処理部を備えた請求項9から12のいずれか一項に記載の医療画像処理装置。
  14.  前記第三画像処理の処理結果を記憶する第三画像処理結果記憶部を備えた請求項13に記載の医療画像処理装置。
  15.  前記第三画像処理部は、前記未観察画像の編集を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記未観察画像の編集を実施するか、又は前記第二画像の編集を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記第二画像の編集を実施する請求項13又は14に記載の医療画像処理装置。
  16.  前記第三画像処理部は、前記未観察画像の外部装置への送信を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記未観察画像を前記外部装置へ送信するか、又は前記第二画像の外部装置への送信を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記第二画像を前記外部装置へ送信する請求項13から15のいずれか一項に記載の医療画像処理装置。
  17.  前記第三画像処理部は、複数の前記未観察画像の並べ替えを表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、複数の前記未観察画像の並べ替えを実施するか、又は複数の前記第二画像の並べ替えを表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、複数の前記第二画像の並べ替えを実施する請求項13から16のいずれか一項に記載の医療画像処理装置。
  18.  前記第三画像処理部は、前記未観察画像の削除を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記未観察画像を削除するか、又は前記第二画像の削除を表すユーザ入力信号を前記ユーザ入力信号取得部が取得した場合に、前記第二画像を削除する請求項13から17のいずれか一項に記載の医療画像処理装置。
  19.  前記表示信号送信部は、前記第二表示信号の送信タイミングから規定の期間が経過した後に、前記第二表示信号の送信を停止する請求項6から18のいずれか一項に記載の医療画像処理装置。
  20.  前記表示信号送信部は、前記未観察の注目領域が前記表示装置へ表示された場合に、前記第二表示信号の送信を停止する請求項6から18のいずれか一項に記載の医療画像処理装置。
  21.  ユーザが操作するユーザ操作部を備え、
     ユーザ入力信号取得部は、前記ユーザ操作部をユーザが操作する際に送信されるユーザ入力信号を取得する請求項1から20いずれか一項に記載の医療画像処理装置。
  22.  ユーザの音声を取得する音声取得部を備え、
     ユーザ入力信号取得部は、前記音声取得部を用いて取得したユーザの音声を表すユーザ入力信号を取得する請求項1から21のいずれか一項に記載の医療画像処理装置。
  23.  前記注目領域検出部を用いて注目領域が検出されたフレーム画像から前記注目領域の観察済みを表す観察済画像を記憶する観察済画像記憶部を備えた請求項1から22のいずれか一項に記載の医療画像処理装置。
  24.  前記観察画像における前記注目領域の検出を報知する報知部を備えた請求項1から23のいずれか一項に記載の医療画像処理装置。
  25.  内視鏡と、
     前記内視鏡を制御する内視鏡制御装置と、
     前記内視鏡を用いて取得した内視鏡画像に処理を施す医療画像処理装置と、
     を備えた内視鏡システムであって、
     前記医療画像処理装置は、
     被写体の観察画像を取得する画像取得部と、
     前記観察画像を表す第一表示信号を表示装置へ送信する表示信号送信部と、
     前記観察画像を構成するフレーム画像から注目領域を検出する注目領域検出部と、
     注目領域が検出されたフレーム画像から前記注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶部と、
     を備えた内視鏡システム。
  26.  被写体の観察画像を取得する画像取得工程と、
     前記観察画像を表す第一表示信号を表示装置へ送信する表示信号送信工程と、
     前記観察画像を構成するフレーム画像から注目領域を検出する注目領域検出工程と、
     注目領域が検出されたフレーム画像から前記注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶工程と、
     を含む医療画像処理方法。
  27.  コンピュータに、
     被写体の観察画像を取得する画像取得機能、
     前記観察画像を表す第一表示信号を表示装置へ送信する表示信号送信機能、
     前記観察画像を構成するフレーム画像から注目領域を検出する注目領域検出機能、及び
     注目領域が検出されたフレーム画像から前記注目領域の未観察を表す未観察条件を満たす未観察画像を記憶する未観察画像記憶機能を実現させるプログラム。
  28.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項27に記載のプログラムをコンピュータに実行させる記録媒体。
PCT/JP2020/032049 2019-09-03 2020-08-25 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム WO2021044910A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021543711A JP7256275B2 (ja) 2019-09-03 2020-08-25 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
EP20860022.1A EP4026479A4 (en) 2019-09-03 2020-08-25 MEDICAL IMAGE PROCESSING DEVICE, PROCESSOR, ENDOSCOPE SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
CN202080058661.3A CN114269221A (zh) 2019-09-03 2020-08-25 医疗图像处理装置、内窥镜系统、医疗图像处理方法以及程序
US17/591,976 US20220151467A1 (en) 2019-09-03 2022-02-03 Medical image processing apparatus, endoscope system, medical image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-160463 2019-09-03
JP2019160463 2019-09-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/591,976 Continuation US20220151467A1 (en) 2019-09-03 2022-02-03 Medical image processing apparatus, endoscope system, medical image processing method, and program

Publications (1)

Publication Number Publication Date
WO2021044910A1 true WO2021044910A1 (ja) 2021-03-11

Family

ID=74852339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032049 WO2021044910A1 (ja) 2019-09-03 2020-08-25 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20220151467A1 (ja)
EP (1) EP4026479A4 (ja)
JP (1) JP7256275B2 (ja)
CN (1) CN114269221A (ja)
WO (1) WO2021044910A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7148625B2 (ja) * 2018-09-18 2022-10-05 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、医用画像処理装置の作動方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198106A (ja) 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2006293237A (ja) * 2005-04-14 2006-10-26 Olympus Medical Systems Corp 画像表示装置
JP2007318431A (ja) * 2006-05-25 2007-12-06 Fujifilm Corp 表示制御システムおよび表示制御方法
WO2017073337A1 (ja) 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置
WO2017216922A1 (ja) 2016-06-16 2017-12-21 オリンパス株式会社 画像処理装置及び画像処理方法
WO2018198161A1 (ja) 2017-04-24 2018-11-01 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
WO2018216617A1 (ja) * 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2019078237A1 (ja) * 2017-10-18 2019-04-25 富士フイルム株式会社 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5203648B2 (ja) * 2007-07-20 2013-06-05 オリンパス株式会社 画像抽出装置および画像抽出プログラム
JP5492729B2 (ja) * 2010-09-28 2014-05-14 富士フイルム株式会社 内視鏡画像記録装置、及び内視鏡画像記録装置の作動方法、並びにプログラム
US8870751B2 (en) * 2010-09-28 2014-10-28 Fujifilm Corporation Endoscope system, endoscope image recording apparatus, endoscope image acquisition assisting method and computer readable medium
WO2017122400A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 内視鏡画像観察支援システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198106A (ja) 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2006293237A (ja) * 2005-04-14 2006-10-26 Olympus Medical Systems Corp 画像表示装置
JP2007318431A (ja) * 2006-05-25 2007-12-06 Fujifilm Corp 表示制御システムおよび表示制御方法
WO2017073337A1 (ja) 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置
WO2017216922A1 (ja) 2016-06-16 2017-12-21 オリンパス株式会社 画像処理装置及び画像処理方法
WO2018198161A1 (ja) 2017-04-24 2018-11-01 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
WO2018216617A1 (ja) * 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2019078237A1 (ja) * 2017-10-18 2019-04-25 富士フイルム株式会社 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4026479A4

Also Published As

Publication number Publication date
US20220151467A1 (en) 2022-05-19
EP4026479A4 (en) 2022-11-02
JPWO2021044910A1 (ja) 2021-03-11
CN114269221A (zh) 2022-04-01
EP4026479A1 (en) 2022-07-13
JP7256275B2 (ja) 2023-04-11

Similar Documents

Publication Publication Date Title
JP6834184B2 (ja) 情報処理装置、情報処理装置の作動方法、プログラム及び医療用観察システム
JP6577088B2 (ja) 内視鏡システム
WO2017057574A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
EP3590415A1 (en) Endoscope system, processor device, and method of operating endoscope system
JPWO2018159363A1 (ja) 内視鏡システム及びその作動方法
JP6640866B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057572A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP7289296B2 (ja) 画像処理装置、内視鏡システム及び画像処理装置の作動方法
JP7374280B2 (ja) 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の作動方法
JP7146925B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP6203088B2 (ja) 生体観察システム
JPWO2020184257A1 (ja) 医用画像処理装置及び方法
WO2021044910A1 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
WO2016121811A1 (ja) 画像処理装置及び画像処理方法、並びに内視鏡システム
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP6210923B2 (ja) 生体観察システム
WO2022145424A1 (ja) コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
US20230039047A1 (en) Image processing apparatus, image processing method, navigation method and endoscope system
WO2022054400A1 (ja) 画像処理システム、プロセッサ装置、内視鏡システム、画像処理方法及びプログラム
US20230074314A1 (en) Image processing device, image processing method, and program
JP7147890B2 (ja) 情報処理システム、情報処理方法及びプログラム
WO2021192524A1 (ja) 内視鏡システム、制御方法、及び制御プログラム
JP2023178526A (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20860022

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543711

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020860022

Country of ref document: EP

Effective date: 20220404