WO2024004524A1 - 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム - Google Patents

診断支援装置、超音波内視鏡、診断支援方法、及びプログラム Download PDF

Info

Publication number
WO2024004524A1
WO2024004524A1 PCT/JP2023/020699 JP2023020699W WO2024004524A1 WO 2024004524 A1 WO2024004524 A1 WO 2024004524A1 JP 2023020699 W JP2023020699 W JP 2023020699W WO 2024004524 A1 WO2024004524 A1 WO 2024004524A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
mode
ultrasound
operation mode
detection
Prior art date
Application number
PCT/JP2023/020699
Other languages
English (en)
French (fr)
Inventor
稔宏 臼田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2024004524A1 publication Critical patent/WO2024004524A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters

Definitions

  • the technology of the present disclosure relates to a diagnosis support device, an ultrasound endoscope, a diagnosis support method, and a program.
  • International Publication No. 2020/036121 describes an identification unit that identifies the type of image of a subject, a recognition unit that performs recognition processing to recognize the subject using the image, and a specific type of image identified by the identification unit.
  • An endoscope system has been disclosed that includes a notification unit that reports whether or not recognition processing is functioning.
  • JP 2021-035442A discloses an ultrasonic diagnostic system that performs diagnostic support when the image mode is B mode or CF mode, and does not perform diagnostic support when the image mode is PW mode.
  • Japanese Patent Application Publication No. 2021-083699 discloses a probe that is brought into contact with the breast and outputs a received signal by transmitting and receiving ultrasonic waves to and from the breast, and a probe that outputs a received signal by transmitting and receiving ultrasonic waves to the breast, and based on the received signal, a mammary gland image, a pectoralis major muscle image, and their images.
  • an image generation section that generates an ultrasound image including a boundary image between the two; a tilt angle calculation section that computes a tilt angle of the boundary image based on the ultrasound image; and a probe operation based on the tilt angle of the boundary image.
  • An ultrasonic diagnostic apparatus is disclosed that includes a support image generation unit that generates a support image to support.
  • One embodiment of the technology of the present disclosure is capable of suppressing areas other than the specific area from being erroneously detected as the specific area, and preventing visualization of the detection results of the specific area from interfering with diagnosis.
  • a first aspect of the technology of the present disclosure includes a processor, and the processor acquires a first ultrasound image generated by an ultrasound module and includes an observation area, and diagnoses the observation area. Whether the reference information to be referred to is synthesized with the first ultrasound image, whether the first ultrasound image is an image obtained in an auxiliary image mode that is an image mode other than the main image mode, or The first operation mode and the second operation mode are switched according to the setting value that determines the image quality of the first ultrasound image, and the first operation mode is created using the second ultrasound image obtained in the main image mode.
  • This is an operation mode in which a specific area is detected from the first ultrasound image based on the detected detection support information, and the second operation mode is not to detect the specific area and output the detection result, or not to detect the specific area.
  • a second aspect of the technology of the present disclosure is that the first operation mode is an operation mode used when the reference information is not combined with the first ultrasound image, and the second operation mode is an operation mode that is used when the reference information is not combined with the first ultrasound image.
  • This is the diagnosis support device according to the first aspect, which is an operation mode used when the ultrasound images are combined into one ultrasound image.
  • a third aspect of the technology of the present disclosure is that the first operation mode is an operation mode used when the first ultrasound image is not an image obtained in the auxiliary image mode, and the second operation mode is an operation mode that is used when the first ultrasound image is not an image obtained in the auxiliary image mode.
  • This is the diagnosis support device according to the first aspect or the second aspect, which is an operation mode used when the ultrasound image is an image obtained in the auxiliary image mode.
  • a fourth aspect of the technology of the present disclosure is that the first operation mode is an operation mode used when the set value is within a specified range, and the second operation mode is used when the set value is not within the specified range.
  • This is a diagnostic support device according to any one of the first to third aspects, which are operating modes used.
  • a fifth aspect of the technology of the present disclosure is the diagnostic support according to any one of the first to fourth aspects, in which the reference information includes color information expressing characteristics in the observation target area using colors. It is a device.
  • the color information includes a plurality of chromatic pixels
  • the first operation mode is a chromatic pixel whose saturation exceeds a first threshold value among the plurality of chromatic pixels.
  • the diagnostic support device is an operation mode that is used when the number of objects is less than a second threshold
  • the second operation mode is an operation mode that is used when the number is greater than or equal to the second threshold.
  • a seventh aspect of the technology of the present disclosure is the diagnosis support device according to any one of the first to sixth aspects, in which the reference information includes text information that assists observation of the observation target area. .
  • An eighth aspect of the technology of the present disclosure is the diagnosis support device according to any one of the first to seventh aspects, wherein the reference information includes a measurement line used for measurement within the observation target area. be.
  • a ninth aspect of the technology of the present disclosure is the diagnostic support according to any one of the first to eighth aspects, in which the reference information includes treatment auxiliary information that assists treatment using fine-needle aspiration. It is a device.
  • the auxiliary image mode is a high-frequency component included in a reflected wave obtained by emitting ultrasonic waves to the observation area and being reflected at the observation area.
  • the first image mode is a first image mode that generates an ultrasound image using This is a diagnostic support device.
  • An eleventh aspect according to the technology of the present disclosure is the tenth aspect, wherein the first image mode is THI mode, CH mode, or CHI mode, and the second image mode is Doppler mode or elastography mode. This is a diagnostic support device.
  • a twelfth aspect of the technology of the present disclosure is that the setting values include a frequency parameter that adjusts the frequency of ultrasound emitted from the ultrasound module, a depth parameter that adjusts the depth expressed in the first ultrasound image, A brightness parameter that adjusts the brightness of the first ultrasound image, a dynamic range parameter that adjusts the dynamic range of the first ultrasound image, and/or a magnification parameter that adjusts the magnification of digital zoom for the first ultrasound image.
  • This is a diagnostic support device according to any one of the first to eleventh aspects.
  • a thirteenth aspect according to the technology of the present disclosure is any one of the first to twelfth aspects, wherein the ultrasound module has a setting value, and the processor acquires the setting value from the ultrasound module.
  • 1 is a diagnostic support device according to two aspects.
  • a fourteenth aspect of the technology of the present disclosure is that a text image whose setting value can be specified is synthesized with the frame including the first ultrasound image, and the processor performs image recognition processing on the text image.
  • This is a diagnostic support device according to any one of the first to twelfth aspects, in which a setting value is specified by characterizing the setting value, and the first operation mode and the second operation mode are switched according to the characteristic setting value.
  • a fifteenth aspect of the technology of the present disclosure is the diagnosis support device according to any one of the first to fourteenth aspects, wherein the processor detects a specific region from the first ultrasound image using an AI method. be.
  • a 16th aspect according to the technology of the present disclosure is a 15th aspect from the 1st aspect, wherein the detection support information is a trained model obtained by causing the model to learn teacher data including the second ultrasound image.
  • the detection support information is a trained model obtained by causing the model to learn teacher data including the second ultrasound image.
  • a diagnostic support device according to any one of the aspects.
  • a seventeenth aspect of the technology of the present disclosure is that the processor detects a specific region from the first ultrasound image with a frequency of detecting the specific region from the first ultrasound image according to the reference information, the auxiliary image mode, and/or the setting value.
  • This is a diagnosis support device according to any one of the first to sixteenth aspects, in which the accuracy of detecting the specific region and/or the target to be detected as the specific region from the first ultrasound image is varied.
  • An eighteenth aspect according to the technology of the present disclosure is the diagnostic support device according to any one of the first to seventeenth aspects, wherein the ultrasound module is an ultrasound endoscope.
  • a nineteenth aspect according to the technology of the present disclosure includes a diagnosis support device according to any one of the first to eighteenth aspects, an ultrasound endoscope main body to which an ultrasound diagnostic device is connected, This is an ultrasonic endoscope equipped with.
  • a 20th aspect of the technology of the present disclosure is to obtain a first ultrasound image that is generated by an ultrasound module and includes a region to be observed, and a reference that is referred to for diagnosing the region to be observed. whether the information is combined with the first ultrasound image; whether the first ultrasound image is an image obtained in an auxiliary image mode that is an image mode other than the main image mode; switching between a first operating mode and a second operating mode in accordance with a setting value defining image quality of the image, the first operating mode being created using the second ultrasound image obtained in the primary image mode; This is an operation mode in which a specific area is detected from the first ultrasound image based on the detection support information, and the second operation mode is an operation in which the specific area is not detected and the detection result is not output, or the specific area is not detected. This is a diagnostic support method.
  • a twenty-first aspect of the technology of the present disclosure is a program for causing a computer to execute processing, the processing acquiring a first ultrasound image generated by an ultrasound module and showing an observation target area. and whether the reference information referred to for diagnosing the observation target area is synthesized with the first ultrasound image, and whether the first ultrasound image is in an auxiliary image mode that is an image mode other than the main image mode.
  • the method includes switching between a first operation mode and a second operation mode depending on whether the image is an acquired image or a setting value that determines the image quality of the first ultrasound image, and the first operation mode is the main one.
  • FIG. 1 is a conceptual diagram showing an example of a mode in which an endoscope system is used.
  • FIG. 1 is a conceptual diagram showing an example of the overall configuration of an endoscope system.
  • FIG. 1 is a block diagram showing an example of the configuration of an ultrasound endoscope.
  • FIG. 3 is a conceptual diagram illustrating an example of a mode in which a trained model is generated by causing a model to learn a group of B-mode images.
  • FIG. 2 is a conceptual diagram showing an example of processing contents of a generation unit.
  • FIG. 3 is a conceptual diagram showing an example of processing contents for switching between detection mode and non-detection mode.
  • FIG. 1 is a conceptual diagram showing an example of a mode in which an endoscope system is used.
  • FIG. 1 is a conceptual diagram showing an example of the overall configuration of an endoscope system.
  • FIG. 1 is a block diagram showing an example of the configuration of an ultrasound endoscope.
  • FIG. 3 is a conceptual diagram illustrating an
  • FIG. 3 is a conceptual diagram showing an example of processing contents for detecting a lesion area from a B-mode image and displaying the B-mode image on a screen of a display device.
  • FIG. 2 is a conceptual diagram showing an example of processing contents for generating a Doppler image and displaying it on a screen of a display device.
  • It is a flowchart which shows an example of the flow of diagnostic support processing. This is a continuation of the flowchart shown in FIG. 9A.
  • It is a flowchart which shows an example of the flow of diagnostic support processing concerning a 1st modification.
  • It is a conceptual diagram showing an example of processing contents of a generation part and a control part concerning a 2nd modification.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU is an abbreviation for “Graphics Processing Unit.”
  • TPU is an abbreviation for “Tensor Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory.”
  • NVM is an abbreviation for “Non-volatile memory.”
  • EEPROM is an abbreviation for "Electrically Erasable Programmable Read-Only Memory.”
  • ASIC is an abbreviation for “Application Specific Integrated Circuit.”
  • PLD is an abbreviation for “Programmable Logic Device”.
  • FPGA is an abbreviation for "Field-Programmable Gate Array.”
  • SoC is an abbreviation for “System-on-a-chip.”
  • SSD is an abbreviation for “Solid State Drive.”
  • USB is an abbreviation for “Universal Serial Bus.”
  • HDD is an abbreviation for “Hard Disk Drive.”
  • EL is an abbreviation for "Electro-Luminescence”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor.”
  • CCD is an abbreviation for “Charge Coupled Device”.
  • PC is an abbreviation for "Personal Computer.”
  • LAN is an abbreviation for “Local Area Network.”
  • WAN is an abbreviation for “Wide Area Network.”
  • AI is an abbreviation for “Artificial Intelligence.”
  • BLI is an abbreviation for “Blue Light Imaging.”
  • LCI is an abbreviation for "Linked Color Imaging.”
  • NN is an abbreviation for “Neural Network”.
  • CNN is an abbreviation for “Convolutional neural network.”
  • R-CNN is an abbreviation for “Region based Convolutional Neural Network”.
  • YOLO is an abbreviation for "You only Look Once.”
  • RNN is an abbreviation for "Recurrent Neural Network.”
  • FCN is an abbreviation for “Fully Convolutional Network.”
  • THI is an abbreviation for "Tissue Harmonic Imaging”.
  • CH is an abbreviation for "Compound Harmonic”.
  • CHI is an abbreviation for "Contrast Harmonic Imaging”.
  • an endoscope system 10 includes an ultrasound endoscope 12 and a display device 14.
  • the ultrasound endoscope 12 is a convex type ultrasound endoscope, and includes an ultrasound endoscope main body 16 and a processing device 18 .
  • the ultrasound endoscope 12 is an example of an "ultrasonic module” and an “ultrasonic endoscope” according to the technology of the present disclosure.
  • the processing device 18 is an example of a "diagnosis support device” according to the technology of the present disclosure.
  • the ultrasound endoscope main body 16 is an example of an “ultrasonic endoscope main body” according to the technology of the present disclosure.
  • a convex type ultrasound endoscope is used as an example of the ultrasound endoscope 12, but this is just an example, and a radial type ultrasound endoscope is used.
  • the technology of the present disclosure is also applicable.
  • the ultrasound endoscope main body 16 is used by a doctor 20, for example.
  • the processing device 18 is connected to the ultrasound endoscope main body 16 and exchanges various signals with the ultrasound endoscope main body 16. That is, the processing device 18 controls the operation of the ultrasound endoscope body 16 by outputting a signal to the ultrasound endoscope body 16, and controls the operation of the ultrasound endoscope body 16 in response to a signal input from the ultrasound endoscope body 16. Performs various signal processing.
  • the ultrasound endoscope 12 is a device for performing medical treatment (for example, diagnosis and/or treatment) on a medical treatment target site (for example, an organ such as the pancreas) in the body of a subject 22, and includes the medical treatment target site.
  • An ultrasound image 24 showing the observation target area is generated and output.
  • the doctor 20 when observing an observation target region inside the body of the subject 22, the doctor 20 inserts the ultrasound endoscope main body 16 into the subject 22 from the mouth or nose (mouth in the example shown in FIG. 1) of the subject 22. It is inserted into the body and emits ultrasonic waves at locations such as the stomach or duodenum.
  • the ultrasonic endoscope main body 16 emits ultrasonic waves to an observation target area inside the body of the subject 22, and detects reflected waves obtained by reflecting the emitted ultrasonic waves at the observation target area.
  • FIG. 1 shows an aspect in which an upper gastrointestinal endoscopy is being performed
  • the technology of the present disclosure is not limited to this, and is applicable to lower gastrointestinal endoscopy or endobronchial endoscopy.
  • the technology of the present disclosure is also applicable to endoscopy and the like.
  • the processing device 18 generates an ultrasound image 24 based on the reflected waves detected by the ultrasound endoscope main body 16 and outputs it to the display device 14 or the like.
  • the display device 14 displays various information including images under the control of the processing device 18.
  • An example of the display device 14 is a liquid crystal display, an EL display, or the like.
  • the ultrasound image 24 generated by the processing device 18 is displayed on the screen 26 of the display device 14 as a moving image.
  • a mode is shown in which the ultrasound image 24 within the screen 26 includes a lesion area 25 indicating a location corresponding to a lesion.
  • a rectangular detection frame 27A that allows the position of the lesion area 25 within the ultrasound image 24 to be specified is displayed on the screen 26.
  • the doctor 20 can determine whether or not a lesion is visible in the observation target area, and if a lesion is found, determine whether the lesion is within the observation target area.
  • the position of the lesion is specified by referring to the detection frame 27A within the ultrasound image 24.
  • the example shown in FIG. 1 shows an example in which the ultrasound image 24 is displayed on the screen 26 of the display device 14, this is just an example; For example, it may be displayed on a display of a tablet terminal.
  • the ultrasound images 24 may also be stored on a computer-readable non-transitory storage medium (eg, flash memory, HDD, and/or magnetic tape).
  • the display device 14 displays an ultrasound image 24 according to the image mode selected by the doctor 20.
  • the image mode refers to a display mode in which reflected waves detected by the ultrasound endoscope body 16 are converted into images and displayed on the display device 14.
  • B mode is an example of the "main image mode” according to the technology of the present disclosure
  • Doppler mode is an example of the "auxiliary image mode that is an image mode other than the main image mode” according to the technology of the present disclosure.
  • B mode is an image mode in which the intensity of reflected waves is converted into brightness and displayed as a two-dimensional tomographic image (hereinafter referred to as "B mode image").
  • Doppler mode is an image mode in which hemodynamics identified using the Doppler effect are displayed as color information superimposed on a B-mode image.
  • Doppler image an image generated under Doppler mode, that is, an image obtained by superimposing color information indicating hemodynamics on a B-mode image.
  • images generated under different image modes such as B-mode images and Doppler images, are simply referred to as “ultrasound images 24" below, when there is no need to distinguish between them and explain them.
  • the ultrasound image 24 is a moving image that includes a plurality of frames generated according to a frame rate determined according to the image mode.
  • the frame rate of Doppler mode is lower than the frame rate of B mode. Note that although a moving image is illustrated here, this is just an example, and the technology of the present disclosure is valid even if the ultrasound image 24 is a still image.
  • the ultrasound endoscope main body 16 includes an operating section 28 and an insertion section 30.
  • the insertion portion 30 is formed into a tubular shape.
  • the insertion portion 30 has a distal end portion 32, a curved portion 34, and a flexible portion 36.
  • the distal end portion 32, the curved portion 34, and the flexible portion 36 are arranged in this order from the distal end side to the proximal end side of the insertion portion 30.
  • the flexible section 36 is made of a long, flexible material and connects the operating section 28 and the curved section 34 .
  • the bending portion 34 partially curves or rotates around the axis of the insertion portion 30 when the operating portion 28 is operated.
  • the insertion section 30 curves depending on the shape of the hollow organ (for example, the shape of the duodenal duct) and rotates around the axis of the insertion section 30 while moving toward the back side of the hollow organ. sent.
  • the tip portion 32 is provided with an ultrasonic probe 38 and a treatment tool opening 40.
  • the ultrasonic probe 38 is provided on the distal end side of the distal end portion 32.
  • the ultrasonic probe 38 is a convex type ultrasonic probe that emits ultrasonic waves and receives reflected waves obtained by reflecting the emitted ultrasonic waves at the observation target area.
  • the treatment instrument opening 40 is formed closer to the proximal end of the distal end portion 32 than the ultrasound probe 38 is.
  • the treatment tool opening 40 is an opening for allowing the treatment tool 42 to protrude from the distal end portion 32.
  • a treatment instrument insertion port 44 is formed in the operation section 28 , and the treatment instrument 42 is inserted into the insertion section 30 from the treatment instrument insertion port 44 .
  • the treatment instrument 42 passes through the insertion section 30 and protrudes to the outside of the ultrasound endoscope main body 16 from the treatment instrument opening 40 .
  • the treatment instrument opening 40 also functions as a suction port for sucking blood, body waste, and the like.
  • a puncture needle is shown as the treatment instrument 42.
  • the treatment tool 42 may be a grasping forceps, a sheath, or the like.
  • an illumination device 46 and a camera 48 are provided at the tip 32.
  • the lighting device 46 emits light.
  • Examples of the types of light emitted from the lighting device 46 include visible light (eg, white light, etc.), non-visible light (eg, near-infrared light, etc.), and/or special light.
  • Examples of the special light include BLI light and/or LCI light.
  • the camera 48 images the inside of the hollow organ using an optical method.
  • An example of the camera 48 is a CMOS camera.
  • the CMOS camera is just an example, and other types of cameras such as a CCD camera may be used.
  • the image obtained by being captured by the camera 48 may be displayed on the display device 14, on a display device other than the display device 14 (for example, a display of a tablet terminal), or on a storage medium (for example, a flash memory). , HDD, and/or magnetic tape).
  • the ultrasonic endoscope 12 includes a processing device 18 and a universal cord 50.
  • the universal cord 50 has a base end 50A and a distal end 50B.
  • the base end portion 50A is connected to the operating portion 28.
  • the tip portion 50B is connected to the processing device 18. That is, the ultrasound endoscope main body 16 and the processing device 18 are connected via the universal cord 50.
  • the endoscope system 10 includes a reception device 52.
  • the reception device 52 is connected to the processing device 18.
  • the reception device 52 receives instructions from the user.
  • Examples of the reception device 52 include an operation panel having a plurality of hard keys and/or a touch panel, a keyboard, a mouse, a trackball, a foot switch, a smart device, and/or a microphone.
  • the processing device 18 performs various signal processing according to instructions received by the reception device 52, and sends and receives various signals to and from the ultrasound endoscope main body 16 and the like. For example, the processing device 18 causes the ultrasound probe 38 to emit ultrasound in accordance with the instruction received by the receiving device 52, and based on the reflected waves received by the ultrasound probe 38, the processing device 18 causes the ultrasound image 24 (see FIG. 1) is generated and output.
  • the display device 14 is also connected to the processing device 18.
  • the processing device 18 controls the display device 14 according to instructions received by the receiving device 52. Thereby, for example, the ultrasound image 24 generated by the processing device 18 is displayed on the screen 26 of the display device 14 (see FIG. 1).
  • the processing device 18 includes a computer 54, an input/output interface 56, a transmitting/receiving circuit 58, and a communication module 60.
  • the computer 54 is an example of a "computer" according to the technology of the present disclosure.
  • the computer 54 includes a processor 62, a RAM 64, and an NVM 66. Input/output interface 56, processor 62, RAM 64, and NVM 66 are connected to bus 68.
  • the processor 62 controls the entire processing device 18.
  • the processor 62 includes a CPU and a GPU, and the GPU operates under the control of the CPU and is mainly responsible for executing image processing.
  • the processor 62 may be one or more CPUs with integrated GPU functionality, or may be one or more CPUs without integrated GPU functionality.
  • the processor 62 may include a multi-core CPU or a TPU.
  • the processor 62 is an example of a "processor" according to the technology of the present disclosure.
  • the RAM 64 is a memory in which information is temporarily stored, and is used by the processor 62 as a work memory.
  • the NVM 66 is a nonvolatile storage device that stores various programs, various parameters, and the like. Examples of the NVM 66 include flash memory (eg, EEPROM) and/or SSD. Note that the flash memory and the SSD are merely examples, and may be other non-volatile storage devices such as an HDD, or a combination of two or more types of non-volatile storage devices.
  • the reception device 52 is connected to the input/output interface 56, and the processor 62 acquires instructions accepted by the reception device 52 via the input/output interface 56, and executes processing according to the acquired instructions. .
  • a transmitting/receiving circuit 58 is connected to the input/output interface 56.
  • the transmitting/receiving circuit 58 generates a pulse waveform ultrasound radiation signal 70 according to instructions from the processor 62 and outputs it to the ultrasound probe 38 .
  • the ultrasonic probe 38 converts the ultrasonic radiation signal 70 inputted from the transmitting/receiving circuit 58 into an ultrasonic wave, and radiates the ultrasonic wave to an observation target area 72 of the subject 22 .
  • the ultrasonic probe 38 receives a reflected wave obtained when the ultrasonic wave emitted from the ultrasonic probe 38 is reflected by the observation target area 72, and converts the reflected wave into a reflected wave signal 74, which is an electrical signal.
  • the transmitting/receiving circuit 58 digitizes the reflected wave signal 74 input from the ultrasound probe 38 and outputs the digitized reflected wave signal 74 to the processor 62 via the input/output interface 56 .
  • the processor 62 generates an ultrasound image 24 (see FIG. 1) showing the aspect of the observation target area 72 based on the reflected wave signal 74 input from the transmission/reception circuit 58 via the input/output interface 56.
  • a lighting device 46 (see FIG. 2) is also connected to the input/output interface 56.
  • the processor 62 controls the lighting device 46 via the input/output interface 56 to change the type of light emitted from the lighting device 46 and adjust the amount of light.
  • a camera 48 (see FIG. 2) is also connected to the input/output interface 56.
  • the processor 62 controls the camera 48 via the input/output interface 56 and acquires an image obtained by capturing the inside of the subject 22 by the camera 48 via the input/output interface 56 .
  • a communication module 60 is connected to the input/output interface 56.
  • the communication module 60 is an interface that includes a communication processor, an antenna, and the like.
  • the communication module 60 is connected to a network (not shown) such as a LAN or WAN, and manages communication between the processor 62 and external devices.
  • the display device 14 is connected to the input/output interface 56, and the processor 62 causes the display device 14 to display various information by controlling the display device 14 via the input/output interface 56.
  • the reception device 52 is connected to the input/output interface 56, and the processor 62 acquires instructions accepted by the reception device 52 via the input/output interface 56, and executes processing according to the acquired instructions. .
  • a diagnostic support program 76 and a learned model 78 are stored in the NVM 66.
  • the processor 62 reads the diagnostic support program 76 from the NVM 66 and executes the read diagnostic support program 76 on the RAM 64 to perform diagnostic support processing.
  • the diagnosis support process is a process that detects a lesion from the observation target area 72 using an AI method and supports diagnosis by the doctor 20 (see FIG. 1) based on the detection result.
  • the processor 62 detects a lesion from the observation target area 72 by detecting a location corresponding to a lesion from the ultrasound image 24 (see FIG. 1) according to the learned model 78 by performing diagnosis support processing.
  • the diagnosis support process is realized by the processor 62 operating as a generation unit 62A, a detection unit 62B, and a control unit 62C according to a diagnosis support program 76 executed on the RAM 64.
  • diagnosis support program 76 is an example of a "program” according to the technology of the present disclosure.
  • trained model 78 is a trained model that has a data structure used in the process of detecting a lesion from the ultrasound image 24.
  • the trained model 78 is an example of "detection support information" and a "trained model” according to the technology of the present disclosure.
  • a trained model 78 is generated by training an untrained model 80.
  • the B-mode image group 82 is used as teacher data.
  • the B-mode image group 82 consists of a plurality of mutually different B-mode images 82A.
  • the B-mode image 82A is an example of a "second ultrasound image” according to the technology of the present disclosure.
  • the B-mode image group 82 is an example of "teacher data" according to the technology of the present disclosure.
  • An example of the model 80 is a mathematical model using a neural network.
  • Examples of the type of NN include YOLO, R-CNN, and FCN.
  • the NN used in the model 80 may be, for example, a YOLO, an R-CNN, or a combination of an FCN and an RNN.
  • RNN is suitable for learning multiple images obtained in time series. Note that the types of NNs mentioned here are just examples, and other types of NNs that can detect objects by learning images may be used.
  • a lesion is shown in the plurality of B-mode images 82A. That is, the B-mode image 82A has a lesion area 84 that corresponds to a lesion.
  • An annotation 86 is added to the B-mode image 82A.
  • the annotation 86 is information that can specify the position of the lesion area 84 in the B-mode image 82A (for example, information that includes a plurality of coordinates that can specify the position of a rectangular frame circumscribing the lesion area 84).
  • annotation 86 information that can specify the position of the lesion area 84 in the B-mode image 82A is illustrated as an example of the annotation 86, but this is just an example.
  • annotation 86 may include other types of information that specify the lesion shown in the B-mode image 82A, such as information that can identify the type of lesion shown in the B-mode image 82A. good.
  • processing using the trained model 78 will be described as processing that is actively performed by the trained model 78 as the main subject. That is, for convenience of explanation, the trained model 78 will be described as having a function of processing input information and outputting a processing result. Further, in the following, for convenience of explanation, a part of the process of learning the model 80 will also be described as a process that is actively performed by the model 80 as the main subject. That is, for convenience of explanation, the model 80 will be described as having a function of processing input information and outputting a processing result.
  • Each B-mode image 82A included in the B-mode image group 82 is input to the model 80.
  • the model 80 predicts the position of the lesion area 84 from the input B-mode image 82A, and outputs the prediction result.
  • the prediction result includes information that allows specifying the position predicted by the model 80 as the position of the lesion area 84 within the B-mode image 82A.
  • An example of information that can specify the position predicted by the model 80 is, for example, the position of a bounding box surrounding the predicted position of the lesion area 84 (i.e., the position of the bounding box in the B-mode image 82A).
  • An example of this is information that includes multiple coordinates that can specify the location.
  • the model 80 is adjusted in accordance with the error between the annotation 86 added to the B-mode image 82A input to the model 80 and the prediction result output from the model 80. That is, the model 80 is optimized by adjusting a plurality of optimization variables (for example, a plurality of connection weights and a plurality of offset values, etc.) in the model 80 so that the error is minimized.
  • a model 78 is generated. That is, the data structure of the learned model 78 is obtained by causing the model 80 to learn a plurality of mutually different B-mode images 82A to which the annotations 86 are added.
  • the learned model 78 is a mathematical model generated by making the model 80 learn the B-mode image group 82. Therefore, for example, although the trained model 78 can be effectively used when detecting the lesion area 25 (see FIG. 1) from the B-mode image generated as the ultrasound image 24, When detecting the lesion area 25 from the obtained Doppler image, there is a higher possibility that false detection will occur compared to a B-mode image. This is because the model 80 has not learned the color information included in the Doppler image. Furthermore, if the lesion area 25 is detected from the Doppler image and the detection frame 27A (see FIG.
  • the color information included in the Doppler image i.e., the color indicating hemodynamic Since the detected information (transformed information) and the detection frame 27A are visualized in a mixed state, the presence of the detection frame 27A may hinder diagnosis for the doctor 20.
  • diagnostic support processing is performed as shown in FIGS. 5 to 9B as an example.
  • An example of the diagnosis support process will be specifically described below.
  • the generation unit 62A sets B mode or Doppler mode according to the image mode instruction.
  • B mode is used by the doctor 20 as the main image mode
  • Doppler mode is used by the doctor 20 as a sub image mode (ie, an auxiliary image mode).
  • the generation unit 62A obtains the B-mode image 24A by obtaining the reflected wave signal 74 from the transmitting/receiving circuit 58 under the B-mode and generating the B-mode image 24A based on the obtained reflected wave signal 74.
  • the observation target area 72 is shown in the B-mode image 24A.
  • the B-mode image 24A is an image showing a two-dimensional cross section of the observation target region 72.
  • a B-mode image 24A having a lesion area 25 is generated by the generation unit 62A, but of course a B-mode image 24A that does not include a lesion is generated by the generation unit 62A.
  • the B-mode image 24A is an example of a "first ultrasound image” according to the technology of the present disclosure.
  • the lesion area 25 is an example of a "specific area" according to the technology of the present disclosure.
  • the generation unit 62A acquires the reflected wave signal 74 from the transmitting/receiving circuit 58 in Doppler mode, and generates the Doppler image 24B based on the acquired reflected wave signal 74.
  • the Doppler image 24B is an image obtained by superimposing color information 24B1 expressing the characteristics in the observation target region 72 (see FIG. 3) in colors (that is, chromatic colors) on the B-mode image 24A. .
  • the color information 24B1 is information indicating hemodynamics specified using the Doppler effect.
  • the color information 24B1 is information referenced by the doctor 20 in order to diagnose the observation target area 72 (see FIG. 3).
  • the Doppler image 24B is an example of "an image obtained in the auxiliary image mode" according to the technology of the present disclosure.
  • the color information 24B1 is an example of "reference information”, “color information”, and “another image” according to the technology of the present disclosure.
  • superimposing the color information 24B1 on the B-mode image 24A is an example of "synthesis” according to the technology of the present disclosure.
  • the control unit 62C selects a detection mode and a non-detection mode depending on whether the ultrasound image 24 generated by the generation unit 62A is a B-mode image 24A or a Doppler image 24B. Switch.
  • the control unit 62C determines whether the ultrasound image 24 generated by the generation unit 62A is a B-mode image 24A or a Doppler image 24B according to the image mode instruction received by the reception device 52. , switches between detection mode and non-detection mode according to the determination result. That is, the control unit 62C switches between the detection mode and the non-detection mode according to the image mode set according to the image mode instruction received by the reception device. For example, the control unit 62C sets the detection mode in the case of B mode, and sets the non-detection mode in the case of Doppler mode.
  • the detection mode is an operation mode in which the lesion area 25 (see FIG. 5) is detected from the B-mode image 24A (see FIG. 5) using the AI method, that is, based on the trained model 78 created using the B-mode image group 82.
  • This is an operation mode in which the lesion area 25 (see FIG. 5) is detected from the B-mode image 24A.
  • the detection mode is used when the color information 24B1 is not superimposed on the B-mode image 24A. In other words, the detection mode is used when the Doppler image 24B is not generated by the generation unit 62A (that is, when the B-mode image 24A is generated by the generation unit 62A).
  • the non-detection mode is an operation mode in which the lesion area 25 is not detected from the ultrasound image 24.
  • the non-detection mode an operation mode in which the lesion area 25 is not detected from the ultrasound image 24 is illustrated, but the technology of the present disclosure is not limited to this.
  • the non-detection mode is an operation mode in which the lesion area 25 is detected from the ultrasound image 24 and the detection result is not output (in other words, the lesion area 25 is detected by the AI method in the background, but the detection result is visualized). It may also be an operating mode in which it is not allowed.
  • the non-detection mode is used when the color information 24B1 is superimposed on the B-mode image 24A. In other words, the non-detection mode is used when the Doppler image 24B is generated by the generation unit 62A.
  • the detection unit 62B detects a lesion from the B-mode image 24A generated by the generation unit 62A according to the learned model 78. That is, the detection unit 62B determines the presence or absence of the lesion area 25 in the B-mode image 24A according to the learned model 78, and specifies the position of the lesion area 25 when the lesion area 25 is present in the B-mode image 24A.
  • the location identifying information 128 (for example, information including a plurality of coordinates that identifies the location of the lesion area 126) is generated.
  • the process by which the detection unit 62B detects a lesion will be explained using the learned model 78 as the main subject.
  • the learned model The presence or absence of the lesion area 25 in the B-mode image 24A is determined.
  • the trained model 78 determines that the lesion area 25 exists in the B-mode image 24A (that is, when the lesion shown in the B-mode image 24A is detected), it outputs the position specifying information 27.
  • the detection frame 27A is a rectangular frame corresponding to a bounding box (for example, a bounding box with the highest reliability score) used when the trained model 78 detects the lesion area 25 from the B-mode image 24A. That is, the detection frame 27A is a frame surrounding the lesion area 25 detected by the learned model 78.
  • the detection unit 62B detects a B-mode image 24A corresponding to the location information 27 output from the trained model 78 (i.e., a B-mode image 24A that is input to the learned model 78 for outputting the location information 27) according to the location information 27.
  • a detection frame 27A is added to the B-mode image 24A). That is, the detection unit 62B superimposes the detection frame 27A on the B-mode image 24A corresponding to the position specifying information 27 output from the learned model 78 so as to surround the lesion area 25, thereby converting the B-mode image 27 into a B-mode image 27.
  • a detection frame 27A is provided.
  • the detection unit 62B When the learned model 78 determines that the lesion area 25 is present in the B-mode image 27, the detection unit 62B outputs the B-mode image 24A to which the detection frame 27A is attached to the control unit 62C. Further, when the learned model 78 determines that the lesion area 25 does not exist in the B-mode image 24A, the detection unit 62B outputs the B-mode image 24A to which the detection frame 27A is not attached to the control unit 62C.
  • the control unit 62C displays the B-mode image 24A input from the detection unit 62B (that is, the B-mode image 24A reflecting the detection result of the detection unit 62B) on the screen 26 of the display device 14.
  • a B-mode image 24A with a detection frame 27A surrounding the lesion area 25 that is, a B-mode image 24A with the detection frame 27A superimposed
  • the B-mode image 24A to which the detection frame 27A is not attached that is, the B-mode image 24A output from the learned model 78
  • Ru is displayed on the screen 26.
  • the control unit 62C acquires the Doppler image 24B generated by the generation unit 62A, and displays the acquired Doppler image 24B on the screen 26 of the display device 14.
  • FIGS. 9A and 9B show a processor of the processing device 18 on the condition that diagnosis using the endoscope system 10 has started (for example, that the ultrasound endoscope 12 has started emitting ultrasonic waves).
  • An example of the flow of the diagnostic support process performed by 62 is shown.
  • the flow of the diagnostic support process shown in FIGS. 9A and 9B is an example of the "diagnosis support method" according to the technology of the present disclosure.
  • step ST10 the control unit 62C determines whether the currently set image mode is B mode. In step ST10, if the currently set image mode is not B mode (that is, Doppler mode), the determination is negative and the diagnosis support process moves to step ST26 shown in FIG. 9B. In step ST10, if the currently set image mode is B mode, the determination is affirmative and the diagnosis support process moves to step ST12.
  • B mode that is, Doppler mode
  • step ST12 the control unit 62C determines whether the currently set operation mode is the non-detection mode. In step ST12, if the currently set operating mode is not the non-detection mode (that is, the detection mode), the determination is negative and the diagnostic support process moves to step ST16. In step ST12, if the currently set operating mode is the non-detection mode, the determination is affirmative and the diagnostic support process moves to step ST14.
  • step ST14 the control unit 62C switches the operation mode from the non-detection mode to the detection mode. After the process of step ST14 is executed, the diagnosis support process moves to step ST16.
  • step ST16 the generation unit 62A generates the B-mode image 24A based on the reflected wave signal 74 (see FIG. 5) input from the transmission/reception circuit 58.
  • the diagnosis support process moves to step ST18.
  • step ST18 the detection unit 62B inputs the B-mode image 24A generated in step ST16 to the learned model 78. After the process of step ST18 is executed, the diagnosis support process moves to step ST20.
  • step ST20 the detection unit 62B uses the learned model 78 to determine whether a lesion is shown in the B-mode image 24A input to the learned model 78 in step ST18. If a lesion is shown in the B-mode image 24A, the learned model 78 outputs the position specifying information 27.
  • step ST20 if no lesion is shown in the B-mode image 24A, the determination is negative and the diagnosis support process moves to step ST24. In step ST20, if a lesion is shown in the B-mode image 24A, the determination is affirmative and the diagnosis support process moves to step ST22.
  • step ST20 If the determination in step ST20 is affirmative, the detection unit 62B generates the detection frame 27A based on the position specifying information 128 output from the trained model 78, and , the detection frame 27A is superimposed so as to surround the lesion area 25. Then, in step ST22, the control unit 62C displays the B-mode image 24A in which the lesion area 25 is surrounded by the detection frame 27A on the screen 26 of the display device 14. Since the lesion area 25 in the B-mode image 24A is surrounded by the detection frame 27A, the doctor 20 can visually grasp in which position the lesion appears in the B-mode image 24A. Become. After the process of step ST22 is executed, the diagnosis support process moves to step ST26 shown in FIG. 9B.
  • step ST24 the control unit 62C displays the radial ultrasound image 24 generated in step ST16 on the screen 26 of the display device 14. In this case, since the detection frame 27A is not added to the B-mode image 24A, the doctor 20 can visually recognize that no lesion is shown in the B-mode image 24A.
  • the diagnosis support process moves to step ST26 shown in FIG. 9B.
  • step ST26 shown in FIG. 9B the control unit 62C determines whether the currently set operation mode is the detection mode. In step ST26, if the currently set operating mode is not the detection mode (that is, the non-detection mode), the determination is negative and the diagnostic support process moves to step ST30. In step ST26, if the currently set operating mode is the detection mode, the determination is affirmative and the diagnosis support process moves to step ST28.
  • step ST28 the control unit 62C switches the operation mode from the non-detection mode to the detection mode. After the process of step ST28 is executed, the diagnosis support process moves to step ST30.
  • step ST30 the generation unit 62A generates the Doppler image 24B based on the reflected wave signal 74 (see FIG. 5) input from the transmission/reception circuit 58.
  • the diagnosis support process moves to step ST32.
  • step ST32 the control unit 62C displays the Doppler image 24B generated in step ST30 on the screen 26 of the display device 14. Thereby, the doctor 20 can visually recognize hemodynamics from the color information 24B1 (see FIG. 8) included in the Doppler image 24B displayed on the screen 26. Further, since the Doppler image 24B does not include the detection frame 27A, the detection frame 27A does not interfere with observation of the color information 24B1. After the process of step ST32 is executed, the diagnosis support process moves to step ST34.
  • step ST34 the control unit 62C determines whether conditions for terminating the diagnostic support process (hereinafter referred to as "diagnostic support terminating conditions") are satisfied.
  • An example of the diagnostic support termination condition is that the receiving device 52 has accepted an instruction to terminate the diagnostic support process.
  • step ST34 if the diagnostic support end condition is not satisfied, the determination is negative and the diagnostic support process moves to step ST10 shown in FIG. 9A.
  • step ST34 if the diagnostic support end condition is satisfied, the determination is affirmative and the diagnostic support process ends.
  • the detection mode is an operation mode in which the lesion area 25 is detected from the B-mode image 24A using an AI method using the trained model 78.
  • the non-detection mode is an operation mode in which the lesion area 25 is not detected from the ultrasound image 24.
  • the trained model 78 is created using the B-mode image group 82 as training data. Therefore, when the process of detecting the lesion area 25 from the Doppler image 24B is performed according to the learned model 78, the lesion area 25 is There is a high possibility that areas other than the above will be erroneously detected as the lesion area 25.
  • the detection mode and non-detection mode are switched depending on whether or not the B-mode image 24A is generated. In other words, the detection mode and non-detection mode are switched depending on whether B mode or Doppler mode is set as the image mode.
  • the detection mode is an operation mode used when the color information 24B1 is not superimposed on the B-mode image 24A
  • the non-detection mode is an operation mode used when the color information 24B1 is superimposed on the B-mode image 24A.
  • This is the operating mode used when the In other words, detection mode is the operating mode used when the imaging mode is not Doppler mode (i.e. B mode), and non-detection mode is the operating mode used when the imaging mode is Doppler mode. be. Therefore, by selectively using the detection mode and non-detection mode in the manner described above, it is possible to prevent areas other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the presence of the color information 24B1.
  • the color information 24B1 and the detection frame 27A are not displayed in a mixed state on the screen 26, so the visualization of the detection result of the lesion area 25 (that is, the presence of the detection frame 27A) is Obstruction of observation of the color information 24B1 included in the Doppler image 24B can be suppressed.
  • the diagnostic support process shown in FIG. 10 is performed by the processor 62.
  • the flowchart shown in FIG. 10 differs from the flowchart shown in FIG. 9A in that the process in step ST100 is applied instead of the process in step ST10.
  • step ST100 shown in FIG. 10 the control unit 62C performs image analysis processing on the image generated by the generation unit 62A, so that the color information 24B1 is superimposed on the image generated by the generation unit 62A. Determine whether or not there is.
  • step ST100 if the color information 24B1 is not superimposed on the image generated by the generation unit 62A, the determination is affirmative and the diagnosis support process moves to step ST12.
  • step ST100 if the color information 24B1 is superimposed on the image generated by the generation unit 62A, the determination is negative and the process moves to step ST26 shown in FIG. 9B.
  • the detection mode is set as the operation mode, and the color information 24B1 is superimposed on the image generated by the generation unit 62A. If so, non-detection mode is set as the operation mode. Therefore, effects similar to those of the above embodiment can be obtained.
  • the detection mode is set as the operation mode for the B-mode image 24A, and the lesion area 25 is detected using the AI method for the B-mode image 24A. Even if it is the B-mode image 24A, the non-detection mode may be set as the operation mode depending on the conditions.
  • the control unit 62C sets the non-detection mode as the operation mode.
  • the character information 88, the measurement line 90, and the treatment auxiliary information 92 are examples of "reference information” according to the technology of the present disclosure.
  • the character information 88 is an example of "character information” according to the technology of the present disclosure.
  • the measurement line 90 is an example of a “measurement line” according to the technology of the present disclosure.
  • the treatment assistance information 92 is an example of "treatment assistance information" according to the technology of the present disclosure.
  • the text information 88 refers to, for example, a text image (that is, an image expressing text) that assists in observing the observation target area 72 (see FIG. 3).
  • Assisting the observation of the observation target region 72 means, for example, that it serves as a reference for the doctor 20 when identifying the presence or absence of a lesion and the position of the lesion from the B-mode image 24A.
  • the concept of "characters" according to this embodiment also includes numbers, symbols, and the like. Examples of the characters according to this embodiment include characters defined by Unicode.
  • information that visualizes the dimensions of the lesion area 25 is shown as an example of the text information 88.
  • the measurement line 90 is, for example, a line used for measurement within the observation target area 72 (see FIG. 3).
  • a dimension line that allows the length of the lesion area 25 in one direction to be visually specified is shown as an example of the measurement line 90. Note that although a dimension line is illustrated here, this is just an example, and visualization information other than dimensionality (for example, a line used to measure a specified part other than the lesion area 25) It may be.
  • the treatment assistance information 92 is information that assists treatment using the fine needle aspiration method.
  • a puncture needle see FIG. 2
  • an arrow is shown that indicates the direction in which the puncture needle is inserted. Note that although an arrow is illustrated here, this is just an example, and visualization information other than arrows (for example, a broken line or a blinking line) may be used.
  • the control unit 62C performs image analysis processing on the image generated by the generation unit 62A, so that the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed on the image generated by the generation unit 62A. Determine whether or not. In the example shown in FIG. 11, the control unit 62C determines whether the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed on the B-mode image 24A generated by the generation unit 62A.
  • the control unit 62C sets the detection mode as the operation mode. Further, when the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed on the B-mode image 24A generated by the generation unit 62A, the control unit 62C sets the non-detection mode as the operation mode. . In the example shown in FIG. 11, the text information 88, the measurement line 90, and the treatment assistance information 92 are superimposed on the B-mode image 24A generated by the generation unit 62A, so the non-detection mode is set as the operation mode. In this case, the control unit 62C displays the B-mode image 24A with the text information 88, the measurement line 90, and the treatment assistance information 92 superimposed on the screen 26 of the display device 14.
  • FIG. 12 shows an example of the flow of diagnostic support processing according to the second modification.
  • the flowchart shown in FIG. 12 differs from the flowchart shown in FIG. 9A in that it includes the process of step ST200 between the process of step ST16 and the process of step ST18, and the process of steps ST202 to ST206 as the process subsequent to step ST24. The difference is that it has
  • step ST200 the control unit 62C determines whether character information 88, measurement line 90, and/or treatment auxiliary information 92 are superimposed on the B-mode image 24A generated in step ST16. Determine whether In step ST200, if the character information 88, the measurement line 90, and/or the treatment auxiliary information 92 are not superimposed on the B-mode image 24A generated in step ST16, the determination is negative and the diagnosis support process is continued in step ST18. Move to. In step ST200, if the character information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed on the B-mode image 24A generated in step ST16, the determination is affirmative, and the diagnosis support process is performed in step ST202. Move to.
  • step ST202 the control unit 62C determines whether the currently set operation mode is the detection mode. In step ST202, if the currently set operating mode is not the detection mode, the determination is negative and the diagnosis support process moves to step ST206. In step ST202, if the currently set operation mode is the detection mode, the determination is affirmative and the diagnosis support process moves to step ST204.
  • step ST204 the control unit 62C switches the operation mode from the detection mode to the non-detection mode. After the process of step ST204 is executed, the diagnosis support process moves to step ST206.
  • step ST206 the control unit 62C displays the B-mode image 24A generated in step ST16 (that is, the B-mode image 24A to which the position specifying information 27 is not added) on the screen 26 of the display device 14.
  • the diagnosis support process moves to step ST26 shown in FIG. 9B.
  • the lesion area 25 is there is a high possibility that the area will be erroneously detected as the lesion area 25. Furthermore, suppose that a process is performed to detect the lesion area 25 from the B-mode image 24A on which the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed, according to the learned model 78, and the detection result is a detection frame.
  • the presence of the detection frame 27A may interfere with the observation of the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 for the doctor 20.
  • Obstructing the observation of the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 means that it obstructs the diagnosis for the doctor 20.
  • the detection mode and non-detection mode are switched depending on whether the character information 88, the measurement line 90, and/or the treatment assistance information 92 are superimposed on the B-mode image 24A. That is, when the text information 88, the measurement line 90, and/or the treatment auxiliary information 92 are superimposed on the B-mode image 24A, the non-detection mode is set as the operation mode, and the text information 88, the measurement line 90, and the treatment When none of the auxiliary information 92 is superimposed on the B-mode image 24A, the detection mode is set as the operation mode.
  • the detection mode and non-detection mode are switched depending on the presence or absence of the color information 24B1, but the technology of the present disclosure is not limited to this.
  • the detection mode is determined according to the number of specific chromatic pixels superimposed on the ultrasound image 24 generated by the generation unit 62A (for example, the number of chromatic pixels included in the color information 24B1). It may be possible to switch between the mode and the non-detection mode.
  • the control unit 62C determines the number of chromatic pixels whose saturation is equal to or higher than the first threshold value (hereinafter referred to as “chromatic color The control unit 62C determines whether the number of chromatic pixels is equal to or greater than a second threshold. The control unit 62C determines whether the number of chromatic pixels is less than the second threshold or not.
  • the detection mode is set as the operation mode, and when the number of chromatic pixels is equal to or greater than the second threshold, the non-detection mode is set as the operation mode.
  • the non-detection mode may be set as the operation mode.
  • the first image mode is included in reflected waves (hereinafter simply referred to as "reflected waves") obtained by emitting ultrasonic waves to the observation target area 72 and being reflected by the observation target area 72.
  • reflected waves This is an image mode in which an ultrasound image 24 is generated using high frequency components.
  • the second image mode is an image mode in which the B-mode image 24A and another image are combined.
  • the generation unit 62A selectively sets B mode, Doppler mode, elastography mode, THI mode, CH mode, and CHI mode according to the image mode instruction received by the reception device 52. do.
  • the generation unit 62A then generates an ultrasound image 24 according to the set image mode.
  • the generation unit 62A generates the Doppler image 24B under the Doppler mode, generates the elastography image 24C under the elastography mode, generates the THI image 24D under the THI mode, and under the CH mode, A CH image 24E is generated, and a CHI image 24F is generated under CHI mode.
  • the control unit 62C displays the ultrasound image 24 generated according to the set image mode on the screen 26 of the display device 14. That is, under the Doppler mode, the Doppler image 24B is displayed on the screen 26, under the elastography mode, the elastography image 24C is displayed on the screen 26, and under the THI mode, the THI image 24D is displayed on the screen 26, and the CH Under CH mode, CH image 24E is displayed on screen 26, and under CHI mode, CHI image 24F is displayed on screen 26. Note that the elastography image 24C, the THI image 24D, the CH image 24E, and the CHI image 24F are known ultrasound images, so a description thereof will be omitted here.
  • the non-detection mode is set as the operation mode, so the reflected wave It is possible to prevent an area other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the presence of an image area corresponding to a high frequency component included in the lesion area 25 . Furthermore, when observing the ultrasound image 24 (here, as an example, the THI image 24D, CH image 24E, or CHI image 24F), the existence of an image area corresponding to a high frequency component included in the reflected wave is detected in the ultrasound image. It is possible to prevent the diagnosis from being hindered by affecting the visibility of the 24.
  • a plurality of parameters 94 are stored in the NVM 66 as setting values that determine the image quality of the ultrasound image 24, and the control unit 62C acquires the plurality of parameters 94 from the NVM 66, The detection mode and non-detection mode are switched according to the plurality of acquired parameters 94.
  • the NVM 66 stores a frequency parameter 94A, a depth parameter 94B, a brightness parameter 94C, a dynamic range parameter 94D, and a magnification parameter 94E as a plurality of parameters 94.
  • the control unit 62C determines that the frequency parameter 94A is within a first range, the depth parameter 94B is within a second range, the brightness parameter 94C is within a third range, and the dynamic range parameter 94D is within a fourth range. , and when the condition that the magnification parameter 94E is within the fifth range (hereinafter referred to as "parameter condition") is satisfied, the detection mode is set as the operation mode. Further, the control unit 62C sets the non-detection mode as the operation mode when the parameter conditions are not satisfied.
  • the first to fifth ranges are ranges specified in advance. The first to fifth ranges are examples of "designated ranges" according to the technology of the present disclosure.
  • the first range is the ideal range of the frequency of the ultrasound waves emitted from the ultrasound probe 38.
  • An example of an ideal range of ultrasonic frequencies is a frequency range in which areas other than the lesion area 25 are not erroneously detected as the lesion area 25 (for example, a frequency range for all B-mode images 82A included in the B-mode image group 82). frequency range (applicable frequency range).
  • the second range is the ideal range of depth expressed in the ultrasound image 24.
  • An example of an ideal depth range is a depth range in which areas other than the lesion area 25 are not erroneously detected as the lesion area 25 (for example, a depth range that is applied to all B-mode images 82A included in the B-mode image group 82). depth range).
  • the third range is the ideal range of brightness of the ultrasound image 24.
  • An example of an ideal brightness range is a brightness range in which areas other than the lesion area 25 are not erroneously detected as the lesion area 25 (for example, a brightness range for all B-mode images 82A included in the B-mode image group 82). range of applied brightness).
  • the fifth range is an ideal range of digital zoom magnification for the ultrasound image 24.
  • An example of an ideal digital zoom magnification range is a digital zoom magnification range in which areas other than the lesion area 25 are not erroneously detected as the lesion area 25 (for example, when all B-mode images 82A included in the B-mode image group 82 The magnification range of digital zoom applied to
  • the detection mode and non-detection mode are switched according to the plurality of parameters 94. That is, the detection mode is set when the parameter conditions are satisfied, and the non-detection mode is set when the parameter conditions are not satisfied. Therefore, it is possible to suppress areas other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the plurality of parameters 94 not being within the ideal range, and to prevent the plurality of parameters 94 from being within the ideal range. It is possible to prevent the visibility of the ultrasonic image 24 from being affected by the fact that the ultrasound image 24 is not displayed to be the same as that of the ultrasound image 24 to hinder diagnosis.
  • the detection mode is set when the frequency parameter 94A is within the first range, and the non-detection mode is set when the frequency parameter 94A is not within the first range. Therefore, it is possible to prevent areas other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the frequency parameter 94A not being within the first range, and to prevent the frequency parameter 94A from being within the first range. It is possible to prevent diagnosis from being hindered by affecting the visibility of the ultrasound image 24.
  • the detection mode is set when the depth parameter 94B is within the second range, and the non-detection mode is set when the depth parameter 94B is not within the second range. Therefore, it is possible to prevent an area other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the depth parameter 94B not being within the second range, and to prevent the depth parameter 94B from being within the second range. It is possible to prevent diagnosis from being hindered by affecting the visibility of the ultrasound image 24.
  • the detection mode is set when the brightness parameter 94C is within the third range, and the non-detection mode is set when the brightness parameter 94C is not within the third range. . Therefore, an area other than the lesion area 25 is prevented from being erroneously detected as the lesion area 25 due to the brightness parameter 94C not being within the third range, and the brightness parameter 94C is not within the third range. It is possible to prevent this from affecting the visibility of the ultrasound image 24 and hindering diagnosis.
  • the detection mode is set when the dynamic range parameter 94D is within the fourth range, and the non-detection mode is set when the dynamic range parameter 94D is not within the fourth range. . Therefore, an area other than the lesion area 25 is prevented from being erroneously detected as the lesion area 25 due to the dynamic range parameter 94D not being within the fourth range, and the dynamic range parameter 94D is not within the fourth range. It is possible to prevent this from affecting the visibility of the ultrasound image 24 and hindering diagnosis.
  • the detection mode is set when the magnification parameter 94E is within the fifth range, and the non-detection mode is set when the magnification parameter 94E is not within the fifth range. Therefore, it is possible to prevent areas other than the lesion area 25 from being erroneously detected as the lesion area 25 due to the magnification parameter 94E not being within the fifth range, and to prevent the magnification parameter 94E from being within the fifth range. It is possible to prevent diagnosis from being hindered by affecting the visibility of the ultrasound image 24.
  • a plurality of parameters 94 are stored in the NVM 66, and the detection mode and non-detection mode are switched by the control unit 62C according to the plurality of parameters 94 in the NVM 66. Therefore, the operation mode can be set according to the plurality of parameters 94 without manually inputting the plurality of parameters 94 required for determining switching between the detection mode and the non-detection mode every time the ultrasound image 24 is generated.
  • the technology of the present disclosure is not limited to this, and at least one of the plurality of parameters 94 is within a prespecified range (i.e., the above-mentioned ideal range). )
  • the detection mode and the non-detection mode may be switched depending on whether the detection mode is within ).
  • a plurality of parameters 94 stored in the NVM 66 are acquired by the control unit 62C, and the control unit 62C switches between the detection mode and the non-detection mode according to the plurality of parameters 94.
  • the technology of the present disclosure is applicable even when the plurality of parameters 94 are not stored in the NVM 66.
  • the generation unit 62A generates a frame 96 under B mode.
  • Frame 96 includes B-mode image 24A, with text image 98 superimposed thereon.
  • the text image 98 is an image obtained by converting the plurality of parameters 94 into characters.
  • the control unit 62C displays a frame 96 on the screen 26 of the display device 14.
  • the B-mode image 24A and the text image 98 are displayed on the screen 26, so that the doctor 20 can observe the B-mode image 24A and grasp the plurality of parameters 94 indicated by the text image 98. Can be done.
  • the control unit 62C identifies an area 100 in which the text image 98 exists from the frame 96, and extracts the identified area 100 from the frame 96. Then, the control unit 62C performs image recognition processing (for example, AI-based image recognition processing or non-AI-based image recognition processing using template matching, etc.) on the region 100 extracted from the frame 96. A plurality of parameters 94 are recognized and acquired from a text image 98 included in the text image 100. Then, the control unit 62C switches between the detection mode and the non-detection mode according to the plurality of parameters 94 in the same manner as in the fifth modification. As a result, the same effects as the fifth modification described above can be obtained.
  • image recognition processing for example, AI-based image recognition processing or non-AI-based image recognition processing using template matching, etc.
  • the processor 62 changes the detection frequency, The detection accuracy and/or the detection target may be different.
  • the detection frequency may be different depending on the image mode. Make it different.
  • the detection frequency in B mode is increased, and the detection frequency in image modes other than B mode (hereinafter referred to as "other image modes") is increased.
  • the detection frequency in B mode is set to every frame, and the detection frequency in other image modes is set to every multiple frames (for example, every two frames).
  • a first example of a method for varying the detection accuracy is the amount of training performed on the model 80 to obtain the trained model 78 used in B mode and the amount of training performed on the model 80 to obtain the trained model used in other image modes.
  • One method is to vary the amount of learning performed for each student.
  • a second example of a method of varying the detection accuracy is a method of varying the number of intermediate layers of the trained model 78 used in the B mode and the number of intermediate layers of the trained model used in other image modes. .
  • the detection target is made different depending on the image mode
  • the detection target is made different depending on when B mode is used as the main image mode and when another image mode is used as the main image mode.
  • the trained model 78 used in the B mode is generated by training the model 80 to detect the first type of lesion, and the obtained trained model is used.
  • One method is to generate a trained model used in the image mode by training the model 80 to detect a second type of lesion (that is, a type of lesion different from the first type).
  • FIG. 18 shows an example of the flow of diagnostic support processing according to the seventh modification.
  • the flowchart shown in FIG. 18 differs from the flowchart shown in FIG. 9A in that the processing in steps ST300 to ST304 is included between the processing in step ST16 and the processing in step ST18.
  • step ST300 the control unit 62C determines whether the detection frequency, detection accuracy, and detection target for B mode have been set. In step ST300, if the detection frequency, detection accuracy, and detection target for B mode are set, the determination is affirmative and the diagnosis support process moves to step ST304. In step ST300, if the detection frequency, detection accuracy, and detection target for B mode are not set, the determination is negative and the diagnosis support process moves to step ST302.
  • step ST302 the control unit 62C sets the detection frequency, detection accuracy, and detection target for B mode. After the process of step ST302 is executed, the diagnosis support process moves to step ST304.
  • step ST304 the control unit 62C determines whether the timing to detect the lesion area 25 has arrived.
  • the timing of detecting the lesion area 25 is, for example, a timing separated by a time interval defined by the reciprocal of the frame rate.
  • step ST304 if the timing to detect the lesion area 25 has not arrived, the determination is negative and the diagnosis support process moves to step ST24.
  • step ST304 when the timing to detect the lesion area 25 has arrived, the determination is affirmative and the diagnosis support process moves to step ST18.
  • the detection frequency is varied depending on the image mode, so that it is possible to prevent the number of times the lesion area 25 is detected from being excessive or insufficient depending on the image mode. Can be done. Moreover, according to the seventh modification, since the detection accuracy is varied depending on the image mode, it is possible to suppress a decrease in the accuracy of detecting the lesion area 25 depending on the image mode. Furthermore, according to the seventh modification, since the detection target is changed depending on the image mode, it is possible to suppress detection of an unintended portion as the lesion area 25.
  • the seventh modification example has been described using an example in which the detection frequency, detection accuracy, and/or detection target is varied depending on the image mode, the technology of the present disclosure is not limited to this.
  • reference information for example, text information 88, measurement line 90, and/or treatment auxiliary information 92, etc.
  • setting values that define the image quality of the ultrasound image 24 for example, , a plurality of parameters 94
  • the detection frequency, detection accuracy, and/or detection target may be varied.
  • the detection mode may be set as the operating mode in the case of the A mode or the M mode, and the detection mode may be set as the operating mode in the case of the image mode determined in advance as a single main image mode.
  • the detection mode may be set as the mode.
  • the main image mode may be any image mode that corresponds to the type of ultrasound image 24 that the model 80 is to learn.
  • the main image mode will be A-mode
  • the ultrasound image 24 that the model 80 is to learn is an M-mode
  • the main image mode will be M-mode. becomes.
  • the technology of the present disclosure is not limited to this, and together with the lesion area 25, or in place of the lesion area 25, other than the lesion area 25 is detected.
  • a specific region for example, a specific organ may be detected.
  • the technology of the present disclosure is not limited to this.
  • the lesion area 25 may be detected using a non-AI method.
  • non-AI detection methods include a detection method using template matching.
  • the template used for template matching is an example of "detection support information" according to the technology of the present disclosure.
  • the ultrasound endoscope 12 is used as an example, but the technology of the present disclosure is also applicable to an external ultrasound diagnostic device.
  • the ultrasonic image 24 generated by the processing device 18 and the detection frame 27A are displayed on the screen 26 of the display device 14, but the ultrasonic image 24 to which the detection frame 27A is attached is
  • the information may be transmitted to various devices such as a server, a PC, and/or a tablet terminal, and stored in the memory of the various devices. Further, the ultrasound image 24 to which the detection frame 27A is added may be recorded in the report. Further, the position identification information 27 may also be stored in the memory of various devices, or may be recorded in a report. It is preferable that the ultrasound image 24, detection frame 27A, and/or position identification information 27 be stored in a memory or recorded in a report for each subject 22.
  • the diagnostic support process may be performed by the processing device 18 and at least one device provided outside the processing device 18, or may be performed by at least one device provided outside the processing device 18 (for example, a The processing may be performed only by an auxiliary processing device connected to the processing device 18 and used to expand the functions of the processing device 18.
  • An example of at least one device provided outside the processing device 18 is a server.
  • the server may be realized by cloud computing.
  • Cloud computing is just one example, and may be network computing such as fog computing, edge computing, or grid computing.
  • the server mentioned as at least one device provided outside the processing device 18 is merely an example, and instead of the server, at least one PC and/or at least one mainframe, etc. may be used. Alternatively, it may be at least one server, at least one PC, and/or at least one mainframe.
  • the doctor 20 is made to perceive the presence or absence of a lesion and the position of the lesion, but the doctor 20 may be made to perceive the type of lesion and/or the degree of progression of the lesion.
  • the model 80 is created using an ultrasound image (B-mode image 82A in the example shown in FIG. 4) as training data with the annotation 86 including information that can identify the type of lesion and/or the degree of progression of the lesion. Just use it for learning.
  • processors can be used as hardware resources for executing the diagnostic support processing described in the above embodiments.
  • the processor include a processor that is a general-purpose processor that functions as a hardware resource that executes diagnostic support processing by executing software, that is, a program.
  • the processor include a dedicated electronic circuit such as an FPGA, a PLD, or an ASIC, which is a processor having a circuit configuration specifically designed to execute a specific process.
  • Each processor has a built-in memory or is connected to it, and each processor uses the memory to execute diagnostic support processing.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

診断支援装置は、プロセッサを備える。プロセッサは、超音波モジュールによって生成された第1超音波画像を取得し、参照情報が第1超音波画像に合成されているか否か、第1超音波画像が補助画像モードで得られた画像であるか否か、又は、第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替え、第1動作モードは、主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて特定領域を検出する動作モードであり、第2動作モードは、特定領域を検出して検出結果を出力しないか、又は、特定領域を検出しない動作モードである。

Description

診断支援装置、超音波内視鏡、診断支援方法、及びプログラム
 本開示の技術は、診断支援装置、超音波内視鏡、診断支援方法、及びプログラムに関する。
 国際公開2020/036121号には、被写体を撮影した画像の種類を識別する識別部と、画像を用いて被写体を認識する認識処理を行う認識部と、識別部が識別した特定の種類の前記画像について、認識処理が機能するか否かを報知する報知部と、を備える内視鏡システムが開示されている。
 特開2021-035442号公報には、画像モードがBモード又はCFモードの場合に診断支援を行い、画像モードがPWモードの場合に診断支援を行わない超音波診断システムが開示されている。
 特開2021-083699号公報には、乳房に対して当接され、乳房に対する超音波の送受波により受信信号を出力するプローブと、受信信号に基づいて、乳腺像、大胸筋像及びそれらの間の境界像を含む超音波画像を生成する画像生成部と、超音波画像に基づいて、境界像の傾斜角度を演算する傾斜角度演算部と、境界像の傾斜角度に基づいて、プローブの操作を支援する支援像を生成する支援像生成手段と、を含む超音波診断装置が開示されている。
 本開示の技術に係る一つの実施形態は、特定領域以外の領域が特定領域として誤検出されること抑制し、かつ、特定領域の検出結果の可視化が診断の妨げになることを抑制することができる診断支援装置、超音波内視鏡、診断支援方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサが、超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得し、観察対象領域を診断するために参照される参照情報が第1超音波画像に合成されているか否か、第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替え、第1動作モードが、主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて第1超音波画像から特定領域を検出する動作モードであり、第2動作モードが、特定領域を検出して検出結果を出力しないか、又は、特定領域を検出しない動作モードである、診断支援装置である。
 本開示の技術に係る第2の態様は、第1動作モードが、参照情報が第1超音波画像に合成されていない場合に用いられる動作モードであり、第2動作モードが、参照情報が第1超音波画像に合成されている場合に用いられる動作モードである、第1の態様に係る診断支援装置である。
 本開示の技術に係る第3の態様は、第1動作モードが、第1超音波画像が補助画像モードで得られた画像でない場合に用いられる動作モードであり、第2動作モードが、第1超音波画像が補助画像モードで得られた画像である場合に用いられる動作モードである、第1の態様又は第2の態様に係る診断支援装置である。
 本開示の技術に係る第4の態様は、第1動作モードが、設定値が指定範囲内である場合に用いられる動作モードであり、第2動作モードが、設定値が指定範囲内でない場合に用いられる動作モードである、第1の態様から第3の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第5の態様は、参照情報が、観察対象領域内の特性を色で表現した色情報を含む第1の態様から第4の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第6の態様は、色情報が、複数の有彩色画素を含み、第1動作モードが、複数の有彩色画素のうちの第1閾値を超える彩度を有する有彩色画素の個数が第2閾値未満の場合に用いられる動作モードであり、第2動作モードが、個数が第2閾値以上の場合に用いられる動作モードである、第5の態様に係る診断支援装置である。
 本開示の技術に係る第7の態様は、参照情報が、観察対象領域の観察を補助する文字情報を含む第1の態様から第6の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第8の態様は、参照情報が、観察対象領域内の計測に用いられる計測線を含む第1の態様から第7の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第9の態様は、参照情報が、穿刺吸引法を用いた処置を補助する処置補助情報を含む第1の態様から第8の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第10の態様は、補助画像モードが、観察対象領域に対して超音波が放射されることによって観察対象領域で反射されることで得られた反射波に含まれる高周波成分を利用して超音波画像を生成する第1画像モード、又は、Bモード画像と別画像とを合成する第2画像モードである、第1の態様から第9の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第11の態様は、第1画像モードが、THIモード、CHモード、又はCHIモードであり、第2画像モードが、ドップラモード又はエラストグラフィモードである、第10の態様に係る診断支援装置である。
 本開示の技術に係る第12の態様は、設定値には、超音波モジュールから放射される超音波の周波数を調整する周波数パラメータ、第1超音波画像で表現される深度を調整する深度パラメータ、第1超音波画像の明るさを調整する明るさパラメータ、第1超音波画像のダイナミックレンジを調整するダイナミックレンジパラメータ、及び/又は、第1超音波画像に対するデジタルズームの倍率を調整する倍率パラメータが含まれている第1の態様から第11の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第13の態様は、超音波モジュールが、設定値を有しており、プロセッサが、超音波モジュールから設定値を取得する第1の態様から第12の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第14の態様は、第1超音波画像を含むフレームには、設定値を特定可能なテキスト画像が合成されており、プロセッサが、テキスト画像に対して画像認識処理を行うことで設定値を特定し、特性した設定値に応じて第1動作モードと第2動作モードとを切り替える第1の態様から第12の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第15の態様は、プロセッサが、AI方式で第1超音波画像から特定領域を検出する第1の態様から第14の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第16の態様は、検出支援情報が、第2超音波画像を含む教師データをモデルに学習させることによって得られた学習済みモデルである、第1の態様から第15の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第17の態様は、プロセッサが、参照情報、補助画像モード、及び/又は設定値に応じて、第1超音波画像から特定領域を検出する頻度、第1超音波画像から特定領域を検出する精度、及び/又は第1超音波画像から特定領域として検出する対象を異ならせる第1の態様から第16の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第18の態様は、超音波モジュールが、超音波内視鏡である、第1の態様から第17の態様の何れか1つの態様に係る診断支援装置である。
 本開示の技術に係る第19の態様は、第1の態様から第18の態様の何れか1つの態様に係る診断支援装置と、超音波診断装置が接続された超音波内視鏡本体と、を備える超音波内視鏡である。
 本開示の技術に係る第20の態様は、超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得すること、及び、観察対象領域を診断するために参照される参照情報が第1超音波画像に合成されているか否か、第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替えることを含み、第1動作モードが、主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて第1超音波画像から特定領域を検出する動作モードであり、第2動作モードが、特定領域を検出して検出結果を出力しないか、又は、特定領域を検出しない動作モードである、診断支援方法である。
 本開示の技術に係る第21の態様は、コンピュータに処理を実行させるためのプログラムであって、処理が、超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得すること、及び、観察対象領域を診断するために参照される参照情報が第1超音波画像に合成されているか否か、第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替えることを含み、第1動作モードが、主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて第1超音波画像から特定領域を検出する動作モードであり、第2動作モードが、特定領域を検出して検出結果を出力しないか、又は、特定領域を検出しない動作モードである、プログラムである。
内視鏡システムが用いられている態様の一例を示す概念図である。 内視鏡システムの全体構成の一例を示す概念図である。 超音波内視鏡の構成の一例を示すブロック図である。 モデルにBモード画像群を学習させることによって学習済みモデルを生成する態様の一例を示す概念図である。 生成部の処理内容の一例を示す概念図である。 検出モードと非検出モードとを切り替えるための処理内容の一例を示す概念図である。 Bモード画像から病変領域を検出してBモード画像を表示装置の画面に表示する処理内容の一例を示す概念図である。 ドプラ画像を生成して表示装置の画面に表示する処理内容の一例を示す概念図である。 診断支援処理の流れの一例を示すフローチャートである。 図9Aに示すフローチャートの続きである。 第1変形例に係る診断支援処理の流れの一例を示すフローチャートである。 第2変形例に係る生成部及び制御部の処理内容の一例を示す概念図である。 第2変形例に係る診断支援処理の流れの一例を示すフローチャートである。 第3変形例に係る生成部及び制御部の処理内容の一例を示す概念図である。 第4変形例に係る生成部及び制御部の処理内容の一例を示す概念図である。 第5変形例に係る制御部の処理内容の一例を示す概念図である。 第6変形例に係る生成部及び制御部の処理内容の一例を示す概念図である。 第6変形例に係る制御部の処理内容の一例を示す概念図である。 第7変形例に係る診断支援処理の流れの一例を示すフローチャートである。
 以下、添付図面に従って本開示の技術に係る診断支援装置、超音波内視鏡、診断支援方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。TPUとは、“Tensor Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。EEPROMとは、“Electrically Erasable Programmable Read-Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。PCとは、“Personal Computer”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。BLIとは、“Blue Light Imaging”の略称を指す。LCIとは、“Linked Color Imaging”の略称を指す。NNとは、“Neural Network”の略称を指す。CNNとは、“Convolutional neural network”の略称を指す。R-CNNとは、“Region based Convolutional Neural Network”の略称を指す。YOLOとは、“You only Look Once”の略称を指す。RNNとは、“Recurrent Neural Network”の略称を指す。FCNとは、“Fully Convolutional Network”の略称を指す。THIとは、“Tissue Harmonic Imaging”の略称を指す。CHとは、“Compound Harmonic”の略称を指す。CHIとは、“Contrast Harmonic Imaging”の略称を指す。
 一例として図1に示すように、内視鏡システム10は、超音波内視鏡12及び表示装置14を備えている。超音波内視鏡12は、コンベックス型の超音波内視鏡であり、超音波内視鏡本体16及び処理装置18を備えている。超音波内視鏡12は、本開示の技術に係る「超音波モジュール」及び「超音波内視鏡」の一例である。処理装置18は、本開示の技術に係る「診断支援装置」の一例である。超音波内視鏡本体16は、本開示の技術に係る「超音波内視鏡本体」の一例である。
 なお、本実施形態では、超音波内視鏡12の一例として、コンベックス型の超音波内視鏡を挙げているが、これはあくまでも一例に過ぎず、ラジアル型の超音波内視鏡であっても本開示の技術は成立する。
 超音波内視鏡本体16は、例えば、医師20によって用いられる。処理装置18は、超音波内視鏡本体16に接続されており、超音波内視鏡本体16との間で各種信号の授受を行う。すなわち、処理装置18は、超音波内視鏡本体16に信号を出力することで超音波内視鏡本体16の動作を制御したり、超音波内視鏡本体16から入力された信号に対して各種の信号処理を行ったりする。
 超音波内視鏡12は、被検体22の体内に診療対象部位(例えば、膵臓等の臓器)に対する診療(例えば、診断及び/又は治療等)を行うための装置であり、診療対象部位を含む観察対象領域を示す超音波画像24を生成して出力する。
 例えば、医師20は、被検体22の体内の観察対象領域を観察する場合、超音波内視鏡本体16を被検体22の口又は鼻(図1に示す例では、口)から被検体22の体内に挿入し、胃又は十二指腸等の位置で超音波を放射する。超音波内視鏡本体16は、被検体22の体内の観察対象領域に対して超音波を放射し、放射した超音波が観察対象領域で反射することによって得られた反射波を検出する。
 なお、図1に示す例では、上部消化器内視鏡検査が行われている態様が示されているが、本開示の技術はこれに限定されず、下部消化器内視鏡検査又は気管支内視鏡検査等にも本開示の技術は適用可能である。
 処理装置18は、超音波内視鏡本体16によって検出された反射波に基づいて超音波画像24を生成して表示装置14等に出力する。
 表示装置14は、処理装置18の制御下で、画像を含めた各種情報を表示する。表示装置14の一例としては、液晶ディスプレイ又はELディスプレイ等が挙げられる。表示装置14の画面26には、処理装置18によって生成された超音波画像24が動画像として表示される。図1に示す例では、画面26内の超音波画像24に、病変に相当する箇所を示す病変領域25が含まれている態様が示されている。また、詳しくは後述するが、図1に示す例では、画面26に、超音波画像24内での病変領域25の位置を特定可能な矩形状の検出枠27Aが表示されている。
 医師20は、画面26に表示された超音波画像24を観察することによって、観察対象領域に病変が写っているか否かを判断したり、病変が発見された場合には観察対象領域内での病変の位置を、超音波画像24内の検出枠27Aを参照して特定したりする。
 なお、図1に示す例では、表示装置14の画面26に超音波画像24が表示される形態例が示されているが、これは、あくまでも一例に過ぎず、表示装置14以外の表示装置(例えば、タブレット端末のディスプレイ)に表示されるようにしてもよい。また、超音波画像24は、コンピュータ読取可能な非一時的格納媒体(例えば、フラッシュメモリ、HDD、及び/又は磁気テープ等)に格納されるようにしてもよい。
 表示装置14には、医師20によって選択された画像モードに応じた超音波画像24が表示される。ここで、画像モードとは、超音波内視鏡本体16によって検出された反射波を画像化して表示装置14に表示させる表示モードを指す。本実施形態において、医師20によって選択される画像モードは、Bモード(Brightness mode)とドプラモードとの2種類である。Bモードは、本開示の技術に係る「主要画像モード」の一例であり、ドプラモードは、本開示の技術に係る「主要画像モード以外の画像モードである補助画像モード」の一例である。
 Bモードは、反射波の強さを輝度に変換して2次元状の断層画像(以下、「Bモード画像」と称する)として表示する画像モードである。ドプラモードは、ドプラ効果を利用して特定された血行動態を色情報としてBモード画像に重畳して表示する画像モードである。以下では、ドプラモード下で生成された画像、すなわち、Bモード画像に対して血行動態を示す色情報が重畳されて得られた画像を「ドプラ画像」と称する。また、以下では、説明の便宜上、Bモード画像及びドプラ画像等のように異なる画像モード下で生成された画像を区別して説明する必要がない場合、単に「超音波画像24」と称する。
 超音波画像24は、画像モードに応じて定められたフレームレートに従って生成された複数のフレームを含む動画像である。ドプラモードのフレームレートは、Bモードのフレームレートよりも低い。なお、ここでは、動画像を例示しているが、これは、あくまでも一例に過ぎず、超音波画像24が静止画像であっても本開示の技術は成立する。
 一例として図2に示すように、超音波内視鏡本体16は、操作部28及び挿入部30を備えている。挿入部30は、管状に形成されている。挿入部30は、先端部32、湾曲部34、及び軟性部36を有する。先端部32、湾曲部34、及び軟性部36は、挿入部30の先端側から基端側にかけて、先端部32、湾曲部34、及び軟性部36の順に配置されている。軟性部36は、長尺状の可撓性を有する素材で形成されており、操作部28と湾曲部34とを連結している。湾曲部34は、操作部28が操作されることにより部分的に湾曲したり、挿入部30の軸心周りに回転したりする。この結果、挿入部30は、管腔臓器の形状(例えば、十二指腸の管路の形状)に応じて湾曲したり、挿入部30の軸心周りに回転したりしながら管腔臓器の奥側に送り込まれる。
 先端部32には、超音波プローブ38及び処置具用開口40が設けられている。超音波プローブ38は、先端部32の先端側に設けられている。超音波プローブ38は、コンベックス型の超音波プローブであり、超音波を放射し、放射した超音波が観察対象領域で反射されて得られた反射波を受波する。
 処置具用開口40は、超音波プローブ38よりも先端部32の基端側に形成されている。処置具用開口40は、処置具42を先端部32から突出させるための開口である。操作部28には、処置具挿入口44が形成されており、処置具42は、処置具挿入口44から挿入部30内に挿入される。処置具42は、挿入部30内を通過して処置具用開口40から超音波内視鏡本体16の外部に突出する。また、処置具用開口40は、血液及び体内汚物等を吸引する吸引口としても機能する。
 図2に示す例では、処置具42として、穿刺針が示されている。なお、これは、あくまでも一例に過ぎず、処置具42は、把持鉗子及び/又はシース等であってもよい。
 図2に示す例では、先端部32に照明装置46及びカメラ48が設けられている。照明装置46は、光を照射する。照明装置46から照射される光の種類としては、例えば、可視光(例えば、白色光等)、非可視光(例えば、近赤外光等)、及び/又は特殊光が挙げられる。特殊光としては、例えば、BLI用の光及び/又はLCI用の光が挙げられる。
 カメラ48は、管腔臓器内を光学的手法で撮像する。カメラ48の一例としては、CMOSカメラが挙げられる。CMOSカメラは、あくまでも一例に過ぎず、CCDカメラ等の他種のカメラであってもよい。なお、カメラ48によって撮像されることによって得られた画像は表示装置14に表示されたり、表示装置14以外の表示装置(例えば、タブレット端末のディスプレイ)に表示されたり、格納媒体(例えば、フラッシュメモリ、HDD、及び/又は磁気テープ等)に格納されたりする。
 超音波内視鏡12は、処理装置18及びユニバーサルコード50を備えている。ユニバーサルコード50は、基端部50A及び先端部50Bを有する。基端部50Aは、操作部28に接続されている。先端部50Bは、処理装置18に接続されている。すなわち、超音波内視鏡本体16と処理装置18は、ユニバーサルコード50を介して接続されている。
 内視鏡システム10は、受付装置52を備えている。受付装置52は、処理装置18に接続されている。受付装置52は、ユーザからの指示を受け付ける。受付装置52の一例としては、複数のハードキー及び/又はタッチパネル等を有する操作パネル、キーボード、マウス、トラックボール、フットスイッチ、スマートデバイス、及び/又はマイクロフォン等が挙げられる。
 処理装置18は、受付装置52によって受け付けられた指示に従って、各種の信号処理を行ったり、超音波内視鏡本体16等との間で各種信号の授受を行ったりする。例えば、処理装置18は、受付装置52によって受け付けられた指示に従って、超音波プローブ38に対して超音波を放射させ、超音波プローブ38によって受波された反射波に基づいて超音波画像24(図1参照)を生成して出力する。
 表示装置14も、処理装置18に接続されている。処理装置18は、受付装置52によって受け付けられた指示に従って表示装置14を制御する。これにより、例えば、処理装置18によって生成された超音波画像24が表示装置14の画面26に表示される(図1参照)。
 一例として図3に示すように、処理装置18は、コンピュータ54、入出力インタフェース56、送受信回路58、及び通信モジュール60を備えている。コンピュータ54は、本開示の技術に係る「コンピュータ」の一例である。
 コンピュータ54は、プロセッサ62、RAM64、及びNVM66を備えている。入出力インタフェース56、プロセッサ62、RAM64、及びNVM66は、バス68に接続されている。
 プロセッサ62は、処理装置18の全体を制御する。例えば、プロセッサ62は、CPU及びGPUを有しており、GPUは、CPUの制御下で動作し、主に画像処理の実行を担う。なお、プロセッサ62は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。また、プロセッサ62には、マルチコアCPUが含まれていてもよいし、TPUが含まれていてもよい。プロセッサ62は、本開示の技術に係る「プロセッサ」の一例である。
 RAM64は、一時的に情報が格納されるメモリであり、プロセッサ62によってワークメモリとして用いられる。NVM66は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM66の一例としては、フラッシュメモリ(例えば、EEPROM)及び/又はSSD等が挙げられる。なお、フラッシュメモリ及びSSDは、あくまでも一例に過ぎず、HDD等の他の不揮発性の記憶装置であってもよいし、2種類以上の不揮発性の記憶装置の組み合わせであってもよい。
 入出力インタフェース56には、受付装置52が接続されており、プロセッサ62は、受付装置52によって受け付けられた指示を、入出力インタフェース56を介して取得し、取得した指示に応じた処理を実行する。
 入出力インタフェース56には、送受信回路58が接続されている。送受信回路58は、プロセッサ62からの指示に従ってパルス波形の超音波放射信号70を生成して超音波プローブ38に出力する。超音波プローブ38は、送受信回路58から入力された超音波放射信号70を超音波に変換し、超音波を被検体22の観察対象領域72に放射する。超音波プローブ38は、超音波プローブ38から放射された超音波が観察対象領域72で反射されることで得られた反射波を受波し、反射波を、電気信号である反射波信号74に変換して送受信回路58に出力する。送受信回路58は、超音波プローブ38から入力された反射波信号74をデジタル化し、デジタル化した反射波信号74を、入出力インタフェース56を介してプロセッサ62に出力する。プロセッサ62は、送受信回路58から入出力インタフェース56を介して入力された反射波信号74に基づいて、観察対象領域72の態様を示す超音波画像24(図1参照)を生成する。
 図3での図示は省略されているが、入出力インタフェース56には、照明装置46(図2参照)も接続されている。プロセッサ62は、入出力インタフェース56を介して照明装置46を制御することで、照明装置46から照射される光の種類を変えたり、光量を調整したりする。また、図3での図示は省略されているが、入出力インタフェース56には、カメラ48(図2参照)も接続されている。プロセッサ62は、入出力インタフェース56を介してカメラ48を制御したり、カメラ48によって被検体22の体内が撮像されることで得られた画像を、入出力インタフェース56を介して取得したりする。
 入出力インタフェース56には、通信モジュール60が接続されている。通信モジュール60は、通信プロセッサ及びアンテナ等を含むインタフェースである。通信モジュール60は、LAN又はWAN等のネットワーク(図示省略)に接続されており、プロセッサ62と外部装置との間の通信を司る。
 入出力インタフェース56には、表示装置14が接続されており、プロセッサ62は、入出力インタフェース56を介して表示装置14を制御することで、表示装置14に対して各種情報を表示させる。
 入出力インタフェース56には、受付装置52が接続されており、プロセッサ62は、受付装置52によって受け付けられた指示を、入出力インタフェース56を介して取得し、取得した指示に応じた処理を実行する。
 NVM66には、診断支援プログラム76及び学習済みモデル78が記憶されている。プロセッサ62は、NVM66から診断支援プログラム76を読み出し、読み出した診断支援プログラム76をRAM64上で実行することにより診断支援処理を行う。診断支援処理は、観察対象領域72からAI方式で病変を検出し、検出結果に基づいて、医師20(図1参照)による診断を支援する処理である。
 プロセッサ62は、診断支援処理を行うことにより、超音波画像24(図1参照)から、学習済みモデル78に従って、病変に相当する箇所を検出することで、観察対象領域72から病変を検出する。診断支援処理は、プロセッサ62がRAM64上で実行する診断支援プログラム76に従って生成部62A、検出部62B、及び制御部62Cとして動作することによって実現される。
 なお、診断支援プログラム76は、本開示の技術に係る「プログラム」の一例である。また、学習済みモデル78は、超音波画像24から病変を検出する処理に用いられるデータ構造を有する学習済みモデルである。また、学習済みモデル78は、本開示の技術に係る「検出支援情報」及び「学習済みモデル」の一例である。
 一例として図4に示すように、学習済みモデル78は、未学習のモデル80を学習させることによって生成される。モデル80の学習には、Bモード画像群82が教師データとして用いられる。Bモード画像群82は、互いに異なる複数のBモード画像82Aからなる。Bモード画像82Aは、本開示の技術に係る「第2超音波画像」の一例である。Bモード画像群82は、本開示の技術に係る「教師データ」の一例である。
 モデル80の一例としては、NNを用いた数理モデルが挙げられる。NNの種類としては、例えば、YOLO、R-CNN、又はFCN等が挙げられる。また、モデル80に用いられるNNは、例えば、YOLO、R-CNN、又はFCNとRNNとの組み合わせであってもよい。RNNは、時系列で得られた複数の画像の学習に適している。なお、ここで挙げたNNの種類は、あくまでも一例に過ぎず、画像を学習させることによって物体の検出を可能にする他種類のNNであってもよい。
 複数のBモード画像82Aには、病変が写っている。すなわち、Bモード画像82Aは、病変に相当する箇所である病変領域84を有する。Bモード画像82Aには、アノテーション86が付与されている。アノテーション86は、Bモード画像82A内での病変領域84の位置を特定可能な情報(例えば、病変領域84に外接する矩形枠の位置を特定可能な複数の座標を含む情報)である。
 ここでは、説明の便宜上、アノテーション86の一例として、Bモード画像82A内での病変領域84の位置を特定可能な情報を例示しているが、これは、あくまでも一例に過ぎない。例えば、アノテーション86には、Bモード画像82Aに写っている病変の種類を特定可能な情報等のように、Bモード画像82Aに写っている病変を特定する他種類の情報が含まれていてもよい。
 なお、以下では、説明の便宜上、学習済みモデル78を用いた処理については、学習済みモデル78が主体となって能動的に行う処理として説明する。すなわち、説明の便宜上、学習済みモデル78を、入力された情報に対して処理を行って処理結果を出力する機能と見立てて説明する。また、以下では、説明の便宜上、モデル80を学習させる処理の一部についても、モデル80が主体となって能動的に行う処理として説明する。すなわち、説明の便宜上、モデル80を、入力された情報に対して処理を行って処理結果を出力する機能と見立てて説明する。
 モデル80には、Bモード画像群82に含まれる各Bモード画像82Aが入力される。これに応じて、モデル80は、入力されたBモード画像82Aから、病変領域84の位置を予測し、予測結果を出力する。予測結果には、Bモード画像82A内での病変領域84の位置としてモデル80によって予測された位置を特定可能な情報が含まれている。モデル80によって予測された位置を特定可能な情報の一例としては、例えば、病変領域84が存在する位置として予測された領域を取り囲むバウンディングボックスの位置(すなわち、Bモード画像82A内でのバウンディングボックスの位置)を特定可能な複数の座標を含む情報が挙げられる。
 モデル80に対しては、モデル80に入力されたBモード画像82Aに付与されているアノテーション86とモデル80から出力された予測結果との誤差に応じた調整が行われる。すなわち、誤差が最小となるようにモデル80内の複数の最適化変数(例えば、複数の結合荷重及び複数のオフセット値等)が調整されることによってモデル80が最適化され、これによって、学習済みモデル78が生成される。すなわち、学習済みモデル78のデータ構造は、アノテーション86が付与された互いに異なる複数のBモード画像82Aをモデル80に学習させることによって得られる。
 このように、学習済みモデル78は、モデル80に対してBモード画像群82を学習させることによって生成される数理モデルである。そのため、例えば、学習済みモデル78は、超音波画像24として生成されたBモード画像から病変領域25(図1参照)を検出する場合に効果的に用いることができるものの、超音波画像24として生成されたドプラ画像から病変領域25を検出する場合、Bモード画像に比べ、誤検出が生じる可能性が高くなる。なぜならば、モデル80は、ドプラ画像に含まれる色情報を学習していないからである。また、仮に、ドプラ画像から病変領域25が検出され、検出結果としてドプラ画像内に検出枠27A(図1参照)が表示されると、ドプラ画像に含まれる色情報(すなわち、血行動態を示すカラー化された情報)と検出枠27Aとが混在した状態で可視化されるため、医師20にとって検出枠27Aの存在が診断の妨げになる虞がある。
 そこで、本実施形態に係る処理装置18では、一例として図5~図9Bに示すように、診断支援処理が行われる。以下、診断支援処理の一例について具体的に説明する。
 一例として図5に示すように、画像モードの種類(ここでは、一例として、Bモード又はドプラモード)を選択する指示(以下、「画像モード指示」と称する)が受付装置52によって受け付けられた場合、生成部62Aは、画像モード指示に従って、Bモード又はドプラモードを設定する。本実施形態において、Bモードは、医師20によってメインの画像モードとして用いられ、ドプラモードは、医師20によってサブの画像モード(すなわち、補助的な画像モード)として用いられる。
 生成部62Aは、Bモード下で、送受信回路58から反射波信号74を取得し、取得した反射波信号74に基づいてBモード画像24Aを生成することでBモード画像24Aを取得する。Bモード画像24Aには、観察対象領域72が写っている。すなわち、Bモード画像24Aは、観察対象領域72の断層を2次元状に示した画像である。図5に示す例では、病変領域25を有するBモード画像24Aが生成部62Aによって生成される例が示されているが、勿論、病変が写っていないBモード画像24Aが生成部62Aによって生成されることもある。Bモード画像24Aは、本開示の技術に係る「第1超音波画像」の一例である。また、病変領域25は、本開示の技術に係る「特定領域」の一例である。
 生成部62Aは、ドプラモード下で、送受信回路58から反射波信号74を取得し、取得した反射波信号74に基づいてドプラ画像24Bを生成する。ドプラ画像24Bは、Bモード画像24Aに対して、観察対象領域72(図3参照)内の特性を色(すなわち、有彩色)で表現した色情報24B1が重畳されることによって得られる画像である。例えば、色情報24B1は、ドプラ効果を利用して特定された血行動態を示す情報である。色情報24B1は、観察対象領域72(図3参照)を診断するために医師20によって参照される情報である。
 なお、ドプラ画像24Bは、本開示の技術に係る「補助画像モードで得られた画像」の一例である。また、色情報24B1は、本開示の技術に係る「参照情報」、「色情報」及び「別画像」の一例である。また、Bモード画像24Aに対する色情報24B1の重畳は、本開示の技術に係る「合成」の一例である。
 一例として図6に示すように、制御部62Cは、生成部62Aによって生成された超音波画像24がBモード画像24Aであるかドプラ画像24Bであるかに応じて検出モードと非検出モードとを切り替える。本実施形態において、制御部62Cは、生成部62Aによって生成された超音波画像24がBモード画像24Aであるかドプラ画像24Bであるかを、受付装置52によって受け付けられた画像モード指示に従って判定し、判定結果に応じて検出モードと非検出モードとを切り替える。つまり、制御部62Cは、受付装置によって受け付けられた画像モード指示に従って設定された画像モードに応じて検出モードと非検出モードとを切り替える。例えば、制御部62Cは、Bモードの場合に検出モードを設定し、ドプラモードの場合に非検出モードを設定する。
 検出モードは、Bモード画像24A(図5参照)からAI方式で病変領域25(図5参照)を検出する動作モード、すなわち、Bモード画像群82を用いて作成された学習済みモデル78に基づいてBモード画像24Aから病変領域25(図5参照)を検出する動作モードである。検出モードは、色情報24B1がBモード画像24Aに重畳されていない場合に用いられる。換言すると、検出モードは、生成部62Aによってドプラ画像24Bが生成されていない場合(すなわち、生成部62AによってBモード画像24Aが生成された場合)に用いられる。
 非検出モードは、超音波画像24から病変領域25を検出しない動作モードである。ここでは、非検出モードの一例として、超音波画像24から病変領域25を検出しない動作モードを例示しているが、本開示の技術はこれに限定されない。例えば、非検出モードは、超音波画像24から病変領域25を検出して検出結果を出力しない動作モード(換言すると、バックグラウンドではAI方式で病変領域25の検出が行われるが、検出結果を可視化させない動作モード)であってもよい。非検出モードは、色情報24B1がBモード画像24Aに重畳されている場合に用いられる。換言すると、非検出モードは、生成部62Aによってドプラ画像24Bが生成された場合に用いられる。
 一例として図7に示すように、検出モードの場合、検出部62Bは、学習済みモデル78に従って、生成部62Aによって生成されたBモード画像24Aから、病変を検出する。すなわち、検出部62Bは、学習済みモデル78に従って、Bモード画像24A内の病変領域25の有無を判定し、Bモード画像24Aに病変領域25が存在している場合に病変領域25の位置を特定する位置特定情報128(例えば、病変領域126の位置を特定する複数の座標を含む情報)を生成する。ここで、検出部62Bが病変を検出する処理を、学習済みモデル78を主体として説明すると、学習済みモデル78は、生成部62Aによって生成されたBモード画像24Aが入力された場合、入力されたBモード画像24A内の病変領域25の有無を判定する。学習済みモデル78は、Bモード画像24A内に病変領域25が存在すると判定した場合(すなわち、Bモード画像24Aに写っている病変を検出した場合)、位置特定情報27を出力する。検出枠27Aは、学習済みモデル78がBモード画像24Aから病変領域25を検出する場合に用いるバウンディングボックス(例えば、信頼度スコアが最も高いバウンディングボックス)に対応する矩形枠である。すなわち、検出枠27Aは、学習済みモデル78によって検出された病変領域25を取り囲む枠である。
 検出部62Bは、位置特定情報27に従って、学習済みモデル78から出力された位置特定情報27に対応するBモード画像24A(すなわち、位置特定情報27の出力のために学習済みモデル78に入力されたBモード画像24A)に対して検出枠27Aを付与する。すなわち、検出部62Bは、学習済みモデル78から出力された位置特定情報27に対応するBモード画像24Aに対して、病変領域25を取り囲むように検出枠27Aを重畳させることによりBモード画像27に検出枠27Aを付与する。検出部62Bは、Bモード画像27内に病変領域25が存在すると学習済みモデル78によって判定された場合、検出枠27Aが付与されたBモード画像24Aを制御部62Cに出力する。また、検出部62Bは、Bモード画像24A内に病変領域25が存在しないと学習済みモデル78によって判定された場合、検出枠27Aが付与されていないBモード画像24Aを制御部62Cに出力する。
 制御部62Cは、検出部62Bから入力されたBモード画像24A(すなわち、検出部62Bの検出結果が反映されたBモード画像24A)を表示装置14の画面26に表示する。Bモード画像24Aに病変が写っている場合には、病変領域25を取り囲む検出枠27Aが付与されたBモード画像24A(すなわち、検出枠27Aが重畳されたBモード画像24A)が画面26に表示される。一方、Bモード画像24Aに病変が写っていない場合には、検出枠27Aが付与されていないBモード画像24A(すなわち、学習済みモデル78から出力されたBモード画像24A)が画面26に表示される。
 一例として図8に示すように、非検出モードの場合、制御部62Cは、生成部62Aによって生成されたドプラ画像24Bを取得し、取得したドプラ画像24Bを表示装置14の画面26に表示する。
 次に、内視鏡システム10の作用について図9A及び図9Bを参照しながら説明する。
 図9A及び図9Bには、内視鏡システム10を用いた診断が開始されたこと(例えば、超音波内視鏡12による超音波の放射が開始されたこと)を条件に処理装置18のプロセッサ62によって行われる診断支援処理の流れの一例が示されている。図9A及び図9Bに示す診断支援処理の流れは、本開示の技術に係る「診断支援方法」の一例である。
 図9Aに示す診断支援処理では、先ず、ステップST10で、制御部62Cは、現時点で設定されている画像モードがBモードであるか否かを判定する。ステップST10において、現時点で設定されている画像モードがBモードでない場合(すなわち、ドプラモードである場合)は、判定が否定されて、診断支援処理は、図9Bに示すステップST26へ移行する。ステップST10において、現時点で設定されている画像モードがBモードである場合は、判定が肯定されて、診断支援処理はステップST12へ移行する。
 ステップST12で、制御部62Cは、現時点で設定されている動作モードが非検出モードであるか否かを判定する。ステップST12において、現時点で設定されている動作モードが非検出モードでない場合(すなわち、検出モードである場合)は、判定が否定されて、診断支援処理はステップST16へ移行する。ステップST12において、現時点で設定されている動作モードが非検出モードである場合は、判定が肯定されて、診断支援処理はステップST14へ移行する。
 ステップST14で、制御部62Cは、動作モードを非検出モードから検出モードに切り替える。ステップST14の処理が実行された後、診断支援処理はステップST16へ移行する。
 ステップST16で、生成部62Aは、送受信回路58から入力された反射波信号74(図5参照)に基づいてBモード画像24Aを生成する。ステップST16の処理が実行された後、診断支援処理はステップST18へ移行する。
 ステップST18で、検出部62Bは、ステップST16で生成されたBモード画像24Aを学習済みモデル78に入力する。ステップST18の処理が実行された後、診断支援処理はステップST20へ移行する。
 ステップST20で、検出部62Bは、ステップST18で学習済みモデル78に入力したBモード画像24Aに病変が写っているか否かを、学習済みモデル78を用いて判定する。Bモード画像24Aに病変が写っている場合、学習済みモデル78は、位置特定情報27を出力する。
 ステップST20において、Bモード画像24Aに病変が写っていない場合は、判定が否定されて、診断支援処理はステップST24へ移行する。ステップST20において、Bモード画像24Aに病変が写っている場合は、判定が肯定されて、診断支援処理はステップST22へ移行する。
 ステップST20において判定が肯定された場合、検出部62Bは、学習済みモデル78から出力された位置特定情報128に基づいて検出枠27Aを生成し、ステップST16で生成されたBモード画像24Aに対して、病変領域25を取り囲むように検出枠27Aを重畳させる。そして、ステップST22で、制御部62Cは、検出枠27Aによって病変領域25が取り囲まれたBモード画像24Aを表示装置14の画面26に表示する。Bモード画像24A内の病変領域25は、検出枠27Aによって取り囲まれているので、医師20は、Bモード画像24A内の何れの位置に病変が写っているかを視覚的に把握することが可能となる。ステップST22の処理が実行された後、診断支援処理は、図9Bに示すステップST26へ移行する。
 ステップST24で、制御部62Cは、ステップST16で生成されたラジアル型超音波画像24を表示装置14の画面26に表示する。この場合、Bモード画像24Aには検出枠27Aが付与されていないので、医師20は、Bモード画像24Aに病変が写っていないことを視覚的に認識することが可能となる。ステップST24の処理が実行された後、診断支援処理は、図9Bに示すステップST26へ移行する。
 図9Bに示すステップST26で、制御部62Cは、現時点で設定されている動作モードが検出モードであるか否かを判定する。ステップST26において、現時点で設定されている動作モードが検出モードでない場合(すなわち、非検出モードである場合)は、判定が否定されて、診断支援処理はステップST30へ移行する。ステップST26において、現時点で設定されている動作モードが検出モードである場合は、判定が肯定されて、診断支援処理はステップST28へ移行する。
 ステップST28で、制御部62Cは、動作モードを非検出モードから検出モードに切り替える。ステップST28の処理が実行された後、診断支援処理はステップST30へ移行する。
 ステップST30で、生成部62Aは、送受信回路58から入力された反射波信号74(図5参照)に基づいてドプラ画像24Bを生成する。ステップST30の処理が実行された後、診断支援処理はステップST32へ移行する。
 ステップST32で、制御部62Cは、ステップST30で生成されたドプラ画像24Bを表示装置14の画面26に表示する。これにより、医師20は、画面26に表示されたドプラ画像24Bに含まれる色情報24B1(図8参照)から血行動態を視覚的に認識することができる。また、ドプラ画像24Bには、検出枠27Aが含まれていないので、検出枠27Aが色情報24B1の観察を妨げることはない。ステップST32の処理が実行された後、診断支援処理はステップST34へ移行する。
 ステップST34で、制御部62Cは、診断支援処理が終了する条件(以下、「診断支援終了条件」と称する)を満足したか否かを判定する。診断支援終了条件の一例としては、診断支援処理を終了させる指示が受付装置52によって受け付けられた、という条件が挙げられる。ステップST34において、診断支援終了条件を満足していない場合は、判定が否定されて、診断支援処理は、図9Aに示すステップST10へ移行する。ステップST34において、診断支援終了条件を満足した場合は、判定が肯定されて、診断支援処理が終了する。
 以上説明したように、内視鏡システム10では、検出モードと非検出モードとが選択的に切り替えられる。検出モードは、学習済みモデル78を用いたAI方式でBモード画像24Aから病変領域25を検出する動作モードである。非検出モードは、超音波画像24から病変領域25を検出しない動作モードである。学習済みモデル78は、Bモード画像群82を教師データとして用いて作成されている。そのため、学習済みモデル78に従ってドプラ画像24Bから病変領域25を検出する処理が行われると、学習済みモデル78に従ってBモード画像24Aから病変領域25を検出する処理が行われる場合に比べ、病変領域25以外の領域が病変領域25として誤検出される可能性が高くなる。また、仮に、学習済みモデル78に従ってドプラ画像24Bから病変領域25を検出する処理が行われ、検出結果として検出枠27Aがドプラ画像24B内に表示された場合、医師20にとって検出枠27Aの存在が色情報24B1の観察の妨げになる虞がある。そこで、内視鏡システム10では、Bモード画像24Aが生成されたか否かに応じて、検出モードと非検出モードとが切り替えられる。換言すると、画像モードとしてBモードが設定されているかドプラモードが設定されているかに応じて、検出モードと非検出モードとが切り替えられる。これにより、病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、病変領域25の検出結果の可視化(すなわち、検出枠27Aの存在)が診断の妨げになることを抑制することができる。
 また、内視鏡システム10において、検出モードは、色情報24B1がBモード画像24Aに重畳されていない場合に用いられる動作モードであり、非検出モードは、色情報24B1がBモード画像24Aに重畳されている場合に用いられる動作モードである。換言すると、検出モードは、画像モードがドプラモードでない場合(すなわち、Bモードである場合)に用いられる動作モードであり、非検出モードは、画像モードがドプラモードである場合に用いられる動作モードである。従って、上記の要領で検出モードと非検出モードとが使い分けられることによって、色情報24B1の存在が原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制することができる。また、非検出モード下では、色情報24B1と検出枠27Aとが混在した状態で画面26に表示されることはないので、病変領域25の検出結果の可視化(すなわち、検出枠27Aの存在)がドプラ画像24Bに含まれる色情報24B1の観察の妨げになることを抑制することができる。
 [第1変形例]
 上記実施形態では、画像モードとしてBモードが設定されているかドプラモードが設定されているかに応じて検出モードと非検出モードとが切り替えられる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、生成部62Aによって生成された画像に色情報24B1が重畳されているか否かに応じて検出モードと非検出モードとが切り替えられるようにしてもよい。
 この場合、例えば、図10に示す診断支援処理がプロセッサ62によって行われる。図10に示すフローチャートは、図9Aに示すフローチャートに比べ、ステップST10の処理に代えて、ステップST100の処理を適用した点が異なる。
 図10に示すステップST100では、制御部62Cが、生成部62Aによって生成された画像に対して画像解析処理を行うことにより、生成部62Aによって生成された画像に対して色情報24B1が重畳されていないか否かを判定する。ステップST100において、生成部62Aによって生成された画像に対して色情報24B1が重畳されていない場合は、判定が肯定されて、診断支援処理はステップST12へ移行する。ステップST100において、生成部62Aによって生成された画像に対して色情報24B1が重畳されている場合は、判定が否定されて、図9Bに示すステップST26へ移行する。これにより、生成部62Aによって生成された画像に対して色情報24B1が重畳されていない場合は、動作モードとして検出モードが設定され、生成部62Aによって生成された画像に対して色情報24B1が重畳されている場合は、動作モードとして非検出モードが設定される。従って、上記実施形態と同様の効果が得られる。
 [第2変形例]
 上記実施形態では、Bモード画像24Aであれば動作モードとして検出モードが設定されて、Bモード画像24Aに対してAI方式での病変領域25の検出が行われる形態例を挙げて説明したが、Bモード画像24Aであったとしても、条件次第で動作モードとして非検出モードが設定されるようにしてもよい。
 一例として図11に示すように、生成部62Aが、文字情報88、計測線90、及び処置補助情報92を含むBモード画像24Aを生成する場合、制御部62Cは、動作モードとして非検出モードを設定する。文字情報88、計測線90、及び処置補助情報92は、本開示の技術に係る「参照情報」の一例である。文字情報88は、本開示の技術に係る「文字情報」の一例である。計測線90は、本開示の技術に係る「計測線」の一例である。処置補助情報92は、本開示の技術に係る「処置補助情報」の一例である。
 ここで、文字情報88とは、例えば、観察対象領域72(図3参照)の観察を補助する文字画像(すなわち、文字を表現した画像)を指す。観察対象領域72の観察を補助するというのは、例えば、医師20がBモード画像24Aから病変の有無及び病変の位置を特定する上で医師20にとって参考になるという意味である。また、本実施形態に係る「文字」の概念には、数字及び記号等も含まれる。本実施形態に係る文字としては、例えば、ユニコードで規定されている文字が挙げられる。図11に示す例では、文字情報88の一例として、病変領域25の寸法を可視化した情報が示されている。
 計測線90は、例えば、観察対象領域72(図3参照)内の計測に用いられる線である。図11に示す例では、計測線90の一例として、病変領域25の一方向の長さを視覚的に特定可能な寸法線が示されている。なお、ここでは、寸法線を例示しているが、これは、あくまでも一例に過ぎず、寸法性以外の可視化情報(例えば、病変領域25以外の指定された部分を計測するために用いられる線)であってもよい。
 処置補助情報92は、穿刺吸引法を用いた処置を補助する情報である。図11に示す例では、処置具42として穿刺針(図2参照)を用いる場合に穿刺針を挿入する方向を指し示す矢印が示されている。なお、ここでは、矢印を例示しているが、これは、あくまでも一例に過ぎず、矢印以外の可視化情報(例えば、破線又は点滅線)であってもよい。
 制御部62Cは、生成部62Aによって生成された画像に対して画像解析処理を行うことにより、生成部62Aによって生成された画像に文字情報88、計測線90、及び/又は処置補助情報92が重畳されているか否かを判定する。図11に示す例では、制御部62Cが、生成部62Aによって生成されたBモード画像24Aに文字情報88、計測線90、及び/又は処置補助情報92が重畳されているか否かを判定する。
 そして、生成部62Aによって生成されたBモード画像24Aに文字情報88、計測線90、及び処置補助情報92が重畳されていない場合、制御部62Cは、動作モードとして検出モードを設定する。また、生成部62Aによって生成されたBモード画像24Aに文字情報88、計測線90、及び/又は処置補助情報92が重畳されている場合、制御部62Cは、動作モードとして非検出モードを設定する。図11に示す例では、生成部62Aによって生成されたBモード画像24Aに文字情報88、計測線90、及び処置補助情報92が重畳されているので、動作モードとして非検出モードが設定される。この場合、制御部62Cは、文字情報88、計測線90、及び処置補助情報92が重畳された状態のBモード画像24Aを表示装置14の画面26に表示する。
 図12には、本第2変形例に係る診断支援処理の流れの一例が示されている。図12に示すフローチャートは図9Aに示すフローチャートに比べ、ステップST16の処理とステップST18の処理との間にステップST200の処理を有する点、及びステップST24に後続する処理としてステップST202~ステップST206の処理を有する点が異なる。
 図12に示す診断支援処理では、ステップST200で、制御部62Cは、ステップST16によって生成されたBモード画像24Aに文字情報88、計測線90、及び/又は処置補助情報92が重畳されているか否かを判定する。ステップST200において、ステップST16によって生成されたBモード画像24Aに文字情報88、計測線90、及び/又は処置補助情報92が重畳されていない場合は、判定が否定されて、診断支援処理はステップST18へ移行する。ステップST200において、ステップST16によって生成されたBモード画像24Aに文字情報88、計測線90、及び/又は処置補助情報92が重畳されている場合は、判定が肯定されて、診断支援処理はステップST202へ移行する。
 ステップST202で、制御部62Cは、現時点で設定されている動作モードが検出モードであるか否かを判定する。ステップST202において、現時点で設定されている動作モードが検出モードでない場合は、判定が否定されて、診断支援処理はステップST206へ移行する。ステップST202において、現時点で設定されている動作モードが検出モードである場合は、判定が肯定されて、診断支援処理はステップST204へ移行する。
 ステップST204で、制御部62Cは、動作モードを検出モードから非検出モードに切り替える。ステップST204の処理が実行された後、診断支援処理はステップST206へ移行する。
 ステップST206で、制御部62Cは、ステップST16で生成されたBモード画像24A(すなわち、位置特定情報27が付与されていないBモード画像24A)を表示装置14の画面26に表示する。この場合、Bモード画像24Aには検出枠27Aが付与されていないので、医師20は、Bモード画像24Aに病変が写っていないことを視覚的に認識することが可能となる。ステップST206の処理が実行された後、診断支援処理は、図9Bに示すステップST26へ移行する。
 図4に示すように、学習済みモデル78は、文字情報88、計測線90、及び処置補助情報92の何れも重畳されていない複数のBモード画像82AからなるBモード画像群82を教師データとして用いて作成されている。そのため、文字情報88、計測線90、及び/又は処置補助情報92が重畳されているBモード画像24Aから学習済みモデル78に従って病変領域25を検出する処理が行われると、病変領域25以外の領域が病変領域25として誤検出される可能性が高くなる。すなわち、文字情報88、計測線90、及び処置補助情報92の何れも重畳されていないBモード画像24Aから学習済みモデル78に従って病変領域25を検出する処理が行われる場合に比べ、病変領域25以外の領域が病変領域25として誤検出される可能性が高くなる。また、仮に、文字情報88、計測線90、及び/又は処置補助情報92が重畳されているBモード画像24Aから学習済みモデル78に従って病変領域25を検出する処理が行われ、検出結果として検出枠27AがBモード画像24A内に表示された場合、医師20にとって検出枠27Aの存在が文字情報88、計測線90、及び/又は処置補助情報92の観察の妨げになる虞がある。文字情報88、計測線90、及び/又は処置補助情報92の観察の妨げになるということは、医師20にとって診断の妨げになることを意味する。
 そこで、本第2変形例では、文字情報88、計測線90、及び/又は処置補助情報92がBモード画像24Aに重畳されているか否かに応じて、検出モード及び非検出モードが切り替えられる。すなわち、文字情報88、計測線90、及び/又は処置補助情報92がBモード画像24Aに重畳されている場合に、動作モードとして非検出モードが設定され、文字情報88、計測線90、及び処置補助情報92の何れもBモード画像24Aに重畳されていない場合に、動作モードとして検出モードが設定される。これにより、病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、病変領域25の検出結果の可視化(すなわち、検出枠27Aの存在)が診断の妨げになることを抑制することができる。
 [第3変形例]
 上記第1変形例(すなわち、図10に示す例)では、色情報24B1の有無に応じて検出モードと非検出モードとが切り替えられる形態例を挙げたが、本開示の技術はこれに限定されない。例えば、検出モードは、生成部62Aによって生成された超音波画像24に重畳されている特定の有彩色画素の個数(例えば、色情報24B1に含まれている有彩色画素の個数)に応じて検出モードと非検出モードとが切り替えられるようにしてもよい。
 この場合、一例として図13に示すように、制御部62Cは、生成部62Aによって生成された超音波画像24から、彩度が第1閾値以上の有彩色画素の画素数(以下、「有彩色画素数」と称する」をカウントする。そして、制御部62Cは、有彩色画素数が第2閾値以上であるか否かを判定する。制御部62Cは、有彩色画素数が第2閾値未満である場合に、動作モードとして検出モードを設定し、有彩色画素数が第2閾値以上である場合に、動作モードとして非検出モードを設定する。
 第1閾値は、超音波画像24に有彩色画素が含まれている場合に検出モード下で誤検出を引き起こす彩度の最低値として事前に設定された値である。第2閾値は、超音波画像24に有彩色画素が含まれている場合に検出モード下で誤検出を引き起こす有彩色画素数の最低値として事前に設定された値である。なお、第1閾値及び/又は第2閾値は、受付装置52によって受け付けられた指示及び/又は超音波内視鏡12に対して設定されている各種パラメータ等に応じて変更される可変値であってもよい。
 以上説明したように、本第3変形例では、有彩色画素数が第2閾値未満の場合に検出モードが設定され、有彩色画素数が第2閾値以上の場合に非検出モードが設定される。従って、有彩色画素の存在が原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、有彩色画素の存在が超音波内視鏡24の視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 [第4変形例]
 上記実施形態では、ドプラモードの場合に動作モードとして非検出モードが設定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第1画像モード又は第2画像モードの場合に動作モードとして非検出モードが設定されるようにしてもよい。第1画像モードは、観察対象領域72に対して超音波が放射されることによって観察対象領域72で反射されることで得られた反射波(以下、単に「反射波」と称する)に含まれる高周波成分を利用して超音波画像24を生成する画像モードである。第2画像モードは、Bモード画像24Aと別画像とを合成する画像モードである。
 第1画像モードとしては、例えば、THIモード、CHモード、又はCHIモードが挙げられる。第2画像モードとしては、ドプラモード又はエラストグラフィモードが挙げられる。これらの画像モードは、公知の画像モードなので、ここでの説明は省略する。
 一例として図14に示すように、生成部62Aは、受付装置52によって受け付けられた画像モード指示に従って、Bモード、ドプラモード、エラストグラフィモード、THIモード、CHモード、及びCHIモードを選択的に設定する。そして、生成部62Aは、設定された画像モードに応じた超音波画像24を生成する。例えば、生成部62Aは、ドプラモード下で、ドプラ画像24Bを生成し、エラストグラフィモード下で、エラストグラフィ画像24Cを生成し、THIモード下で、THI画像24Dを生成し、CHモード下で、CH画像24Eを生成し、CHIモード下で、CHI画像24Fを生成する。
 制御部62Cは、設定された画像モードに応じて生成された超音波画像24を表示装置14の画面26に表示する。すなわち、ドプラモード下では、ドプラ画像24Bが画面26に表示され、エラストグラフィモード下では、エラストグラフィ画像24Cが画面26に表示され、THIモード下では、THI画像24Dが画面26に表示され、CHモード下では、CH画像24Eが画面26に表示され、CHIモード下では、CHI画像24Fが画面26に表示される。なお、エラストグラフィ画像24C、THI画像24D、CH画像24E、及びCHI画像24Fは、公知の超音波画像なので、ここでの説明は省略する。
 制御部62Cは、第1画像モード又は第2画像モードが設定された場合(すなわち、ドプラモード、エラストグラフィモード、THIモード、CHモード、又はCHIモードが設定された場合)に動作モードとして非検出モードを設定する。
 このように、第1画像モードが設定された場合(ここでは、一例として、THIモード、CHモード、又はCHIモードが設定された場合)に動作モードとして非検出モードを設定されるので、反射波に含まれる高周波成分に対応する画像領域の存在が原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制することができる。また、超音波画像24(ここでは、一例として、THI画像24D、CH画像24E、又はCHI画像24F)を観察する場合において、反射波に含まれる高周波成分に対応する画像領域の存在が超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、第2画像モードが設定された場合(ここでは、一例として、ドプラモード又はエラストグラフィモードが設定された場合)に動作モードとして非検出モードを設定されるので、Bモード画像と合成される別画像(例えば、有彩色画像)の存在が原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制することができる。また、超音波画像24(ここでは、一例として、ドプラ画像24B又はエラストグラフィ画像24C)を観察する場合において、Bモード画像と合成される別画像(例えば、有彩色画像)の存在が超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 [第5変形例]
 上記実施形態では、画像モードに応じて検出モードと非検出モードとが切り替えられる形態例を挙げて説明したが、本開示の技術はこれに限定されず、超音波画像24の画質を定める設定値に応じて検出モードと非検出モードとが切り替えられるようにしてもよい。
 この場合、例えば、図15に示すように、超音波画像24の画質を定める設定値として複数のパラメータ94がNVM66に記憶されており、制御部62Cが、NVM66から複数のパラメータ94を取得し、取得した複数のパラメータ94に応じて検出モードと非検出モードとを切り替えるようにする。NVM66には、複数のパラメータ94として、周波数パラメータ94A、深度パラメータ94B、明るさパラメータ94C、ダイナミックレンジパラメータ94D、及び倍率パラメータ94Eが記憶されている。
 ここで、複数のパラメータ94は、本開示の技術に係る「設定値」の一例である。周波数パラメータ94Aは、本開示の技術に係る「周波数パラメータ」の一例である。深度パラメータ94Bは、本開示の技術に係る「深度パラメータ」の一例である。明るさパラメータ94Cは、本開示の技術に係る「明るさパラメータ」の一例である。ダイナミックレンジパラメータ94Dは、本開示の技術に係る「ダイナミックレンジパラメータ」の一例である。倍率パラメータ94Eは、本開示の技術に係る「倍率パラメータ」の一例である。
 周波数パラメータ94Aは、超音波プローブ38(図2参照)から放射される超音波の周波数を調整するパラメータである。深度パラメータ94Bは、超音波画像24で表現される深度を調整するパラメータである。明るさパラメータ94Cは、超音波画像24の明るさを調整するパラメータ(すなわち、ゲイン)である。ダイナミックレンジパラメータ94Dは、超音波画像24のダイナミックレンジを調整するパラメータである。倍率パラメータ94Eは、超音波画像24に対するデジタルズームの倍率を調整するパラメータである。
 制御部62Cは、周波数パラメータ94Aが第1範囲内にあり、深度パラメータ94Bが第2範囲内にあり、明るさパラメータ94Cが第3範囲内にあり、ダイナミックレンジパラメータ94Dが第4範囲内にあり、かつ、倍率パラメータ94Eが第5範囲内にあるという条件(以下、「パラメータ条件」と称する)を満足した場合に、動作モードとして検出モードを設定する。また、制御部62Cは、パラメータ条件を満足しない場合に、動作モードとして非検出モードを設定する。なお、第1~第5範囲は、事前に指定された範囲である。第1~第5範囲は、本開示の技術に係る「指定範囲」の一例である。
 第1範囲は、超音波プローブ38から放射される超音波の周波数の理想的な範囲である。超音波の周波数の理想的な範囲の一例としては、病変領域25以外の領域が病変領域25として誤検出されない周波数の範囲(例えば、Bモード画像群82に含まれる全てのBモード画像82Aに対して適用されている周波数の範囲)が挙げられる。
 第2範囲は、超音波画像24で表現される深度の理想的な範囲である。深度の理想的な範囲の一例としては、病変領域25以外の領域が病変領域25として誤検出されない深度の範囲(例えば、Bモード画像群82に含まれる全てのBモード画像82Aに対して適用されている深度の範囲)が挙げられる。
 第3範囲は、超音波画像24の明るさの理想的な範囲である。明るさの理想的な範囲の一例としては、病変領域25以外の領域が病変領域25として誤検出されない明るさの範囲(例えば、Bモード画像群82に含まれる全てのBモード画像82Aに対して適用されている明るさの範囲)が挙げられる。
 第4範囲は、超音波画像24のダイナミックレンジの理想的な範囲である。ダイナミックレンジの理想的な範囲の一例としては、病変領域25以外の領域が病変領域25として誤検出されないダイナミックレンジの範囲(例えば、Bモード画像群82に含まれる全てのBモード画像82Aに対して適用されているダイナミックレンジの範囲)が挙げられる。
 第5範囲は、超音波画像24に対するデジタルズームの倍率の理想的な範囲である。デジタルズームの倍率の理想的な範囲の一例としては、病変領域25以外の領域が病変領域25として誤検出されないデジタルズームの倍率の範囲(例えば、Bモード画像群82に含まれる全てのBモード画像82Aに対して適用されているデジタルズームの倍率の範囲)が挙げられる。
 本第5変形例によれば、複数のパラメータ94に応じて検出モードと非検出モードとが切り替えられる。すなわち、パラメータ条件を満足した場合に検出モードが設定され、パラメータ条件を満足しない場合に非検出モードが設定される。よって、複数のパラメータ94が理想的な範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、複数のパラメータ94が理想的な範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、周波数パラメータ94Aが第1範囲内にある場合に検出モードが設定され、周波数パラメータ94Aが第1範囲内にない場合に非検出モードが設定される。よって、周波数パラメータ94Aが第1範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、周波数パラメータ94Aが第1範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、深度パラメータ94Bが第2範囲内にある場合に検出モードが設定され、深度パラメータ94Bが第2範囲内にない場合に非検出モードが設定される。よって、深度パラメータ94Bが第2範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、深度パラメータ94Bが第2範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、明るさパラメータ94Cが第3範囲内にある場合に検出モードが設定され、明るさパラメータ94Cが第3範囲内にない場合に非検出モードが設定される。よって、明るさパラメータ94Cが第3範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、明るさパラメータ94Cが第3範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、ダイナミックレンジパラメータ94Dが第4範囲内にある場合に検出モードが設定され、ダイナミックレンジパラメータ94Dが第4範囲内にない場合に非検出モードが設定される。よって、ダイナミックレンジパラメータ94Dが第4範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、ダイナミックレンジパラメータ94Dが第4範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、倍率パラメータ94Eが第5範囲内にある場合に検出モードが設定され、倍率パラメータ94Eが第5範囲内にない場合に非検出モードが設定される。よって、倍率パラメータ94Eが第5範囲内にないことが原因で病変領域25以外の領域が病変領域25として誤検出されることを抑制し、かつ、倍率パラメータ94Eが第5範囲内にないことが超音波画像24に対する視認性に影響を及ぼすことで診断の妨げになることを抑制することができる。
 また、本第5変形例によれば、NVM66に複数のパラメータ94が記憶されており、制御部62Cによって、NVM66内の複数のパラメータ94に応じて検出モードと非検出モードとが切り替えられる。よって、検出モードと非検出モードとの切り替えの判断に要する複数のパラメータ94が超音波画像24の生成毎に手入力されなくても複数のパラメータ94に応じた動作モードを設定することができる。
 なお、ここでは、複数のパラメータ94を例示したが、本開示の技術はこれに限定されず、複数のパラメータ94のうちの少なくとも1つが事前に指定された範囲(すなわち、上述した理想的な範囲)内にあるか否かに応じて検出モードと非検出モードとが切り替えられるようにしてもよい。
 [第6変形例]
 上記第5変形例では、NVM66に記憶されている複数のパラメータ94が制御部62Cによって取得され、制御部62Cが複数のパラメータ94に応じて検出モードと非検出モードとを切り替える形態例を挙げて説明したが、NVM66に複数のパラメータ94が記憶されていない場合であっても本開示の技術は成立する。
 この場合、例えば、図16に示すように、生成部62Aは、Bモード下で、フレーム96を生成する。フレーム96には、Bモード画像24Aが含まれており、テキスト画像98が重畳されている。テキスト画像98は、複数のパラメータ94を文字化した画像である。制御部62Cは、表示装置14の画面26にフレーム96を表示する。これにより、画面26には、Bモード画像24Aとテキスト画像98が表示されるので、医師20は、Bモード画像24Aを観察し、かつ、テキスト画像98により示される複数のパラメータ94を把握することができる。
 一例として図17に示すように、制御部62Cは、フレーム96からテキスト画像98が存在する領域100を特定し、特定した領域100をフレーム96から抽出する。そして、制御部62Cは、フレーム96から抽出した領域100に対して画像認識処理(例えば、AI方式の画像認識処理、又は、テンプレートマッチング等による非AI方式の画像認識処理)を行うことで、領域100に含まれるテキスト画像98から複数のパラメータ94を認識して取得する。そして、制御部62Cは、上記第5変形例と同様の要領で、複数のパラメータ94に応じて検出モードと非検出モードとを切り替える。これにより、上記第5変形例と同様の効果が得られる。
 [第7変形例]
 上記実施形態では、画像モードに関わらず、超音波画像24から病変領域25を検出する頻度(以下、「検出頻度」と称する)、超音波画像24から病変領域25を検出する精度(以下、「検出精度」と称する)、及び超音波画像24から病変領域25として検出する対象(以下、「検出対象」と称する)を変更していないが、プロセッサ62は、画像モードに応じて、検出頻度、検出精度、及び/又は検出対象を異ならせてもよい。
 画像モードに応じて検出頻度を異ならせる場合、例えば、主要画像モードとしてBモードを用いる場合と主要画像モードとしてBモード以外の画像モード(例えば、エラストグラフィモード等)を用いる場合とで検出頻度を異ならせる。この場合、Bモードでの検出頻度を、Bモード以外の画像モード(以下、「他画像モード」と称する)での検出頻度を高くする。例えば、Bモードでの検出頻度を1フレーム毎とし、他画像モードでの検出頻度を複数フレーム毎(例えば、2フレーム毎)とする。
 画像モードに応じて検出精度を異ならせる場合、例えば、主要画像モードとしてBモードを用いる場合と主要画像モードとして他画像モードを用いる場合とで検出精度を異ならせる。検出精度を異ならせる方法の第1例としては、Bモードで用いる学習済みモデル78を得るためにモデル80に対して行わせる学習の量と他画像モードで用いる学習済みモデルを得るためにモデルに対して行わせる学習の量とを異ならせる方法が挙げられる。また、検出精度を異ならせる方法の第2例としては、Bモードで用いる学習済みモデル78の中間層の数と他画像モードで用いる学習済みモデルの中間層の数とを異ならせる方法が挙げられる。
 画像モードに応じて検出対象を異ならせる場合、例えば、主要画像モードとしてBモードを用いる場合と主要画像モードとして他画像モードを用いる場合とで検出対象を異ならせる。検出対象を異ならせる方法としては、例えば、Bモードで用いる学習済みモデル78を、第1種類の病変を検出するためにモデル80を学習させることによって生成し、得られた学習済みモデルとし、他画像モードで用いる学習済みモデルを、第2種類の病変(すなわち、第1種類とは異なる種類の病変)を検出するためにモデル80を学習させることによって生成する方法が挙げられる。
 図18には、本第7変形例に係る診断支援処理の流れの一例が示されている。図18に示すフローチャートは、図9Aに示すフローチャートに比べ、ステップST16の処理とステップST18の処理との間にステップST300~ステップST304の処理を有する点が異なる。
 図18に示す診断支援処理では、ステップST300で、制御部62Cは、Bモード用の検出頻度、検出精度、及び検出対象が設定されているか否かを判定する。ステップST300において、Bモード用の検出頻度、検出精度、及び検出対象が設定されている場合は、判定が肯定されて、診断支援処理はステップST304へ移行する。ステップST300において、Bモード用の検出頻度、検出精度、及び検出対象が設定されていない場合は、判定が否定されて、診断支援処理はステップST302へ移行する。
 ステップST302で、制御部62Cは、Bモード用の検出頻度、検出精度、及び検出対象を設定する。ステップST302の処理が実行された後、診断支援処理はステップST304へ移行する。
 ステップST304で、制御部62Cは、病変領域25を検出するタイミングが到来したか否かを判定する。病変領域25を検出するタイミングは、例えば、フレームレートの逆数で規定された時間間隔で区切られたタイミングである。ステップST304において、病変領域25を検出するタイミングが到来していない場合は、判定が否定されて、診断支援処理はステップST24へ移行する。ステップST304において、病変領域25を検出するタイミングが到来した場合は、判定が肯定されて、診断支援処理はステップST18へ移行する。
 以上説明したように、本第7変形例によれば、画像モードに応じて検出頻度を異ならせているので、画像モードに応じて病変領域25を検出する回数が過不足することを抑制することができる。また、本第7変形例によれば、画像モードに応じて検出精度を異ならせているので、画像モードに応じて病変領域25を検出する精度が低下することを抑制することができる。更に、本第7変形例によれば、画像モードに応じて検出対象を異ならせているので、病変領域25として意図していない部分が検出されることを抑制することができる。
 本第7変形例では、画像モードに応じて検出頻度、検出精度、及び/又は検出対象を異ならせる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、Bモード画像24Aに参照情報(例えば、文字情報88、計測線90、及び/又は処置補助情報92等)が重畳されているか否か、又は超音波画像24の画質を定める設定値(例えば、複数のパラメータ94)に応じて検出頻度、検出精度、及び/又は検出対象を異ならせるようにしてもよい。
 [その他の変形例]
 上記実施形態では、Bモードの場合に動作モードとして検出モードが設定される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、Bモードに代えて、Aモード又はMモード等の場合に動作モードとして検出モードが設定されるようにしてもよく、単一の主要画像モードとして事前に定められた画像モードの場合に動作モードとして検出モードが設定されるようにすればよい。主要画像モードは、モデル80に学習させる超音波画像24の種類に対応する画像モードであればよい。例えば、モデル80に学習させる超音波画像24がAモード画像であれば、主要画像モードはAモードとなり、モデル80に学習させる超音波画像24がMモード画像であれば、主要画像モードはMモードとなる。
 上記実施形態では、病変領域25が検出される形態例を挙げて説明したが、本開示の技術はこれに限定されず、病変領域25と共に、又は、病変領域25に代えて、病変領域25以外の特定領域(例えば、特定の臓器)が検出されるようにしてもよい。
 上記実施形態では、AI方式で病変領域25を検出する形態例(すなわち、学習済みモデル78に従って病変領域25を検出する形態例)を挙げて説明したが、本開示の技術はこれに限定されず、非AI方式で病変領域25が検出されるようにしてもよい。非AI方式の検出方法としては、例えば、テンプレートマッチングを用いた検出方法が挙げられる。この場合、テンプレートマッチングに用いられるテンプレートが本開示の技術に係る「検出支援情報」の一例である。
 上記実施形態では、超音波内視鏡12を例示しているが、体外式の超音波診断装置であっても本開示の技術は成立する。
 上記実施形態では、処理装置18によって生成された超音波画像24と検出枠27Aが表示装置14の画面26に表示される形態例を挙げたが、検出枠27Aが付与された超音波画像24がサーバ、PC、及び/又はタブレット端末等の各種装置に送信されて各種装置のメモリに格納されてもよい。また、検出枠27Aが付与された超音波画像24がレポートに記録されてもよい。また、位置特定情報27も各種装置のメモリに格納されてもよいし、レポートに記録されてもよい。超音波画像24、検出枠27A、及び/又は位置特定情報27は、被検体22毎に、メモリに格納されたり、レポートに記録されたりすることが好ましい。
 上記実施形態では、処理装置18によって診断支援処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。診断支援処理は、処理装置18と処理装置18の外部に設けられた少なくとも1つの装置とによって行われるようにしてもよいし、処理装置18の外部に設けられた少なくとも1つの装置(例えば、処理装置18に接続されており、処理装置18が有する機能を拡張させるために用いられる補助的な処理装置)のみによって行われるようにしてもよい。
 処理装置18の外部に設けられた少なくとも1つの装置の一例としては、サーバが挙げられる。サーバは、クラウドコンピューティングによって実現されるようにしてもよい。クラウドコンピューティングは、あくまでも一例に過ぎず、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングであってもよい。また、処理装置18の外部に設けられた少なくとも1つの装置として挙げたサーバは、あくまでも一例に過ぎず、サーバに代えて、少なくとも1台のPC及び/又は少なくとも1台のメインフレーム等であってもよいし、少なくとも1台のサーバ、少なくとも1台のPC、及び/又は少なくとも1台のメインフレーム等であってもよい。
 上記実施形態では、表示装置14の画面26に、検出枠27Aが重畳された超音波画像24が表示される形態例を挙げたが、これは、あくまでも一例に過ぎない。例えば、検出枠27Aが重畳された超音波画像24と、検出枠27Aが重畳されていない超音波画像24(すなわち、病変領域25を検出した結果が可視化されていない超音波画像24)とが別々の画面に表示されるようにしてもよい。
 上記実施形態では、病変の有無及び病変の位置を医師20に対して知覚させるようにしているが、病変の種類及び/病変の進行度等を医師20に対して知覚させるようにしてもよい。この場合、アノテーション86に、病変の種類及び/病変の進行度等を特定可能な情報を含めた状態で超音波画像(図4に示す例では、Bモード画像82A)を教師データとしてモデル80の学習に用いるようにすればよい。
 上記実施形態では、NVM66に診断支援プログラム76が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、診断支援プログラム76がSSD又はUSBメモリなどの可搬型の記憶媒体に記憶されていてもよい。記憶媒体は、非一時的なコンピュータ読取可能な記憶媒体である。記憶媒体に記憶されている診断支援プログラム76は、コンピュータ54にインストールされる。プロセッサ62は、診断支援プログラム76に従って診断支援処理を実行する。
 上記実施形態では、コンピュータ54が例示されているが、本開示の技術はこれに限定されず、コンピュータ54に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ54に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記実施形態で説明した診断支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、診断支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるプロセッサが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで診断支援処理を実行する。
 診断支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はプロセッサとFPGAとの組み合わせ)で構成されてもよい。また、診断支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のプロセッサとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、診断支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、診断支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、診断支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の診断支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (21)

  1.  プロセッサを備え、
     前記プロセッサは、
     超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得し、
     前記観察対象領域を診断するために参照される参照情報が前記第1超音波画像に合成されているか否か、前記第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、前記第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替え、
     前記第1動作モードは、前記主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて前記第1超音波画像から特定領域を検出する動作モードであり、
     前記第2動作モードは、前記特定領域を検出して検出結果を出力しないか、又は、前記特定領域を検出しない動作モードである
     診断支援装置。
  2.  前記第1動作モードは、前記参照情報が前記第1超音波画像に合成されていない場合に用いられる動作モードであり、
     前記第2動作モードは、前記参照情報が前記第1超音波画像に合成されている場合に用いられる動作モードである
     請求項1に記載の診断支援装置。
  3.  前記第1動作モードは、前記第1超音波画像が前記補助画像モードで得られた画像でない場合に用いられる動作モードであり、
     前記第2動作モードは、前記第1超音波画像が前記補助画像モードで得られた画像である場合に用いられる動作モードである
     請求項1に記載の診断支援装置。
  4.  前記第1動作モードは、前記設定値が指定範囲内である場合に用いられる動作モードであり、
     前記第2動作モードは、前記設定値が前記指定範囲内でない場合に用いられる動作モードである
     請求項1に記載の診断支援装置。
  5.  前記参照情報は、前記観察対象領域内の特性を色で表現した色情報を含む
     請求項1から請求項4の何れか一項に記載の診断支援装置。
  6.  前記色情報は、複数の有彩色画素を含み、
     前記第1動作モードは、前記複数の有彩色画素のうちの第1閾値を超える彩度を有する有彩色画素の個数が第2閾値未満の場合に用いられる動作モードであり、
     前記第2動作モードは、前記個数が前記第2閾値以上の場合に用いられる動作モードである
     請求項5に記載の診断支援装置。
  7.  前記参照情報は、前記観察対象領域の観察を補助する文字情報を含む
     請求項1に記載の診断支援装置。
  8.  前記参照情報は、前記観察対象領域内の計測に用いられる計測線を含む
     請求項1に記載の診断支援装置。
  9.  前記参照情報は、穿刺吸引法を用いた処置を補助する処置補助情報を含む
     請求項1に記載の診断支援装置。
  10.  前記補助画像モードは、前記観察対象領域に対して超音波が放射されることによって前記観察対象領域で反射されることで得られた反射波に含まれる高周波成分を利用して超音波画像を生成する第1画像モード、又は、Bモード画像と別画像とを合成する第2画像モードである
     請求項1に記載の診断支援装置。
  11.  前記第1画像モードは、THIモード、CHモード、又はCHIモードであり、
     前記第2画像モードは、ドップラモード又はエラストグラフィモードである
     請求項10に記載の診断支援装置。
  12.  前記設定値には、前記超音波モジュールから放射される超音波の周波数を調整する周波数パラメータ、前記第1超音波画像で表現される深度を調整する深度パラメータ、前記第1超音波画像の明るさを調整する明るさパラメータ、前記第1超音波画像のダイナミックレンジを調整するダイナミックレンジパラメータ、及び/又は、前記第1超音波画像に対するデジタルズームの倍率を調整する倍率パラメータが含まれている
     請求項1に記載の診断支援装置。
  13.  前記超音波モジュールは、前記設定値を有しており、
     前記プロセッサは、前記超音波モジュールから前記設定値を取得する
     請求項1に記載の診断支援装置。
  14.  前記第1超音波画像を含むフレームには、前記設定値を特定可能なテキスト画像が合成されており、
     前記プロセッサは、
     前記テキスト画像に対して画像認識処理を行うことで前記設定値を特定し、
     特性した前記設定値に応じて前記第1動作モードと前記第2動作モードとを切り替える
     請求項1に記載の診断支援装置。
  15.  前記プロセッサは、AI方式で前記第1超音波画像から特定領域を検出する
     請求項1に記載の診断支援装置。
  16.  前記検出支援情報は、前記第2超音波画像を含む教師データをモデルに学習させることによって得られた学習済みモデルである
     請求項1に記載の診断支援装置。
  17.  前記プロセッサは、前記参照情報、前記補助画像モード、及び/又は前記設定値に応じて、前記第1超音波画像から前記特定領域を検出する頻度、前記第1超音波画像から前記特定領域を検出する精度、及び/又は前記第1超音波画像から前記特定領域として検出する対象を異ならせる
     請求項1に記載の診断支援装置。
  18.  前記超音波モジュールは、超音波内視鏡である
     請求項1に記載の診断支援装置。
  19.  請求項1に記載の診断支援装置と、
     前記超音波モジュールが接続された超音波内視鏡本体と、を備える
     超音波内視鏡。
  20.  超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得すること、及び、
     前記観察対象領域を診断するために参照される参照情報が前記第1超音波画像に合成されているか否か、前記第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、前記第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替えることを含み、
     前記第1動作モードは、前記主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて前記第1超音波画像から特定領域を検出する動作モードであり、
     前記第2動作モードは、前記特定領域を検出して検出結果を出力しないか、又は、前記特定領域を検出しない動作モードである
     診断支援方法。
  21.  コンピュータに処理を実行させるためのプログラムであって、
     前記処理は、
     超音波モジュールによって生成され、観察対象領域が写っている第1超音波画像を取得すること、及び、
     前記観察対象領域を診断するために参照される参照情報が前記第1超音波画像に合成されているか否か、前記第1超音波画像が主要画像モード以外の画像モードである補助画像モードで得られた画像であるか否か、又は、前記第1超音波画像の画質を定める設定値に応じて、第1動作モードと第2動作モードとを切り替えることを含み、
     前記第1動作モードは、前記主要画像モードで得られた第2超音波画像を用いて作成された検出支援情報に基づいて前記第1超音波画像から特定領域を検出する動作モードであり、
     前記第2動作モードは、前記特定領域を検出して検出結果を出力しないか、又は、前記特定領域を検出しない動作モードである
     プログラム。
PCT/JP2023/020699 2022-06-29 2023-06-02 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム WO2024004524A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022105151 2022-06-29
JP2022-105151 2022-06-29

Publications (1)

Publication Number Publication Date
WO2024004524A1 true WO2024004524A1 (ja) 2024-01-04

Family

ID=89382745

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/020699 WO2024004524A1 (ja) 2022-06-29 2023-06-02 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2024004524A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198327A1 (ja) * 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2019016912A1 (ja) * 2017-07-20 2019-01-24 オリンパス株式会社 診断支援装置、診断支援方法及びプログラム
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP2021007512A (ja) * 2019-06-28 2021-01-28 キヤノンメディカルシステムズ株式会社 超音波診断装置及び解析装置
JP2021186257A (ja) * 2020-05-29 2021-12-13 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198327A1 (ja) * 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2019016912A1 (ja) * 2017-07-20 2019-01-24 オリンパス株式会社 診断支援装置、診断支援方法及びプログラム
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP2021007512A (ja) * 2019-06-28 2021-01-28 キヤノンメディカルシステムズ株式会社 超音波診断装置及び解析装置
JP2021186257A (ja) * 2020-05-29 2021-12-13 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置

Similar Documents

Publication Publication Date Title
JP6367425B2 (ja) 超音波診断装置
KR102491757B1 (ko) 초음파 시스템을 위한 에코 윈도우 아티팩트 분류 및 시각적 표시기
JP2015131097A (ja) 超音波診断装置、画像処理装置及び画像処理方法
US20100125201A1 (en) Ultrasound imaging apparatus
JP2020018694A (ja) 超音波診断装置及び超音波画像処理方法
JP7176123B2 (ja) 超音波診断装置、及び超音波診断装置の制御方法
JP2017000364A (ja) 超音波診断装置、及び超音波画像処理方法
US20160361044A1 (en) Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium
WO2020174778A1 (ja) 超音波内視鏡システムおよび超音波内視鏡システムの作動方法
JP7157710B2 (ja) 計測装置、超音波診断装置、計測方法、計測プログラム
US20180146954A1 (en) Method of ultrasound apparatus parameters configuration and an ultrasound apparatus of using the same
JP5527841B2 (ja) 医療画像処理システム
WO2017104627A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP6364942B2 (ja) 超音波画像処理方法及びそれを用いた超音波診断装置
WO2024004524A1 (ja) 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム
JP2007268148A (ja) 超音波診断装置
WO2024004542A1 (ja) 診断支援装置、超音波内視鏡、診断支援方法、及びプログラム
WO2024004597A1 (ja) 学習装置、学習済みモデル、医用診断装置、超音波内視鏡装置、学習方法、及びプログラム
WO2024101255A1 (ja) 医療支援装置、超音波内視鏡、医療支援方法、及びプログラム
WO2023188903A1 (ja) 画像処理装置、医療診断装置、超音波内視鏡装置、画像処理方法、及びプログラム
US20230394780A1 (en) Medical image processing apparatus, method, and program
JP7445513B2 (ja) 超音波診断装置
JP7488789B2 (ja) 超音波診断装置及び診断支援方法
US20240000432A1 (en) Medical image processing apparatus, endoscope system, medical image processing method, and medical image processing program
US20230306592A1 (en) Image processing device, medical diagnosis device, endoscope device, and image processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23830974

Country of ref document: EP

Kind code of ref document: A1