WO2020165988A1 - 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム - Google Patents

超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム Download PDF

Info

Publication number
WO2020165988A1
WO2020165988A1 PCT/JP2019/005244 JP2019005244W WO2020165988A1 WO 2020165988 A1 WO2020165988 A1 WO 2020165988A1 JP 2019005244 W JP2019005244 W JP 2019005244W WO 2020165988 A1 WO2020165988 A1 WO 2020165988A1
Authority
WO
WIPO (PCT)
Prior art keywords
test
subject
unit
diagnostic accuracy
disease
Prior art date
Application number
PCT/JP2019/005244
Other languages
English (en)
French (fr)
Inventor
繁範 香西
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2019/005244 priority Critical patent/WO2020165988A1/ja
Priority to JP2020571977A priority patent/JP7083924B2/ja
Publication of WO2020165988A1 publication Critical patent/WO2020165988A1/ja
Priority to US17/382,604 priority patent/US12002201B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus, an ultrasonic diagnostic apparatus operating method, and an ultrasonic diagnostic apparatus operating program.
  • next test is selected based on the results of the tests already performed. For example, it is customary to narrow down the disease candidates by selecting the next test according to the disease candidates found by the already performed tests.
  • the present invention has been made in view of the above, and an ultrasonic diagnostic apparatus, an operating method of an ultrasonic diagnostic apparatus, and an ultrasonic diagnostic apparatus capable of supporting selection of an examination to be performed next according to a disease candidate found in the examination It is an object to provide an operation program for an ultrasonic diagnostic apparatus.
  • an ultrasonic diagnostic apparatus uses an ultrasonic image data of an object to be diagnosed to analyze a first examination for the object.
  • Section, the analysis result of the analysis unit, the analysis result of the first test on the plurality of sample analytes, and the analysis result of the second test on the plurality of sample analytes A diagnostic accuracy calculation unit that calculates a diagnostic accuracy when the second examination is performed on the subject, and a control unit that displays the diagnostic accuracy on a display device.
  • the analysis unit calculates a probability of a disease of the subject based on the first examination, and the diagnostic accuracy calculation unit is a disease of the subject. And the probability of disease of the sample subject based on the first and second tests, the diagnostic accuracy is calculated.
  • the diagnostic accuracy calculation unit among the sample subjects, the probability of disease based on the first test is the same as the subject to be diagnosed, A ratio in which the probability of the disease based on the second test is equal to or higher than a threshold value is calculated, and the diagnostic accuracy is calculated using the calculated ratio.
  • the ultrasonic diagnostic apparatus in the above invention, further comprises an input unit that receives an input of information, the analysis unit analyzes the first test for each disease candidate, the diagnostic accuracy calculation unit, When the diagnosis accuracy is calculated for each disease candidate, the control unit causes the display device to display an analysis result for each disease candidate by the analysis unit, and when the input unit receives a selection input of one disease candidate, The diagnostic accuracy for the selected disease candidate is displayed on the display device.
  • the analysis unit analyzes the first examination by inputting data of the ultrasonic image to a learned model generated by machine learning. ..
  • the analyzing unit analyzes the first examination for the subject using the data of the ultrasonic image of the subject to be diagnosed, and the diagnostic accuracy calculating unit, Based on the analysis result of the analysis unit, the analysis result of the first test for the plurality of sample subjects, and the analysis result of the second test for the plurality of sample subjects, for the subject to be diagnosed Then, the diagnostic accuracy when performing the second inspection is calculated, and the control unit causes the display device to display the diagnostic accuracy.
  • the operation program of the ultrasonic diagnostic apparatus is such that the analysis unit analyzes the first examination for the subject using the ultrasonic image data of the subject to be diagnosed, and the diagnostic accuracy calculation unit, Based on the analysis result of the analysis unit, the analysis result of the first test for the plurality of sample subjects, and the analysis result of the second test for the plurality of sample subjects, for the subject to be diagnosed Then, the diagnostic accuracy when performing the second inspection is calculated, and the control unit causes the display device to display the diagnostic accuracy.
  • FIG. 1 is a block diagram showing the configuration of an ultrasonic diagnostic system including the ultrasonic diagnostic apparatus according to the embodiment.
  • FIG. 2A is a diagram showing a first example of a table stored in the table storage unit.
  • FIG. 2B is a diagram showing a second example of the table stored in the table storage unit.
  • FIG. 3 is a flowchart showing an outline of processing performed by the ultrasonic diagnostic apparatus according to the embodiment.
  • FIG. 4 is a diagram showing a display example on the display device of the diagnostic accuracy of the second examination candidate.
  • FIG. 5: is a figure which shows the example of a display in the display apparatus of the probability for every disease candidate of a 1st test.
  • FIG. 1 is a block diagram showing the configuration of an ultrasonic diagnostic system including the ultrasonic diagnostic apparatus according to the embodiment.
  • the ultrasonic diagnostic system 1 shown in the figure includes an ultrasonic endoscope 2, an ultrasonic diagnostic device 3, and a display device 4.
  • the ultrasonic endoscope 2 is inserted into the body of the subject, transmits ultrasonic waves to the subject, and receives the ultrasonic waves reflected by the subject.
  • An ultrasonic transducer 21 is provided at the tip of the ultrasonic endoscope 2.
  • the ultrasonic transducer 21 converts an electric pulse signal received from the ultrasonic diagnostic apparatus 3 into an ultrasonic pulse (acoustic pulse) and irradiates the subject, and the ultrasonic echo reflected by the subject is converted into a voltage. It is converted into an electric echo signal (ultrasonic wave signal) expressed by a change and output.
  • the ultrasonic transducer 21 may be of any type such as a convex type, a linear type, a radial type or the like.
  • the ultrasonic transducer 21 may be of a mechanically scanning type or an electronically scanning type.
  • the ultrasonic endoscope 2 targets, for example, the digestive tract (esophagus, stomach, duodenum, large intestine), respiratory organs (trachea, bronchus), etc. of the subject, and the diameter of the insertion portion and ultrasonic waves depending on the target.
  • the size and type of the vibrator 21 are different.
  • a treatment instrument channel which is a conduit for inserting a treatment instrument such as a puncture needle, is formed inside the insertion portion of the ultrasonic endoscope 2.
  • the proximal opening of the treatment instrument channel is located in the middle of the insertion section, while the distal opening of the treatment instrument channel is located near the ultrasonic transducer 21.
  • the ultrasonic endoscope 2 may have an imaging unit that images a subject and generates image data, and a light guide that guides illumination light that illuminates the subject to the tip of the insertion unit.
  • the base end of the light guide is connected to a light source device including a light source that emits illumination light.
  • the ultrasonic diagnostic apparatus 3 and the light source device may be integrated.
  • the ultrasonic diagnostic apparatus 3 includes a transmission/reception unit 31, a signal processing unit 32, an image processing unit 33, an analysis unit 34, a diagnostic accuracy calculation unit 35, an input unit 36, a control unit 37, and a storage unit 38. , Is provided.
  • the transmission/reception unit 31 is electrically connected to the ultrasonic endoscope 2 and transmits a transmission signal (pulse signal) composed of a high voltage pulse to the ultrasonic transducer 21 based on a predetermined waveform and transmission timing.
  • the transmission/reception unit 31 receives an echo signal which is an electrical reception signal from the ultrasonic transducer 21 and generates and outputs digital high frequency (RF: Radio Frequency) signal data (hereinafter, referred to as RF data).
  • RF Radio Frequency
  • the transmission/reception unit 31 transmits various control signals output by the control unit 37 to the ultrasonic endoscope 2, while receiving information including an ID for identification from the ultrasonic endoscope 2 to the control unit 37. Output.
  • the signal processing unit 32 generates digital B-mode reception data based on the RF data received from the transmission/reception unit 31. Specifically, the signal processing unit 32 performs known processing such as bandpass filter, envelope detection, logarithmic conversion, and attenuation correction on the RF data to generate digital B-mode reception data, and the generated data 1
  • the B-mode reception data for the frame is output to the image processing unit 33.
  • the image processing unit 33 generates B-mode image data based on the B-mode reception data received from the signal processing unit 32.
  • the image processing unit 33 performs signal processing such as scan converter processing, gain processing, and contrast processing on the reception data for B mode output from the signal processing unit 32, and according to the display range of the image on the display device 4.
  • the B-mode image data is generated by thinning out data according to the data step width determined by.
  • the B-mode image is a grayscale image in which the values of R (red), G (green), and B (blue), which are variables when the RGB color system is adopted, are matched.
  • the image processing unit 33 generates various image data according to inspection items such as a contrast EUS image, a tissue property image, and elastography, in addition to the B-mode image data.
  • the analysis unit 34 analyzes the predetermined first examination for the subject based on the ultrasonic image of the subject to be diagnosed. For example, when the first examination is an examination using a B-mode image, the analysis unit 34 calculates the probability of the disease of the subject for each disease candidate based on the B-mode image of the subject to be diagnosed. .. At this time, the analysis unit 34 calculates the probability of the disease of the subject by inputting the B-mode image data of the subject to be diagnosed as an input parameter into the learned model.
  • the learned model is a model generated by machine learning using B-mode image data of a plurality of subjects and a diagnosis result using each B-mode image data as teacher data, and a learned model storage included in the storage unit 38. It is stored in the unit 381.
  • the diagnostic accuracy calculation unit 35 performs the diagnosis on the subject to be diagnosed based on the analysis result of the analysis unit 34, the analysis result of the first examination on the other subject, and the analysis result of the second examination on the other subject. Calculate diagnostic accuracy using the second test.
  • the second inspection is different from the first inspection.
  • the diagnostic accuracy calculation unit 35 refers to the table stored in the table storage unit 382 included in the storage unit 38 and calculates the diagnostic accuracy according to the second examination candidate.
  • the input unit 36 is realized by using a user interface such as a keyboard, a mouse, a trackball, a touch panel, or a microphone, and receives various information inputs.
  • the input unit 36 outputs the received information to the control unit 37.
  • the control unit 37 reads the information stored in the storage unit 38 from the storage unit 38, and executes various arithmetic processes related to the operating method of the ultrasonic diagnostic apparatus 3 to thereby perform the ultrasonic diagnostic system 1 including the ultrasonic diagnostic apparatus 3. Control over the whole.
  • the storage unit 38 has a learned model storage unit 381 that stores a learned model used by the analysis unit 34 for calculation, and a table storage unit 382 that stores a table used by the diagnostic accuracy calculation unit 35 to calculate diagnostic accuracy.
  • the storage unit 38 also stores various programs for operating the ultrasonic diagnostic apparatus 3 and data including various parameters necessary for the operation of the ultrasonic diagnostic apparatus 3.
  • the learned model stored in the learned model storage unit 381 is, for example, a model generated by deep learning using a neural network having a plurality of intermediate layers.
  • a set of B-mode image data of a subject for learning and a result of diagnosis (presence or absence of a disease) using this B-mode image data is used as teacher data.
  • the learned model is generated by determining network parameters such as node weights and biases of the neural network using a plurality of teacher data.
  • the neural network for example, a convolutional neural network further including a convolutional layer and a pooling layer may be used.
  • FIG. 2A and 2B are diagrams exemplifying tables stored in the table storage unit 382.
  • the first examination is an examination using a B-mode image, and represents the probability for a predetermined disease candidate (for example, cancer).
  • the table storage unit 382 stores a similar table for each disease candidate.
  • Table 101 shown in FIG. 2A is a table when the second examination is an examination using a contrast EUS image.
  • Table 101 shows the probability of disease based on the B-mode image data, the probability of disease based on the contrast EUS image, and information on whether the probability of disease based on the contrast EUS image is equal to or greater than a threshold value for each sample subject. Including.
  • the table 102 shown in FIG. 2B is a table when the second examination is an examination using a biopsy image.
  • the biopsy image is an image of a living tissue taken by inserting a puncture needle into the treatment instrument channel of the ultrasonic endoscope 2 and puncturing an organ of a sample subject.
  • Table 103 includes, for each sample subject, the probability of disease based on the B-mode image, the probability of disease based on the biopsy image, and information on whether the probability of disease based on the biopsy image exceeds a threshold value. ..
  • the probabilities in Tables 101 and 102 are obtained in advance by machine learning.
  • the probability of the disease calculated in the examination using the B-mode image is similar to that of the learned model described above, that is, teacher data including a pair of B-mode image data and a diagnosis result according to the B-mode image data. It is calculated using a learned model generated by performing deep learning using the model. Further, the probability of a disease calculated in an examination using a contrast EUS image is generated by performing deep learning using teacher data that is a combination of contrast EUS image data and a diagnosis result according to the contrast EUS image data. It is calculated using the trained model that has been trained.
  • the probability of the disease calculated in the examination using the biopsy image is generated by performing deep learning using teacher data that is a set of biopsy image data and a diagnosis result according to the biopsy image data. It is calculated using the trained model that has been trained.
  • the learned models corresponding to each input image are different from each other.
  • the disease probabilities in Tables 101 and 102 are the disease probabilities obtained as output parameters when the B-mode image data, the contrast EUS image data, and the biopsy image data are input for each subject in the learned model. It was done. Instead of outputting the probability of disease as a specific value, a learned model that outputs in the probability range (eg, 70 to 80%) may be used.
  • the threshold value of the probability of the second disease in Tables 101 and 102 is set to 80% as an example, and when it is 80% or more, it is described as “ ⁇ ”, and when it is less than 80%, it is described as “x”.
  • the threshold may be changeable by the user by inputting from the input unit 36. Note that the threshold may be changed for each candidate for the second disease, or may be weighted differently for each candidate for the second disease. For example, since the biopsy image is obtained by imaging the tissue acquired using a puncture needle, the weight of the biopsy image is set smaller than that of the contrast EUS image in view of the fact that the load on the subject is higher than that of the contrast EUS image. Good. Further, the number of subjects described in the table may be larger than the number (10) illustrated in FIGS. 2A and 2B.
  • the teacher data when generating the learned model and the various image data that is input when generating the tables 101 and 102 are different, part of the same image data may be used.
  • the candidate of the second examination is the examination using the contrast EUS image and the biopsy image is illustrated, but as another candidate of the second examination, for example, color flow, tissue property, Alternatively, inspections such as elastography can be mentioned.
  • the storage unit 38 is a ROM (Read Only Memory) in which various programs including an operation program for executing the operation method of the ultrasonic diagnostic apparatus 3 are installed in advance, and a RAM for storing calculation parameters and data of each process. (Random Access Memory) etc. are used.
  • the operation program can be recorded in a computer-readable recording medium such as a hard disk, a flash memory, a CD-ROM, a DVD-ROM, and a flexible disk, and can be widely distributed.
  • the ultrasonic diagnostic apparatus 3 can also be acquired by downloading various programs via a communication network.
  • the communication network mentioned here is realized by, for example, an existing public line network, LAN (Local Area Network), WAN (Wide Area Network), or the like, and may be wired or wireless.
  • the ultrasonic diagnostic apparatus 3 having the above configuration includes one or more hardware such as CPU (Central Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), and FPGA (Field Programmable Gate Array). Composed using.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the display device 4 is configured by using a liquid crystal or an organic EL (Electro Luminescence) or the like, receives data such as an ultrasonic image generated by the ultrasonic diagnostic device 3, displays the image, and calculates the diagnostic accuracy. The calculation result of the unit 35 is displayed.
  • a liquid crystal or an organic EL Electro Luminescence
  • FIG. 3 is a flowchart showing an outline of processing performed by the ultrasonic diagnostic apparatus 3.
  • the ultrasonic diagnostic apparatus 3 generates B-mode image data based on the echo signal received from the ultrasonic endoscope 2 inserted into the subject to be diagnosed (step S1).
  • the transmission/reception unit 31 receives the echo signal from the ultrasonic endoscope 2 and outputs RF data
  • the signal processing unit 32 generates B mode reception data based on the RF data, and an image is displayed.
  • the processing unit 33 generates B-mode image data based on the B-mode reception data.
  • the analysis unit 34 inputs the B-mode image data to be diagnosed into the learned model to calculate the probability of disease for each disease candidate (step S2).
  • the B-mode image data of the diagnosis target input here may be B-mode image data selected by the user through the input unit 36, or may be B-mode image data selected at a predetermined timing or time interval.
  • the analysis unit 34 may calculate only the probability of that disease.
  • the diagnostic accuracy calculation unit 35 calculates the diagnostic accuracy using the second test for each candidate of the second test based on the analysis result of the analysis unit 34 (step S3). For example, in the case where the candidate for the second examination is an examination using a contrast EUS image and the probability of the disease calculated by the analysis unit 34 is 60%, the diagnostic accuracy calculation unit 35 causes the diagnostic accuracy calculation unit 35 to display the table 101 shown in FIG. 2A. Of the data described in “No. 1, 4, 6, 10 are referred to, and the ratio of subjects whose probability of diagnosing a disease is a threshold value (80%) or more using the contrast EUS image is calculated as the diagnostic accuracy. Specifically, of four subjects, No.
  • step S3 the control unit 37 causes the display device 4 to display the diagnostic accuracy for each second examination candidate calculated by the diagnostic accuracy calculation unit 35 (step S4).
  • FIG. 4 is a diagram showing a display example of the diagnostic accuracy displayed by the display device 4.
  • the display device 4 displays the diagnostic accuracy for each candidate for the second examination, as shown in the table 103 of FIG.
  • a user such as a surgeon can grasp the diagnostic accuracy of the second examination, and can support the examination content to be performed next according to the disease candidate found in the examination.
  • the more effective next inspection means can be presented to the user.
  • suspicious diseases can be narrowed down by performing as few tests as possible, and the physical, time, and cost burden on the patient can be reduced.
  • FIG. 5 is a diagram showing a display example of the display device 4 in the modification of the embodiment.
  • the control unit 37 causes the display device 4 to display the probability of disease.
  • a table 104 shown in FIG. 5 shows a display example of the table on the display device 4.
  • Table 104 shows a case in which the probability of pancreatic cancer, pNET, and chronic pancreatitis, which are three disease candidates, is 30%, 45%, and 20%, respectively, and the probability of being normal is 5%.
  • the control unit 37 displays the diagnostic accuracy of the second examination candidate calculated for the selected disease candidate on the display device 4. To be displayed.
  • the display content of the display device 4 at this time is similar to that of the table 103 shown in FIG.
  • the control unit 37 may cause the display device 4 to display the candidate names of the second examination having a predetermined diagnostic accuracy or higher.
  • the user can be made aware of the diagnostic accuracy in the second examination for each disease candidate.
  • the content analyzed by the analysis unit 34 may be parameters such as the feature amount in the image instead of the probability of the disease.
  • the diagnostic accuracy calculation unit 35 may calculate the diagnostic accuracy based on the second test based on the relationship between the parameter value and the disease.
  • the ultrasonic diagnostic apparatus 3 automatically updates the network parameter of the learned model stored in the learned model 381 using the image data acquired from the ultrasonic diagnostic apparatus 3 and the diagnosis result based on the image data. You may provide the learning part to do.
  • the ultrasonic diagnostic apparatus 3 receives the upgraded learned model from another device communicatively connected via the communication network, and updates the learned model stored in the learned model storage unit 381. You can
  • a trained model generated by machine learning other than deep learning may be used.
  • machine learning other than deep learning include support vector machines and decision trees.
  • the present invention can include various embodiments and the like without departing from the technical idea described in the claims.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • Hematology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置(3)は、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析する解析部(34)と、解析部(34)の解析結果、複数のサンプル用被検体に対する第1の検査の解析結果、および複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、診断対象の被検体に対して第2の検査を行う場合の診断確度を算出する診断確度算出部(35)と、診断確度算出部(35)の算出結果を表示装置(4)に表示させる制御部(37)と、を備える。

Description

超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
 本発明は、超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラムに関する。
 関連技術として、記憶された操作履歴、操作内容と操作者により入力された最新の操作または直近の検査内容との比較に基づく所定の統計解析により、その後の一連の検査手順を発生する技術が知られている(例えば、特許文献1を参照)。
特許第6181542号公報
 実際の医療では、すでに行った検査の結果をふまえて次に行う検査を選択することが多い。例えば、すでに行った検査により見つかった疾患候補に応じて次の検査を選択し、疾患候補を絞っていくのが通例である。
 しかしながら、上述した関連技術の場合、一連の検査手順を発生させる際にそれ以前に行った検査の結果を用いないため、検査で見つかった疾患候補に応じて次に行うべき検査の選択を支援することはできなかった。
 本発明は、上記に鑑みてなされたものであって、検査で見つかった疾患候補に応じて次に行うべき検査の選択を支援することができる超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る超音波診断装置は、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析する解析部と、前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出する診断確度算出部と、前記診断確度を表示装置に表示させる制御部と、を備える。
 本発明に係る超音波診断装置は、上記発明において、前記解析部は、前記第1の検査に基づいて前記被検体の疾患の確率を算出し、前記診断確度算出部は、前記被検体の疾患の確率と、前記第1および第2の検査に基づく前記サンプル用被検体の疾患の確率とを用いて前記診断確度を算出する。
 本発明に係る超音波診断装置は、上記発明において、前記診断確度算出部は、前記第1の検査に基づく疾患の確率が前記診断対象の被検体と同じである前記サンプル用被検体のうち、前記第2の検査に基づく疾患の確率が閾値以上である割合を算出し、算出した割合を用いて前記診断確度を算出する。
 本発明に係る超音波診断装置は、上記発明において、情報の入力を受け付ける入力部をさらに備え、前記解析部は、前記第1の検査を疾患候補ごとに解析し、前記診断確度算出部は、前記診断確度を疾患候補ごとに算出し、前記制御部は、前記解析部による疾患候補ごとの解析結果を前記表示装置に表示させ、前記入力部が1つの疾患候補の選択入力を受け付けた場合、選択された疾患候補に対する前記診断確度を前記表示装置に表示させる。
 本発明に係る超音波診断装置は、上記発明において、前記解析部は、機械学習によって生成された学習済みモデルに対して前記超音波画像のデータを入力することによって前記第1の検査を解析する。
 本発明に係る超音波診断装置の作動方法は、解析部が、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析し、診断確度算出部が、前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出し、制御部が、前記診断確度を表示装置に表示させる。
 本発明に係る超音波診断装置の作動プログラムは、解析部が、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析し、診断確度算出部が、前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出し、制御部が、前記診断確度を表示装置に表示させる。
 本発明によれば、検査で見つかった疾患候補に応じて次に行うべき検査の選択を支援することができる。
図1は、実施の形態に係る超音波診断装置を備えた超音波診断システムの構成を示すブロック図である。 図2Aは、表記憶部が記憶する表の第1例を示す図である。 図2Bは、表記憶部が記憶する表の第2例を示す図である。 図3は、実施の形態に係る超音波診断装置が行う処理の概要を示すフローチャートである。 図4は、第2の検査候補の診断確度の表示装置における表示例を示す図である。 図5は、第1の検査の疾患候補ごとの確率の表示装置における表示例を示す図である。
 以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。
 図1は、実施の形態に係る超音波診断装置を備えた超音波診断システムの構成を示すブロック図である。同図に示す超音波診断システム1は、超音波内視鏡2と、超音波診断装置3と、表示装置4と、を備える。
 超音波内視鏡2は、被検体の体内に挿入され、被検体へ超音波を送信し、該被検体で反射された超音波を受信する。超音波内視鏡2の先端部には、超音波振動子21が設けられている。超音波振動子21は、超音波診断装置3から受信した電気的なパルス信号を超音波パルス(音響パルス)に変換して被検体へ照射するとともに、被検体で反射された超音波エコーを電圧変化で表現する電気的なエコー信号(超音波信号)に変換して出力する。超音波振動子21は、コンベックス型、リニア型、ラジアル型等のいずれのタイプでもよい。また、超音波振動子21は、メカ的に走査させるタイプでもよいし、電子的に走査させるタイプでもよい。超音波内視鏡2は、例えば被検体の消化管(食道、胃、十二指腸、大腸)や呼吸器(気管、気管支)等を観測対象としており、観測対象に応じて挿入部の径、超音波振動子21の大きさやタイプが異なる。
 超音波内視鏡2の挿入部の内部には、穿刺針等の処置具を挿通するための管路である処置具チャンネルが形成されている。処置具チャンネルの基端側の開口部は、挿入部の中間部に位置している一方、処置具チャンネルの先端側の開口部は、超音波振動子21の近くに位置している。
 超音波内視鏡2は、被検体を撮像して画像データを生成する撮像部と、被検体へ照射する照明光を挿入部の先端へ導くライトガイドとを有していてもよい。この場合、ライトガイドの基端部は、照明光を発生する光源を備える光源装置に接続されている。なお、超音波診断装置3と光源装置を一体で構成してもよい。
 超音波診断装置3は、送受信部31と、信号処理部32と、画像処理部33と、解析部34と、診断確度算出部35と、入力部36と、制御部37と、記憶部38と、を備える。
 送受信部31は、超音波内視鏡2と電気的に接続され、所定の波形および送信タイミングに基づいて高電圧パルスからなる送信信号(パルス信号)を超音波振動子21へ送信する。また、送受信部31は、超音波振動子21から電気的な受信信号であるエコー信号を受信してデジタルの高周波(RF:Radio Frequency)信号のデータ(以下、RFデータという)を生成して出力する。
 送受信部31は、制御部37が出力する各種制御信号を超音波内視鏡2に対して送信する一方、超音波内視鏡2から識別用のIDを含む情報を受信して制御部37へ出力する。
 信号処理部32は、送受信部31から受信したRFデータをもとにデジタルのBモード用受信データを生成する。具体的には、信号処理部32は、RFデータに対してバンドパスフィルタ、包絡線検波、対数変換、減衰補正等公知の処理を施し、デジタルのBモード用受信データを生成し、生成した1フレーム分のBモード用受信データを画像処理部33へ出力する。
 画像処理部33は、信号処理部32から受信したBモード用受信データに基づいてBモード画像データを生成する。画像処理部33は、信号処理部32から出力されたBモード用受信データに対して、スキャンコンバーター処理、ゲイン処理、コントラスト処理等の信号処理を行うとともに、表示装置4における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引き等を行うことによってBモード画像データを生成する。Bモード画像は、色空間としてRGB表色系を採用した場合の変数であるR(赤)、G(緑)、B(青)の値を一致させたグレースケール画像である。
 画像処理部33は、Bモード画像データ以外にも、造影EUS画像、組織性状画像、エラストグラフィ等、検査項目に応じた各種画像データを生成する。
 解析部34は、診断対象の被検体の超音波画像に基づいて、その被検体に対する所定の第1の検査の解析を行う。例えば、第1の検査がBモード画像を用いた検査である場合、解析部34は、診断対象の被検体のBモード画像に基づいて、その被検体の疾患の確率を疾患候補ごとに算出する。この際、解析部34は、診断対象の被検体のBモード画像データを入力パラメータとして学習済みモデルに入力することにより、その被検体の疾患の確率を算出する。学習済みモデルは、複数の被検体のBモード画像データと各Bモード画像データを用いた診断結果とを教師データとして、機械学習によって生成されたモデルであり、記憶部38が有する学習済みモデル記憶部381に格納されている。
 診断確度算出部35は、解析部34の解析結果、他の被検体に対する第1の検査の解析結果、および他の被検体に対する第2の検査の解析結果に基づいて、診断対象の被検体に対する第2の検査を用いた診断確度を算出する。第2の検査は、第1の検査と異なる検査である。診断確度算出部35は、記憶部38が有する表記憶部382が記憶する表を参照して第2の検査の候補に応じた診断確度を算出する。
 入力部36は、キーボード、マウス、トラックボール、タッチパネル、またはマイクロフォン等のユーザインタフェースを用いて実現され、各種情報の入力を受け付ける。入力部36は、受け付けた情報を制御部37に出力する。
 制御部37は、記憶部38が記憶する情報を記憶部38から読み出し、超音波診断装置3の作動方法に関連した各種演算処理を実行することによって超音波診断装置3を含む超音波診断システム1を統括して制御する。
 記憶部38は、解析部34が演算に用いる学習済みモデルを記憶する学習済みモデル記憶部381と、診断確度算出部35が診断確度の算出に用いる表を記憶する表記憶部382とを有する。また、記憶部38は、超音波診断装置3を動作させるための各種プログラム、および超音波診断装置3の動作に必要な各種パラメータ等を含むデータを記憶する。
 学習済みモデル記憶部381が記憶する学習済みモデルは、例えば複数の中間層を有するニューラルネットワークを用いた深層学習によって生成されたモデルである。この学習済みモデルは、学習用の被検体のBモード画像データと、このBモード画像データを用いた診断の結果(疾患の有無)との組を教師データとする。より具体的には、学習済みモデルは、複数の教師データを用いてニューラルネットワークのノードの重みやバイアス等のネットワークパラメータを決定することによって生成されたものである。ニューラルネットワークとして、例えば畳込み層およびプーリング層をさらに備えた畳込みニューラルネットワークを用いてもよい。
 図2Aおよび図2Bは、表記憶部382が記憶する表を例示する図である。図2Aおよび図2Bにおいて、第1の検査はBモード画像を用いた検査であり、所定の疾患候補(例えば癌)に対する確率を表している。なお、表記憶部382は、疾患候補ごとに同様の表を記憶している。
 図2Aに示す表101は、第2の検査が造影EUS画像を用いた検査である場合の表である。表101は、サンプル用被検体ごとにBモード画像データに基づく疾患の確率と、造影EUS画像に基づく疾患の確率と、造影EUS画像に基づく疾患の確率が閾値以上であるか否かの情報を含む。
 図2Bに示す表102は、第2の検査が生検画像を用いた検査である場合の表である。生検画像は、超音波内視鏡2の処置具チャンネルに穿刺針を挿通し、サンプル用被検体の臓器を穿刺することによって採取した生体組織を撮像した画像である。表103は、サンプル用被検体ごとにBモード画像に基づく疾患の確率と、生検画像に基づく疾患の確率と、生検画像に基づく疾患の確率が閾値を超えているか否かの情報を含む。
 表101、102における確率は、予め機械学習によって求められている。例えば、Bモード画像を用いた検査において算出される疾患の確率は、上述した学習済みモデルと同様に、Bモード画像データと、Bモード画像データに応じた診断結果とを組とする教師データを用いて深層学習を行うことによって生成された学習済みモデルを用いて算出される。また、造影EUS画像を用いた検査において算出される疾患の確率は、造影EUS画像データと、造影EUS画像データに応じた診断結果とを組とする教師データを用いて深層学習を行うことによって生成された学習済みモデルを用いて算出される。また、生検画像を用いた検査において算出される疾患の確率は、生検画像データと、生検画像データに応じた診断結果とを組とする教師データを用いて深層学習を行うことによって生成された学習済みモデルを用いて算出される。なお、各入力画像に対応した学習済みモデルは互いに異なる。表101、102における疾患の確率は、学習済みモデルに対して被検体ごとにBモード画像データ、造影EUS画像データ、生検画像データをそれぞれ入力したときの出力パラメータとして得られる疾患の確率を記載したものである。なお、疾患の確率を特定の値で出力する代わりに、確率の範囲(例:70~80%)で出力する学習済みモデルを用いてもよい。
 表101、102における第2の疾患の確率の閾値は一例として80%に設定されており、80%以上の場合「○」、80%未満の場合「×」と記載されている。この閾値は、ユーザが入力部36からの入力によって変更可能としてもよい。なお、閾値は第2の疾患の候補ごとに代えてもよいし、第2の疾患の候補ごとに異なる重み付けをしてもよい。例えば生検画像は穿刺針を用いて取得した組織を撮像することによって得られるため、造影EUS画像よりも被検体への負荷が高くなることに鑑みて、造影EUS画像よりも重みを小さくしてもよい。また、表に記載される被検体の数は、図2A、図2Bに例示する数(10)より多くてもよい。
 なお、学習済みモデルを生成する際の教師データと、表101、102を生成する際に入力する各種画像データとは異なるが、一部同じ画像データを用いてもよい。また、ここでは第2の検査の候補が造影EUS画像および生検画像をそれぞれ用いた検査である場合を例示しているが、他の第2の検査の候補として、例えばカラーフロー、組織性状、またはエラストグラフィ等の検査を挙げることができる。
 記憶部38は、超音波診断装置3の作動方法を実行するための作動プログラムを含む各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて構成される。作動プログラムは、ハードディスク、フラッシュメモリ、CD-ROM、DVD-ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、超音波診断装置3は、通信ネットワークを介して各種プログラムをダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)等によって実現されるものであり、有線、無線を問わない。
 以上の構成を有する超音波診断装置3は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の1または複数のハードウェアを用いて構成される。
 表示装置4は、液晶または有機EL(Electro Luminescence)等を用いて構成され、超音波診断装置3によって生成された超音波画像等のデータを受信して、その画像を表示したり、診断確度算出部35の算出結果を表示したりする。
 図3は、超音波診断装置3が行う処理の概要を示すフローチャートである。まず、超音波診断装置3は、診断対象の被検体に挿入された超音波内視鏡2から受信したエコー信号をもとにBモード画像データを生成する(ステップS1)。具体的には、送受信部31が超音波内視鏡2からエコー信号を受信してRFデータを出力し、信号処理部32がそのRFデータをもとにBモード用受信データを生成し、画像処理部33がそのBモード用受信データに基づいてBモード画像データを生成する。
 続いて、解析部34は、診断対象のBモード画像データを学習済みモデルに入力することにより、疾患の確率を疾患候補ごとに算出する(ステップS2)。ここで入力する診断対象のBモード画像データは、ユーザが入力部36によって選択したBモード画像データでもよいし、所定のタイミングまたは時間間隔で選択されるBモード画像データでもよい。なお、予め特定の疾患が選択されている場合、解析部34はその疾患の確率のみを算出してもよい。
 この後、診断確度算出部35は、解析部34の解析結果に基づいて、第2の検査を用いた診断確度を第2の検査の候補ごとに算出する(ステップS3)。例えば、第2の検査の候補が造影EUS画像を用いた検査である場合において、解析部34が算出した疾患の確率が60%であるとき、診断確度算出部35は、図2Aに示す表101に記載されているデータのうち、被検体No.1、4、6、10を参照し、そのうち造影EUS画像を用いて疾患と診断する確率が閾値(80%)以上である被検体の割合を診断確度として算出する。具体的には、4つの被検体のうち、No.1,4が条件を満たしているため、診断確度算出部35は、診断確度を2/4=50(%)と算出する。同様に、第2の検査の候補が生検画像を用いた検査である場合において、解析部34が算出した疾患の確率が60%であるとき、診断確度算出部35は、図2Bに示す表102を参照して、第2の検査候補が生検画像を用いた検査である場合の診断確度を2/2=100(%)と算出する。
 ステップS3の後、制御部37は、診断確度算出部35が算出した第2の検査の候補ごとの診断確度を表示装置4に表示させる(ステップS4)。図4は、表示装置4が表示する診断確度の表示例を示す図である。表示装置4は、図4の表103に示すように、第2の検査の候補ごとの診断確度を表示する。
 以上説明した実施の形態によれば、診断対象の被検体の超音波画像を用いた該被検体に対する第1の検査の解析結果、複数のサンプル用被検体に対する第1の検査の解析結果、および複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、診断対象の被検体に対して第2の検査を行う場合の診断確度を算出し、算出結果を表示装置に表示させるため、術者等のユーザは第2の検査の診断確度を把握することができ、検査で見つかった疾患候補に応じて次に行うべき検査内容を支援することができる。その結果、より効果的な次の検査手段をユーザに提示できる。換言すれば、なるべく少ない検査を行うことによって疑いのある疾患を絞ることができ、患者の身体的、時間的、費用的な負担を減らすことができる。
 図5は、実施の形態の変形例における表示装置4の表示例を示す図である。本変形例では、解析部34が疾患候補ごとに疾患の確率を算出した後、制御部37が表示装置4に疾患の確率を表示させる。図5に示す表104は、表示装置4における表の表示例を示している。表104では、3つの疾患候補である膵癌、pNETおよび慢性膵炎の確率がそれぞれ30%、45%、20%であり、正常である確率が5%である場合を示している。この場合において、ユーザが入力部36から3つの疾患候補のいずれかを選択入力したとき、制御部37は選択された疾患候補に対して算出した第2の検査の候補の診断確度を表示装置4に表示させる。このときの表示装置4の表示内容は、図4に示す表103と同様である。なお、制御部37は、表104の代わりに、所定の診断確度以上である第2の検査の候補名を表示装置4に表示させるようにしてもよい。
 以上説明した実施の形態の変形例によれば、疾患候補ごとの第2の検査における診断確度をユーザに把握させることができる。
 ここまで、本発明を実施するための形態を説明してきたが、本発明は、上述した実施の形態によってのみ限定されるべきものではない。
 例えば、解析部34が解析する内容は、疾患の確率に代えて画像中の特徴量等のパラメータでもよい。この場合には、パラメータの値と疾患との関係に基づいて診断確度算出部35が第2の検査に基づく診断確度を算出するようにすればよい。
 また、超音波診断装置3が、超音波診断装置3から取得する画像データとその画像データに基づく診断結果とを用いて、学習済みモデル381が記憶する学習済みモデルのネットワークパラメータを自動的に更新する学習部を備えてもよい。
 また、超音波診断装置3が、通信ネットワークを介して通信接続された他の機器からバージョンアップされた学習済みモデルを受信して、学習済みモデル記憶部381が記憶する学習済みモデルを更新するようにしてもよい。
 また、深層学習以外の機械学習によって生成された学習済みモデルを用いてもよい。深層学習以外の機械学習として、例えばサポートベクターマシン、決定木等を挙げることができる。
 このように、本発明は、請求の範囲に記載した技術的思想を逸脱しない範囲内において、さまざまな実施の形態等を含み得るものである。
 1 超音波診断システム
 2 超音波内視鏡
 3 超音波診断装置
 4 表示装置
 21 超音波振動子
 31 送受信部
 32 信号処理部
 33 画像処理部
 34 解析部
 35 診断確度算出部
 36 入力部
 37 制御部
 38 記憶部
 101~104 表
 381 学習済みモデル記憶部
 382 表記憶部

Claims (7)

  1.  診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析する解析部と、
     前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出する診断確度算出部と、
     前記診断確度を表示装置に表示させる制御部と、
     を備える超音波診断装置。
  2.  前記解析部は、
     前記第1の検査に基づいて前記被検体の疾患の確率を算出し、
     前記診断確度算出部は、
     前記被検体の疾患の確率と、前記第1および第2の検査に基づく前記サンプル用被検体の疾患の確率とを用いて前記診断確度を算出する請求項1に記載の超音波診断装置。
  3.  前記診断確度算出部は、
     前記第1の検査に基づく疾患の確率が前記診断対象の被検体と同じである前記サンプル用被検体のうち、前記第2の検査に基づく疾患の確率が閾値以上である割合を算出し、算出した割合を用いて前記診断確度を算出する請求項2に記載の超音波診断装置。
  4.  情報の入力を受け付ける入力部をさらに備え、
     前記解析部は、
     前記第1の検査を疾患候補ごとに解析し、
     前記診断確度算出部は、
     前記診断確度を疾患候補ごとに算出し、
     前記制御部は、
     前記解析部による疾患候補ごとの解析結果を前記表示装置に表示させ、
     前記入力部が1つの疾患候補の選択入力を受け付けた場合、選択された疾患候補に対する前記診断確度を前記表示装置に表示させる請求項1~3のいずれか一項に記載の超音波診断装置。
  5.  前記解析部は、
     機械学習によって生成された学習済みモデルに対して前記超音波画像のデータを入力することによって前記第1の検査を解析する請求項1~4のいずれか一項に記載の超音波診断装置。
  6.  解析部が、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析し、
     診断確度算出部が、前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出し、
     制御部が、前記診断確度を表示装置に表示させる、
     超音波診断装置の作動方法。
  7.  解析部が、診断対象の被検体の超音波画像のデータを用いて前記被検体に対する第1の検査を解析し、
     診断確度算出部が、前記解析部の解析結果、複数のサンプル用被検体に対する前記第1の検査の解析結果、および前記複数のサンプル用被検体に対する第2の検査の解析結果に基づいて、前記診断対象の被検体に対して前記第2の検査を行う場合の診断確度を算出し、
     制御部が、前記診断確度を表示装置に表示させる、
     超音波診断装置の作動プログラム。
PCT/JP2019/005244 2019-02-14 2019-02-14 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム WO2020165988A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/005244 WO2020165988A1 (ja) 2019-02-14 2019-02-14 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP2020571977A JP7083924B2 (ja) 2019-02-14 2019-02-14 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
US17/382,604 US12002201B2 (en) 2019-02-14 2021-07-22 Ultrasonic diagnostic device, operation method of ultrasonic diagnostic device, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/005244 WO2020165988A1 (ja) 2019-02-14 2019-02-14 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/382,604 Continuation US12002201B2 (en) 2019-02-14 2021-07-22 Ultrasonic diagnostic device, operation method of ultrasonic diagnostic device, and computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2020165988A1 true WO2020165988A1 (ja) 2020-08-20

Family

ID=72043807

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005244 WO2020165988A1 (ja) 2019-02-14 2019-02-14 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム

Country Status (3)

Country Link
US (1) US12002201B2 (ja)
JP (1) JP7083924B2 (ja)
WO (1) WO2020165988A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527743A (ja) * 2004-02-03 2007-10-04 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 心臓関連の病気及び状態のための自動診断及び意思決定支援用システム及び方法
WO2012161040A1 (ja) * 2011-05-23 2012-11-29 株式会社 日立メディコ 超音波診断装置とその検査項目提示方法
JP2013162810A (ja) * 2012-02-09 2013-08-22 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
JP2018503902A (ja) * 2014-12-16 2018-02-08 エッレ. イ. アー. ディ ジュゼッペ キャパツソ 診断妥当性基準を採用することによって病態を特定するための診断検査の最適なシーケンスを決定することに適合した医用鑑別診断装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6181542B2 (ja) 2013-12-18 2017-08-16 東芝メディカルシステムズ株式会社 超音波診断装置、医用画像診断装置および検査手順発生プログラム
US11650195B2 (en) * 2017-02-03 2023-05-16 Q Bio, Inc. Iterative medical testing of biological samples

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527743A (ja) * 2004-02-03 2007-10-04 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 心臓関連の病気及び状態のための自動診断及び意思決定支援用システム及び方法
WO2012161040A1 (ja) * 2011-05-23 2012-11-29 株式会社 日立メディコ 超音波診断装置とその検査項目提示方法
JP2013162810A (ja) * 2012-02-09 2013-08-22 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
JP2018503902A (ja) * 2014-12-16 2018-02-08 エッレ. イ. アー. ディ ジュゼッペ キャパツソ 診断妥当性基準を採用することによって病態を特定するための診断検査の最適なシーケンスを決定することに適合した医用鑑別診断装置

Also Published As

Publication number Publication date
US12002201B2 (en) 2024-06-04
JPWO2020165988A1 (ja) 2021-10-21
US20210350536A1 (en) 2021-11-11
JP7083924B2 (ja) 2022-06-13

Similar Documents

Publication Publication Date Title
US9655593B2 (en) Medical diagnostic apparatus, method for operating medical diagnostic apparatus, and computer-readable recording medium
US11071523B2 (en) Ultrasound observation device, operation method of ultrasound observation device, and computer-readable recording medium
CN103648400A (zh) 超声波诊断装置以及方法
US20160361044A1 (en) Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium
US20210007709A1 (en) Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program
JPWO2016113990A1 (ja) 超音波観測システム
JP7516283B2 (ja) 呼吸モードに応じた超音波画像取得の最適化
US9872668B2 (en) Medical diagnostic apparatus, method for operating medical diagnostic apparatus, and computer-readable recording medium
JP7083924B2 (ja) 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
JP6533984B2 (ja) 超音波診断装置、超音波画像解析方法、超音波感染解析方法
JP2018191779A (ja) 超音波観測装置
JP5575370B2 (ja) 超音波診断装置
US20190008483A1 (en) Ultrasound observation apparatus, method of operating ultrasound observation apparatus, and computer readable recording medium
JPWO2018016337A1 (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
JP7094843B2 (ja) 超音波観測装置、超音波観測装置の作動方法、コンピュータで読み取り可能な記録媒体および超音波診断システム
WO2021152745A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP7238164B2 (ja) 超音波観測装置、超音波観測システム、超音波観測方法、超音波観測プログラム、及び超音波内視鏡システム
KR101611450B1 (ko) 초음파 시스템에서 초음파 측정을 가이드하기 위한 방법, 장치, 및 그를 기록한 기록 매체
WO2022239529A1 (ja) 医療画像処理装置、医療画像処理方法、及びプログラム
JP2017217359A (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
WO2020183678A1 (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP2022054644A (ja) 超音波観測装置、内視鏡補助装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
JP6379059B2 (ja) 超音波観測装置、超音波観測装置の作動方法、超音波観測装置の作動プログラムおよび超音波診断システム
JP2020044045A (ja) 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP2017164371A (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19915306

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020571977

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19915306

Country of ref document: EP

Kind code of ref document: A1