JP7427902B2 - 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 - Google Patents
超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 Download PDFInfo
- Publication number
- JP7427902B2 JP7427902B2 JP2019182469A JP2019182469A JP7427902B2 JP 7427902 B2 JP7427902 B2 JP 7427902B2 JP 2019182469 A JP2019182469 A JP 2019182469A JP 2019182469 A JP2019182469 A JP 2019182469A JP 7427902 B2 JP7427902 B2 JP 7427902B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- likelihood
- ultrasound
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 137
- 238000000034 method Methods 0.000 title claims description 33
- 238000002604 ultrasonography Methods 0.000 claims description 156
- 238000012545 processing Methods 0.000 claims description 63
- 210000005036 nerve Anatomy 0.000 claims description 51
- 238000003745 diagnosis Methods 0.000 claims description 39
- 210000004204 blood vessel Anatomy 0.000 claims description 25
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 11
- 238000007476 Maximum Likelihood Methods 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims 3
- 238000003384 imaging method Methods 0.000 claims 1
- 239000000523 sample Substances 0.000 description 27
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003444 anaesthetic effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002690 local anesthesia Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000001087 myotubule Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000000578 peripheral nerve Anatomy 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/085—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Vascular Medicine (AREA)
- Human Computer Interaction (AREA)
- Physiology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練を行う超音波画像診断用訓練装置であって、
訓練用の前記超音波画像から第1画像を抽出し、前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成する教師データ生成部と、
前記教師データを用いた機械学習により前記識別モデルを訓練する識別モデル訓練部と、を備え、
前記教師データ生成部は、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む。
上記の超音波画像診断用訓練装置と、
前記識別モデルを実行し、診断用の超音波画像の入力に対して前記ターゲットの尤度に関する情報を出力する識別モデル実行部と、を備える。
被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練方法であって、
訓練用の前記超音波画像から第1画像を抽出し、
前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成し、
前記教師データを用いた機械学習により前記識別モデルを訓練し、
前記第1画像を抽出する工程では、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記教師データを生成する工程で用いる前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む。
被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練プログラムであって、
コンピューターに、
訓練用の前記超音波画像から第1画像を抽出する第1処理と、
前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成する第2処理と、
前記教師データを用いた機械学習により識別モデルを訓練する第3処理と、を実行させ、
前記第1処理では、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記第2処理で用いる前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む。
被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
ターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備える。
上記の超音波診断装置において、前記ターゲットは神経であり、前記ターゲット以外の構造物は血管を含み、前記識別モデルは、少なくとも、前記神経を含む参照データに基づいて、予め訓練されている。
上記の超音波診断装置において、前記表示処理部は、前記尤度分布に基づいて、前記Bモード画像の色相、彩度、明度の少なくとも1つを変化させて表示するとともに、前記尤度分布においてターゲット尤度が予め定められたしきい値を下回る非ターゲットの領域については、前記Bモード画像をそのまま表示する。
上記の超音波診断装置において、前記表示処理部は、前記尤度分布に基づく等高線を、前記Bモード画像に重ね合わせて表示する。
上記の超音波診断装置において、前記表示処理部は、前記尤度分布に基づくターゲット枠を、前記Bモード画像に重ねて表示する。
上記の超音波診断装置において、前記ターゲット識別部は、前記尤度に関する情報の時間的な変化に基づいて、前記尤度分布に含まれるノイズを除去する。
上記の超音波診断装置は、前記Bモード画像から、前記被検体に刺入された穿刺針を示す穿刺針情報を取得する穿刺針特定部を備え、前記表示処理部は、前記穿刺針情報及び前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を、視認可能に表示する。
なお、神経周辺に麻酔薬を投入する場合は、穿刺針を刺入してはいけない神経及び血管をターゲットして扱い、それ以外の構造物を非ターゲットとして扱ってもよい。
音響整合層22は、超音波を効率よく被検体内に進入させるための中間的物質であり、振動子(図示略)と被写体の音響インピーダンスを整合させる。
バッキング材24は、振動子アレイ23で発生する不要振動を減衰する。
図3に示すように、超音波診断装置本体10は、操作入力部11、送信部12、受信部13、画像処理部14、ターゲット識別部15、表示処理部16、表示部17及びシステム制御部18等を備える。
画像解析部142は、Bモード画像を解析して、例えば、Bモード画像に含まれる穿刺針を特定し、穿刺針情報を取得する。
ターゲット尤度とは、ターゲットであることの尤もらしさを示す指標であり、ターゲット及びその周辺の領域はターゲット尤度が大きく、非ターゲットの領域はターゲット尤度が小さくなる。識別モデル40から出力されるターゲット尤度に関する情報は、例えば、識別モデル40に入力されたBモード画像の中央の画素ブロックに対応するターゲット尤度(尤度値)であってもよいし、入力されたBモード画像全体に対応するターゲット尤度の分布(以下、「尤度分布」と称する)であってもよい。なお、画素ブロックは、画像を複数領域に分割したときのそれぞれの分割領域であり、複数の画素からなる画素群で構成されてもよいし、一つの画素で構成されてもよい。
図4に示すように、ターゲット識別部15は、例えば、教師データ生成部151、識別モデル訓練部152、識別モデル実行部153、尤度分布生成部154及び記憶部155を有する。
記憶部155は、例えば、識別モデル40、参照データ50、及び教師データ60を記憶する。識別モデル40の訓練に用いられた教師データ60は、教師データ生成部151によって新たに教師データ60が生成された場合に、適宜上書きされてもよい。また、記憶部155は、訓練履歴記憶部として機能し、訓練履歴データ70を記憶する。訓練履歴データ70は、例えば、訓練に用いた教師データ60の数や訓練日時等の情報を含む。
図5A~図5Cに示すように、参照データ50は、第1画像(教師データ生成用のBモード画像)にターゲットが含まれる場合に参照される第1参照データ51と、第1画像にターゲットが含まれない場合に参照される第2参照データ52とを有する。
例えば、図8A、図8Bに示すように、第2画像82と第1参照データ51を比較して、第2画像82の中央の画素ブロックに対応するターゲット尤度Vを第1参照データ51から特定して、第2画像82の特徴量と対応付ける。このとき、第1参照データ51は、第1画像81のサイズに応じて適宜調整される。
教師データ生成部151によって実行される以上の工程により、教師データ60が生成される。
これにより、ユーザーは、識別モデル40の訓練程度を把握することができ、識別モデル40を用いたターゲット識別において十分な精度を得るために、今後、どれくらいの訓練が必要かを知得することができる。
例えば、ステップS203の処理において、カラーマップ94を用いずに、尤度分布93をカラーで表示した尤度分布画像(図示略)をBモード画像91に重ね合わせて、表示データを生成してもよい。また、Bモード画像91と尤度分布画像を単に並べて表示してもよい。
このプログラムは、例えば、当該プログラムが格納されたコンピューター読取可能な可搬型記憶媒体(光ディスク、光磁気ディスク、及びメモリカードを含む)を介して提供される。また例えば、このプログラムは、当該プログラムを保有するサーバーから、ネットワークを介してダウンロードにより提供することもできる。
特に、識別モデル40を訓練するために必要な膨大な教師データ60を、訓練用のBモード画像80から第1画像81を設定してラベル(ターゲット/非ターゲット)を対応付けるという極めて簡易な処理により、短時間で生成することができる。したがって、識別モデル40の訓練に不慣れなユーザーであっても、簡単に識別モデル40を訓練して識別性能を向上することができる。
具体的には、教師データ生成部151は、ユーザーによって指定されたターゲットの座標を中心とする特定領域を、第1画像81の抽出領域として設定する。
これにより、識別モデル40を訓練するための教師データ60を容易に生成することができる。
具体的には、第1参照データ51は、ターゲットの領域に対応する尤度を最大尤度とし、ターゲットからの距離が離れるほど尤度が小さくなる尤度分布を有し、第2参照データ52は、第1画像81の全体に対応する領域の尤度が0である。
これにより、ターゲットと非ターゲットとを精度良く識別するように識別モデル40を訓練することができ、識別モデル40の識別性能を向上することができる。
これにより、識別モデル40は、構造が類似しておりユーザーが誤認しやすい神経と血管とを確実に識別することができる。したがって、ターゲット識別部15の出力を元に表示画像25が生成され表示されることで、ユーザーが神経と誤認して血管又は血管の近傍に穿刺針を刺入するのを防止することができ、安全性が向上する。
これにより、穿刺針を刺入すべき領域を把握するためのターゲットの識別性能が向上する。
これにより、例えば、神経ブロックにおいて穿刺針を刺入してはいけない血管等もターゲットとすることもでき、識別モデル40の出力に基づいて、穿刺針を刺入すべき領域だけでなく、穿刺針を刺入すべきでない領域も把握することができる。
具体的には、教師データ生成部151は、参照データ50を参照して、第2画像82ごとに尤度に関する情報を演算し、第2画像82の特徴量と当該第2画像82の中央の画素ブロックのターゲット尤度とを対応付ける。
これにより、識別モデル40の訓練に必要な膨大な教師データ60を効率よく生成することができ、識別モデル40の識別性能を向上することができる。
これにより、識別モデル40の訓練履歴(例えば、訓練に用いられた教師データの数)を提示することができ。ユーザーは、識別モデル40の訓練程度を把握することができ、識別モデル40を用いたターゲット識別において十分な精度を得るために、今後、どれくらいの訓練が必要かを知得することができる。
これにより、例えば、神経ブロックを行う際に、穿刺針を刺入すべき領域の標識となる神経と、穿刺針を刺入してはいけない血管とを明確に区別して、ユーザーに提示することができる。したがって、ユーザーが神経と誤認して血管又は血管の近傍に穿刺針を刺入するのを防止することができ、安全性が向上する。
具体的には、表示処理部16は、尤度分布93をカラー表示した尤度分布画像(図示略)と、Bモード画像91を重ね合わせて表示する。
これにより、ユーザーは、ターゲットの存在を色彩により容易に把握することができる。
これにより、尤度分布93と合成することに伴いBモード画像91の鮮明さが損なわれるのを防止でき、表示画像95の視認性を確保することができる。
また、表示処理部16は、前記尤度分布に基づくターゲット枠97を、Bモード画像91に重ねて表示する。
これにより、ユーザーは、ターゲットの領域をより明確に把握することができる。
これにより、時間軸方向において表示画像25が平滑化され、ターゲットの視認性が向上する。
すなわち、超音波診断装置1は、Bモード画像から、被検体に刺入された穿刺針を示す穿刺針情報を取得する画像解析部142(穿刺針特定部)を備え、表示処理部16は、穿刺針情報及び尤度分布を用いて、Bモード画像におけるターゲットの領域を、視認可能に表示する。
この場合、識別モデル40は、少なくとも、神経及び穿刺針を含む第1参照データ51に基づいて、予め訓練される。
これにより、Bモード画像における穿刺針の刺入領域を把握するためのターゲットを精度良く識別して視認させることができる。
これにより、ユーザーは、穿刺針とターゲットである神経との位置関係を容易に視認することができる。
また、表示処理部16は、尤度分布に基づく等高線を、Bモード画像に重ね合わせて表示するとともに、穿刺針情報に基づいて等高線の表示態様を変化させてもよい。
また、表示処理部16は、尤度分布に基づくターゲット枠を、Bモード画像に重ねて表示するとともに、穿刺針情報に基づいてターゲット枠の表示態様を変化させてもよい。
具体的には、穿刺針と神経との位置関係に基づいて、ターゲット尤度の高い部分及び/又は穿刺針が描出されている部分の表示態様を変化させる。
これにより、ユーザーは、穿刺針の刺入状況を容易に把握することができる。
10 超音波診断装置本体
11 操作入力部
12 送信部
13 受信部
14 画像処理部
141 Bモード画像生成部
142 画像解析部(穿刺針特定部)
15 ターゲット識別部(超音波画像診断用訓練装置)
151 教師データ生成部
152 識別モデル訓練部
153 識別モデル実行部
154 尤度分布生成部
155 記憶部(訓練履歴記憶部)
16 表示処理部
17 表示部
18 システム制御部(コンピューター)
20 超音波探触子
Claims (23)
- 被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練を行う超音波画像診断用訓練装置であって、
訓練用の前記超音波画像から第1画像を抽出し、前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成する教師データ生成部と、
前記教師データを用いた機械学習により前記識別モデルを訓練する識別モデル訓練部と、
を備え、
前記教師データ生成部は、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む、
超音波画像診断用訓練装置。 - 前記教師データ生成部は、前記ユーザーによって指定されたターゲットの座標を中心とする特定領域を、前記抽出領域として設定する、請求項1に記載の超音波画像診断用訓練装置。
- 前記第2参照データは、前記第1画像全体に対応する領域の尤度が0である、請求項1に記載の超音波画像診断用訓練装置。
- 前記ターゲットは神経であり、
前記非ターゲットは、血管を含む、請求項1から3のいずれか一項に記載の超音波画像診断用訓練装置。 - 前記第1画像は、神経又は前記神経の周辺に刺入される穿刺針を含む、請求項1から4のいずれか一項に記載の超音波画像診断用訓練装置。
- 前記第1参照データは、複数の前記ターゲットに対して設定される、請求項1から5のいずれか一項に記載の超音波画像診断用訓練装置。
- 前記教師データ生成部は、一つの前記第1画像から複数セットの前記教師データを生成する、請求項1から6のいずれか一項に記載の超音波画像診断用訓練装置。
- 前記教師データ生成部は、前記参照データを参照して、前記第2画像ごとに前記尤度に関する情報を演算し、前記第2画像の特徴量と当該第2画像の中央の画素ブロックのターゲット尤度とを対応付ける、請求項7に記載の超音波画像診断用訓練装置。
- 前記識別モデルの訓練履歴を記憶する訓練履歴記憶部を備える、請求項1から8のいずれか一項に記載の超音波画像診断用訓練装置。
- 請求項1から9のいずれか1項に記載の超音波画像診断用訓練装置と、
前記識別モデルを実行し、診断用の超音波画像の入力に対して前記ターゲットの尤度に関する情報を出力する識別モデル実行部と、
を備える、超音波画像診断装置。 - 被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練方法であって、
訓練用の前記超音波画像から第1画像を抽出し、
前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成し、
前記教師データを用いた機械学習により前記識別モデルを訓練し、
前記第1画像を抽出する工程では、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記教師データを生成する工程で用いる前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む、
識別モデルの訓練方法。 - 被検体内で反射した反射超音波に基づいて生成される超音波画像内のターゲットを識別するために用いられる識別モデルの訓練プログラムであって、
コンピューターに、
訓練用の前記超音波画像から第1画像を抽出する第1処理と、
前記第1画像と予め設定された参照データとに基づいて、前記第1画像に含まれる第2画像の特徴量と、ターゲットの尤度に関する情報と、を対応付けた教師データを生成する第2処理と、
前記教師データを用いた機械学習により識別モデルを訓練する第3処理と、
を実行させ、
前記第1処理では、訓練用の前記超音波画像におけるユーザーによるターゲット指定に関する操作に基づいて、前記第1画像の抽出領域を設定し、
前記第2処理で用いる前記参照データは、
前記ターゲットの領域に対応する尤度を最大尤度とし、前記ターゲットからの距離が離れるほど前記尤度が小さくなる尤度分布を有し、前記第1画像に前記ターゲットが含まれる場合に参照される第1参照データと、
前記第1画像全体に対応する領域の尤度が0以下であり、前記第1画像が前記ターゲットを含まない非ターゲットである場合に参照される第2参照データと、を含む、
プログラム。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
請求項1から9のいずれか一項に記載の超音波画像診断用訓練装置によりターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、
を備え、
前記ターゲットは神経であり、前記ターゲット以外の構造物は血管を含み、
前記識別モデルは、少なくとも、前記神経を含む参照データに基づいて、予め訓練されている、超音波診断装置。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
ターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備え、
前記表示処理部は、前記尤度分布に基づいて、前記Bモード画像の色相、彩度、明度の少なくとも1つを変化させて表示するとともに、前記尤度分布においてターゲット尤度が予め定められたしきい値を下回る非ターゲットの領域については、前記Bモード画像をそのまま表示する、超音波診断装置。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
ターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備え、
前記表示処理部は、前記尤度分布に基づく等高線を、前記Bモード画像に重ね合わせて表示する、超音波診断装置。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
ターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備え、
前記表示処理部は、前記尤度分布に基づくターゲット枠を、前記Bモード画像に重ねて表示する、超音波診断装置。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
請求項1から9のいずれか一項に記載の超音波画像診断用訓練装置によりターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備え、
前記ターゲット識別部は、前記尤度に関する情報の時間的な変化に基づいて、前記尤度分布に含まれるノイズを除去する、超音波診断装置。 - 被検体内で反射した反射超音波に応じた超音波画像を生成し、表示する超音波診断装置であって、
前記反射超音波に応じた受信信号に基づいて、Bモード画像を生成するBモード画像生成部と、
請求項1から9のいずれか一項に記載の超音波画像診断用訓練装置によりターゲットに対応する領域の尤度が高くかつ前記ターゲット以外の構造物の尤度が低くなるように予め訓練された識別モデルを用いて、前記Bモード画像に対するターゲットの尤度に関する情報を取得し、前記尤度に関する情報に基づいて、前記Bモード画像に対応する尤度分布を生成するターゲット識別部と、
前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を視認可能に表示する表示処理部と、を備え、
前記Bモード画像から、前記被検体に刺入された穿刺針を示す穿刺針情報を取得する穿刺針特定部を備え、
前記表示処理部は、前記穿刺針情報及び前記尤度分布を用いて、前記Bモード画像における前記ターゲットの領域を、視認可能に表示する、超音波診断装置。 - 前記識別モデルは、少なくとも、神経及び前記穿刺針を含む参照データに基づいて、予め訓練されている、請求項18に記載の超音波診断装置。
- 前記表示処理部は、前記Bモード画像において前記穿刺針を強調表示する、請求項18又は19に記載の超音波診断装置。
- 前記表示処理部は、前記穿刺針情報及び前記尤度分布に基づいて、前記Bモード画像の色相、彩度、明度の少なくとも1つを変化させて表示する、請求項18から20のいずれか一項に記載の超音波診断装置。
- 前記表示処理部は、前記尤度分布に基づく等高線を、前記Bモード画像に重ね合わせて表示するとともに、前記穿刺針情報に基づいて前記等高線の表示態様を変化させる、請求項18から21のいずれか一項に記載の超音波診断装置。
- 前記表示処理部は、前記尤度分布に基づくターゲット枠を、前記Bモード画像に重ねて表示するとともに、前記穿刺針情報に基づいて前記ターゲット枠の表示態様を変化させる、請求項18から22のいずれか一項に記載の超音波診断装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019182469A JP7427902B2 (ja) | 2019-10-02 | 2019-10-02 | 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 |
US17/038,454 US11842808B2 (en) | 2019-10-02 | 2020-09-30 | Ultrasound diagnostic imaging training apparatus, ultrasound diagnostic imaging apparatus, identification model training method, non-transitory recording medium storing computer readable training program, and ultrasound diagnostic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019182469A JP7427902B2 (ja) | 2019-10-02 | 2019-10-02 | 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058232A JP2021058232A (ja) | 2021-04-15 |
JP7427902B2 true JP7427902B2 (ja) | 2024-02-06 |
Family
ID=75273660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182469A Active JP7427902B2 (ja) | 2019-10-02 | 2019-10-02 | 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11842808B2 (ja) |
JP (1) | JP7427902B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230030941A1 (en) * | 2021-07-29 | 2023-02-02 | GE Precision Healthcare LLC | Ultrasound imaging system and method for use with an adjustable needle guide |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007181679A (ja) | 2005-12-29 | 2007-07-19 | General Electric Co <Ge> | 空間解析に対する先行処理として時間解析を利用するコンピュータ支援式検出システム |
JP2014138847A (ja) | 2013-01-03 | 2014-07-31 | Siemenscorp | 診断用超音波イメージングにおける針の強調 |
JP2015036123A (ja) | 2013-08-09 | 2015-02-23 | 株式会社東芝 | 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法 |
WO2016157499A1 (ja) | 2015-04-02 | 2016-10-06 | 株式会社日立製作所 | 画像処理装置、物体検知装置、画像処理方法 |
JP2019028887A (ja) | 2017-08-02 | 2019-02-21 | 国立研究開発法人産業技術総合研究所 | 画像処理方法 |
WO2019039050A1 (ja) | 2017-08-25 | 2019-02-28 | 富士フイルム株式会社 | 音響波診断装置および音響波診断装置の制御方法 |
JP2019508072A (ja) | 2016-12-02 | 2019-03-28 | アヴェント インコーポレイテッド | 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法 |
JP2019525786A (ja) | 2016-07-08 | 2019-09-12 | アヴェント インコーポレイテッド | 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9439624B2 (en) * | 2007-10-19 | 2016-09-13 | Metritrack, Inc. | Three dimensional mapping display system for diagnostic ultrasound machines and method |
WO2017160651A1 (en) * | 2016-03-12 | 2017-09-21 | Lang Philipp K | Devices and methods for surgery |
JP6727176B2 (ja) * | 2017-09-27 | 2020-07-22 | 富士フイルム株式会社 | 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置 |
US10786306B2 (en) * | 2018-01-24 | 2020-09-29 | Medtronic Ardian Luxembourg S.A.R.L. | Denervation therapy |
US20190223949A1 (en) * | 2018-01-24 | 2019-07-25 | Medtronic Ardian Luxembourg S.A.R.L. | Multielectrode catheter |
JP6937731B2 (ja) * | 2018-09-27 | 2021-09-22 | 富士フイルム株式会社 | 超音波診断装置および超音波診断装置の制御方法 |
WO2020102670A1 (en) * | 2018-11-15 | 2020-05-22 | Nantomics, Llc | Classification based on characterization analysis methods and systems |
-
2019
- 2019-10-02 JP JP2019182469A patent/JP7427902B2/ja active Active
-
2020
- 2020-09-30 US US17/038,454 patent/US11842808B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007181679A (ja) | 2005-12-29 | 2007-07-19 | General Electric Co <Ge> | 空間解析に対する先行処理として時間解析を利用するコンピュータ支援式検出システム |
JP2014138847A (ja) | 2013-01-03 | 2014-07-31 | Siemenscorp | 診断用超音波イメージングにおける針の強調 |
JP2015036123A (ja) | 2013-08-09 | 2015-02-23 | 株式会社東芝 | 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法 |
WO2016157499A1 (ja) | 2015-04-02 | 2016-10-06 | 株式会社日立製作所 | 画像処理装置、物体検知装置、画像処理方法 |
JP2019525786A (ja) | 2016-07-08 | 2019-09-12 | アヴェント インコーポレイテッド | 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 |
JP2019508072A (ja) | 2016-12-02 | 2019-03-28 | アヴェント インコーポレイテッド | 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法 |
JP2019028887A (ja) | 2017-08-02 | 2019-02-21 | 国立研究開発法人産業技術総合研究所 | 画像処理方法 |
WO2019039050A1 (ja) | 2017-08-25 | 2019-02-28 | 富士フイルム株式会社 | 音響波診断装置および音響波診断装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210103773A1 (en) | 2021-04-08 |
US11842808B2 (en) | 2023-12-12 |
JP2021058232A (ja) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115944392A (zh) | 用于规划消融的超声系统及方法 | |
CN109475343A (zh) | 超声弹性测量显示方法及系统 | |
JP2018516135A (ja) | がん悪性度マップにより拡張された精密診断及び治療に対するシステム及び方法 | |
CN114364325B (zh) | 超声波诊断装置及超声波诊断装置的控制方法 | |
EP3013246B1 (en) | Acoustic highlighting of interventional instruments | |
CN104905812A (zh) | 用于显示对象的多个不同图像的方法和设备 | |
EP3818943B1 (en) | Acoustic wave diagnostic device and method for controlling acoustic wave diagnostic device | |
JP2024516814A (ja) | 超音波画像における血管の表示 | |
US20240197286A1 (en) | Automated Needle Entry Detection | |
CN114222537A (zh) | 超声波诊断装置及超声波诊断装置的控制方法 | |
Illanes et al. | Surgical audio guidance surag: extracting non-invasively meaningful guidance information during minimally invasive procedures | |
JP2023160986A (ja) | 超音波診断装置及び解析装置 | |
JP2020010753A (ja) | 超音波診断装置、超音波画像表示方法、プログラム及び超音波探触子 | |
JP7427902B2 (ja) | 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置 | |
KR102133695B1 (ko) | 니들 가이드 시스템 및 그 방법 | |
CN117224161A (zh) | 一种超声成像方法以及超声成像系统 | |
US20170347992A1 (en) | Automated region of interest placement | |
CN112515747A (zh) | 用于分析超声场景以提供针引导和警告的方法和系统 | |
KR101654676B1 (ko) | 초음파 영상에 가변적 에디팅을 수행하는 방법 및 그 방법을 수행하는 초음파 시스템 | |
US11653898B2 (en) | Ultrasound diagnostic apparatus, ultrasound image display method and computer-readable recording medium | |
CN104887271A (zh) | 输出包括在感兴趣区域中的血流信息的方法、设备和系统 | |
JP7499135B2 (ja) | 超音波観測装置、内視鏡補助装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム | |
EP3840655B1 (en) | Constraining sensor tracking estimates in interventional acoustic imaging | |
EP4248879A1 (en) | Information processing device, information processing method, and program | |
US20220370045A1 (en) | Image generation device, image generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7427902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |