JP2021522956A - 超音速画像のキャプチャを方向付けるシステムおよび方法 - Google Patents

超音速画像のキャプチャを方向付けるシステムおよび方法 Download PDF

Info

Publication number
JP2021522956A
JP2021522956A JP2020564470A JP2020564470A JP2021522956A JP 2021522956 A JP2021522956 A JP 2021522956A JP 2020564470 A JP2020564470 A JP 2020564470A JP 2020564470 A JP2020564470 A JP 2020564470A JP 2021522956 A JP2021522956 A JP 2021522956A
Authority
JP
Japan
Prior art keywords
standard
image
navigator
neural network
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564470A
Other languages
English (en)
Other versions
JP7445243B2 (ja
Inventor
ケズラー,イタエ
エシェル,ヨラム
ルドミルスキー,アチアウ
リップマン,ヤロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New York University NYU
Original Assignee
New York University NYU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=68533844&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2021522956(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by New York University NYU filed Critical New York University NYU
Publication of JP2021522956A publication Critical patent/JP2021522956A/ja
Priority to JP2024019943A priority Critical patent/JP2024069213A/ja
Application granted granted Critical
Publication of JP7445243B2 publication Critical patent/JP7445243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/585Automatic set-up of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/286Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for scanning or photography techniques, e.g. X-rays, ultrasonics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)

Abstract

超音波プローブを有する移動式超音波ユニットのためのダウンロード可能なナビゲータであって、モバイルコンピューティングデバイス上に実装されるナビゲータである。このナビゲータは、移動式超音波ユニットから身体部分の非標準画像を受信して、非標準画像に関連付けられた変換を生成するトレーニングされた方向付けニューラルネットワークであって、上記変換が、標準画像に関連付けられた位置および回転から非標準画像に関連付けられた位置および回転に変換する、トレーニングされた方向付けニューラルネットワークと、上記変換をプローブのユーザのための方向指示に変え、プローブの位置および回転を変更するために、ユーザに前記方向指示を提供および表示する結果コンバータとを含む。
【選択図】図2

Description

本発明は、概して移動式ハンドヘルド超音波装置に関し、特に、正しい使用のための方向付けに関するものである。
関連出願の相互参照
本出願は、2018年5月15日に出願された米国仮特許出願第62/671,692号の優先権を主張するものであり、この出願は引用により本明細書に援用されるものとする。
医療用超音波検査(診断超音波検査または超音波検査としても知られている)は、超音波の適用に基づく画像診断技術である。これは、腱、筋肉、関節、血管、内臓などの体内構造の画像を作成するために使用される。
効果的な検査および診断を行うために正確な画像を取得するには、図1に示すように、超音波トランスデューサを関連する臓器または身体部分と空間を介してある角度位置に配置する必要がある。図1は、トランスデューサ14で撮影された関心のある臓器12の超音波画像を示している。臓器12の最適または「標準」画像を得るために必要な正確な角度位置にトランスデューサ14をナビゲートする技術は、超音波検査を成功させるために極めて重要であることが理解されよう。このプロセスは、典型的には、訓練を受けた熟練した超音波検査者を必要とする。
例えば、心エコー検査を実行するために、超音波検査者は、四腔像や二腔像などの様々な標準方向から心臓の画像を撮影する必要がある。トランスデューサの正しい位置決めは、左心室の最適なビューを受信して、それにより心臓の機能情報を抽出するために非常に重要である。
移動式超音波装置またはデバイスは、当技術分野で知られており、例えばPhilips社から市販されているLumifyが挙げられる。これらの移動式超音波装置は、スマートフォンやタブレットなどの任意のポータブルハンドヘルドデバイスにダウンロード可能なプログラムと通信するトランスデューサの形態で利用可能である。
このようなデバイスが利用できるということは、嵩張る高価な機器を必要とすることなく、超音波検査を、オフサイト(病院などから離れた場所)、例えば、救急車のトリアージツールとして、または戦場で、緊急治療施設、老人ホームなどで実行できることを意味している。
本発明の好ましい実施形態によれば、超音波プローブを有する移動式超音波ユニットのためのダウンロード可能なナビゲータであって、ポータブルコンピューティングデバイス上に実装されるナビゲータが提供される。このナビゲータは、前記移動式超音波ユニットから身体部分の非標準画像(non-canonical image)を受信して、前記非標準画像に関連付けられた変換(transformation)を生成するトレーニングされた方向付けニューラルネットワーク(orientation neural network)であって、前記変換が、標準画像(canonical image)に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転に変換する、トレーニングされた方向付けニューラルネットワークと、前記変換を前記プローブのユーザのための方向指示(orientation instructions)に変え、前記プローブの位置および回転を変更するために、前記ユーザに前記方向指示を提供および表示する結果コンバータ(result converter)とを含む。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記標準画像と、前記標準画像の周囲で撮影された非標準画像と、前記標準画像から前記非標準画像に関連付けられた空間内の位置および回転への変換とを用いて、前記方向付けニューラルネットワークをトレーニングするためのトレーナ(trainer)をさらに含む。
さらに、本発明の好ましい実施形態によれば、前記トレーナが、トレーニングプローブに取り付けられたIMU(慣性測定ユニット)からトレーニングセッション中にIMUデータを受信するトレーニングコンバータを含み、前記IMUデータが、前記非標準画像および前記標準画像に関連付けられた位置および回転を提供し、それらの位置および回転を、前記標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転への変換に変える。
さらに、本発明の好ましい実施形態によれば、前記トレーナが、トレーニングされていない方向付けニューラルネットワークと、前記トレーニングされていない方向付けニューラルネットワークをトレーニングするための損失関数(loss function)とを含み、前記損失関数が、前記トレーニングされていない方向付けニューラルネットワークによって生成された計算された変換と、各非標準画像のグラウンドトルース変換(ground truth transformation)との間の距離を減少させる。
さらに、本発明の好ましい実施形態によれば、前記損失関数が、前記計算された変換を複数の異なる標準方向のうちの1つに制約する確率(probability)をさらに含む。
さらに、本発明の好ましい実施形態によれば、前記標準画像が、複数の標準画像のうちの1つである。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記標準画像を観察するときに、前記プローブによって生成された最終画像から診断を行う診断器(diagnoser)を含む。
さらに、本発明の好ましい実施形態によれば、前記ポータブルコンピューティングデバイスが、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータおよびスマートアプライアンスのうちの1つである。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから複数の変換を受信し、画像のセットおよびそれらに関連する変換を生成するセットクリエータ(set creator)と、十分なセットが生成されたときを判定する十分性チェッカ(sufficiency checker)と、身体部分の周期中に身体部分の変化を示す要約周期的標準画像(summary cyclical canonical images)のセットを生成するためのトレーニングされた周期的標準ビューニューラルネットワーク(cyclical canonical view neural network)とを含む。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、身体の周期の各時点で、前記画像のセットと、それらに関連する変換と、それらに関連する要約周期的標準画像とを用いて、トレーニングされていない周期的標準ビューニューラルネットワークをトレーニングするための周期的標準ビュートレーナ(cyclical canonical view trainer)をさらに含む。
さらに、本発明の好ましい実施形態によれば、身体部分の周期が心周期である。
さらに、本発明の好ましい実施形態によれば、各セットが単一の要素を含む。
本発明の好ましい実施形態によれば、超音波プローブを有するポータブルコンピューティングデバイスに実装される移動式超音波ユニットのためのナビゲータが提供される。このナビゲータは、身体部分の周囲でキャプチャされた複数の超音波画像の方向情報を提供するためのトレーニングされた方向付けニューラルネットワークであって、前記方向情報が、前記身体部分の標準ビュー(canonical view)に対して前記画像を方向付けるためのものである、方向付けニューラルネットワークと、前記方向情報に従って前記画像を方向付けし、断層再構成を使用して方向付けされた画像から前記身体部分のボリューム表示(volume representation)を生成し、前記ボリューム表示から標準ビューの標準画像を生成するためのボリューム再構成器(volume reconstructer)とを含む。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから方向を受信して、十分な画像が受信されたときを判定するための十分性チェッカと、前記十分性チェッカに応答して前記トレーニングされた方向付けニューラルネットワークのために更なる画像を要求するための結果コンバータとを含む。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記身体部分の前記ボリューム表示から診断を行う診断器を含む。
本発明の好ましい実施形態によれば、モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのためのナビゲータが提供される。このナビゲータは、前記プローブから身体部分の非標準画像を受信し、前記非標準画像を表示可能なマップ上の非標準マップポイント(non-canonical map point)にマッピングし、前記非標準画像に関連付けられた複数の標準画像を前記表示可能なマップ上の標準マップポイント(canonical map points)にマッピングするためのトレーニングされたマッピングニューラルネットワーク(mapping neural network)と、前記標準マップポイントおよび非標準マップポイントでマークされたマップを表示するための結果コンバータとを含む。
さらに、本発明の好ましい実施形態によれば、前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離がマップ上の位置間の距離に類似し、かつ、ある標準画像から別の標準画像への最適なパスが直線的な等速軌道であるようにする。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、ユーザが前記プローブを前記標準マップポイントのうちの1つに移動させたときに、前記プローブによって生成された最終画像から診断を行う診断器も含む。
本発明の好ましい実施形態によれば、超音波プローブを有する移動式超音波ユニットのためのダウンロード可能なナビゲータであって、モバイルデバイス上に実装されるナビゲータが提供される。このナビゲータは、時間の経過とともに前記プローブから画像を受信し、画像のセットを生成するセットクリエータと、十分なセットが生成されたときを判定する十分性チェッカと、身体部分の周期中に前記身体部分の変化を示す要約周期的標準画像のセットを生成する周期的標準ビューニューラルネットワークとを含む。
さらに、本発明の好ましい実施形態によれば、前記ナビゲータが、前記周期的標準ビューニューラルネットワークによって生成された最終画像から診断を行う診断器も含む。
本発明の好ましい実施形態によれば、超音波プローブを有する移動式超音波ユニットのための方法であって、ポータブルコンピューティングデバイスに実装される方法が提供され、この方法が、トレーニングされた方向付けニューラルネットワークを使用して、前記移動式超音波ユニットから身体部分の非標準画像を受信して、前記非標準画像に関連付けられた変換を生成するステップであって、前記変換が、標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転に変換する、ステップと、前記変換を前記プローブのユーザのための方向指示に変え、前記プローブの位置および回転を変更するために、前記ユーザに前記方向指示を提供および表示するステップとを含む。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記標準画像と、前記標準画像の周囲でキャプチャされた非標準画像と、前記標準画像から前記非標準画像に関連付けられた空間内の位置および回転への変換とを用いて、前記方向付けニューラルネットワークをトレーニングするステップを含む。
さらに、本発明の好ましい実施形態によれば、トレーニングすることが、トレーニングプローブに取り付けられたIMU(慣性測定ユニット)からトレーニングセッション中にIMUデータを受信することを含み、前記IMUデータが、前記非標準画像および前記標準画像に関連付けられた位置および回転を提供し、それらの位置および回転を、前記標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転への変換に変える。
さらに、本発明の好ましい実施形態によれば、前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離がマップ上の位置間の距離に類似し、かつ、ある標準画像から別の標準画像への最適なパスが直線的な等速軌道であるようにする。
さらに、本発明の好ましい実施形態によれば、前記損失関数が、前記計算された変換を複数の異なる標準方向のうちの1つに制約する確率をさらに含む。
さらに、本発明の好ましい実施形態によれば、前記標準画像が、複数の標準画像のうちの1つである。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記標準画像を観察するときに、前記プローブによって生成された最終画像から診断を行うステップを含む。
さらに、本発明の好ましい実施形態によれば、前記ポータブルコンピューティングデバイスが、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータおよびスマートアプライアンスのうちの1つである。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから複数の変換を受信し、画像のセットおよびそれらに関連する変換を生成するステップと、十分なセットが生成されたときを判定するステップと、トレーニングされた周期的標準ビューニューラルネットワークを使用して、身体部分の周期中に身体部分の変化を示す要約周期的標準画像のセットを生成するステップとをさらに含む。
さらに、本発明の好ましい実施形態によれば、前記方法が、身体の周期の各時点で、画像のセットと、それらに関連する変換と、それらに関連する要約周期的標準画像とを用いて、トレーニングされていない周期的標準ビューニューラルネットワークをトレーニングするステップをさらに含む。
さらに、本発明の好ましい実施形態によれば、前記身体部分の周期が、心周期である。
さらに、本発明の好ましい実施形態によれば、各セットが単一の要素を含む。
さらに、本発明の好ましい実施形態によれば、超音波プローブを有するポータブルコンピューティングデバイス上に実装される移動式超音波ユニットのための方法が提供され、この方法が、トレーニングされた方向付けニューラルネットワークを使用して、身体部分の周囲でキャプチャされた複数の超音波画像の方向情報を提供するステップであって、前記方向情報が、前記身体部分の標準ビューに対して前記画像を方向付けるためのものである、ステップと、前記方向情報に従って前記画像を方向付けし、断層再構成を使用して方向付けされた画像から前記身体部分のボリューム表示を生成し、前記ボリューム表示から標準ビューの標準画像を生成するステップとを含む。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから方向を受信して、十分な画像が受信されたときを判定するステップと、受信した方向に応答して前記トレーニングされた方向付けニューラルネットワークのために更なる画像を要求するステップとを含む。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記身体部分の前記ボリューム表示から診断を行うステップをさらに含む。
さらに、本発明の好ましい実施形態によれば、モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのための方法が提供される。この方法は、トレーニングされたマッピングニューラルネットワークを使用して、前記プローブから身体部分の非標準画像を受信し、前記非標準画像を表示可能なマップ上の非標準マップポイントにマッピングし、前記非標準画像に関連付けられた複数の標準画像を前記表示可能なマップ上の標準マップポイントにマッピングするステップと、前記標準マップポイントおよび非標準マップポイントでマークされたマップを表示するステップとを含む。
さらに、本発明の好ましい実施形態によれば、前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離が直線的な等速軌道に類似するようにする。
さらに、本発明の好ましい実施形態によれば、前記方法が、ユーザが前記プローブを前記標準マップポイントのうちの1つに移動させたときに、前記プローブによって生成された最終画像から診断を行うステップをさらに含む。
さらに、本発明の好ましい実施形態によれば、モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのための方法が提供される。この方法は、時間の経過とともに前記プローブから画像を受信し、画像のセットを生成するステップと、十分なセットが生成されたときを判定するステップと、周期的標準ビューニューラルネットワークにより、身体部分の周期中に前記身体部分の変化を示す要約周期的標準画像のセットを生成するステップとを含む。
さらに、本発明の好ましい実施形態によれば、前記方法が、前記周期的標準ビューニューラルネットワークによって生成された最終画像から診断を行うステップを含む。
本発明とみなされる主題は、明細書の結論部分で特に指摘され、明確に主張されている。しかしながら、本発明は、組織および操作方法の両方に関して、さらに対象物、画像および利点に関して、添付の図面とともに読むことにより、以下の詳細な説明を参照することで最もよく理解されよう。
図1は、身体部分の画像をキャプチャするために超音波トランスデューサがどのように配置されるのかを示す概略図である。 図2は、本発明に従って構築されて動作可能である超音波ナビゲータの概略図である。 図3Aおよび図3Bは、本発明に従って構築されて動作可能な図2のナビゲータが、身体部分の適切な画像をキャプチャするために、非超音波検査者がプローブおよびトランスデューサを方向付けるのをどのように支援するのかを示す概略図である。 図4は、本発明に従って構築されて動作可能な、ある臓器の非標準画像およびそれに関連する標準画像についてのトレーニングプローブの向きの変換の概略図である。 図5は、本発明に従って構築されて動作可能な、方向付けニューラルネットワークのためのトレーニングプロセスの概略図である。 図6は、本発明に従って構築されて動作可能な、図2のナビゲータの要素の概略図である。 図7は、本発明に従って構築されて動作可能な、図2のナビゲータに対する代替的な実施形態の要素の概略図である。 図8A、図8Bおよび図8Cは、本発明に従って構築されて動作可能な、図2のナビゲータに対する代替的な実施形態の要素および機能の概略図である。 図9Aおよび図9Bは、本発明に従って構築されて動作可能な、トレーニング時および動作中の図2のナビゲータに対する代替的な実施形態の要素の概略図である。 図10Aおよび図10Bは、本発明に従って構築されて動作可能な、トレーニング時および動作中の図9Aおよび図9Bのナビゲータに対する代替的な実施形態の要素の概略図である。 例示の単純化および明確化のために、図面に示された要素は、必ずしも一定の縮尺で描かれていないことを理解されたい。例えば、いくつかの要素の寸法は、明確化のために、他の要素と比較して誇張されている場合がある。さらに、適切と考えられる場合には、対応する要素または類似する要素を示すために、符号が図面間で繰り返される場合がある。
以下の詳細な説明では、本発明の完全な理解を提供するために、多くの具体的な詳細が記載されている。しかしながら、本発明は、これらの具体的な詳細なしに実施され得ることが当業者によって理解されよう。他の実施例では、本発明を不明瞭にしないように、周知の方法、手順および構成要素は詳細には記載されていない。
出願人は、病院などの従来の場所から離れた場所で移動式超音波装置を使用できることは、訓練を受けていない超音波検査者または非超音波検査者がそれらの装置を利用する可能性があることを意味することを理解している。しかしながら、訓練を受けていない医師、救急隊員あるいは患者自身でさえも、それらの超音波検査を正しく行うための訓練や知識を持っていない。異なる臓器や身体部分には異なる訓練が必要であることが理解されよう。
2018年6月7日に公開された「Guided Navigation of an Ultrasound Probe」という名称の米国特許出願公開第2018/0153505号、並びに、2016年5月26日に公開された「Ultrasound Acquisition Feedback Guidance to a Target View」という名称の米国特許出願公開第2016/0143627号に記載されているような先行技術システムは、非超音波検査者が最適な画像をキャプチャする上で最適な方向にトランスデューサを誘導するのを支援するために、特定の身体部分の供給された画像と好ましい標準画像との間の偏差を判定する方法を教示している。
出願人は、これらの先行技術のシステムが、回転計算に関して完全な解決策を提供しないことを理解している。また、出願人は、これらの先行技術のシステムは、非超音波検査者のプローブの位置を判定するのを助けるための追加のハードウェア(例えば、磁力計、ジャイロスコープ、加速度計などの慣性測定ユニット)を必要とするため、特に有用ではないことに気付いている。出願人は、追加のハードウェアを必要とせずに、関連する移動式超音波装置の処理ソフトウェアと統合またはオーバーレイとして使用するために、ダウンロード等を介して、容易にアクセス可能なシステムの方が遙かに有用であることに気付いている。その結果、本発明は、超音波ユニットによって生成されたデジタル画像のみを用いて動作する。
図2を参照すると、本発明の第1の実施形態に係る超音波ナビゲータ100が示されており、これは、AppleのAppstoreやGoogleのGoogle Playなどのモバイルアプリケーションストア10から、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータ、スマートアプライアンスなどの任意のポータブルコンピューティングデバイスにダウンロードすることができる。
ナビゲータ100は、(ダウンロードの一部として)トレーニングされた方向付けニューラルネットワーク15を含むことができることが理解されよう。方向付けニューラルネットワーク15は、以下に本明細書でより詳細に記載される。上述したように、ナビゲータ100は、関連する移動式超音波装置の処理ソフトウェアと統合またはオーバーレイとして使用されるものであってもよい。
したがって、ユーザ5は、患者9に(移動式超音波ユニット8に関連する)トランスデューサまたはプローブ7を使用して、関連する身体部分の画像をナビゲータ100に供給することができ、それに応じて、ナビゲータ100は、プローブ7をどの方向に向けるのかに関しての方向指示を供給することができる。非超音波検査者またはユーザ5が、適切な画像を受信するために、プローブ7を正しい方向に向けるために複数回試みて、プロセスが反復的に行われ得ることが理解されよう。本発明の好ましい実施形態によれば、ナビゲータ100が画像のみを受信する場合でも、「方向」指示は、位置(2次元または3次元空間内の位置)と回転情報(3D空間内の回転)の両方を含むことができる。
図3Aおよび図3Bを参照すると、ナビゲータ100が、特定の身体部分の良好な画像を捕捉するために、非超音波検査者5がプローブ7を方向付けるのをどのように支援するかが示されている。図3Aは、7Aとラベル付けされたプローブ7が間違った位置にあることを示し、すなわち、20Aとラベル付けされた結果の画像は、標準ではないことを示している。図3Aは、プローブ7Aの回転を変更するようにユーザ5に指示する矢印21のセットをさらに含む。矢印21Aは、「ピッチアップ」のような回転を示している。図3Bは、新たにピッチされたUS方向のプローブ7Bと、結果として得られる画像20Bを示しており、それはまだ標準画像を提供していないが、より良好である。矢印21Bは、新しい「ヨー」回転が有用である可能性があることを示している。
上述したように、ナビゲータ100は、方向付けニューラルネットワーク15を受信し、この方向付けニューラルネットワークは、関心のある特定の身体部分または臓器について熟練した超音波検査者によって撮影された専門家データでトレーニングされるようにしてもよい。受信したトレーニングデータは、特定の身体部分の標準画像、および関連する非標準画像を含むとともに、各々について、空間における超音波検査者のプローブの向き(すなわち、位置および回転)を含むことができる。この情報は、IMU(磁力計、ジャイロスコープ、加速度計などを含む慣性測定ユニット)が関連付けられたプローブを使用して生成され得ることを理解されたい。IMUは、画像がキャプチャされたときにプローブの向きを測定することができる。
図4を参照すると、標準画像をキャプチャするために訓練された超音波検査者によって使用されるトレーニングプローブ4cの向きと、ある臓器の非標準画像をキャプチャするときのその向きとの間の変換が示されている。i番目の非標準画像を見るときのトレーニングプローブ4iの向きは、空間における「基準フレーム」Fとして定義することができ、ここで、基準フレームFは、IMUが測定することができる、軸の周りの3つの回転および軸に沿った3つの平行移動を有する3軸システム(Q)に対応する6自由度(6DoF)を有することができる。
基準フレームFは、原点Oでの基準フレームを参照することができ、本発明では、原点が臓器であってもよく、空間におけるその基準フレームは、Fとして定義することができる。基準フレームFの各々について、原点Oからの変換Rがあってもよく、ここで、変換Rは、以下のように、Fとラベル付けされた、標準画像を見るための所望の向きへの変換であってもよい。
=F −1
=F −1 (1)
ここで、F −1は、Fの逆変換である。よって、標準ポーズからi番目の非標準ポーズへの変換Tは、R −1
=R −1=F −1(F −1)=F −1 (2)
図5には、トレーナ30を用いた方向付けニューラルネットワーク15のためのトレーニングプロセスが示されている。患者3にトレーニングプローブ4を使用する熟練した超音波検査者2は、特定の身体部分について標準画像および関連する非標準画像の両方を提供することができる。トレーニングプローブ4は、画像が捕捉されたときにプローブの向きFを測定することができるIMU6(磁力計、ジャイロスコープ、加速度計などを含むことができる慣性測定ユニット)に関連付けられ得ることが理解されよう。
トレーニングコンバータ22は、各画像についての方向データFを受信することができ、図4に関して上述したように、関連する標準位置から変換T=R −1を求めることができる。具体的には、トレーニングコンバータ22は、トレーニングプローブ4から画像Xを取得し、それらを必要に応じて処理することができる。データベース20は、非標準画像Xを、それらの方向データFおよびそれらの変換データTとともに格納することができる。また、データベース20は、標準画像Xと、それらの関連する方向データFとを格納することができる。身体部分について複数の標準画像が存在し得ることが理解されよう。例えば、心臓は、四腔の標準画像、二腔の標準画像などを有しており、よって、トレーニングコンバータ22は、関連する各標準画像に対する変換Tを生成することができる。関連する標準画像は、手動で提供されるようにしても、あるいは任意の適切なアルゴリズムによって自動的に求められるようしてもよいことが理解されよう。
トレーナ30への入力トレーニングデータは、画像Xとその関連するグラウンドトゥルース変換Tの組合せであってもよいことが理解されよう。各非標準画像について、トレーナ30は、各観察標準画像から各観察非標準画像に変換するために、プローブ4の位置変換を学習することができる。入力データは、多くの異なる患者3からのデータを含むことができ、その結果、トレーナ30は、非標準画像と標準画像との間の変換情報に影響を与える、患者3の性別、年齢、体重などおよび他の要因に起因する可能性のある画像Xの変化を学習することができことが理解されよう。
トレーナ30は、畳み込みニューラルネットワークトレーナのような任意の適切なニューラルネットワークトレーナであってもよく、それは、方向付けニューラルネットワーク15によって生成された計算された変換S(X)と、関連する標準画像からの画像Xに対するグラウンドトゥルース変換Tとの間の距離などの損失関数によって求められるエネルギー「損失」を最小化するようにネットワークを更新することによって、ネットワークをトレーニングできることがさらに理解されよう。変換S(X)は、トレーニングされていないニューラルネットワークとして始まり、トレーニングされたニューラルネットワークとして終わることが理解されよう。
距離関数は、任意の適切な距離関数であってよい。関連する標準画像が複数ある場合、方向付けニューラルネットワーク15は、各非標準画像に対するグラウンドトゥルース変換Tを用いてトレーニングされるものであってもよい。損失関数「Loss」は、次のように計算することができる。
Loss=loss(S(X),T) (3)
方向付けニューラルネットワーク15は、トレーニングされると、各入力画像Xに応答して、ユーザプローブ7のための変換Tを生成することができる。その後、この変換を、反転またはコンバートして、以下でより詳細に説明するように、非標準画像の方向から標準画像の方向へとユーザ5を導くことができる。
図6には、ナビゲータ100の構成要素が示されている。ナビゲータ100は、トレーニングされた方向付けニューラルネットワーク15と、結果コンバータ40と、診断器50とを含むことができる。
上述したように、ユーザ5は、所望の身体部分に関連してユーザプローブ7をランダムに配置することができる。トレーニングされた方向付けニューラルネットワーク15は、特定の身体部分の関連する標準画像から現在の非標準画像への変換Tを提供することができる。結果コンバータ40は、生成された変換を反転させて、非標準画像を観察する現在の位置および回転から、関連する標準画像を観察する位置および回転へのプローブ7のための方向指示を提供することができる。結果コンバータ40は、様々な方法で、それらの方向指示をユーザ5に提供および表示することができる。このプロセスは、ユーザ5がプローブ7を正しく(誤差の範囲内で)位置決めするまで反復され得ることが理解されよう。
結果コンバータ40は、選択された標準画像について、トレーニングされた方向付けニューラルネットワーク15によって生成された方向データS(X)を、ユーザ5に説明可能な方向にコンバートすることができる。任意の適切なディスプレイを利用することができる。例示的なディスプレイが、図3Aおよび図3Bを参照して本明細書に示されている。結果コンバータ40は、任意の適切なインターフェースを使用することができ、(例えば)色付きの回転マーキングを表示できることが理解されよう。さらに、結果コンバータ40は、身体部分の複数の標準画像が存在する場合に、どの標準画像が現在関心あるものであるのかをユーザ5が示すことを可能にする要素を含むことができる。
診断器50は、ユーザ5によって生成された最終的な標準画像を受信して、その中の異常を検出することができる。診断器50は、任意の適切な診断器であってもよい。例えば、診断器50は、2018年7月26日に公開された国際公開第2018/136805号の診断方法を実行することができる。この国際公開は、本発明の共通の譲受人に譲渡されており、引用により本明細書に援用されるものとする。
出願人は、単一の身体部分に対する複数の標準画像が存在するという事実と、1つの標準画像から別の標準画像への標準的な既知の運動が存在するという事実を、トレーニングされた方向付けニューラルネットワーク15の出力における誤差を減少させるために利用できることを認識している。
この改善された実施形態では、方向付けニューラルネットワーク15が、複数の標準画像に対してトレーニングされるものであってもよい。このため、各画像Xについて、複数の計算された変換が存在し得る。例えば、標準画像cとc’のペアの場合、同一の画像Xについて計算された変換S(X)とSc’(X)のペアが存在し、それらが、関連するグラウンドトゥルース変換Tc,iおよびTc’,iを有することができる。
さらに、次のように定義される既知の動き変換Tがある。
=Rc’ −1 (4)
ここで、Rは標準画像cであり、RC’は標準画像c’である。これらの既知の動きは、異なる対象間でほぼ一定であり、よって、ある標準画像cから別の標準画像c’への変換Tは、計算された変換S(X)およびSc’(X)を標準方向の一つに制約するために利用することができる。これを行うために、確率測度Pは、以下のように、方向付けニューラルネットワーク15をトレーニングするために使用される損失に加えるために、最尤損失項logP(S(X)Sc’(X−1)を定義するために使用することができる。
Loss=loss(S(X),Tc,i)+loss(Sc’(X),Tc’,i)−δlogP(S(X)Sc’(X−1) (5)
確率測度Pは、異なる対象間の標準ポーズcとc’の間のグラウンドトゥルース変換Tを測定することによって実験的に求めることができる。さらに、身体部分ごとに複数の確率測度が存在し、身体部分の標準画像のペアごとに1つずつ存在し、各確率測度Pが、損失関数の別個の追加項を定義することができる。
代替的な実施形態では、100’とラベル付けされたナビゲータが、図7に示すように、十分性チェッカ60およびボリューム再構成器70を含むことができる。
ボリューム再構成器70は、トレーニングされた方向付けニューラルネットワーク15の出力を利用することができ、プローブ7によって生成された画像Xから、関心のある身体部分の3Dまたは4D関数、および/または3Dボリュームまたは3D時空間ボリュームを生成することができる。この実施形態では、画像Xは、関心のある身体部分の断面と見なすことができる。
十分性チェッカ60は、3D/4Dボリューム再構成を実行するために、トレーニングされた方向付けニューラルネットワーク15を介して十分な断面が受信されたことをチェックし、それに応じて(結果コンバータ40を介して)ユーザ5を誘導することができる。例えば、十分性チェッカ60は、予め設定された最小数の画像が取得されたときを判定することができる。
十分性チェッカ60からの指示に基づいて、ボリューム再構成器70は、3D/4Dボリュームを生成し、その後、再構成器70は、生成されたボリュームから関連する標準ビューを引き出して、それらを診断器50に提供することができる。本実施形態における標準ビューは、生成されたボリュームから生成され、ボリュームを生成するために使用された画像の中にある場合とない場合があることが理解されよう。
ボリューム再構成器70は、逆ラドン変換または他の手段に基づくものなどの断層再構成を利用して、画像から3D/4D関数および/またはボリュームを再構成することができる。ボリューム断層再構成を成功させるためには、3D空間または4D時空間における断面の位置を知ることが極めて重要であることが理解されよう。出願人は、トレーニングされた方向付けニューラルネットワーク15が、撮影された各画像についてプローブ7に変換S(X)を提案することができ、また、固定された2D像面から、画像Xを生成したときにプローブ4が位置していた空間内の3D方向Qに画像Xのピクセルを回転させるために変換S(X)を使用できることを理解している。
ボリューム再構成器70は、各画像Xについてトレーニングされた方向付けニューラルネットワーク15から変換S(X)を受信し、この変換を適用して、画像を(プローブからの出力として)像面からプローブの変換によって規定される平面に移動させ、身体部分の回転断面CSを生成することができる。その後、ボリューム再構成器70は、断層再構成を使用して、画像の断面CS(X)から関心のある身体部分のボリュームを構築することができる。
変換S(X)を適用するために、先ず、画像Xは、2D像面内の2D位置(x,y)と強度Iを有するピクセルのセットを含むことが理解されよう。ボリューム再構成器70は、空間内の3Dピクセル位置(x,y,0)に変換S(X)を適用して、画像Xの3D方向Qの近似を生成し、その後、以下のように、演算子Hを適用して、方向付けられた画像Xをセンタリングまたはスケーリングすることができる。
Q=HS(X[x,y,0] (6)
ボリューム再構成器70は、生成された標準画像を診断器50に提供し、その後、診断器は、前述したように、その標準画像から診断をもたらすようにしてもよい。
図8A、図8Bおよび図8Cに図示されているさらに別の実施形態では、100’’とラベル付けされているナビゲータが、画像マッピングニューラルネットワーク90を含むことができる。マッピングニューラルネットワーク90は、各画像Xを2D平面92にマッピングすることができる(図8B)。図8Bは、3つの例示的な画像X、X、Xが平面92上の3つの異なる位置A、B、Dにマッピングされているところを示している。
42とラベル付けされた結果コンバータは、ユーザ5に2D平面92を表示することができ、彼の現在の位置を1つの色(例えば、グレイのドット(図8Cでは影付きのドットとして示されている)としてマーキングし、この身体部分の標準画像の位置を他の色のドット(図8Cでは番号付きの円1〜5として示されている)としてマーキングすることができる。また、図8Cには、取得した画像Xとそのマップ92が示されている。マップポイントM(X)は、マップ92上の非標準画像Xを表すことができ、他の番号が付けられた円は、所望のまたは要求された標準ビューcを表す標準マップポイントであってもよい。ユーザ5は、プローブ7の試行錯誤動作を使用して、マップポイントM(X)を所望の円に向かって近付けることができ、マッパー90は、プローブ7からの各新しい画像iについて2D平面92を再生成することができる。
出願人は、プローブ7の動きの小さな変化が2D平面92上に小さな動きを生成し、画像X間の距離がマップ上の位置間の距離と同様でなければならないことに気付いている。さらに、出願人は、ある標準画像から別の画像への最適なパスは、直線的で一定速度の軌跡であるべきであることを認識している。
この実施形態では、マッピングニューラルネットワーク90が、各画像Xおよびその関連する標準ビューの画像Xを含むことができる入力データを使用してトレーニングされ得ることが理解されよう。
マッピングニューラルネットワーク90は、トレーニング中にニューラルネットワーク90によって現在生成されている計算されたマップポイントM(X)と、各標準ビューCについての関連するマップポイントM(X)との間の距離を最小化する損失関数を組み込むことができる。
Loss=loss(M(X),M(Xcj)) (7)
異なる標準ビューへの最適なパスを組み込むために、画像Xがj番目の望ましい標準画像cへのパス上でどれだけ近いかを規定する確率ベクトルpijを追加することができる。その後、損失関数を次のように更新することができる。
Loss=loss(M(X),ΣpijM(Xcj)) (8)
距離を保存するために、損失関数を次のように更新することができる。
Figure 2021522956
平面92は、必要に応じて、2D平面または3Dボリュームの何れかであってもよいことが理解されよう。上述したマッピング操作は、同様に3Dボリュームへのマッピングのために機能する。
出願人は、適切な種類のトレーニングがあれば、ニューラルネットワークをトレーニングして、変換情報を生成するだけでなく、標準画像を生成することができることを認識している。これは、非超音波検査者からの入力がノイズが多いと予想される場合(彼らの手が十分に安定していないため)、および/または標準ビューで、身体部分が機能していることを確認したい場合に、特に有用である可能性がある。例えば、超音波検査者は、心機能分析のために、収縮期から拡張期、そして収縮期に戻るという完全な心周期に関する情報を定期的に提供する。
図9Aおよび図9Bに示すさらに別の実施形態では、ナビゲータ100が、周期的標準ビューニューラルネットワーク110を含み、これが、トレーニングされた方向付けニューラルネットワーク15の出力からトレーニングされたニューラルネットワークであってもよい。標準ビューサイクラー110は、繰り返し画像を集約して、ノイズを低減するとともに、(例えば)心周期などの臓器周期のノイズの少ない要約を提供することができる。
図9Aに示すように、周期的標準ビューニューラルネットワーク110をトレーニングするために必要な要素は、トレーニングされた方向付けニューラルネットワーク15と、ネットワーク110への入力を生成するためのセットクリエータ112と、周期的標準ビュートレーナ115とを含むことができる。
この実施形態では、熟練した超音波検査者2が、時間をかけて撮影された複数の超音波画像mと、1つの標準ビューポーズcで、時間をかけて撮影された複数の画像nとを提供することができる。セットクリエータ112は、トレーニングされた方向付けニューラルネットワーク15から画像Xを、その関連する変換情報S(X)とともに受信し、それらを標準ビューで撮影されたそれらの関連する画像Xc,nと組み合わせることができる。熟練した超音波検査者2は、そのような関連付けを提供することができる。
セットクリエータ112は、次に、トリプレット{[Y,Z],[W]}を生成することができ、ここで、[Y,Z]は、周期的標準ビュートレーナ115への入力であり、Wは、関連する出力である。各Yは、Y={X,X,.....X}であるg枚の画像のセットから構成することができ、Zは、Z={S(X),S(X).....S(X)}となるような画像Yの変換情報S(X)から構成することができる。典型的には、gは、10〜100枚の画像であってもよい。
各ペア[Y,Z]は、0〜nの時刻で標準ビューcで撮影された関連する標準画像XのセットWを有することができる。時刻nは心周期内の時間を示すことができる。上述したように、熟練した超音波検査者2は、心周期情報を示すことができ、セットWに含まれるであろう関連する標準画像Xを提供することができる。
このシナリオでは、周期的標準ビュートレーナ115が、入力として、一般フレームYと、方向付けニューラルネットワーク15によって生成されたそれらの近似変換Zと、それらの関連する心周期タイミングnとを受信し、所望のタイミングnで標準ビューの要約画像Wnのセットを生成するようにトレーニングされるようにしてもよい。最適化は次のようになる。
Loss=loss(CC,W) (10)
ここで、CCは、トレーニング中の周期的標準ビューニューラルネットワーク110の出力である。
周期的標準ビュートレーナ115は、完全畳み込みネットワーク、エンコーダ/デコーダタイプのネットワークまたは敵対的生成ネットワークなどの任意の適切なニューラルネットワークを使用して、ナビゲータ100のためにトレーニングされた周期的標準ビューニューラルネットワーク110を生成することができる。
図9Bに示すように、ナビゲータ100’’’は、トレーニングされた方向付けニューラルネットワーク15、操作のためのセットクリエータ112’、十分性チェッカ60’、結果コンバータ40’、トレーニングされた周期的標準ビューニューラルネットワーク110および診断器50を含むことができる。
操作中、非超音波検査者5は、所望の身体部分の周期(例えば、心周期)をカバーするのに少なくとも十分な長さの期間にわたって、関心のある身体部分の近くでプローブ7を操作することができる。プローブ7からの画像は、トレーニングされた方向付けニューラルネットワーク15に提供されて、それらに関連する変換S(X)が生成されるとともに、セットクリエータ112’に提供されて、適切なセットYおよびZが生成される。十分性チェッカ60’は、セットYおよびZが十分に大きいことを確認することができ、結果コンバータ40’に、プローブ7を所望の方向に向けるか、または現在の向きで観察し続けるように、ユーザ5に対して指示させるようにしてもよい。この実施形態では、非超音波検査者5は、正確に標準ビューでプローブ7を保持する必要がなく、よって、結果コンバータ40’が提供する指示は、より粗くなってもよいことが理解されよう。周期的標準ビューニューラルネットワーク110は、セットクリエータ112’の出力から、要約周期的標準ビューCCを生成することができる。
本実施形態は、非周期的な身体部分にも有用であり、特にユーザ5がプローブ7を不安定に保持する可能性がある場合に有用であることが理解されよう。この実施形態では、各セットが、その中に1または2の画像のみを有するようにしてもよい。
出願人はさらに、トレーニングされた方向付けニューラルネットワーク15によって生成される変換情報なしでも、ニューラルネットワークをトレーニングできることにも気付いている。これは、図9Aおよび図9Bと同様のシステムを示す図10Aおよび図10Bに示されているが、トレーニングされた方向付けニューラルネットワーク15を含まない。その結果、トレーニング(図10A)のために、セットクリエータ113は、画像XからYを作成し、時刻nで標準画像XからWを作成することができる。周期的標準ビュートレーナ115は、式(10)を使用して周期的標準ビューニューラルネットワーク110を生成することができる。
実行時(図10B)に、セットクリエータ113’は、画像XからYを作成し、周期的標準ビューニューラルネットワーク110は、要約ビューCCを生成することができる。
本発明は、トレーニングなしで、超音波プローブ以外の追加のハードウェアを使用せずに、非超音波検査者が移動式超音波装置を操作するためのナビゲータを提供できることが理解されよう。このため、本発明のナビゲータは、その唯一の入力として超音波画像を受信する。これにより、救急車、戦場、緊急治療施設、介護施設などの多くの非従来型のシナリオで、非超音波検査者が超音波スキャンを実行することを可能になることがさらに理解されよう。
さらに、本発明は、病院または診療所の環境で使用される従来の装置の一部など、より多くの従来のシナリオで実施することもでき、それは、カート上でも実施することができる。
特に明記しない限り、上述した議論から明らかなように、本明細書全体を通して、「処理」、「コンピューティング」、「計算」、「決定」などの用語を使用する議論は、任意のタイプの汎用コンピュータの動作および/またはプロセスを指し、そのようなコンピュータには、クライアント/サーバシステム、モバイルコンピューティングデバイス、スマートアプライアンスまたは類似の電子コンピューティングデバイスであって、コンピューティングシステムのレジスタおよび/またはメモリ内の物理的な量、例えば電子的な量として表されるデータを、コンピューティングシステムのメモリ、レジスタまたは他の情報ストレージ、送信または表示デバイス内の物理的な量として表される他のデータに操作および/または変換するコンピューティングシステムが含まれることを理解されたい。
本発明の実施形態は、本明細書に記載の操作を実行するための装置を含むことができる。この装置は、所望の目的のために特別に構成されていてもよく、またはコンピュータに記憶されたコンピュータプログラムによって選択的に起動または再構成される、汎用コンピュータまたはクライアント/サーバ構成を含むことができる。ソフトウェアによって実行されたときに得られる装置は、汎用コンピュータを本明細書で記載されるような本発明の要素に変えることができる。実行可能な命令は、所望のコンピュータプラットフォームで動作する本発明のデバイスを規定することができる。そのようなコンピュータプログラムは、コンピュータアクセス可能な記憶媒体に格納することができ、そのような記憶媒体は、非一時的な媒体であってもよく、例えば、光学ディスク、磁気光学ディスク、リードオンリーメモリ(ROM)、揮発性メモリおよび不揮発性メモリ、ランダムアクセスメモリ(RAM)、電気的にプログラム可能なリードオンリーメモリ(EPROM)、電気的に消去可能でプログラム可能なリードオンリーメモリ(EEPROM)、磁気カードまたは光学カード、フラッシュメモリ、ディスクオンキー、または電子命令を格納するのに適しており、かつコンピュータシステムバスに結合し得る他の任意のタイプの媒体を含むが、これらに限定されるものではない。
本明細書に提示されたプロセスおよび表示は、本質的に、任意の特定のコンピュータまたは他の装置に関連するものではない。様々な汎用システムが、本明細書の教示に従ってプログラムとともに使用されるものであってもよく、あるいは所望の方法を実行するために、より特別な装置を構築することが便利であると証明する場合もある。これらの様々なシステムの所望の構造は、以下の記述から明らかになるであろう。さらに、本発明の実施形態は、特定のプログラミング言語を参照して説明されていない。本明細書に記載されているような本発明の教示を実行するために、様々なプログラミング言語を使用できることが理解されよう。
本発明の特定の特徴を本明細書に例示および記載してきたが、多くの修正、置換、変更および均等物が、当技術分野の当業者には思い浮かぶであろう。したがって、添付の特許請求の範囲は、本発明の真の趣旨の範囲内にあるすべてのそのような修正および変更を包含することを意図していることを理解されたい。

Claims (40)

  1. 超音波プローブを有する移動式超音波ユニットのためのダウンロード可能なナビゲータであって、ポータブルコンピューティングデバイス上に実装されるナビゲータにおいて、
    前記移動式超音波ユニットから身体部分の非標準画像を受信して、前記非標準画像に関連付けられた変換を生成するトレーニングされた方向付けニューラルネットワークであって、前記変換が、標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転に変換する、トレーニングされた方向付けニューラルネットワークと、
    前記変換を前記プローブのユーザのための方向指示に変え、前記プローブの位置および回転を変更するために、前記ユーザに前記方向指示を提供および表示する結果コンバータとを備えることを特徴とするナビゲータ。
  2. 請求項1に記載のナビゲータにおいて、
    前記標準画像と、前記標準画像の周囲で撮影された非標準画像と、前記標準画像から前記非標準画像に関連付けられた空間内の位置および回転への変換とを用いて、前記方向付けニューラルネットワークをトレーニングするためのトレーナを含むことを特徴とするナビゲータ。
  3. 請求項2に記載のナビゲータにおいて、
    前記トレーナが、トレーニングプローブに取り付けられたIMU(慣性測定ユニット)からトレーニングセッション中にIMUデータを受信するトレーニングコンバータを含み、前記IMUデータが、前記非標準画像および前記標準画像に関連付けられた位置および回転を提供し、それらの位置および回転を、前記標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転への変換に変えることを特徴とするナビゲータ。
  4. 請求項2に記載のナビゲータにおいて、
    前記トレーナが、トレーニングされていない方向付けニューラルネットワークと、前記トレーニングされていない方向付けニューラルネットワークをトレーニングするための損失関数とを含み、前記損失関数が、前記トレーニングされていない方向付けニューラルネットワークによって生成された計算された変換と、各非標準画像のグラウンドトルース変換との間の距離を減少させることを特徴とするナビゲータ。
  5. 請求項4に記載のナビゲータにおいて、
    前記損失関数が、前記計算された変換を複数の異なる標準方向のうちの1つに制約する確率をさらに含むことを特徴とするナビゲータ。
  6. 請求項1に記載のナビゲータにおいて、
    前記標準画像が、複数の標準画像のうちの1つであることを特徴とするナビゲータ。
  7. 請求項1に記載のナビゲータにおいて、
    前記標準画像を観察するときに、前記プローブによって生成された最終画像から診断を行う診断器も含むことを特徴とするナビゲータ。
  8. 請求項1に記載のナビゲータにおいて、
    前記ポータブルコンピューティングデバイスが、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータおよびスマートアプライアンスのうちの1つであることを特徴とするナビゲータ。
  9. 請求項1に記載のナビゲータにおいて、
    前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから複数の変換を受信し、画像のセットおよびそれらに関連する変換を生成するセットクリエータと、
    十分なセットが生成されたときを判定する十分性チェッカと、
    身体部分の周期中に身体部分の変化を示す要約周期的標準画像のセットを生成するためのトレーニングされた周期的標準ビューニューラルネットワークとをさらに含むことを特徴とするナビゲータ。
  10. 請求項9に記載のナビゲータにおいて、
    身体の周期の各時点で、前記画像のセットと、それらに関連する変換と、それらに関連する要約周期的標準画像とを用いて、トレーニングされていない周期的標準ビューニューラルネットワークをトレーニングするための周期的標準ビュートレーナをさらに含むことを特徴とするナビゲータ。
  11. 請求項9に記載のナビゲータにおいて、
    前記身体部分の周期が、心周期であることを特徴とするナビゲータ。
  12. 請求項9に記載のナビゲータにおいて、
    各セットが単一の要素を含むことを特徴とするナビゲータ。
  13. 超音波プローブを有するポータブルコンピューティングデバイスに実装される移動式超音波ユニットのためのナビゲータであって、
    身体部分の周囲でキャプチャされた複数の超音波画像の方向情報を提供するためのトレーニングされた方向付けニューラルネットワークであって、前記方向情報が、前記身体部分の標準ビューに対して前記画像を方向付けるためのものである、方向付けニューラルネットワークと、
    前記方向情報に従って前記画像を方向付けし、断層再構成を使用して方向付けされた画像から前記身体部分のボリューム表示を生成し、前記ボリューム表示から標準ビューの標準画像を生成するためのボリューム再構成器とを備えることを特徴とするナビゲータ。
  14. 請求項13に記載のナビゲータにおいて、
    前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから方向を受信して、十分な画像が受信されたときを判定するための十分性チェッカと、
    前記十分性チェッカに応答して前記トレーニングされた方向付けニューラルネットワークのために更なる画像を要求するための結果コンバータとをさらに備えることを特徴とするナビゲータ。
  15. 請求項13に記載のナビゲータにおいて、
    前記身体部分の前記ボリューム表示から診断を行う診断器をさらに含むことを特徴とするナビゲータ。
  16. モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのためのナビゲータであって、
    前記プローブから身体部分の非標準画像を受信し、前記非標準画像を表示可能なマップ上の非標準マップポイントにマッピングし、前記非標準画像に関連付けられた複数の標準画像を前記表示可能なマップ上の標準マップポイントにマッピングするためのトレーニングされたマッピングニューラルネットワークと、
    前記標準マップポイントおよび非標準マップポイントでマークされたマップを表示するための結果コンバータとを備えることを特徴とするナビゲータ。
  17. 請求項16に記載のナビゲータにおいて、
    前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離がマップ上の位置間の距離に類似し、かつ、ある標準画像から別の標準画像への最適なパスが直線的な等速軌道であるようにすることを特徴とするナビゲータ。
  18. 請求項16に記載のナビゲータにおいて、
    ユーザが前記プローブを前記標準マップポイントのうちの1つに移動させたときに、前記プローブによって生成された最終画像から診断を行う診断器をさらに含むことを特徴とするナビゲータ。
  19. 超音波プローブを有する移動式超音波ユニットのためのダウンロード可能なナビゲータであって、モバイルデバイス上に実装されるナビゲータにおいて、
    時間の経過とともに前記プローブから画像を受信し、画像のセットを生成するセットクリエータと、
    十分なセットが生成されたときを判定する十分性チェッカと、
    身体部分の周期中に前記身体部分の変化を示す要約周期的標準画像のセットを生成する周期的標準ビューニューラルネットワークとを備えることを特徴とするナビゲータ。
  20. 請求項19に記載のナビゲータにおいて、
    前記周期的標準ビューニューラルネットワークによって生成された最終画像から診断を行う診断器をさらに含むことを特徴とするナビゲータ。
  21. 超音波プローブを有する移動式超音波ユニットのための方法であって、ポータブルコンピューティングデバイスに実装される方法において、
    トレーニングされた方向付けニューラルネットワークを使用して、前記移動式超音波ユニットから身体部分の非標準画像を受信して、前記非標準画像に関連付けられた変換を生成するステップであって、前記変換が、標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転に変換する、ステップと、
    前記変換を前記プローブのユーザのための方向指示に変え、前記プローブの位置および回転を変更するために、前記ユーザに前記方向指示を提供および表示するステップとを備えることを特徴とする方法。
  22. 請求項21に記載の方法において、
    前記標準画像と、前記標準画像の周囲でキャプチャされた非標準画像と、前記標準画像から前記非標準画像に関連付けられた空間内の位置および回転への変換とを用いて、前記方向付けニューラルネットワークをトレーニングするステップを含むことを特徴とする方法。
  23. 請求項22に記載の方法において、
    トレーニングすることが、トレーニングプローブに取り付けられたIMU(慣性測定ユニット)からトレーニングセッション中にIMUデータを受信することを含み、前記IMUデータが、前記非標準画像および前記標準画像に関連付けられた位置および回転を提供し、それらの位置および回転を、前記標準画像に関連付けられた位置および回転から前記非標準画像に関連付けられた位置および回転への変換に変えることを特徴とする方法。
  24. 請求項22に記載の方法において、
    前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離がマップ上の位置間の距離に類似し、かつ、ある標準画像から別の標準画像への最適なパスが直線的な等速軌道であるようにすることを特徴とする方法。
  25. 請求項24に記載の方法において、
    前記損失関数が、前記計算された変換を複数の異なる標準方向のうちの1つに制約する確率をさらに含むことを特徴とする方法。
  26. 請求項21に記載の方法において、
    前記標準画像が、複数の標準画像のうちの1つであることを特徴とする方法。
  27. 請求項21に記載の方法において、
    前記標準画像を観察するときに、前記プローブによって生成された最終画像から診断を行うステップをさらに含むことを特徴とする方法。
  28. 請求項21に記載の方法において、
    前記ポータブルコンピューティングデバイスが、スマートフォン、タブレット、ラップトップ、パーソナルコンピュータおよびスマートアプライアンスのうちの1つであることを特徴とする方法。
  29. 請求項21に記載の方法において、
    前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから複数の変換を受信し、画像のセットおよびそれらに関連する変換を生成するステップと、
    十分なセットが生成されたときを判定するステップと、
    トレーニングされた周期的標準ビューニューラルネットワークを使用して、身体部分の周期中に身体部分の変化を示す要約周期的標準画像のセットを生成するステップとをさらに含むことを特徴とする方法。
  30. 請求項29に記載の方法において、
    身体の周期の各時点で、前記画像のセットと、それらに関連する変換と、それらに関連する要約周期的標準画像とを用いて、トレーニングされていない周期的標準ビューニューラルネットワークをトレーニングするステップをさらに含むことを特徴とする方法。
  31. 請求項29に記載の方法において、
    前記身体部分の周期が、心周期であることを特徴とする方法。
  32. 請求項29に記載の方法において、
    各セットが単一の要素を含むことを特徴とする方法。
  33. 超音波プローブを有するポータブルコンピューティングデバイス上に実装される移動式超音波ユニットのための方法であって、
    トレーニングされた方向付けニューラルネットワークを使用して、身体部分の周囲でキャプチャされた複数の超音波画像の方向情報を提供するステップであって、前記方向情報が、前記身体部分の標準ビューに対して前記画像を方向付けるためのものである、ステップと、
    前記方向情報に従って前記画像を方向付けし、断層再構成を使用して方向付けされた画像から前記身体部分のボリューム表示を生成し、前記ボリューム表示から標準ビューの標準画像を生成するステップとを含むことを特徴とする方法。
  34. 請求項33に記載の方法において、
    前記プローブからの画像に応答して前記トレーニングされた方向付けニューラルネットワークから方向を受信して、十分な画像が受信されたときを判定するステップと、
    受信した方向に応答して前記トレーニングされた方向付けニューラルネットワークのために更なる画像を要求するステップとをさらに含むことを特徴とする方法。
  35. 請求項33に記載の方法において、
    前記身体部分の前記ボリューム表示から診断を行うステップをさらに含むことを特徴とする方法。
  36. モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのための方法であって、
    トレーニングされたマッピングニューラルネットワークを使用して、前記プローブから身体部分の非標準画像を受信し、前記非標準画像を表示可能なマップ上の非標準マップポイントにマッピングし、前記非標準画像に関連付けられた複数の標準画像を前記表示可能なマップ上の標準マップポイントにマッピングするステップと、
    前記標準マップポイントおよび非標準マップポイントでマークされたマップを表示するステップとを備えることを特徴とする方法。
  37. 請求項36に記載の方法において、
    前記トレーニングされたマッピングニューラルネットワークが、損失関数を含み、この損失関数は、前記プローブの動きの変化が前記表示可能なマップ上に小さな動きを生成し、前記画像間の距離が直線的な等速軌道に類似するようにすることを特徴とする方法。
  38. 請求項36に記載の方法において、
    ユーザが前記プローブを前記標準マップポイントのうちの1つに移動させたときに、前記プローブによって生成された最終画像から診断を行うステップをさらに含むことを特徴とする方法。
  39. モバイルデバイス上に実装される、超音波プローブを有する移動式超音波ユニットのための方法であって、
    時間の経過とともに前記プローブから画像を受信し、画像のセットを生成するステップと、
    十分なセットが生成されたときを判定するステップと、
    周期的標準ビューニューラルネットワークにより、身体部分の周期中に前記身体部分の変化を示す要約周期的標準画像のセットを生成するステップとを備えることを特徴とする方法。
  40. 請求項39に記載の方法において、
    前記周期的標準ビューニューラルネットワークによって生成された最終画像から診断を行うステップをさらに含むことを特徴とする方法。
JP2020564470A 2018-05-15 2019-05-15 超音速画像のキャプチャを方向付けるシステムおよび方法 Active JP7445243B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024019943A JP2024069213A (ja) 2018-05-15 2024-02-14 超音速画像のキャプチャを方向付けるシステムおよび方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862671692P 2018-05-15 2018-05-15
US62/671,692 2018-05-15
PCT/US2019/032368 WO2019222317A1 (en) 2018-05-15 2019-05-15 System and method for orientating capture of ultrasound images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024019943A Division JP2024069213A (ja) 2018-05-15 2024-02-14 超音速画像のキャプチャを方向付けるシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2021522956A true JP2021522956A (ja) 2021-09-02
JP7445243B2 JP7445243B2 (ja) 2024-03-07

Family

ID=68533844

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020564470A Active JP7445243B2 (ja) 2018-05-15 2019-05-15 超音速画像のキャプチャを方向付けるシステムおよび方法
JP2024019943A Pending JP2024069213A (ja) 2018-05-15 2024-02-14 超音速画像のキャプチャを方向付けるシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024019943A Pending JP2024069213A (ja) 2018-05-15 2024-02-14 超音速画像のキャプチャを方向付けるシステムおよび方法

Country Status (13)

Country Link
US (2) US11593638B2 (ja)
EP (2) EP4218596A1 (ja)
JP (2) JP7445243B2 (ja)
KR (1) KR20210011005A (ja)
CN (1) CN112399828A (ja)
AU (1) AU2019268319A1 (ja)
CA (1) CA3099568A1 (ja)
DK (1) DK3793447T3 (ja)
ES (1) ES2938515T3 (ja)
FI (1) FI3793447T3 (ja)
IL (2) IL278468B2 (ja)
PL (1) PL3793447T3 (ja)
WO (1) WO2019222317A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116386B (zh) * 2019-12-31 2023-08-04 无锡祥生医疗科技股份有限公司 超声成像引导方法、超声设备及存储介质
KR20210099967A (ko) * 2020-02-05 2021-08-13 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작 방법
CN113496442A (zh) * 2020-03-19 2021-10-12 荷盛崧钜智财顾问股份有限公司 图表征产生系统,图表征产生方法与其图表征智能模块
CN111643116B (zh) * 2020-07-03 2023-03-31 吉林大学 一种仿生智能超声检查体位变换装置
CN113274051B (zh) * 2021-04-30 2023-02-21 中国医学科学院北京协和医院 超声辅助扫查方法、装置、电子设备和存储介质
US20230200778A1 (en) * 2021-12-27 2023-06-29 GE Precision Healthcare LLC Medical imaging method
CN116152610B (zh) * 2023-04-04 2023-06-23 北京智源人工智能研究院 智能心脏超声探头位姿预估模型训练方法及位姿预估方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262982A1 (en) * 2016-03-09 2017-09-14 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9025431D0 (en) 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
US7092749B2 (en) 2003-06-11 2006-08-15 Siemens Medical Solutions Usa, Inc. System and method for adapting the behavior of a diagnostic medical ultrasound system based on anatomic features present in ultrasound images
JP4263579B2 (ja) 2003-10-22 2009-05-13 アロカ株式会社 超音波診断装置
US7648460B2 (en) 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
US7912258B2 (en) * 2005-09-27 2011-03-22 Vanderbilt University Method and apparatus for standardizing ultrasonography training using image to physical space registration of tomographic volumes from tracked ultrasound
DE102006008501B3 (de) 2006-02-23 2007-10-25 Albert-Ludwigs-Universität Freiburg Sonde und Verfahren zur Datenübertragung zwischen einem Gehirn und einer Datenverarbeitungsvorrichtung
WO2008001297A2 (en) 2006-06-28 2008-01-03 Koninklijke Philips Electronics N.V. Variable resolution model based image segmentation
US7565262B2 (en) 2006-10-05 2009-07-21 Siemens Corporate Research, Inc. Bayesian sensor estimation for machine condition monitoring
US20120065510A1 (en) 2010-09-09 2012-03-15 General Electric Company Ultrasound system and method for calculating quality-of-fit
US9554812B2 (en) 2011-02-18 2017-01-31 DePuy Synthes Products, Inc. Tool with integrated navigation and guidance system and related apparatus and methods
KR101286222B1 (ko) * 2011-09-19 2013-07-15 삼성메디슨 주식회사 영상을 처리하는 방법, 장치, 초음파 진단장치 및 의료영상시스템
WO2013059358A2 (en) * 2011-10-17 2013-04-25 Butterfly Network, Inc. Transmissive imaging and related apparatus and methods
US11109835B2 (en) * 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
GB2507987A (en) 2012-11-15 2014-05-21 Imp Innovations Ltd Method of automatically processing an ultrasound image
RU2674228C2 (ru) 2012-12-21 2018-12-05 Конинклейке Филипс Н.В. Анатомически интеллектуальная эхокардиография для места оказания медицинского обслуживания
US10709425B2 (en) * 2013-04-03 2020-07-14 Koninklijke Philips N.V. 3D ultrasound imaging system
JP6527860B2 (ja) 2013-06-28 2019-06-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ターゲットビューに対する超音波収集フィードバックガイダンス
JP6097452B2 (ja) * 2014-01-27 2017-03-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波撮像システム及び超音波撮像方法
WO2015150932A1 (en) 2014-03-31 2015-10-08 Koninklijke Philips N.V. Haptic feedback for ultrasound image acquisition
JP5939601B1 (ja) 2015-03-12 2016-06-22 学校法人早稲田大学 超音波プローブの位置姿勢提示システム、画像生成装置及びそのプログラム
US10183130B2 (en) 2015-04-29 2019-01-22 Carefusion 303, Inc. Measuring valve health by pressure monitoring
US10893851B2 (en) * 2015-05-07 2021-01-19 Koninklijke Philips N.V. System and method for motion compensation in medical procedures
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
JP2017167582A (ja) 2016-03-14 2017-09-21 富士通株式会社 演算処理装置、情報処理装置、及び演算処理装置の制御方法
WO2017182417A1 (en) 2016-04-19 2017-10-26 Koninklijke Philips N.V. Ultrasound imaging probe positioning
CN108882917A (zh) * 2016-05-30 2018-11-23 深圳迈瑞生物医疗电子股份有限公司 一种心脏容积识别分析系统和方法
FR3059541B1 (fr) 2016-12-07 2021-05-07 Bay Labs Inc Navigation guidee d'une sonde ultrason
IL268141B2 (en) 2017-01-19 2023-09-01 Univ New York Method, system and computer accessible medium for ultrasound analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262982A1 (en) * 2016-03-09 2017-09-14 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network

Also Published As

Publication number Publication date
EP3793447B1 (en) 2023-01-18
IL278468B1 (en) 2023-09-01
FI3793447T3 (fi) 2023-03-18
CN112399828A (zh) 2021-02-23
IL278468B2 (en) 2024-01-01
KR20210011005A (ko) 2021-01-29
JP2024069213A (ja) 2024-05-21
ES2938515T3 (es) 2023-04-12
EP4218596A1 (en) 2023-08-02
EP4218596A8 (en) 2023-09-27
PL3793447T3 (pl) 2023-06-26
IL305425A (en) 2023-10-01
DK3793447T3 (da) 2023-02-27
JP7445243B2 (ja) 2024-03-07
US11593638B2 (en) 2023-02-28
IL278468A (ja) 2020-12-31
CA3099568A1 (en) 2019-11-21
EP3793447A4 (en) 2021-11-10
EP3793447A1 (en) 2021-03-24
AU2019268319A1 (en) 2020-12-24
US20230206065A1 (en) 2023-06-29
US20190354856A1 (en) 2019-11-21
WO2019222317A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
JP7445243B2 (ja) 超音速画像のキャプチャを方向付けるシステムおよび方法
US11847781B2 (en) Systems and methods for medical acquisition processing and machine learning for anatomical assessment
US9554772B2 (en) Non-invasive imager for medical applications
US10685451B2 (en) Method and apparatus for image registration
US9355448B2 (en) Method and apparatus for image registration
US20230301624A1 (en) Image-Based Probe Positioning
US20140153358A1 (en) Medical imaging system and method for providing imaging assitance
US20200069291A1 (en) Methods and apparatuses for collection of ultrasound data
US20160081658A1 (en) Method and system for registering a medical image with a graphical model
CN117279573A (zh) 机器人化成像系统
CN112447276A (zh) 用于提示数据捐赠以用于人工智能工具开发的方法和系统
US20190388057A1 (en) System and method to guide the positioning of a physiological sensor
CN115965837A (zh) 图像重建模型训练方法、图像重建方法及相关设备
JP2022516474A (ja) 外科手術中の遠隔カメラの向きに関するユーザインターフェース要素
US20220207743A1 (en) System and method for two dimensional acoustic image compounding via deep learning
Pasdeloup Deep Learning in the Echocardiography Workflow: Challenges and Opportunities
WO2021018749A1 (en) System and method for real-time fusion of acoustic image with reference image
RU2020139165A (ru) Система и способ для ориентирования захвата ультразвуковых изображений

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7445243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150