JP2020503142A - イメージングデータ及び組織情報を導出するためのニューラルネットワークを用いた超音波イメージングシステム - Google Patents

イメージングデータ及び組織情報を導出するためのニューラルネットワークを用いた超音波イメージングシステム Download PDF

Info

Publication number
JP2020503142A
JP2020503142A JP2019536272A JP2019536272A JP2020503142A JP 2020503142 A JP2020503142 A JP 2020503142A JP 2019536272 A JP2019536272 A JP 2019536272A JP 2019536272 A JP2019536272 A JP 2019536272A JP 2020503142 A JP2020503142 A JP 2020503142A
Authority
JP
Japan
Prior art keywords
data
ultrasound
neural network
signal
ultrasound imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019536272A
Other languages
English (en)
Other versions
JP2020503142A5 (ja
JP7132925B2 (ja
Inventor
シンプソン デービッド ホープ
シンプソン デービッド ホープ
アール エム. カンフィールド
アール エム. カンフィールド
ロバート グスタフ トラムズ
ロバート グスタフ トラムズ
ビジャイ タークル シャムダサーニ
ビジャイ タークル シャムダサーニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020503142A publication Critical patent/JP2020503142A/ja
Publication of JP2020503142A5 publication Critical patent/JP2020503142A5/ja
Application granted granted Critical
Publication of JP7132925B2 publication Critical patent/JP7132925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • G01S7/52042Details of receivers using analysis of echo signal for target characterisation determining elastic properties of the propagation medium or of the reflective target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/5208Constructional features with integration of processing functions inside probe or scanhead
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Vascular Medicine (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

いくつかの実施形態による超音波システムが、組織に向けて超音波パルスを送信し、超音波パルスに応答したエコー信号を生成するように構成された、超音波トランスデューサと、エコー信号を記憶するように構成された、チャネルメモリと、エコー信号に応答して、ビームフォーミングされた信号を生成するように構成された、ビームフォーマと、エコー信号又はビームフォーミングされた信号の1つ又は複数のサンプルを受信し、第1のタイプの超音波イメージングデータを生成するように構成された、ニューラルネットワークと、第2のタイプの超音波イメージングデータを生成するように構成されたプロセッサであって、1つ又は複数のプロセッサが、さらに、第1のタイプの超音波イメージングデータと、第2のタイプの超音波イメージングデータとに基づいて超音波画像を生成し、それと通信可能に結合されたディスプレイに超音波画像を表示させるように構成された、プロセッサとを備える。

Description

[001] 本開示は、生の超音波エコーからイメージングデータ、組織情報及び診断情報を導出するためのニューラルネットワークを利用する超音波システム及び方法に関する。
[002] 超音波は、診断、術前ケア及びプランニング、並びに術後患者モニタリングのための器官及び組織のリアルタイム非侵襲性イメージングを提供することができるので、超音波は、医療イメージングにおいて広く使用されているイメージングモダリティである。従来の超音波イメージングシステムでは、トランスデューサプローブが、画像化されるべき組織に向けて超音波を送信し、超音波に応答したエコーを検出する。(無線周波数又はRF信号とも呼ばれる)収集されたエコー信号が、たとえば、生チャネルデータ(たとえば、複数のトランスデューサ要素からのRF信号)、又はトランスデューサ要素のパッチの部分的にビームフォーミングされた信号を組み合わせて、完全にビームフォーミングされた信号にするビームフォーマと、ビームフォーミングされた信号から直交信号を抽出する復調器と、1つ又は複数のフィルタとを備える、一連の信号処理構成要素を通過して、画像データ(たとえば、2D又は3D超音波画像を生成するために使用されるピクセル情報)が生成される。解剖学的構造の超音波画像を提供することに加えて、既存の超音波システムは、エコー信号から追加情報を抽出するために、様々な他のタイプの処理を実施するように構成される。たとえば、多くの超音波システムは、一般に、解剖学的画像形成のための処理と並行して、フロー情報を提供するためのドップラーデータの抽出のために、ビームフォーミングされた信号を処理するように構成される。そうするために、従来のシステムは、エコー信号の複数の時間的に離間したサンプルからドップラー周波数を導出するための、特別に構成された信号プロセッサを利用する。他のシステムは、エラストグラフィ、ベクトルフローイメージング、及び様々な臨床適用例のために望ましい他のタイプのイメージングを実施するように構成される。これらの目的のために、従来のシステムは、信号及び画像処理ステップの特定のシーケンスを実施するように設計された、特殊化されたハードウェア構成要素(たとえば、事前プログラムされたプロセッサ)を備える。
[003] したがって、従来の超音波システムは、医療イメージングにおける著しい進歩を提供するが、依然として、さらなる改善から恩恵を受ける。たとえば、従来の信号処理構成要素は、モデルベースアルゴリズムに依拠し、それを実施し、そのうちのいくつかは不完全であり、したがって、近似を提供するにすぎない。事前プログラムされたアルゴリズムの制限、並びにハードウェアの制限が、従来のシステムの出力において画像アーチファクト又は他の欠点をもたらす。システムへの、特定のモデル又は信号処理経路の、ハード配線又は事前プログラミングにより、それは、ユーザのニーズに対する将来の改善及び適応に関してあまりフレキシブルでなくなる。したがって、この領域における改善は望ましい。また、現在の超音波システムは、概して、ユーザが、所望の関心解剖学的構造又は病状を正確に記録するために、超音波システムディスプレイを慎重に観察し、トランスデューサの動きを調整し、ユーザ制御を操作することを必要とする。所望の画像をキャプチャした後に、ユーザは、一般に、画像を検討し、特定の解剖学的構造又は病状に手動でアノテーションを付ける。したがって、画像及び/又は診断情報の品質を犠牲にすることなしに、超音波イメージングシステムの動作を簡略化するための技法も望ましい。
[004] 本開示は、生超音波エコー信号から、或いは完全に又は部分的にビームフォーミングされたRF信号から、イメージングデータ、並びに/或いは、組織タイプ特徴づけ情報、定性又は定量診断情報、及び他のタイプの臨床的に関連する情報など、様々な他の組織情報を導出するためのニューラルネットワーク(たとえば、人工ニューロン又はノードの、機械トレーニングアルゴリズム又はハードウェアで実施されたネットワーク)を利用する、超音波システム及び方法に関する。いくつかの実施形態では、ニューラルネットワークは、局所データセットとも考えられる多次元(2次元以上)データセットを使用してパターンを分析することが可能な深層ニューラルネットワークであり、データセット内のデータのロケーションとデータ値とは、両方とも、分析された結果に寄与する。
[005] いくつかの実施形態による超音波システムが、組織に向けて超音波パルスを送信し、超音波パルスに応答したエコー信号を生成するように構成された、超音波トランスデューサと、エコー信号を記憶するように構成された、チャネルメモリと、エコー信号に応答して、ビームフォーミングされた信号を生成するように構成された、ビームフォーマと、エコー信号又はビームフォーミングされた信号の1つ又は複数のサンプルを受信し、第1のタイプの超音波イメージングデータを生成するように構成された、ニューラルネットワークと、第2のタイプの超音波イメージングデータを生成するように構成されたプロセッサであって、1つ又は複数のプロセッサが、さらに、第1のタイプの超音波イメージングデータと、第2のタイプの超音波イメージングデータとに基づいて超音波画像を生成し、それと通信可能に結合されたディスプレイに超音波画像を表示させるように構成された、プロセッサとを備える。
[006] いくつかの実施形態では、超音波イメージングシステムが、第2のタイプのイメージングデータとして、Bモードイメージングデータを生成し、第1のタイプのイメージングデータとして、ドップラーイメージングデータ、ベクトルフローイメージングデータ、エラストグラフィイメージングデータ、組織タイプ特徴づけデータ、流体を中に含んでいる解剖学的構造の壁せん断応力(wall shear stress)、組織組成データ、超音波造影剤情報、プラーク特徴づけデータ、Bモードイメージングデータに関連付けられた1つ又は複数の診断インジケータ、又はそれらの任意の組合せを生成するように構成される。
[007] いくつかの実施形態では、ニューラルネットワークは、深層ニューラルネットワーク(DNN)又は畳み込みニューラルネットワーク(CNN)を含む。いくつかの実施形態では、ニューラルネットワークは、ハードウェア、ソフトウェア、又はそれらの組合せで実施される。たとえば、ニューラルネットワークは、少なくとも部分的に、実行可能な命令を備えるコンピュータ可読媒体において実施され、実行可能な命令は、チャネルメモリ、ビームフォーマ、又はその両方に結合されたニューラルネットワークプロセッサによって実行されたとき、ニューラルネットワークプロセッサに、エコー信号又はビームフォーミングされた信号の1つ又は複数のサンプルに応答して第1のタイプの超音波イメージングデータを生成するための機械トレーニングアルゴリズムを実施させる。
[008] いくつかの実施形態では、ニューラルネットワークは、ニューラルネットワークへの入力として、記憶されたエコー信号又はビームフォーミングされた信号のサンプルを選択するように構成された、データ選択器を備える。いくつかの実施形態では、データ選択器は、データ選択器によって受信された制御信号に応答して、エコー信号のサンプル又はビームフォーミングされた信号のサンプルのいずれかを、ニューラルネットワークに選択的に結合するように構成される。いくつかの実施形態では、制御信号は、ユーザが、提供された入力のタイプとニューラルネットワークの対応する動作モードとを選択することを可能にするためになど、ユーザ入力に応答して生成される。いくつかの実施形態では、ニューラルネットワークは、入力としての補助データをさらに受信するように構成され、補助データは、超音波トランスデューサ構成情報、ビームフォーマ構成情報、媒体に関する情報、又はそれらの組合せを含む。そのような実施形態では、第1のタイプのイメージングデータは、補助データにさらに基づいて、ニューラルネットワークによって推定される。
[009] いくつかの実施形態では、ニューラルネットワークは、トレーニング入力及び知られている出力のアレイを受信するように構成されたトレーニングアルゴリズムに動作可能に関連付けられ、トレーニング入力は、画像化された組織の領域に関連付けられた、エコー信号、ビームフォーミングされた信号、又はそれらの組合せを含み、知られている出力は、画像化された組織の領域の知られているプロパティを含む。いくつかの実施形態では、トレーニングアルゴリズムは、超音波データを含むトレーニング入力とともに、超音波以外のイメージングモダリティを使用して取得された知られている出力を利用するように構成される。いくつかの実施形態では、ニューラルネットワークは、複数の動作モードのうちの1つに従って入力データを処理するように構成され、複数の動作モードのうちの1つは、ユーザ入力に応答して選択されるか、又はエコー信号の収集中に超音波システムのイメージングモードに基づいて超音波システムによって自動的に設定される。いくつかの実施形態では、ニューラルネットワークは、第2のタイプのイメージングデータを使用せずに、入力データに基づいて組織の脂肪含量を予測するように構成される。いくつかの実施形態では、ニューラルネットワークは、画像処理回路によって生成された直交信号を使用せずに、入力データの時間的に連続するサンプルに基づいて組織の解剖学的構造中に含まれている流体のフロープロパティを予測するように構成される。いくつかの実施形態では、ニューラルネットワークは、エコー信号のサンプルに基づいて、予測されたビームフォーミングされた信号を生成し、予測されたビームフォーミングされた信号を使用して、第1のタイプの超音波イメージングデータを生成するように構成される。
[010] いくつかの実施形態による超音波イメージングの方法が、超音波システムに動作可能に結合されたトランスデューサによって送信された超音波に応答したエコー信号を生成するステップと、チャネルメモリにエコー信号を記憶するステップと、チャネルメモリからの複数のエコー信号をビームフォーミングして、ビームフォーミングされた信号を生成するステップと、エコー信号、ビームフォーミングされた信号、又はそれらの組合せのサンプルを、エコー信号又はビームフォーミングされた信号のサンプルに応答して第1のタイプのイメージングデータを出力するようにトレーニングされたニューラルネットワークに結合するステップと、ビームフォーミングされた信号に応答して第2のタイプのイメージングデータを生成するように構成されたプロセッサに、ビームフォーミングされた信号を結合するステップと、第1のタイプのイメージングデータと第2のタイプのイメージングデータとに基づいて超音波画像を生成するステップとを有する。第1のタイプのイメージングデータと第2のタイプのイメージングデータの両方に応答して生成された超音波画像の1つ又は複数のフレームが、ディスプレイに、ストレージ(たとえば、永続ストレージ又はシネループメモリ)、或いはリアルタイム使用又は(たとえば、ニューラルネットワークの後でのトレーニングにおける)後での使用のための別のタイプの出力デバイスに提供される。いくつかの実施形態では、第2のタイプのイメージングデータは、Bモードイメージングデータであり、第1のタイプのイメージングデータは、フローイメージングデータ、組織剛性イメージングデータ、流体を中に含んでいる解剖学的構造の壁せん断応力、組織組成データ、超音波造影剤情報、プラーク特徴づけデータ、Bモードイメージングデータに関連付けられた1つ又は複数の診断インジケータ、又はそれらの組合せを含む。
[011] いくつかの実施形態では、エコー信号、ビームフォーミングされた信号、又はそれらの組合せのサンプルを、ニューラルネットワークに結合するステップは、画像化された組織の領域内のロケーションに対応する、エコー信号のサンプル又はビームフォーミングされた信号のサンプルを含む入力(たとえば、アレイ)を、ニューラルネットワークに結合するステップと、ニューラルネットワークを通してその入力を伝搬して、画像化された組織の領域内のロケーションに関連付けられたピクセルデータを推定するステップとを有する。いくつかの実施形態では、エコー信号、ビームフォーミングされた信号、又はそれらの組合せのサンプルを、ニューラルネットワークに結合するステップは、画像化された組織の領域内のロケーションから受信された、時間的に連続した送信及び受信サイクルからの、エコー信号のサンプル又はビームフォーミングされた信号のサンプルを含む入力を、ニューラルネットワークに結合するステップと、ニューラルネットワークを通してその入力を伝搬して、そのロケーションにおけるフローの速度を推定するステップとを有する。いくつかの実施形態では、上記方法は、ユーザ入力に応答して、エコー信号のサンプル又はビームフォーミングされた信号のサンプルのいずれかを、入力データとしてニューラルネットワークに選択的に結合するステップと、その入力データに基づいてニューラルネットワークの対応する動作モードを選択するステップとを有する。いくつかの実施形態では、上記方法は、ニューラルネットワークをトレーニングするステップをさらに有する。たとえば、上記方法は、ニューラルネットワークのトレーニングモード中に、ニューラルネットワークに、第2のタイプのイメージングデータの少なくともいくつかを提供するステップを有する。いくつかの実施形態では、上記方法は、超音波以外のイメージングモダリティによって取得されたイメージングデータを使用してニューラルネットワークをトレーニングするステップをさらに有する。
[012] 本明細書で説明される方法又はそれらのステップのいずれも、実行されたとき、医療イメージングシステムのプロセッサに、本明細書中で具現される方法又はステップを実施させる実行可能な命令を備える、非一時的コンピュータ可読媒体において具現される。
[013] 本発明の原理による、超音波システムのブロック図である。 [014] 遅延及び加算ビームフォーミング技法を示す図である。 [015] 本発明の原理による、ニューラルネットワークのための入力データ選択の態様を示す図である。 [016] 本発明の原理による、入力データ選択器のブロック図である。 [017] 本発明のさらなる原理による、入力データ選択器の別のブロック図である。 [018] 本発明の原理による、超音波画像を生成するプロセスの流れ図である。
[019] いくつかの例示的な実施形態の以下の説明は、本質的に例にすぎず、本発明或いはその適用例又は使用を限定することは決して意図されない。本システム及び方法の実施形態の以下の詳細な説明では、本出願の一部を形成し、説明されるシステム及び方法が実施される特定の実施形態が例として示される、添付の図面への参照が行われる。これらの実施形態は、当業者が本開示のシステム及び方法を実施することを可能にするために十分に詳細に説明され、本システムの趣旨及び範囲から逸脱することなく、他の実施形態が利用され得、構造的及び論理的変更が行われ得ることを理解されたい。その上、明快のために、本システムの説明を不明瞭にしないように、いくつかの特徴の詳細な説明は、それらが当業者に明らかであるとき、説明されない。したがって、以下の詳細な説明は、限定的な意味にとられるべきでなく、本システムの範囲は、添付の特許請求の範囲によってのみ定義される。
[020] 本開示による超音波システムは、従来の超音波イメージングにおけるいくつかの処理ステップをバイパスするために、ニューラルネットワーク、たとえば、深層ニューラルネットワーク(DNN)、畳み込みニューラルネットワーク(CNN)などを利用する。いくつかの例では、ニューラルネットワークは、生チャネルデータ(すなわち、収集された無線周波数(RF)エコー信号)から、或いは、場合によっては、部分的に又は完全にビームフォーミングされた信号から、表示のための画像の特性を導出又は計算することが可能であるニューラルネットワーク(たとえば、ノードの機械トレーニングアルゴリズム又はハードウェアベースシステム)を取得するために、様々な現在知られている又は後で開発される機械学習技法のうちのいずれかを使用してトレーニングされる。ニューラルネットワークは、特殊なコンピュータコードの依拠によってではなく、データセットサンプルを分析することによって、データセットの特徴を認識するように一般化及びトレーニングされ得るという点で、ニューラルネットワークは、旧来の形態のコンピュータプログラミングアルゴリズムに勝る利点を提供する。ニューラルネットワークトレーニングアルゴリズムに適切な入力及び出力データを提示することによって、本開示による超音波システムのニューラルネットワークは、システム動作を案内するための物理的に導出されたモデルの必要なしに、画像データ(たとえば、フローイメージングデータ)を生成し、他のタイプの組織情報(たとえば、画像化された領域内の、組織内容又はタイプ、ひずみ/応力データ、特定の解剖学的構造の識別など)を導出するようにトレーニングされ得る。
[021] 図1は、本発明の原理による、例示的な超音波システムを示す。システム100は、媒体に向けて超音波パルスを送信し、超音波パルスに応答したエコー信号を生成するように構成された超音波トランスデューサ113を備えるか、又はそれに動作可能に結合される。超音波システム100は、収集されたエコー信号(生RF信号)を記憶するように構成されたチャネルメモリ121と、送信及び/又は受信ビームフォーミングを実施するように構成され、収集されたエコー信号に応答して生成されたビームフォーミングされた信号を記憶するように構成されたビームフォーマメモリ123を備える、ビームフォーマ122とを備える。いくつかの実施形態では、システム100は、超音波システム100によって生成された超音波画像を表示するためのディスプレイ138を備えるか、又はそれに通信可能に結合される。
[022] 超音波トランスデューサ113は、プローブ112、たとえば、ハンドヘルドプローブ、又はコンピュータによって少なくとも部分的に制御されるように構成されたプローブ(たとえば、機械作動プローブ)において提供される、超音波トランスデューサアレイ114を備える。いくつかの例では、アレイ114は、各々トランスデューサ要素のサブアレイを備える複数のパッチを使用して実施され、アレイ114は、画像化されるべき対象者に対して適合して配置されるように構成される。アレイ114は、関心領域に向けて超音波を送信し、関心領域(ROI)を画像化するためのエコーを受信するように動作可能である。様々なトランスデューサアレイ、たとえば、線形アレイ、湾曲アレイ、又はフェーズドアレイが使用される。アレイ114は、たとえば、2D及び/又は3Dイメージングのためにエレベーション次元とアジマス次元の両方において走査することが可能なトランスデューサ要素の2次元アレイを備える。
[023] アレイ114は、プローブ112中に、又は超音波システムベース中に(たとえば、Philipsによって提供されるSPARQ又はEPIQ超音波システムなど、カートベースのシステム中に)位置するマイクロビームフォーマ116に結合される。マイクロビームフォーマ116は、アレイ114によって信号の送信及び受信を制御する。アレイ114は、一般にベース中に位置する送信/受信(T/R)スイッチ118に(ワイヤード又はワイヤレス接続を介して)結合されるマイクロビームフォーマ116を介して、超音波システムベースに結合される。T/Rスイッチ118は、たとえば、高エネルギー送信信号からメインビームフォーマ122を保護するために、送信と受信との間で切り替わるように構成される。いくつかの実施形態では、T/Rスイッチ118及びシステム中の他の要素の機能は、PHILIPSによって提供されるLUMIFYシステムなど、ポータブルシステムに結合するように動作可能なプローブなど、プローブ内に組み込まれる。プローブ112は、ワイヤード又はワイヤレス接続を使用してベースに通信可能に結合される。プローブ412は、ワイヤード又はワイヤレス接続を使用してベースに通信可能に結合される。いくつかの実施形態では、トランスデューサ、チャネルメモリ、及びニューラルネットワークを記憶するハードウェアが、プローブ中に位置し得、ニューラルネットワークによって作成された画像を表示するためのディスプレイが、プローブに通信可能に結合され得る。たとえば、ディスプレイは、ケーブルを介してプローブに結合されるか、又は、ワイヤレス通信を介して結合され得、ワイヤレス通信では、プローブが、ディスプレイに画像データを送るためのワイヤレス送信機を備えることができる。いくつかの実施形態では、システムは、システムにおけるニューラルネットワークを完全に又は部分的にトレーニングするために、グラフィックス処理ユニット(GPU)を備えることができる。たとえば、GPUは、トランスデューサ、チャネルメモリ、及びニューラルネットワークを記憶するハードウェアとともに、プローブ中に位置し得る。代替的に、GPUは、タブレット、又はスマートフォンなどの他のコンピューティングデバイス中に位置するなど、プローブとは別のところに位置し得る。
[024] 超音波トランスデューサ113は、画像化されるべき媒体(たとえば、組織)に向けて送信された超音波信号に応答したエコー信号を収集するように構成される。説明されたように、トランスデューサ113は、送信/受信コントローラ120からの制御の下で、媒体に向けて超音波のパルスを送信し、送信パルスに応答したエコーを検出することが可能な要素のアレイを備える。送信/受信コントローラ120は、(たとえば、マイクロビームフォーマ(μBF)116を備えるトランスデューサの場合)トランスデューサ113による超音波信号の送信と、アレイの個々の要素又は要素のグループによる超音波エコー信号の受信とを制御する。送信/受信コントローラ120は、信号の送信及び受信を制御する際に、ユーザインターフェース124のユーザの動作から入力を受信する。ユーザインターフェース124は、コントロールパネル142など、1つ又は複数の入力デバイスを備え、これは、1つ又は複数の機械的コントロール(たとえば、ボタン、エンコーダなど)、タッチセンシティブコントロール(たとえば、トラックパッド、タッチスクリーンなど)、及び他の入力デバイスを含む。送信/受信コントローラ120によって制御される別の機能は、ビームがステアリングされる方向である。ビームは、アレイ114の送信側からまっすぐに(それに直角に)、又はより広い視野のために異なる角度でステアリングされる。超音波トランスデューサ113によって受信されたエコー信号は、収集されたエコー信号を受信及び記憶するチャネルメモリ110に結合される。チャネルメモリ110は、毎要素又は(マイクロビームフォーミングされた信号の場合)グループエコー信号(生RF信号又は単にRF信号、或いは毎チャネルデータ(per−channel data)とも呼ばれる)を記憶するように構成される。毎チャネルデータは、複数の送信/受信サイクルにわたってメモリ中で累積される。
[025] システム100は、収集されたエコー信号を受信し、ビームフォーミングされたRF信号を生成するように構成されたビームフォーマ122をさらに備える。ビームフォーマ122は、(たとえば、マイクロビームフォーマに関連付けられたトランスデューサの場合)トランスデューサのグループからの個々のエコー信号又は部分的にビームフォーミングされた信号を組み合わせて、完全にビームフォーミングされた信号にする。たとえば、ビームフォーマ122は、図2に示されているように、遅延及び加算ビームフォーミングを実施する。図2に示されているように、ビームフォーマ(たとえば、ビームフォーマ122)は、アレイの要素205によって検出される反射体210からのエコー211に対応する、毎チャネルRF信号206を受信する。生RF信号206は、(209に示されているように)時間的にそれらを整合させるために適切な時間量207だけ遅延され、(215に示されているように)組み合わせられて、ビームフォーミングされたRF信号又は加算されたRF信号と呼ばれることもある、ビームフォーミングされた信号217になる。場合によっては、時間的に整合される信号は、それらが加算される前に、(208に示されている)ファクタで乗算される。場合によっては、マイクロビームフォーマが、たとえば、トランスデューサプローブ中に含まれ、これは、要素のパッチ(たとえば、所与の送信/受信サイクルにおいてエコーを検出する要素のサブセット)によって受信された信号の部分的なビームフォーミングを実施し、それにより、メインビームフォーマへのチャネル入力の数を低減する。そのような場合、メインビームフォーマ(たとえば、ビームフォーマ122)は、部分的にビームフォーミングされた信号から、視野内の走査線に対応する完全にビームフォーミングされた信号を生成する。いくつかの実施形態では、ビームフォーマ(及び/又は、備えられる場合、マイクロビームフォーマ)は、代替又は追加として、エコー信号からの情報を組み合わせ、組織からの後方散乱超音波エネルギーの画像ラインを形成するために、限定はしないが、すべて毎チャネルデータに対して動作する、相互相関を用いる二重アポダイゼーション、位相コヒーレンスイメージング、caponビームフォーミング及び最小分散ビームフォーミングを含む、他の技法を使用するように構成される。
[026] 再び図1を参照すると、ビームフォーマによって生成されたビームフォーミングされた信号は、1つ又は複数のタイプの超音波イメージングデータ、たとえば、走査された解剖学的構造のグレースケール画像(たとえば、Bモード画像)を生成するためのイメージングデータを生成するために、さらなるダウンストリーム信号処理構成要素(たとえば、プロセッサ150)に結合される。プロセッサ150は、超音波画像を生成し、超音波画像の表示のためのユーザインターフェースを提供するための、本明細書で説明される機能を実施するように特別に構成された、1つ又は複数のCPU、GPU、及び/又はASICを含む、ソフトウェア及びハードウェア構成要素で実施される。いくつかの実施形態では、ビームフォーミングされた信号のサンプルは、代替又は追加として、フローイメージングデータ、組織弾性イメージングデータなど、1つ又は複数の他のタイプのイメージングデータを生成するようにトレーニングされるニューラルネットワーク160に結合される。プロセッサ150によって生成されたイメージングデータは、超音波画像を生成させるために使用され、超音波画像はまた、たとえば、以下でさらに説明されるニューラルネットワーク160から出力されたイメージングデータを含む。いくつかの実施形態では、ビームフォーミングされた信号は、それらが、(たとえば、ニューラルネットワークによる、及び/又は1つ又は複数の画像プロセッサによる)画像生成、又は組織特徴づけのために使用されるまで、1つ又は複数の送信/受信サイクルにわたってビームフォーマメモリ123に記憶される。
[027] 図1中の例に示されているように、システム100は、プロセッサ150と総称される、1つ又は複数の処理構成要素を備え、これは、ビームフォーミングされた信号を受信し、超音波画像(たとえば、Bモード画像)を生成するための1つ又は複数のタイプのイメージングデータを生成するように構成される。たとえば、ビームフォーミングされた信号は、帯域通過フィルタ処理、デシメーション、I及びQ成分分離、並びに高調波信号分離によってなど、様々なやり方でビームフォーミングされた信号を処理するように構成された信号プロセッサ126に結合される。信号プロセッサ126はまた、スペックル低減、信号コンパウンディング、及びノイズ除去など、追加の信号強調を実施する。処理された信号は、Bモードイメージングデータを生成するためのBモードプロセッサ128に結合される。Bモードプロセッサ128は、身体中の構造のイメージングのために振幅検出を利用することができる。Bモードプロセッサ128によって生成された信号は、スキャンコンバータ130及びマルチプレーナリフォーマッタ132に結合される。スキャンコンバータ130は、所望の画像フォーマットで信号が受信された空間的関係に、信号を配置するように構成される。たとえば、スキャンコンバータ130は、2次元(2D)扇形フォーマット、或いはピラミッド形又は別様に整形された3次元(3D)フォーマットに信号を配置する。マルチプレーナリフォーマッタ132は、たとえば、米国特許第6,443,896号(Detmer)に記載されているように、身体のボリューメトリック領域中の共通平面における点から受信されたエコーをその平面の超音波画像(たとえば、Bモード画像)に変換することができる。ボリュームレンダラ134が、たとえば、米国特許第6,530,885号(Entrekinら)に記載されているように、所与の基準点から見た3Dデータセットの画像を生成する。
[028] さらに及び随意に、信号プロセッサ126からの信号は、ドップラーシフトを推定し、ドップラー画像データを生成するように構成されたドップラープロセッサ144に結合される。ドップラー画像データは、従来の二重Bモード/ドップラー画像を表示するための、Bモード(又はグレースケール)画像データでオーバーレイされるカラーフローデータを含む。いくつかの例では、ドップラープロセッサ144は、自己相関器など、ドップラー推定器を備え、速度(ドップラー周波数)推定が、ラグ1の自己相関関数の引数に基づき、ドップラーパワー推定が、ラグ0の自己相関関数の大きさに基づく。また、運動が、知られている位相領域信号処理技法(たとえば、MUSIC、ESPRITなど、パラメトリック周波数推定器)、又は時間領域信号処理技法(たとえば、相互相関)によって推定され得る。速度推定器の代わりに、又はそれに加えて、加速度或いは時間的及び/又は空間的速度導関数の推定器など、速度の時間的又は空間的分布に関係する他の推定器が使用され得る。いくつかの例では、速度及びパワー推定値は、ノイズを低減するためのしきい値検出、並びに、セグメンテーション、及び、充填及び平滑化などの後処理を経る。速度及びパワー推定値は、次いで、カラーマップに従って表示カラーの所望の範囲にマッピングされる。ドップラー画像データとも呼ばれるカラーデータは、次いで、スキャンコンバータ130に結合され、ドップラー画像データは、所望の画像フォーマットに変換され、血流を含んでいる組織構造のBモード画像上にオーバーレイされて、カラードップラー画像を形成する。
[029] さらに及び随意に、システム100は、検出されたエコーに応答して生成された信号からビーム角非依存速度情報を抽出するように構成されたベクトルフロープロセッサ146を備える。たとえば、ベクトルフロープロセッサ146は、(たとえば、いかなる目的のためにもその開示が全体として参照により本明細書に組み込まれる「Recent advances in blood flow vector velocity imaging」、2011 IEEE International Ultrasonics Symposium、262〜271ページにJensenらによって記載されているように)横振動法(transverse oscillation method)又は合成開口法を使用して、或いは任意の他の現在知られている又は後で開発されるベクトルフロー推定及びイメージング技法を使用して、画像化された身体構造(たとえば、血管)内のフローのビーム角非依存速度成分を推定するように構成される。
[030] Bモードプロセッサからのイメージングデータと同様に、これらの追加の随意の画像データプロセッサのうちのいずれかによって生成されたイメージングデータは、所望の画像フォーマット(たとえば、2次元(2D)扇形フォーマット、或いはピラミッド形又は別様に整形された3次元(3D)フォーマット)で、信号が受信された空間的関係に、信号を配置するためのスキャンコンバータ130と、身体のボリューメトリック領域中の共通平面における点から受信された信号のセットを抽出して、その平面の超音波画像にするためのマルチプレーナリフォーマッタ132とに結合される。3Dイメージングの場合、信号は、追加又は代替として、所与の基準点から見た3Dデータセットの画像を生成するボリュームレンダラ134に結合される。したがって、プロセッサ150は、望まれるように、Bモードイメージングデータ、ドップラーイメージングデータ、ベクトルフローイメージング(VFI)データなどを生成するために、1つ又は複数の信号処理経路、回路、又は特別にプログラムされたソフトウェア構成要素を備え、これらのデータは、二重表示(たとえば、ドップラーデータとBモードデータとのオーバーレイ、又はBモードデータと応力/ひずみデータとのオーバーレイ)、又は三重表示(たとえば、Mモード画像又はスペクトルドップラー画像など、グラフィカル表示を示す第2の画像ウィンドウと同時に表示される、ある画像ウィンドウにおけるドップラーとBモードとのオーバーレイ)のためにデータを組み合わせることを含む、所望の表示フォーマットで配置されることが理解されよう。
[031] 本発明の原理によれば、システム100は、ニューラルネットワーク160を備える。ニューラルネットワーク160は、エコー信号の1つ又は複数のサンプル、ビームフォーミングされた信号の1つ又は複数のサンプル、又はそれらの組合せを入力として受信し、入力に応答して別のタイプの超音波イメージングデータを生成するように構成される。ニューラルネットワーク160は、(たとえば、ネットワークの人工ノードのためのハードワイヤード回路を使用する)ハードウェア構成要素、及び/又は(たとえば、1つ又は複数のプロセッサを機械トレーニングアルゴリズムを実施するようにプログラムする実行可能な命令を使用する)ソフトウェア構成要素で実施される。ニューラルネットワーク160は、ノードのネットワークを通して入力(たとえば、生エコー信号のサンプル及び/又はビームフォーミングされた信号のサンプル)を伝搬して、後でさらに表示のために処理される予測された又は推定されたイメージングデータを取得するようにトレーニングされる。場合によっては、ネットワークは、複数の動作モードのうちのいずれか1つにおいて動作するようにトレーニングされ、ネットワークの動作モードに応じて、同じ入力に応答して異なるタイプのイメージングデータを生成するか、又は他の組織情報を出力する。モードは選択的であり得る(たとえば、ユーザ入力に応答する、又はシステムによって自動的に選択される)。
[032] 説明されたように、ニューラルネットワーク160は、ハードウェアベース(たとえば、ニューロンが物理的構成要素によって表される)、又はソフトウェアベース(たとえば、ソフトウェアアプリケーションで実施されるニューロン及び経路)であり、ニューラルネットワークを所望の出力を生成するようにトレーニングするために、様々なトポロジー及び学習アルゴリズムを使用することができる。たとえば、ソフトウェアベースのニューラルネットワークは、命令を実行するように構成されたプロセッサ(たとえば、シングルコア又はマルチコアCPU、単一のGPU又はGPUクラスタ、或いは並列処理のために配置された複数のプロセッサ)を使用して実施され、その命令は、コンピュータ可読媒体に記憶され、実行されたとき、プロセッサに、超音波画像を生成すること、及び/又は上記の識別された入力のうちの1つ又は複数から組織情報を出力することを行うための機械トレーニングアルゴリズムを実施させる。超音波システムは、超音波画像、及び/又は、アノテーションと、ニューラルネットワークによっても出力される組織情報と、他のグラフィカル構成要素とを含む追加のグラフィカル情報を、超音波システムのディスプレイ上の表示のためのディスプレイウィンドウにおいて配置するように動作可能である、ディスプレイ又はグラフィックスプロセッサを備える。いくつかの実施形態では、超音波画像及び組織情報は、さらに、報告目的で、又は(たとえば、ニューラルネットワークの性能を向上させ続けるための)将来の機械トレーニングのために、ピクチャアーカイビング通信システム(PACS:picture archiving and communication system)或いは別のローカル又はリモート/ネットワークストレージデバイスなど、ストレージデバイスに提供される。またさらなる例では、PACSに記憶される、様々な異なるイメージングモダリティ(たとえば、磁気共鳴イメージング(MRI)、コンピュータ断層撮影(CT)など)から取得されたイメージングデータは、代替又は追加として、ニューラルネットワークをトレーニングするために使用される。理解されるように、本開示によるシステムは、システム及びより詳細にはニューラルネットワークを、進行中のフィードバック及びトレーニングのために、トレーニングデータの(1つ又は複数の)ソース(たとえば、ストレージデバイス)に、及び/又は他の機械トレーニングシステムに結合する二方向通信リンクを備える。
[033] いくつかの実施形態では、ニューラルネットワーク160は、Bモードイメージングデータ以外のイメージングデータ及び/又は任意の所望の組織情報を生成するように特別に構成される。たとえば、ニューラルネットワークは、エコー信号及び/又はビームフォーミングされた信号から直接、フローイメージングデータ(たとえば、ビーム角依存又はビーム角非依存速度情報)を提供するようにトレーニングされ、一方、システムは、それとのオーバーレイのための解剖学的画像を、プロセッサ150における事前プログラムされた又はモデルベース処理構成要素を使用して生成する。Bモードイメージングデータは、次いで、フローイメージングデータと組み合わせられて(この場合、オーバーレイされて)、グレースケール解剖学的画像上にカラーコード化されたフローマップを示す(又はVFIの場合、ベクトル場を示す)従来のドップラー画像と同様の超音波画像を生成する。他の実施形態では、ニューラルネットワークは、エコー信号及び/又はビームフォーミングされた信号から直接、エラストグラフィイメージングデータ(たとえば、組織剛性情報)を提供するようにトレーニングされ、一方、システムは、それとのオーバーレイのための解剖学的画像を、プロセッサ150における事前プログラムされた又はモデルベース処理構成要素を使用して生成する。従来のエラストグラフィでは、組織剛性情報は、フロー情報が表示のためにカラーコード化されるのと同様のやり方でカラーコード化される。本例では、エラストグラフィイメージングデータ(たとえば、組織剛性情報)は、Bモードプロセッサによって出力されたBモードデータに基づいて生成された解剖学的画像の表示のための所望のフォーマットで組織剛性情報を配置するために、プロセッサ150に(たとえば、スキャンコンバータ及びマルチプレーナリフォーマッタ又はボリュームレンダラに)結合される。他のタイプのイメージングデータ及び/又は組織情報は、ニューラルネットワークが標準画像形成技法及びダウンストリーム信号処理に対する依拠をバイパスすることによって、エコー信号及び/又はビームフォーミングされた信号から直接推定される。このようにして、ニューラルネットワークによって出力されるイメージングデータ及び/又は組織情報は、画像アーチファクトによって悪影響を及ぼされず、したがって、特に経時的なニューラルネットワークのさらなるトレーニングを伴って、より正確である。そのうちのいくつかが以下でさらに説明される、様々な臨床適用例におけるイメージングデータ及び組織情報を生成するためのニューラルネットワークの使用が、本明細書の例に従って実施される。
[034] 本開示によるニューラルネットワーク160をトレーニングするために、入力アレイ及び出力分類の複数のインスタンスを含むトレーニングセット{Xi,Yn}が、ニューラルネットワーク160の(1つ又は複数の)トレーニングアルゴリズム(たとえば、Krizhevsky,A.、Sutskever,I.及びHinton,G.E.「ImageNet Classification with Deep Convolutional Neural Networks」、NIPS 2012又はその派生物で記載されている、AlexNetトレーニングアルゴリズム)に提示される。トレーニングデータセットにおいて、入力データ[Xi]は、たとえば、図3に示されているように、随意に、以下でさらに説明される補助データとともに、毎チャネルエコー信号を含み、出力データ[Yi]は、エコー信号のサンプルに対応する、組織の任意の知られているプロパティ(たとえば、血流又は他の組織運動イメージングの場合の知られている速度、知られているひずみ/応力値、或いは解剖学的構造イメージング情報を生成するためのエコー強度データなど)を含む。トレーニングデータセットの入力[Xi]及び出力[Yi]データは、従来の超音波イメージングのための構成要素を備える超音波イメージングシステム、又は別のタイプのイメージングモダリティのために構成されたイメージングシステム(たとえば、MRIスキャナ、CTスキャナなど)によって収集される。いくつかの実施形態では、システム100は、組み合わせられた画像を生成する際に使用するための、又はニューラルネットワーク160に関連付けられたトレーニングアルゴリズムに追加のトレーニングセットを提供するための、入力及び出力データセットを収集するために、従来のビームフォーミング、信号及び画像処理構成要素をも備える。たとえば、異なるタイプの組織が、トランスデューサを使用して走査され(たとえば、超音波的に走査され)、トランスデューサは空間的局在化システム(たとえば、EM又は超音波追跡プローブ)に動作可能に関連付けられ、これは、走査されている組織の関心点又は関心領域を出力データ(たとえば、トレーニングセットにおける出力として使用されるべきイメージングデータ及び/又は組織特徴づけ情報)に空間的に相関させることができる。さらなる例では、ニューラルネットワーク160は、(J.A.Jensen、A Model for the Propagation and Scattering of Ultrasound in Tissue、J.Acoust.Soc.Am.89、182〜191ページ、1991で記載されているように)Field IIプログラムなど、好適な超音波シミュレーションを使用してトレーニングされ、これは、超音波トランスデューサ及び送信されたパルスのジオメトリに関するデータとともに、画像フィールドにおける散乱体を表す点の空間的分布を入力としてとり、(シミュレートされたエコーとも呼ばれる)毎要素エコー信号を表す算出された超音波データを出力する。システム100は、たとえば、シミュレートされたエコーと、トランスデューサに関する補助データと、空間中の1つ又は複数の所与の点に対する送信されたパルスとを使用することによって、トレーニング目的で、このタイプのデータを使用し、入力トレーニングデータ[Xi]としてニューラルネットワークにそれらを提示し、対応する出力データ[Yi]は、シミュレーションからの散乱体密度である。他のアルゴリズム又は技法が、追加又は代替として、ニューラルネットワーク160をトレーニングするために使用される。また、述べられたように、場合によっては、出力データ(たとえば、イメージングデータ及び/又は組織の知られているプロパティ)は、超音波とは異なるイメージングモダリティ、たとえば、MRI、CTなど、又はそれらの任意の組合せを使用して取得される。したがって、ニューラルネットワーク160は、イメージングデータ、及び、ある場合には、直接RF信号からの従来の超音波画像処理を通して別様に可能であるものよりも高い品質(たとえば、より高い解像度)の画像を生成するようにトレーニングされる。
[035] 関連付けられたニューラルネットワークトレーニングアルゴリズムは、入出力関係の明示的モデル(たとえば、既存の超音波システムの従来のビームフォーマ、信号プロセッサ又はイメージングデータプロセッサで一般に実施される、事前プログラムされた物理学ベースのモデル)に対する依拠なしに、生測定データ(すなわち、生エコー又はビームフォーミングされたRF信号)に基づいてイメージングデータ又は様々な組織プロパティを直接推定又は出力するようにニューラルネットワーク160をトレーニングするために、数千、さらには数百万のトレーニングデータセットを提示される。すなわち、数百、数千、又は数百万のトレーニングデータセットは、様々なトポグラフィ又はモデルのうちのいずれか1つに従って配置される人工ニューロン又はノードのネットワークを開発するために機械学習アルゴリズムに提示される。ニューラルネットワークのニューロンは、一般に、層で結合され、信号は、最初の(入力)層から最後の(出力)層に進む。現代のニューラルネットワーク及びトレーニングアルゴリズムにおける進歩に伴って、数十万から数百万のニューロン又はノード、及びそれらの間の結合を含むニューラルネットワークが開発される。ニューラルネットワーク160における人工ニューロンの信号及び状態は、一般に実数、一般に0から1の間であり、しきい値関数又は制限関数が、各結合及び/又はノード自体に関連付けられ、そのため、信号は、伝搬する前に、しきい値/制限に等しいか又はそれを超えなければならない。
[036] トレーニングプロセスの出力は、(たとえば、ニューラルネットの層を通る伝搬を制御するしきい値又は制限関数を調整するために)動作中にニューラルネットワーク160によって使用される、(結合又はノード重みとも呼ばれる)重みのセットである。トレーニングされると、ニューラルネットワーク160は、任意の入力アレイ、Xkに対して動作し、1つ又は複数の出力値を生成するように構成され、1つ又は複数の出力値は、Xkが出力セットYnのメンバーである(たとえば、エコー信号のサンプルが、ピクセル画像データのセットに対応する)確率又は信頼性推定値として大まかに解釈され得る。出力セット、Ynはまた、数値範囲を表すことができる。このようにして、RF信号のセットは、ニューラルネットワーク160への入力として提供され、そのRF信号のセットは、媒体内の所与の空間的ロケーションのサブセット(たとえば、画像化された組織における関心領域)に対応し、ニューラルネットワークは、所与の空間的ロケーションにおける画像の一部分を生成するための対応するピクセルデータのセットを出力として提供する。いくつかの例では、ニューラルネットワークの重みを変更することによって、このシステムは、多種多様な異なる特性の画像を生成するように動的に再構成され得る。いくつかの実施形態では、ニューラルネットワーク160は、深層学習、又は単に深層ニューラルネットワーク(DNN)、及び/或いは適応ニューラルネットワークである。いくつかの実施形態では、完全畳み込みネットワーク(FCN)とも呼ばれる深層畳み込みニューラルネットワーク(深層CNN)など、深層ニューラルネットワーク(DNN)は、ピクセルごとに画像内の物体を局所化するために使用される。例では、入力トレーニングアレイ、Xiは、画像における関心領域中の点を囲む任意の所望のタイプの画像データ(たとえば、フロー画像データ、エラストグラフィ画像データ)から形成される。各トレーニングアレイは、当該の出力点又はピクセルのセットメンバーシップに基づいて、1つ又は複数の出力セット又は値に分類される。したがって、超音波システム100は、場合によっては、従来の信号処理を通して導出されるエコー強度情報と組み合わせて、超音波画像を生成するためのイメージングデータを出力するために、少なくとも部分的にいくつかの従来の信号処理をバイパスするように構成される。むしろ、ニューラルネットワークによって出力されるイメージングデータを形成する値の推定又は予測が、ニューラルネットワーク内で暗黙的に遂行される。
[037] 血流及び/又は造影イメージングの例では、時間的側面が、ニューラルネットワークのトレーニングにおいて考慮される。図3に示されている超音波エコー、eiが、複数の超音波送信受信サイクルにわたって収集されたデータを含むように選択される場合、本明細書で説明されるトレーニングプロセスは、複数の送信イベントからのエコーの空間的及び時間的特性に基づいて、異なる組織タイプを区別するために使用される。そのようにして、ニューラルネットワークは、動いている組織(たとえば、血流)及び/又は造影剤に関連付けられたイメージングデータを生成するようにトレーニングされる。さらに、ニューラルネットワークが、イメージングカテーテル上で支持されたアレイから収集されたエコーに対して動作するときなど、脈管内超音波(IVUS)イメージングの例では、ニューラルネットワークは、複数のフレームからの毎チャネルエコーデータをトレーニング入力(xi)とし、対応する(場合によっては手動で)セグメント化された画像データ(組織/血液)をトレーニング出力(yi)として、ニューラルネットワークをトレーニングすることによって、2Dエコー画像データから、流れている血液を識別及び局所化するようにトレーニングされる。複数の送信/受信サイクルにわたって収集されたエコー信号及び/又はビームフォーミングされた信号は、他の血流又は他の動いている組織の検出及びイメージング適用例のために使用される。
[038] 説明されたように、ニューラルネットワーク160の出力は、従来の信号処理技法によって生成されたイメージングデータと組み合わせるために、プロセッサ150に結合される。たとえば、ニューラルネットワーク160の出力は、ニューラルネットワークから受信されたピクセルデータのサブセットをそれらの空間的属性に基づいて配置し、イメージングデータを所望のフォーマット(たとえば、2D又は3D超音波画像)で提示するために、スキャンコンバータ130及びマルチプレーナリフォーマッタ132及び/又はボリュームレンダラ134に結合される。いくつかの例では、ニューラルネットワークによって提供されたイメージングデータ(たとえば、ピクセルデータ)又は組織情報は、たとえば、カラーフロー、ベクトルフロー、又はエラストグラフィ画像のフルフレームを構成するのに足りる十分な量のピクセルデータがニューラルネットワークによって出力されるまでバッファされている。いくつかの例では、プロセッサ150に出力データを渡すより前に、ニューラルネットワークの出力は、出力データのいくつかの空間的及び/又は時間的特性を強調するために空間的及び時間的に出力データを処理するように構成されたデータ調整器164を通過する。いくつかの例では、データ調整器164は、多重解像度画像処理を実施するように構成される。
[039] ニューラルネットワークによって生成されたイメージングデータが、プロセッサ150によって生成されたイメージングデータと組み合わせられると、そのデータは、前に説明されたように、最終画像を向上させ、及び/又はアノテーションを追加するための従来の様式でさらに処理される。(1つ又は複数の)超音波画像は、たとえば、ユーザインターフェース124のディスプレイユニット上に、リアルタイムで表示され、画像の時間的シーケンスを表示するためにシネループメモリにバッファされ、及び/或いはストレージデバイス又は印刷システムにエクスポートされる。記憶された超音波画像(又は事前にフォーマットされた/事前にアノテーションを付けられたイメージングデータ)は、後での分析及び診断、報告への包含のために、並びに/又はトレーニングデータとして使用するために取り出される。超音波イメージングデータは、走査されている組織の解剖学的構造又は特性に関する追加の定量及び/又は定性情報を抽出するために、従来の技法を使用してさらに処理される。
[040] いくつかの実施形態では、(たとえば、チャネルメモリ110又はビームフォーマメモリからの)RF信号は、入力データ選択器162を介してニューラルネットワーク160に結合される。入力データ選択器162は、イメージング視野中の各関心点又は関心領域(ROI)について、トランスデューサアレイの要素の各々又はサブセットから、m個のRF信号サンプル(たとえば、エコー信号サンプル)の対応するアレイを選択するように構成される。いくつかの例では、入力データ選択器162は、RF信号のサンプルの中心が、往復時間遅延に、したがって関心深度にほぼ対応するようにサンプルを選択するように構成される(たとえば、図3参照)。図3中の例に示されているように、エコー信号eのm個のサンプル(すなわち、e、e、e、...eによって表される毎チャネルデータ)が、関心深度に対応するそれぞれの中心を有することに基づいて選択されたことが示されている。いくつかの例では、データセグメント長が、関心深度を囲む各エコーからの情報を含むのに十分長い限り、エコーセグメント内で関心深度を中心とすることは厳密には必要でない。いくつかの実施形態では、したがって、データ選択器162は、画像化された組織の領域内の隣接点に関連付けられた、収集されたエコー信号からエコー信号のサブセットを選択するように構成される。適切な入力データセットの選択の後に、イメージング及び他の組織データ抽出が、従来のビームフォーミングに対する依拠なしにニューラルネットワーク160によって暗黙的に実施される。
[041] いくつかの例では、ニューラルネットワーク160は、入力データタイプ(たとえば、毎チャネルデータ、ビームフォーミングされた信号、直交データ、イメージングデータ、又はそれらの組合せ)に少なくとも部分的に基づいて、複数のモードで動作するようにトレーニングされる。たとえば、ビームフォーミングされたRF信号を使用するとき、たとえば、ROIに対応する(単一又は複数の送信/受信サイクルにわたる)ビームフォーミングされたRF信号の適切なサンプルを選択するように構成された入力データ選択器162を介して、ビームフォーミングされたRF信号の選択されたサンプルが、ニューラルネットワーク160に結合される。そのような例では、毎チャネル信号の代わりに、又はそれに加えて、サンプル選択器は、関心領域からの走査線並びに近接する照準線に対応するRF信号のサンプルを選択するか、又はそれらは、連続する送信イベントから生成された走査線に対応するビームフォーミングされたRF信号を表すことができる。したがって、ビームフォーミングされたRF信号の入力アレイに対応する走査線に対する超音波イメージングデータは、ビームフォーミングされたRF信号から直接ニューラルネットワークによって暗黙的に推定され得る。
[042] 入力データ選択器162は、さらに、ニューラルネットワーク160の適切な動作モードをアクティブにするように構成され、これは、ユーザ入力に応答したものであるか、又はエコー信号の収集中のイメージングモードに基づく事前プログラムされたデフォルト値である(たとえば、フローイメージング、エラストグラフィなど)。図4及び図5は、入力データのタイプ及びサンプルを選択し、並びに/又はニューラルネットワークの適切なモードをアクティブにするために、ニューラルネットワーク160に動作可能に関連付けられた、入力データ選択器462及び562の例を示す。入力データ選択器462又は562は、図1中の例示的なシステムのデータ選択器162を実施するために使用される。
[043] たとえば、図4を参照すると、入力データ選択器462は、制御信号に応答して、データのタイプ(たとえば、エコー信号又はビームフォーミングされた信号)をニューラルネットワークに選択的に結合する、入力タイプ選択器を備える。制御信号は、ユーザ入力に基づいて生成される。入力データ選択器462は、前に説明された選択されたタイプの信号の適切なサンプルを選択及び結合する、サンプル選択器を備える。そのために及び図5中の例に示されているように、入力タイプ選択器564は、モード選択器565とスイッチ567とを備える。モード選択器565は、制御信号を受信し、スイッチに選択(Sel)信号を送って、適切なタイプの入力データのサンプルをニューラルネットワーク160に選択的に結合する。さらに、入力データ選択器562は、たとえば、(たとえば、モード選択器565から)ニューラルネットワーク160にモード制御信号を送信することによって、ニューラルネットワークの適切なモードをアクティブにするように構成される。
[044] いくつかの実施形態では、ニューラルネットワーク160は、取得されることが望まれるイメージングデータ又は組織情報のタイプにさらに基づいて、1つ又は複数の異なるモードで動作するようにトレーニングされる。説明されたように、ニューラルネットワーク160は、同じ入力に応答して異なるタイプのイメージングデータを出力するように構成され得る。これらの異なるタイプのイメージングデータ又は組織情報の各々について、ネットワークはトレーニングされ、したがって、異なる伝搬経路(たとえば、適切なトレーニングを通して開発されたノードの層及び結合)を備え、伝搬経路又はモードは、ユーザによって選択されるか、或いはイメージングモード又は適用例(たとえば、血流イメージング、胎児超音波イメージングなど)に応じてシステムによって自動的に呼び出される。
[045] いくつかの実施形態では、本開示による超音波システムのニューラルネットワークは、たとえば、トレーニングフェーズ中にニューラルネットワークに、たとえば、従来の超音波イメージングを通して、又は異なるモダリティを使用するイメージングを通して取得された、入力及び知られている出力の適切なトレーニングデータセットを提示することによって、たとえば、脂肪含量、プラークを特徴づけるために、又は超音波造影イメージングのために、超音波組織特徴づけを実施するように構成される。
[046] たとえば、超音波肝臓イメージングでは、超音波減衰及び後方散乱(すなわち、組織のエコー源性)が、脂肪含量に比例して増加し、超音波の速度が、対応して低減する。ビームフォーミングされたRFエコーからの超音波減衰、エコー源性及び/又は速度を定量化し、この減衰を脂肪含量と相関させることによって、肝臓(或いは他の適用例における他の組織又は器官)の脂肪含量の推定が、超音波を用いて実施される。そのようなシステムの顧客向け出力は、定量的(たとえば、画像化された組織内の脂肪部分を表す単一の値)であり、これは、(たとえば、特定の関心点又は関心領域について)解剖学的構造の画像上に表示されるか、或いは、それは、図式的に表され、血流又はエラストグラフィ情報の従来のオーバーレイと同様に、各定量値がカラーコード化され、肝臓(或いは他の器官又は組織)の2D画像又は3Dボリュームレンダリング上にオーバーレイされる。
[047] 組織内容(たとえば、脂肪含量)に関係する組織情報を抽出するようにニューラルネットワークをトレーニングするために、ニューラルネットワークは、トレーニングデータセットを提示され、このトレーニングデータセットは、局所生RF信号及び/又はビームフォーミングされたRF信号を入力として、対応する定量化された組織パラメータ(たとえば、脂肪含量又は他のタイプの組織内容)を知られている出力として含み、対応する定量化された組織パラメータは、上記の超音波定量化方法を介して、或いは画像化される組織の組織内容を決定することが可能な他のイメージング又は非イメージングプロセスを通して取得される。適切にトレーニングされると、ニューラルネットワークは、トレーニングデータを最初に取得するために使用される超音波定量化方法に対する依拠なしに、生RF信号及び/又はビームフォーミングされたRF信号から直接、この情報を暗黙的に抽出するように動作可能である。
[048] 別の例では、プラーク特徴づけが、プラーク組成のカラー化された組織マップにルーメン及び管測定値を提供するために脈管内超音波(IVUS)カテーテルによって使用されるような、従来の超音波システムにおいて事前プログラムされる既存の管組織分類モデルを置き換えるように適切にトレーニングされたニューラルネットワークによって向上される。たとえば、Philips Volcanoによって提供されるVHアルゴリズムが、概して、IVUSカテーテルからのビームフォーミングされた超音波RF信号を利用し、これらのエコー信号の短時間窓掛けされたRFスペクトルプロパティを分析して、組織を、繊維状組織、壊死性コア、高密度カルシウム及び繊維脂肪組織など、いくつかの異なるカテゴリーのうちの1つに分類すると言われ得る。次いで、管壁内のこれらの組織タイプの分布を示す画像が提供される。したがって、関連する管組織分類情報を提供するように本開示によるシステムのニューラルネットワークをトレーニングするために、IVUS取得されたRF信号を含むトレーニングデータセットが、ニューラルネットワークのトレーニングフェーズ中に入力として提供され、対応する知られている組織分類(たとえば、繊維状、壊死性コア、高密度カルシウムなど)を知られている出力とする。概して、既存のIVUSシステムを使用して取得された、生RF信号及び/又はビームフォーミングされたRF信号並びに対応する脈管病状データは、従来のIVUSシステムによって現在利用されるフーリエ変換及びヒューリスティック技法の必要なしに、検出されたエコー及び/又はビームフォーミングされた信号から直接、脈管組織組成を推定するように、ニューラルネットワークを用いた超音波イメージングシステムをトレーニングするために使用される。
[049] またさらなる例では、ニューラルネットワークは、超音波造影剤の存在に関して組織を特徴づけるようにトレーニングされる。超音波造影イメージングでは、複数パルスシーケンス(たとえば、電力変調)からの毎チャネルデータが、一般に、ビームフォーミングされ、次いで、組み合わせられて、イメージング視野にわたる微小気泡造影剤の体積密度を表す画像を形成する。同じことが、毎チャネルデータ及び/又は少なくとも部分的にビームフォーミングされたデータ並びに対応する知られている微小気泡造影剤の体積密度の形態の入力トレーニングデータを用いてトレーニングされたニューラルネットワークによって、暗黙的に(ビームフォーミングすること及び/又は体積密度を明示的に計算することなしに)達成される。
[050] さらなる例では、複数の検査対象者からの人間の心臓が、1D又は2Dアレイトランスデューサを使用して走査され得、得られた画像及び/又は3Dボリュームが、a)心室内の、又はb)心筋組織を含む、のいずれかである領域に(手動で又は自動的に)セグメント化され得る。これらの画像は、心室認識を実施するようにニューラルネットワーク160をトレーニングするために使用される。例では、入力データ[xi]は、本明細書で説明されるように、毎チャネルデータ、及び随意に補助データであり、出力データは、分類(すなわち、a)又はb)のいずれか)である。例では、ニューラルネットワークは、このタイプの分類を実施するために、適切にトレーニングされたセマンティック分類器を備える。そのようにトレーニングされたニューラルネットワークは、次いで、解剖学的構造の画像を最初に再構成する必要なしに、及び画像処理技法に対する依拠なしに、生データ又はビームフォーミングされたデータから直接、心室をセグメント化及び識別するために使用される。このセグメンテーション情報は、イメージングアーチファクトを抑制するために使用され得るか、又は、それは、駆出率又は他の臨床パラメータを定量化するためにアルゴリズムに直接供給され得る。システムは、他のタイプの組織又は解剖学的構造(たとえば、管の壁、肺/胸膜境界面)を識別し、それに関連付けられる関連する臨床パラメータを定量化する(たとえば、項部浮腫測定を取得する)ように同様にトレーニングされる。
[051] 図1及び図4中の例に示されているように、ニューラルネットワークは、ビームフォーマ122のプログラミングに関する情報、トランスデューサ113のプロパティ(たとえば、アレイの要素の数、配置及び/又は間隔、アレイのタイプなど)、画像化されている解剖学的構造に関する知られている情報、及び/或いは(たとえば、トランスデューサ追跡システムによって取得された)関心点又は関心領域の空間的ロケーションなど、補助データを受信するように構成される。たとえば、異なるイメージングモダリティからのトレーニングセットの場合、他のタイプの情報も、トレーニングアルゴリズムへの補助情報として提供される。いくつかの実施形態では、ニューラルネットワークは、トレーニングデータセットを補足するためにトレーニングプロセス中に使用される補助データを受信する。随意に、補助データはまた、イメージングセッション中にニューラルネットワークに提供される。
[052] 図6は、本開示のいくつかの例によるプロセスの流れ図を示す。プロセス600が、ブロック602に示されているように、収集されたエコーRF信号をチャネルメモリに記憶することによって開始する。チャネルメモリに記憶されたRF信号は、超音波システム(たとえば、システム100)に動作可能に結合されたトランスデューサ(たとえば、トランスデューサ113)によって送信された超音波に対する応答である、組織から検出されたエコーに対応する。いくつかの実施形態では、方法は、ブロック604に示されているように、エコー信号に基づいて、ビームフォーミングされたRF信号を生成するステップを有する。ビームフォーミングされた信号は、たとえば、システム100のビームフォーマ122を使用して、従来のビームフォーミング技法によって生成される。いくつかの実施形態では、1つ又は複数の時間的に連続した送信/受信サイクルからのビームフォーミングされたRF信号が、ビームフォーマメモリに記憶される。ビームフォーミングされた信号は、1つ又は複数の信号及び画像プロセッサ(たとえば、プロセッサ150)に結合される。たとえば、ビームフォーミングされた信号は、ブロック606に示されているように、直交データ(すなわち、信号のI/Q成分)を抽出するための信号プロセッサに結合され、この直交データは、ブロック608に示されているように、解剖学的画像(ブロック610参照)を生成するためのBモードプロセッサに結合され得る。
[053] エコーRF信号及び/又はビームフォーミングされたRF信号のサンプルは、ブロック612に示されているように、ニューラルネットワーク(たとえば、ニューラルネット160)に結合され、次いで、ネットワークのトレーニング及び/又は動作モードに応じて、ネットワークの層を通って伝搬して、イメージングデータ又は任意のタイプの組織情報を生成する。すなわち、いくつかの実施形態では、あるタイプのイメージングデータが、従来の信号処理(たとえば、信号処理経路601)を通して取得され、別のタイプのイメージングデータが、ブロック612に示されているように、生RF信号又はビームフォーミングされたRF信号から直接、(たとえば、ニューラルネットワーク経路613に沿って)入力データの暗黙的又は予測的分析を通して取得される。いくつかの例では、ニューラルネットワークは、深層ニューラルネットワーク(DNN)又は畳み込みニューラルネットワーク(CNN)であり、これは、ハードウェア(たとえば、ハードウェア構成要素に対応するノード)又は(たとえば、ノードがコンピュータコードを使用して表される)ソフトウェアで実施される。いくつかの実施形態では、生RF信号又はビームフォーミングされたRF信号のサンプルの結合は選択的であり、たとえば、ユーザ入力に応答するか、或いはイメージングモード又は臨床適用例に基づいてシステムによって自動的に制御される。ニューラルネットワークは、入力データ(たとえば、生チャネルデータ又はビームフォーミングされたデータ)のタイプに各々関連付けられた複数の異なるモードで動作するようにトレーニングされ、したがって、ニューラルネットワークの対応する動作モードは、ニューラルネットワークへの入力データのタイプに基づいて(自動的に又はユーザ入力に応答して)選択される。ニューラルネットワークによって出力されるイメージングデータ及び/又は組織情報は、Bモードイメージングデータ、ドップラーイメージングデータ、ベクトルフローイメージングデータ、ひずみイメージングデータを含む。ブロック616に示されているように、第1のタイプのイメージングデータと第2のタイプのイメージングデータの両方を含む超音波画像が生成され、超音波システムに動作可能に関連付けられたディスプレイユニット上に表示される。
[054] いくつかの実施形態では、ニューラルネットワークはまた、イメージングデータを生成する際に使用するための補助データを受信する。動作モード中に、トレーニングアルゴリズムに関連付けられたニューラルネットワークは、トレーニングデータセット、たとえば、(たとえば、経路601に沿ってエコー信号を処理することによって取得された)システム自体によって生成された、又はイメージングモダリティとして超音波を利用することも利用しないこともある他のイメージングシステムからの、画像データ又は他の知られている情報を受信する。
[055] 構成要素、システム及び/又は方法が、コンピュータベースシステム又はプログラマブル論理など、プログラマブルデバイスを使用して実施される様々な実施形態では、上記で説明されたシステム及び方法は、「C」、「C++」、「FORTRAN」、「Pascal」、「VHDL」など、様々な知られている又は後で開発されるプログラミング言語のうちのいずれかを使用して実施され得ることを理解されたい。したがって、上記で説明されたシステム及び/又は方法を実施するように、コンピュータなど、デバイスに指示することができる情報を含むことができる、磁気コンピュータディスク、光ディスク、電子メモリなど、様々なストレージメディアが準備され得る。適切なデバイスが、ストレージメディア上に含まれている情報及びプログラムにアクセスすると、ストレージメディアは、デバイスに、情報及びプログラムを提供し、したがって、デバイスが、本明細書で説明されるシステム及び/又は方法の機能を実施することを可能にすることができる。たとえば、ソースファイル、オブジェクトファイル、実行ファイルなど、適切なマテリアルを含んでいるコンピュータディスクが、コンピュータに提供された場合、コンピュータは、情報を受信し、それ自体を適切に構成し、上記の図及びフローチャートで概説された様々なシステム及び方法の機能を実施して、様々な機能を実施することができる。すなわち、コンピュータは、上記で説明されたシステム及び/又は方法の異なる要素に関係する情報の様々な部分をディスクから受信し、個々のシステム及び/又は方法を実施し、上記で説明された個々のシステム及び/又は方法の機能を協調させることができる。
[056] 本開示に鑑みて、本明細書で説明される様々な方法及びデバイスは、ハードウェア、ソフトウェア及びファームウェアで実施され得ることに留意されたい。さらに、様々な方法及びパラメータは、単に例として含まれ、限定を意味するものではない。本開示に鑑みて、当業者は、本発明の範囲内にとどまりながら、自分自身の技法と、これらの技法に影響を及ぼすために必要とされる機器とを決定する際に、本教示を実施することができる。本明細書で説明されるプロセッサのうちの1つ又は複数の機能は、より少数の又は単一の処理ユニット(たとえば、CPU)に組み込まれ、実行可能な命令に応答して本明細書で説明される機能を実施するようにプログラムされた特定用途向け集積回路(ASIC)又は汎用処理回路を使用して実施される。
[057] 本システムは、特に超音波イメージングシステムを参照しながら説明されたが、本システムは、1つ又は複数の画像がシステマティック様式で取得される他の医療イメージングシステムに拡張され得ることも想定される。したがって、本システムは、限定はしないが、腎臓、睾丸、乳房、卵巣、子宮、甲状腺、肝臓、肺、筋骨格、脾臓、心臓、動脈及び脈管システム、並びに超音波ガイドインターベンションに関係する他のイメージング適用例に関係する画像情報を取得及び/又は記録するために使用される。さらに、本システムはまた、従来のイメージングシステムとともに使用される1つ又は複数のプログラムを含み得、したがって、それらは、本システムの特徴及び利点を与え得る。本開示のいくつかの追加の利点及び特徴が、本開示を研究すると当業者に明らかになり、又は本開示の新規のシステム及び方法を利用する人によって体験される。本システム及び方法の別の利点は、従来の医療画像システムが、本システム、デバイス、及び方法の特徴及び利点を組み込むように容易にアップグレードされ得ることである。
[058] もちろん、本明細書で説明される例、実施形態又はプロセスのうちのいずれか1つは、1つ又は複数の他の例、実施形態及び/又はプロセスと組み合わせられるか、或いは、本システム、デバイス及び方法による別個のデバイス又はデバイス部分間で、分離及び/又は実施されることを理解されたい。
[059] 最終的に、上記の説明は、本システムの例示にすぎないことが意図され、添付の特許請求の範囲を特定の実施形態又は実施形態のグループに限定するものと解釈されるべきでない。したがって、本システムは、例示的な実施形態を参照しながら、特に詳細に説明されたが、多数の変更及び代替実施形態が、以下の特許請求の範囲に記載されている本システムのより広い及び意図された趣旨及び範囲から逸脱することなく、当業者によって考案され得ることも理解されたい。したがって、明細書及び図面は、例示的な様式と見なされるべきであり、添付の特許請求の範囲を限定することを意図するものではない。

Claims (15)

  1. 組織に向けて超音波パルスを送信し、前記超音波パルスに応答したエコー信号を生成する、超音波トランスデューサと、
    前記エコー信号を記憶する、チャネルメモリと、
    前記エコー信号に応答して、ビームフォーミングされた信号を生成する、ビームフォーマと、
    前記エコー信号又は前記ビームフォーミングされた信号の1つ又は複数のサンプルを受信し、第1のタイプの超音波イメージングデータを生成する、ニューラルネットワークと、
    第2のタイプの超音波イメージングデータを生成するプロセッサとを備え、
    前記プロセッサが、前記第1のタイプの超音波イメージングデータと前記第2のタイプの超音波イメージングデータとに基づいて、超音波画像を生成する、
    超音波システム。
  2. 前記第2のタイプの超音波イメージングデータが、Bモードイメージングデータを含み、前記第1のタイプの超音波イメージングデータが、ドップラーイメージングデータ、ベクトルフローイメージングデータ、エラストグラフィイメージングデータ、組織タイプ特徴づけデータ、流体を中に含んでいる解剖学的構造の壁せん断応力、組織組成データ、超音波造影剤情報、プラーク特徴づけデータ、前記Bモードイメージングデータに関連付けられた1つ又は複数の診断インジケータのうちの1つ、又はそれらの組合せを含む、請求項1に記載の超音波イメージングシステム。
  3. 前記ニューラルネットワークが、深層ニューラルネットワーク(DNN)又は畳み込みニューラルネットワーク(CNN)を含む、請求項1に記載の超音波システム。
  4. 前記ニューラルネットワークが、少なくとも部分的に、実行可能な命令を備えるコンピュータ可読媒体において実施され、前記実行可能な命令が、前記チャネルメモリ、前記ビームフォーマ、又はその両方に結合されたニューラルネットワークプロセッサによって実行されたとき、前記ニューラルネットワークプロセッサに、前記エコー信号又は前記ビームフォーミングされた信号の前記1つ又は複数のサンプルに応答して前記第1のタイプの超音波イメージングデータを生成するための機械トレーニングアルゴリズムを実施させる、請求項1に記載の超音波イメージングシステム。
  5. 前記ニューラルネットワークへの入力のためのサンプルとして、記憶された前記エコー信号又は前記ビームフォーミングされた信号のサブセットを選択する、データ選択器をさらに備える、請求項1に記載の超音波イメージングシステム。
  6. 前記データ選択器が、前記データ選択器によって受信された制御信号に応答して、エコー信号の前記サンプル又は前記ビームフォーミングされた信号の前記サンプルのうちの1つを、前記ニューラルネットワークに選択的に結合する、請求項5に記載の超音波イメージングシステム。
  7. 前記プロセッサが、ディスプレイに前記超音波画像を表示させる、請求項1に記載の超音波イメージングシステム。
  8. 前記ニューラルネットワークが、入力としての補助データを受信し、前記補助データが、超音波トランスデューサ構成情報、ビームフォーマ構成情報、媒体に関する情報、又はそれらの組合せを含み、前記ニューラルネットワークによって提供された前記イメージングデータが、前記補助データに基づく、請求項1に記載の超音波イメージングシステム。
  9. 前記ニューラルネットワークが、トレーニング入力及び知られている出力のアレイを受信するトレーニングアルゴリズムに動作可能に関連付けられ、前記トレーニング入力が、画像化された組織の領域に関連付けられた、エコー信号、ビームフォーミングされた信号、又はそれらの組合せを含み、前記知られている出力が、前記画像化された組織の知られているプロパティを含む、請求項1に記載の超音波イメージングシステム。
  10. 前記知られているプロパティが、超音波以外のイメージングモダリティを使用して取得される、請求項9に記載の超音波イメージングシステム。
  11. 前記ニューラルネットワークが、複数の動作モードのうちの1つに従って入力データを処理し、前記複数の動作モードのうちの1つが、ユーザ入力に応答して選択されるか、又は前記エコー信号の収集中に前記超音波システムのイメージングモードに基づいて前記超音波システムによって自動的に設定される、請求項1に記載の超音波イメージングシステム。
  12. 前記ニューラルネットワークが、前記第2のタイプの超音波イメージングデータを使用せずに、前記入力データに基づいて前記組織の脂肪含量を予測する、請求項1に記載の超音波イメージングシステム。
  13. 前記ニューラルネットワークが、画像処理回路によって生成された直交信号を使用せずに、前記入力データの時間的に連続するサンプルに基づいて前記組織の解剖学的構造中に含まれている流体のフロープロパティを予測する、請求項1に記載の超音波イメージングシステム。
  14. 前記ニューラルネットワークが、前記エコー信号のサンプルに基づいて、予測されたビームフォーミングされた信号を生成し、前記予測されたビームフォーミングされた信号を使用して、前記第1のタイプの超音波イメージングデータを生成する、請求項1に記載の超音波イメージングシステム。
  15. 前記ディスプレイが、前記超音波システムに電気的に又はワイヤレスに結合される、請求項7に記載の超音波イメージングシステム。
JP2019536272A 2017-01-05 2018-01-03 イメージングデータ及び組織情報を導出するためのニューラルネットワークを用いた超音波イメージングシステム Active JP7132925B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762442691P 2017-01-05 2017-01-05
US62/442,691 2017-01-05
US201762522134P 2017-06-20 2017-06-20
US62/522,134 2017-06-20
PCT/EP2018/050086 WO2018127497A1 (en) 2017-01-05 2018-01-03 Ultrasound imaging system with a neural network for deriving imaging data and tissue information

Publications (3)

Publication Number Publication Date
JP2020503142A true JP2020503142A (ja) 2020-01-30
JP2020503142A5 JP2020503142A5 (ja) 2021-02-12
JP7132925B2 JP7132925B2 (ja) 2022-09-07

Family

ID=61163655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019536272A Active JP7132925B2 (ja) 2017-01-05 2018-01-03 イメージングデータ及び組織情報を導出するためのニューラルネットワークを用いた超音波イメージングシステム

Country Status (5)

Country Link
US (2) US11324485B2 (ja)
EP (1) EP3565479A1 (ja)
JP (1) JP7132925B2 (ja)
CN (1) CN110381845B (ja)
WO (1) WO2018127497A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210116268A (ko) * 2020-03-12 2021-09-27 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 의료 이미징을 사용한 간 질환 활성도 추정
KR20220063096A (ko) * 2020-11-09 2022-05-17 지멘스 메디컬 솔루션즈 유에스에이, 인크. 물리적 양에 대한 초음파-도출된 프록시
US11717267B2 (en) 2020-09-04 2023-08-08 Daegu Gyeongbuk Institute Of Science And Technology Hollow cylindrical ultrasound imaging system for analyzing body composition and operation method of the ultrasound imaging system

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11701086B1 (en) 2016-06-21 2023-07-18 Tissue Differentiation Intelligence, Llc Methods and systems for improved nerve detection
EP3513730A1 (en) * 2018-01-18 2019-07-24 Koninklijke Philips N.V. System and method for image decomposition of a projection image
US11638569B2 (en) 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound
US11426142B2 (en) * 2018-08-13 2022-08-30 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time localization of needles in ultrasound images
JP7358457B2 (ja) * 2018-09-05 2023-10-10 コーニンクレッカ フィリップス エヌ ヴェ 超音波画像による脂肪層の識別
EP3633944B1 (en) * 2018-10-04 2021-07-28 Nokia Solutions and Networks Oy Method and apparatus for signal processing with neural networks
KR102158177B1 (ko) * 2018-11-15 2020-09-22 서강대학교산학협력단 2D 샘플볼륨 기반의 스펙트럴 도플러 영상에서 Neural Network를 이용하여 움직임을 추적하는 기법 및 이를 이용한 초음파 의료 영상 장치
CA3122351A1 (en) * 2018-12-11 2020-06-18 Eko.Ai Pte. Ltd. Automatic clinical workflow that recognizes and analyzes 2d and doppler modality echocardiogram images for automatic cardiac measurements and the diagnosis, prediction and prognosis of heart disease
JP7273519B2 (ja) * 2019-01-17 2023-05-15 キヤノンメディカルシステムズ株式会社 超音波診断装置、及び学習プログラム
JP7273518B2 (ja) * 2019-01-17 2023-05-15 キヤノンメディカルシステムズ株式会社 超音波診断装置、及び学習プログラム
US20200297424A1 (en) * 2019-03-18 2020-09-24 Medtronic Navigation, Inc. System and Method for Imaging
EP3716150A1 (en) * 2019-03-27 2020-09-30 Nvidia Corporation Improved image segmentation using a neural network translation model
JP7269778B2 (ja) * 2019-04-04 2023-05-09 富士フイルムヘルスケア株式会社 超音波撮像装置、および、画像処理装置
US11779312B2 (en) * 2019-06-28 2023-10-10 Siemens Medical Solutions Usa, Inc. Ultrasound medical imaging with optimized speed of sound based on fat fraction
CN110554393B (zh) * 2019-07-12 2023-05-23 华南理工大学 基于深度学习的高对比度最小方差成像方法
US11602331B2 (en) * 2019-09-11 2023-03-14 GE Precision Healthcare LLC Delivery of therapeutic neuromodulation
WO2021058288A1 (en) * 2019-09-26 2021-04-01 Koninklijke Philips N.V. Automatic closed-loop ultrasound plane steering for target localization in ultrasound imaging and associated devices, systems, and methods
US20210100524A1 (en) * 2019-10-07 2021-04-08 The Board Of Trustees Of The Leland Stanford Junior University Vector flow estimation in medical ultrasound using deep learning neural networks
CN111091616B (zh) * 2019-11-25 2024-01-05 艾瑞迈迪医疗科技(北京)有限公司 一种三维超声图像的重建方法及装置
JP7379120B2 (ja) * 2019-11-28 2023-11-14 キヤノン株式会社 超音波診断装置、医用画像撮影装置、学習装置、超音波画像表示方法及びプログラム
EP3835803B1 (en) * 2019-12-13 2024-03-27 Siemens Healthineers AG System and method for estimating a relative substance composition of a portion of a body of a patient
CN110874828B (zh) * 2020-01-20 2020-04-21 上海尽星生物科技有限责任公司 神经网络模型及基于神经网络模型的超声波束形成方法
US20210228187A1 (en) * 2020-01-29 2021-07-29 GE Precision Healthcare LLC System and methods for contrast-enhanced ultrasound imaging
CN111803128A (zh) * 2020-07-15 2020-10-23 深圳大学 一种乳腺组织弹性成像方法、装置、设备和介质
US11457891B2 (en) 2020-08-17 2022-10-04 Clarius Mobile Health Corp. Method and system for defining cut lines to generate a 3D fetal representation
CN112230171B (zh) * 2020-09-08 2022-11-25 上海联影医疗科技股份有限公司 磁共振接收机、磁共振系统和信号接收方法
US20230377246A1 (en) * 2020-09-29 2023-11-23 Koninklijke Philips N.V. Rendering of b-mode images based on tissue differentiation
CN116051429B (zh) * 2023-03-31 2023-07-18 深圳时识科技有限公司 数据增强方法、脉冲神经网络训练方法、存储介质和芯片

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2434454A2 (en) * 2010-09-27 2012-03-28 Siemens Corporation Computerized characterization of cardiac motion in medical diagnostic ultrasound

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
WO2009132188A1 (en) * 2008-04-24 2009-10-29 Boston Scientific Scimed, Inc. Methods, systems, and devices for tissue characterization by spectral similarity of intravascular ultrasound signals
US20090318808A1 (en) * 2008-05-16 2009-12-24 Brader Eric William Ultrasound device and system including same
US9844359B2 (en) * 2013-09-13 2017-12-19 Decision Sciences Medical Company, LLC Coherent spread-spectrum coded waveforms in synthetic aperture image formation
CN103479398A (zh) * 2013-09-16 2014-01-01 华南理工大学 一种基于超声射频流分析的肝组织微结构的检测方法
US10835210B2 (en) * 2015-03-30 2020-11-17 Siemens Medical Solutions Usa, Inc. Three-dimensional volume of interest in ultrasound imaging
US10430688B2 (en) 2015-05-27 2019-10-01 Siemens Medical Solutions Usa, Inc. Knowledge-based ultrasound image enhancement
CN107683113B (zh) * 2015-06-04 2021-06-15 皇家飞利浦有限公司 用于通过癌症分级绘图增强的精确诊断和治疗的系统和方法
CN105760825A (zh) * 2016-02-02 2016-07-13 深圳市广懋创新科技有限公司 一种基于切比雪夫前向神经网络的手势识别系统和方法
US10748277B2 (en) * 2016-09-09 2020-08-18 Siemens Healthcare Gmbh Tissue characterization based on machine learning in medical imaging

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2434454A2 (en) * 2010-09-27 2012-03-28 Siemens Corporation Computerized characterization of cardiac motion in medical diagnostic ultrasound

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210116268A (ko) * 2020-03-12 2021-09-27 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 의료 이미징을 사용한 간 질환 활성도 추정
KR102617857B1 (ko) * 2020-03-12 2023-12-22 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 의료 이미징을 사용한 간 질환 활성도 추정
US11717267B2 (en) 2020-09-04 2023-08-08 Daegu Gyeongbuk Institute Of Science And Technology Hollow cylindrical ultrasound imaging system for analyzing body composition and operation method of the ultrasound imaging system
KR20220063096A (ko) * 2020-11-09 2022-05-17 지멘스 메디컬 솔루션즈 유에스에이, 인크. 물리적 양에 대한 초음파-도출된 프록시
KR102661893B1 (ko) * 2020-11-09 2024-04-26 지멘스 메디컬 솔루션즈 유에스에이, 인크. 물리적 양에 대한 초음파-도출된 프록시

Also Published As

Publication number Publication date
WO2018127497A1 (en) 2018-07-12
CN110381845B (zh) 2022-08-12
US20190336108A1 (en) 2019-11-07
US11324485B2 (en) 2022-05-10
CN110381845A (zh) 2019-10-25
JP7132925B2 (ja) 2022-09-07
US20220225967A1 (en) 2022-07-21
EP3565479A1 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
US20220225967A1 (en) Ultrasound imaging system with a neural network for deriving imaging data and tissue information
US11364013B2 (en) Ultrasound imaging system with a neural network for image formation and tissue characterization
US11635514B2 (en) Imaging methods and apparatuses for performing shear wave elastography imaging
KR102006035B1 (ko) 초음파 촬영을 이용한 관 특성기술
US11100665B2 (en) Anatomical measurements from ultrasound data
US20240122574A1 (en) Systems, methods, and apparatuses for confidence mapping of shear wave imaging
US20230134503A1 (en) Systems and methods for non-invasive pressure measurements
EP3914161B1 (en) Methods and systems for investigating blood vessel characteristics
WO2019192970A1 (en) Ultrasonic shear wave imaging with improved accuracy and reliability
US11109841B2 (en) Method and system for simultaneously presenting doppler signals of a multi-gated doppler signal corresponding with different anatomical structures
US11468573B2 (en) Method and system for enhanced visualization of color flow ultrasound
KR101956460B1 (ko) 초음파 의료영상 장치를 이용한 미세석회화 조직 검출 방법 및 그 초음파 의료영상 장치
WO2024013114A1 (en) Systems and methods for imaging screening
Bu Higher-order ultrasonic strain imaging for assessment of regional myocardial function

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211008

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R150 Certificate of patent or registration of utility model

Ref document number: 7132925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150