JP2021530303A - 深層学習による超音波イメージング、並びに関連デバイス、システム、及び方法 - Google Patents

深層学習による超音波イメージング、並びに関連デバイス、システム、及び方法 Download PDF

Info

Publication number
JP2021530303A
JP2021530303A JP2021502524A JP2021502524A JP2021530303A JP 2021530303 A JP2021530303 A JP 2021530303A JP 2021502524 A JP2021502524 A JP 2021502524A JP 2021502524 A JP2021502524 A JP 2021502524A JP 2021530303 A JP2021530303 A JP 2021530303A
Authority
JP
Japan
Prior art keywords
ultrasonic
image
subject
channel data
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021502524A
Other languages
English (en)
Other versions
JPWO2020016449A5 (ja
Inventor
スンス キム
ジュン ソブ シン
フランソワ ガイ ジェラルド マリエ ヴィニョン
ジャン‐ルック フランソワ‐マリエト ロベルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021530303A publication Critical patent/JP2021530303A/ja
Publication of JPWO2020016449A5 publication Critical patent/JPWO2020016449A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52025Details of receivers for pulse systems
    • G01S7/52026Extracting wanted echo signals
    • G01S7/52028Extracting wanted echo signals using digital techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • G01S7/52042Details of receivers using analysis of echo signal for target characterisation determining elastic properties of the propagation medium or of the reflective target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52044Scan converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

超音波イメージングデバイス、システム、及び方法が提供される。一実施形態では、超音波イメージングシステムは、超音波トランスデューサから生成された被検者の解剖学的構造を表す超音波チャネルデータを受信し、超音波チャネルデータに予測ネットワークを適用して、被検者の解剖学的構造の画像を生成し、プロセッサと通信するディスプレイに、被検者の解剖学的構造の画像を出力するプロセッサを含む。一実施形態では、画像を生成するためのシステムは、少なくとも1つの機械学習ネットワークを記憶するメモリと、メモリと通信するプロセッサとを含み、プロセッサは、超音波トランスデューサから生成された生のチャネルデータを受信し、生のチャネルデータに機械学習ネットワークを適用して1つ以上の画像処理ステップを置換し、それによって修正データを生成し、修正データを使用して画像を生成する。

Description

[0001] 本開示は、一般に、超音波イメージングに関し、特に、予測モデルを使用して、取得された超音波エコー応答から超音波画像を再構成することに関する。
[0002] 超音波イメージングシステムは、医用イメージングに広く使用されている。従来の医用超音波システムは、取得された生データから画像を再構成するには複雑なハードウェア及びソフトウェアを必要とする。例えば、従来の医用超音波システムは、処理システムに結合された超音波トランスデューサプローブと、1つ以上のディスプレイデバイスとを含む。超音波トランスデューサプローブは、音響波を物体(例えば、患者の身体)内に送信し、物体から反射された音響波を記録する超音波トランスデューサ素子のアレイを含む。音響波の送信及び/又は反射された音響波、すなわち、エコー応答の受信は、同じセットの超音波トランスデューサ素子又は異なるセットの超音波トランスデューサ素子によって行われてよい。処理システムは、ビーム形成処理、信号処理、及び/又は画像処理技法を適用することによって、エコー応答から物体の画像を再構成又は作成し、及び/又は特定の測定値を求める。ビーム形成処理、信号処理、及び/又は画像処理は複雑であり、処理に様々な電子機器、専用ハードウェア、及び複雑なソフトウェアを必要とする。したがって、従来の医用超音波システムの複雑度は高く、新しいシステムアーキテクチャやアプリケーションの開発時間は長く、コストがかかり、超音波イメージングの用途を制限している。
[0003] 既存の超音波イメージングは、臨床ガイダンス及び診断に有用であることが証明されているが、現在の超音波イメージング用途のためのシステムコスト及びシステムサイズを低減し、新しい超音波イメージング用途のための開発時間及び努力を低減するための改良されたシステム及び技法が依然として必要とされている。
本開示の実施形態は、取得された超音波エコーデータから超音波画像を再構成するための深層学習フレームワークを提供する。例えば、トランスデューサアレイを含むイメージングプローブを超音波イメージングに使用する。トランスデューサアレイは、物体(例えば、患者の解剖学的構造)に超音波パルスを放出し、超音波エコー応答(例えば、物体から反射された超音波)を受信する音響素子のアレイを含む。予測ネットワーク(例えば、畳み込みニューラルネットワーク(CNN))がトレーニングされて、取得された超音波エコー応答から超音波画像を再構成する。例えば、予測ネットワークは、従来のビーム形成処理及び超音波信号及び/又は画像処理機能を近似及び最適化するようにトレーニングされる。超音波エコー応答は、様々なフォーマットで、例えば、チャネルごとの生の無線周波数(RF)データ又はチャネルごとのベースバンド同相直交位相(IQ)データの形式で予測ネットワークに提供される。あるいは、予測ネットワークは、取得された生の超音波エコーデータの代わりに、ビーム形成されたデータから超音波画像を再構成するようにトレーニングされてもよい。一実施形態では、予測ネットワークは、従来の方法で構成された超音波画像よりも高品質の高解像度でスペックルフリーの超音波画像を生成するようにトレーニングされる。
[0004] 一実施形態では、超音波イメージングシステムは、超音波トランスデューサから生成された被検者の解剖学的構造を表す超音波チャネルデータを受信し、超音波チャネルデータに予測ネットワークを適用して、被検者の解剖学的構造の画像を生成し、プロセッサと通信するディスプレイに、被検者の解剖学的構造の画像を出力するプロセッサを含む。
[0005] いくつかの実施形態では、超音波トランスデューサは、音響素子のアレイを含む。超音波チャネルデータは、複数の超音波エコーチャネルデータストリームを含み、複数の超音波エコーチャネルデータストリームのそれぞれは、音響素子のアレイの1つの音響素子から生成される。いくつかの実施形態では、複数の超音波エコーチャネルデータストリームは、被検者の解剖学的構造を表す無線周波数(RF)データを含む。いくつかの実施形態では、プロセッサはさらに、予測ネットワークを適用する前に、RFデータを同相直交位相(IQ)データに変換する。いくつかの実施形態では、プロセッサはさらに、予測ネットワークを適用する前に、超音波エコーチャネルデータストリームに対してビーム形成処理を行う。いくつかの実施形態では、画像は、被検者の解剖学的構造の形態学的情報、被検者の解剖学的構造の機能情報、又は被検者の解剖学的構造の定量的測定値の少なくとも1つを含む。いくつかの実施形態では、画像は、被検者の解剖学的構造のBモード情報、被検者の解剖学的構造のストレス情報、被検者の解剖学的構造の弾性情報、被検者の解剖学的構造の組織ドップラー情報、又は被検者の解剖学的構造の血流ドップラー情報の少なくとも1つを含む。いくつかの実施形態では、予測ネットワークは、テスト超音波チャネルデータ、及び、テスト物体を表す対応するテスト画像を提供することと、テスト超音波チャネルデータからテスト画像を生成するように予測ネットワークをトレーニングすることとによって、トレーニングされる。いくつかの実施形態では、テスト画像は、テスト超音波チャネルデータに対して、ビーム形成処理、Bモード処理、ドップラー処理、又はスキャン変換処理の少なくとも1つを行うことによって、テスト超音波チャネルデータから生成される。いくつかの実施形態では、テスト超音波チャネルデータは、超音波トランスデューサ構成パラメータに基づいてテスト画像から生成される。いくつかの実施形態では、テスト超音波チャネルデータは、無線周波数(RF)データ、同相直交位相(IQ)データ、又はビーム形成済みデータの少なくとも1つを含む。いくつかの実施形態では、システムは、超音波トランスデューサを含む超音波イメージングプローブを含み、プロセッサは、超音波トランスデューサと通信し、超音波トランスデューサから超音波チャネルデータを受信する。いくつかの実施形態では、超音波イメージングプローブは、プロセッサを含む。
[0006] 一実施形態では、超音波イメージング方法は、超音波トランスデューサから生成された被検者の解剖学的構造を表す超音波チャネルデータを受信するステップと、超音波チャネルデータに予測ネットワークを適用して被検者の解剖学的構造の画像を生成するステップと、ディスプレイによって被検者の解剖学的構造の画像を表示するステップとを含む。
[0007] いくつかの実施形態では、超音波トランスデューサは、音響素子のアレイを含む。超音波チャネルデータは、複数の超音波エコーチャネルデータストリームを含み、複数の超音波エコーチャネルデータストリームのそれぞれは、音響素子のアレイの1つの音響素子から生成される。いくつかの実施形態では、複数の超音波エコーチャネルデータストリームは、被検者の解剖学的構造を表す無線周波数(RF)データを含む。いくつかの実施形態では、方法はさらに、予測ネットワークを適用する前に、RFデータを同相直交位相(IQ)データに変換するステップを含む。いくつかの実施形態では、方法はさらに、予測ネットワークを適用する前に、超音波エコーチャネルデータストリームに対してビーム形成処理を行うステップを含む。いくつかの実施形態では、画像は、被検者の解剖学的構造の形態学的情報、被検者の解剖学的構造の機能情報、又は被検者の解剖学的構造の定量的測定値の少なくとも1つを含む。いくつかの実施形態では、画像は、被検者の解剖学的構造のBモード情報、被検者の解剖学的構造のストレス情報、被検者の解剖学的構造の弾性情報、被検者の解剖学的構造の組織ドップラー情報、又は被検者の解剖学的構造の血流ドップラー情報の少なくとも1つを含む。
[0008] 一実施形態では、画像を生成するためのシステムは、少なくとも1つの機械学習ネットワークを記憶するメモリと、メモリと通信するプロセッサとを含み、プロセッサは、超音波トランスデューサから生成された生のチャネルデータを受信し、生のチャネルデータに機械学習ネットワークを適用して1つ以上の画像処理ステップを置換し、それによって修正データを生成し、修正データを使用して画像を生成する。機械学習ネットワークは、1つ以上のターゲット画像の複数の超音波画像を使用してトレーニングされ、生成された画像は、ターゲット画像の特徴を含む。
[0009] いくつかの実施形態では、複数の超音波画像はシミュレートされる。いくつかの実施形態では、画像処理ステップは、ビーム形成処理、フィルタリング処理、ダイナミックレンジ適用処理、及び圧縮処理を含む。いくつかの実施形態では、ターゲット画像は写真画像を含む。いくつかの実施形態では、特徴は約1波長以下の解像度を含む。いくつかの実施形態では、特徴はある量のスペックルを含む。
[0010] 本開示のさらなる態様、特徴、及び利点は、以下の詳細な説明から明らかになるであろう。
[0011] 本開示の例示的な実施形態を添付の図面を参照しながら説明する。
[0012]図1は、本発明の態様による超音波イメージングシステムの概略図である。 [0013]図2は、本発明の態様による深層学習に基づく超音波イメージングシステムの概略図である。 [0014]図3は、本発明の態様による深層学習ネットワークの構成を示す概略図である。 [0015]図4は、本発明の態様による深層学習ネットワークトレーニングデータ生成スキームを示す概略図である。 [0016]図5は、本発明の態様による、超音波画像を生成するための深層学習ネットワークトレーニングスキームを示す概略図である。 [0017]図6は、本発明の態様による、超音波画像を生成するための深層学習ネットワークトレーニングスキームを示す概略図である。 [0018]図7は、本発明の態様による、ターゲット画像と比較される、従来のイメージングから生成された画像及び深層学習に基づくイメージングから生成された画像を示す。 [0019]図8は、本発明の態様による深層学習ベースの超音波イメージング方法のフロー図である。
[0020] 本開示の原理の理解を促進する目的のために、ここで、図面に示される実施形態を参照し、それを説明するために特定の言語を使用する。しかしながら、本開示の範囲への限定は意図されないことが理解される。説明されるデバイス、システム、及び方法に対する任意の変更及びさらなる修正、並びに本開示の原理の任意のさらなる用途は、本開示が関係する当業者に通常想起されるように、本開示内に十分に企図され、含まれている。特に、本開示の一実施形態に関して説明される特徴、構成要素、及び/又はステップは、他の実施形態に関して説明される特徴、構成要素、及び/又はステップと組み合わせ得ることが十分に企図されている。しかしながら、簡潔さのために、これらの組合せの多数の反復は、個別には説明しない。
[0021] 図1は、本開示の態様による超音波イメージングシステム100の概略図である。システム100は、患者の身体の領域又はボリュームをスキャンするために使用される。システム100は、通信インターフェース又はリンク120を介してホスト130と通信する超音波イメージングプローブ110を含む。プローブ110は、トランスデューサ112、アナログフロントエンド(AFE)113、ビームフォーマ114、処理構成要素116、及び通信インターフェース118を含む。ホスト130は、ディスプレイ132、処理構成要素134、通信インターフェース136、及びメモリ138を含む。
[0022] プローブ110は、患者の身体の内側又は外側に配置されている間に患者の様々な身体部分をイメージングするための任意の適切な形態であってよい。一実施形態では、プローブ110は、ユーザによるハンドヘルド操作のために構成されたハウジングを含む外部超音波イメージングデバイスである。トランスデューサ112は、トランスデューサ112が患者の皮膚に隣接して及び/又は接触して配置されるように、ユーザがプローブ110のハウジングを把持する間に超音波データを取得する。プローブ110は、プローブ110が患者の身体の外側に配置されている間に、患者の身体の内側の解剖学的構造の超音波データを取得する。いくつかの他の実施形態では、プローブ110は、カテーテル、血管内超音波(IVUS)カテーテル、心臓内超音波検査(ICE)カテーテル、経食道心エコー検査(TEE)プローブ、経胸腔心エコー検査(TTE)プローブ、腔内プローブ、ハンドヘルド超音波スキャナ、又はパッチベースの超音波デバイスの形態であってもよい。
[0023] トランスデューサ112は、解剖学的物体105に向けて超音波信号を放出し、物体105から反射されてトランスデューサ112に戻るエコー信号を受信する。物体105は、超音波イメージング検査に適した患者の任意の解剖学的構造(例えば、肺、血管、組織、心臓、腎臓、及び/又は肝臓)を含んでよい。超音波トランスデューサ112は、1つ以上の音響素子及び/又は複数の音響素子を含む、任意の適切な数の音響素子を含む。いくつかの実施例では、トランスデューサ112は単一の音響素子を含む。いくつかの例では、トランスデューサ112は、任意の数の音響素子が任意の適切な構成にある音響素子のアレイを含む。例えば、トランスデューサ112は、1〜1000個の音響素子、例えば、2個の音響素子、4個の音響素子、36個の音響素子、64個の音響素子、128個の音響素子、500個の音響素子、812個の音響素子、及び/又は、より大きい数及びより小さい数の音響素子を含む。いくつかの例では、トランスデューサ112は、線形アレイ、平面アレイ、曲面アレイ、曲線アレイ、円周アレイ、環状アレイ、フェーズドアレイ、マトリクスアレイ、1次元(1D)アレイ、1.x次元アレイ(例えば、1.5Dアレイ)、又は2次元(2D)アレイなどの、任意の数の音響素子が任意の適切な構成にある音響素子のアレイを含む。音響素子のアレイ(例えば、1つ以上の行、1つ以上の列、及び/又は1つ以上の向き)は、均一に又は独立して制御され、駆動され得る。トランスデューサ112は、患者の解剖学的構造の1次元、2次元、及び/又は3次元画像を取得できる。音響素子は、トランスデューサ素子又はイメージング素子とも呼ぶ。いくつかの実施形態では、トランスデューサ112は、圧電型微細加工超音波トランスデューサ(PMUT)、容量型微細加工超音波トランスデューサ(CMUT)、単結晶、チタン酸ジルコン酸鉛(PZT)、PZT複合体、他の適切なトランスデューサタイプ、及び/又はこれらの組合せを含み得る。
[0024] AFE113は、トランスデューサ112に結合される。AFE113は、トランスデューサ112における超音波の送信及び/又はトランスデューサ112におけるエコー応答の受信を制御する構成要素を含む。例えば、送信経路では、AFE113は、デジタル−アナログ変換器(DAC)、フィルタ、利得制御器、及び/又はトランスデューサ112の音響素子又はトランスデューサ素子での超音波パルス放出を駆動又はトリガする高電圧(HV)送信器を含む。受信経路では、AFE113は、ゲイン制御器、フィルタ、及びトランスデューサ112のトランスデューサ素子からのエコー応答を受信するアナログ−デジタル変換器(ADC)を含む。AFE113はさらに、トランスデューサ素子での送信と受信との切り替えを制御し、高電圧パルスがトランスデューサ112のトランスデューサ素子を損傷するのを防ぐ複数の送信/受信(T/R)スイッチを含む。
[0025] 一実施形態では、トランスデューサ112は、M個の複数のトランスデューサ素子を含む。いくつかの実施形態では、Mは約2、16、64、128、192、又は192より大きくてもよい。受信経路では、各トランスデューサ素子は、反射された超音波パルスから受け取った超音波エネルギーを電気信号に変換し、単一の受信チャネルを形成する。換言すれば、トランスデューサ112は、M個のアナログ超音波エコーチャネル信号160を生成する。AFE113は、M本の信号線を介してトランスデューサ112に結合される。AFE113内のADCは、それぞれ、トランスデューサ112内のトランスデューサ素子のうちの1つで受信されたアナログ超音波エコーチャネル信号160に対応する、M個のデジタル超音波エコーチャネル信号162を生成する。デジタル超音波エコーチャネル信号162は、超音波エコーデータストリームとも呼ぶ。
[0026] ビームフォーマ114はAFE113に結合される。ビームフォーマ114は、トランスデューサ112における送信及び/又は受信ビーム形成を制御する遅延素子及び加算素子を含む。ビームフォーマ114は、デジタル超音波エコーチャネル信号162の少なくともサブセットに適切な時間遅延を適用し、時間遅延されたデジタル超音波エコーチャネル信号を組み合わせて、ビーム形成された信号164(例えば、集束されたビーム)を形成する。例えば、ビームフォーマ114は、L個の複数のビーム形成された信号164を生成し、ここで、Lは、Mよりも小さい正の整数である。いくつかの実施形態では、ビームフォーマ114は、複数段のビーム形成を含む。例えば、ビームフォーマ114は、部分ビーム形成を行って、デジタル超音波エコーチャネル信号162のサブセットを組み合わせて、部分ビーム形成された信号を形成し、続いて、部分ビーム形成された信号をビーム形成して、完全ビーム形成された信号を生成する。ビームフォーマ114は、デジタルビーム形成のコンテキストで説明されているが、いくつかの実施形態では、AFE113がアナログ部分ビーム形成のための電子機器及び/又は専用ハードウェアを含むことができる。
[0027] 処理構成要素116はビームフォーマ114に結合される。処理構成要素116は、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、コントローラ、フィールドプログラマブルゲートアレイ(FPGA)デバイス、別のハードウェアデバイス、ファームウェアデバイス、又は本明細書で説明する演算を実行するそれらの任意の組合せを含み得る。処理構成要素134はまた、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと併用される1つ以上のマイクロプロセッサ、又は任意の他のそのような構成として実装されてもよい。処理構成要素116は、ビーム形成信号164を処理する。例えば、処理構成要素116は、ビーム形成信号164に対して、複合化、包絡線検出、対数圧縮、及び/又は非線形画像フィルタリングなどの一連のコヒーレント及び/又はインコヒーレント信号処理を行い、画像信号166を生成する。
[0028] 通信インターフェース118は処理構成要素116に結合される。通信インターフェース118は、1つ以上の送信器、1つ以上の受信器、1つ以上のトランシーバ、及び/又は通信信号を送受信するための回路を含む。通信インターフェース118は、通信リンク120を介してホスト130に信号を伝送するのに適した特定の通信プロトコルを実施するハードウェア構成要素及び/又はソフトウェア構成要素を含む。通信インターフェース118は、通信装置又は通信インターフェースモジュールと呼んでもよい。
[0029] 通信リンク120は、任意の適切な通信リンクとすることができる。例えば、通信リンク120は、ユニバーサルシリアルバス(USB)リンク又はイーサネット(登録商標)リンクなどの有線リンクである。あるいは、通信リンク120は、超広帯域(UWB)リンク、電気電子技術者協会(IEEE)802.11Wi−Fi(登録商標)リンク、又はBluetooth(登録商標)リンクなどの無線リンクであってもよい。
[0030] ホスト130において、通信インターフェース136は、画像信号166を受信する。通信インターフェース136は、通信インターフェース118と実質的に類似している。ホスト130は、ワークステーション、パーソナルコンピュータ(PC)、ラップトップ、タブレット、又は携帯電話などの任意の適切な計算及び表示デバイスであってよい。
[0031] 処理構成要素134は通信インターフェース136に結合される。処理構成要素134は、ソフトウェア構成要素とハードウェア構成要素との組合せとして実装される。処理構成要素134は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、コントローラ、FPGAデバイス、別のハードウェアデバイス、ファームウェアデバイス、又は本明細書で説明する演算を実行するそれらの任意の組合せを含み得る。処理構成要素134はまた、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと併用される1つ以上のマイクロプロセッサ、又は任意の他のそのような構成として実装されてもよい。
[0032] 処理構成要素134は、プローブ110から受け取った画像信号166から、物体105の画像168を生成又は再構成する。処理構成要素134はさらに、画像信号166に画像処理技法を適用する。いくつかの実施形態では、処理構成要素134は、スキャン変換を行い、画像データから2D又は3次元(3D)ボリューム画像を形成する。いくつかの実施形態では、処理構成要素134は、画像信号166にリアルタイム処理を行い、物体105の超音波画像168のストリーミングビデオを提供する。画像168は、プローブ110で使用される取得様式に応じて、物体105の形態学的情報、機能情報、及び/又は定量的測定値を含む。形態学的情報は、物体105の解剖学的構造情報(例えば、Bモード情報)を含む。機能情報の例としては、物体105に関連する組織ストレイン、弾性、ドップラーフロー、組織ドップラーフロー、及び/又は血流情報が挙げられる。定量的測定値の例としては、血流速度、血流ボリューム、管腔直径、管腔面積、狭窄長、プラーク負荷、及び/又は組織弾性が挙げられる。いくつかの実施形態では、処理構成要素134は、画像信号166に画像解析を行い、物体105に関連する臨床状態を判定する。
[0033] ディスプレイ132は処理構成要素134に結合される。ディスプレイ132は、モニタ又は任意の適切なディスプレイとすることができる。ディスプレイ132は、超音波画像、画像ビデオ、及び/又は検査中の物体105に関連する情報を表示する。
[0034] システム100は、プローブ110において、ビームフォーマ114によってビーム形成機能が行われ、処理構成要素116によって信号処理機能が行われるものとして説明しているが、いくつかの実施形態では、ビーム形成機能及び/又は信号処理機能の少なくとも一部はホスト130において行われてもよい。換言すれば、プローブ110は、デジタル超音波エコーチャネル信号162又はビーム形成信号164を処理のためにホスト130に転送してもよい。いくつかの他の実施形態では、プローブ110は、アナログ超音波エコーチャネル信号160を、例えば、いくつかの利得制御及び/又はフィルタリングを用いて、処理のためにホスト130に転送してもよい。さらに、プローブ110における通信インターフェース118は、業界標準の物理コネクタ及び/又は独自の物理コネクタであってもよく、通信リンク120は、任意の業界標準ケーブル、同軸ケーブル、及び/又は独自のケーブルを含んでもよい。一般に、システム100は、あらゆるタイプの超音波イメージングシステムを表すことができ、超音波イメージング機能は、プローブ(例えば、トランスデューサ112を含む)、ホスト、及び/又はプローブとホストとの間の任意の中間処理サブシステムにわたって任意の適切なやり方で分割されてよい。
[0035] システム100は、超音波イメージングの様々な段階での使用のために構成される。一実施形態では、システム100は、本明細書でより詳細に説明されるように、超音波画像を収集して、超音波イメージング用の深層学習ネットワークをトレーニングするためのトレーニングデータセットを形成するために使用される。例えば、ホスト130は、キャッシュメモリ(例えば、処理構成要素134のキャッシュメモリ)、ランダムアクセスメモリ(RAM)、磁気抵抗RAM(MRAM)、読出し専用メモリ(ROM)、プログラマブル読出し専用メモリ(PROM)、消去可能プログラマブル読出し専用メモリ(EPROM)、電気的消去可能プログラマブル読出し専用メモリ(EEPROM)(登録商標)、フラッシュメモリ、ソリッドステートメモリデバイス、ハードディスクドライブ、ソリッドステートドライブ、その他の形態の揮発性及び不揮発性メモリ、又は異なる種類のメモリの組み合わせなど、任意の適切な記憶デバイスであるメモリ138を含む。メモリ138は、画像データセット140及び機械学習ネットワーク142を記憶する。例えば、画像データセット140は、デジタル超音波エコーチャネル信号162を、対応する画像168との関連で記憶する。画像データセット140を使用して、本明細書でより詳細に説明されるように、超音波イメージング用の深層学習ネットワークである機械学習ネットワーク142をトレーニングする。
[0036] システム100に見られるように、生の取得データ(例えば、アナログ超音波エコーチャネル信号160及び/又はデジタル超音波エコーチャネル信号162)からの超音波画像の生成又は再構成には、ビーム形成処理と、一連の信号処理及び/又は画像処理ブロック(例えば、ビームフォーマ114、プローブ110の処理構成要素116及び/又はホスト130の処理構成要素134)が必要である。生データからの画像再構成に必要なハードウェア及び/又はソフトウェアは、複雑でコストがかかる。さらに、新しい超音波イメージング用途を展開するための開発時間は、システムの複雑さのために長くなる。
[0037] 本開示は、従来の超音波画像再構成技法(例えば、ビーム形成処理、信号処理、及び/又は画像処理)の代わりに機械学習ネットワークを使用して、生のチャネルデータから超音波画像を再構成又は生成する技法を提供する。
[0038] 図2は、本開示の態様による、深層学習ベースの超音波イメージングシステム200の概略図である。システム200は、超音波イメージングプローブ210と、深層学習エンジン220と、ディスプレイ230とを含む。プローブ210及びディスプレイ230は、それぞれ、プローブ110及びディスプレイ132と実質的に同様である。例えば、プローブ210は、少なくとも、トランスデューサ112と同様のトランスデューサ素子212のアレイ214を含む。トランスデューサ素子212は、物体205(例えば、物体105)に向かって超音波信号を放出し、物体205から反射された超音波エコー応答を受信する。実施形態に応じて、プローブ210は、ビームフォーマ(例えば、ビームフォーマ114)及び/又は処理構成要素(例えば、処理構成要素116)を含んでも含まなくてもよい。高レベルでは、深層学習エンジン220が、超音波エコー応答を受信し、ディスプレイ230での表示のために、物体205の超音波画像(例えば、画像168)を出力する。
[0039] 深層学習エンジン220は、従来の超音波画像再構成演算に取って代わる、超音波エコー応答に深層学習ネットワーク222(例えば、機械学習ネットワーク142)を適用して、超音波画像を生成するハードウェア及び/又はソフトウェア構成要素を含む。従来の超音波画像再構成演算は、受信ビーム形成演算240及びバックエンド処理演算242を含む。深層学習ネットワーク222は、関数近似及びパラメータ最適化によって、従来の超音波画像再構成演算に取って代わる。
[0040] 一例として、プローブ210から取得された超音波エコー応答は、in(c,t)で表され、ここで、cはチャネルインデックスを表し、tは時間を表す。取得データin(c,t)は、システム100のデジタル超音波エコーチャネル信号162と同様である。取得データin(c,t)は、RFデータとも呼び、各チャネルは1つのトランスデューサ素子212に対応する。
[0041] 受信ビーム形成演算240は、図1に関して上述したシステム100のビームフォーマ114によって適用される演算と実質的に同様である。例えば、ビーム形成演算240は、生のRFデータin(c,t)からビーム形成されたRFデータを生成又は再構成する。ビーム形成演算240は、以下のように表すことができる:
Figure 2021530303
ここで、bfは、ビーム形成されたRFデータを表し、x及びyは、空間座標であり、fBFは、ビーム形成伝達関数であり、parAは、音速、アポダイゼーション関数、線密度に関連する1つ以上のビーム形成最適化パラメータ、及び/又はビーム形成に関連する任意のパラメータを含む。
[0042] バックエンド処理演算242は、図1に関して上述したシステム100の処理構成要素116及び/又は処理構成要素134によって適用される演算と実質的に同様である。例えば、バックエンド処理演算242は、ビーム形成されたRFデータbf(x,y)から出力画像を生成又は再構成する。バックエンド処理演算242は、以下のように表すことができる:
Figure 2021530303
ここで、outは、出力画像を表し、fBEは、複合化、包絡線検出、対数圧縮、非線形画像フィルタリング、Bモード処理、ドップラー処理、スキャン変換、及び/又は画像後処理を含むコヒーレント及び/又は非コヒーレント信号処理機能を表す超音波イメージングバックエンド処理伝達関数であり、parBは、非線形圧縮曲線、ダイナミックレンジ、利得フィルタ係数に関連する1つ以上のバックエンド処理最適化パラメータ、及び/又は超音波画像再構成に関連する任意のパラメータを含む。
[0043] 受信した生チャネルデータin(c,t)から最終的な最適化された超音波画像out(x,y)への、fとして示される全体的な超音波イメージング再構成伝達関数は、以下のように表すことができる:
Figure 2021530303
[0044] 深層学習ネットワーク222は、最適化されたパラメータparA及びparBを用いて関数fを近似するようにトレーニングされる。深層学習ネットワーク222のアーキテクチャ及び深層学習ネットワーク222のトレーニングについて、本明細書でより詳細に説明する。
[0045] 一実施形態では、プローブ210から取得された生のチャネルデータin(c,t)は、画像データ252として示され、クラウドストレージネットワーク250に送信され、記憶される。深層学習エンジン220は、ホスト130と同様の遠隔処理システムにある。遠隔処理システムは、生のチャネルデータが取得される場所とは異なる部屋や建物内など、患者及びプローブ210から遠隔に配置される。例えば、生のチャネルデータは、病院又は他の臨床施設内の部屋などのポイントオブケア環境においてプローブ210によって取得される。遠隔処理システムは、施設の異なる部屋又は異なる施設にあってもよい。遠隔処理システムは、クラウドストレージネットワーク250内の画像データ252にアクセスし、深層学習エンジン220が画像データ252に適用されて、出力超音波画像out(x,y)が生成される。出力超音波画像は、出力超音波画像をレビューするために患者や臨床医がいる異なる場所に送信されてもよい。例えば、出力超音波画像は、生のチャネルデータが取得された部屋などのポイントオブケア場所、又は患者/臨床医が超音波画像をレビューする異なる部屋に送信される。このようにして、深層学習エンジン220は画像データ252に適用され、出力超音波画像が、生チャネルデータが取得された場所、及び/又は患者/臨床医が出力超音波画像をレビューする場所から離れた場所で生成される。
[0046] 図2は、深層学習エンジン220を、プローブ210に対する外部構成要素として図示しているが、いくつかの実施形態では、深層学習エンジン220は、プローブ210に対する内部構成要素として統合(例えば、ASIC又はFPGAデバイスとして実装)されてもよい。
[0047] 一般に、本開示の態様は、機械学習ネットワークを使用して、従来の超音波画像を生成するために必要とされる1つ以上の従来の超音波画像処理ステップを置き換えることについて説明する。生チャネルデータに対して実行される従来の画像処理ステップ(例えば、ビーム形成処理、フィルタリング処理、ダイナミックレンジ適用処理、及び/又は圧縮処理)のうちの1つ以上ではなく、機械学習ネットワークが、超音波トランスデューサによって取得された生チャネルデータに適用される。機械学習ネットワークは、1つ以上のターゲット画像の複数の超音波画像を使用してトレーニングされている。機械学習ネットワークを生チャネルデータに適用すると、修正データがもたらされる。プロセッサは、ターゲット画像の特徴(例えば、解剖学的構造、スペックルなど)を含む修正データを使用して超音波画像を生成する。
[0048] 図3は、本開示の態様による、深層学習ネットワーク222の構成300を示す概略図である。深層学習ネットワーク222は、1つ以上の畳み込みニューラルネットワーク(CNN)310を含む。CNN310は、超音波チャネルデータ302に作用する。例えば、超音波チャネルデータ302は、システム100のデジタル超音波エコーチャネル信号162、又はシステム200の生のRFチャネルデータin(c,t)に対応する。
[0049] CNN310は、N個の畳み込み層320のセットと、それに続くK個の全結合層330のセットとを含み、ここで、N及びKは、任意の正の整数とすることができる。N及びKの値は、実施形態に応じて異なる。場合によっては、Nは約12であり、Kは約2である。各畳み込み層320は、超音波チャネルデータ302から特徴を抽出するフィルタ322のセットを含む。図3には示されていないが、いくつかの実施形態では、畳み込み層320は、空間プーリング層とインターリーブされてもよく、各プーリング層は、抽出されたイメージング特徴の次元性を低減するダウンサンプリング演算のセットを含む。加えて、各畳み込み層320は、整流された特徴マップを抽出する非線形関数(例えば、整流非線形(ReLU)演算を含む)を含んでもよい。さらに、各畳み込み層320は、CNN310のトレーニングを高速化するために、バッチ正規化関数を含んでもよい。全結合層330は、非線形で、最後の畳込み層320(N)の高次元出力を徐々に収縮させて、出力超音波画像304を生成してもよい。例えば、超音波画像304は、システム200の出力画像out(x,z)又はシステム100の画像168に対応する。
[0050] 図からわかるように、CNN310の実装又は適用は、大部分はフィルタリング及び/又は重み付け演算を必要とし、これは、乗算加算演算である。したがって、CNN310の実装又は適用は、従来の受信ビーム形成演算240及びバックエンド処理演算242と比べて、必要な計算が著しく少ない、及び/又はハードウェアが複雑でない。したがって、深層学習エンジン(例えば、深層学習エンジン220)のサイズ又はフットプリントは、従来のビームフォーマ(例えば、ビームフォーマ114)及びバックエンド処理構成要素(例えば、処理構成要素116及び134)と比べて比較的小さくできる。したがって、本開示は、トランスデューサプローブ(例えば、プローブ210)内への深層学習エンジンの組み込み可能にする。
[0051] 超音波イメージング用途用の十分に開発された深層学習フレームワークを提供する際の1つの課題は、トレーニングのための多数の入力−出力対(例えば、in(c,t)とout(x,z)との対)を含む大きなデータセットを有することである。上述したように、システム100を使用して、トレーニングのために入力−出力対(例えば、デジタル超音波エコーチャネル信号162及び対応する画像168)を提供できる。しかしながら、十分にトレーニングされた深層学習ネットワークを提供するのに十分な大きさのデータセットの収集は時間がかかり、複雑であり得る。
[0052] 本開示はさらに、臨床環境からデータを収集する代わりに、シミュレーションに基づいて超音波イメージング用途用の深層学習ネットワークをトレーニングできる技法を提供する。したがって、本開示は、トレーニングデータを生成又は収集するプロセスを単純化することができ、また、トレーニングデータを収集するために必要とされる時間及び労力を低減することができ、したがって、新しい超音波用途を迅速かつ容易に展開することを可能にする。さらに、シミュレーションベースのトレーニングは、従来の再構成超音波画像よりも高品質の高解像度(例えばスペックルフリー)超音波画像を出力するように、深層学習ネットワークをトレーニングできる。
[0053] 図4は、本開示の態様による、深層学習ネットワークトレーニングデータ生成スキーム400を示す概略図である。スキーム400は、ホスト130などのコンピュータシステムによって実現される。スキーム400を使用して、超音波画像再構成のために深層学習ネットワーク222又はCNN310などの深層学習ネットワークをトレーニングするための入力−出力データ対を生成する。
[0054] スキーム400では、入力画像410、散乱マップ420、及びトランスデューサアレイパラメータ430がデータセット(例えば、データセット140)を生成するために提供される。入力画像410は、超音波検査下の物体(例えば、物体105及び205)をエミュレートする任意の画像(例えば、デジタルファントム画像、写真画像、シミュレーション画像、又は超音波画像)であってよい。入力画像410は、x‐z平面のエコー輝度マップを含んでもよい。z軸は、超音波トランスデューサアレイ412(例えば、トランスデューサ112及び214)の軸方向の深さを表し、x軸は、超音波トランスデューサアレイ412の横方向の幅を表す。散乱マップ420は、超音波イメージング下の組織からの超音波の後方散乱をシミュレートするランダム散乱位置を含む。トランスデューサアレイパラメータ430は、超音波パルス放出の中心周波数及び帯域幅、トランスデューサ素子(例えば、素子212)の数、トランスデューサ素子の配置、及び/又は超音波トランスデューサアレイに関連する任意のパラメータを含む。
[0055] 入力画像410、散乱マップ420、及びトランスデューサアレイパラメータ430は、超音波チャネルデータ生成ユニット440への入力である。超音波チャネルデータ生成ユニット440は、任意の適切な超音波イメージングシステムシミュレータである。超音波チャネルデータ生成ユニット440は、トランスデューサアレイパラメータ430に基づいて、入力画像410に向かう超音波放出をシミュレートする。超音波チャネルデータ生成ユニット440は、トランスデューサアレイパラメータ430及び散乱マップ420に基づいて、画像410から反射されて戻る超音波(例えば、エコー応答)をシミュレートする。超音波チャネルデータ生成ユニット440は、超音波チャネルデータ450として超音波エコー応答を提供する。超音波チャネルデータ450は、システム100のデジタル超音波エコーチャネル信号162、システム200の超音波エコー応答in(c,t)、又は超音波チャネルデータ302と同様である。
[0056] 超音波チャネルデータ450は、任意の適切なフォーマットであってよい。いくつかの実施形態では、超音波チャネルデータ生成ユニット440は、生のRFデータ450a(例えば、デジタルRFサンプル)を出力する。出力された生のRFデータ450aは、デジタル超音波エコーチャネルデータストリーム又は信号162に対応する。いくつかの実施形態では、超音波チャネルデータ生成ユニット440は、ベースバンドIQデータ450bを出力する。IQデータ450bは、ベースバンドへのダウンコンバート後の生のRFデータ450aに対応する。IQデータ450bは、デカルト形式で表される。例えば、RFデータ450aは、約50メガヘルツ(MHz)のサンプリングレートを有する一方で、IQデータ450bは、RFデータ帯域幅の2倍のデータ帯域幅を有して、約20MHzのより低いサンプリングレートを有する。いくつかの実施形態では、IQデータ450bは極形式に変換され、IQ極性データ450cと呼ばれる。
[0057] 超音波チャネルデータ450は、プロット452に示すように、チャネルごとのデータサンプルを含む。このプロットでは、x軸は、(例えば、チャネルに対応する)超音波トランスデューサ素子インデックスを表し、z軸は、経時的に各素子から受信されたデータサンプルを表す。生のRFデータ450aでは、チャネルごとのデータサンプルは、生のRFデータ450a内のチャネルごとのRFデータサンプル(実数値)である。IQデータ450bでは、チャネルごとのデータサンプルは、実数成分値及び虚数成分値を含むIQサンプルである。IQ極性データ450cでは、チャンネルごとのデータサンプルは、包絡線成分及び位相成分を含むIQサンプルである。
[0058] 超音波チャネルデータ450は、RF形式、IQ形式、又はIQ極形式のいずれかで画像再構成ユニット460に提供される。画像再構成ユニット460は、従来の超音波画像再構成処理技法(例えば、ビーム形成処理、信号処理、及び/又は画像処理)を超音波チャネルデータ450に適用して、(例えば、超音波イメージング下の物体を表す)入力画像410の超音波画像470(例えば、画像168)を再構成する。
[0059] スキーム400を複数の画像410について繰り返して、深層学習ネットワークをトレーニングするための超音波チャネルデータ450と対応する再構成された超音波画像470との入力−出力対含むトレーニングデータセットが生成される。トレーニングデータセットのサイズは、シミュレーションに使用されるトランスデューサ素子の数又はチャネルの数やチャネルごとのデータサイズに依存する。例えば、IQデータ450b又はIQ極性データ450cは、IQデータサンプリングレートがRFデータサンプリングレートよりも低いことから、生のRFデータ450aよりも小さいサイズのトレーニングデータセットを提供する。
[0060] いくつかの実施形態では、画像再構成ユニット460はさらに、超音波チャネルデータ450にビーム形成処理を適用した後に、ビーム形成されたデータ480を出力する。ビーム形成済みデータ480は、ビーム形成されたチャネル(すなわち、時間整列されたチャネルデータ)又はビーム和データ(すなわち、すべての時間整列されたチャネルデータの和)を含む。ビーム形成済みデータ480及び対応する再構成され最適化された超音波画像470は、トレーニングに使用される入力−出力対を形成できる。ビーム形成済みデータ480は、超音波チャネルデータ450よりも小さい寸法を有する。したがって、ビーム形成済みデータ480から形成されるトレーニングデータセットは、超音波チャネルデータ450から形成されるトレーニングデータセットよりも小さいサイズを有する。
[0061] 図5は、本開示の態様による、超音波画像を生成するための深層学習ネットワークトレーニングスキーム500を示す概略図である。スキーム500は、ホスト130などのコンピュータシステムによって実現される。スキーム500を使用して、超音波画像再構成のための深層学習ネットワーク222又はCNN310などの深層学習ネットワークをトレーニングできる。
[0062] スキーム500は、スキーム400によって生成された入力−出力対を使用して、深層学習ネットワーク222をトレーニングする。例えば、入力−出力対は、超音波チャネルデータ450及び再構成超音波画像470に対応する。超音波チャネルデータ450は、深層学習ネットワーク222への入力(丸で囲まれた1で示す)であり、再構成超音波画像470は、トレーニングのためのターゲット出力520である。
[0063] トレーニング中、順方向伝播を使用して深層学習ネットワーク222を超音波チャネルデータ450に適用して、出力510(例えば、超音波画像304)が生成される。畳み込み層320内のフィルタ322の係数及び全結合層330内の重み付けを、逆方向伝搬を使用して調整して、出力510とターゲット出力520との間の誤差が最小限に抑えられる。言い換えれば、スキーム500は、式(3)の画像再構成関数fに近似するように深層学習ネットワーク222をトレーニングする。トレーニングは、式(3)におけるビーム形成パラメータparA及びバックエンド処理パラメータparBを最適化する。トレーニングは、パラメータparA及びparBを同時に又は複数の段階で最適化できる。
[0064] 別の実施形態では、入力−出力対は、ビーム形成済みデータ480及び再構成超音波画像470に対応する。ビーム形成済みデータ480は、深層学習ネットワーク222への入力(丸で囲まれた2で示す)であり、再構成超音波画像470は、トレーニングのためのターゲット出力520である。トレーニングメカニズムは、上述のステップと実質的に同様である。例えば、畳み込み層320内のフィルタ322の係数及び全結合層330内の重み付けを調整して、出力510とターゲット出力520との間の誤差が最小限に抑えられる。言い換えれば、スキーム500は、式(2)のバックエンド処理関数fBEに近似するように深層学習ネットワーク222をトレーニングする。トレーニングは、式(2)のバックエンド処理パラメータparBを最適化する。
[0065] 図6は、本開示の態様による、超音波画像を生成するための深層学習ネットワークトレーニングスキーム600を示す概略図である。スキーム600は、ホスト130などのコンピュータシステムによって実現される。スキーム600を使用して、超音波画像再構成のための深層学習ネットワーク222又はCNN310などの深層学習ネットワークをトレーニングできる。スキーム600は、スキーム500と実質的に同様であるが、トレーニングのためのターゲット出力620が、従来の再構成超音波画像470の代わりに、元の入力画像410に対応する。言い換えれば、ターゲットは完全な画像再構成(例えば、超解像度でアーチファクトがない)下の物体の画像に対応する。
[0066] 図示のように、入力−出力対は、超音波チャネルデータ450及び入力画像410に対応する。トレーニング中、順方向伝播を使用して深層学習ネットワーク222を超音波チャネルデータ450に適用して、出力610が生成される。畳み込み層320内のフィルタ322の係数及び全結合層330内の重み付けを、逆方向伝搬を使用して調整して、出力610と、元の入力画像410であるターゲット出力620との間の誤差が最小限に抑えられる。
[0067] ターゲット出力620として元の入力画像410を使用することにより、トレーニングによって深層学習ネットワーク222が最適化され、従来の再構成超音波画像(例えば、再構成超音波画像470)よりも高品質の超解像度のスペックルのない画像が生成される。言い換えれば、スキーム600は、式(3)の関数fに近似するように深層学習ネットワーク222をトレーニングして、超解像度及び/又はスペックルフリー画像再構成のために、パラメータparA及びparBが最適化される。
[0068] スキーム500と同様に、スキーム600は、超音波チャネルデータ450の代わりに、深層学習ネットワーク222への入力としてビーム形成済みデータ480(丸で囲まれた2で示す)を使用して、深層学習ネットワーク222をトレーニングしてもよい。
[0069] 深層学習ネットワーク222は、スキーム500又は600を使用してトレーニングされた後、システム200において使用されて、ディスプレイ230での表示のための超音波画像が生成される。例えば、深層学習ネットワーク222が超音波チャネルデータ450を使用してトレーニングされる場合、プローブ210は検査中の物体(例えば、物体105及び205)を表す生のRF又はIQデータ(例えば、超音波チャネルデータ450)を取得して、深層学習ネットワーク222は、取得されたRF又はIQデータに適用されて、物体の超音波画像が生成される。
[0070] あるいは、深層学習ネットワーク222がビーム形成済みデータ480を使用してトレーニングされる場合、プローブ210は、生のRF又はIQデータにビーム形成を適用するビームフォーマを含み、深層学習ネットワーク222は、ビーム形成済み信号に適用されて、物体の超音波画像が生成される。
[0071] 深層学習ネットワーク222によって生成された超音波画像は、トレーニングターゲットに使用された画像と同様の特性及び特徴(例えば、解像度)を含むことに留意されたい。例えば、スキーム500を使用してトレーニングされた深層学習ネットワーク222は、画像470(例えば、ターゲット出力520)と同様の特性又は特徴を含む超音波画像を生成する。画像470がスペックルを含む場合、生成された超音波画像もある程度のスペックルを含む。同様に、スキーム500を使用してトレーニングされた深層学習ネットワーク222は、元の高解像度画像410(例えば、ターゲット出力620)と同様の特性又は特徴を含む超音波画像を生成する。画像410が約1波長以下の解像度を含む場合、生成された超音波画像もまた同様の解像度を含む。一例として、ターゲット画像が5mmの範囲にわたって256の画素を含む場合、解像度は約0.00195mmである。
[0072] 図7は、本発明の態様による、ターゲット画像と比較される、従来のイメージングから生成された画像及び深層学習に基づくイメージングから生成された画像を示す。図7は、ターゲット画像730、従来の再構成画像710、及び深層学習ベースの再構成画像720を示す。例えば、ターゲット画像730は、超音波イメージング下の物体(例えば、物体105及び205)を表す。ターゲット画像730は、入力画像410に対応する。従来の再構成画像710は、超音波エコー応答がターゲット画像730からシミュレートされ、次いで、従来のビーム形成処理、信号処理及び/又は画像処理が続くスキーム400に説明されるような類似のメカニズムを用いてターゲット画像740から生成される。深層学習ベースの再構成画像720は、スキーム600を使用してトレーニングされた深層学習ネットワーク(例えば、深層学習ネットワーク222)を適用することによって、ターゲット画像730から生成される。図からわかるように、深層学習ベースの再構成画像720は、従来の再構成画像710よりも高い解像度と高い品質を有する。
[0073] 図8は、本開示の態様による深層学習ベースの超音波イメージング方法800のフロー図である。方法800のステップは、システム200によって、例えば、プロセッサ、処理回路、及び/又はプローブ210、深層学習エンジン220、及び/又はディスプレイ230などの他の適切な構成要素によって実行できる。図示されるように、方法800は、いくつかの列挙されたステップを含むが、方法800の実施形態は、列挙されたステップの前、後、及びその間に追加のステップを含んでもよい。いくつかの実施形態では、列挙されたステップのうちの1つ以上は、省略されても、異なる順序で行われてもよい。
[0074] ステップ810において、方法は、被検者の解剖学的構造(例えば、物体105及び205)を表す超音波チャネルデータ(例えば、超音波チャネルデータ302及び450、ならびに画像データ252)を受信することを含む。超音波チャネルデータは、超音波トランスデューサ(例えば、トランスデューサ112又は214)から生成される。超音波チャネルデータは、超音波トランスデューサから受信されても、ネットワーク(例えば、クラウドストレージネットワーク250)から取り出されてもよい。
[0075] ステップ820において、方法800は、超音波チャネルデータに予測ネットワーク(例えば、深層学習ネットワーク222及びCNN310)を適用して、被検者の解剖学的構造の画像(例えば、画像304、470、及び720)を生成することを含む。
[0076] ステップ830において、方法800は、被検者の解剖学的構造の画像をディスプレイ(例えば、ディスプレイ132及び230)上に表示することを含む。
[0077] 一実施形態では、超音波トランスデューサは、音響素子(例えば、素子212)のアレイを含む。超音波チャネルデータは、複数の超音波エコーチャネルデータストリームを含み、複数の超音波エコーチャネルデータストリームの各々は、音響素子のアレイの1つの音響素子から受信される。
[0078] 一実施形態では、複数の超音波エコーチャネルデータストリームは、被検者の解剖学的構造を表すRFデータ(例えば、RFデータ450a)を含む。一実施形態では、方法800は、予測ネットワークを適用する前に、RFデータをIQデータ(例えば、IQデータ450b及びIQ極性データ450c)に変換することを含む。一実施形態では、方法800は、予測ネットワークを適用する前に、超音波エコーチャネルデータストリームにビーム形成処理(例えば、ビーム形成演算240)を行うことを含む。
[0079] 一実施形態では、画像は、被検者の解剖学的構造の形態学的情報、被検者の解剖学的構造の機能情報、又は被検者の解剖学的構造の定量的測定値のうちの少なくとも1つを含む。一実施形態では、画像は、被検者の解剖学的構造のBモード情報、被検者の解剖学的構造のストレス情報、被検者の解剖学的構造の弾性情報、被検者の解剖学的構造の組織ドップラー情報、又は被検者の解剖学的構造の血流ドップラー情報のうちの少なくとも1つを含む。
[0080] 本開示の態様は、いくつかの利点を提供する。例えば、プローブ(例えば、プローブ110及び210)から取得された生のRFデータ(例えば、RFデータ450a)、IQデータ(例えば、IQデータ450b及びIQ極性データ450c)、及び/又はビーム形成済みデータ(例えば、ビーム形成済みデータ480)から超音波画像を再構成するために深層学習を使用することにより、ビームフォーマ、信号処理エンジン、及び/又は画像処理エンジンを使用する従来の超音波画像再構成と比べて、計算の複雑さ及びシステムの複雑さを低減することを可能にする。例えば、深層学習ネットワークの適用は、ASIC及び/又はFPGAなどの単純なハードウェア及び/又はソフトウェアを用いて実現される。したがって、本開示は、小型化されたトランスデューサ内超音波イメージングエンジン(例えば、プローブ210又はIVUS内に組み込まれた深層学習エンジン220)を可能にする。加えて、トレーニングのためのターゲット出力として、高解像度画像(例えば、元の入力画像410)を使用することにより、深層学習ネットワークが、従来の方法で生成された超音波画像よりも高品質の高解像度及び/又はスペックルフリー画像を生成するために最適化されることを可能にする。さらに、シミュレーションベースの深層学習トレーニングデータ生成を使用することにより、短時間で十分に大きなトレーニングデータセットを提供することを可能にする。したがって、本開示は、新しい超音波用途の開発時間及びコストを低減して、新しい超音波用途の展開を迅速に可能にする。
[0081] 当業者であれば、上述の装置、システム、及び方法を様々なやり方で修正できることを理解するであろう。したがって、当業者は、本開示によって包含される実施形態が上述の特定の例示的な実施形態に限定されないことを理解するであろう。この点に関して、例示的な実施形態が示され、説明されたが、前述の開示において、広範囲の修正、変更、及び置換が企図される。このような変形は、本開示の範囲から逸脱することなく、上記になされ得ることが理解される。したがって、添付の特許請求の範囲は、広くかつ本開示と一致するよう解釈されることが適切である。

Claims (26)

  1. プロセッサを含む、超音波イメージングシステムであって、前記プロセッサは、
    超音波トランスデューサから生成された被検者の解剖学的構造を表す超音波チャネルデータを受信し、
    前記超音波チャネルデータに予測ネットワークを適用して前記被検者の解剖学的構造の画像を生成し、
    前記被検者の解剖学的構造の前記画像を、プロセッサと通信するディスプレイに出力する、
    超音波イメージングシステム。
  2. 前記超音波トランスデューサは、音響素子のアレイを含み、前記超音波チャネルデータは、複数の超音波エコーチャネルデータストリームを含み、前記複数の超音波エコーチャネルデータストリームのそれぞれは、前記音響素子のアレイの1つの音響素子から生成される、請求項1に記載の超音波イメージングシステム。
  3. 前記複数の超音波エコーチャネルデータストリームは、前記被検者の解剖学的構造を表す無線周波数(RF)データを含む、請求項2に記載の超音波イメージングシステム。
  4. 前記プロセッサはさらに、
    前記予測ネットワークを適用する前に、前記RFデータを同相直交位相(IQ)データに変換する、請求項3に記載の超音波イメージングシステム。
  5. 前記プロセッサはさらに、
    前記予測ネットワークを適用する前に、前記超音波エコーチャネルデータストリームに対してビーム形成処理を行う、請求項2に記載の超音波イメージングシステム。
  6. 前記画像は、前記被検者の解剖学的構造の形態学的情報、前記被検者の解剖学的構造の機能情報、又は前記被検者の解剖学的構造の定量的測定値の少なくとも1つを含む、請求項1に記載の超音波イメージングシステム。
  7. 前記画像は、前記被検者の解剖学的構造のBモード情報、前記被検者の解剖学的構造のストレス情報、前記被検者の解剖学的構造の弾性情報、前記被検者の解剖学的構造の組織ドップラー情報、又は前記被検者の解剖学的構造の血流ドップラー情報の少なくとも1つを含む、請求項1に記載の超音波イメージングシステム。
  8. 前記予測ネットワークは、
    テスト超音波チャネルデータ、及び、テスト物体を表す対応するテスト画像を提供することと、
    前記テスト超音波チャネルデータから前記テスト画像を生成するように前記予測ネットワークをトレーニングすることと、
    によってトレーニングされる、請求項1に記載の超音波イメージングシステム。
  9. 前記テスト画像は、前記テスト超音波チャネルデータに対して、ビーム形成処理、Bモード処理、ドップラー処理、又はスキャン変換処理の少なくとも1つを行うことによって、前記テスト超音波チャネルデータから生成される、請求項8に記載の超音波イメージングシステム。
  10. 前記テスト超音波チャネルデータは、超音波トランスデューサ構成パラメータに基づいて前記テスト画像から生成される、請求項8に記載の超音波イメージングシステム。
  11. 前記テスト超音波チャネルデータは、無線周波数(RF)データ、同相直交位相(IQ)データ、又はビーム形成済みデータの少なくとも1つを含む、請求項8に記載の超音波イメージングシステム。
  12. 前記超音波トランスデューサを含む超音波イメージングプローブをさらに含み、前記プロセッサは、前記超音波トランスデューサと通信し、前記超音波トランスデューサから前記超音波チャネルデータを受信する、請求項1に記載の超音波イメージングシステム。
  13. 前記超音波イメージングプローブが、前記プロセッサを含む、請求項12に記載の超音波イメージングシステム。
  14. 超音波トランスデューサから生成された被検者の解剖学的構造を表す超音波チャネルデータを受信するステップと、
    前記超音波チャネルデータに予測ネットワークを適用して、前記被検者の解剖学的構造の画像を生成するステップと、
    ディスプレイによって前記被検者の解剖学的構造の前記画像を表示するステップと、
    を含む、超音波イメージング方法。
  15. 前記超音波トランスデューサは、音響素子のアレイを含み、前記超音波チャネルデータは、複数の超音波エコーチャネルデータストリームを含み、前記複数の超音波エコーチャネルデータストリームのそれぞれは、前記音響素子のアレイの1つの音響素子から生成される、請求項14に記載の超音波イメージング方法。
  16. 前記複数の超音波エコーチャネルデータストリームは、前記被検者の解剖学的構造を表す無線周波数(RF)データを含む、請求項15に記載の超音波イメージング方法。
  17. 前記予測ネットワークを適用する前に、前記RFデータを同相直交位相(IQ)データに変換するステップをさらに含む、請求項16に記載の超音波イメージング方法。
  18. 前記予測ネットワークを適用する前に、前記超音波エコーチャネルデータストリームに対してビーム形成処理を行うステップをさらに含む、請求項15に記載の超音波イメージング方法。
  19. 前記画像は、前記被検者の解剖学的構造の形態学的情報、前記被検者の解剖学的構造の機能情報、又は前記被検者の解剖学的構造の定量的測定値の少なくとも1つを含む、請求項14に記載の超音波イメージング方法。
  20. 前記画像は、前記被検者の解剖学的構造のBモード情報、前記被検者の解剖学的構造のストレス情報、前記被検者の解剖学的構造の弾性情報、前記被検者の解剖学的構造の組織ドップラー情報、又は前記被検者の解剖学的構造の血流ドップラー情報の少なくとも1つを含む、請求項14に記載の超音波イメージング方法。
  21. 画像を生成するためのシステムであって、
    少なくとも1つの機械学習ネットワークを記憶するメモリと、
    前記メモリと通信するプロセッサと、
    を含み、
    前記プロセッサは、
    超音波トランスデューサから生成された生のチャネルデータを受信し、
    前記機械学習ネットワークを前記生のチャネルデータに適用して1つ以上の画像処理ステップを置換し、それによって修正データを生成し、
    前記修正データを使用して画像を生成し、
    前記機械学習ネットワークは、1つ以上のターゲット画像の複数の超音波画像を使用してトレーニングされ、
    生成された前記画像は、前記1つ以上のターゲット画像の特徴を含む、
    システム。
  22. 前記複数の超音波画像は、シミュレートされる、請求項21に記載のシステム。
  23. 前記1つ以上の画像処理ステップは、ビーム形成処理、フィルタリング処理、ダイナミックレンジ適用処理、及び圧縮処理を含む、請求項21に記載のシステム。
  24. 前記1つ以上のターゲット画像は、写真画像を含む、請求項21に記載のシステム。
  25. 前記特徴は、約1波長以下の解像度を含む、請求項21に記載のシステム。
  26. 前記特徴は、ある量のスペックルを含む、請求項21に記載のシステム。
JP2021502524A 2018-07-20 2019-07-19 深層学習による超音波イメージング、並びに関連デバイス、システム、及び方法 Pending JP2021530303A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862700960P 2018-07-20 2018-07-20
US62/700,960 2018-07-20
US201862730623P 2018-09-13 2018-09-13
US62/730,623 2018-09-13
PCT/EP2019/069602 WO2020016449A1 (en) 2018-07-20 2019-07-19 Ultrasound imaging by deep learning and associated devices, systems, and methods

Publications (2)

Publication Number Publication Date
JP2021530303A true JP2021530303A (ja) 2021-11-11
JPWO2020016449A5 JPWO2020016449A5 (ja) 2022-07-26

Family

ID=67390082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502524A Pending JP2021530303A (ja) 2018-07-20 2019-07-19 深層学習による超音波イメージング、並びに関連デバイス、システム、及び方法

Country Status (5)

Country Link
US (1) US20210265042A1 (ja)
EP (1) EP3824313A1 (ja)
JP (1) JP2021530303A (ja)
CN (1) CN112470028A (ja)
WO (1) WO2020016449A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220019036A (ko) * 2019-06-12 2022-02-15 카네기 멜론 유니버시티 초음파 데이터를 라벨링하기 위한 시스템 및 방법
CN114554969A (zh) * 2019-10-16 2022-05-27 皇家飞利浦有限公司 用于基于深度学习的超声波束形成的方法和装置
CN110874828B (zh) * 2020-01-20 2020-04-21 上海尽星生物科技有限责任公司 神经网络模型及基于神经网络模型的超声波束形成方法
CN113499096B (zh) * 2021-06-21 2022-10-25 西安交通大学 一种超声跨尺度和多参量检测的成像平台及方法
US11657504B1 (en) 2022-06-28 2023-05-23 King Abdulaziz University System and method for computationally efficient artificial intelligence based point-of-care ultrasound imaging healthcare support
CN118000786B (zh) * 2024-04-10 2024-07-19 之江实验室 一种基于解剖学先验的超声层析成像方法和系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018127498A1 (en) * 2017-01-05 2018-07-12 Koninklijke Philips N.V. Ultrasound imaging system with a neural network for image formation and tissue characterization

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642591B2 (ja) * 1994-11-29 2005-04-27 株式会社日立メディコ 画像処理装置
US9918701B2 (en) * 2014-09-03 2018-03-20 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
US20160174937A1 (en) * 2014-12-23 2016-06-23 General Electric Company Wireless ultrasound probe
US10959702B2 (en) * 2016-06-20 2021-03-30 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
US20180103912A1 (en) * 2016-10-19 2018-04-19 Koninklijke Philips N.V. Ultrasound system with deep learning network providing real time image identification
US10779800B2 (en) * 2016-12-01 2020-09-22 B-K Medical Aps Ultrasound imaging transducer electrical noise compensation
US11832969B2 (en) * 2016-12-22 2023-12-05 The Johns Hopkins University Machine learning approach to beamforming
WO2018130370A1 (en) * 2017-01-11 2018-07-19 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
JP6902625B2 (ja) * 2017-05-11 2021-07-14 ベラソン インコーポレイテッドVerathon Inc. 確率マップに基づいた超音波検査
US11382601B2 (en) * 2018-03-01 2022-07-12 Fujifilm Sonosite, Inc. Method and apparatus for annotating ultrasound examinations

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018127498A1 (en) * 2017-01-05 2018-07-12 Koninklijke Philips N.V. Ultrasound imaging system with a neural network for image formation and tissue characterization

Also Published As

Publication number Publication date
WO2020016449A1 (en) 2020-01-23
US20210265042A1 (en) 2021-08-26
EP3824313A1 (en) 2021-05-26
CN112470028A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
Van Sloun et al. Deep learning in ultrasound imaging
JP2021530303A (ja) 深層学習による超音波イメージング、並びに関連デバイス、システム、及び方法
US11709265B2 (en) Network-based ultrasound imaging system
US11899141B2 (en) Ultrasound system for high-speed and high resolution imaging applications
JP2019535448A (ja) 超音波画像クラッタをフィルタリングする方法及びシステム
KR101649273B1 (ko) 곡면 프로브를 이용하여 탄성 영상을 생성하는 방법 및 그 의료 영상 장치
KR20170042936A (ko) 초음파 장치 및 초음파 신호 처리 방법
US12092735B2 (en) Method and apparatus for deep learning-based ultrasound beamforming
US11950960B2 (en) Ultrasound imaging with deep learning-based beamforming and associated devices, systems, and methods
KR102524068B1 (ko) 초음파 진단 장치, 초음파 프로브 및 그 제어 방법
Nguon et al. Reconstruction for plane-wave ultrasound imaging using modified U-Net-based beamformer
Ibrahim et al. Single-FPGA complete 3D and 2D medical ultrasound imager
Chatar et al. Analysis of existing designs for fpga-based ultrasound imaging systems
Jonveaux et al. Review of current simple ultrasound hardware considerations, designs, and processing opportunities
KR102605151B1 (ko) 빔포밍을 수행하는 방법 및 빔포머.
EP4394441A1 (en) A beamforming method and system
Hager Design of Fully-Digital Medical Ultrasound Imaging Systems
Kim et al. Hybrid beamformation for volumetric ultrasound imaging scanners using 2-D array transducers
Tasinkevych 3D Ultrasonography in Real Time: Image Reconstruction Methods
JG et al. Deep Learning in Ultrasound Imaging
Ibrahim 3-Dimensional Ultrasound Imaging for Medical Telesonography: Algorithms and Architectures
Ibrahim et al. Assessment of image quality vs. computation cost for different parameterizations of ultrasound imaging pipelines
CN118252526A (zh) 一种超声成像方法和系统
George Sub-wavelength imaging methodology for medical ultrasound applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231211

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240209