JP7346586B2 - 合成3d超音波画像を取得するための方法及びシステム - Google Patents

合成3d超音波画像を取得するための方法及びシステム Download PDF

Info

Publication number
JP7346586B2
JP7346586B2 JP2021552995A JP2021552995A JP7346586B2 JP 7346586 B2 JP7346586 B2 JP 7346586B2 JP 2021552995 A JP2021552995 A JP 2021552995A JP 2021552995 A JP2021552995 A JP 2021552995A JP 7346586 B2 JP7346586 B2 JP 7346586B2
Authority
JP
Japan
Prior art keywords
ultrasound
additional
ultrasound image
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021552995A
Other languages
English (en)
Other versions
JPWO2020182670A5 (ja
JP2022524360A (ja
Inventor
ソブヘンドゥ セス
セリーヌ フィルション
パラヴィ ヴァジネパッリ
デイビッド ナイジェル ラウンドヒル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022524360A publication Critical patent/JP2022524360A/ja
Publication of JPWO2020182670A5 publication Critical patent/JPWO2020182670A5/ja
Application granted granted Critical
Publication of JP7346586B2 publication Critical patent/JP7346586B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波イメージングの分野に関し、特に合成超音波イメージングの分野に関する。
通常の超音波検査は、物理的制約及び工学的制約に起因して小さい視野によって限定される。この限定を克服するために、合成超音波イメージングが開発され、それによって一連の超音波画像がスティッチングされて、より大きな視野を有する合成超音波画像を形成する。
例えば、3D超音波イメージングにおいて、一連の3D超音波画像をスティッチングすることは、大きな器官(又は胎児全体)又は近接する解剖領域のコンテキストにおける器官を視覚化するために使用される。これは、Dyer等、「A clinical system for three-dimensional extended-field-of-view ultrasound」、Br J Radiol.、85(1018)、2012年、919-924頁に記載されるように、例えば、妊娠第二期及び第三期での1回のボリューム取得ではキャプチャが不可能な妊娠子宮(胎児、胎座及び羊水を有する子宮)などの大きな解剖構造を視覚化するなどのいくつかの潜在的な臨床的利点をもたらす。
Rajpoot等、「Multi-view fusion 3-D echocardiography: improving the information and quality of real-time 3-D echocardiography」、Ultrasound Med Bio、37、2011年、1056-72頁などのいくつかの研究報告は、画像データのみを使用してボリュームをつなぎ合わせるための多くの洗練されたアルゴリズムについて論じている。
しかしながら、既存の技術は、結果として、関心領域の不正確なビューを生成する場合が多い。さらに、関心対象物の動き又は不正確なプローブの配置は、最終的な合成画像の画質を下げ得る。
したがって、正確で強固な合成超音波画像を取得する手段が必要とされる。
文献EP第2,807,978は、3D超音波イメージングを使用して合成3Dモデルを取得する方法を開示する。
本発明は、特許請求の範囲によって定義される。
本発明の一態様による例によれば、関心領域の合成3D超音波画像を取得するための方法であって、前記方法は、
対象者の関心領域から予備超音波データを取得するステップと、
前記予備超音波データに基づいて前記関心領域内の解剖学的特徴を識別するステップと、
前記解剖学的特徴に基づいて、第1のイメージング位置と1つ又は複数の追加イメージング位置とを決定するステップと、
前記第1のイメージング位置から第1の3D超音波画像を取得し、前記1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像を取得するステップであって、前記第1の3D超音波画像の一部は前記1つ又は複数の追加3D超音波画像の一部と重複することによって重複部分を形成し、前記重複部分は前記解剖学的特徴を含むステップと、
前記解剖学的特徴に基づいて、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像との間の空間的位置合わせを実行するステップと、
前記空間的位置合わせに基づいて前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合し、それによって合成3D超音波画像を生成するステップと、
を有する方法が提供される。
本方法は、合成3D超音波画像を取得する手段を提供する。
超音波イメージングは、通常、限られた視野によって限定される。複数の超音波画像、例えば3D超音波画像をともにスティッチングすることによって、視野を拡大することが可能である。ただし、複数の3D超音波画像をスティッチングする従来の方法は画像アーチファクトの影響を非常に受けやすい。
解剖学的特徴に基づいて3D超音波画像を融合することによって、最終的な合成画像中の画像アーチファクトの数を減らすことが可能であり、それによって合成3D超音波画像の正確性が改善する。
関心解剖学的特徴を含むように3D超音波画像の取得を案内するために、予備超音波データが取得される。
実施形態において、前記方法は、さらに、前記合成3D超音波画像に基づいて前記解剖学的特徴の動きを決定するステップを有する。
このように、合成3D超音波画像を生成する際に、動きが考慮される。
さらなる実施形態において、前記解剖学的特徴の動きを決定するステップは、
非剛体変換行列を前記合成3D超音波画像に適用するステップと、
変換された前記合成3D超音波画像に基づいてアーチファクトを識別するステップと、
を有する。
このようにして、変換行列によって生成された動きアーチファクトに基づいて、動きが検出される。
さらなる実施形態において、前記解剖学的特徴の動きを決定するステップは、前記アーチファクトを追跡するステップを有する。
このようにして、時間の経過に伴う解剖学的特徴の動きは監視される。
一構成において、前記空間的位置合わせを実行するステップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内に3D点群を生成するステップを有し、前記3D点群は前記第1の3D超音波画像内のサーフェス及び前記1つ又は複数の追加3D超音波画像内のサーフェスを表す。
このようにして、3D超音波画像内の様々なサーフェスが仮想空間にわたって分散された一連の点によって表される。このようにして、3D画像内の解剖学的特徴は、それらの点の分散に基づいて認識される。
一実施形態において、前記空間的位置合わせを実行するステップは、機械学習アルゴリズムを使用するステップを有する。
このようにして、例えば3D超音波画像内の解剖学的特徴を認識することによって、機械学習技術を使用して空間的位置合わせが実行される。
一実施形態において、前記機械学習アルゴリズムは、前記3D点群に基づいた2層構造のスティッチングを実行するように適応される。
一構成において、前記空間的位置合わせを実行するステップは、さらに、前記3D点群に基づいて確率マップを生成するステップを有し、前記確率マップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内の所与の点を占有する解剖学的特徴の信頼値を表す。
このようにして、3D点群に基づいて解剖学的特徴が所与の点に配置されている可能性を表す確率マップによって、3D超音波画像内の解剖学的特徴の位置が表される。
さらなる実施形態において、前記空間的位置合わせを実行するステップは、前記信頼値が所定の値よりも大きい場合、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内の前記解剖学的特徴の位置を識別するステップを有する。
信頼性閾値は、所与の適用の所望の正確性に応じて異なる。
一構成において、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像を融合するステップは、前記確率マップに基づいて前記重複部分の3D信頼性マップを生成するステップを有する。
このようにして、3D超音波画像の重複部分内に解剖学的特徴を発見する可能性は、融合アルゴリズムへの入力として使用される。
一実施形態において、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像を融合するステップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像にポアソン融合を適用するステップを有する。
本発明の一態様による例によれば、コンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータプログラムがコンピュータ上で実行された場合、上述した方法を実施するコンピュータプログラムコード手段を有するコンピュータプログラムが提供される。
本発明の一態様による例によれば、処理ユニットが提供され、前記処理ユニットは、
対象者の関心領域から予備超音波データを取得し、
前記予備超音波データに基づいて前記関心領域内の解剖学的特徴を識別し、
前記解剖学的特徴に基づいて、第1のイメージング位置と1つ又は複数の追加イメージング位置とを決定し、
前記第1のイメージング位置から第1の3D超音波画像を取得し、前記1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像を取得し、前記第1の3D超音波画像の一部は前記1つ又は複数の追加3D超音波画像の一部と重複することによって重複部分を形成し、前記重複部分は前記解剖学的特徴を含み、
前記解剖学的特徴に基づいて、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像との間の空間的位置合わせを実行し、
前記空間的位置合わせに基づいて前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合し、それによって合成3D超音波画像を生成する、
ように適応される。
本発明の一態様による例によれば、超音波システムが提供され、前記超音波システムは、
上述したような処理ユニットと、
4D超音波データを取得するように適応された超音波プローブと、
を備える。
一実施形態において、前記超音波プローブは、
動きセンサと、
電磁トラッカと、
リープトラッカと、
のうちの1つ又は複数を備える。
これらのトラッカは、プローブ又は対象者の外的な動きによって引き起こされる動きアーチファクトを減らす又は除去するのを助け、それによってイメージング領域内に対して動きを分離する。
本発明の上記の態様及び他の態様は、以下で説明する実施形態から明らかとなり、これらを参照することによって明確になるであろう。
本発明のより良い理解のため、さらにどのように本発明が実行されるかをより明確に示すために、例示のみを目的として以下で添付図面を参照する。
一般的な動作を説明するために超音波診断イメージングシステムを示す図である。 本発明の方法を示す図である。 図2の方法による3D点群に基づいたボリュームスティッチングの概略図である。 剛体スティッチング方法及び非剛体スティッチング方法を使用して生成された合成画像間の比較を示す図である。
本発明は図を参照して説明される。
装置、システム及び方法の例示の実施形態を示す際の詳細な記載及び特定の例は、例示目的のみを意図するものであり、本発明の範囲を限定することを意図しないことを理解されたい。本発明の装置、システム及び方法の上記及び他の特徴、態様及び利点は、以下の記載、添付の特許請求の範囲及び添付図面からより良く理解されるようになる。図面は概略的に過ぎず、正確な縮尺ではないことを理解されたい。また、同一又は類似部分を示すために図面全体において同一の参照番号が使用されることを理解されたい。
本発明は、関心領域の合成3D超音波画像を取得する方法を提供する。この方法は、対象者の関心領域から予備超音波データを取得し、その予備超音波データに基づいて関心領域内の解剖学的特徴を識別することを有する。その後、その解剖学的特徴に基づいて、第1のイメージング位置と1つ又は複数の追加イメージング位置とが決定される。第1のイメージング位置から第1の3D超音波画像が取得され、1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像が取得され、第1の3D超音波画像の一部は1つ又は複数の追加3D超音波画像の一部と重複することによって解剖学的特徴を含む重複部分を形成する。解剖学的特徴に基づいて、第1の3D超音波画像と1つ又は複数の追加3D超音波画像との間の空間的位置合わせが実行され、その後、その空間的位置合わせに基づいて3D超音波画像が融合され、それによって合成3D超音波画像を生成する。
本発明はトランスデューサアレイによって測定される信号の処理に関係するため、図1を参照し、システムの信号処理機能に着目して、例示の超音波システムの一般的な動作を最初に説明する。
このシステムは、超音波を送信してエコー情報を受信するためのトランスデューサアレイ6を有するアレイトランスデューサプローブ34を有する。トランスデューサアレイ6は、CMUTトランスデューサ、PZT又はPVDFなどの材料で形成される圧電トランスデューサ、又はあらゆる他の適切なトランスデューサ技術を有する。本例において、トランスデューサアレイ6は、関心領域の2D平面又は三次元ボリュームのいずれかを走査できるトランスデューサ8の二次元アレイである。別の例において、トランスデューサアレイは、1Dアレイである。
トランスデューサアレイ6は、トランスデューサ素子による信号の受信を制御するマイクロビームフォーマ12に結合される。マイクロビームフォーマは、米国特許第5,997,479号(Savord等)、第6,013,032号(Savord)、及び第6,623,432号(Powers等)に記載されるようなトランスデューサの一般的には「グループ」又は「パッチ」と呼ばれるサブアレイによって受信される信号の少なくとも部分的なビームフォーミングを行うことが可能である。
なお、このマイクロビームフォーマは全体的に任意である。さらに、システムは、マイクロビームフォーマ12が結合可能でありアレイを送信モードと受信モードとで切り換える送受信(T/R)スイッチ16を有し、マイクロビームフォーマが使用されておらずトランスデューサアレイが主システムビームフォーマによって直接動作される場合に主ビームフォーマ20を高エネルギー送信信号から保護する。トランスデューサアレイ6からの超音波ビームの送信は、T/Rスイッチ16によってマイクロビームフォーマと、ユーザインタフェース又は制御パネル38のユーザ動作からの入力を受信できる主送信ビームフォーマ(不図示)とに結合されたトランスデューサコントローラ18によって指示される。コントローラ18は、送信モード時にアレイ6のトランスデューサ素子を(直接又はマイクロビームフォーマを介してのいずれかによって)駆動するように構成された送信回路を有し得る。
通常のライン毎のイメージングシーケンスにおいて、プローブ内のビームフォーミングシステムは以下のように動作する。送信時、ビームフォーマ(実施形態に応じてマイクロビームフォーマ又は主システムビームフォーマである)は、トランスデューサアレイ又はトランスデューサアレイのサブアパーチャをアクティブ化する。このサブアパーチャは、より大きなアレイ内のトランスデューサの一次元ライン又はトランスデューサの二次元パッチである。送信モードにおいて、アレイ又はアレイのサブアパーチャによって生成された超音波ビームの集束及びステアリングは以下のように制御される。
対象者からの後方散乱エコー信号を受信すると、受信信号を整列するために受信信号は受信ビームフォーミングが行われ(後述)、サブアパーチャが使用されている場合、サブアパーチャは、その後、例えば1つのトランスデューサ素子によってシフトされる。その後、シフトされたサブアパーチャはアクティブ化され、この処理は、トランスデューサアレイのトランスデューサ素子のすべてがアクティブ化されるまで反復される。
ライン(又はサブアパーチャ)毎に、最終的な超音波画像の関連ラインを形成するために使用される全受信信号は、受信期間における所与のサブアパーチャのトランスデューサ素子によって測定された電圧信号の合計となる。以下のビームフォーミング処理後の結果的なライン信号は、通常、無線周波数(RF)データと呼ばれる。その後、様々なサブアパーチャによって生成された各ライン信号(RFデータセット)は、最終的な超音波画像のラインを生成する追加処理が実行される。時間の経過に伴うライン信号の振幅の変化は、深さに応じた超音波画像の輝度の変化に寄与し、高振幅ピークは、最終的な画像における明ピクセル(又はピクセルの集合)に対応する。ライン信号の始まり付近に現れるピークは浅い構造からのエコーを表す一方、ライン信号のそれ以降順次現れるピークは対象者体内において増加する深さにおける構造からのエコーを表す。
トランスデューサコントローラ18によって制御される関数の1つは、ビームがステアリング及び集束される方向である。ビームは、トランスデューサアレイから(直交して)まっすぐ前方にステアリングされ、又はより広い視野のために様々な角度においてステアリングされる。送信ビームのステアリング及び集束は、トランスデューサ素子作動時間に応じて制御される。
一般的な超音波データ取得において、平面波イメージング及び「ビームステアード」イメージングという2つの方法がよく知られている。この2つの方法は、送信モード(「ビームステアード」イメージング)及び/又は受信モード(平面波イメージング及び「ビームステアード」イメージング)におけるビームフォーミングの存在によって特徴づけられる。
まず集束機能について説明すると、同時にトランスデューサ素子のすべてをアクティブ化することによって、トランスデューサアレイは、対象者の体内を進むにつれて発散する平面波を生成する。この場合、超音波のビームは、非集束のままである。トランスデューサのアクティブ化に対して位置に依存した時間遅延を組み込むことによって、ビームの波面を、集束帯と呼ばれる所望の点に収束させることが可能である。この集束帯は、横方向のビーム幅が送信ビーム幅の半分未満である点として定義される。このようにして、最終的な超音波画像の横方向の解像度が改善される。
例えば、時間遅延によりトランスデューサ素子が連続してアクティブ化された場合、最も外側の素子から始まりトランスデューサアレイの中央の素子で終了すると、中央の素子に沿ったプローブから所与の距離に集束帯が形成される。プローブからの集束帯の距離は、トランスデューサ素子のアクティブ化の各後続ラウンド間における時間遅延に応じて異なる。ビームが集束帯を通過後、発散し始めて、遠視野イメージング領域を形成する。なお、トランスデューサアレイに近接して配置された集束帯の場合、超音波ビームは遠視野で急速に発散し、最終的な画像にビーム幅アーチファクトが生じる。通常、トランスデューサアレイと集束帯との間に位置する近視野は、超音波ビームにおける大きな重なりのため、詳細はあまり示さない。したがって、集束帯の位置を変更することによって、最終的な画像の品質を顕著に変化させる。
なお、送信モードでは、超音波画像が複数の集束帯(それぞれは異なる送信焦点を有する)に分割されない限り、1つの焦点のみが定義される。
さらに、対象者体内からエコー信号を受信すると、受信集束を実行するために上述した処理の逆の処理を実行することが可能である。換言すれば、入力信号はトランスデューサ素子によって受信され、信号処理のためにシステムに渡される前に電子時間遅延を受ける。この最も単純な例は、遅延加算ビームフォーミングと呼ばれる。時間に応じてトランスデューサアレイの受信集束を動的に調整することが可能である。
ここでビームステアリングの機能を説明すると、トランスデューサ素子に対する時間遅延の正しい適用によって、超音波ビームがトランスデューサアレイを離れるときに超音波ビームに所望の角度を与えることが可能である。例えば、アレイの反対側で終わるシーケンスにおける残りのトランスデューサによって後続されるトランスデューサアレイの第1の側でトランスデューサをアクティブ化することによって、ビームの波面は第2の側に向かって角度が付けられる。トランスデューサアレイの法線に対するステアリング角度のサイズは、後続のトランスデューサ素子のアクティブ化間の時間遅延のサイズに依存する。
さらに、ステアリングされたビームを集束させることが可能であり、各トランスデューサ素子に適用される合計時間遅延は、集束及びステアリング時間遅延の両方の合計である。この場合、トランスデューサアレイは、フェーズドアレイと呼ばれる。
アクティブ化のためにDCバイアス電圧を必要とするCMUTトランスデューサの場合、トランスデューサコントローラ18は、トランスデューサアレイのためのDCバイアス制御45を制御するために結合される。DCバイアス制御45は、CMUTトランスデューサ素子に対して印加されるDCバイアス電圧を設定する。
トランスデューサアレイの各トランスデューサ素子について、通常、チャンネルデータと呼ばれるアナログ超音波信号は受信チャンネルを通ってシステムに入る。受信チャンネルでは、部分的にビームフォーミングされた信号がマイクロビームフォーマ12によってチャンネルデータから生成され、その後、主受信ビームフォーマ20に渡され、トランスデューサの個々のパッチからの部分的にビームフォーミングされた信号が結合されて、無線周波数(RF)データと呼ばれる完全にビームフォーミングされた信号となる。各段階で実行されるビームフォーミングは、上述したように実行され、又は追加の機能を含む。例えば、主ビームフォーマ20は128個のチャンネルを有し、そのそれぞれは数十又は数百のトランスデューサ素子のパッチから部分的にビームフォーミングされた信号を受信する。このようにして、トランスデューサアレイのうちの数千のトランスデューサによって受信された信号は、単一のビームフォーミングされた信号に効率的に寄与する。
ビームフォーミングされた受信信号は、信号プロセッサ22に結合される。信号プロセッサ22は、バンドパスフィルタリング、デシメーション、I及びQ成分分離、組織とマイクロバブルから返された非線形(基本周波数の高調波)エコー信号の識別を可能とするために線形信号と非線形信号を分離するように作用する高調波信号分離などの様々な手法で受信エコー信号を処理できる。信号プロセッサは、さらに、スペックル低減、信号合成、及びノイズ除去などの追加の信号強調を実行する。信号プロセッサにおけるバンドパスフィルタはトラッキングフィルタとすることができ、エコー信号が増加する深さから受信されたときに通過帯域が高周波数帯域から低周波数帯域へスライドし、それによって、通常、解剖学的情報が不足している、より大きな深さからの高い周波数におけるノイズを除去する。
送信用及び受信用のビームフォーマは、異なるハードウェアで実施され、異なる機能を有してもよい。当然ながら、受信機ビームフォーマは、送信ビームフォーマの特性を考慮するように設計される。簡単にするため、図1では、受信機ビームフォーマ12、20のみが示される。完全なシステムにおいては、送信マイクロビームフォーマ及び主送信ビームフォーマを備えた送信チェーンも存在する。
マイクロビームフォーマ12の機能は、アナログ信号経路の数を減らすために信号の最初の組み合わせを提供することである。これは、通常、アナログ領域で実行される。
最終的なビームフォーミングは主ビームフォーマ20において行われ、通常、デジタル化の後である。
送信チャンネル及び受信チャンネルは、固定周波数帯域を有する同一のトランスデューサアレイ6を使用する。ただし、送信パルスが占有する帯域幅は、使用される送信ビームフォーミングに応じて異なり得る。受信チャンネルは、トランスデューサ帯域幅全体をキャプチャでき(従来のアプローチ)、又は、バンドパス処理を使用することによって、所望の情報(例えば主高調波の高調波など)を含む帯域幅のみを抽出できる。
その後、RF信号は、Bモード(すなわち輝度モード又は2Dイメージングモード)プロセッサ26及びドップラープロセッサ28に結合される。Bモードプロセッサ26は、器官組織や血管などの体内の構造のイメージングのために受信超音波信号に対して振幅検出を実行する。ライン毎のイメージングの場合、各ライン(ビーム)は、関連するRF信号によって表され、その振幅はBモード画像のピクセルに割り当てられる輝度値を生成するために使用される。画像内のピクセルの正確な位置は、RF信号に沿った関連振幅測定の位置と、RF信号のライン(ビーム)番号によって決定される。そのような構造のBモード画像は、高調波又は基本波画像モード、又は米国特許第6,283,919号(Roundhill等)及び米国特許第6,458,083号(Jago等)に記載されるように両方の組み合わせで形成される。ドップラープロセッサ28は、画像フィールド中の血球の流れなどの移動物質の検出のために、組織の動き及び血流から生じる時間的に異なる信号を処理する。ドップラープロセッサ28は、通常、体内の選択された種類の物質から返されるエコーを通過させるか、拒絶するかが設定されるパラメータを有する壁フィルタを含む。
Bモードプロセッサ及びドップラープロセッサによって生成された構造信号及び動き信号は、スキャンコンバータ32及びマルチプレーナリフォーマッタ44に結合される。スキャンコンバータ32は、エコー信号を、それらが所望の画像フォーマットで受信された空間関係に配置する。すなわち、スキャンコンバータは、円筒座標系から、画像ディスプレイ40に超音波画像を表示するのに適したデカルト座標系にRFデータを変換するように作用する。Bモードイメージングの場合、所与の座標におけるピクセルの輝度は、その位置から受信されたRF信号の振幅に比例する。例えば、スキャンコンバータは、エコー信号を、二次元(2D)扇形フォーマット、又はピラミッド形の三次元(3D)画像に構成する。スキャンコンバータは、Bモード構造画像を画像フィールド中の点における動きに対応する色でオーバーレイすることができ、ドップラー推定速度は所与の色を生成する。結合されたBモード構造画像及びカラードップラー画像は、構造画像フィールド内の組織の動き及び血流を示す。米国特許第6,443,896号(Detmer)に記載されるように、マルチプレーナリフォーマッタは、身体の体積領域の共通平面における点から受信されたエコーを、その平面の超音波画像に変換する。米国特許第6,530,885号(Entrekin等)に記載されるように、ボリュームレンダラ42は、3Dデータセットのエコー信号を、所与の基準点から見たときの投影3D画像に変換する。
2D又は3D画像は、画像ディスプレイ40上に表示するためのさらなる強調、バッファリング及び一時的な格納のために、スキャンコンバータ32、マルチプレーナリフォーマッタ44及びボリュームレンダラ42から画像プロセッサ30へ結合される。イメージングプロセッサは、例えば強い減衰器又は屈折によって引き起こされる音響シャドウイング、例えば弱い減衰器によって引き起こされる後方強調、例えば反射率の高い組織界面が近接して位置する場合の残響アーチファクトなど、特定のイメージングアーチファクトを最終的な超音波画像から除去するように適応される。さらに、画像プロセッサは、最終的な超音波画像のコントラストを改善するために、特定のスペックル低減機能を扱うように適応される。
イメージングのために使用されるのに加えて、ドップラープロセッサ28によって生成された血流値及びBモードプロセッサ26によって生成された組織構造情報は、定量化プロセッサ34に結合される。定量化プロセッサは、器官のサイズや妊娠期間などの構造的測定に加えて血流の容積流量などの異なる流動条件の測定値を生成する。定量化プロセッサは、測定が行われる対象の画像の解剖学的構造における点などの入力をユーザ制御パネル38から受信する。
定量化プロセッサからの出力データは、ディプレイ40上の画像での測定グラフィック及び値の再生のため、及びディスプレイ装置40からの音声出力のために、グラフィックスプロセッサ36に入力される。グラフィックスプロセッサ36は、超音波画像とともに表示するためのグラフィックオーバーレイを生成する。これらのグラフィックオーバーレイは、患者名、画像日時、イメージングパラメータなどの標準的な識別情報を含み得る。これらの目的のため、グラフィックスプロセッサは、患者名などの入力をユーザインタフェース38から受信する。ユーザインタフェースは、トランスデューサアレイ6からの超音波信号の生成を制御するため、したがってトランスデューサアレイ及び超音波システムによって生成される画像を制御するために送信コントローラ18にも結合される。コントローラ18の送信制御機能は、実行される機能の1つに過ぎない。コントローラ18は、(ユーザによって与えられる)動作のモード、及び受信機アナログ/デジタル変換器における対応する必要な送信機構成及び帯域通過構成も考慮する。コントローラ18は、固定された状態を有するステートマシンでもよい。
ユーザインタフェースは、マルチプレーナ再フォーマット(MPR)画像の画像フィールドにおいて定量化測定を実行するために使用される複数のMPR画像の平面の選択及び制御のために、マルチプレーナリフォーマッタ44にも結合される。
本明細書で説明された方法は、処理ユニット上で実行される。そのような処理ユニットは、図1を参照して上述されたシステムなどの超音波システム内に配置される。例えば、上述した画像プロセッサ30は、以下で詳述する方法のステップの一部又は全部を実行する。若しくは、処理ユニットは、対象者に関係する入力を受け取るように適応された、監視システムなどのいずれかの適切なシステムに配置される。
図2は、関心領域の合成3D超音波画像を取得するための方法100を示す。
本方法は、ステップ110において、対象者の関心領域から予備超音波データを取得することによって開始する。
関心領域から予備超音波データを取得するために、最初のスカウトスキャンが実行される。このスカウトスキャンは、いずれかの超音波プローブを使用して実行され、予備超音波データは、Bモード超音波データ及び/又はドップラー超音波データを含む。
ステップ120において、予備超音波データに基づいて関心領域内で解剖学的特徴が識別される。
換言すれば、予備超音波データは、さらなるイメージングのために関心領域内の解剖学的特徴を識別するために使用される。例えば、解剖学的特徴は、僧帽弁又は大動脈弁などの心臓の弁又は胎児である。予備超音波データは、関心領域内の解剖学的特徴の位置及び/又は向きを見つけるために使用される。
ステップ130において、その解剖学的特徴に基づいて、第1のイメージング位置及び1つ又は複数の追加イメージング位置が決定される。
換言すれば、スカウトスキャン中に取得された予備超音波データは、関心領域から解剖学的情報を導出するために使用され、その後、識別された解剖学的特徴に基づいて3D又は4Dの超音波データをキャプチャするために超音波プローブの動きを案内するために使用される。
これは、例えば、解剖学的特徴を含む可能性のある予備超音波データから2Dイメージング平面を選択し、取得対象の3Dボリュームを中心に置くために2箇所以上の超音波プローブ位置間において重複する解剖学的特徴を選択することによって実行される。この選択は、ユーザ入力を受信することによって手動で、又は、例えば心臓のアノーテーション付きモデルを使用して3Dモードにおいてモデルベースの最適平面識別によって自動的に実行される。
ステップ140において、第1のイメージング位置から第1の3D超音波画像が取得され、1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像が取得される。第1の3D超音波画像の一部が1つ又は複数の追加3D超音波画像のそれぞれの一部と重複し、その重複領域が解剖学的特徴を含むように、画像が取得される。
解剖学的コンテキストに基づく上記の3D超音波画像の取得は、合成3D超音波画像を形成するための第1の3D超音波画像と1つ又は複数の追加3D超音波画像とのより正確な融合を実現する。さらに、本方法は画質の改善を実現し、関連する2D平面の系統的な取得は3D合成超音波画像の客観的な解釈を容易にする。
上述したように、第1の3D超音波画像及び1つ又は複数の追加3D超音波画像は、それぞれ、第1のイメージング位置及び追加イメージング位置から取得される。したがって、3D超音波画像を取得するために使用された超音波プローブは、第1のイメージング位置から1つ又は複数の追加イメージング位置へ移動する必要がある。
超音波プローブは、後で超音波取得中のプローブの動きに関係した画像アーチファクトを除去するために考慮されるプローブ及び対象者の動きを計測するために慣性センサを備える。慣性センサは、3D超音波取得モードにおいて超音波プローブのモータによって生成される磁界がセンサに影響を及ぼさないように配置される。
若しくは、プローブの動きを追跡するために、電磁トラッカ又はリープトラッカも超音波プローブ内で使用される。超音波データ及び動きセンサからのデータは同時に取得される。動きセンサからの回転情報は、ボリューム融合のために、後述する空間位置合わせアルゴリズムに入力される。重複領域からの近接する3Dボリュームにおける共通の解剖学的ランドマークは識別され、その後、動きセンサデータに基づいて空間位置合わせアルゴリズムにおける変換修正のために使用される。
ステップ150において、解剖学的特徴に基づいて、第1の3D超音波画像と1つ又は複数の追加3D超音波画像との間の空間的位置合わせが実行される。
換言すれば、第1の3D超音波画像の位置及び/又は向きは、1つ又は複数の追加3D超音波画像に関連して決定され、その逆も行われる。
空間的位置合わせの実行は、第1の3D超音波画像及び1つ又は複数の追加3D超音波画像内の3D点群を生成することを有し、3D点群は、第1の3D超音波画像内のサーフェス及び1つ又は複数の追加3D超音波画像内のサーフェスを表す。
この3D点群生成は以下のように実行される。心臓モデル又は胎児モデルなどの特定の解剖学的モデルを使用して、3D超音波画像内の関心スライス/ボリュームを識別するための分類モジュールを駆動する。これによって、解剖学的に駆動された点群演算のための探索空間が小さくなる。
その後、3D超音波画像内に3D点群を生成するために分類モジュールによって選択されたスライス/ボリューム上に解剖学的に駆動されたヒートマップを作成するために、セグメンテーションモジュールが使用される。この双方向のアプローチによって点群生成のために必要な探索空間が小さくなり、それによって本方法の演算効率が向上する。
3D点群に基づいて確率マップが作成され、この確率マップは、第1の3D超音波画像及び1つ又は複数の追加3D超音波画像内の所与の点を占有する解剖学的特徴の信頼値を表す。この信頼値が所定の閾値を上回った場合に解剖学的特徴は自動的に識別される。
上述した処理から導出された信頼値は、ボリュームの融合を行うための決定的要素として使用される、解剖学的特徴の3D信頼性マップを作成するために使用される。換言すれば、信頼性マップは解剖学的特徴の視覚化を(ピクセルレベルにおいても)改善し、3D超音波画像のより良好な選択的融合につながる。
空間的位置合わせは、例えば3D点群に基づいて第1の3D超音波画像及び1つ又は複数の追加3D超音波画像に対して2層構造のスティッチングを実行するように適応される機械学習アルゴリズムに基づく。
換言すれば、取得された3D超音波画像上における機械学習(特に深層学習)駆動の解剖学的可能性に基づく3D点群形成は、非剛体位置合わせ技術を使用し解剖学的構造に特化したスティッチングを実行するために使用される。
Elbaz等、「3D Point Cloud Rsgistration for Localization using a Deep Neural Network Auto-Encoder」、IEEE Conf. CVPR、2017年、4631-4640頁に記載される技術などの点群に基づくスティッチングは、第1の3D超音波画像と第2の3D超音波画像との間の非剛体スティッチングを実行するために用いられる。3D超音波画像の重複部分内の重複ボクセルの、上述したものなどの確率マップは、合成3D超音波画像のスティッチングされたボリュームにおける最終的なボクセル選択のための中心的要素の役割を果たす。確率マップの使用によって、合成3D超音波画像の解剖学的表現の正確性が向上する。
単一方向に連続したターゲット-ソース対に基づく位置合わせなどの通常のスティッチング方法は、双方向近傍トポロジを強化する、より強固なスティッチング方法によって置き換えられる。
換言すれば、空間的位置合わせは、ボリューム取得の方向に沿って累積的に実行されない。むしろ、超音波プローブの配置及びその近傍の影響は、ターゲット-ソース選択の指標である。したがって、空間的位置合わせにおいて双方向位置合わせ手法が用いられてもよく、それによって取得の両方向からのエラー伝搬を低減する。
ステップ160において、第1の3D超音波画像と1つ又は複数の追加3D超音波画像とは、空間的位置合わせに基づいて融合され、それによって合成3D超音波画像を生成する。
上述したように、空間的位置合わせステップ中の第1の3D超音波画像及び1つ又は複数の追加3D超音波画像に対して、確率マップが作成される。これは、3D超音波画像の重複部分の3D信頼性マップのための基礎として使用される。
勾配空間画像処理技術であるポアソン融合を使用して融合が実行される。勾配空間画像処理技術は、直接ピクセル値ではなく隣接ピクセル間の差に対して作用する。
また、融合は、いずれかの適切な融合技術を使用して実行される。例えば、アルファ融合、ピラミッド融合、ラプラシアン融合などを使用して、融合は実行される。
空間的位置合わせステップに加えて、融合ステップにおいて機械学習又は深層学習のアルゴリズムを用いることが可能である。例えば、構造を認識し、認識された構造に応じた所与の手法で3D超音波画像を結合するように、機械学習アルゴリズムは訓練される。
ステップ170において、解剖学的特徴の動きは、合成3D超音波画像に基づいて決定される。この解剖学的特徴の動きの決定は、図4を参照して以下で詳述される。
なお、図3を参照して後述される例は2つの3D超音波画像に基づく合成3D超音波画像の生成を説明するが、合成3D超音波画像は、いずれかの数の取得3D超音波画像に基づいて生成される。
例えば、合成3D超音波画像を生成するために、3つの異なるイメージング位置から3つの3D超音波画像が取得される。
言い換えれば、合成3D超音波画像を生成するために、複数の3D超音波画像が融合される。
図3は、上述した方法による3D点群に基づくボリュームスティッチングの概略表現300を示す。
図3は、合成3D超音波画像330を生成するために使用される第1の3D超音波画像310及び追加3D超音波画像320を示す。第1の3D超音波画像及び追加3D超音波画像は、共通解剖学的特徴を含む重複部分を有する、解剖学的対象物の2つの斜視図を示す。
第1の3D超音波画像及び第2の3D超音波画像に対して、2つのモジュール、すなわち分類モジュール及びセグメンテーションモジュールが適用される。分類モジュールは3Dボリュームの各2Dスライスにおける関連対象物の存在を識別し、セグメンテーションモジュールは点群の形態において分類モジュールによって選択された2Dスライス中の対象物を局所化する。
分類モジュールは、セグメンテーションモジュールを関心対象物又は解剖学的特徴の近傍内で動作するように制限するように作用する。その結果として、これは、そのサーフェスプロットが点群によって表される対象物を分離する。
それによって、その2Dスライス330が図3に示された合成3D超音波画像を形成するために融合される前に3D超音波画像のそれぞれにおいて3D点群が生成される。
図4は、剛体スティッチング方法400を使用して生成された合成画像と非剛体スティッチング方法410を使用して生成された合成画像との比較を示す。
ボリュームスティッチングの実行中の剛体位置合わせの使用は、その自然運動に起因する胎児(例えば手又は脚)又は心臓弁などの画像内の運動する解剖学的構造上に陰影アーチファクトを引き起こす。陰影アーチファクト415の例を画像400に示す。
比較において、非剛体位置合わせは、陰影アーチファクト415などの陰影アーチファクトを除去できる。画像410は、画像400と同一の解剖学的特徴の合成画像を示す。ただし、画像410は非剛体スティッチング方法を使用して生成されるため、最終的な画像における陰影アーチファクトの存在は顕著に低減される。
上述したように、解剖学的特徴の動きに起因して、陰影アーチファクトは合成3D超音波画像において発生する。これらの陰影アーチファクトは、動きの回数を数えるために非剛体変換行列を合成3D超音波画像に適用することによってキャプチャされる。換言すれば、この明らかな位置合わせの異常/エラーは、3Dにおいて解剖学的動きを追跡するために使用される。
単純に多数の隣接3Dボリュームである4D超音波取得の場合、非剛体変換行列は、解剖学的動きを定量化及び/又は追跡するために使用される解剖学的特徴の動きの確率的軌跡を提供する。
開示の実施形態の変形は、図面、開示内容、及び添付の特許請求の範囲を吟味することによって、特許請求の範囲に記載の発明を実施する際に当業者によって理解及び実現されることが可能である。特許請求の範囲において、「有する」という用語は、他の要素又はステップを排除するものではなく、単数形は複数形を排除するものではない。単一のプロセッサ又は他のユニットは、特許請求の範囲に記載されるいくつかの項目の機能を果たす。特定の手段が互いに異なる従属項に記載されているという単なる事実は、それらの手段の組み合わせが効果的に使用されることができないことを示すものではない。コンピュータプログラムが上述されている場合、他のハードウェアとともに、又は他のハードウェアの一部として供給された光学格納媒体又はソリッドステート媒体などの適切な媒体上に格納/分散されてもよいが、インターネット又は他の有線又は無線通信システムを介してなど、他の形態で分散されてもよい。特許請求の範囲又は明細書において「適応される」という表現が使用されている場合、「適応される」という用語は「構成される」という用語と同等であることが意図されることに留意されたい。特許請求の範囲におけるあらゆる参照符号は、範囲を限定すると解釈されるべきではない。

Claims (13)

  1. 関心領域の合成3D超音波画像を取得するための方法であって、前記方法は、
    対象者の関心領域から予備超音波データを取得するステップと、
    前記予備超音波データに基づいて前記関心領域内の解剖学的特徴を識別するステップと、
    前記解剖学的特徴に基づいて、第1のイメージング位置と1つ又は複数の追加イメージング位置とを決定するステップと、
    前記第1のイメージング位置から第1の3D超音波画像を取得し、前記1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像を取得するステップであって、前記第1の3D超音波画像の一部は前記1つ又は複数の追加3D超音波画像の一部と重複することによって重複部分を形成し、前記重複部分は前記解剖学的特徴を含むステップと、
    前記解剖学的特徴に基づいて、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像との間の空間的位置合わせを実行するステップであって、前記空間的位置合わせを実行するステップは、
    前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内に3D点群を生成するステップであって、前記3D点群は前記第1の3D超音波画像内のサーフェス及び前記1つ又は複数の追加3D超音波画像内のサーフェスを表すステップ、並びに
    前記3D点群に基づいて確率マップを生成するステップであって、前記確率マップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内の所与の点を占有する解剖学的特徴の信頼値を表すステップ、
    を有するステップと、
    前記空間的位置合わせに基づいて前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合し、それによって合成3D超音波画像を生成するステップであって、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合することは、前記確率マップに基づくステップと、
    を有する方法。
  2. 前記方法は、さらに、前記合成3D超音波画像に基づいて前記解剖学的特徴の動きを決定するステップを有する、請求項1に記載の方法。
  3. 前記解剖学的特徴の動きを決定するステップは、
    非剛体変換行列を前記合成3D超音波画像に適用するステップと、
    変換された前記合成3D超音波画像に基づいてアーチファクトを識別するステップと、
    を有する、請求項2に記載の方法。
  4. 前記解剖学的特徴の動きを決定するステップは、前記アーチファクトを追跡するステップを有する、請求項3に記載の方法。
  5. 前記空間的位置合わせを実行するステップは、機械学習アルゴリズムを使用するステップを有する、請求項1からのいずれか一項に記載の方法。
  6. 前記機械学習アルゴリズムは、前記3D点群に基づいた2層構造のスティッチングを実行するように適応されている、請求項5に記載の方法。
  7. 前記空間的位置合わせを実行するステップは、前記信頼値が所定の値よりも大きい場合、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内の前記解剖学的特徴の位置を識別するステップを有する、請求項1から6のいずれか一項に記載の方法。
  8. 前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像を融合するステップは、前記確率マップに基づいて前記重複部分の3D信頼性マップを生成するステップを有する、請求項1から7のいずれか一項に記載の方法。
  9. 前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像を融合するステップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像にポアソン融合を適用するステップを有する、請求項1からのいずれか一項に記載の方法。
  10. コンピュータ上で実行された場合、請求項1からのいずれか一項に記載の方法を実施するコンピュータプログラムコード手段を有する、コンピュータプログラム。
  11. 対象者の関心領域から予備超音波データを取得し、
    前記予備超音波データに基づいて前記関心領域内の解剖学的特徴を識別し、
    前記解剖学的特徴に基づいて、第1のイメージング位置と1つ又は複数の追加イメージング位置とを決定し、
    前記第1のイメージング位置から第1の3D超音波画像を取得し、前記1つ又は複数の追加イメージング位置から1つ又は複数の追加3D超音波画像を取得し、前記第1の3D超音波画像の一部は前記1つ又は複数の追加3D超音波画像の一部と重複することによって重複部分を形成し、前記重複部分は前記解剖学的特徴を含み、
    前記解剖学的特徴に基づいて、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像との間の空間的位置合わせを実行し、前記空間的位置合わせを実行することは、
    前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内に3D点群を生成することであって、前記3D点群は前記第1の3D超音波画像内のサーフェス及び前記1つ又は複数の追加3D超音波画像内のサーフェスを表す、3D点群を生成すること、並びに
    前記3D点群に基づいて確率マップを生成することであって、前記確率マップは、前記第1の3D超音波画像及び前記1つ又は複数の追加3D超音波画像内の所与の点を占有する解剖学的特徴の信頼値を表す、確率マップを生成すること、
    を有し、
    前記空間的位置合わせに基づいて前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合し、それによって合成3D超音波画像を生成し、前記第1の3D超音波画像と前記1つ又は複数の追加3D超音波画像とを融合することは、前記確率マップに基づく
    処理ユニット。
  12. 請求項11に記載の処理ユニットと、4D超音波データを取得する超音波プローブとを備える、超音波システム。
  13. 前記超音波プローブは、動きセンサと電磁トラッカとリープトラッカとのうちの1つ又は複数を備える、請求項12に記載の超音波システム。
JP2021552995A 2019-03-08 2020-03-06 合成3d超音波画像を取得するための方法及びシステム Active JP7346586B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962815484P 2019-03-08 2019-03-08
US62/815,484 2019-03-08
EP19163454.2 2019-03-18
EP19163454.2A EP3711677A1 (en) 2019-03-18 2019-03-18 Methods and systems for acquiring composite 3d ultrasound images
PCT/EP2020/056051 WO2020182670A1 (en) 2019-03-08 2020-03-06 Methods and systems for acquiring composite 3d ultrasound images

Publications (3)

Publication Number Publication Date
JP2022524360A JP2022524360A (ja) 2022-05-02
JPWO2020182670A5 JPWO2020182670A5 (ja) 2023-03-09
JP7346586B2 true JP7346586B2 (ja) 2023-09-19

Family

ID=65818336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552995A Active JP7346586B2 (ja) 2019-03-08 2020-03-06 合成3d超音波画像を取得するための方法及びシステム

Country Status (5)

Country Link
US (1) US12023202B2 (ja)
EP (2) EP3711677A1 (ja)
JP (1) JP7346586B2 (ja)
CN (1) CN113543721B (ja)
WO (1) WO2020182670A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744280B (zh) * 2021-07-20 2024-09-17 北京旷视科技有限公司 图像处理方法、装置、设备及介质
CN114287963A (zh) * 2021-12-30 2022-04-08 重庆海扶医疗科技股份有限公司 图像处理方法、装置、电子设备及计算机可读介质
EP4383190A1 (en) 2022-12-09 2024-06-12 Koninklijke Philips N.V. Processing image data of a fetus
CN115861563B (zh) * 2022-12-28 2023-10-03 无锡东如科技有限公司 一种图拓扑刚性点云配准的三维重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178448A (ja) 2008-01-31 2009-08-13 Toshiba Corp 超音波診断装置、画像診断装置、及びプログラム
WO2017186518A1 (en) 2016-04-26 2017-11-02 Koninklijke Philips N.V. 3d image compounding for ultrasound fetal imaging

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5575286A (en) 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
US6283919B1 (en) 1996-11-26 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging with blended tissue harmonic signals
US6458083B1 (en) 1996-11-26 2002-10-01 Koninklijke Philips Electronics N.V. Ultrasonic harmonic imaging with adaptive image formation
US6013032A (en) 1998-03-13 2000-01-11 Hewlett-Packard Company Beamforming methods and apparatus for three-dimensional ultrasound imaging using two-dimensional transducer array
US5997479A (en) 1998-05-28 1999-12-07 Hewlett-Packard Company Phased array acoustic systems with intra-group processors
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US6468216B1 (en) 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
JP2003093382A (ja) * 2001-09-26 2003-04-02 Matsushita Electric Ind Co Ltd 超音波診断装置
US20070255137A1 (en) * 2006-05-01 2007-11-01 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data display and measurement
EP2225724A1 (en) * 2007-12-18 2010-09-08 Koninklijke Philips Electronics N.V. System for multimodality fusion of imaging data based on statistical models of anatomy
US20130289407A1 (en) * 2010-09-14 2013-10-31 Samsung Medison Co., Ltd. 3d ultrasound system for extending view of image and method for operating the 3d ultrasound system
CN103402453B (zh) * 2011-03-03 2016-11-16 皇家飞利浦有限公司 用于导航系统的自动初始化和配准的系统和方法
US9179890B2 (en) * 2011-07-14 2015-11-10 Siemens Aktiengesellschaft Model-based positioning for intracardiac echocardiography volume stitching
CN104822323B (zh) * 2012-12-03 2020-06-30 皇家飞利浦有限公司 超声和x射线模态的整合
EP2807978A1 (en) * 2013-05-28 2014-12-03 Universität Bern Method and system for 3D acquisition of ultrasound images
US9700284B2 (en) * 2013-11-13 2017-07-11 Siemens Medical Solutions Usa, Inc. Three-dimensional ultrasound reconstruction with confidence information
CN106659473B (zh) * 2014-07-29 2020-04-21 皇家飞利浦有限公司 超声成像装置
WO2016154714A1 (en) * 2015-03-31 2016-10-06 Centre For Imaging Technology Commercialization 3d ultrasound image stitching
US11744554B2 (en) * 2016-05-12 2023-09-05 Fujifilm Sonosite, Inc. Systems and methods of determining dimensions of structures in medical images
CN109310399B (zh) * 2016-06-06 2022-12-06 皇家飞利浦有限公司 医学超声图像处理设备
WO2018099810A1 (en) * 2016-11-29 2018-06-07 Koninklijke Philips N.V. Ultrasound imaging system and method
AU2018316801B2 (en) * 2017-08-16 2023-12-21 Mako Surgical Corp. Ultrasound bone registration with learning-based segmentation and sound speed calibration
US10248981B1 (en) * 2018-04-10 2019-04-02 Prisma Systems Corporation Platform and acquisition system for generating and maintaining digital product visuals
SG11202011449QA (en) * 2018-06-19 2020-12-30 Univ Leland Stanford Junior Compounding and non-rigid image registration for ultrasound speckle reduction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178448A (ja) 2008-01-31 2009-08-13 Toshiba Corp 超音波診断装置、画像診断装置、及びプログラム
WO2017186518A1 (en) 2016-04-26 2017-11-02 Koninklijke Philips N.V. 3d image compounding for ultrasound fetal imaging

Also Published As

Publication number Publication date
WO2020182670A1 (en) 2020-09-17
CN113543721A (zh) 2021-10-22
EP3934539A1 (en) 2022-01-12
EP3711677A1 (en) 2020-09-23
US12023202B2 (en) 2024-07-02
CN113543721B (zh) 2024-07-09
EP3934539B1 (en) 2023-11-29
US20220167947A1 (en) 2022-06-02
JP2022524360A (ja) 2022-05-02

Similar Documents

Publication Publication Date Title
JP7346586B2 (ja) 合成3d超音波画像を取得するための方法及びシステム
EP3923817B1 (en) Methods and systems for valve regurgitation value calculation
CN112867444B (zh) 用于引导对超声图像的采集的系统和方法
US12102482B2 (en) Methods and systems for adjusting the field of view of an ultrasound probe
CN112334072B (zh) 用于执行彩色多普勒超声成像的方法和系统
US20230148989A1 (en) Methods and systems for obtaining a 3d vector flow field
EP4223227A1 (en) A method and system for performing fetal weight estimations
EP4159139A1 (en) System and method for segmenting an anatomical structure
WO2023052178A1 (en) System and method for segmenting an anatomical structure
CN114846510A (zh) 根据多个不同地扰动的基于模型的解剖图像分割的节点变化来生成分割置信度图

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150