JP2023544129A - 組織の区別に基づくbモード画像のレンダリング - Google Patents

組織の区別に基づくbモード画像のレンダリング Download PDF

Info

Publication number
JP2023544129A
JP2023544129A JP2023518994A JP2023518994A JP2023544129A JP 2023544129 A JP2023544129 A JP 2023544129A JP 2023518994 A JP2023518994 A JP 2023518994A JP 2023518994 A JP2023518994 A JP 2023518994A JP 2023544129 A JP2023544129 A JP 2023544129A
Authority
JP
Japan
Prior art keywords
voxels
tissue
mode
rendering
mode image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023518994A
Other languages
English (en)
Inventor
ジャン‐ルック フランソワ‐マリエ ロベルト
フランソワ ガイ ジェラルド マリエ ヴィニョン
べノイト ジャン‐ドミニク ベルトランド モーリス モーリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023544129A publication Critical patent/JP2023544129A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

いくつかの例では、Bモード画像における組織タイプは、マルチパラメトリック・イメージング及び/又は他のセグメント化技法によって区別される。組織タイプは、色、半透明性、及び反射率などの物質特性をBモード画像のボクセルに割り当てるために使用される。物質特性は、レンダリングされた画像を生成するために使用される。いくつかの例では、ボクセルに割り当てられた物質特性の1つ又は複数は、マルチパラメータ・イメージング中に獲得された組織パラメータの値に対応する。レンダリングされた画像は、Bモード画像とマルチパラメータ・イメージング両方に基づくデータを有する。

Description

[001] 本出願は、グレースケール画像からカラー画像を生成することに関する。より詳細には、本出願は、例えば組織タイプに基づいて強化された、強化されたレンダリングをBモード超音波画像から生成することに関する。
[002] Bモード超音波画像は、数10年前の導入以来、グレースケール画像を生成するために使用されてきた。それでも、画像処理の進歩が、他の画像診断法で行われてくるにつれて、ユーザは、Bモード・イメージングから、色彩豊かな及び/又は現実的な画像を要求し始めてきた。いくつかの用途では、色及び/又は他の可視化の改善は、Bモード画像を解釈しやすいものにする。超音波画像の使用が、非専門家(例えば、非放射線医、非音波検査者、経験のない音波検査者)の間で増加するにつれ、より簡単な画像解釈の必要性も増加する。
[003] 本明細書で開示されるように、組織タイプ及び/又は機械的特性に基づく現実的なレンダリング技法が、Bモード画像のグレースケール・マッピングの代わりに適用される。組織タイプをより現実的であるように見せる、並びに/又は、組織タイプを区別及び/若しくは解釈しやすいものにする、種々の色及び/又は他の物質特性で、種々の組織タイプ(例えば、筋肉、脂肪、肝臓、腎臓)が表される。いくつかの例では、種々の組織タイプは、マルチパラメトリック・イメージング(例えば、減衰、音の速さ、エラストグラフィ)に基づいて決定される。いくつかの例では、組織タイプを決定するために、ニューラル・ネットワーク、Bモード・テクスチャ、及び/又は解剖学的モデルなど、他の又は追加の技法が使用される。色及び/又は他の物質特性は、各組織タイプに対して異なるレンダリング「レシピ」を使用することによって適用される。例えば、脂肪として識別された組織は、脂肪を光沢のない又はつや消しに見せる白色及び物質特性を割り当てられ、健康な肝臓と識別された組織は、肝臓を輝いているように見せる赤色及び物質特性を割り当てられる。
[004] 本明細書で開示された少なくとも1つの例によれば、装置は、画像化されたボリュームのBモード画像を受信することであって、Bモード画像が、画像化されたボリューム内の異なる空間ロケーションにそれぞれが関連付けられ、画像化されたボリューム内の関連付けられた空間ロケーションから受信されたエコー信号の強度に対応する強度値をそれぞれが有する、複数の第1のボクセルを有する、受信することと、複数の第1のボクセルのそれぞれの1つ又は複数の組織パラメータ値を有する組織パラメータ・マップを受信することと、1つ又は複数の物質特性値を複数の第2のボクセルのそれぞれに割り当てることによって、複数の第2のボクセルを有する3Dレンダリング・データセットを生成することであって、複数の第2のボクセルのそれぞれに割り当てられた1つ又は複数の物質特性値が、Bモード画像のそれぞれの第1のボクセルに関連付けられた強度値に少なくとも部分的に基づき、組織パラメータ・マップから取得されたそれぞれのボクセルに関連付けられた組織パラメータ値に少なくとも部分的にさらに基づく、生成することと、3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成することとを行うように構成された、プロセッサを備える。装置は、強化されたBモード・レンダリングを表示するように構成されたディスプレイを備える。
[005] 本明細書で開示された少なくとも1つの例によれば、方法は、画像化されたボリュームのBモード画像を受信することであって、Bモード画像が、画像化されたボリューム内の異なる空間ロケーションにそれぞれが関連付けられ、画像化されたボリューム内の関連付けられた空間ロケーションから受信されたエコー信号の強度に対応する強度値をそれぞれが有する、複数の第1のボクセルを有する、受信することと、複数の第1のボクセルのそれぞれの1つ又は複数の組織パラメータ値を有する組織パラメータ・マップを受信することと、3Dレンダリング・データセットの複数の第2のボクセルのそれぞれに1つ又は複数の物質特性値を割り当てることであって、複数の第2のボクセルのそれぞれに割り当てられた1つ又は複数の物質特性値が、Bモード画像のそれぞれの第1のボクセルに関連付けられた強度値に少なくとも部分的に基づき、組織パラメータ・マップから取得されたそれぞれのボクセルに関連付けられた組織パラメータ値に少なくとも部分的にさらに基づく、割り当てることと、3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成することとを有する。
[006] 本明細書で開示された少なくとも1つの例によれば、方法は、Bモード画像の複数の第1のボクセルのうちの個々の1つの組織タイプを決定するためにBモード画像をセグメント化することと、3Dレンダリング・データセットの複数の第2のボクセルのそれぞれに1つ又は複数の物質特性値を割り当てることであって、1つ又は複数の物質特性値が、組織タイプに少なくとも部分的に基づく、割り当てることと、3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成することと、強化されたBモード・レンダリングをディスプレイに表示することとを有する。
[007] Bモード画像及び対応する組織パラメータ・カラーマップの例の図である。 [008] 本開示の例による、配置された超音波画像システムのブロック図である。 [009] 本開示の例による、実例のプロセッサを示すブロック図である。 [010] 本開示の例による、Bモード及びマルチパラメトリック・イメージングからレンダリングを生成するプロセスのグラフィカル表現である。 [011] 組織パラメータ・テーブルの例の図である。 [012] 本開示の例による、Bモード・イメージングからレンダリングを生成するプロセスのグラフィカル表現である。 [013] 本開示の例による、モデルの訓練及び導入のためのプロセスのブロック図である。 [014] 本開示の例による、2ステップ・レンダリング・プロセスのグラフィカルな概観の図である。
[015] 特定の例示的な例の以下の説明は、本質的に例示にすぎず、本開示又はその用途若しくは使用目的を限定することを少しも意図するものではない。本装置、システム、及び方法の例についての以下の詳細な説明では、本明細書の一部を形成し、説明される装置、システム、及び方法が実践される図固有の例によって示された、添付の図面を参照する。これらの例は、本開示の装置、システム、及び方法を当業者が実践できるように十分詳しく説明されるが、他の例が利用されてもよいこと、並びに、本開示の精神及び範囲から逸脱することなく、構造的及び論理的変更が行われてもよいことを理解されたい。その上、明瞭さのために、特定の特徴の詳細な説明は、当業者に明らかなとき、本開示の説明を不明瞭にしないよう、論じられない。したがって、以下の詳細な説明は、限定的な意味で理解されるべきではなく、本装置、システム、及び方法の範囲は、添付の特許請求の範囲によってのみ、定義される。
[016] Koninklijke Philipsによって開発されたTrueVueシステムなどの、超音波のためのフォトリアリスティック・レンダリング技法が、最近、市販で入手可能になってきた。それでも、既存のフォトリアリスティック・レンダリング技法が、3次元(例えば、ボリューム)データセットに典型的に適用され、組織タイプを区別しない。組織の1つ又は複数のパラメータ(例えば、組織を通る音の速さ、組織内での超音波信号の減衰、剛性)を決定可能な、新しい超音波画像及びデータ分析技法も開発されてきた。それでも、既存のシステムでは、これらのパラメータは、典型的には、Bモード画像とは別々に提示されるか、パラメータは、カラー・マッピングされ、Bモード画像に単純に被せられる。
[017] 図1は、Bモード画像及び対応する組織パラメータ・カラーマップの例を示す。Bモード画像100は、肝臓及び周囲の組織の一部である。組織パラメータ・カラーマップ105は、音の速さのマップである。言い換えれば、超音波信号が組織の異なる領域を通って進んだ速さが、異なる色にマッピングされ、表示されている。Bモード画像100では、皮下脂肪層102、下にある筋肉層104、及び肝臓組織106は、異なるテクスチャ及び異なるピクセル強度を提示する。カラーマップ105では、皮下脂肪層102は、音の速さが遅いことを示す鮮やかな青色であり、筋肉層104は、音の速さが速いことを示す深い赤色であり、一方で、肝臓組織106は、音の速さがさらに遅いことを示す明るい青色から暗い青色である。色のこれらのはっきりした変化は、組織パラメータ・カラーマップ105において、異なる組織タイプをはるかに判別しやすいものにする。それでも、カラーマップ105がBモード画像100に被せられた場合、Bモード画像100によって提供された構造及びテクスチャ情報は、不明瞭になる。さらに、カラーマップ105の解像度は、Bモード画像100の解像度より低いので、組織タイプをピクセル間(又はボクセル間)で正確に相関させることはできない。例えば、原則として、脂肪層102は、肝臓組織106より音の速さが遅いはずであるが、脂肪層102は、カラーマップ105では、隣接した筋肉層104からの影響を平均することにより、速い速度を持つように見える。
[018] 本開示の例によれば、Bモード画像における異なる組織タイプを決定するために、マルチパラメトリック超音波画像が使用される。いくつかの例では、組織タイプを決定するために、ニューラル・ネットワーク、Bモード・テクスチャ、及び/又は解剖学的モデルなど、他の又は追加の技法が使用される。異なる組織タイプ(例えば、筋肉、脂肪、肝臓、腎臓)に関連付けられたピクセル又はボクセルは、異なる色及び/又は他の物質特性の値を割り当てられる。値に基づいて、カラーBモード画像の外見を有するレンダリングが生成される。ボクセルに割り当てられた物質特性は、ボクセルがどのようにレンダリングされるか(例えば、レンダリングにおけるボクセルの外見が物質特性でどのように変化するか)に影響を及ぼす。色及び/又は他の物質特性の値は、組織タイプがより現実的に見えるBモード画像の生成を可能にする、並びに/又は、組織タイプを区別及び/若しくは解釈しやすいものにする。いくつかの例では、Bモード画像及びパラメータ・マップのサイドバイサイド・ビューを要求すること、又はBモード画像にパラメータ・マップを被せることではなく、Bモード画像において複数のパラメータが伝えられる。
[019] 図2は、本開示の原理による、構築された超音波画像システム200のブロック図を示す。本開示による超音波画像システム200は、トランスデューサ・アレイ214を備えることができ、トランスデューサ・アレイ214は、血管内超音波(IVUS)カテーテル・プローブなど、例えば外部プローブ又は内部プローブのような、超音波プローブ212に備えられる。他の例では、トランスデューサ・アレイ214は、画像化されることになる対象者(例えば、患者)の表面に等角にあてがわれるように構成された柔軟なアレイの形である。トランスデューサ・アレイ214は、超音波信号(例えば、ビーム、波)を送信し、送信された超音波信号に応じたエコー(例えば、受信された超音波信号)を受信するように構成される。例えば、直線アレイ、曲線アレイ、又はフェーズド・アレイのような、様々なトランスデューサ・アレイが使用される。トランスデューサ・アレイ214は、例えば、2D及び/又は3Dイメージングのために、高度と方位角両方の次元でスキャンする能力があるトランスデューサ素子の(示されたような)2次元アレイを有することができる。一般に知られているように、軸方向は、(軸方向が広がる曲線アレイの場合)アレイの面に垂直な方向であり、方位角の方向は、一般に、アレイの縦の次元で定義され、高度の方向は、方位角の方向を横切る。
[020] いくつかの例では、トランスデューサ・アレイ214は、マイクロビーム形成器216に連結され、マイクロビーム形成器216は、超音波プローブ212内にあり、アレイ214のトランスデューサ素子による信号の送信及び受信を制御する。いくつかの例では、マイクロビーム形成器216は、アレイ214の能動素子(例えば、任意の所与の時間における能動的な開口部を定義するアレイの素子の能動的なサブセット)による信号の送信及び受信を制御する。
[021] いくつかの例では、マイクロビーム形成器216は、送信/受信(T/R)スイッチ218に、例えばプローブ・ケーブルによって又はワイヤレスで、連結され、送信/受信(T/R)スイッチ218は、送信と受信を切り替え、高エネルギー送信信号からメイン・ビーム形成器222を保護する。いくつかの例では、例えばポータブル超音波システムでは、T/Rスイッチ218、及びシステムの他の要素は、画像処理電子機器を収納する超音波システム・ベースではなく、超音波プローブ212に備えられることが可能である。超音波システム・ベースは、典型的には、信号処理及び画像データ生成のための回路機器、並びに、ユーザ・インターフェースを提供するための実行可能命令を有する、ソフトウェア及びハードウェア構成要素を有する。
[022] マイクロビーム形成器216の制御下でのトランスデューサ・アレイ214からの超音波信号の送信は、送信コントローラ220によって指図され、送信コントローラ220は、T/Rスイッチ218及びメイン・ビーム形成器222に連結される。送信コントローラ220は、ビームが誘導される方向を制御する。ビームは、トランスデューサ・アレイ214からまっすぐに(トランスデューサ・アレイ214に直角)、又は、より広い視野のために異なる角度で、誘導される。送信コントローラ220は、さらに、ユーザ・インターフェース224に連結され、ユーザ入力デバイスのユーザの動作(例えば、ユーザ制御)からの入力を受信する。ユーザ・インターフェース224は、制御パネル252など、1つ又は複数の入力デバイスを含むことができ、制御パネル252は、1つ又は複数の機械制御(例えば、ボタン、スライダ、等)、タッチ・センサ制御(例えば、トラックパッド、タッチスクリーン、若しくは同様のもの)、及び/又は、他の既知の入力デバイスを含む。
[023] いくつかの例では、マイクロビーム形成器216によって生み出された部分的にビーム形成された信号は、メイン・ビーム形成器222に連結され、メイン・ビーム形成器222において、トランスデューサ素子の個々のパッチからの部分的にビーム形成された信号が、完全にビーム形成された信号に結合される。いくつかの例では、マイクロビーム形成器216は省略される。これらの例では、トランスデューサ・アレイ214は、メイン・ビーム形成器222の制御下にあり、メイン・ビーム形成器222は、信号の全てのビーム形成を実施する。例では、マイクロビーム形成器216の有無にかかわらず、メイン・ビーム形成器222のビーム形成された信号は、処理回路機器250に連結され、処理回路機器250は、ビーム形成された信号(すなわち、ビーム形成されたRFデータ)から超音波画像を生み出すように構成された、1つ又は複数のプロセッサ(例えば、信号プロセッサ226、Bモード・プロセッサ228、ドップラー・プロセッサ260、並びに、1つ又は複数の画像生成及び処理構成要素268)を備えることができる。
[024] 信号プロセッサ226は、帯域通過フィルタリング、デシメーション、I及びQ成分分離、並びに調和信号分離などの様々な方式で、受信されたビーム形成されたRFデータを処理するように構成される。信号プロセッサ226は、さらに、スペックル低減、信号コンパウンディング、及び電子ノイズ除去など、追加の信号強化を実施する。処理された信号(I及びQ成分又はIQ信号と呼ばれることもある)は、画像生成のための追加の下流の信号処理回路に連結される。IQ信号は、システム内の複数の信号経路に連結され、信号経路のそれぞれは、異なるタイプの画像データ(例えば、Bモード画像データ、ドップラー画像データ)を生成するのに適した信号処理構成要素の固有の配置に関連付けられる。例えば、システムは、Bモード画像データを生み出すために、信号プロセッサ226からBモード・プロセッサ228に信号を連結するBモード信号経路258を有することができる。
[025] Bモード・プロセッサ228は、体の構造の画像化のために振幅検出を採用することができる。Bモード・プロセッサ228は、組織画像及び/又はコントラスト画像のための信号を生成する。Bモード・プロセッサ228によって生み出された信号は、スキャン・コンバータ230及び/又はマルチプラナー・リフォーマッタ232に連結される。スキャン・コンバータ230は、エコー信号が受信された空間的な関係から所望の画像フォーマットにエコー信号を配置するように構成される。例えば、スキャン・コンバータ230は、2次元(2D)セクタ形状のフォーマット、又は角錐若しくはそうでなければ、形作られた3次元(3D)フォーマットに、エコー信号を配置する。
[026] いくつかの例では、システムは、信号プロセッサ226からの出力をドップラー・プロセッサ260に連結するドップラー信号経路262を有することができる。ドップラー・プロセッサ260は、ドップラー偏移を推定し、ドップラー画像データを生成するように構成される。ドップラー画像データは、色データを含むことができ、色データは、次いで、表示のために、Bモード(すなわちグレースケール)画像データを被せられる。ドップラー・プロセッサ260は、例えばウォール・フィルタを使用して、不要な信号(すなわち、動いていない組織に関連付けられたノイズ又は擾乱)を取り除くように構成される。ドップラー・プロセッサ260は、既知の技法に従って速度及びパワーを推定するようにさらに構成される。例えば、ドップラー・プロセッサは、自動相関器などのドップラー推定器を備え、速度(ドップラー周波数)推定は、ラグワン自己相関機能(例えば、R1)の論拠に基づき、ドップラー・パワー推定は、ラグゼロ自己相関機能(例えば、R0)の規模に基づく。速度推定は、カラー・ドップラー・データと呼ばれ、パワー推定は、パワー・ドップラー・データと呼ばれる。既知の位相ドメイン(例えば、MUSIC、ESPRITなどの、パラメトリック周波数推定器)、又は時間ドメイン(例えば、相互相関)信号処理技法によって、動きも推定されることが可能である。加速度又は時間及び/若しくは空間速度の派生語の推定器など、速度の時間又は空間的分散に関する他の推定器が、速度推定器の代わりに又は追加として、使用されることが可能である。いくつかの例では、速度及びパワー推定(例えば、カラー及びパワー・ドップラー・データ)は、ノイズをさらに低減させるためのさらなる閾値検出、並びに、充填(filling)及び平滑化などのセグメント化及び後処理を受ける。速度及び/又はパワー推定は、次いで、1つ又は複数の色及び/又は強度マップに従って、ディスプレイの色及び/又は強度の所望の範囲にマッピングされる。マップ・データは、ドップラー画像データとも呼ばれ、次いで、スキャン・コンバータ230に連結され、スキャン・コンバータ230において、ドップラー画像データが所望の画像フォーマットにコンバートされ、カラー・ドップラー又はパワー・ドップラー画像を形成する。
[027] いくつかの実施形態では、システム200は、組織パラメータ測定値を生み出すために、信号プロセッサ226からの信号をパラメータ・プロセッサ266に連結するパラメータ・イメージング信号経路264を含むことができる。パラメータ・プロセッサ266は、1つ又は複数のタイプの組織パラメータ測定値を生み出す。いくつかの例では、組織パラメータ測定値は、Bモード及び/又はドップラー画像に被せられるマップ(例えば、剛性マップ、音の速さマップ)を生成するために、ピクセル又はボクセルのカラー及び/又は強度値にマッピングされる。いくつかの例では、スキャン・コンバータ230は、組織パラメータ測定値を、Bモード及び/又はドップラー画像と適合させる。
[028] マルチプラナー・リフォーマッタ232は、体の体積測定領域における共通平面(例えば、スライス)のポイントから受信されたエコーを、例えば、米国特許第6,443,896号(Detmer)で説明されるような、この平面の超音波画像(例えば、Bモード画像)にコンバートすることができる。いくつかの例では、ユーザ・インターフェース224は、複数のマルチプラナー・リフォーマット(MPR)画像の表示の選択及び制御のために、マルチプラナー・リフォーマッタ232に連結される。言い換えれば、ユーザは、2D画像を生成することになるボリューム内の所望の平面を選択する。いくつかの例では、ボリューム内の平面のロケーション及び/又は向きを選択することに加えて、ユーザは、平面の厚さも選択する。いくつかの例では、マルチプラナー・リフォーマッタ232の平面データは、ボリューム・レンダラ234に提供される。
[029] ボリューム・レンダラ234は、例えば米国特許第6,530,885号(Entrekinら)で説明されるような、所与の基準点から眺められるような、3Dデータセットの画像(投影、3Dシーン、又はレンダリングとも呼ばれる)を生成する。いくつかの例では、ボリューム・レンダラ234によって生成された画像は、ボクセルを有するボリューム(例えば、3Dデータセット)に基づくが、ボリューム・レンダラ234によってレンダリングされた最終的な画像は、ピクセルを有する2Dデータセット(例えば、2D画像)である。2D画像は、次いで、従来のディスプレイ(例えば、液晶ディスプレイ)に表示される。
[030] 本開示の例によれば、ボリューム・レンダラ234は、スキャン・コンバータ230及び/又はマルチプラナー・リフォーマッタ232からの2D及び/又は3D Bモード画像を受信する。2D画像は、強度値を有するピクセルを有する2Dデータセットを有する。3D画像は、強度値を有するボクセルを有する3Dデータセットを有する。いくつかの例では、ボリューム・レンダラ234は、2020年8月20日に提出された、「RENDERING OF TWO DIMENSIONAL DATA SETS」という題の、欧州特許出願第20290062.7号でより詳しく説明されるように、2Dデータセットを3Dデータセットに変換する。他の例では、ボリューム・レンダラ234は、2Dデータセットを、ピクセルの強度値に対応する強度値を有する単一層のボクセルに変換する。ボリューム・レンダラ234は、スキャン・コンバータ230及び/又はマルチプラナー・リフォーマッタ232から、2D又は3D画像に対応する組織パラメータ測定値を受信する。いくつかの例では、ボリューム・レンダラ234は、組織パラメータ測定値に少なくとも部分的に基づいて、物質特性(例えば、色、吸収、散乱)を、3Dデータセット内の各ボクセルに割り当てる。ボリューム・レンダラ234は、ボクセルに割り当てられた物質特性に少なくとも部分的に基づいて、レンダリング(例えば、強化されたBモード・レンダリング)を生成する。ボリューム・レンダラ234は、いくつかの例においてレンダリングされた画像を生成したときの少なくとも1つの光源をシミュレートする。
[031] いくつかの例では、ボリューム・レンダラ234は、組織タイプを区別するために、Bモード・テクスチャ分析、解剖学的モデル、及び/又は、人工知能/機械学習(例えば、ニューラル・ネットワーク)などの他のセグメント化技法を適用する。ボリューム・レンダラ234は、他のセグメント化技法によって決定された組織タイプに少なくとも部分的に基づいて、物質特性をボクセルに割り当てる。いくつかのケースでは、他のセグメント化技法が使用されるとき、ボリューム・レンダラ234は、組織パラメータ測定値を使用しない、及び/又は、パラメータ・プロセッサ266は省略される。いくつかのケースでは、物質特性をボクセルに割り当てるために、組織パラメータ測定値を補足及び/又は強化するために、他のセグメント化技法が使用される。例えば、組織パラメータ測定値の解像度は、Bモード画像の解像度により近くマッチするように増加される。
[032] スキャン・コンバータ230(例えば、Bモード画像、ドップラー画像)、マルチプラナー・リフォーマッタ232、及び/又はボリューム・レンダラ234からの出力(例えば、レンダリング、3Dシーン)は、画像ディスプレイ238に表示される前に、さらなる強化、バッファリング、及び一時記憶のために画像プロセッサ236に連結される。いくつかの例では、ドップラー画像は、表示のために、スキャン・コンバータ230及び/又は画像プロセッサ236によって、組織構造のBモード画像に被せられる。
[033] グラフィックス・プロセッサ240は、画像で表示するためのグラフィック・オーバレイを生成する。これらのグラフィック・オーバレイは、例えば、患者名、画像の日時、画像化パラメータ、及び同様のものなどの、標準的な識別情報を有する。これらのために、グラフィックス・プロセッサ240は、タイプされた患者名又は他の注釈など、ユーザ・インターフェース224からの入力を受信するように構成される。
[034] システム200は、ローカル・メモリ242を含む。ローカル・メモリ242は、任意の適切な非一時的コンピュータ可読媒体(例えば、フラッシュ・ドライブ、ディスク・ドライブ)として提供される。ローカル・メモリ242は、画像、解剖学的モデル、レンダリング「レシピ」、実行可能命令、ユーザ・インターフェース224を介してユーザによって提供される入力、又は、システム200の動作に必要な任意の他の情報を含む、システム200によって生成されたデータを格納する。
[035] 前述のように、システム200は、ユーザ・インターフェース224を備える。ユーザ・インターフェース224は、ディスプレイ238及び制御パネル252を含む。ディスプレイ238は、LCD、LED、OLED、又はプラズマ・ディスプレイ技術など、様々な既知のディスプレイ技術を使用して提供された表示デバイスを含む。いくつかの例では、ディスプレイ238は、複数のディスプレイを備える。制御パネル252は、ユーザ入力(例えば、所望の画像平面、所望の光源、等)を受信するように構成される。制御パネル252は、1つ又は複数のハード制御(例えば、ボタン、ノブ、ダイヤル、エンコーダ、マウス、トラックボール、又はその他)を含む。いくつかの例では、制御パネル252は、追加又は代替として、タッチ・センサ・ディスプレイ上で提供されるソフト制御(例えば、GUI制御要素、又は単に、GUI制御)を含む。いくつかの例では、ディスプレイ238は、制御パネル252の1つ又は複数のソフト制御を含むタッチ・センサ・ディスプレイである。
[036] いくつかの例では、図2に示された様々な構成要素が組み合わされる。例えば、画像プロセッサ236とグラフィックス・プロセッサ240が、単一のプロセッサとして提供される。別の例では、ドップラー・プロセッサ260とBモード・プロセッサ228が、単一のプロセッサとして提供される。いくつかの例では、図2に示された様々な構成要素は、別々の構成要素として提供される。例えば、信号プロセッサ226は、各イメージング・モード(例えば、Bモード、ドップラー)のための別々の信号プロセッサとして提供される。いくつかの例では、図2に示された様々なプロセッサの1つ又は複数が、指定のタスクを実施するように構成された汎用プロセッサ及び/又はマイクロプロセッサによって提供される。いくつかの例では、様々なプロセッサの1つ又は複数が、アプリケーション固有回路として提供される。いくつかの例では、様々なプロセッサの1つ又は複数(例えば、画像プロセッサ236)が、1つ又は複数のグラフィカル処理ユニット(GPU)で提供される。
[037] 図3は、本開示の原理による、実例のプロセッサ300を示すブロック図である。プロセッサ300は、例えば、図2に示された画像プロセッサ236のような、本明細書で説明される1つ又は複数のプロセッサを提供するために使用される。プロセッサ300は、マイクロプロセッサ、マイクロコントローラ、デジタル・シグナル・プロセッサ(DSP)、プロセッサを形成するようにプログラムされたフィールド・プログラマブル・アレイ(FPGA)、グラフィカル処理ユニット(GPU)、プロセッサを形成するようにデザインされた特定用途向け集積回路(ASIC)、又は、その組合せを含むがこれらに限定されない、任意の適切なプロセッサ・タイプである。
[038] プロセッサ300は、1つ又は複数のコア302を備える。コア302は、1つ又は複数の算術論理演算装置(ALU)304を備える。いくつかの例では、コア302は、ALU304の追加又は代替として、浮動小数点論理ユニット(FPLU)306及び/又はデジタル信号処理ユニット(DSPU)308を備える。
[039] プロセッサ300は、コア302に通信連結された1つ又は複数のレジスタ312を備える。レジスタ312は、専用論理ゲート回路(例えば、フリップ・フロップ)及び/又は任意のメモリ技術を使用して提供される。いくつかの例では、レジスタ312は、スタティック・メモリを使用して提供される。レジスタは、データ、命令、及びアドレスをコア302に提供する。
[040] いくつかの例では、プロセッサ300は、コア302に通信連結された1つ又は複数のレベルのキャッシュ・メモリ310を含む。キャッシュ・メモリ310は、実行のために、コンピュータ可読命令をコア302に提供する。キャッシュ・メモリ310は、コア302で処理するためのデータを提供する。いくつかの例では、コンピュータ可読命令は、例えば、外部バス316に取り付けられたローカル・メモリのような、ローカル・メモリによってキャッシュ・メモリ310に提供される。キャッシュ・メモリ310は、例えば、スタティック・ランダム・アクセス・メモリ(SRAM)などの金属酸化膜半導体(MOS)メモリ、ダイナミック・ランダム・アクセス・メモリ(DRAM)、及び/又は任意の他の適切なメモリ技術のような、任意の適切なキャッシュ・メモリ・タイプで提供される。
[041] プロセッサ300は、コントローラ314を含み、コントローラ314は、システムに備えられた他のプロセッサ及び/若しくは構成要素(例えば、図2に示された制御パネル252及びスキャン・コンバータ230)からのプロセッサ300への入力、並びに/又は、システムに備えられた他のプロセッサ及び/若しくは構成要素(例えば、図2に示されたディスプレイ238及びボリューム・レンダラ234)へのプロセッサ300からの出力を制御する。コントローラ314は、ALU304、FPLU306、及び/又はDSPU308におけるデータ経路を制御する。コントローラ314は、1つ又は複数の状態機械、データ経路、及び/又は専用制御ロジックとして提供される。コントローラ314のゲートは、スタンドアロン・ゲート、FPGA、ASIC、又は任意の他の適切な技術として提供される。
[042] レジスタ312及びキャッシュ・メモリ310は、内部接続320A、320B、320C、及び320Dを介して、コントローラ314及びコア302と通信する。内部接続は、バス、マルチプレクサ、クロスバー・スイッチ、及び/又は任意の他の適切な接続技術として提供される。
[043] プロセッサ300への入力及び出力は、バス316を介して提供され、バス316は、1つ又は複数の伝導線を備える。バス316は、例えば、コントローラ314、キャッシュ・メモリ310、及び/又はレジスタ312のような、プロセッサ300の1つ又は複数の構成要素に通信連結される。バス316は、前述のディスプレイ238及び制御パネル252など、システムの1つ又は複数の構成要素に連結される。
[044] バス316は、1つ又は複数の外部メモリに連結される。外部メモリは、リード・オンリ・メモリ(ROM)332を含む。ROM332は、マスクROM、電子的プログラマブル・リード・オンリ・メモリ(EPROM)、又は任意の他の適切な技術である。外部メモリは、ランダム・アクセス・メモリ(RAM)333を含む。RAM333は、スタティックRAM、バッテリ・バックアップ・スタティックRAM、ダイナミックRAM(DRAM)、又は任意の他の適切な技術である。外部メモリは、電気的消去可能プログラマブル・リード・オンリ・メモリ(EEPROM)335を含む。外部メモリは、フラッシュ・メモリ334を含む。外部メモリは、ディスク336などの磁気ストレージ・デバイスを含む。いくつかの例では、外部メモリは、例えばローカル・メモリ242のような、図2に示された超音波画像システム200などのシステムに備えられる。
[045] 本開示の例によるBモード・イメージング及び/又はマルチパラメトリック・イメージングからレンダリングを生成するために、ボリューム・レンダラ234などのボリューム・レンダラによって実施される機能が、これから、以下の図を参照しながら、より詳しく説明される。
[046] 図4は、本開示の例による、Bモード及びマルチパラメトリック・イメージングからレンダリングを生成するプロセスのグラフィカル表現を示し、プロセスは、超音波画像システム200の、ボリューム・レンダード234、画像プロセッサ236、又はその組合せなど、プロセッサの1つ又は複数で提供又は具体化される。ボリュームBモード画像402及びボリューム組織パラメータ・マップ404は、プロセッサ(例えば、ボリューム・レンダラ234)によって受信される。図4に示された例では、Bモード画像402と組織パラメータ・マップ404の両方が、3Dデータセットである。いくつかの例では、データセットは、図2を参照しながら説明されたような、3Dデータセットにコンバートされた2Dデータセットであった。いくつかの例では、データセットは、本来、3Dデータセットであった。いくつかの例では、Bモード画像402は、ボクセルに割り当てられた強度値I(x,y,z)のボリューム・データセットを有する。強度値は、ボクセルに関連付けられた画像化されたボリューム内の空間ロケーションから受信されたエコー信号の強度に対応する。各ボクセルは、画像化されたボリューム内の異なる空間ロケーションに対応する。組織パラメータ・マップ404は、組織パラメータ値P(x,y,z)のボリューム・データセットを有する。いくつかの例では、組織パラメータ・マップ404は、データセットの各ボクセルのための複数のパラメータ(例えば、密度、音の速度、減衰)の値を有する。各ボクセルは、スキャンされたボリューム内の異なる空間ロケーションに対応する。いくつかの例では、Bモード画像402と組織パラメータ・マップ404のボクセルの間に1対1の対応関係がある。
[047] いくつかの例では、Bモード画像402及び組織パラメータ・マップ404は、対象者の同じボリュームから獲得されたものである。Bモード画像402及び組織パラメータ・マップ404は、同じ獲得中に獲得されたものである。言い換えれば、Bモード画像402及び組織パラメータ・マップ404は、トランスデューサ・アレイ(例えば、トランスデューサ・アレイ214)によって受信されたエコーに基づく信号から生成されたものであり、ここで、エコーは、送信された超音波信号の同じセットに応答したものである。他の例では、Bモード画像402及び組織パラメータ・マップ404は、異なる獲得中に獲得されたものである。例えば、これは、関心のある組織パラメータの1つ又は複数が、Bモード信号とは異なる獲得設定(例えば、異なる周波数、パルス幅、パルス持続期間、等)を必要とするときに発生する。
[048] プロセッサは、Bモード画像402及び組織パラメータ・マップ404に基づいて、1つ又は複数の物質特性をボクセル406に割り当てることによって、ボクセル406を有する3Dレンダリング・データセットを生成する。いくつかの例では、Bモード画像402のあらゆるボクセルに対応するボクセル406がある。
[049] いくつかの例では、ボックス408に示されるように、プロセッサは、Bモード画像402及び/又は組織パラメータ・マップ404の関数に基づいて、1つ又は複数の物質特性の値を割り当てる。例えば、物質特性は、強度I及び/又は組織パラメータ値Pの関数である。示された例では、吸収A及び散乱Sという2つの物質特性が示されているが、他の例では、より多くの又は少ない物質特性に値を割り当ててもよい。例を続けると、吸収は、Bモード画像402からの強度と、組織パラメータ・マップ404からの組織パラメータ値両方の関数に基づき、散乱は、組織パラメータ・マップ404からの組織パラメータ値の関数に基づく。それでも、これは、例としてのみ提供され、他の例では、全ての物質特性が、Bモード画像402と組織パラメータ・マップ404両方の関数であるか、いくつかの物質特性が、Bモード画像402の単に関数である。いくつかの例では、物質特性は、強度及び/又は組織パラメータ値に基づく伝達関数によって定義される。
[050] いくつかの例では、ボックス410に示されているように、プロセッサは、各ボクセル406における組織タイプを決定するために、組織パラメータ・マップ404からの組織パラメータ値を分析する。いくつかの例では、組織パラメータ値は、組織タイプを決定するためにテーブルと比較される。プロセッサ(例えば、ボリューム・レンダラ234)によってアクセスされる組織パラメータ・テーブル500の例が、図5に示されている。いくつかの例では、Bモード画像402は、さらに、組織タイプを決定するために分析される。組織タイプが決定されると、プロセッサは、特定の組織タイプのプロファイルに基づいて物質特性値を割り当てる。プロファイルによって、組織タイプの、ボクセルに割り当てられた物質特性406が、組織パラメータに基づいて(例えば、ボックス408を参照しながら説明されたように)直接的に計算されるのではなく、予め定義されることを意味する。図4に示された例では、プロファイルは、吸収及び散乱の値を有する。当然、より少ない又は追加の物質特性が、プロファイルに含まれる。さらに、3つの組織タイプしかボックス410に示されていないが、より多くの又は少ない組織タイプのプロファイルが含まれてもよい。
[051] (例えば、ボックス410に示されるような)所定のプロファイルに基づくのではなく、(例えば、ボックス408に示されているような)強度及び/又は組織パラメータの関数に基づいて物質特性を適用することは、強化されたレンダリング、及び、画像化される解剖学的構造についての情報(例えば、Bモード画像データ)で、1つ又は複数の組織パラメータ(例えば、剛性、減衰)が伝えられることになるときのいくつかの用途で好まれる。例えば、物質特性は、脂肪組織が肝臓組織とは異なる色でレンダリングされるように割り当てられ、これは、ユーザが脂肪組織を肝臓組織と区別するのを容易にする。同じ例では、肝臓組織に関連付けられたボクセルは、さらに、測定された剛性値に基づいて、異なる強度値及び/又は「明るさ」値を割り当てられる。したがって、肝臓組織のボクセルは同じ色を有するが、肝臓の異なる部分が、剛性値に少なくとも部分的に基づいて、より薄暗く及び/又はくすんで見える。それでも、ボックス410を参照しながら説明されたように、組織タイプに基づいて所定のプロファイルを適用することは、計算能力をあまり使用せず、及び/又は、実際の組織パラメータ値がユーザにとって関心がないかそれに近いものであるとき、無関係な情報によるユーザの混乱を回避する。
[052] いくつかの例では、物質特性の値は、所定のプロファイルと、強度及び/又は組織パラメータの関数との組合せに基づいて割り当てられる。例えば、ボクセル406の組織タイプは、強度及び/又は組織パラメータに基づいて決定される。組織タイプに基づいて、物質特性の対応するプロファイルは、物質特性のうちのいくつかの値を割り当てるために使用される。それでも、物質特性の1つ又は複数は、所定の値を有しておらず、強度及び/又は組織パラメータ値の関数に基づいて割り当てられる。いくつかの例では、物質特性の使用のための関数は、組織タイプのプロファイルに格納される。
[053] 物質特性がボクセル406に割り当てられると、プロセッサ(例えば、ボリューム・レンダラ243)は、ボクセル406からレンダリング412を生成する。いくつかの例では、レンダリング412は、ディスプレイ238などのディスプレイ上で示される。図8を参照しながらより詳しく説明されるように、プロセッサは、いくつかの例では、2ステップ・レンダリング・プロセスを使用して、レンダリング412を生成する。図4に示された例では、Bモード画像402は、区間の一部のものであり、組織パラメータ・マップ404は、組織内の対応する音の速さの値を示す。レンダリング412では、脂肪414の上層と筋肉416の下層は、Bモード画像402より容易に判別されることが可能である。それでも、組織パラメータ・マップ404をBモード画像402に単に被せるときと違って、Bモード画像402の詳細は、レンダリング412において失われない。
[054] 図6は、本開示の例による、Bモード・イメージングからレンダリングを生成するプロセスのグラフィカル表現を示す。ボリュームBモード画像602は、プロセッサ(例えば、ボリューム・レンダラ234)によって受信される。いくつかの例では、及びボリューム組織パラメータ・マップ604は、さらに、プロセッサによって受信される。Bモード画像602及び組織パラメータ・マップ604は、Bモード画像402及び組織パラメータ・マップ404と実質的に同じである。
[055] 図6に示された例では、プロセッサ(例えば、ボリューム・レンダラ234、画像プロセッサ、又は、その別の若しくは任意の組合せ)は、Bモード画像602及び/又は組織パラメータ・マップ604に1つ又は複数の画像セグメント化技法を適用して、各ボクセルに割り当てるための物質特性を決定する。ボックス620に示されるように、プロセッサは、物質特性を決定するために、ニューラル・ネットワークを提供するか、ニューラル・ネットワークと通信する。それでも、他の人工知能又は機械学習技法が使用される。セグメント化を実施するためのAI/機械学習モデルの訓練が、図7を参照してより詳しく説明される。エッジ検出、Bモード・テクスチャ分析、及び/又は解剖モデリング(これらの例は、米国特許第7,957,572号で見つかる)などの、他の非AI/機械学習技法も使用される。これらの他の技法は、AI/機械学習技法の代わりに又は追加として使用される。セグメント化に基づいて、プロセッサは、次いで、1つ又は複数の物質特性を、ボリューム・データセットのボクセル606に割り当てる。いくつかの例では、ボリューム・データセットは、Bモード画像602のあらゆるボクセルに対応するボクセルを有する。
[056] いくつかの例では、ボックス608に示されているように、プロセッサ(例えば、ボリューム・レンダラ234)は、図4に示されたボックス408を参照しながら説明された例と同様の、使用されるセグメント化技法の機能に基づいて、1つ又は複数の物質特性の値を割り当てる。示された例では、吸収A及び散乱Sという2つの物質特性が示されているが、他の例では、より多くの又は少ない物質特性に値が割り当てられてもよい。例えば、ボックス620で実施されるニューラル・ネットワーク又は他のセグメント化技法の出力は、各ボクセル606の物質特性値のセットである。いくつかの例では、ボックス610に示されているように、セグメント化は、各ボクセル606における組織タイプを決定する。例えば、機械学習モデルの出力は、各ボクセル606の組織タイプである。組織タイプが決定されると、プロセッサは、図4に示されたボックス410を参照しながら説明された例と同様の、物質特性の組織タイプ固有のプロファイルをボクセル606に適用する。いくつかの例では、物質特性の値は、所定のプロファイルと、ボックス620に示されたセグメント化からの出力との組合せに基づいて割り当てられる。例えば、ボクセル606の組織タイプは、セグメント化に基づいて決定される。組織タイプに基づいて、物質特性の対応するプロファイルが、物質特性のうちのいくつかの値を割り当てるために使用される。それでも、物質特性の1つ又は複数は、所定の値を有しておらず、ボックス620に示されたセグメント化の別々の出力に基づいて割り当てられる。物質特性がボクセル606に割り当てられると、ボリューム・レンダラは、図4を参照しながら説明されたのと同じ様式で、ボクセル606から強化されたBモード・レンダリング612を生成する。
[057] 図6を参照して説明されたものなどの、いくつかの例では、画像セグメント化を実施するために、プロセッサ(例えば、ボリューム・レンダラ234)は、任意の1つ又は複数の機械学習モデル、人工知能アルゴリズム、及び/又はニューラル・ネットワークを有する。いくつかの例では、プロセッサ(例えば、ボリューム・レンダラ234、画像プロセッサ236、若しくは別のプロセッサ、又はその組合せ)は、ボクセルの物質特性を決定するため、及び/又はボクセルの組織タイプを決定するために、ディープ・ニューラル・ネットワーク(DNN)、畳み込みニューラル・ネットワーク(CNN)、回帰型ニューラル・ネットワーク(RNN)、オートエンコーダ・ニューラル・ネットワーク、又は同様のものを有する。モデル及び/又はニューラル・ネットワークは、ハードウェア(例えば、ニューロンが、物理的な構成要素で表される)、及び/又は、ソフトウェア(例えば、ニューロン及び経路が、ソフトウェア・アプリケーションで実装される)構成要素で実装される。本開示に従って実装されるモデル及び/又はニューラル・ネットワークは、所望の出力を生み出すようにモデル及び/又はニューラル・ネットワークを訓練するために様々なトポロジ及び学習アルゴリズムを使用する。例えば、命令を実行するように構成されたプロセッサ(例えば、シングル又はマルチコアCPU、シングルGPU若しくはGPUクラスタ、又は平行処理のために配置された複数のプロセッサ)を使用して、ソフトウェアベースのニューラル・ネットワークが実装され、命令は、コンピュータ可読媒体に格納され、実行されると、ボクセルの物質特性を決定するため、及び/又はボクセルの組織タイプを決定するために、訓練済みアルゴリズムをプロセッサに実施させる。いくつかの実施形態では、プロセッサ(例えば、ボリューム・レンダラ)は、他の画像処理方法(例えば、セグメント化、ヒストグラム分析)と組み合わせて、モデル及び/又はニューラル・ネットワークを実装する。
[058] 様々な例では、モデル及び/又はニューラル・ネットワークは、超音波画像、測定値、及び/又は統計の形で入力データを分析するように構成された、モデル及び/又はニューラル・ネットワーク(例えば、訓練済みアルゴリズム、伝達関数、又は、ノードのハードウェアベースのシステム)を取得するために、様々な現在既知の又は後に開発される学習技法のいずれかを使用して訓練される。いくつかの実施形態では、モデル及び/又はニューラル・ネットワークは、静的に訓練される。すなわち、モデル及び/又はニューラル・ネットワークは、データセットを用いて訓練され、次いで、例えば、ボリューム・レンダラ234などのプロセッサのような、超音波システム(例えば、システム200)に導入される。いくつかの実施形態では、モデル及び/又はニューラル・ネットワークは、動的に訓練される。これらの実施形態では、モデル及び/又はニューラル・ネットワークは、初期のデータセットを用いて訓練され、超音波システムに導入される。それでも、モデル及び/又はニューラル・ネットワークは、超音波システムにモデル及び/又はニューラル・ネットワークを導入した後、超音波システムによって獲得された超音波画像に基づいて訓練し続け、修正される。
[059] 図7は、本開示の例による、モデルの訓練及び導入のためのプロセスのブロック図を示す。図7に示されたプロセスは、超音波システムのプロセッサ(例えば、ボリューム・レンダラ234)によって実装されたモデル(例えば、人工知能、機械学習、深層学習)を訓練するために使用される。例えば、図7に示されたプロセスは、図6のブロック620に示されているように、画像をセグメント化するために使用されるモデルを訓練するために使用される。
[060] 図7の左側のフェーズ1は、モデルの訓練を示す。モデルを訓練するために、モデルの訓練アルゴリズム(例えば、Krizhevsky,A.、Sutskever,I.、及びHinton,G.E.「ImageNet Classification with Deep Convolutional Neural Networks」、NIPS2012又はその後継によって説明されたような、AlexNet訓練アルゴリズム)に、入力アレイ及び出力分類の複数のインスタンスを含む訓練セットが提示される。訓練は、スタート・アルゴリズム及び/又はネットワーク・アーキテクチャ712の選択、並びに訓練データ714の準備を伴う。スタート・アーキテクチャ712は、ブランク・アーキテクチャ(例えば、定義された層及びノードの配置を有するが、以前に訓練された重みが何もないアーキテクチャ、セットされた数の回帰係数の有無にかかわらない定義されたアルゴリズム)であるか、超音波データの分析のためにその後さらに作られたインセプション・ネットワークなどの部分的に訓練されたモデルである。スタート・アーキテクチャ712(例えば、ブランク重量)、及び訓練データ714は、モデルを訓練するために訓練エンジン710に提供される。十分な回数、反復すると(例えば、モデルが、受入れ可能な誤差の中で一貫して実施すると)、モデル720は、訓練されて、導入の準備ができたと考えられ、これは、図7の真ん中のフェーズ2に示されている。図7の右側、すなわちフェーズ3の、訓練済みモデル720は、新しいデータ732の分析のために(推論エンジン730を介して)適用され、新しいデータ732は、(フェーズ1における)初期訓練中、モデルに提示されたことがないデータである。例えば、新しいデータ732は、患者のスキャン中に獲得されたライブ超音波画像(例えば、心エコー検査中の心画像)などの、未知のデータを含む。エンジン730を介して実施された訓練済みモデル720は、出力734(例えば、組織タイプ、物質特性値)を提供するために、モデル720の訓練に従って、未知のデータを分析するために使用される。出力734は、次いで、その後のプロセス740(例えば、物質特性をボクセルに割り当てること、レンダリングを生成すること)のために、システムによって使用される。
[061] 超音波システムのプロセッサ(例えば、ボリューム・レンダラ234)によって実施又は具体化されたモデルとして訓練済みモデル720が使用される実施形態では、スタート・アーキテクチャは、畳み込みニューラル・ネットワークのアーキテクチャであるか、いくつかの例では、ボクセルの1つ若しくは複数の物質特性値、及び/又はボクセルの組織タイプを提供するように訓練されたディープ畳み込みニューラル・ネットワークのアーキテクチャである。訓練データ714は、訓練画像とも呼ばれる、複数(数百、しばしば数千、又はそれ以上)の注釈付き/ラベル付き画像を含む。例えば、訓練画像のボクセルは、組織タイプ及び/又は物質特性でラベル付けされる。訓練画像は、(例えば、超音波プローブの完全な視野を表す)イメージング・システムによって生み出された完全な画像を含む必要はないが、画像のパッチ又は一部を含むことが理解されよう。
[062] いくつかの例では、不十分な超音波訓練データが存在する場合、他の診断法からの画像(例えば、コンピュータ断層撮影、磁気共鳴画像法、さらに、国立衛生研究所の可視化人体画像データ・プロジェクトなどからの写真)が、訓練データとして使用される。いくつかの例では、k-wave又はFAMUS IIなどの超音波シミュレータを使用して、他の診断法からの画像から超音波データがシミュレートされる。シミュレートされた超音波データは、ラベル付けされ、その後、訓練データとして使用される。
[063] いくつかの例では、ラベル付き組織パラメータ・マップも、訓練データとして提供される。これらの例では、モデルは、画像をセグメント化すること、並びに/又は、Bモード画像及び組織パラメータ・マップに基づいて物質特性値をボクセルに割り当てることを行うように訓練される。いくつかの例では、複数のタイプの組織パラメータ・マップ(例えば、音の速さ、減衰、及び剛性マップ)が、訓練データとして提供される。
[064] 様々な実施形態では、訓練済みモデルは、例えばボリューム・レンダラ234のような1つ又は複数の超音波システムのプロセッサによって実行される実行可能命令を有するコンピュータ可読媒体に、少なくとも部分的に実装される。
[065] 図8は、本開示の例による、2ステップ・レンダリング・プロセスのグラフィカルな概観を提供する。いくつかの例では、図8に示されたレンダリング・プロセスは、レンダリング412及び/又は612などの、強化されたBモード・レンダリングを生成するために使用される。いくつかの例では、ボリューム・レンダラ234などの超音波システムのプロセッサは、レンダリングを生成するために、照明パス及び合成パスを実施する。いくつかの例では、照明パスは、合成パスの前に実施される。照明パス中、ボリューム810に対する仮想光源800がシミュレートされる。ボリューム810は、Bモード画像に少なくとも部分的に基づいて、プロセッサ(例えば、ボリューム・レンダラ234)によって物質特性が割り当てられたボクセルを有する。物質特性は、いくつかの例では、図4~図6を参照しながら説明された方法を使用して割り当てられたものである。図6に示されたものなどの、いくつかの例では、光源800は、等しい強度で全方向に光を放射する点光源である。他の例では、光源800は、有向光源(例えば、スポットライト、ビーム)である。いくつかの例では、複数の光源がシミュレートされる。光源の数、光源のタイプ、ボリューム810に対する光源800の位置、及び/又は、光源800の強度は、ユーザ・インターフェースを介してユーザによって予め設定されるか、選択される。いくつかの例では、光源800のサイズ、及び/又は光源800の色(例えば、波長範囲)などの光源の他の特性も、ユーザによって選択される。適切な光源及び光源のユーザ制御の例は、米国特許出願第16/306,951号及び第16/347,739号において見つかり、その内容が、任意の目的のために参照により本明細書に組み込まれる。
[066] 照明パスを続けると、光源800からの光は、ボリューム810を通じて3次元空間を伝搬される。図8では、単一の光の光線(light ray)802だけが示されているが、光源800をシミュレートするために、多くの光の光線がボリューム810を通じて伝搬されることが理解される。ボリューム810の各ボクセルに達する光の量は、光源800の特性、及び各ボクセルに割り当てられた物質特性に応じて計算される。例えば、特定のボクセルが、吸収に応じた波長を有し、この波長は、ボクセルを特定の色に見せる。例えば、筋肉組織に対応するように決定されたボクセルは、赤い波長をあまり吸収せず、最終的なレンダリングにおいて、これらのボクセルを赤く見せる。各ボクセルの光の計算された量は、合成パスでの使用のために格納される。
[067] 合成パス中、平行な光線804が、仮想観察者806の観察面808からボリューム810を通じて伝搬される。いくつかの例では、光線804は、観察面808に対して直角である。ボリューム810からの観察面808の距離、及び/又はボリューム810に対する観察面808の向きは、ユーザ・インターフェースを介してユーザによって予め設定されるか、選択される。いくつかの例では、プロセッサ(例えば、ボリューム・レンダラ234)は、光線804の方向に沿って3線補間体積測定サンプル(tri-linear interpolated volumetric sample)812による前後赤緑青(RGB)集積(front-to-back red-green-blue accumulation)を使用するレイ・マーチング数値スキーム(ray marching numerical scheme)を実施する。照明パスにおける各ボクセルのために計算された光、及び光線804の進行に基づいて、プロセッサ(例えば、ボリューム・レンダラ234)は、ディスプレイ(例えば、ディスプレイ238)でユーザに示されるレンダリングのボクセル及び/又はピクセルの最終値を計算する。
[068] 本明細書で開示されたように、マルチパラメトリック超音波画像を使用したシステム及び方法が、Bモード画像における異なる組織タイプを決定するため、及び/又は物質特性をボクセルに割り当てるために使用される。いくつかの例では、組織タイプを決定するため、及び/又は物質特性をボクセルに割り当てるために、他の又は追加の技法が使用される。ボクセルは、組織タイプに少なくとも部分的に基づいて、色、密度、散乱、及び/又は他の物質特性の異なる値を割り当てられる。ボクセルに割り当てられた物質特性値に基づいて、カラーBモード画像が生成される。本明細書で開示されたシステム及び方法によって生成されたBモード画像は、より現実的に見え、並びに/又は、組織タイプを区別及び/若しくは解釈しやすいものにする。いくつかの例では、別々の画像及びパラメータ・マップを分析することをユーザに要求することも、パラメータ・マップでBモード画像を不明瞭にすることもなく、複数のパラメータが、レンダリングされたBモード画像で伝えられる。
[069] コンピュータベースのシステム又はプログラム可能ロジックなどのプログラム可能デバイスを使用して構成要素、システム、及び/又は方法が提供される様々な例では、上述のシステム及び方法は、「C」、「C++」、「FORTRAN」、「Pascal」、「VHDL」、及び同様のものなどの、様々な既知の又は後に開発されるプログラミング言語のいずれかを使用して実装可能であることを理解されたい。したがって、磁気コンピュータ・ディスク、光ディスク、電子メモリ、及び同様のものなどの様々なストレージ媒体が用意されることが可能であり、ストレージ媒体は、上述のシステム及び/又は方法を実施するようにコンピュータなどのデバイスに指図可能な情報を有することができる。ストレージ媒体に含まれる情報及びプログラムに、適切なデバイスがアクセスすると、ストレージ媒体は、情報及びプログラムをデバイスに提供することができ、したがって、本明細書で説明されるシステム及び/又は方法の機能をデバイスが実施することを可能にする。例えば、ソース・ファイル、オブジェクト・ファイル、実行可能ファイル、又は同様のものなどの適切なマテリアルを含むコンピュータ・ディスクがコンピュータに提供された場合、コンピュータは、情報を受信し、コンピュータ自体を適切に構成し、様々な機能を実行するために上記の図及びフローチャートで概説された様々なシステム及び方法の機能を実施する。すなわち、コンピュータは、上述のシステム及び/又は方法の異なる要素に関するディスクからの情報の様々な部分を受信し、個々のシステム及び/又は方法を提供し、上記で説明された個々のシステム及び/又は方法の機能を調整することができる。
[070] 本開示を考慮して、本明細書で説明される様々な方法及びデバイスは、ハードウェア、ソフトウェア、及び/又はファームウェアで実施可能であることが指摘される。さらに、ほんの一例として、及びどのような限定的意味でもなく、様々な方法及びパラメータが含まれる。本開示を考慮して、当業者は、本発明の範囲内であることを維持しつつ、本教示自体の技法、及びこれらの技法に影響を及ぼすために必要な機器を決定する際に、本教示を実施することができる。本明細書で説明されるプロセッサのうちの1つ又は複数の機能は、より少ない数の又は単一の処理ユニット(例えば、CPU)に組み込まれ、本明細書で説明される機能を実施するための実行可能命令に応じてプログラムされた特定用途向け集積回路(ASIC)又は汎用処理回路を使用して実施される。
[071] 本装置、システム、及び方法は、超音波画像システムを特に参照しながら説明されてきたが、本システムは、1つ又は複数の画像が体系的に取得される他の医療イメージング・システムに拡張可能であることがさらに想定される。したがって、本システムは、腎臓、精巣、乳房、卵巣、子宮、甲状腺、肝臓、肺、筋骨格、脾臓、心臓、動脈、及び脈管系に関するものであるが、これらに限定されない画像情報、並びに、超音波ガイド介入に関する他のイメージング・アプリケーションを取得及び/又は記録するために使用される。さらに、本システムは、本システムの特徴及び利点を提供するような従来のイメージング・システムで使用される1つ又は複数のプログラムも有する。本開示の特定の追加の利点及び特徴は、本開示を研究すれば当業者には明らかであるか、本開示の斬新なシステム及び方法を採用する人によって経験される。本システム及び方法の別の利点は、本システム、デバイス、及び方法の特徴及び利点を組み込むために、従来の医療画像システムが容易にアップグレード可能なことである。
[072] 当然、本明細書で説明される例、例、又はプロセスのうちのいずれか1つが、1つ又は複数の他の例、例、及び/又はプロセスと組み合わされるか、本装置、システム、デバイス、及び方法に従って、別々のデバイス又はデバイス部分の中で分離及び/又は実施されることを認識されたい。
[073] 最後に、上記の議論は、本システム及び方法の例証にすぎないことが意図され、添付の特許請求の範囲を、任意の特定の例、又は例のグループに限定するものと解釈されるべきではない。したがって、本システムは、例示的な例を参照しながら特に詳しく説明されてきたが、続く特許請求の範囲で説明されるような、本システム及び方法のより広く、意図された精神及び範囲から逸脱することなく、数多くの修正及び代替の例が当業者によって考案され得ることをさらに認識されたい。したがって、本明細書及び図面は、例証として考えられるべきであり、添付の特許請求の範囲の範囲を限定することを意図するものではない。

Claims (20)

  1. 画像化されたボリュームのBモード画像を受信することであって、前記Bモード画像が複数の第1のボクセルを有し、各第1のボクセルが前記画像化されたボリューム内の異なる空間ロケーションにそれぞれが関連付けられ、各第1のボクセルが前記画像化されたボリューム内の前記関連付けられた空間ロケーションから受信されたエコー信号の強度に対応する強度値をそれぞれが有する、当該Bモード画像を受信すること、
    前記複数の第1のボクセルのそれぞれの1つ又は複数の組織パラメータ値を有する組織パラメータ・マップを受信すること、
    1つ又は複数の物質特性値を複数の第2のボクセルのそれぞれに割り当てることによって、前記複数の第2のボクセルを有する3Dレンダリング・データセットを生成することであって、前記複数の第2のボクセルのそれぞれに割り当てられた前記1つ又は複数の物質特性値が、前記Bモード画像のそれぞれの前記第1のボクセルに関連付けられた前記強度値に少なくとも部分的に基づき、前記組織パラメータ・マップから取得されたそれぞれの前記ボクセルに関連付けられた組織パラメータ値に少なくとも部分的にさらに基づく、当該3Dレンダリング・データセットを生成すること、及び
    前記3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成すること
    を行うように構成された、プロセッサと、
    前記強化されたBモード・レンダリングを表示するように構成されたディスプレイと
    を備える、装置。
  2. 前記プロセッサが、
    前記組織パラメータ値に少なくとも部分的に基づいて、前記複数の第1のボクセルのうちの個々の1つの組織タイプを決定することと、
    前記組織タイプに基づく物質特性値のプロファイルに基づいて、前記1つ又は複数の物質特性値を割り当てることと
    をさらに行う、請求項1に記載の装置。
  3. 前記組織タイプが、前記組織パラメータ値を組織パラメータ値のテーブルと比較することによって決定される、請求項2に記載の装置。
  4. 前記プロセッサが、
    前記複数のボクセルのうちの個々の1つの組織タイプを決定するために前記Bモード画像をセグメント化することと、
    前記組織タイプに基づく物質特性値のプロファイルに基づいて、前記1つ又は複数の物質特性値を割り当てることと
    をさらに行う、請求項1に記載の装置。
  5. 前記Bモード画像が、訓練済み機械学習モデルを使用してセグメント化される、請求項4に記載の装置。
  6. 前記組織パラメータ値が、音の速さの値、減衰値、剛性値、又は密度値のうちの少なくとも1つを含む、請求項1に記載の装置。
  7. 前記強化されたBモード・レンダリングが、照明パス及び合成パスを有する2パス・プロセスを使用して生成される、請求項1に記載の装置。
  8. 画像化されたボリュームのBモード画像を受信するステップであって、前記Bモード画像が複数の第1のボクセルを有し、各第1のボクセルが前記画像化されたボリューム内の異なる空間ロケーションにそれぞれが関連付けられ、各第1のボクセルが前記画像化されたボリューム内の前記関連付けられた空間ロケーションから受信されたエコー信号の強度に対応する強度値をそれぞれが有する、当該Bモード画像を受信するステップと、
    前記複数の第1のボクセルのそれぞれの1つ又は複数の組織パラメータ値を有する組織パラメータ・マップを受信するステップと、
    3Dレンダリング・データセットの複数の第2のボクセルのそれぞれに1つ又は複数の物質特性値を割り当てるステップであって、前記複数の第2のボクセルのそれぞれに割り当てられた前記1つ又は複数の物質特性値が、前記Bモード画像のそれぞれの前記第1のボクセルに関連付けられた前記強度値に少なくとも部分的に基づき、前記組織パラメータ・マップから取得されたそれぞれの前記ボクセルに関連付けられた組織パラメータ値に少なくとも部分的にさらに基づく、当該1つ又は複数の物質特性値を割り当てるステップと、
    前記3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成するステップと
    を有する、方法。
  9. 前記複数の第1のボクセルのうちの個々の1つの組織タイプを決定するために前記Bモード画像をセグメント化するステップをさらに有し、前記1つ又は複数の物質特性値を割り当てるステップが物質特性値のプロファイルに基づき、前記プロファイルが組織タイプに基づく、請求項8に記載の方法。
  10. 前記セグメント化するステップが、機械学習モデルによって実施される、請求項9に記載の方法。
  11. 別の画像診断法から獲得された画像から、シミュレートされた超音波画像を生成するステップと、
    前記シミュレートされた超音波画像を有する前記Bモード画像をセグメント化するように前記機械学習モデルを訓練するステップと
    をさらに有する、請求項10に記載の方法。
  12. 前記セグメント化するステップが、前記Bモード画像のテクスチャを分析するステップを有する、請求項9に記載の方法。
  13. 前記セグメント化するステップが、解剖学的モデルを前記Bモード画像に適用するステップを有する、請求項9に記載の方法。
  14. 前記組織パラメータ値に少なくとも部分的に基づいて、前記複数の第1のボクセルのうちの個々の1つの組織タイプを決定するステップと、
    前記組織タイプに基づく物質特性値のプロファイルに基づいて、前記1つ又は複数の物質特性値を割り当てるステップと
    をさらに有する、請求項8に記載の方法。
  15. 前記組織タイプを決定するステップが、前記組織パラメータ値を組織パラメータ値のテーブルと比較するステップを有する、請求項14に記載の方法。
  16. 前記強化されたBモード・レンダリングを生成するステップが、
    仮想光源から前記複数のボクセルを通じて光の光線を伝搬させるステップと、
    前記複数のボクセルを通じて、仮想観察者の観察面に対して直角である光を伝搬させるステップと
    を有する、請求項8に記載の方法。
  17. Bモード画像の複数の第1のボクセルのうちの個々の1つの組織タイプを決定するために前記Bモード画像をセグメント化するステップと、
    3Dレンダリング・データセットの複数の第2のボクセルのそれぞれに、前記組織タイプに少なくとも部分的に基づく1つ又は複数の物質特性値を割り当てるステップと、
    前記3Dレンダリング・データセットから、強化されたBモード・レンダリングを生成するステップと、
    前記強化されたBモード・レンダリングをディスプレイに表示するステップと
    を有する、方法。
  18. 前記セグメント化するステップが、人工知能又は機械学習モデルのうちの少なくとも1つで前記Bモード画像を分析するステップを有する、請求項17に記載の方法。
  19. 前記人工知能又は前記機械学習モデルが、ニューラル・ネットワークを含む、請求項18に記載の方法。
  20. 前記セグメント化するステップが、前記Bモード画像の前記複数の第1のボクセルに関連付けられた組織パラメータ・マップから組織パラメータ値を分析するステップを有する、請求項17に記載の方法。
JP2023518994A 2020-09-29 2021-09-26 組織の区別に基づくbモード画像のレンダリング Pending JP2023544129A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063084870P 2020-09-29 2020-09-29
US63/084,870 2020-09-29
PCT/EP2021/076422 WO2022069377A1 (en) 2020-09-29 2021-09-26 Rendering of b-mode images based on tissue differentiation

Publications (1)

Publication Number Publication Date
JP2023544129A true JP2023544129A (ja) 2023-10-20

Family

ID=78032438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023518994A Pending JP2023544129A (ja) 2020-09-29 2021-09-26 組織の区別に基づくbモード画像のレンダリング

Country Status (5)

Country Link
US (1) US20230377246A1 (ja)
EP (1) EP4222716A1 (ja)
JP (1) JP2023544129A (ja)
CN (1) CN116457839A (ja)
WO (1) WO2022069377A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US7957572B2 (en) 2005-02-11 2011-06-07 Koninklijke Philips Electronics N.V. Image processing device and method
US10878639B2 (en) * 2018-02-09 2020-12-29 David Byron Douglas Interactive voxel manipulation in volumetric medical imaging for virtual motion, deformable tissue, and virtual radiological dissection
US11324485B2 (en) * 2017-01-05 2022-05-10 Koninklijke Philips N.V. Ultrasound imaging system with a neural network for deriving imaging data and tissue information

Also Published As

Publication number Publication date
US20230377246A1 (en) 2023-11-23
EP4222716A1 (en) 2023-08-09
CN116457839A (zh) 2023-07-18
WO2022069377A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
US9113811B2 (en) Image processing apparatus and computer program product
US20110125016A1 (en) Fetal rendering in medical diagnostic ultrasound
JP6688618B2 (ja) 医用画像処理装置及び医用画像診断装置
US20170032702A1 (en) Method and Apparatus For Generating an Ultrasound Scatterer Representation
WO2007100263A1 (en) Method for simulation of ultrasound images
US9759814B2 (en) Method and apparatus for generating three-dimensional (3D) image of target object
JP2023544129A (ja) 組織の区別に基づくbモード画像のレンダリング
US20220398725A1 (en) Systems and methods for color mappings of contrast images
CN109754869B (zh) 着色的超声图像对应的着色描述符的呈现方法和系统
US20230070102A1 (en) Volumetric lighting of 3d overlays on 2d images
US20230316642A1 (en) Rendering of two dimensional data sets
US20220133278A1 (en) Methods and systems for segmentation and rendering of inverted data
KR102377530B1 (ko) 대상체의 3차원 영상을 생성하기 위한 방법 및 장치
US20230228873A1 (en) Systems and methods for generating color doppler images from short and undersampled ensembles
WO2023186948A1 (en) Systems and methods for color mapping for contrast enhanced ultrasound parametric imaging
CN115187501A (zh) 用于识别非均质性肝脏脂肪的系统、方法和装置
CN115279273A (zh) 用于脉管绘制的系统和方法