JP2022506134A - 医用画像内でのインターベンションデバイスの識別 - Google Patents

医用画像内でのインターベンションデバイスの識別 Download PDF

Info

Publication number
JP2022506134A
JP2022506134A JP2021523306A JP2021523306A JP2022506134A JP 2022506134 A JP2022506134 A JP 2022506134A JP 2021523306 A JP2021523306 A JP 2021523306A JP 2021523306 A JP2021523306 A JP 2021523306A JP 2022506134 A JP2022506134 A JP 2022506134A
Authority
JP
Japan
Prior art keywords
image
data
neural network
data set
dataset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021523306A
Other languages
English (en)
Other versions
JP7464593B2 (ja
Inventor
ヤン,ホンシュ
フランシスキュス コーレン,アレクサンデル
シャン,カイフェン
ウィット,ペーテル ヘンドリク ネリス デ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022506134A publication Critical patent/JP2022506134A/ja
Application granted granted Critical
Publication of JP7464593B2 publication Critical patent/JP7464593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

画像は、ニューラルネットワークによって解析される前に、関心のあるピクセル又はボクセルを選択するよう前処理され得る。関心のあるピクセル又はボクセルのみが、関心のある対象を識別するためにニューラルネットワークによって解析され得る。1つ以上のスライスが、関心のあるボクセルから取り出され、解析のためにニューラルネットワークへ供給され得る。対象は、ニューラルネットワークによる識別後に更にローカライズされ得る。前処理、ニューラルネットワークによる解析、及び/又はローカライゼーションは,識別されるべき対象の先在する知識を利用し得る。

Description

本開示は、画像内の対象を識別する撮像システム及び方法、特に、医用画像内でインターベンションデバイスを識別する撮像システム及び方法に関係がある。
臨床医は、インターベンション処置の前、その間、及びその後に医用画像を当てにある。医用画像は、皮膚表面下の下層組織を理解する上での手がかりとなり、臨床医が体内の異物を見ることも可能にする。インターベンション処置の間、医用画像は、処置に使用されている医用デバイス(例えば、カテーテル、ガイドワイヤ、インプラント、など)の場面を見ることを臨床医に可能にすることにおいて特に実用的であることができる。しかし、その実用性は、ときどき、医用デバイスの位置がノイジーな又はより低品質の医用画像では簡単には見えないことがあるということで、医用デバイスが画像内で検出可能である精度に依存する。画像内のデバイスの検出は、様々な成功度で多数の画像処理技術のうちの1つを用いて自動化され得る。
更に、x線のようないくつかの撮像モダリティは、放射線や造影流体を必要とし、これは、処置の長さを増大させ、視覚的かつ自動的な画像検出を阻害する可能性がある。超音波は、それが放射線を用いず、2D(平面)、3D(体積)及び4D(体積及び時間)画像データセットにより柔軟性を提供するということで、x線撮像に対する魅力的な代替手段である。これらの利点にかかわらず、超音波により生成された画像は、しばしば、低解像度かつ低コントラスの3D空間であり、臨床医が処置内で医用デバイスを適宜ローカライズすることを困難にする。
本開示は、画像内の医用デバイス又は他の対象の検出を向上させ、かつ、画像内のデバイスを検出するための計算時間を短縮して実時間の適用を可能にするためのシステム及び方法について記載する。これは、臨床結果を改善し、処置時間を短縮し得る。特に、システム及び方法は、画像データセット内の候補ピクセル/ボクセルに対象検出を集中させる技術を用いて、対象検出(例えば、カテーテル、ガイドワイヤ、インプラント、など)を可能にする。画像データセットは、2次元(2D)、3次元(3D)、又は4次元(4D)のデータセットを含み得る。いくつかの実施形態において、対象に基づく前もってセットされたモデルが、対象と相関した画像データに基づいて候補ピクセル/ボクセルを検出するために使用されてよい。前もってセットされたモデルは、システムによって供給されるか、あるいは、ユーザによって選択されてよい。前もってセットされたモデルは、用途に応じて1つ以上のフィルタ、アルゴリズム、又は他の技術を含んでもよい。例えば、チューブ状の対象は、フランジ・ベッセルネス・フィルタ又はガボール・フィルタに値し得る。これらのフィルタは、候補ピクセル/ボクセルを決定するために単独で又は1つ以上の他のフィルタと組み合わせ使用されてよい。特定の実施形態では、前もってセットされたモデルは、検出されるべき対象の形状に対応する。いくつかの実施形態において、候補ピクセル/ボクセルは、次いで、画像データ内の対象を分類するよう訓練されたニューラルネットワークを用いて処置されてよく、対象は、画像データ内で識別される。いくつかの実施形態において、識別され対象は、曲線当てはめ又は他の技術によってローカライズされ得る。
候補ピクセル/ボクセルを識別するために画像データのモデルベースのフィルタリングを使用し、ニューラルネットワークによって候補ピクセル/ボクセルのみを処理することによって、本明細書で記載されるシステム及び方法は、対象の識別及び/又は分類を強化し得る。本明細書で記載されるシステム及び方法はまた、加えられたステップ数にかかわらず(例えば、ニューラルネットワークへ直接にデータを供給するのではなく、モデルを適用し、それからニューラルネットワークにより処理する。)、対象を識別するための時間の量を低減させ得る。
本開示の例に従う超音波撮像システムは、超音波画像を生成する信号を取得するよう構成される超音波プローブと、信号から画像を表す表示データの第1の組を含む第1データセットを生成し、画像内で識別されるべき対象の特性に基づくモデルを第1データセットに適用することによって第1データセットから表示データの第1の組の第1サブセットを選択し、対象を表す第1サブセットからデータポイントの第2サブセットを選択し、データポイントの第2サブセットから、画像内の対象を表す表示データの第2の組を生成するよう構成されるプロセッサとを含んでよい。
本開示の例に従う方法は、画像の第1データセットをモデルを用いて処理して、第1データセットよりも小さい第2データセットを生成することであり、第2データセットは第1データセットのサブセットであり、モデルは、画像内で識別されるべき対象の特性に少なくとも部分的に基づく、前記生成することと、第2データセットのどのデータポイントが対象を含むかを識別するよう第2データセットを解析することと、対象を含むものとして識別された第2データセットのデータポイントを第3データセットとして出力することであり、第3データセットは表示のために出力される、前記出力することとを含んでよい。
本開示の例に従って、非一時的なコンピュータ可読媒体は、実行される場合に、撮像システムに、画像の第1データセットを、前記画像内で識別されるべき対象の特性に基づくモデルを用いて処理させ、モデルに基づいて、第1データセットのサブセットである第2データセットを出力させ、第2データセットのどのデータポイントが対象を含むかを決定するよう第2データセットを解析させ、対象を含むと決定された第2データセットのデータポイントを含む第3データセットを出力させ、第3データセットを含む表示を生成させる命令を含んでよい。
本開示の原理の概要を表す。 本開示の原理に従って、3D超音波ボリュームにおけるカテーテル識別のためのデータ処理ステップを表す。 本開示の原理に従う超音波システムのブロック図である。 本開示の原理に従うプロセッサの例を表すブロック図である。 本開示の原理に従うニューラルネットワークの訓練及びデプロイのためのプロセスのブロック図である。 本開示の原理に従うニューラルネットワークの実例である。 本開示の原理に従うニューラルネットワークの実例である。 本開示の原理に従うニューラルネットワークの実例である。 本開示の原理に従うトライプレーナ抽出のプロセスを表す。 本開示の原理に従うニューラルネットワークの実例である。 本開示の原理に従って、対象識別部の出力の画像の例を示す。 本開示の原理に従って、カテーテルのためのローカライゼーションプロセスの例を表す。 本開示の原理に従って、ローカライゼーションの前後のカテーテルの画像の例を示す。 本開示の原理に従って、画像内の対象を識別する方法の概要を表す。
特定の実施形態の以下の記載は、事実上例にすぎず、決して本発明又はその用途若しくは使用を限定する意図はない。本システム及び方法の実施形態の以下の詳細な説明では、本明細書の部分を形成し、実例として、記載されるシステム及び方法が実施され得る具体的な実施形態を示されている添付の図面が、参照される。これらの実施形態は、当業者が目下開示されているシステム及び方法を実施することができるほど十分に詳細に記載されており、理解されるべきは、他の実施形態が利用されてよいことと、構造上及び論理上の変更が本システムの精神及び範囲から逸脱しない範囲で行われてもよいこととである。更には、明りょうさのために、特定の特徴の詳細な説明は、本システムの記載を不明りょうにしないように、それらが当業者にとって明らかである場合には議論されない。従って、以下の詳細な説明は、限定の意味で捉えられるべきではなく、本システムの範囲は、添付の特許請求の範囲によってのみ画定される。
ニューラルネットワーク及びディープラーニングアルゴリズムなどの機械学習技術は、医用画像、更にはより低解像度の画像を解析することにおいて進歩をもたらし、画像内の対象を識別しローカライズする能力を改善してきた。これらの技術は、診断のためにまたは治療の評価(例えば、インプラントの配置の確認)のために使用され得る。しかし、多くの機械学習技術は、依然として計算が複雑であり、医用画像、特に3次元医用画像を処理することは、相当量の時間を必要とすることがある。これは、インターベンション処置などの実時間の適用において機械学習を使用する実用性を制限する可能性がある。
本明細書で開示されるように、画像は、ニューラルネットワークによって解析される前に、関心のあるボクセル(Voxels of Interest,VOI)を選択するために、1つ以上の技術によって前処理されてよい。前処理のための技術には、フィルタの適用、ニューラルネットワークよりも精度及び/又は複雑性が低い第1段階のニューラルネットワーク、アルゴリズム、画像セグメンテーション、3Dパッチからのプレーナ抽出、又はそれらの組み合わせが含まれ得るが、これらに限られない。簡単のために、前処理技術は、モデルと呼ばれてよく、モデルは、画像に適用されてよい。しかし、モデルは複数の技術を含んでよいことが理解される。いくつかの例では、前処理は、画像内で識別されるべき対象の事前知識(例えば、既知のインターベンションデバイス、対象にわたって比較的に一様に現れる解剖学的特徴)を利用してよい。事前知識は、対象の形状、サイズ、又は音響信号などの、対象の特性を含んでよい。前処理は、ニューラルネットワークが処理するデータの量を低減し得る。データの量を低減することは、ニューラルネットワークが画像内で対象を識別するために必要な時間を減らし得る。ニューラルネットワークによって必要とされる時間の低減は、前処理に必要とされる時間よりも大きくなり得る。よって、画像内で対象を識別するための全体の時間は、画像をニューラルネットワークへ直接に供給することと比べると低減され得る。
本開示の原理の概要は図1で与えられている。画像100は2D、3D又は4D画像であってよい。いくつかの例では、それは、超音波撮像システム、コンピュータ断層撮影システム、又は磁気共鳴撮像システムによって取得された画像などの医用画像であってよい。画像は、ブロック102によって示されるものとしてVOIを選択するよう前処理のために供給されてよい(2D画像の場合に、関心のあるピクセル(Pixels of Interest,POI)が選択される。)。上述されたように、前処理はモデルを利用してよく、モデルは、識別されるべき対象の特性に少なくとも部分的に基づいてよい。例えば、心臓インターベンション中にカテーテルが使用される場合に、事前知識はカテーテルのチューブ形状となる。この例を続けると、フランジ・ベッセルネス・フィルタ又はガボール・フィルタが、VOIを選択するためにブロック102で画像100に適用されてよい。対象の他の例には、ガイドワイヤ、心臓プラグ、人工心臓弁、弁クリップ、閉鎖デイバス、及び弁形成システムがある。
ブロック102に含まれるモデルは、VOIのみを含む画像104を出力し得る。VOIは、識別される対象を含むボクセルと、画像100内の他のエリア及び/又は対象からのいくつかの誤検知(false positive)ボクセルとを含み得る。カテーテルの例では、VOIは、カテーテルを含むボクセルと、組織又は他の要素からのいくつかの誤検知ボクセルとを含み得る。画像104は、更なる処理のためにニューラルネットワーク(図1では図示せず。)へ供給されてよい。
いくつかの応用では、前処理が誤検知を含むことを可能にすることは、更なる精度が必要とされた場合よりも前処理の時間がかからないことを可能にし得る。しかし、誤検知があるとしても、画像104に含まれるデータは、画像100に含まれるデータよりも相当に小さくなる。これは、画像104を受け取るニューラルネットワークが、ニューラルネットワークが画像100を受け取った場合よりも速く結果を供給することを可能にし得る。いくつかの応用では、ニューラルネットワークは,画像100よりもむしろ画像104に基づいて、より正確な結果を供給し得る。
図2は、本開示の原理に従って、超音波ボリュームにおけるカテーテル識別のためのデータ処理ステップを表す。ブロック200は、超音波ボリュームがニューラルネットワークへ直接に供給される状況を表す。ブロック202は、超音波ボリュームがニューラルネットワークへ供給される前に前処理のために供給される状況を表す。ブロック200及び202は両方とも、カテーテルを含む組織の150×150×150ボクセル超音波ボリューム204を有する。ブロック200では、超音波ボリューム204は、カテーテル209が識別されている出力ボリューム208を生成するよう、ブロック206でディープラーニングアルゴリズム(例えば、ニューラルネットワーク)によって処理される。ディープラーニングアルゴリズムは、標準のnVidiaグラフィカル処理ユニットでディープラーニングフレームワークによって150×150×150ボクセルを処理するために約168秒を要する。
ブロック202では、超音波ボリューム204は、最初に、VOIを選択するようブロック210での前処理のために供給される。フランジ・フィルタが使用される場合に、ボクセルを処理するために約60秒かかる。これらの計算時間の両方が、コード最適化なしの標準の中央演算処理装置に基づく。フランジ及びガボール・フィルタは、単に実例として使用された。他のフィルタ又は技術が、他の例では、前処理ステップのために使用されてもよい。ブロック210での前処理からのVOIは、ブロック212でのディープラーニングアルゴリズムによる処理のために供給される。ディープラーニングアルゴリズムは、カテーテル209が識別されている出力ボリューム214を生成する。ディープラーニングアルゴリズムは、150×150×150ボクセルを処理するために約6秒を要する。よって、ブロック202はブロック200と比較して余分のステップを含むが、ブロック202内のプロセスは、ブロック200の168秒と比較してたった7~66秒しかかからなかった。
図3は、本開示の原理に従って構成された超音波撮像システム300のブロック図を示す。本開示に従う超音波撮像システム300は、トランスデューサアレイ314を含んでよく、トランスデューサアレイ314は、超音波プローブ312、例えば、心腔内超音波検査(Intra Cardiac Echography,ICE)プローブ又は経食道超音波検査(Trans Esophagus Echography,TEE)プローブなどの外部プローブ又は内部プローブに含まれてよい。他の実施形態では、トランスデューサアレイ314は、撮像対象(例えば、患者)の表面に共形に適用されるよう構成されたフレキシブルアレイの形をとってよい。トランスデューサアレイ314は、超音波信号(例えば、ビーム、波)を送信し、超音波信号に応答するエコーを受信するよう構成される。様々なトランスデューサアレイ、例えば、直線アレイ、曲面アレイ、又はフェーズドアレイ、が使用されてよい。トランスデューサアレイ314は、例えば、2D及び/又は3D撮像のための仰角及び方位角の両方の次元におけるスキャンが可能なトランスデューサの2次元アレイ(図示される。)を含むことができる。一般的に知られているように、軸方向は、アレイの面の法線方向であり(曲面アレイの場合に、軸方向は扇形に広がる。)、方位角方向は、一般的に、アレイの長手方向によって画定され、仰角方向は、方位角方向に対して横切って広がる。
いくつかの実施形態において、トランスデューサアレイ314は、マイクロビームフォーマ316へ結合されてよい。マイクロビームフォーマ316は、超音波プローブ312に位置してよく、アレイ314内のトランスデューサ要素による信号の送信及び受信を制御し得る。いくつかの実施形態において、マイクロビームフォーマ316は、アレイ314内のアクティブな要素(例えば、如何なる所与の時点でもアクティブ開口を画定するアレイの要素のアクティブサブセット)による信号の送信及び受信を制御し得る。
いくつかの実施形態において、マイクロビームフォーマ316は、例えば、プローブケーブルによって又は無線により、送信/受信(TR)スイッチ318へ結合されてよい。TRスイッチ318は、送信及び受信の間を切り替え、メインビームフォーマ322を高エネルギ伝送信号から保護する。いくつかの実施形態において、例えば、ポータブル超音波システムでは、T/Rスイッチ318及びシステム内の他の要素は、画像処理エレクトロニクスを収容し得る超音波システムベースにではなく超音波プローブ312に含まれ得る。超音波システムベースは、通常は、信号処理及び画像データ生成のための回路と、ユーザインターフェースを提供するための実行可能な命令とを含むソフトウェア及びハードウェア部品を含む。
マイクロビームフォーマ316の制御下のトランスデューサアレイ314からの超音波信号の送信は、送信コントローラ320によって方向付けられる。送信コントローラ320は、T/Rスイッチ318及びメインビームフォーマ322へ結合されてよい。送信コントローラ320は、ビームがステアリングされる方向を制御し得る。ビームは、トランスデューサアレイ314からまっすぐ前に(それに直交して)、又はより広い視野のための異なる角度で、ステアリングされてよい。送信コントローラ320は、ユーザインターフェース324へも結合され、ユーザコントロールのユーザの操作から入力を受け取ってよい。ユーザインターフェース324は、コントロールパネル352などの1つ以上の入力デバイスを含んでよい。コントロールパネル352は、1つ以上の機械コントロール(例えば、ボタン、エンコーダ、など)、タッチ検知コントロール(例えば、トラックパッド、タッチスクリーン、など)、及び/又は他の既知の入力デバイスを含んでよい。
いくつかの実施形態において、マイクロビームフォーマ316によって生成された部分的にビームフォーミングされた信号は、メインビームフォーマ322へ結合されてよい。メインビームフォーマ322で、トランスデューサ要素の個々のパッチからの部分的にビームフォーミングされた信号は、完全にビームフォーミングされた信号へと結合され得る。いくつかの実施形態において、マイクロビームフォーマ316は省略され、トランスデューサアレイ314は、ビームフォーマ322の制御下にあり、ビームフォーマ322は、信号の全てのビームフォーミングを実行する。マイクロビームフォーマ316の有無によらず、実施形態において、ビームフォーマ322のビームフォーミングされた信号は、処理回路350へ結合され、処理回路350は、ビームフォーミングされた信号(すなわち、ビームフォーミングされたRFデータ)から超音波画像を生成するよう構成された1つ以上のプロセッサ(例えば、信号プロセッサ326、Bモードプロセッサ328、ドップラープロセッサ360、並びに1つ以上の画像生成及び処理コンポーネント368)を含んでよい。
信号プロセッサ326は、バイパスフィルタリング、デシメーション、I及びQ成分分離、並びに高調波信号分離などの様々な方法で、受け取られたビームフォーミングされたRFデータを処理するよう構成されてよい。信号プロセッサ326は、スペックル低減、信号複合、及びノイズ削除などの追加の信号エンハンスメントも実行してよい。処理された信号(I及びQ成分又はIQ信号とも呼ばれる。)は、画像生成のための追加の下流信号処理回路へ結合されてよい。IQ信号は、システム内の複数の信号パスへ結合されてよく、各信号パスは、異なるタイプの画像データ(例えば、Bモード画像データ、ドップラー画像データ)を生成するのに適した信号処理コンポーネントの特定の配置と関連付けられ得る。例えば、システムは、信号プロセッサ326からの信号を、Bモード画像データを生成するBモードプロセッサ328へ結合するBモード信号パス358を含んでよい。
Bモードプロセッサ328は、体内の構造の撮像のために振幅検出を用いることができる。Bモードプロセッサ328によって生成された信号は、スキャンコンバータ330及び/又はマルチプレーナリフォーマッタ332へ結合されてよい。スキャンコンバータ330は、エコー信号が受信された空間関係から所望の画像フォーマットへエコー信号を配置するよう構成されてよい。例えば、スキャンコンバータ330は、2次元(2D)セクタ形状フォーマット、又はピラミッド形の若しくは別な形状の3次元(3D)フォーマットにエコー信号を配置してよい。例えば、米国特許第6443896号(Detmer)に記載されているように、マルチプレーナリフォーマッタ332は、身体の体積領域内の共通平面内のポイントから受信されたエコーをその平面の超音波信号(例えば、Bモード画像)に変換することができる。スキャンコンバータ330及びマルチプレーナリフォーマッタ332は、いくつかの実施形態において、1つ以上のプロセッサとして実装されてよい。
例えば、米国特許第6530885号(Entrekin et al.)に記載されているように、ボリュームレンダラ334は、所与の基準点から見られている3Dデータセットの画像(プロジェクション、レンダー、又はレンダリングとも呼ばれる。)を生成してよい。ボリュームレンダラ334は、いくつかの実施形態において、1つ以上のプロセッサとして実装されてよい。ボリュームレンダラ334は、表面レンダリング及び最大強度レンダリングなどのいずれかの既知又は将来的に既知の技術によって、ポジティブレンダー又はネガティブレンダーなどのレンダーを生成してよい。
いくつかの実施形態において、システムは、信号プロセッサ326からの出力をドップラープロセッサ360へ結合するドップラー信号パス362を含んでよい。ドップラープロセッサ360は、ドップラーシフトを推定し、ドップラー画像データを生成するよう構成されてよい。ドップラー画像データはカラーデータを含んでよく、カラーデータは、次いで、表示のためにBモード(すなわち、グレースケール)画像データとオーバーレイされる。ドップラープロセッサ360は、例えば、ウォールフィルタを用いて、不要な信号(すなわち、無運動組織と関連付けられたノイズ又はクラッタ)を除去するよう構成されてよい。ドップラープロセッサ360は、既知の技術に従って速度及びパワーを推定するよう更に構成されてよい。例えば、ドップラープロセッサ360は、速度(ドップラー周波数)推定がLag-1自己相関関数の引数に基づき、ドップラーパワー推定がLag-0自己相関関数の大きさに基づく自己相関器などのドップラー推定器を含んでよい。既知の位相領域(例えば、MUSIC、ESPRITなどのパラメトリック周波数推定器)又は時間領域(例えば、相互相関)信号処理技術によって、動きも推定可能である。加速度、あるいは、時間的及び/又は空間的速度導関数の推定器などの、速度の時間的又は空間的分布に関連した他の推定器が、速度推定器の代わりに又はそれに加えて使用可能である。いくつかの実施形態において、速度及びパワー推定は、セグメンテーション並びに充てん及び平滑化などの後処理に加えて、ノイズを更に低減するための更なる閾値検出を受けてよい。速度及びパワー推定は、次いで、カラーマップに従って所望の範囲の表示色にマッピングされてよい。ドップラー画像データとも呼ばれるカラーデータが、次いでスキャンコンバータ330へ結合されてよい。スキャンコンバータ330で、ドップラー画像データは、所望の画像フォーマットへ変換され、カラードップラー又はパワードップラー画像を形成するよう組織構造のBモード画像にオーバーレイされてよい。
本開示の原理に従って、超音波画像と総称されるBモード画像及びドップラー画像などのスキャンコンバータ330からの出力は、VOI(Voxel of Interest)セレクタ370へ供給されてよい。VOIセレクタ370は、超音波画像内で識別されるべき対象を含み得る関心のあるボクセルを識別し得る。いくつかの実施形態において、VOIセレクタ370は、1つ以上のプロセッサ及び/又は特定用途向け集積回路によって実装されてよい。VOIセレクタ370は、1つ以上のモデルを含んでよく、各モデルは、1つ以上のフィルタ、より精度の低いニューラルネットワーク、アルゴリズム、及び/又は画像セグメンタを含んでよい。いくつかの実施形態において、VOIセレクタ370は、VOIを選択するときに対象の特性(例えば、サイズ、形状、音響特性)の先在する知識を適用してよい。いくつかの実施形態において、VOIセレクタ370は、識別されるべき対象に基づく1つ以上の前もってセットされたモデルを含んでよい。いくつかの実施形態において、これらの前もってセットされたモデルは、ユーザインターフェース324を介してユーザによって選択されてよい。
任意に、いくつかの実施形態において、VOIセレクタ370は、ボクセルの3Dパッチ(例えば、キューブ)を3つの直交平面に変換すること(例えば、トライプレーナ抽出)によって、超音波画像からのデータを更に低減し得る。例えば、VOIセレクタ370は、3つの直交平面をとってよく、各直交平面は、パッチの中心を通る。パッチ内の残りのボクセルは、いくつかの実施形態において捨てられるか、又は無視されてよい。
VOIセレクタ370によって選択されたVOIは、対象識別部372へ供給されてよい。対象識別部372は、VOIのどのボクセルが関心のある対象を含むかを識別するよう、VOIセレクタ370から受け取られたVOIを処理してよい。例えば、ボクセルを、関心のある対象を含むもの又は含まないとして分類することによって、いくつかの実施形態において、対象識別部372は、識別されたボクセルが強調表示(例えば、異なる色、異なる強度)されている原超音波画像を出力してよい。他の実施形態では、対象識別部372は、原画像との再結合のために、識別されたボクセルを画像プロセッサ336へ出力してよい。
任意に、いくつかの実施形態において、対象識別部372及び/又は画像プロセッサ336は更に、対象識別部372によって生成された識別されたボクセル内の対象をローカライズしてもよい。ローカライゼーションは、識別されたボクセルに対する曲線当てはめ及び/又は識別されるべき対象の知識に基づく他の技術を含んでよい。
いくつかの実施形態において、対象識別部372は、1つ以上のプロセッサ及び/又は特定用途向け集積回路によって実装されてよい。いくつかの実施形態において、対象識別部372は、1つ以上の機械学習、人工知能アルゴリズム、及び/又は多重ニューラルネットワークを含んでよい。いくつかの例では、対象識別部372は、対象を認識するために、ディープニューラルネットワーク(Deep Neural Network,DNN)、畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)、回帰ニューラルネットワーク(Recurrent Neural Network,RNN)、オートエンコーダニューラルネットワーク、などを含んでよい。ニューラルネットワークは、ハードウェア(例えば、ニューロンは物理コンポーネントによって表される。)及び/又はソフトウェア(例えば、ソフトウェアアプリケーションで実装されたニューロン及びパスウェイ)コンポーネントで実装されてよい。本開示に従って実装されるニューラルネットワークは、所望の出力を生成するために、ニューラルネットワークを訓練するための様々なトポロジ及び学習アルゴリズムを使用してよい。例えば、ソフトウェアベースのニューラルネットワークは、命令を実行するよう構成されたプロセッサ(例えば、シングル若しくはマルチコアCPU、シングルGPU若しくはGPUクラスタ、又は並列処理のために配置された複数プロセッサ)を用いて実装されてよい。命令は、コンピュータ可読媒体に記憶されてよく、実行される場合に、プロセッサに、VOIセレクタ370から受け取られたVOIにおいて対象を識別する訓練されたアルゴリズムを実行させる。
様々な実施形態において、ニューラルネットワークは、超音波画像、測定、及び/又は統計量の形で入力データを解析し、対象を識別するよう構成されるニューラルネットワーク(例えば、ノードの訓練されたアルゴリズム又はハードウェアベースのシステム)を取得するよう、現在知られている又は今後開発される様々な学習技術のいずれかを用いて訓練されてよい。いくつかの実施形態において、ニューラルネットワークは、静的に訓練されてよい。すなわち、ニューラルネットワークは、データセットにより訓練され、そして、対象識別部372にデプロイされてよい。いくつかの実施形態において、ニューラルネットワークは、動的に訓練されてもよい。このような実施形態では、ニューラルネットワークは、初期データセットにより訓練され、そして、対象識別部372にデプロイされてよい。しかし、ニューラルネットワークは、対象識別部372でのニューラルネットワークのデプロイ後にシステム300によって取得された超音波画像に基づいて引き続き訓練し変更されてよい。
いくつかの実施形態において、対象識別部372は、ニューラルネットワークを含まなくてもよく、代わりに、画像セグメンテーション、ヒストグラム解析、エッジ検出、又は他の形状若しくは対象認識技術などの、対象識別のための他の画像処理技術を実装してよい。いくつかの実施形態において、対象識別部372は、対象を識別するための他の画像処理方法と組み合わせてニューラルネットワークを実装してもよい。ニューラルネットワーク及び/又は対象識別部372に含まれる他の要素は、関心のある対象の先在する知識に基づいてよい。いくつかの実施形態において、ニューラルネットワーク及び/又は他の要素は、ユーザインターフェース324を介してユーザによって選択されてよい。
対象識別部372、スキャンコンバータ330、マルチプレーナリフォーマッタ332、及び/又はボリュームレンダラ334からの出力(例えば、Bモード画像、ドップラー画像)は、画像ディスプレイ338で表示される前に、更なるエンハンスメント、バッファリング及び一時記憶のために画像プロセッサ336へ結合されてよい。例えば、いくつかの実施形態において、画像プロセッサ336は、識別されるべき対象を含むボクセルを識別する対象識別部372の出力を受け取ってよい。画像プロセッサ336は、識別されたボクセルを原超音波画像の上にオーバーレイしてよい。いくつかの実施形態において、対象識別部372によって供給されたボクセルは、原超音波画像のボクセルとは異なった色(例えば、緑、赤、黄)又は強度(例えば、最大強度)でオーバーレイされてよい。いくつかの実施形態において、画像プロセッサ336は、識別された対象のみが表示のために供給されるように、対象識別部372によって供給された識別されたボクセルのみを供給してよい。
スキャンコンバータ330からの出力は、VOIセレクタ370及び対象識別部372を介して画像プロセッサ336へ供給されるものとして示されているが、いくつかの実施形態において、スキャンコンバータ330の出力は、画像プロセッサ336へ直接に供給されてもよい。グラフィクスプロセッサ340は、画像による表示のためのグラフィックオーバーレイを生成してよい。これらのグラフィックオーバーレイは、例えば、患者名、画像の日時、撮像パラメータ、などの標準の識別情報を含むことができる。このために、グラフィクスプロセッサ340は、タイプ入力された患者入力又は他の注釈などのユーザインターフェース324からの入力を受け取るよう構成されてよい。ユーザインターフェース324は、複数のマルチプレーナ再フォーマット(MultiPlanar Reformatted)画像の表示の選択及び制御のためにマルチプレーナリフォーマッタ332へも結合されてよい。
システム300は、ローカルメモリ342を含んでよい。ローカルメモリ342は、如何なる適切な非一時的なコンピュータ可読媒体(例えば、フラッシュドライブ、ディスクドライブ)としても実装されてよい。ローカルメモリ342は、超音波画像を含むシステム300によって生成されたデータ、実行可能命令、撮像パラメータ、訓練データセット、又はシステム300の動作のために必要な何らかの他の情報を記憶してよい。
上述されたように、システム300は、ユーザインターフェース324を含む。ユーザインターフェース324は、ディスプレイ338及びコントロールパネル352を含んでよい。ディスプレイ338は、LCD、LED、OLED、又はプラズマディスプレイ技術などの様々な既知のディスプレイ技術を用いて実装された表示デバイスを含んでよい。いくつかの実施形態において、ディスプレイ338は、複数のディスプレイを有してもよい。コントロールパネル352は、ユーザ入力(例えば、検査タイプ、識別されるべき対象のための前もってセットされたモデル)を受け取るよう構成されてよい。コントロールパネル352は、1つ以上のハードコントロール(例えば、ボタン、ノブ、ダイアル、エンコーダ、マウス、トラックボール、又は他)を含んでよい。いくつかの実施形態において、コントロールパネル352は、追加的に、又は代替的に、タッチ検知ディスプレイに設けられたソフトコントロール(例えば、GUI制御要素又は単に、GUIコントロール)を含んでもよい。いくつかの実施形態において、ディスプレイ338は、コントロールパネル352の1つ以上のソフトコントロールを含むタッチ検知ディスプレイであってもよい。
いくつかの実施形態において、図3に示される様々なコンポーネントは、組み合わされてもよい。例えば、画像プロセッサ336及びグラフィクスプロセッサ340は、単一のプロセッサとして実装されてよい。他の例では、VOIセレクタ370及び対象識別部372は、単一のプロセッサとして実装されてよい。いくつかの実施形態において、図3に示される様々なコンポーネントは、別々のコンポーネントとして実装されてもよい。例えば、信号プロセッサ326は、各撮像モード(例えば、Bモード、ドップラー)のための別々の信号プロセッサとして実装されてもよい。いくつかの実施形態において、図3に示される様々なプロセッサの1つ以上は、特定のタスクを実行するよう構成された汎用プロセッサ及び/又はマイクロプロセッサによって実装されてよい。いくつかの実施形態において、様々なプロセッサの1つ以上は、特定用途向け回路として実装されてよい。いくつかの実施形態において、様々なプロセッサの1つ以上(例えば、画像プロセッサ336)は、1つ以上のグラフィカル処理ユニット(GPU)により実装されてもよい。
図4は、本開示の原理に従うプロセッサ400を例示するブロック図である。プロセッサ400は、本明細書で記載される1つ以上のプロセッサ及び/又はコントローラ、例えば、図3に示される画像プロセッサ及び/又は図3に示される何らかの他のプロセッサ若しくはコントローラを実装するために使用されてよい。プロセッサ400は、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)(FPGAは、プロセッサを形成するようプログラムされている。)、グラフィカル処理ユニット(GPU)、特定用途向け集積回路(ASIC)(ASICは、プロセッサを形成するよう設計されている。)、又はそれらの組み合わせを含むがこれらに限られない如何なる適切なプロセッサタイプであってもよい。
プロセッサ400は、1つ以上のコア402を含んでよい。コア402は、1つ以上の算術論理ユニット(ALU)404を含んでよい。いくつかの実施形態において、コア402は、ALU404に加えて又はそれに代えて、浮動小数点論理ユニット(FPLU)406及び/又はデジタル信号処理ユニット(DSPU)408を含んでよい。
プロセッサ400は、コア402へ通信可能に結合された1つ以上のレジスタ412を含んでよい。レジスタ412は、専用の論理ゲート回路(例えば、フリップフロップ)及び/又は任意のメモリ技術を用いて実装されてよい。いくつかの実施形態において、レジスタ412は、静的メモリを用いて実装されてよい。レジスタ412は、データ、命令及びアドレスをコア402へ供給してよい。
いくつかの実施形態において、プロセッサ400は、コア402へ通信可能に結合された1つ以上のレベルのキャッシュメモリ410を含んでよい。キャッシュメモリ410は、コンピュータ可読命令を実行のためにコア402へ供給してよい。キャッシュメモリ410は、コア402による処理のためにデータを供給してよい。いくつかの実施形態において、コンピュータ可読命令は、ローカルメモリ、例えば、外部バス416に取り付けられたローカルメモリによってキャッシュメモリ410へ供給されていてよい。キャッシュメモリ410は、如何なる適切なキャッシュメモリタイプによっても、例えば、私的ランダムアクセスメモリ(SRAM)、動的ランダムアクセスメモリ(DRAM)、及び/又は何らかの他の適切なメモリ技術などの金属酸化膜半導体(MOS)メモリにより実装されてよい。
プロセッサ400は、コントローラ414を含んでよい。コントローラ414は、システムに含まれている他のプロセッサ及び/又はコンポーネント(例えば、図3に示されるコントロールパネル352及びスキャンコンバータ330)からプロセッサ400への入力、及び/又はプロセッサ400からシステム内の他のプロセッサ及び/又はコンポーネント(例えば、図3に示されるディスプレイ及びボリュームレンダラ334)への出力を制御してよい。コントローラ414は、ALU404、FPLU406及び/又はDSPU408内のデータパスを制御してよい。コントローラ414は、1つ以上の状態機械、データパス及び/又は専用の制御ロジックとして実装されてよい。コントローラ414のゲートは、スタンドアロンのゲート、FPGA、ASIC、又は何らかの他の適切な技術として実装されてよい。
レジスタ412及びキャッシュメモリ410は、内部接続420A、420B、420C及び420Dを介してコントローラ414及びコア402と通信してよい。内部接続は、バス、マルチプレクサ、クロスバースイッチ、及び/又は何らかの他の適切な接続技術として実装されてよい。
プロセッサ400のための入力及び出力は、バス416を介して供給されてよい。バス416は、1つ以上の導電路を含んでよい。バス416は、プロセッサ400の1つ以上のコンポーネント、例えば、コントローラ414、キャッシュメモリ410、及び/又はレジスタ412へ通信可能に結合されてよい。バス416は、上述されたディスプレイ338及びコントロールパネル352などの、システムの1つ以上のコンポーネントへ結合されてよい。
バス416は、1つ以上の外部メモリへ結合されてよい。外部メモリは、リードオンリーメモリ(ROM)432を含んでよい。ROM432は、マスクドROM、電気的プログラム可能リードオンリーメモリ(EPROM)、又は何らかの他の適切な技術であってよい。外部メモリは、ランダムアクセスメモリ(RAM)433を含んでよい。RAM433は、静的RAM、バッテリバックアップ型静的RAM、動的RAM(DRAM)、又は何らかの他の適切な技術であってよい。外部メモリは、電気的消去可能なプログラム可能リードオンリーメモリ(EEPROM)435を含んでよい。外部メモリは、フラッシュメモリ434を含んでよい。外部メモリは、ディスク436などの磁気記憶デバイスを含んでもよい。いくつかの実施形態において、外部メモリは、図3に示される超音波撮像システム300などのシステム、例えばローカルメモリ342に含まれてもよい。
いくつかの実施形態において、システム300は、対象を識別する(例えば、対象又はその部分が画像のピクセル又はボクセルに含まれているかどうかを決定する)ために、VOIセレクタ370及び/又は対象識別部372に含まれている、CNNを含み得るニューラルネットワークを実装するよう構成可能である。ニューラルネットワークは、関心のある1つ以上のアイテムが存在するとしてラベルを付されている画像フレームなどの撮像データにより訓練されてよい。ニューラルネットワークは、特定の医療検査(例えば、心エコー検査の異なる標準ビュー)と関連付けられた対象となる解剖学的特徴を認識するよう訓練されてよく、あるいは、ユーザが、1つ以上のカスタムの対象となる解剖学的特徴(例えば、埋め込まれたデバイス、カテーテル)を見つけるようニューラルネットワークを訓練してよい。
いくつかの実施形態において、ニューラルネットワークと関連付けられたニューラルネットワーク訓練アルゴリズムは、特定の超音波画像から取得された測定ごとに信頼度を決定するようニューラルネットワークを訓練するために、数千又は数百万の訓練データセットを与えられ得る。様々な実施形態において、ニューラルネットワークを訓練するために使用される超音波画像の数は、約50,000以下から200,000以上までの範囲に及んでよい。ネットワークを訓練するために使用される画像の数は、関心のあるより多くの異なったアイテムが識別されるべき場合に、あるいは、より多種多様な患者バリエーション、例えば、体重、身長、年齢、などに適応するよう、増大されてよい。訓練画像の数は、関心のある異なったアイテム又はその特徴ごとに異なってよく、特定の特徴の出現の変動に依存してよい。例えば、腫瘍は、通常は、正常な生体構造よりも広範に変動性を有している。人口全体の変動性が高い特徴と関連付けられた関心のあるアイテムの存在を評価するためにネットワークを訓練することは、より多くの訓練画像を必要とし得る。
図5は、本開示の原理に従って、ニューラルネットワークの訓練及びデプロイのためのプロセスのブロック図を示す。図5に示されるプロセスは、VOIセレクタ370及び/又は対象識別部372に含まれているニューラルネットワークを訓練するために使用されてよい。図5の左手側のフェーズ1は、ニューラルネットワークの訓練を表す。ニューラルネットワークを訓練するために、入力アレイ及び出力分類の複数のインスタンスを含む訓練セットがニューラルネットワークの訓練アルゴリズム(例えば、Krizhevsky, A., Sutskever, I. and Hinton, G. E.,“ImageNet Classification with Deep Convolutional Neural Networks”,NIPS 2012に記載されているAlexNet訓練アルゴリズム又はそれに由来するもの)へ与えられてよい。訓練は、開始ネットワークアーキテクチャ512の選択と、訓練データ514の準備とを含んでよい。開始ネットワークアーキテクチャ512は、ブランクアーキテクチャ(例えば、ノードのレイヤ及び配置が定義されているが、前に訓練された如何なる重みも使用しないアーキテクチャ)又は部分的に訓練されたネットワーク、例えば、インセプション(inception)ネットワークであってよく、次いで、超音波画像の分類のために更に調整されてよい。開始アーキテクチャ512(例えば、ブランク重み)及び訓練データ514は、モデルを訓練する訓練エンジン510へ供給される。十分な回数の繰り返しが起こると(例えば、許容可能なエラー内で一貫してモデルが実行する場合に)、モデル520は、訓練されたと言われ、デプロイの準備ができている。これは、図5の真ん中のフェーズ2に表されている。図5の右手側、すなわち、フェーズ3で、訓練されたモデル520は、新しいデータ532の解析のために(推論エンジン530を介して)適用される。新しいデータ532は、(フェーズ1での)初期訓練中にモデルに与えられなかったデータである。例えば、新しいデータ532は、患者のスキャン中に取得されたライブ超音波画像(例えば、心エコー検査中の心臓画像)などの未知の画像を含んでよい。エンジン530を介して実装された訓練されたモデル520は、出力534(例えば、識別された対象を含むボクセル)を供給するよう、モデル520の訓練に従って未知の画像を分類するために使用される。出力534は、次いで、その後のプロセス540のためにシステムによって使用されてよい(例えば、VOIセレクタ370のニューラルネットワークの出力は、対象識別部372のための入力として使用されてよい。)。
訓練されたモデル520が対象識別部372のニューラルネットワークを実装するために使用される実施形態では、開始アーキテクチャは、画像フレームインデックス作成、画像セグメンテーション、画像比較、又はそれらの組み合わせを実行するよう訓練され得る畳み込みニューラルネットワーク又はディープ畳み込みニューラルネットワークのそれであってよい。医用画像データの記憶容量が増えると、高品質の臨床画像の利用可能性が高まる。これは、所与のピクセル又はボクセルが識別されるべき対象(例えば、カテーテル、弁クリップ)を含む可能性を学習するようニューラルネットワークを訓練するために活用され得る。訓練データ514は、訓練画像とも呼ばれる複数(数百、しばしば、数千以上)の注釈付き/ラベル付き画像を含んでよい。訓練画像は、撮像システムによって生成された画像全体(超音波プローブの全視野又はMRIボリューム全体を表す。)を含む必要はなく、関心のあるラベル付きアイテムの画像のパッチ又は部分を含み得る。
様々な実施形態において、訓練されたニューラルネットワークは、プロセッサによって実行される実行可能な命令、例えば、対象識別部372及び/又はVOIセレクタ370、を含むコンピュータ可読媒体において少なくとも部分的に実装されてよい。
医用画像による訓練のために、クラス不均衡(class imbalance)が問題となる。すなわち、対象を含むピクセル又はボクセルよりも、識別されるべき対象(例えば、組織)を含まないピクセル又はボクセルの方が相当に多い場合がある。例えば、非カテーテルボクセルに対するカテーテルボクセルの割合は、一般的に、1/1000に満たない。補償するために、ニューラルネットワークの2段階訓練が、後述されるいくつかの例で実行されてよい。
第1に、訓練画像内の不均衡なボクセルの数は、カテーテルボクセルと同量を得るよう非カテーテルボクセルに対してリサンプリングされてよい。これらの均衡の取れたサンプルがニューラルネットワークを訓練する。次いで、訓練画像は、誤って分類されたボクセルを選択するよう、訓練されたモデルにおいて検証される。これは、より精細な最適化のためにネットワークを更新するために使用される。具体的に、ニューラルネットワークが対象識別部372においてデプロイされる場合とは異なり、訓練プロセスは、VOIセレクタ370によって供給されたVOIのみではなく超音波画像全体において適用される。この更新ステップは、最も簡単なサンプルポイントを落とすことによってクラス不均衡を低減する(いわゆる2段階訓練)。
いくつかの実施形態において、ネットワークのパラメータは、より速い収束のためにAdamオプティマイザを用いて、交差エントロピを最小限にすることによって学習されてよい。2段階訓練中に、交差エントロピは、クラス分布のバランスを取るために異なった形式に特徴付けられる。最初の訓練段階では、交差エントロピは標準フォーマットで特徴付けられる。しかし、更新中には、関数は、重み付き交差エントロピとして再定義される。これらの異なったエントロピは、第2段階でのポジティブ訓練サンプルよりも通常5から10倍大きい誤検知の数により起こる更新段階でのバイアスを回避する。重み付き交差エントロピの結果として、ネットワークは、分類後に、捨てるよりも多くの対象ボクセル(例えば、カテーテル)を維持する傾向がある。重み付き交差エントロピは、

Loss(y,p)=-(1-w)ylog(p)-w(1-p) 式1

として定式化される。ここで、yは、サンプルのラベルを示し、一方、pは、サンプルのクラス確率であり、パラメータwは、訓練サンプル間のサンプルクラス比である。
訓練中、いくつかの実施形態において、ドロップアウトは、10-5強度によるL2正則化とともに畳み込みネットワークの完全接続層(Fully Connect layers,FC)における50%の確率での過剰適合を回避するために、使用されてよい。いくつかの実施形態において、初期学習レートは、0.001にセットされ、毎5エポック後に係数0.2によって再スケーリングされてよい。一方で、向き及び画像強度バリエーションにおいてネットワークを一般化するために、回転、ミラーリング、コントラスト及び輝度変換のようなデータ拡張(data augmentation)技術が追加的に適用されてもよい。いくつかの実施形態において、ミニバッチサイズは128であってよく、総訓練エポックは20であってよく、これは、最初の訓練では約25kであり、一方、第2訓練における繰り返しは約100kである。
上の2段階訓練法は、単に一例として与えられている。他の多段階又は単段階訓練法が他の例では使用されてもよい。
VOIセレクタ370に戻ると、いくつかの実施形態において、VOIセレクタ370は、候補ボクセルを選択するようガボール・フィルタ又はフランジ・ベッセルネス・フィルタなどのフィルタを含んでよい。いくつかの場合に、フィルタの使用は、特に、ノイジーな及び/又は低品質の3D画像において、弱いボクセル弁別により多数の誤検知をもたらす可能性がある。多数の誤検知は、必要以上のデータセットが解析のために対象識別部372へ供給されるようにする可能性がある。これは、対象識別部372の速度を低減させる可能性がある。
いくつかの実施形態において、誤検知の数を減らすために、VOIセレクタ370は、任意に、追加のモデルを含んでもよい。例えば、フランジ・フィルタは、適応閾値化法とともに使用されてよい。この例では、画像ボリュームは、最初に、予め定義されたスケールでフランジ・フィルタによってフィルタをかけられ、単位インターバル[0,1],Vに再スケーリングされる。フランジ・フィルタリングの後、適応閾値化法が、最も高いベッセルネス応答のN個のボクセルを粗く選択するようVに適用されてよい。先と同じく、フランジ・フィルタは、単に(例えば、チューブ構造を見つけるための)一例として与えられている。他のフィルタも(例えば、検出されるべき対象の形状又は他の特性の事前知識に基づいて)使用されてよい。閾値化法は、Vにおいて上位N個の可能なボクセルを見つけ得る。フィルタ応答は異なる画像において大きい変動を有するので、閾値の適応調整は、画像自体に基づいて閾値Tを繰り返し増大又は低減することによって、漸進的にN個のボクセルを選択することができる。いくつかの例では、初期閾値は、T=0.3にセットされてよい。Nの値は、VOIセレクタ370及び/又は対象識別部372の分類の効率及び/又は分類性能のバランスを取るよう選択されてよい。いくつかの応用では、Nの値は、10kのステップサイズで10kから190kまでの範囲に及んでよい。いくつかの例では、値は、3分割交差検証(three-fold cross validation)を通じて全ての試験ボリュームの平均化によって取得されてよい。適応閾値化のための擬似コードは、以下で示される:

Require:フィルタ処理されたボリュームV,必要とされるボクセル数N及び初期閾値T
初期閾値TによってVに閾値化を適用する。Kの量で、Tより大きい残りのボクセルを見つける。
if K<N then
while K<N do
T=T-0.01
TによってVに閾値化を適用し、Tよりも大きいボクセルの数Kを見つける。
end while
else if K>N then
while K>N do
T=T+0.01
TによってVに閾値化を行い、Tよりも大きいボクセルの数Kを見つける。
end while
end if
return 適応された閾値Tよりも大きい応答を有するボクセル
他の例では、誤検知を減らすための他の技術が使用されてもよい。例えば、固定値閾値化法が使用されてよい。更に、上記の例は、フィルタと組み合わせた適応閾値化の使用について説明しているが、適応閾値化又は他の技術は、他の実施形態では、モデル及び/又はニューラルネットワークとともに使用されてもよい。
いくつかの実施形態において、VOIセレクタ370によって出力されたVOIは、対象識別部372によって受け取られ処理されてよい。例えば、対象識別部372は、VOIを解析する3D畳み込みネットワークを含んでよい。いくつかの実施形態において、VOIは、3Dパッチ(例えば、キューブ)に細分され、3D畳み込みネットワークによって解析されてよい。体積データのボクセルワイズ分類のために、いくつかの実施形態において、対象識別部372は、VOIセレクタ370によって供給されたVOIを分類するためにニューラルネットワークによって3D局所情報を処理してよい。いくつかの実施形態において、ニューラルネットワークは、畳み込みニューラルネットワークであってよい。いくつかの実施形態において、分類は、関心のある対象を含む又は含まない、といった二値分類であってよい。いくつかの実施形態において、ボクセルは、それらの3D近傍に基づいて分類されてよい。例えば、図6に示されるように、3Dキューブ602の中心に位置する候補ボクセルごとに、キューブ602は、ボクセルの分類606を出力するよう3D畳み込みネットワーク604によって処理されてよい。しかし、入力として3Dデータキューブを使用する場合に、このアプローチは、ニューラルネットワークに多くのパラメータを含める。これは、画像ボリュームにおけるボクセルワイズ分類の効率を妨げる可能性がある。いくつかの例では、3D情報を維持し、かつ、対象識別部372によって実行される動作を更に減らすために、2Dスライスが各キューブ(例えば、3Dパッチ)から取り出されてよく、各スライスは、キューブを通って異なる角度からとられる。いくつかの実施形態において、マルチプレーナ抽出がVOIセレクタ370によって実行されてよい。他の実施形態では、マルチプレーナ抽出は、対象識別部372によって実行されてもよい。
図7に示されるように、いくつかの実施形態において、夫々の取り出されたスライス702A~Cは、別個の各々のニューラルネットワーク704A~Cへ供給されてよい。スライスからの取り出された特徴ベクトル706は、ボクセルの二値クラス710を出力するために完全接続層(FC)にそれらを供給するよう連結されてよい。これはスライシングアプローチによって3D情報を維持し得るが、多数の個別的なニューラルネットワーク枝は冗長性をもたらす場合があり、これは次善の適用及び計算時間をもたらす可能性がある。
図8に示されるように、いくつかの実施形態において、取り出されたスライス802A~Cは、赤-緑-青(RGB)チャネル804に再編されてよい。RGBチャネル804は、次いで、二値クラス804を出力するよう単一のニューラルネットワーク806へ供給される。しかし、いくつかの応用では、これは、各スライス間の空間情報が、ニューラルネットワーク806の畳み込みネットワークの最初の段階で畳み込みフィルタによって厳格に処理されるようにし得る。浅い処理(shallow processing)によれば、低レベルの特徴しか処理され得ず、いくつかの応用でスライス間の空間関係を十分に活用することができない。
図9は、本開示の実施形態に従うトライプレーナ抽出のプロセスを表す。VOIセレクタ370によって供給されたVOIに基づいて、キューブ902は、キューブの中心に位置する各VOIについて取得されてよい。次いで、キューブ902の中心904を通る3つの直交面が取り出される。次いで、3つの直交面906A~Cは、対象識別部372のニューラルネットワーク及び/又は他の対象識別技術へ入力として供給される。いくつかの例では、キューブは25×25×25のボクセルであってよく、4~6個のボクセルの典型的なカテーテル寸法よりも大きくてよい。しかし、他のサイズのキューブが、識別されるべき対象のサイズに少なくとも部分的に基づいて、他の例では使用されてもよい。
図10は、本開示の実施形態に従うニューラルネットワークを示す。図7に示されるようにスライスごとにニューラルネットワークを訓練するのではなく、畳み込みネットワークのような単一のニューラルネットワーク1004が、いくつかの実施形態において、トライプレーナ抽出からの3つ全てのスライス1002A~Cを入力として受け取るよう訓練されてよい。共有された畳み込みネットワークからの全ての特徴ベクトル1006は、いくつかの実施形態において、分類のためのより大きい特徴ベクトルを形成するよう連結されてよい。単一のニューラルネットワーク1004は、平面1002A~Cにおけるボクセルの二値分類1008を出力してよい。いくつかの応用では、ニューラルネットワーク1004は、高レベルの特徴空間でスライス1002A~Cの空間相関を利用してよい。
図6、7、9及び/又は10に示されるニューラルネットワークは、いくつかの実施形態において、図5を参照して上述されたように訓練されてよい。
図11は、本開示の様々な実施形態に従って、対象識別部の出力の例を示す。図11に示される例となる出力の全てが、カテーテルを含む3D超音波画像(例えば、ボリューム)から生成された。ペイン1102及び1104は、図8に示されたようなニューラルネットワークを含む対象識別部からカテーテルを含むものとして出力されたボクセルを含む。ペイン1102は、超音波撮像システムによって取得された原ボリュームからニューラルネットワークによって生成された。ペイン1104は、VOIセレクタの出力からニューラルネットワークによって生成された。ペイン1106及び1108は、図10に示されたようなニューラルネットワークを含む対象識別部からカテーテルを含むものとして出力されたボクセルを示す。ペイン1106は、超音波撮像システムによって取得された原ボリュームからニューラルネットワークによって生成された。ペイン1108は、VOIセレクタの出力からニューラルネットワークによって生成された。ペイン1110及び1112は、図7に示されたようなニューラルネットワークを含む対象識別部からカテーテルを含むものとして出力されたボクセルを示す。ペイン1110は、超音波撮像システムによって取得された原ボリュームからニューラルネットワークによって生成された。ペイン1112は、VOIセレクタの出力からニューラルネットワークによって生成された。
図11に示されるように、3つ全てのニューラルネットワークが、VOIセレクタの出力に基づいて出力を生成する場合に、よりノイズが少ない出力を供給する。よって、いくつかの応用では、3D画像を前処理してVOIを選択するだけでなくニューラルネットワークの速度を上げ、更にはニューラルネットワークの性能を改善することもできる。更に、いくつかの応用では、図10に示されたようなニューラルネットワークを含む対象識別部は、図7又は8に示されたようなニューラルネットワークを含む対象識別部と比べて、よりノイズの少ない出力を供給し得る。
いくつかの応用では、識別されるべき対象を含むものとして分類されたボクセルは、図11では、識別されたカテーテルを囲む“デブリ”(debris)で見られるように、いくつかの外れ値(outliers)を含むことがある。これは、いくつかの場合に、ぼやけた組織境界又はカテーテル様の解剖学的構造に起因し得る。任意に、いくつかの実施形態において、識別されるべき対象を含むボクセルが対象識別部372によって(例えば、ニューラルネットワークによって分類されたように)分類された後に、対象は、追加の技術によって更にローカライズされてよい。これらの技術は、いくつかの実施形態において、対象識別部372及び/又は画像プロセッサ336によって実行されてよい。いくつかの実施形態において、予め定義されたモデル及び曲線当てはめ技術が使用されてよい。
図12は、本開示の実施形態に従って、カテーテルの場合におけるローカライゼーションプロセスの例を表す。この例では、固定半径を有する曲面円筒(curved cylinder)モデルが使用されてよい。カテーテル1202を含むものとして分類されたボクセルのボリューム1200は、クラスタ1204を生成するよう連続性解析によって処理されてよい。クラスタスケルトン1206が、スパースボリューム1208を生成するよう取り出される。当てはめ段階が次いで実行される。当てはめ中に、多数の制御ポイント1210(例えば、図12に示される3つの点)が、スパースボリューム1208から自動的にかつランダムに選択され、主成分分析によって向きにおいて順序付けられてよい。再順序付けされたポイント1210は、3次スプライン当てはめ(cubic spline fitting)が順番にポイントを通ることを確かにし得る。これは、カテーテルモデルスケルトン1212を生成し得る。いくつかの実施形態において、ボリューム1200内でインライア(inliers)の数が最も多いローカライズされたスケルトン1212が、適合したカテーテルとして採用され得る。いくつかの実施形態において、インライアは、スケルトン1212までのそれらのユークリッド距離によって決定されてよい。
図13は、本開示の実施形態に従って、ローカライズ前後のカテーテルの画像の例を示す。ペイン1302は、強調表示されたカテーテル1306として分類されたボクセルを含む3D超音波画像を示す。組織内の外れ値も、カテーテル1306の部分として識別されるものとして強調表示されている。ペイン1304は、ローカライゼーションプロセス(例えば、図12を参照して説明されたプロセス)が実行された後の、カテーテル1306を分類されたボクセルを含む3D超音波画像を示す。図13に示されるように、カテーテル1306を含むボクセルは、より狭く画定されており、外れ値1308は除かれている。図13に示されるように、対象識別部のニューラルネットワーク及び/又は他の分類スキームの出力に対してローカライゼーションプロセスを実行することは、いくつかの応用では、識別された対象の視覚化を改善し得る。
図14は、本開示の実施形態に従って、画像内で対象を識別する方法1400の概要を表す。ブロック1402で、画像又は画像ボリューム(例えば、3D超音波画像)が、画像又は画像ボリュームを表す表示データから関心のあるデータを選択するようモデルによって前処理される。いくつかの実施形態において、モデルは、プロセッサによって実装されてよく、VOIセレクタ、例えば、VOIセレクタ370、と呼ばれ得る。関心のあるデータは、識別されるべき対象を含むか、又はその可能性を有し得る。前処理によって出力された関心のあるデータは、表示データのサブセット(例えば、第2サブセット)であってよい。
任意に、ブロック1404で、第2データセットが3Dデータセット(例えば、ボリューム)である場合に、第2データセットは、3Dパッチ(例えば、キューブ)に細分されてよい。複数の平面(例えば、スライス)が次いで、各3Dパッチから取り出されてよい。例えば、いくつかの実施形態において、各3Dパッチの中心を通る3つの直交面が取り出されてよい。いくつかの実施形態において、プレーナ抽出は、VOIセレクタによって実行されてよい。他の実施形態では、プレーナ抽出は、対象識別部372のような対象識別部によって実行されてもよい。いくつかの実施形態において、対象識別部は、プロセッサによって実装されてよい。いくつかの実施形態において、単一のプロセッサが、VOIセレクタ及び対象識別部の両方を実装してよい。平面の組は、次いで、VOIセレクタ又は対象識別部によって出力されてよい。
ブロック1406で、第2データセットは、識別されるべき対象を含む第2データセット内でデータポイント(例えば、ボクセル又はピクセル)を識別するよう処理されてよい。例えば、データポイントは、それらが対象を含むか否かを決定するよう解析されてよい。いくつかの実施形態において、3Dデータセットのデータポイントは、ニューラルネットワーク、例えば、図6に示されるニューラルネットワークによって処理されてよい。いくつかの実施形態において、処理は、ニューラルネットワークを含み得る対象識別部によって実行されてよい。他の実施形態では、2Dデータセットのデータポイントが、図6に示されるものと類似したニューラルネットワークによって処理されてよいが、そのニューラルネットワークは、2D画像データセットに対して訓練されていてよい。いくつかの実施形態において、関心のある対象を含むものとして識別された第2データセットのデータポイントは、第3データセットとして出力されてよく、第3データセットは、第2データセットのサブセットであってよい。第3データセットは対象を表してよい。いくつかの実施形態において、第3データセットは、ディスプレイへ出力すべき表示データを生成するために使用され、かつ/あるいは、表示のために原画像又は画像ボリュームと再結合されてよい。
他の実施形態では、ブロック1406で、ブロック1404で3Dパッチから取り出された平面は、識別されるべき対象を含む平面においてデータポイントを識別するよう処理されてよい。いくつかの実施形態において、データポイントは、ニューラルネットワーク、例えば、図7、8及び/又は10に示されるニューラルネットワークによって処理されてよい。いくつかの実施形態において、処理は、ニューラルネットワークを含み得る対象識別部によって実行されてよい。いくつかの実施形態において、関心のある対象を含むものとして識別された平面のデータポイントは、第3データセットとして出力されてよく、第3データセットは、平面に含まれているデータポイントのサブセットであってよい。いくつかの実施形態において、第3データセットは、表示のために出力され、かつ/あるいは、表示のために原画像ボリュームと再結合されてよい。
任意に、いくつかの実施形態において、対象は、ブロック1408で第3データセットにおいて更にローカライズされてよい。いくつかの実施形態において、ローカライゼーションプロセスは、対象識別部又は、画像プロセッサ336のような画像プロセッサによって、実行されてよい。いくつかの実施形態において、ローカライゼーションは、ボリューム内で識別されるべき対象の知識(例えば、対象の特性)に少なくとも部分的に基づいてモデル及び/又は曲線当てはめ技術を第3データセットに適用することを含んでよい。いくつかの実施形態において、ローカライズされたボクセル及び/又はピクセルは、第4データセットとして出力されてよい。第4データセットは、第3データセットのサブセットであってよい。いくつかの実施形態において、第4データセットは、表示のために出力され、かつ/あるいは、表示のために原画像又は画像ボリュームと再結合されてよい。
図14に表されている方法1400の前に、いくつかの実施形態において、データポイントを選択するための及び/又は識別されるべき対象を含むデータポイントを識別するための1つ以上のニューラルネットワークが、本明細書で上述された1つ以上の方法によって訓練されもよい。
本明細書で開示されているように、画像は、ニューラルネットワークによって解析される前に関心のあるボクセル(VOI)を選択するよう1つ以上の技術によって前処理されてよい。前処理は、ニューラルネットワークが処理するデータの量を減らし得る。任意に、データは、VOIの組から直交面を取り出し、直交面をニューラルネットワークへ供給することによって、更に低減され得る。データの量を減らすことは、ニューラルネットワークが画像において対象を識別するために必要な時間を減らし得る。ニューラルネットワークによって必要とされる時間の低減は、前処理に必要とされる時間よりも大きくなり得る。よって、画像において対象を識別するための全体の時間は、ニューラルネットワークへ直接に画像を供給することと比較して低減され得る。任意に、ニューラルネットワークによって識別された対象は更に、曲線当てはめ又は他の技術によってローカライズされてよい。これは、いくつかの応用では、ニューラルネットワークによって供給される対象の視覚化を増強し得る。
本明細書で記載されている例は、超音波画像データの処理について説明するが、本開示原理は超音波に限定されず、磁気共鳴撮像及びコンピュータ断層撮影のような他のモダリティからの画像データに適用されてもよい、ことが理解される。
コンポーネント、システム、及び/又は方法が、コンピュータに基づくシステムまたはプログラム可能なロジックなどのプログラム可能なデバイスを用いて実装される様々な実施形態で、当然ながら、上記のシステム及び方法は、“C”、“C++”、“C#”、“Java(登録商標)”、“Python”などのような様々な既知の又は今後開発されるプログラミング言語のいずれかを用いて実装可能である。従って、磁気コンピュータディスク、光ディスク、電子メモリなどのような様々な記憶媒体が準備可能であり、それらは、コンピュータなどのデバイスに上記のシステム及び/又は方法を実装するよう指示することができる情報を含むことができる。適切なデバイスが記憶媒体に含まれている情報及びプログラムへのアクセスを有すると、記憶媒体は情報及びプログラムをデバイスへ供給することができ、このようにしてデバイスが本明細書で記載されているシステム及び/又は方法の機能を実行することを可能にする。例えば、ソースファイル、オブジェクトファイル、実行ファイルなどのような適切な素材を含むコンピュータディスクがコンピュータへ供給された場合に、コンピュータは、情報を受け取り、それ自身を適切に構成し、様々な機能を実装するよう上記の図及びフローチャートで説明された様々なシステム及び方法の機能を実行し得る。すなわち、コンピュータは、上記のシステム及び/又は方法の異なる要素に関係があるディスクからの情報の様々な部分を受け取り、個々のシステム及び/又は方法を実装し、上記の個々のシステム及び/又は方法の機能を協働させ得る。
本開示を鑑み、本明細書で記載される様々な方法及びデバイスは、ハードウェア、ソフトウェア、及びファームウェアで実装可能である。更に、様々な方法及びパラメータは、単なる例として、如何なる限定の意味でもなく含まれている。本開示を鑑み、当業者は、本発明の範囲内にありながら、それらの技術を達成するための彼ら自身の技術及び必要とされる設備を決定するに際して本教示を実装することができる。本明細書で記載されるプロセッサの1つ以上の機能性は、より少ない又は単一の処理ユニット(例えば、CPU)に組み込まれてよく、本明細書で記載される機能を実行するよう実行可能命令に応答してプログラムされている特定用途向け集積回路(ASIC)又は汎用処理回路を用いて実装されてよい。
本システムは、超音波撮像システムを特定に参照して記載されてきたかもしれないが、本システムは、1つ以上の画像を体系的方法で取得される他の医療撮像システムに拡張可能であることも企図される。従って、本システムは、腎臓、精巣、胸部、卵巣、子宮、甲状腺、肝臓、肺、筋骨格、脾臓、心臓、動脈及び血管系に関係があるがこれらに限られない画像情報、並びに超音波誘導インターベンションに関係がある他の撮像アプリケーションを取得及び/又は記録するために使用されてよい。更に、本システムは、従来の撮像システムが本システムの特徴及び利点を提供し得るように従来の撮像システムとともに使用され得る1つ以上のプログラムも含んでよい。本開示の特定の更なる利点及び特徴は、本開示を検討することで当業者に理解され得るか、あるいは、本開示の新規のシステム及び方法を用いる者によって経験され得る。本システム及び方法の他の利点は、従来の医療画像システムが本システム、デバイス、及び方法の特徴及び利点を組み込むよう容易にアップグレード可能であることであってよい。
当然、本明細書で記載される例、実施形態又はプロセスのうちのいずれか1つは、1つ以上の他の例、実施形態又はプロセスと組み合わされるか、あるいは、本システム、デバイス及び方法に従って別々のデバイス又はデバイス部分の間で実行されてよいことが理解されるべきである。
最後に、上記は、本システムを単に例示するよう意図され、如何なる特定の実施形態又は実施形態のグループにも添付の特許請求の範囲を限定するものとして解釈されるべきではない。よって、本システムは、例となる実施形態を参照して特に詳細に記載されてきたが、多数の変更及び代替の実施形態が、続く特許請求の範囲で説明されている本システムのより広い意図された精神及び範囲から逸脱せずに、当業者によって考えられ得ることも理解されるべきである。従って、明細書及び図面は、例示と見なされるべきであり、添付の特許請求の範囲の範囲を限定する意図はない。
[関連出願]
本願は、2018年11月1日付けで出願された米国特許仮出願第62/754250号、及び2019年10月2日付けで出願された米国特許仮出願第62/909392号に対する優先権を主張する。優先権の基礎となるこれらの特許出願の内容は、如何なる目的のためにも参照により本願に援用される。

Claims (20)

  1. 超音波画像を生成する信号を取得するよう構成される超音波プローブと、
    前記信号から前記画像を表す表示データの第1の組を含む第1データセットを生成し、
    前記画像内で識別されるべき対象の特性に基づくモデルを前記第1データセットに適用することによって前記第1データセットから前記表示データの第1の組の第1サブセットを選択し、
    前記対象を表す前記第1サブセットからデータポイントの第2サブセットを選択し、
    前記データポイントの第2サブセットから、前記画像内の前記対象を表す表示データの第2の組を生成するよう構成されるプロセッサと
    を有する超音波撮像システム。
  2. 前記プロセッサは、
    前記第1サブセットをキューブに細分し、
    各キューブから複数の面を取り出し、
    前記複数の面に含まれる前記第1サブセットのデータポイントからのみ前記データポイントの第2サブセットを選択する
    よう更に構成される、
    請求項1に記載の超音波撮像システム。
  3. 前記複数の面は、3つの直交面を含み、該3つの直交面の夫々は、前記キューブの中心を通る、
    請求項2に記載の超音波撮像システム。
  4. 前記プロセッサは、ニューラルネットワークを含む、
    請求項1に記載の超音波撮像システム。
  5. 前記ニューラルネットワークは、2段階訓練プロセスによって訓練される、
    請求項4に記載の超音波撮像システム。
  6. 前記モデルは、フランジ・ベッセルネス又はガボール・フィルタの少なくとも1つを含む、
    請求項1に記載の超音波撮像システム。
  7. 前記モデルは、適応閾値化アルゴリズムを更に含む、
    請求項6に記載の超音波撮像システム。
  8. 前記プロセッサは、少なくとも1つの曲線当てはめ技術を前記第2サブセットのデータポイントに適用することによって前記第2サブセットから第3サブセットを選択するよう更に構成され、前記第3サブセットは、前記対象のローカライゼーションを表す、
    請求項1に記載の超音波撮像システム。
  9. 複数の前もってセットされたモデルのうちの1つを前記モデルとして選択するユーザ入力を受けるよう構成されるユーザインターフェースを更に有する、
    請求項1に記載の超音波撮像システム。
  10. 画像内で対象を識別する方法であって、
    画像の第1データセットをモデルを用いて処理して、前記第1データセットよりも小さい第2データセットを生成することであり、前記第2データセットは前記第1データセットのサブセットであり、前記モデルは、前記画像内で識別されるべき対象の特性に少なくとも部分的に基づく、前記生成することと、
    前記第2データセットのどのデータポイントが前記対象を含むかを識別するよう前記第2データセットを解析することと、
    前記対象を含むものとして識別された前記第2データセットの前記データポイントを第3データセットとして出力することであり、前記第3データセットは表示のために出力される、前記出力することと
    を有する方法。
  11. 識別されるべき対象のタイプを含むユーザ入力を受けることを更に有する、
    請求項10に記載の方法。
  12. 前記第2データセットを解析することは、前記第2データセットをニューラルネットワークへ供給することを含む、
    請求項10に記載の方法。
  13. 前記第2データセットを3Dパッチに細分することと、
    各3Dパッチから少なくとも1つのスライスを取り出すことと、
    前記少なくとも1つのスライスに含まれるデータポイントを、解析のための前記第2データセットとして出力することと
    を更に有する、請求項10に記載の方法。
  14. 前記対象の前記特性は、サイズ、形状、又は音響信号の少なくとも1つを含む、
    請求項10に記載の方法。
  15. 少なくとも1つの曲線当てはめ技術を用いて前記第3データセット内で前記対象をローカライズし、前記対象を含む第4データセットを出力することを更に有する、
    請求項10に記載の方法。
  16. 前記対象をローカライズすることは、3次スプライン当てはめを含む、
    請求項15に記載の方法。
  17. 実行される場合に、撮像システムに、
    画像の第1データセットを、前記画像内で識別されるべき対象の特性に基づくモデルを用いて処理させ、前記モデルに基づいて、前記第1データセットのサブセットである第2データセットを出力させ、
    前記第2データセットのどのデータポイントが前記対象を含むかを決定するよう前記第2データセットを解析させ、前記対象を含むと決定された前記第2データセットの前記データポイントを含む第3データセットを出力させ、
    前記第3データセットを含む表示を生成させる
    命令を含む非一時的なコンピュータ可読媒体。
  18. 実行される場合に、前記撮像システムに、前記第2データセットに対してトライプレーナを実行させる命令を更に含み、
    前記トライプレーナによって取り出された前記データポイントのみが、解析されるべき前記第2データセットとして出力される、
    請求項17に記載の非一時的なコンピュータ可読媒体。
  19. 実行される場合に、前記撮像システムに、前記第3データセット内で前記対象をローカライズさせる命令を更に含む、
    請求項17に記載の非一時的なコンピュータ可読媒体。
  20. 前記モデルは、フランジ・ベッセルネス又はガボール・フィルタの少なくとも1つを含む、
    請求項17に記載の非一時的なコンピュータ可読媒体。
JP2021523306A 2018-11-01 2019-10-31 医用画像内でのインターベンションデバイスの識別 Active JP7464593B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862754250P 2018-11-01 2018-11-01
US62/754,250 2018-11-01
US201962909392P 2019-10-02 2019-10-02
US62/909,392 2019-10-02
PCT/EP2019/079878 WO2020089416A1 (en) 2018-11-01 2019-10-31 Identifying an interventional device in medical images

Publications (2)

Publication Number Publication Date
JP2022506134A true JP2022506134A (ja) 2022-01-17
JP7464593B2 JP7464593B2 (ja) 2024-04-09

Family

ID=68426493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523306A Active JP7464593B2 (ja) 2018-11-01 2019-10-31 医用画像内でのインターベンションデバイスの識別

Country Status (4)

Country Link
US (1) US20210401407A1 (ja)
JP (1) JP7464593B2 (ja)
CN (1) CN112955934A (ja)
WO (1) WO2020089416A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11995838B2 (en) 2019-03-18 2024-05-28 Medtronic Navigation, Inc. System and method for imaging
US11452494B2 (en) * 2019-09-18 2022-09-27 GE Precision Healthcare LLC Methods and systems for projection profile enabled computer aided detection (CAD)
US11494886B2 (en) * 2020-05-29 2022-11-08 Adobe Inc. Hierarchical multiclass exposure defects classification in images
IT202100004376A1 (it) * 2021-02-25 2022-08-25 Esaote Spa Metodo di determinazione di piani di scansione nell’acquisizione di immagini ecografiche e sistema ecografico per l’attuazione del detto metodo
WO2023101707A1 (en) * 2021-12-02 2023-06-08 Poplaw Steven System for color-coding medical instrumentation and methods of use

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US8144964B1 (en) * 2008-05-30 2012-03-27 Ellis Amalgamated LLC Image feature analysis
JP5911165B2 (ja) 2011-08-05 2016-04-27 株式会社メガチップス 画像認識装置
US10026015B2 (en) * 2014-04-01 2018-07-17 Case Western Reserve University Imaging control to facilitate tracking objects and/or perform real-time intervention
JP2018522646A (ja) 2015-06-25 2018-08-16 リヴァンナ メディカル、エルエルシー. 解剖学的特徴に対するプローブの超音波誘導
EP3482346A1 (en) * 2016-07-08 2019-05-15 Avent, Inc. System and method for automatic detection, localization, and semantic segmentation of anatomical objects
MX2017017142A (es) * 2016-12-02 2018-11-09 Avent Inc Sistema y metodo para la navegacion a un objeto anatomico objetivo en procedimientos basados en obtencion de imágenes medicas.
CN108268947A (zh) 2016-12-30 2018-07-10 富士通株式会社 用于提高神经网络的处理速度的装置和方法及其应用
WO2018127498A1 (en) * 2017-01-05 2018-07-12 Koninklijke Philips N.V. Ultrasound imaging system with a neural network for image formation and tissue characterization
US11638569B2 (en) * 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound

Also Published As

Publication number Publication date
WO2020089416A1 (en) 2020-05-07
CN112955934A (zh) 2021-06-11
US20210401407A1 (en) 2021-12-30
JP7464593B2 (ja) 2024-04-09

Similar Documents

Publication Publication Date Title
JP7464593B2 (ja) 医用画像内でのインターベンションデバイスの識別
JP6367261B2 (ja) 知識ベース超音波画像強調
US20210177373A1 (en) Ultrasound system with an artificial neural network for guided liver imaging
KR101565311B1 (ko) 3 차원 심초음파 검사 데이터로부터 평면들의 자동 검출
US20200405269A1 (en) Ultrasound system with a neural network for producing images from undersampled ultrasound data
JP2019530490A (ja) 検出精度を向上させるために関心領域の異なるビューからの複数の画像を用いるコンピュータ支援検出
EP2846310A2 (en) Method and apparatus for registering medical images
CA2587417A1 (en) Automatic multi-dimensional intravascular ultrasound image segmentation method
US10803612B2 (en) Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings
CN111345847B (zh) 基于组织密度管理波束成形参数的方法和系统
US20220071596A1 (en) Systems and methods for contrast enhanced imaging
CN112773393A (zh) 用于通过基于超声图像分析自动调整波束形成器参数来提供超声图像增强的方法和系统
CN113034375A (zh) 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统
CN110799852B (zh) 超声成像方法和系统
US20230346339A1 (en) Systems and methods for imaging and measuring epicardial adipose tissue
JP2023552330A (ja) 個人が1つ又は複数の病害を有する可能性を予測すること
Zhou et al. Artificial intelligence in quantitative ultrasound imaging: A review
US20230228873A1 (en) Systems and methods for generating color doppler images from short and undersampled ensembles
US20230377246A1 (en) Rendering of b-mode images based on tissue differentiation
US20240119705A1 (en) Systems, methods, and apparatuses for identifying inhomogeneous liver fat
US20220133278A1 (en) Methods and systems for segmentation and rendering of inverted data
WO2024013114A1 (en) Systems and methods for imaging screening
WO2021099171A1 (en) Systems and methods for imaging screening
Aase Graph Convolutional Neural Networks for Automated Echocardiography View Recognition: A Holistic Approach
Bhan et al. Cardiac MRI Segmentation Using Efficient ResNeXT-50-Based IEI Level Set and Anisotropic Sigmoid Diffusion Algorithms

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240328

R150 Certificate of patent or registration of utility model

Ref document number: 7464593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150