JP2024513661A - 腫瘍セグメンテーションの視覚化のための方法および装置 - Google Patents

腫瘍セグメンテーションの視覚化のための方法および装置 Download PDF

Info

Publication number
JP2024513661A
JP2024513661A JP2023553351A JP2023553351A JP2024513661A JP 2024513661 A JP2024513661 A JP 2024513661A JP 2023553351 A JP2023553351 A JP 2023553351A JP 2023553351 A JP2023553351 A JP 2023553351A JP 2024513661 A JP2024513661 A JP 2024513661A
Authority
JP
Japan
Prior art keywords
segmentation
tumor
loss
subject
prediction results
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023553351A
Other languages
English (en)
Inventor
ミハル・ホルツマン・ガジット
ルーヴェン・ルビィ・シャミール
Original Assignee
ノボキュア ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/683,643 external-priority patent/US20220284585A1/en
Application filed by ノボキュア ゲーエムベーハー filed Critical ノボキュア ゲーエムベーハー
Publication of JP2024513661A publication Critical patent/JP2024513661A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

腫瘍セグメンテーションのためのコンピュータ実装方法が提供され、本方法は、対象者の身体の関心領域の画像データを取得することであって、関心領域が対象者の身体の腫瘍に対応する、取得することと、画像データに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成することと、2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算することと、2つ以上の腫瘍セグメンテーション予測結果間の計算されたダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することとを含む。

Description

関連出願の相互参照
本出願は、参照により本明細書に組み込まれている、2021年3月2日に出願した米国特許仮出願第63/155,564号、2021年3月2日に出願した米国特許仮出願第63/155,626号、および2022年3月1日に出願した米国特許非仮出願第17/683,643号の優先権を主張するものである。
腫瘍治療電場(TTフィールド)は、中間周波数範囲内の低強度交流電場であり、米国特許第7,565,205号に記載されているように、これを使用して腫瘍を治療することができる。TTフィールドは、患者の身体上に直接配置されそれらの間にAC電圧を印加するトランスデューサによって、関心領域内に非侵襲的に誘導される。力線が概して前後方向に延びる電場を生成するために、第1のトランスデューサ対間に第1の時間間隔にわたってAC電圧が印加される。次いで、力線が概して左右方向に延びる電場を生成するために、第2のトランスデューサ対間に第2の時間間隔にわたってAC電圧が同じ周波数で印加される。次いで、システムは、治療全体を通してこの2ステップシーケンスを反復する。
TTフィールド治療計画は、TTフィールドの分布および定量的な治療有効性を評価する目的で医用画像(例えばMR画像)上で組織をセグメンテーションすることを含むことができる。人手によるセグメンテーションは、時間のかかるものであり、例えば、高度の技術および経験を有するアノテータが実施するのにしばしば20~50分が必要になる。さらに、大量のデータおよびデータアノテーションの結果、ノイズのあるラベルの付与、ならびに観察者内および観察者間のばらつきが生じる。
米国特許第7565205号明細書
本発明の一態様は、腫瘍セグメンテーションのためのコンピュータ実装方法を対象とし、本方法は、対象者の身体の関心領域の画像データを取得することであって、関心領域が対象者の身体の腫瘍に対応する、取得することと、画像データに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成することと、2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算することと、2つ以上の腫瘍セグメンテーション予測結果間の計算されたダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することとを含む。
腫瘍セグメンテーションの例示的なコンピュータ実装方法を示す図である。 腫瘍セグメンテーションおよび不確実性視覚化のためのコンピュータベースのアーキテクチャの一例を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 腫瘍セグメンテーションの一態様の例示的な結果を示す図である。 変調電場を有するTTフィールドを対象者の身体に印加するための装置の一例を示す図である。 例示的なコンピュータ装置を示す図である。
腫瘍セグメンテーションおよび不確実性視覚化のための方法および装置が開示される。腫瘍のある対象者の身体の画像が与えられると、本発明のコンピュータベースの技法は、画像内の腫瘍をセグメンテーションし、セグメンテーションの不確実性の程度をもたらし、腫瘍セグメンテーションの視覚化物および不確実性の程度の視覚化物を提供する。画像のセグメンテーションは、トレーニングされたセグメンテーションネットワークによって決定される。画像のセグメンテーションを改善するために、手術データおよび/または解剖学的データを含めることができる。
開示の技法は、観察者間ばらつきを克服するために利用することができ、ユーザは不確実性レベルに従ってセグメンテーションを編集することができる。いくつかの実施形態では、開示の技法は、ノイズのあるラベル(noisy label)および観察者間ばらつきに対処するために一緒に共トレーニングされるセグメンテーションネットワークを使用する。一例では、カルバックライブラー(KL)ダイバージェンスを使用して、セグメンテーション不確実性を視覚化することができる。
さまざまな人間のアノテータが同じオブジェクトを別様にセグメンテーションすることがあるので、本発明者らは、セグメンテーション結果を内々に編集するための技法が必要とされていることに気付いた。本明細書において開示する本発明のコンピュータベースのセグメンテーションを使用すると、セグメンテーション不確実性の視覚化物が提供され、それを利用して、人間のアノテータの信用を向上させることができる。
ここで開示するセグメンテーションのためのシステムおよび方法は、TTフィールド治療および他の臨床応用を計画するために使用することができる。非限定的な実施形態では、ここで開示する腫瘍(例えば多形性膠芽腫(「GBM」))のセグメンテーションのためのシステムおよび方法を、術後患者に使用することができる。一例では、腫瘍を自動的にセグメンテーションするために、手術タイプおよび非腫瘍組織区画(non-tumorous tissue delineation)を統合することができる。開示のセグメンテーション技法は、手術タイプ、解剖学的情報、および不確実性視覚化を用いて、術後GBMの正確なセグメンテーションを容易にするように拡張することができる。
開示の技法は、術後データのための他のセグメンテーション方法を凌ぐことが可能である。一例では、開示の技法は、切除腔と壊死性コアのセグメンテーション誤りを低減させることができる。画像に対する人手によるアノテーションは、専門家の不同意を受けることがあるので、開示の技法は、セグメンテーション結果と結合された不確実性マップを提供することができる。これにより、ユーザの好みに応じて決まる結果を改善するための、組織の視覚化および素早い編集が可能になり得る。
図1は、腫瘍セグメンテーションおよび不確実性視覚化のための例示的なコンピュータ実装方法100を示し、図2は、腫瘍セグメンテーションおよび不確実性視覚化のためのコンピュータベースのアーキテクチャ200の一例を示す。非限定的な例示を目的として、図1の方法100の各ステップについて、図2の例示的なアーキテクチャ200に関して論じる。
ステップ102において、他の対象者の画像からなるトレーニングデータセットを、コンピュータ可読媒体から取得することができる。画像からなるトレーニングデータセットは、任意の医用画像を含むことができる。例えば、トレーニングデータセットは、x線、コンピュータ断層撮影(CT)スキャン、磁気共鳴イメージング(MRI)、超音波、核医学イメージング、陽電子放射断層撮影(PET)、関節造影、脊髄造影、またはそれらの組合せの画像を含むことができる。トレーニングセットを開発する際、トレーニングされた人間のアノテータが、所定のラベル(例えば切除部、壊死性コア、および増強腫瘍(enhancing tumor))に従って腫瘍をセグメンテーションすることができる。結果として得られるトレーニングセットは、コンピュータ可読媒体上に記憶させることができる。
ステップ104において、オプションでトレーニングデータセットに拡張を適用することができる。拡張は、画像パッチの、強度正規化、ランダムシフト、強度値のランダムスケールアップ、ランダム反転、またはランダムスケーリングのうちの少なくとも1つを含むことができる。一例では、医用画像を(例えば1mm3ボクセルの解像度まで)リサンプリングすることができる。非限定的な実施形態では、事前プロセスとしてバイアス電場補正ならびに/または皮膚および頭蓋の除去を適用することができる。一例では、128×128×128ボクセルのパッチサイズを使用することができ、多様性を高め、かつモデルの堅牢性を向上させるために、データサンプルに次の拡張、すなわち画像パッチの、強度正規化、0.1までのランダムシフト、強度値の10%までのランダムスケールアップ、ランダム反転、および±10%のランダムスケーリングを適用することができる。
ステップ106において、トレーニングデータセットおよび統合トレーニング損失を用いて、2つ以上のセグメンテーションネットワーク201a、201bをトレーニングすることができる。セグメンテーションネットワーク201a、201bはそれぞれ、例えば、共有のエンコーダパラメータから画像データを再構築する変分オートエンコーダを含むことができる。非限定的な実施形態では、開示の方法は、共通のトレーニングセットおよび複数のトレーニング損失を使用してトレーニングされた、2つ以上のセグメンテーションネットワーク201a、201bを取得することを含むことができる。
いくつかの実施形態では、セグメンテーションネットワーク201a、201bは、予測結果202a、202bを出力し、セグメンテーションネットワーク201a、201bはまた、予測結果202a、202bおよび統合損失を使用して並列にトレーニングすることができる。統合損失は、セグメンテーション損失203a、203b、再構築損失、またはダイバージェンス損失204のうちの少なくとも1つを含むことができる。非限定的な実施形態では、統合損失は、セグメンテーション損失203a、203bとダイバージェンス損失204とのバランスをとるためのパラメータを含むことができる。一例では、セグメンテーション損失203a、203bは、ダイス係数、交差エントロピー損失、またはそれらの組合せを含むことができる。一例では、ダイバージェンス損失204は、カルバックライブラー(KL)ダイバージェンス損失を含むことができる。いくつかの実施形態では、セグメンテーションネットワーク201a、201bは、拡張されたトレーニングデータセットを使用してトレーニングすることができる。一例では、セグメンテーションネットワーク201a、201bは、PyTorchおよびMONAI、ならびにAdamオプティマイザ、およびエポック(例えば200エポック)を使用してトレーニングすることができる。学習率は、最初に1e-4に設定し、メトリックが10エポックにわたる横ばい状態になるときはいつでも低減させることができる。2つ以上のセグメンテーションネットワーク201a、201bは、同時にトレーニングすることができる。これらのセグメンテーションネットワーク201a、201bは、それらのパラメータは異なるが同一アーキテクチャを有することができる。各セグメンテーションネットワーク201a、201bは、グラウンドトゥルースラベルに対するそれ自体のセグメンテーション損失を有することができる。システム全体が合同でトレーニングおよび更新されるように、セグメンテーションネットワーク201a、201bの予測結果202a、202b間のダイバージェンス損失204を計算することができる。
一例として、所与のサンプルxiについての統合トレーニング損失(または合計トレーニング損失)は、次のように計算することができる。
上式で、λは、個々のセグメンテーション損失(203a、203b)、すなわちLsegと、ダイバージェンス損失(204)、すなわちLdivとの間のバランスをとるパラメータである。一例では、λは0.1に設定することができる。非限定的な実施形態では、オートエンコーダの再構築損失、すなわちLrecを、各セグメンテーションネットワーク201a、201bについて、LTotalの計算に追加することができる。Lrecは、入力画像と再構築画像との間のL2損失である。重みβは0.1に設定することができる。
一例では、セグメンテーション損失203a、203bは、次のように、ダイス係数と交差エントロピーとの組合せとすることができる。
上式で、Kは、セグメンテーションネットワーク201の数である(例えば2に設定される)。pkは、各ネットワークの予測結果出力である。αは、ダイスと交差エントロピー損失との間のバランスをとるために使用される(例えば0.3に設定される)。非限定的な実施形態では、2つの異なるセグメンテーションネットワーク201a、201bは、正しいラベルにおける予測結果について合意することができ、間違ったラベルについて合意することができない。したがって、共正則化項が、セグメンテーションネットワーク201a、201bを、クリーンなラベルについてより安定したモデルに導くことができる。
一例では、ダイバージェンス損失204は、セグメンテーションネットワーク201a、201bのセグメンテーション予測結果202a、202b間の一致を測定し、両セグメンテーションネットワーク201a、201bを共正則化する。対称カルバックライブラー(KL)ダイバージェンス損失204は、次のように計算することができる。
ノイズのあるラベルを適切に取り扱うために、小損失基準技法(small-loss criterion technique)を実施することができる。この基準は、小損失サンプルは正しくラベルを付与されている可能性がより高い、という考えに基づくものである。したがって、各ミニバッチにおいて、ボクセルを式(1)中に与えられるそれらの合同損失に従ってソートし、最小値を有するボクセルの一部Pにわたって平均することができる。このようにして、ノイズのあるラベルを付与されたボクセルが、合計損失およびバックプロパゲーション更新に及ぼす影響が小さくなる。Pは、データセット内の正しくラベルを付与されたサンプルの推定のパーセンテージとすることができる。小損失基準は、ボクセルごとに計算されるダイバージェンス損失および交差エントロピー損失に利用することができる。
ステップ108において、腫瘍を有する対象者の身体の関心領域の画像データ205を取得することができる。一例では、関心領域の画像データは、x線、コンピュータ断層撮影(CT)スキャン、磁気共鳴イメージング(MRI)、超音波、核医学イメージング、陽電子放射断層撮影(PET)、関節造影、脊髄造影、またはそれらの組合せのデータを含むことができる。観察者間ばらつき/差異が、画像データから観察されることがある。一例では、トレーニングおよび画像品質の差異が、観察者間ばらつきを増大させることがある。モデルの予測結果とグラウンドトゥルースアノテーションとの間のダイススコアは、観察者間スコアによって限られることがあるので、開示の技法では、ノイズのあるラベルの存在を考慮し、クリーンなアノテーション付きデータセットを必要としないセグメンテーション方法を提供する。データセット内のノイズのあるラベルおよびデータセットの観察者間ばらつきを克服するために、またセグメンテーション結果の対話形式での視覚的再検討を容易にするために、合意最大化(agreement maximization)によって不確実性を計算することができる。
ステップ110において、画像データ205および2つ以上のセグメンテーションネットワーク201a、201bに基づいて、2つ以上の腫瘍セグメンテーション予測結果202a、202bを生成することができる。
ステップ112において、2つ以上のセグメンテーションネットワーク201a、201bによって生成された2つ以上の腫瘍セグメンテーション予測結果202a、202b間のダイバージェンス損失204を計算することができる。
ステップ114において、2つ以上の腫瘍セグメンテーション予測結果202a、202b間の計算されたダイバージェンス損失204に基づいて、腫瘍セグメンテーション不確実性の視覚的物を生成することができる。一例では、視覚化物は、セグメンテーション予測結果206および/または不確実性マップ207を伴う対象者の画像を含むことができる。不確実性マップ207は、2つ以上の腫瘍セグメンテーション予測結果202a、202b間の計算されたダイバージェンス損失204に基づくことができる。2つの確率分布間の相対エントロピーであるKLダイバージェンスを、セグメンテーション予測結果202a、202b間の不確実性として計算することができる。不確実性を視覚化するために、ベースラインネットワークの予測結果202a、202b間のKLダイバージェンスを、式(3)を使用して計算することができる。不確実性値は、最大不確実性が1に設定され、最小不確実性が0に設定されるように、データセットにわたって正規化することができる。次いで、不確実性マップ207を、セグメンテーションの上のヒートマップとして生成することができる。
非限定的な実施形態では、不確実性マップ207を使用して、セグメンテーションマップ206から、高不確実性に関連するボクセルを、ユーザ定義のしきい値を用いて除去することができる。非限定的な実施形態では、対象者の身体の関心領域の視覚化物が、対象者の身体の生成された術後腫瘍セグメンテーションに関する不確実性推定を含む。
ステップ116において、対象者の身体の解剖学的情報および手術情報を取得することができる。非限定的な実施形態では、腫瘍セグメンテーション予測結果202a、202bを、画像データ205、解剖学的情報、および/または手術情報に基づいて生成することができる。一例では、対象者の身体の、関心領域の画像データ205、解剖学的情報、および手術情報を取得することができ、その際、関心領域は対象者の身体の腫瘍の術後領域に対応してよい。対象者の身体の術後腫瘍セグメンテーションおよび/または視覚化物を、画像データ、解剖学的情報、および手術情報に基づいて生成することができる。
ステップ118において、対象者の身体の解剖学的情報および手術情報に基づいて、視覚化物から解剖学的構造を追加または除去することができる。解剖学的構造を追加または除去することによって、開示の技法は、セグメンテーション性能を改善することができる。例えば、術後GBMについてのセグメンテーション性能に影響を及ぼすいくつかの問題に対処することができる(例えば壊死性コアと切除部の取違えおよび/またはCSFと切除部の取違え)。
壊死性コアと切除部の取違えによって生じる誤りは、画像のいくつかにおいて壊死性コアと切除部の見た目が同様であることに関係することがある。開示の技法では、事後プロセスとして予測結果に手術タイプを組み込むことによって、この誤りを低減させることができる。患者が生検を受けた場合、画像内に切除部はない。患者が全切除(grand-total resection)(GTR)を受けた場合、壊死性コアは全体的に取り除かれている。セグメンテーション結果の事後処理では、手術タイプが生検である場合、切除部のラベルを付与されたボクセルを壊死性コアに変更することができる。GTR手術の場合、壊死性コアのボクセルを切除部に変更することができる。
CSFと切除部の取違えによって生じる誤りは、切除腔がCSFに隣接するときに観察することができる。この問題を解決するために、開示の技法は、腫瘍組織に加えてCSFをセグメンテーションすることを含む。開示のデータセットは、セグメンテーションネットワーク201a、201bをトレーニングするために利用することのできる、検証済みのCSFラベルを含むことができる。開示の技法によるCSFの共セグメンテーションにより、切除腔のボクセルに誤ったラベルを付与することが低減し得る。
ステップ120において、セグメンテーション予測結果から、しきい値よりも大きな不確実性を有するボクセルを除去することができる。しきい値は、ユーザ定義のしきい値とすることができる。
ステップ122において、TTフィールドを印加するためのトランスデューサを配置すべき、対象者の身体上の位置を、腫瘍セグメンテーション不確実性の視覚化物または2つ以上の腫瘍セグメンテーション予測結果202a、202bのうちの少なくとも1つに基づいて決定することができる。一例では、腫瘍セグメンテーション不確実性の視覚化物および/または2つ以上の腫瘍セグメンテーション予測結果202a、202bに基づいて、不確実性マップ207を生成することができる。不確実性マップ207は、注意深い検査を必要とする領域を強調表示することができる。例えば、平均KLダイバージェンスをヒートマップとして標的組織の医用画像の上に重ね合わせることができる。不確実性マップ207は、最も不確実なエリアを示すことができる。
いくつかの実施形態では、TTフィールドは、所定のパラメータを含むことができる。一例として、TTフィールドは、約1V/cmから約20V/cmまでの強度範囲内の強度を含むことができる。一例として、TTフィールドは、約50kHzから約1MHzまでの周波数範囲内の周波数を含むことができる。TTフィールドについての他の可能な例示的なパラメータは、さまざまなパラメータの中でもとりわけ、アクティブ時間、ディミング時間、およびデューティサイクル(それらはいずれも、例えばms単位で測定することができる)を含むことができる。
いくつかの実施形態では、腫瘍セグメンテーションおよび不確実性視覚化のための装置を提供することができる。一例では、装置は、1つまたは複数のプロセッサと、プロセッサ実行可能命令を記憶したメモリとを含むことができ、プロセッサ実行可能命令が、1つまたは複数のプロセッサによって実行されると、装置に、腫瘍セグメンテーションおよび/または不確実性視覚化のための開示の方法を実行させる。
いくつかの実施形態では、所定のパラメータを有する交流電場を対象者の身体に印加するためのトランスデューサを提供することができる。交流電場は、腫瘍セグメンテーション不確実性の視覚化物またはセグメンテーション予測結果のうちの少なくとも1つに基づいて印加することができる。
いくつかの実施形態では、開示のシステムは、腫瘍セグメンテーションおよび不確実性視覚化のためのコンピュータベースのアーキテクチャを含むことができる。一例として、図2は、腫瘍セグメンテーションおよび不確実性視覚化のためのコンピュータベースのアーキテクチャの一例を示す。コンピュータベースのアーキテクチャは、同時にトレーニングされる2つ以上のベースラインモデルを正則化するためのセグメンテーション合意損失を組み込むことができる。この合意損失を利用して、セグメンテーション不確実性を視覚化することができる。非限定的な実施形態では、コンピュータベースのアーキテクチャは、Unetの派生物を含むことができる。例えば、コンピュータベースのアーキテクチャは、正則化のための共有のエンコーダパラメータからMRI画像を再構築する変分オートエンコーダを組み込むことができる。非限定的な実施形態では、コンピュータベースのアーキテクチャは、セグメンテーション(例えば術後GBMセグメンテーション)に合わせて設計することができ、複数のモダリティを組み込むことができる。セグメンテーションの正確さを改善するために、コンピュータベースのアーキテクチャは、解剖学的情報および/または手術情報を組み込むことができる。例えば、このデータは、さまざまなタイプの手術(例えば腫瘍の全切除、部分切除、および腫瘍の生検)の医用画像(例えばMRIスキャン)を含むことができる。
いくつかの実施形態では、セグメンテーション損失およびダイバージェンス損失からなる統合損失を使用して、2つ以上のセグメンテーションネットワークを合同でトレーニングすることができる。異なる腫瘍組織では、健康な組織との混同を克服するために、他の解剖学的構造を追加することができる。
いくつかの実施形態では、画像データをリサンプリングすることができる。例えば、医用画像を1mm3ボクセルの解像度までリサンプリングすることができる。事前プロセスとしてバイアス電場補正および皮膚/頭蓋の除去を適用することができる。
いくつかの実施形態では、多様性を高め、かつモデルの堅牢性を向上させるために、データサンプルにさまざまな拡張を適用することができる。例えば、トレーニングの際、ボクセル(例えば128×128×128)のパッチを使用することができ、多様性を高め、かつモデルの堅牢性を向上させるために、データサンプルに次の拡張、すなわち画像パッチの、強度正規化、(例えば0.1までの)ランダムシフト、(例えば強度値の10%までの)ランダムスケールアップ、ランダム反転、および/または±10%のランダムスケーリングを適用することができる。腫瘍を含むパッチと腫瘍のないパッチとの間のバランスを確保することができる。
いくつかの実施形態では、ダイス係数および偽発見率(FDR)の改善をもたらすことができる。例えば、ネットワーク(例えばResnet-VAEネットワーク)を、ダイスと交差エントロピー損失との組合せ、ならびにいくつかのラベル(例えば切除部、壊死性コア、および増強腫瘍)を用いて、トレーニングデータセットに対してトレーニングすることができる。非限定的な実施形態では、セグメンテーション誤りを低減させるために、Resnet-VAEの事後プロセスとして手術情報を追加することができる。
実験結果
本明細書において開示するいくつかの実施形態を使用して、術後GBM患者の、ラベルを付与した340個のT1強調MRI脳スキャンのセットを、270個のトレーニング画像と70個のテスト画像に分割した。これらの画像をいずれも、1mm3ボクセルの解像度までリサンプリングした。事前プロセスとしてバイアス電場補正ならびに皮膚および頭蓋の除去を適用した。トレーニングの際、128×128×128ボクセルのパッチサイズを使用し、多様性を高め、かつモデルの堅牢性を向上させるために、データサンプルに対して次の拡張、すなわち画像パッチの、強度正規化、0.1までのランダムシフト、強度値の10%までのランダムスケールアップ、ランダム反転、および±10%のランダムスケーリングを適用した。腫瘍を含むパッチと腫瘍のないパッチとの間のバランスを確保した。2つのセグメンテーションネットワークを、PyTorchおよびMONAI、ならびにAdamオプティマイザ、および200エポックを使用してトレーニングした。学習率は、最初に1e-4に設定し、メトリックが10エポックにわたる横ばい状態になるときはいつでも低減させた。
次に、Resnet-VAEネットワークを、術後GBM腫瘍トレーニングデータセット、ならびにダイスと交差エントロピー損失との組合せ、ならびに3つのラベル(1)切除部、(2)壊死性コア、および(3)増強腫瘍を使用してトレーニングした。次いで、Resnet-VAEを、テストデータセットに関して評価した。次に、セグメンテーション誤りを低減させるために、Resnet-VAEの事後プロセスとして手術情報を組み込み、テストデータセットに関して評価した。
表1は、定量的ダイスデータを提示しており、表2は、偽発見率(FDR)データを提示している。表1では、「res」列が、切除部ラベルについての定量的ダイスデータであり、「nec」列が、壊死性コアラベルについての定量的ダイスデータであり、「enh」列が、増強腫瘍ラベルについての定量的ダイスデータであり、「wt」列が、腫瘍全体ラベル(whole tumor label)についての定量的ダイスデータである。表2では、「csfにresのラベルを付与(csf as res)」列が、CSFがセグメンテーションされて切除部のラベルを付与された場合のFDRデータであり、「ncにresのラベルを付与(nc as res)」列が、壊死性コアがセグメンテーションされて切除部のラベルを付与された場合のFDRデータであり、「resにncのラベルを付与(res as nc)」列が、切除部がセグメンテーションされて壊死性コアのラベルを付与された場合のFDRデータである。
さらに、表1および表2では、「BL」行が、単一(すなわちベースライン)セグメンテーションネットワークについてのデータである。「SD」行が、手術データを用いた事後処理についてのデータである。「AD」行が、CSFラベルを用いたトレーニングからのデータである。「UR」行が、解剖学的データと手術データの両方および不確実性正則化を用いた、2つのセグメンテーションネットワークの合同トレーニングからのデータである。「UR*」行は、「UR」行と同じであるが、ユーザの好みに従って不確実なボクセルを除去したものである。
表1に示すように、特に壊死性コアと切除部との混同の場合に、ダイスが改善する(大きな値のほうが良好である)。さらに、表2に示すように、壊死性コアと切除部の組織におけるFDRが低減する(小さな値のほうが良好である)。
場合によっては、切除部の自動セグメンテーションが脳室内に「延びた」。この問題を取り扱うために、セグメンテーションネットワークを、追加のラベル(すなわちCSF)を使用してトレーニングした。テストデータセットに関する結果が、表1および表2の第3の「AD+SD」行内に示されている。この方式を先の手術データとともに適用するとき、ダイスとFDRはどちらも劇的に改善した。これらの結果は、トレーニングおよびトレーニング後プロセスに手術データおよび解剖学的データを追加することの重要性を実証している。
最後に、セグメンテーションネットワークを、式(1)を使用して不確実性正則化を用いてトレーニングした。次いで、不確実性マップによりセグメンテーションの改訂が容易になることを実証するために、ユーザ定義のしきい値をシミュレーションした。不確実なボクセルを除去しない最終セグメンテーションの結果、およびユーザ定義のしきい値をシミュレーションした最終セグメンテーションの結果がそれぞれ、表1および表2の第4「UR」行および第5「UR*」行内に示されている。本発明の技法を使用すると、誤ったラベルを付与されたボクセルの比率が、他のあらゆる方法に比べて最も低く、増強腫瘍および壊死性コアについてダイスも改善する。不確実性マップは、注意深い検査を必要とする領域を強調表示する(例えば図3K)。さらに、ユーザ定義のしきい値のシミュレーションにより、不確実性マップを利用して、セグメンテーションを改訂し、誤ったラベルを付与されたボクセルを低減できることが示されている。
注意として、データセット内の画像が特定の人間のアノテータによってセグメンテーションされたとき、別の人間のアノテータが誤ったラベルを付与されたこれらのボクセルを正しいと考慮することがある。したがって、ユーザ定義のしきい値を、本明細書において開示するように用いて、満足のゆく結果を生成することができる。したがって、人間のアノテータは、コンピュータ生成のセグメンテーションを、コンピュータ生成の不確実性マップに基づいて容易に編集することができる。人間のアノテータに、コンピュータ生成のセグメンテーション結果に対する何らかの制御を提供することによって、コンピュータ生成のセグメンテーション結果に対する信用の向上が促進されることが可能であり、また観察者間ばらつき空間内での個人的好みの表現が容易になることが可能である。
図3A~図3P(まとめて図3と呼ぶ)は、さまざまな実施形態による腫瘍セグメンテーションのさまざまな態様についての例示的な実験結果を示す。図3の画像は、色分けされたセグメンテーション結果を示し、すなわち、赤色が「切除部」を識別し、緑色が「壊死性」を識別し、青色が「増強」を識別し、黄色が「脳脊髄液(CSF)」を識別する。
図3の第1の行(図3A~図3D)は、ベースラインモデルを手術データ(SD)事後プロセスと比較する画像である。第1の行は、ベースラインセグメンテーションと、手術データを用いた事後プロセスとの比較を示す。図3Aは、オリジナル(org)画像である。図3Bは、いくつかの実施形態を使用して取得したが、(緑色の)壊死性コアセグメントが(赤色の)切除部のラベルを誤って付与されたという誤りを含む、ベースライン(baseline)画像である。図3Cでは、いくつかの実施形態を使用して、手術データ(「SD」)を組み込んだ後でこのラベルが壊死性コアに補正されている。図3Dは、人手(manual)によるセグメンテーションの場合の画像である。いくつかの実施形態を使用して取得した図3Cの画像を、人手によるセグメンテーションを使用して取得した図3Dの画像と比較すると、2つの画像はほぼ同一である。
図3の第2の行(図3E~図3H)は、セグメンテーションへの解剖学的構造(すなわちCSF)の追加を実証する画像である。第2の行は、セグメンテーションネットワークのトレーニングに(黄色の)CSFラベルを追加した結果を実証している。図3Eは、オリジナル画像である。図3Fは、いくつかの実施形態を使用して、セグメンテーションし手術タイプ情報を追加することによって、取得した画像である。しかし、手術タイプ情報を追加するだけでは不十分であり、というのも、CSFの一部が切除部ラベル(赤色)を誤って付与されるためである。図3Gに示すように、腫瘍に加えてCSFに対してセグメンテーションが実施されるときにこれが補正される。図3Hは、人手によるセグメンテーションの場合の画像である。いくつかの実施形態を使用して取得した図3Gの画像を、人手によるセグメンテーションを使用して取得した図3Hの画像と比較すると、2つの画像はほぼ同一である。
図3の第3の行(図3I~図3L)は、KLダイバージェンスを不確実性として用いた不確実性正則化の結果を示す画像である。図3の第3の行は、アルゴリズム全体の例示的な結果を実証している。図3Iは、オリジナル画像である。図3Jは、共トレーニングしたネットワークのセグメンテーション結果を示す。図3Kは、ヒートマップとして画像の上に重ね合わせた平均KLダイバージェンスを示す。黄色の領域は、最も不確実なエリアを示し、それらは切除部領域とCSFとの間の境界上にある。図3Lは、人手によるセグメンテーションの場合の画像であり、人間のアノテータもまたこのエリアに関して不確かであったことを示す。
図3の最後の行(図3M~図3P)は、切除部ラベルに関する異なる不確実性しきい値を示す画像である。一番下の行は、いくつかの実施形態に従って、異なるレベルの不確実性しきい値を用いて取得した、切除部組織セグメンテーションを示す。図3Mは、最も多くの不確実なボクセルを有し、図3Oは、最も少ない不確実なボクセルを有し、図3Nは、図3Mの不確実なボクセルから図3Oの不確実なボクセルの間のいくつかの不確実なボクセルを有する。図3Pは、人手によるセグメンテーションの場合の画像である。不確実なセグメンテーションが図3Mから図3Nへ、そして図3Oへと低減するにつれて、結果が図3Pの人手によるアノテーションと良好に一致するようになる。
いくつかの実施形態では、コンピュータ生成のセグメンテーションマップを、コンピュータ生成の不確実性マップと合同で提供することができ、コンピュータ生成の不確実性マップは、個人的好みをユーザが素早く対話形式で選択できるように、さらに役立てることができる。開示の表1および表2の定量的結果ならびに図3の定量的結果は、本発明の技法が観察者間ばらつきを克服できること、およびユーザが不確実性レベルに従ってセグメンテーションを編集できることを実証している。
例示的な装置
図4は、変調電場を有するTTフィールドを対象者の身体に印加するための装置の一例を示す。第1のトランスデューサ401が、基板404上に配置された13個の電極要素403を含み、電極要素403は導電性配線409を通じて互いに電気的および機械的に接続されている。第2のトランスデューサ402が、基板406上に配置された20個の電極要素405を含み、電極要素405は導電性配線410を通じて互いに電気的および機械的に接続されている。第1のトランスデューサ401および第2のトランスデューサ402は、AC電圧発生器407およびコントローラ408に接続されている。コントローラ408は、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによってアクセス可能なメモリとを含むことができる。メモリは命令を記憶することができ、命令は、1つまたは複数のプロセッサによって実行されると、本発明の1つまたは複数の実施形態を実施するようにAC電圧発生器407を制御する。いくつかの実装形態では、AC電圧発生器407およびコントローラ408を、第1のトランスデューサ401および第2のトランスデューサ402内に統合し、第1の電場発生器および第2の電場発生器を形成することができる。
図5は、本明細書における実施形態で使用するための例示的なコンピュータ装置を示す。一例として、装置500は、本明細書において開示する本発明のいくつかの技法を実装するためのコンピュータとすることができる。一例として、装置500は、本明細書の実施形態のための、変調電場を有するTTフィールドを印加するためのコントローラ装置とすることができる。コントローラ装置500は、図4のコントローラ408として使用することができる。装置500は、1つまたは複数のプロセッサ502、1つまたは複数の出力デバイス505、およびメモリ503を含むことができる。
一例では、入力501に基づいて、1つまたは複数のプロセッサが、本発明の一実施形態を実施するように電圧発生器を制御するための制御信号を生成する。一例では、入力501はユーザ入力である。別の例では、入力501は、コントローラ装置500と通信する別のコンピュータからのものとすることができる。出力デバイス505は、トランスデューサの選択、生成されている電圧、および他の動作情報など、本発明の動作の状態を提供することができる。出力デバイス505は、本発明のいくつかの実施形態による視覚化データを提供することができる。
メモリ503には1つまたは複数のプロセッサ502によってリンク504を介してアクセス可能であり、したがって、1つまたは複数のプロセッサ502がメモリ503から情報を読み出し、メモリ503に情報を書き込むことができる。メモリ503は命令を記憶することができ、命令は、1つまたは複数のプロセッサ502によって実行されると、本発明の1つまたは複数の実施形態を実施する。
例示的な実施形態
本発明は、以下のものなど、他の例示的な実施形態を含む。
例示的な実施形態1.腫瘍セグメンテーションのためのコンピュータ実装方法であって、対象者の身体の関心領域の画像データを取得することであって、関心領域が対象者の身体の腫瘍に対応する、取得することと、画像データに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成することと、2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算することと、2つ以上の腫瘍セグメンテーション予測結果間の計算されたダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することとを含む、方法。
例示的な実施形態2.画像データを所定の解像度までリサンプリングすることをさらに含む、例示的な実施形態1の方法。
例示的な実施形態3.画像データが磁気共鳴画像(MRI)データを含む、例示的な実施形態1の方法。
例示的な実施形態4.対象者の身体の解剖学的情報および手術情報に基づいて、視覚化物から解剖学的構造を追加または除去することをさらに含む、例示的な実施形態1の方法。
例示的な実施形態5.ダイバージェンスが対称カルバックライブラー(KL)ダイバージェンス損失を通じて計算される、例示的な実施形態1の方法。
例示的な実施形態6.2つ以上の腫瘍セグメンテーション予測結果が、セグメンテーションネットワークによって生成され、セグメンテーションネットワークがそれぞれ、共有のエンコーダパラメータから画像データを再構築する変分オートエンコーダを備える、例示的な実施形態1の方法。
例示的な実施形態7.セグメンテーション予測結果から、しきい値よりも大きな不確実性を有するボクセルを除去することをさらに含む、例示的な実施形態1の方法。
例示的な実施形態8.1つまたは複数のプロセッサと、プロセッサ実行可能命令を記憶したメモリとを備える装置であって、プロセッサ実行可能命令は、1つまたは複数のプロセッサによって実行されると、装置に、他の対象者の画像からなるトレーニングデータセットを取得することと、トレーニングセットおよび統合損失を使用して、2つ以上のセグメンテーションネットワークを、2つ以上のセグメンテーションネットワークのトレーニング出力間の比較に基づいてトレーニングすることと、対象者の身体の関心領域の画像データを取得することであって、関心領域が対象者の身体の腫瘍に対応する、取得することと、画像データおよび2つ以上のトレーニングされたセグメンテーションネットワークに基づいて、2つ以上のセグメンテーション予測結果を生成することと、2つ以上のセグメンテーション予測結果間のダイバージェンスを計算することと、セグメンテーション予測結果に基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することであって、セグメンテーション不確実性の視覚化物が、2つ以上のセグメンテーション予測結果間の計算されたダイバージェンスに基づいて生成される、生成することとを行わせる、装置。
例示的な実施形態9.メモリがプロセッサ実行可能命令を記憶し、プロセッサ実行可能命令は、1つまたは複数のプロセッサによって実行されると、装置に、腫瘍治療電場を印加するためのトランスデューサを配置すべき、対象者の身体上の位置を、腫瘍セグメンテーション不確実性の視覚化物またはセグメンテーション予測結果のうちの少なくとも1つに基づいて決定することをさらに行わせる、例示的な実施形態8の装置。
例示的な実施形態10.装置が、所定のパラメータを有する交流電場を対象者の身体に印加するためのトランスデューサをさらに備え、交流電場が、腫瘍セグメンテーション不確実性の視覚化物またはセグメンテーション予測結果のうちの少なくとも1つに基づいて印加される、例示的な実施形態8の装置。
例示的な実施形態11.対象者の身体の腫瘍セグメンテーションを生成するためのコンピュータ実装方法であって、対象者の身体の、関心領域の画像データ、解剖学的情報、および手術情報を取得することであって、関心領域が対象者の腫瘍の術後領域に対応する、取得することと、対象者の身体の術後腫瘍セグメンテーションを、画像データ、解剖学的情報、および手術情報に基づいて生成することと、対象者の身体の関心領域の視覚化物を、対象者の身体の生成された術後腫瘍セグメンテーションに基づいて生成することとを含む、方法。
例示的な実施形態12.対象者の身体の関心領域の視覚化物が、対象者の身体の生成された術後腫瘍セグメンテーションに関する不確実性推定を含む、例示的な実施形態11の方法。
例示的な実施形態13.腫瘍セグメンテーションのためのコンピュータ実装方法であって、共通のトレーニングセットおよび複数のトレーニング損失を使用してトレーニングされた、2つ以上のセグメンテーションネットワークを取得することであって、トレーニングセットが他の対象者の画像を含む、取得することと、対象者の身体の関心領域の画像データを取得することであって、関心領域が対象者の身体の腫瘍に対応する、取得することと、画像データおよび2つ以上のセグメンテーションネットワークに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成することと、2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算することと、2つ以上の腫瘍セグメンテーション予測結果間の計算されたダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することとを含む、方法。
例示的な実施形態14.トレーニングデータセットに拡張を適用して、拡張されたトレーニングセットを取得することであって、拡張が、画像パッチの、強度正規化、ランダムシフト、強度値のランダムスケールアップ、ランダム反転、またはランダムスケーリングのうちの少なくとも1つを含む、適用することと、セグメンテーションネットワークを拡張されたトレーニングデータセットを使用してトレーニングすることとをさらに含む、例示的な実施形態13の方法。
本開示の任意の見出し下または任意の部分内に示した実施形態は、本明細書において別段の指示のない限り、または文脈と別段明らかに矛盾しない限り、本開示の同じもしくは他の任意の見出しまたは他の部分下に示した実施形態と組み合わせることができる。
特許請求の範囲に規定された本発明の範囲から逸脱することなく、説明した実施形態に対する多数の修正、改変、および変更が可能である。本発明が、説明した実施形態に限定されるのではなく、添付の特許請求の範囲の文言およびその等価物によって規定された全範囲を有することが、意図されている。
100 コンピュータ実装方法
200 コンピュータベースのアーキテクチャ
201a セグメンテーションネットワーク
201b セグメンテーションネットワーク
202a 腫瘍セグメンテーション予測結果
202b 腫瘍セグメンテーション予測結果
203a セグメンテーション損失
203b セグメンテーション損失
204 対称カルバックライブラー(KL)ダイバージェンス損失
205 画像データ
206 セグメンテーション予測結果、セグメンテーションマップ
207 不確実性マップ
401 第1のトランスデューサ
402 第2のトランスデューサ
403 電極要素
404 基板
405 電極要素
406 基板
407 AC電圧発生器
408 コントローラ
409 導電性配線
410 導電性配線
500 コントローラ装置
501 入力
502 プロセッサ
503 メモリ
504 リンク
505 出力デバイス

Claims (15)

  1. 腫瘍セグメンテーションのためのコンピュータ実装方法であって、
    対象者の身体の関心領域の画像データを取得するステップであって、前記関心領域が前記対象者の身体の腫瘍に対応する、ステップと、
    前記画像データに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成するステップと、
    前記2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算するステップと、
    前記2つ以上の腫瘍セグメンテーション予測結果間の計算された前記ダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成するステップと
    を含む、方法。
  2. 前記対象者の身体の解剖学的情報および手術情報を取得するステップであって、前記2つ以上の腫瘍セグメンテーション予測結果が、前記画像データ、前記解剖学的情報、および前記手術情報に基づいて生成される、ステップ
    をさらに含む、請求項1に記載の方法。
  3. 前記視覚化物が、セグメンテーション予測結果および不確実性マップを伴う前記対象者の画像を含み、前記不確実性マップが、前記2つ以上の腫瘍セグメンテーション予測結果間の計算された前記ダイバージェンスに基づく、請求項1に記載の方法。
  4. 腫瘍セグメンテーションのためのコンピュータ実装方法であって、
    共通のトレーニングセットおよび複数のトレーニング損失を使用してトレーニングされた、2つ以上のセグメンテーションネットワークを取得するステップであって、前記トレーニングセットが他の対象者の画像を含む、ステップと、
    対象者の身体の関心領域の画像データを取得するステップであって、前記関心領域が前記対象者の身体の腫瘍に対応する、ステップと、
    前記画像データおよび前記2つ以上のセグメンテーションネットワークに基づいて、2つ以上の腫瘍セグメンテーション予測結果を生成するステップと、
    前記2つ以上の腫瘍セグメンテーション予測結果間のダイバージェンスを計算するステップと、
    前記2つ以上の腫瘍セグメンテーション予測結果間の計算された前記ダイバージェンスに基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成するステップと
    を含む、方法。
  5. 前記セグメンテーションネットワークが、統合損失を使用して並列にトレーニングされ、前記統合損失が、セグメンテーション損失またはダイバージェンス損失のうちの少なくとも1つを含む、請求項4に記載の方法。
  6. 前記対象者の身体の解剖学的情報および手術情報を取得するステップであって、前記2つ以上の腫瘍セグメンテーション予測結果が、前記画像データ、前記2つ以上のセグメンテーションネットワーク、前記解剖学的情報、および前記手術情報に基づいて生成される、ステップ
    をさらに含む、請求項4に記載の方法。
  7. 前記対象者の身体の前記解剖学的情報および前記手術情報に基づいて、前記視覚化物に解剖学的構造を追加するか、または前記視覚化物から解剖学的構造を除去するステップ
    をさらに含む、請求項6に記載の方法。
  8. 腫瘍治療電場を印加するためのトランスデューサを配置すべき、前記対象者の身体上の位置を、前記腫瘍セグメンテーション不確実性の視覚化物または前記2つ以上の腫瘍セグメンテーション予測結果のうちの少なくとも1つに基づいて決定するステップ
    をさらに含む、請求項4に記載の方法。
  9. 1つまたは複数のプロセッサと、プロセッサ実行可能命令を記憶したメモリとを備える装置であって、前記プロセッサ実行可能命令は、前記1つまたは複数のプロセッサによって実行されると、前記装置に、
    他の対象者の画像からなるトレーニングデータセットを取得することと、
    前記トレーニングデータセットおよび統合損失を使用して、2つ以上のセグメンテーションネットワークを、前記2つ以上のセグメンテーションネットワークのトレーニング出力間の比較に基づいてトレーニングすることと、
    対象者の身体の関心領域の画像データを取得することであって、前記関心領域が前記対象者の身体の腫瘍に対応する、取得することと、
    前記画像データおよびトレーニングされた前記2つ以上のセグメンテーションネットワークに基づいて、2つ以上のセグメンテーション予測結果を生成することと、
    前記2つ以上のセグメンテーション予測結果間のダイバージェンスを計算することと、
    前記セグメンテーション予測結果に基づいて、腫瘍セグメンテーション不確実性の視覚化物を生成することであって、前記腫瘍セグメンテーション不確実性の視覚化物が、前記2つ以上のセグメンテーション予測結果間の計算された前記ダイバージェンスに基づいて生成される、生成することと
    を行わせる、装置。
  10. 前記統合損失が、セグメンテーション損失、ダイバージェンス損失、および再構築損失を含む、請求項9に記載の装置。
  11. 前記セグメンテーション損失が、ダイス係数および交差エントロピー損失を含む、請求項10に記載の装置。
  12. 前記ダイバージェンス損失が、カルバックライブラーダイバージェンス損失を含む、請求項10に記載の装置。
  13. 前記セグメンテーションネットワークがそれぞれ、変分オートエンコーダを備え、前記再構築損失が、各セグメンテーションネットワークについての前記変分オートエンコーダの再構築損失を含む、請求項10に記載の装置。
  14. 前記統合損失が、前記セグメンテーション損失と前記ダイバージェンス損失とのバランスをとるためのパラメータを含む、請求項10に記載の装置。
  15. 前記プロセッサ実行可能命令は、前記1つまたは複数のプロセッサによって実行されると、前記装置に、
    前記対象者の身体の解剖学的情報および手術情報を取得することであって、前記2つ以上のセグメンテーション予測結果が、前記画像データ、トレーニングされた前記2つ以上のセグメンテーションネットワーク、前記解剖学的情報、および前記手術情報に基づいて生成される、取得すること
    をさらに行わせる、請求項9に記載の装置。
JP2023553351A 2021-03-02 2022-03-02 腫瘍セグメンテーションの視覚化のための方法および装置 Pending JP2024513661A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163155564P 2021-03-02 2021-03-02
US202163155626P 2021-03-02 2021-03-02
US63/155,564 2021-03-02
US63/155,626 2021-03-02
US17/683,643 2022-03-01
US17/683,643 US20220284585A1 (en) 2021-03-02 2022-03-01 Methods and Apparatuses for Visualization of Tumor Segmentation
PCT/IB2022/051817 WO2022185222A1 (en) 2021-03-02 2022-03-02 Methods and apparatuses for visualization of tumor segmentation

Publications (1)

Publication Number Publication Date
JP2024513661A true JP2024513661A (ja) 2024-03-27

Family

ID=80775317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023553351A Pending JP2024513661A (ja) 2021-03-02 2022-03-02 腫瘍セグメンテーションの視覚化のための方法および装置

Country Status (6)

Country Link
EP (1) EP4260279A1 (ja)
JP (1) JP2024513661A (ja)
KR (1) KR20230150317A (ja)
CA (1) CA3211487A1 (ja)
IL (1) IL304570A (ja)
WO (1) WO2022185222A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351489B (zh) * 2023-12-06 2024-03-08 四川省肿瘤医院 面向全身pet/ct扫描的头颈肿瘤靶区的勾画系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4750784B2 (ja) 2004-04-23 2011-08-17 ノヴォキュアー・リミテッド 異なる周波数の電界による腫瘍等の治療
CN110517759B (zh) * 2019-08-29 2022-03-25 腾讯医疗健康(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置

Also Published As

Publication number Publication date
EP4260279A1 (en) 2023-10-18
KR20230150317A (ko) 2023-10-30
IL304570A (en) 2023-09-01
CA3211487A1 (en) 2022-09-09
WO2022185222A1 (en) 2022-09-09

Similar Documents

Publication Publication Date Title
JP7405818B2 (ja) 変形可能テンプレートを使用して最適化された電極位置を有するttフィールドを用いて患者を治療する
US9646229B2 (en) Method and system for bone segmentation and landmark detection for joint replacement surgery
US10402971B2 (en) Matching patient images and images of an anatomical atlas
EP3589355B1 (en) Optimal deep brain stimulation electrode selection and placement on the basis of stimulation field modelling
US10056158B2 (en) Determination of enhancing structures in an anatomical body part
CN110807755A (zh) 使用定位器图像进行平面选择
US9508144B2 (en) Determining an anatomical atlas
KR20220026534A (ko) 딥러닝 기반의 조직 절제 계획 방법
JP2024513661A (ja) 腫瘍セグメンテーションの視覚化のための方法および装置
US20150278471A1 (en) Simulation of objects in an atlas and registration of patient data containing a specific structure to atlas data
Malinda et al. Lumbar vertebrae synthetic segmentation in computed tomography images using hybrid deep generative adversarial networks
US20220284585A1 (en) Methods and Apparatuses for Visualization of Tumor Segmentation
CN117043816A (zh) 用于肿瘤分割的可视化的方法和装置
EP2912632B1 (en) Determining an anatomical atlas
Vlasov et al. Automated Deep Learning-based Segmentation of Brain, SEEG and DBS Electrodes on CT Images
Sofka et al. Sofka et al.(43) Pub. Date: Apr. 3, 2014

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219