JP2020537566A - 画像セグメンテーション - Google Patents

画像セグメンテーション Download PDF

Info

Publication number
JP2020537566A
JP2020537566A JP2020521410A JP2020521410A JP2020537566A JP 2020537566 A JP2020537566 A JP 2020537566A JP 2020521410 A JP2020521410 A JP 2020521410A JP 2020521410 A JP2020521410 A JP 2020521410A JP 2020537566 A JP2020537566 A JP 2020537566A
Authority
JP
Japan
Prior art keywords
image
line
processor
region
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020521410A
Other languages
English (en)
Other versions
JP7053817B6 (ja
JP7053817B2 (ja
JPWO2019077018A5 (ja
Inventor
ドミトリー ラディッヒ
ドミトリー ラディッヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020537566A publication Critical patent/JP2020537566A/ja
Publication of JPWO2019077018A5 publication Critical patent/JPWO2019077018A5/ja
Application granted granted Critical
Publication of JP7053817B2 publication Critical patent/JP7053817B2/ja
Publication of JP7053817B6 publication Critical patent/JP7053817B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するためのシステムおよび方法が提供される。前記システム100は、命令のセットを表す命令データを含むメモリ106と、前記メモリ106と通信し、前記命令のセットを実行するプロセッサ102とを備える。前記プロセッサ102によって前記命令のセットが実行されると、前記プロセッサ102は、前記画像内の線を示す第1のユーザ入力を受け取り、前記画像内の前記示された線の両側に1つずつ、それぞれ片側で前記示された線と隣接する2つの領域を定め、前記2つの領域のそれぞれについて、セグメントを決定するためのシードとして前記領域を使用して、前記領域に含まれる解剖学的構造に対応する前記セグメントを決定する。

Description

本開示は画像処理の分野に関し、特に、1つまたは複数の解剖学的構造を含む画像を複数のセグメントに分割するための方法およびシステムに関する。
セグメンテーションは、画像を複数のセグメントに分割(またはセグメント化)するために画像処理においてよく使用される。各セグメントは画像内のある領域に対応しており、画像分析を助ける。セグメンテーションは医療イメージングでよく使用されており、コンピュータ実装方法を使用して、医療画像内の解剖学的特徴が自動的に(または半自動的に)抽出および分析され得る。
グラフ分割や領域拡張など、様々なセグメンテーションの方法が存在する。これらの方法は、対象となる構造の一部を示すものとして、画像内のシードまたは開始位置を取る。その後、シードを使用して、画像内の各構造に対応するセグメントに画像が分割される(シードグループごとに1つ)。したがって、セグメンテーションを成功させるには、元の関心ボリューム(VOI)を分割することで生成されるべき領域を正しく指定する(例えば、シード点を正しく指し示す)ことが必要である。一部の方法では、ユーザは、VOIを分割して生成される各セグメントに属するエリアを指定する。多くの場合、異なる構造に属する画像内の各領域(または点)にマークを付けることによって指定が行われる。これらの領域は、画像内の複数のシード点からなるグループに変換され、セグメンテーションアルゴリズムに供給される。
シード点グループを定める方法は多数存在する。通常、これらの方法において、ユーザは画像上でブラシのようなツールを使用して各構造上の領域をマークし、マークされた領域はシード点のグループに変換される。しかし、これはユーザにとって非効率であり、また、誤りが生じやすいおそれがある。さらに、結果の精度は、ユーザによってマークされた領域の位置(例えば、提供されたシード点の位置)に依存し得る。
したがって、シード点を配置する既存の方法は非直感的で面倒な可能性があり、シード点を最適に配置できないおそれがある。
したがって、これらの問題を克服する方法およびシステムが必要である。
上記のように、1つまたは複数の解剖学的構造を含む画像を複数のセグメントに分割することに関連して様々な課題が存在する。
したがって、第1の側面によれば、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するシステムが提供される。前記システムは、命令のセットを表す命令データを含むメモリと、前記メモリと通信し、前記命令のセットを実行するプロセッサとを備える。前記プロセッサによって前記命令のセットが実行されると、前記プロセッサは、前記画像内の線を示す第1のユーザ入力を受け取り、前記画像内の前記示された線の両側に1つずつ、それぞれ片側で前記示された線と隣接する2つの領域を定める。前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、前記2つの領域のそれぞれについて、セグメントを決定するためのシードとして前記領域を使用して、前記領域に含まれる解剖学的構造に対応する前記セグメントを決定する。
上記システムは、線に沿ってセグメントが切断されるべき当該線にシード点グループが近いほど、セグメンテーションプロセスが良好に実行されるという認識に基づく。したがって、シード点の最も効果的な配置は、線に沿って画像が切断されるべき当該線のいずれかの側であること、例えば、線に可能な限り近いことが認識される。したがって、このようにしてユーザが画像内に線を示し、線の両側に線と隣接する領域を定められるようにすることで、本明細書に記載される方法およびシステムは、より正確な結果を提供することができる。さらに、本明細書の方法およびシステムは、実際の切断動作に類似する、ユーザにとってより直感的なシード点を配置するためのアプローチを提供する。このようにして、セグメンテーションプロセスはユーザにとってより直感的になり、全体的により正確になる。
一部の実施形態では、前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、前記画像内の解剖学的構造の一部と前記領域が重なるか否かを決定し、前記セグメントを決定するための前記シードとして、前記解剖学的構造の決定された前記重なる部分を使用することを含み得る。
一部の実施形態では、前記画像は複数の画像コンポーネントを含み、前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、前記セグメントを決定するためのシード点として、前記解剖学的構造の前記重なる部分内の各画像コンポーネントを使用することを含み得る。
一部の実施形態では、前記画像は複数の画像コンポーネントを含み、前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、前記セグメントを決定するためのシード点として、所定の範囲内の値を有する前記領域内の各画像コンポーネントを使用することを含み得る。
一部の実施形態では、前記プロセッサが前記解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、グラフ分割セグメンテーションプロセスを使用して前記セグメントを決定することを含み得る。
一部の実施形態では、各領域は前記線に平行な帯を含み、これら平行な帯は対称性を有し得る。
一部の実施形態では、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、前記領域のうちの少なくとも1つの領域の幅の変化を示す第2のユーザ入力を受け取り、受け取られた前記第2のユーザ入力に従って、前記少なくとも1つの領域の前記幅を調整し得る。
一部の実施形態では、前記第2のユーザ入力は、アクチュエータの動きまたはタッチスクリーン上の動きを含み、前記少なくとも1つの領域の前記幅は、前記アクチュエータの動きまたは前記タッチスクリーン上の動きの大きさに応じて変更され得る。
一部の実施形態では、前記第1のユーザ入力は、前記画像上の2つ以上の点の位置を含み、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサは、前記2つ以上の点を通るスプラインを決定し得る。前記プロセッサが前記画像内の2つの領域を定めることは、前記プロセッサが、前記画像内の決定された前記スプラインの両側に1つずつ、それぞれ片側で決定された前記スプラインと隣接する2つの領域を定めることを含み得る。
一部の実施形態では、スプラインはベジエスプラインであり得る。
一部の実施形態では、前記線は、複数の調整可能な制御点を含み、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、前記複数の調整可能な制御点のうちの1つまたは複数を調整するための第3のユーザ入力を受け取り、受け取られた前記第3のユーザ入力において示される調整に基づき、前記線の形状を更新し得る。
一部の実施形態では、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、前記画像内の別の線を示す第4のユーザ入力を受け取り、前記画像内の前記別の線の両側に1つずつ、それぞれ片側で前記別の線と隣接する2つのさらなる領域を定め、前記2つの領域をそれぞれさらなる領域と関連付け、前記2つの領域のそれぞれについて、前記領域および関連付けられた前記さらなる領域の両方を前記セグメントを決定するためのシード点として使用して、前記領域および関連付けられた前記さらなる領域の両方に含まれる解剖学的構造に対応するセグメントを決定し得る。
一部の実施形態では、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、前記画像、前記線、および前記2つの領域を表示するようにユーザインターフェースを制御し、前記画像の視点を変更し、前記画像の前記視点変更に従い、前記線および前記2つの領域の視点を変更し得る。
一部の実施形態では、プロセッサによって命令のセットが実行されると、プロセッサはさらに、第1のユーザ入力を受け取ること、画像内の2つの領域を定めること、2つの領域のそれぞれについて、解剖学的構造に対応するセグメントを決定すること、決定されたセグメントの画像上で、決定されたセグメントをさらなる複数のセグメントに分割することを繰り返し実行し得る。
第2の側面によれば、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するコンピュータ実装方法であって、前記方法は、前記画像内の線を示す第1のユーザ入力を受け取るステップと、前記画像内の前記示された線の両側に1つずつ、それぞれ片側で前記示された線と隣接する2つの領域を定めるステップと、前記2つの領域のそれぞれについて、セグメントを決定するためのシードとして前記領域を使用して、前記領域に含まれる解剖学的構造に対応する前記セグメントを決定するステップとを含む、方法が提供される。
第3の側面によれば、コンピュータ可読コードが組み込まれたコンピュータ可読媒体を含むコンピュータプログラム製品が提供され、コンピュータ可読コードは、適切なコンピュータまたはプロセッサによって実行されると、前記コンピュータまたは前記プロセッサに上記方法を実行させるように構成される。
したがって、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するための改良された方法およびシステムが提供される。
実施形態のより良い理解のために、また、実施形態が如何に実施され得るかをより明確に示すために、以下の例示に過ぎない添付図面を参照する。
図1は、一実施形態に係る、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するためのシステムのブロック図である。 図2は、一実施形態に係る画像の例を示す。 図3は、一実施形態に係る画像、指示された線、および2つの定められた領域の概略的な例を示す。 図4は、一実施形態に係る画像の例を示し、所定の範囲内の画像コンポーネントがユーザに対して強調表示されている。 図5a、図5b、および図5cは例示的実施形態を示し、ユーザによって、三次元画像の第1の平面内に線が示されており、三次元画像の第2の平面内に別の線が示されている。 図6a、図6b、および図6cは、一実施形態に従い、領域の幅がどのようにして調整され得るかを示す。 図7は、一実施形態に係る出力セグメントを示し、各セグメントが画像内の異なる解剖学的構造に対応する。 図8は、一実施形態に係る、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するためのコンピュータ実装方法を示す。 図9は、他の例示的実施形態に係る、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するためのコンピュータ実装方法を示す。
上記したように、既存の問題を克服する、1つまたは複数の解剖学的構造を含む画像を複数のセグメントに分割するための改良された方法およびシステムが提供される。
図1は、1つまたは複数の解剖学的構造を含む画像(例えば、医用画像など)を複数のセグメントに分割するために使用可能な一実施形態に係るシステム100のブロック図を示す。図1を参照して、システム100は、システム100の動作を制御し、また、本明細書に記載の方法を実施可能なプロセッサ102を含む。
システム100はさらに、命令のセットを表す命令データを含むメモリ106を含む。メモリ106は、本明細書で説明される方法を実行するためにプロセッサ102によって実行され得るプログラムコードの形態で命令データを格納するように構成され得る。一部の実装形態では、命令データは、本明細書に記載の方法の個々のまたは複数のステップを実行するように構成された、または実行するための複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含み得る。一部の実施形態では、メモリ106は、システム100の1つまたは複数の他の構成要素(例えば、プロセッサ102および/またはシステム100の1つまたは複数の他の構成要素)を備えるデバイスの一部であり得る。他の実施形態では、メモリ106は、システム100の他の構成要素とは別のデバイスの一部であってもよい。
一部の実施形態では、メモリ106は複数のサブメモリを含み、各サブメモリが命令データを格納することができる。メモリ106が複数のサブメモリを含む一部の実施形態では、命令のセットを表す命令データは、単一のサブメモリに格納されてもよい。メモリ106が複数のサブメモリを含む他の実施形態では、命令のセットを表す命令データは、複数のサブメモリに格納されてもよい。例えば、少なくとも1つのサブメモリは、命令セットの少なくとも1つの命令を表す命令データを格納し、一方、少なくとも1つの他のサブメモリは、命令セットの少なくとも1つの他の命令を表す命令データを格納し得る。したがって、一部の実施形態によれば、複数の異なる命令を表す命令データは、システム100内の1つまたは複数の異なる場所に格納され得る。一部の実施形態では、メモリ106は、システム100のプロセッサ102によって取得または作成された、またはシステム100の他の構成要素から取得または作成された画像、情報、データ、信号、および測定結果を格納するために使用され得る。
システム100のプロセッサ102は、メモリ106と通信して命令セットを実行するように構成され得る。命令セットは、プロセッサによって実行されたとき、プロセッサに、本明細書で説明される方法を実行させ得る。プロセッサ102は、本明細書に記載されるようにシステム100を制御するように構成またはプログラムされた1つまたは複数のプロセッサ、処理ユニット、マルチコアプロセッサ、および/またはモジュールを含み得る。一部の実装形態では、例えば、プロセッサ102は、分散処理のために構成された複数の(例えば、相互運用される)プロセッサ、処理ユニット、マルチコアプロセッサ、および/またはモジュールを含み得る。そのようなプロセッサ、処理ユニット、マルチコアプロセッサ、および/またはモジュールは、異なる場所に配置されてもよく、また、本明細書で説明される方法の異なるステップおよび/または単一のステップの異なる部分を実行し得ることが当業者によって理解されよう。
再び図1に戻り、一部の実施形態では、システム100は、少なくとも1つのユーザインターフェース104を含み得る。一部の実施形態では、ユーザインターフェース104は、システム100の1つまたは複数の他の構成要素(例えば、プロセッサ102、メモリ106、および/またはシステム100の1つまたは複数の他の構成要素)を備えるデバイスの一部であり得る。他の実施形態では、ユーザインターフェース104は、システム100の他の構成要素とは別のデバイスの一部であってもよい。
ユーザインターフェース104は、本明細書の実施形態に係る方法から生じる情報をシステム100のユーザ(例えば、医療従事者ヘルスケア提供者、ヘルスケア専門家、介護者、被検者、または他のユーザ)に提供する際に使用するためのものであり得る。命令セットは、プロセッサ102によって実行されたとき、プロセッサ102に、1つまたは複数のユーザインターフェース104を制御して、本明細書の実施形態に係る方法から生じる情報を提供させるように構成されてもよい。代替的にまたは追加的に、ユーザインターフェース104は、ユーザ入力を受け取るように構成されてもよい。言い換えれば、ユーザインターフェース104は、システム100のユーザが命令、データ、または情報を手動で入力することを可能にし得る。命令セットは、プロセッサ102によって実行されたとき、プロセッサ102に、1つまたは複数のユーザインターフェース104からユーザ入力を取得させ得る。
ユーザインターフェース104は、システム100のユーザへの情報、データ、または信号のレンダリング(または出力もしくは表示)を可能にする任意のユーザインターフェースであり得る。代替的にまたは追加的に、ユーザインターフェース104は、システム100のユーザがユーザ入力を提供すること、システム100とインタラクトすること、および/またはシステムを制御することを可能にする任意のユーザインターフェースであってもよい。例えば、ユーザインターフェース104は、1つまたは複数のスイッチ、1つまたは複数のボタン、キーパッド、キーボード、マウス、マウスホイール、(例えば、タブレットまたはスマートフォン上の)タッチスクリーンまたはアプリケーション、ディスプレイ画面、グラフィカルユーザインターフェース(GUI)、または他の視覚レンダリングコンポーネント、1つまたは複数のスピーカ、1つまたは複数のマイク、または任意の他のオーディオコンポーネント、1つまたは複数の照明装置、触覚フィードバックを提供するコンポーネント(例えば、振動機能)、または任意の他のユーザインターフェース、またはユーザインターフェースの組み合わせを含み得る。
一部の実施形態では、図1に示されるように、システム100はまた、システム100が、システム100の一部であるインターフェース、メモリ、および/またはデバイスと通信することを可能にするための通信インターフェース(または回路)108を備え得る。通信インターフェース108は、無線でまたは有線接続を介して任意のインターフェース、メモリ、およびデバイスと通信することができる。
図1は、本開示の本側面を説明するために必要な構成要素のみを示しており、実際の実装では、システム100は、示された構成要素に加えて他の構成要素を備え得ることが理解されよう。例えば、システム100は、システム100に電力を供給するための電池または他の電源、またはシステム100を主電源に接続するための手段を備えてもよい。
より詳細には、上記したように、メモリ106は命令のセットを表す命令データを含む。簡潔に言えば、システム100のプロセッサ102によって命令セットが実行されると、プロセッサ102は、画像内の線を指示する第1のユーザ入力を受け取り、指示された線の両側にそれぞれ位置する画像内の2つの領域を定める。各領域は、それぞれ片側で指示された線に接している。2つの領域のそれぞれについて、システム100のプロセッサ102によって命令セットが実行されると、プロセッサはさらに、セグメントを決定するためのシードとして領域を使用して、領域内に含まれる解剖学的構造に対応するセグメントを決定する。
上記で簡潔に述べたように、本明細書のシステムは、線に沿ってセグメントが切断されるべき当該線にシード点グループが近いほど、セグメンテーションプロセスが良好に実行されるという認識に基づく。したがって、シード点の最も効果的な配置は、線に沿って画像が切断されるべき当該線のいずれかの側であること、例えば、線に可能な限り近いことが理解される。したがって、このようにしてユーザが画像内に線を示し、示された線の両側に線と隣接する領域を定められるようにすることで、本明細書で説明される方法およびシステムは、シード点を配置するためのより正確なアプローチを提供し、それによりセグメンテーションの結果を改善する。さらに、実際の切断動作に似ているため、プロセスはユーザにとってより直感的である。また、例えば、ユーザがセグメント化されるべき各解剖学的構造の部分にシェードを付ける方法と比較して、より少ないユーザ入力が要求され得る。
本明細書に記載される実施形態のいずれにおいても、画像は二次元画像、三次元画像、または他の任意の次元の画像であり得る。一部の実施形態では、画像は、多断面再構成(MPR)画像を含み得る。画像は、複数の画像コンポーネントを含み得る。画像が二次元画像である実施形態では、画像コンポーネントはピクセルである。画像が三次元画像である実施形態では、画像コンポーネントはボクセルである。
画像は、例えば医用画像、または1つまたは複数の解剖学的構造を含む任意の他の種類の画像であり得る。画像は任意の撮像モダリティを使用して取得され得る。医用画像モダリティの例には、限定はされないが、CアームCT画像、スペクトルCT画像、位相コントラストCT画像などのコンピュータ断層撮影(CT)画像またはCTボリューム(例えば、CTスキャンからの)、X線画像(例えば、X線スキャンからの)、磁気共鳴(MR)画像(例えば、MRスキャンからの)、超音波(US)画像(例えば、超音波スキャンからの)、蛍光透視画像、核医学画像、または1つまたは複数の解剖学的構造を含む任意のその他の画像が含まれる。画像の種類の例を述べたが、当業者は、本明細書で提供される教示が、1つまたは複数の解剖学的構造を含む他の任意の種類の画像に等しく適用され得ることを理解するであろう。
前述のように、画像は1つまたは複数の解剖学的構造を含む。例えば、画像は1つまたは複数の臓器(例えば、心臓、1つ以上の肺、または任意のその他の臓器、または任意の臓器の組み合わせ)、骨(例えば、1つ以上の肋骨、1つ以上の椎骨、任意のその他の骨、または任意の骨の組み合わせ)、および/または任意の他の種類の解剖学的構造を含み得る。本明細書において、「解剖学的構造」は一般的に使用され、解剖学的構造のグループ(例えば、臓器のグループ)、1つまたは複数の個別の解剖学的構造(例えば、個別の臓器)、および/または解剖学的構造の1つまたは複数の部分(例えば、臓器の1つまたは複数の部分)を指し得る。したがって、画像は必ずしも解剖学的構造全体を含むとは限らず、例えば、解剖学的構造の一部のみを含み、かつ/または、セグメント化された画像内に他の解剖学的構造が存在する場合は、他の解剖学的構造の一部のみを含み得る。
図2は、1つまたは複数の解剖学的構造を含む画像の例を示す。この実施形態では、画像の例は多断面再構成(MPR)画像を含み、1つまたは複数の解剖学的構造は、被検者の胴体部分における構造を含む。特に、画像は椎骨202、腎臓204、および大動脈206を示す。
先に述べたように、本明細書に記載のシステムは、画像をセグメント化するために使用され得る。当業者は、セグメンテーションおよび様々な種類のセグメンテーションプロセスに精通しているであろう。簡潔に言えば、セグメンテーションとは、画像を複数の異なるセグメント(あるいは部分、ブロック、または形状)にセグメント化(あるいは分割、変換、または区分)することである。例えば、各セグメントは、何らかの態様で関連付けられている画像コンポーネント(例えば、境界や、所定の領域または領域内にある全ての画像コンポーネント)のグループ、または共通の特性を共有する画像コンポーネント(例えば、所定の範囲内の値を有する連結している画像コンポーネント)のグループに対応し得る。セグメンテーションは、画像内の解剖学的構造の一部、画像内の形状、および/または画像内の識別可能な輪郭(例えば、境界またはエッジ)を有する他のオブジェクトの輪郭を描くために、またはそのようなオブジェクトを強調表示するために使用され得る。セグメンテーションプロセスは、コンピュータ実装セグメンテーションプロセスであり得る(例えば、ユーザのために画像を自動的にセグメント化する「自動セグメンテーション」アルゴリズム)。コンピュータ実装セグメンテーションプロセスの例には、例えば、グラフ分割法(グラフ分割法の例には、normalized cuts、ランダムウォーカー、最小カット、isoperimetric partitioning、およびセグメンテーションによるオブジェクト分類が含まれる)および領域拡張法が含まれ、当業者は、とりわけ、このようなセグメンテーションプロセスに精通しているであろう。
上記のように、特定のセグメンテーションプロセスでは、ユーザがシード点を提供する必要がある。シード点は、セグメントが決定されるべき画像内の(各)構造(例えば、解剖学的構造)の一部の位置の指標を提供する。グラフに基づくプロセスなどのセグメンテーションプロセスでは、出力されるセグメントの精度は、提供されるシード点の位置に部分的に依存する。本明細書では、2つの解剖学的構造が画像内で近接している場合、線に沿ってセグメントが切断されるべき両構造の間の当該線(例えば、分割線)にシード点が近いほど、アルゴリズムが良好に実行されることが認識された。2つの構造が近接して配置されている場合、シード点の最も効果的な配置は、線に沿って構造が切断されるべき当該線のいずれかの側に直にあること、例えば、可能な限り分割線に近いことが認識される。
したがって、本明細書では、プロセッサ102によって命令セットが実行されると、プロセッサ102は、画像内の線を示す第1のユーザ入力を受け取る。ユーザは、例えば、ユーザインターフェース104を使用して第1のユーザ入力を提供することができる。一部の実施形態では、第1のユーザ入力は、線が通過すべき画像上の2つ以上の点の位置を含む。ユーザは、例えば、ユーザインターフェース104(例えばマウスであり、各点の位置を示すためにマウスを使用して画像上でクリックすることにより)を使用して、画像上の2つ以上の点を示すことができる。一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102は、2つ以上の点を通る線を決定(例えば、あてはめ(fit))し得る。当業者は、画像内の複数の点の間に線をあてはめるために使用可能な様々な方法に精通しているであろう。例えば、一部の実施形態では、プロセッサ102は、2つ以上の点を通るスプラインを決定(例えば、あてはめ)し得る。一部の実施形態では、スプラインはベジエスプラインであり得る。点間に線をあてはめる方法の例を示したが、当業者は、これらの例が限定的ではなく、他のラインフィッティング法も使用可能であることを理解するであろう(例えば、最小二乗フィッティング法および/または1つまたは複数の他のカーブフィッティング法)。
一般的に、第1のユーザ入力は、セグメント化されるべき(例えば、線の両側に位置する各解剖学的構造に対応する2つのセグメントにセグメント化されるべき)画像内の2つの解剖学的構造を分割する画像内の線を指し示す。
一部の実施形態では、線(または、例えばスプラインが決定される場合、決定されたスプライン)は、複数の調整可能な制御点を含み得る。調整可能な制御点は、画像内の最適な切断点(例えば、線に沿って構造が切断されるべき当該線)の上に線を再配置(例えば、より適切に配置)するために、ユーザによって(例えば、ドラッグアンドドロップによって)調整可能であり得る。一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102は第3のユーザ入力を受け取り、受け取られた第3のユーザ入力において示される調整に基づいて、1つまたは複数の調整可能な制御点を調整して、線の形状を更新し得る。制御点を調整することは、例えば、線(またはスプライン)の形状を変化させるために、制御点を追加すること、制御点を削除すること、および/または制御点を移動させることを含み得る。スプラインが決定される実施形態では、スプラインは、複数の調整可能な制御点を含み、制御点を調整するための第3のユーザ入力は、プロセッサ102に、調整された制御点にフィットする新しいスプラインを再決定させ得る。
上記したように、プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、画像内の指示された線の両側に1つずつ、2つの領域を定め、各領域は、それぞれ片側で指示された線に接する。線がスプラインを含む実施形態では、線の両側に2つの領域を定めることは、画像内の決定されたスプラインの両側に1つずつ、2つの領域を定めることを含み、各領域はそれぞれ片側で指示されたスプラインに接する。
一部の実施形態では、各領域は、線(またはスプライン)に平行に(例えば、線またはスプラインの長さに沿って)横たわる帯を含み得る。一部の実施形態では、平行な帯は対称性を有してもよい。したがって、一部の実施形態では、領域は、指示された線(またはスプライン)の両側にある「リボン」の形状を有し得る。
したがって、一部の実施形態では、2つの領域は、指示された線(またはスプライン)の両側にそれぞれ位置するストライプのペアとして表され得る。
図3は、これが図示されている一実施形態の概略図を示す。この実施形態では、画像は複数の解剖学的構造、すなわち椎骨302および腎臓304を含む。図3の実施形態では、画像は、椎骨302を含む第1のセグメントおよび腎臓304を含む第2のセグメントにセグメント化されるべきである。そのために、ユーザは、プロセッサ102によって3つの点306として受け取られる第1のユーザ入力を提供する。プロセッサ102によって命令セットが実行されると、プロセッサ102は、3つの点を通る線308(例えば、スプライン)を決定し、画像内の決定された線308の両側に1つずつ、2つの領域310aおよび310bを定め得る。図3から分かるように、この実施形態の2つの領域は、決定されたスプラインの両側に位置する。各領域は、決定された線308に平行であって、線と接する帯を含む。
図1に戻り、一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、少なくとも1つの領域の幅における変化を示す第2のユーザ入力を(例えば、ユーザインターフェース104から)受け取り、受け取られた第2のユーザ入力に従い、少なくとも1つの領域の幅を調整し得る。例えば、一部の実施形態では、第2のユーザ入力は、アクチュエータ(例えば、コンピュータマウスのホイールまたはジョイスティック上のボタンなど、ユーザが押したり引いたりすることができる機構または構成要素)から受け取られ得る。より具体的には、第2のユーザ入力は、アクチュエータの動きを含み得る。例えば、一部の実施形態では、ユーザは、線(またはスプライン)の上にカーソル等を合わせ、定められた領域の幅を変更するようにアクチュエータを動かし得る。他の実施形態では、第2のユーザ入力は、タッチスクリーン上の動き(例えば、タッチスクリーン上のスワイプ)を含み得る(またはタッチスクリーン上の動きという形態で受け取られ得る)。プロセッサ102によって命令セットが実行されると、プロセッサ102は、アクチュエータの動きまたはタッチスクリーン上の動きの大きさに応じて(例えば、受け取られた第2のユーザ入力の大きさに基づき)、少なくとも1つの領域の幅を調整し得る。例えばマウスホイールやタッチスクリーン動作などのアクチュエータからの入力に基づき領域の幅を調整する(例えば、幅を拡大または縮小する)ことは、ユーザが手動で画像内に新しい領域を描く場合よりも効率的である。このようにして、本明細書で説明するプロセスは、よりユーザ効率が高く、よりユーザフレンドリーである。
上記したように、プロセッサ102によって命令セットが実行されると、プロセッサ102は、2つの領域のそれぞれについて、セグメントを決定するためのシードとして領域を使用して、領域内に含まれる解剖学的構造に対応するセグメントを決定する。
一部の実施形態では、各領域は、セグメンテーションにおけるセグメントのシードとして使用されてもよい。例えば、各画像コンポーネント(例えば、各ピクセルまたはボクセル)が、セグメントを決定するためのシード点として使用されてもよい。一部の実施形態では、領域内の各画像コンポーネントの座標が、セグメントを決定するためのシード点として使用され得る。例えば、解剖学的構造のエッジが線(またはスプライン)に沿う(または非常に近くい)場合、領域全体をシード点として使用することが適切であり得る。
一部の実施形態では、領域内の画像コンポーネントの部分集合が、セグメントを決定するためのシード点(またはシード点グループ)として使用され得る。例えば、一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102は、領域が画像内の解剖学的構造の一部と重なるか否かを決定し、解剖学的構造の重なっている部分を、セグメントを決定するためのシードとして使用し得る。例えば、図3の例では、腎臓304と重なる領域310aの部分が、腎臓304をセグメント化するためのシード領域として使用され、椎骨302と重なる領域310bの部分が、椎骨をセグメント化するためのシード領域302として使用され得る。一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102は、解剖学的構造の重なっている部分内の各画像コンポーネントを、セグメントを決定するためのシード点として使用し得る。このようにして、関心対象の解剖学的構造の一部を形成する領域内の画像コンポーネントのみが、解剖学的構造のセグメントを決定するためのシード点として使用される。
一部の実施形態では、プロセッサ102は、所定の範囲内の値を有する領域内の各画像コンポーネントを、セグメントを決定するためのシード点として使用してもよい。所定の範囲は、例えば、画像内の特定の解剖学的構造について観察される画像コンポーネントの値の範囲として(例えば、この範囲と一致するように)選択され得る。例えば、図3において、腎臓に対応する画像コンポーネントがx1〜x2の間の数値を有した場合、腎臓304に対応する領域310a内の画像コンポーネントを抽出するために、所定の範囲は、値x1およびx2を包含するように設定され得る。このようにすることで、所定の範囲を使用して、領域内の特定の解剖学的構造をターゲットにし、セグメンテーションに適したシードを作成することができる。
一部の実施形態では、所定の範囲内の値を有する画像コンポーネントは、前処理段階で決定(例えば、位置特定)され得る。例えば、一部の実施形態では、プロセッサ102は、例えば画像を表示するようにユーザインターフェース104を制御することにより、画像をユーザに表示させ得る。所定の範囲内の値を有する画像コンポーネントはユーザに対して強調表示され、例えば、画像内の他の画像コンポーネントとは異なる色で表され得る。
図4は、これが図示されている一実施形態を示す。この実施形態では、画像は、複数の解剖学的構造、すなわち、腎臓402および椎骨404を含む胴体の画像を含む。腎臓402および椎骨404の値に対応する所定の範囲内の画像コンポーネントは、図4a、図4b、および図4cにおいて、ユーザに対して強調されている(例えば、より明るく見える)。したがって、ユーザは、線に沿って強調表示された各解剖学的構造が分割(または切断)されるべき画像内の当該線を示すためのユーザ入力をプロセッサ102に提供するにあたり、画像内の解剖学的構造をより容易に見ることができる。
画像は、シード点を入力として使用する任意の適切なセグメンテーションプロセスを使用してセグメント化され得る。一部の実施形態では、プロセッサ102に、解剖学的構造に対応するセグメントを決定させることは、プロセッサ102に、グラフ分割セグメンテーションプロセスを使用してセグメントを決定させることを含み得る。他の実施形態では、プロセッサ102に、解剖学的構造に対応するセグメントを決定させることは、プロセッサ102に、領域成長セグメンテーションプロセスを使用してセグメントを決定させることを含み得る。適切なセグメンテーションプロセスの例を述べたが、セグメントの位置を決定するための出発点としてシード点を使用する他の任意のセグメンテーションプロセスも、セグメントを決定するために使用され得ることが理解されよう。
一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、画像、線、および2つの領域を表示するよう、ユーザインターフェース(例えば、ユーザインターフェース104)を制御し得る。プロセッサ102はさらに、画像の視点(perspective)を変更し得る(例えば、画像を回転または移動させる、画像を反転する、または画像を拡大もしくは縮小する)。プロセッサ102はさらに、画像の視点変更に従い、表示される線および2つの領域の視点を変更し得る。例えば、画像が回転される場合、表示される線および表示される領域は、表示される解剖学的構造に対して画像内で固定されたままになるように、同様に回転され得る。このようにして、ユーザは様々な角度や視点から画像を見ることができる。これは、例えば、画像をセグメント化する前に、ユーザが様々な角度や視点から画像内の線および領域の配置の精度を確認するのに役立ち得る。
一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、i)画像内の線を示す第1のユーザ入力を受け取ること、ii)画像内の示された線の両側に1つずつ、示された線にそれぞれ片側で接する2つの領域を定めること、iii)2つの領域のそれぞれについて、セグメントを決定するためのシードとして領域を使用して、領域内に含まれる解剖学的構造に対応するセグメントを決定すること、決定されたセグメントの画像上で、決定されたセグメントをさらなる複数のセグメントに分割することを繰り返し実行し得る。例えば、画像は2つのセグメントにセグメント化され、各セグメントは画像内の異なる解剖学的構造に対応する。ユーザは、2つのセグメントのうちの1つに集中し、上記でプロセッサ102に関して説明したプロセスのいずれかを使用して、このセグメントをさらに(例えば、さらなる複数のセグメントまたはサブセグメントに)セグメント化し得る。このようにして、ユーザは、画像を徐々に小さなセグメントに切断(または分割)することにより、画像を順次分解することができ、反復ごとに選択されたセグメントが2つに分割される。
一部の実施形態では、プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、画像内の別の(例えば、第2の)線を示す第4のユーザ入力を受け取り得る。別の線は、上記実施形態のいずれかで説明したような、第1のユーザ入力によって線(例えば、「第1の」線と考えることができる)が示されたのと同じ方法で、第4のユーザ入力によって示され得る。プロセッサ102によって命令セットが実行されると、プロセッサ102はさらに、画像内の別の指示された線の両側に1つずつ、2つのさらなる領域を定め、各さらなる領域は、それぞれ片側で別の(第2の)指示された線に接する。示された線(例えば、第1の示された線)の両側の各領域は、別の示された線の両側に定められた2つのさらなる領域の一方とリンクされ得る(または関連付けられ得る)。リンクされた領域ペア(例えば、1つの領域は示された線に関連付けられたもので、もう1つの領域は別の線に関連付けられたもの)のそれぞれについて、プロセッサ102は、セグメントを決定するためのシード点として領域およびリンクされたさらなる領域の両方を使用して、領域およびリンクされたさらなる領域の両方に含まれる解剖学的構造に対応するセグメントを決定し得る。このようにして、示された線に関して決定された領域のうちの1つ、および別の線に関して決定されたさらなる領域のうちの1つの両方を、同じ解剖学的構造をセグメント化するためのシード点として使用することができる。したがって、ユーザは、画像内に2つ以上の線(例えば、切断線)を示して、2つの解剖学的構造が画像内でどのように分けられるかをより明確に定めることができる。
画像が三次元画像である一部の実施形態では、ユーザは、三次元画像内の第1のスライス内で線を示し、三次元画像内の第2の異なるスライス内で別の線を示してもよい。第1および第2のスライスは、三次元画像の異なる次元にあってもよく、例えば、示された線は、別の示された線が存在する平面に対して垂直な平面内にあってもよい。しかし、これは単なる例示に過ぎず、当業者は、線および別の線が、三次元画像の任意の平面または平面の組み合わせ内に描かれ得ることを理解するであろう。
上記のように、示された線の両側に決定された各領域は、別の示された線に関して決定されたさらなる領域とリンクされ(または関連付けられ)、線に関して定められた領域、および別の線に関して定められた、リンクされたさらなる領域の両方が、領域およびリンクされたさらなる領域に含まれる解剖学的構造を決定するためのシード点として使用され得る。一部の実施形態では、どちらの領域がどちらのさらなる領域にリンクされているか(したがって、どちらの領域およびどちらのさらなる領域が画像内の解剖学的構造のためのシード点として使用されるか)をユーザに示すために、示された線の両側に決定された領域、および別の線の両側に決定されたさらなる領域が色分けされてもよい。一部の実施形態では、ユーザは、示された領域およびリンクされたさらなる示された領域が画像内の同じ解剖学的構造と確実に重なるよう、リンク(または関連付け)を変更(例えば、反転)可能であってもよい。画像内に2つ以上の線が示され、画像をセグメント化するために使用され得る方法の例を示したが、当業者は、他のプロセスも可能であることを理解するであろう。例えば、ユーザは、画像内に任意の数(例えば、3つ以上)の線を示し、これらの線に基づき、画像内のセグメントを決定するためのシード点として使用される、リンクされた領域が定義され得る。このようにして、ユーザは、2つ以上の次元において、解剖学的構造をセグメント化するためのシード点を画像内で容易に提供することができる。
図5、図6、および図7は、これを示す一実施形態を図示する。胴体部の三次元画像が2つのセグメントにセグメント化され、一方は腎臓および椎骨に対応し、他方は大動脈に対応する。図5a、図5b、および図5cは、三次元画像の3つの平面を示す。この実施形態では、腎臓502、椎骨504、および大動脈506の値の範囲に対応する所定の値の範囲内の値を有する画像コンポーネントがユーザに対して強調表示される(これは、図5の明るい部分によって示されている)。ユーザは、図5aに示される第1の平面において、この平面内で大動脈506と椎骨504とを分離する線508を示し、図5bに示される第2の平面において、この第2の平面で大動脈506と椎骨504とを分離するの別の線510を示す。
2つの領域512a(水玉模様の領域によって示される)および512b(斜線模様の領域によって示される)が、示された線508の両側に定められ、さらなる2つの領域514a(図5bの水玉模様の領域によって示される)および514b(図5bの斜線模様の領域によって示される)が、別の示された線510の両側に定められる。椎骨と重なる図5aの示された領域512aと、図5bの椎骨504と重なるさらなる示された領域514aとがリンクされ、椎骨504と重なる両方の領域が、椎骨504をセグメント化するためのシード点として使用される。同様に、大動脈と重なる示された領域512bと、大動脈506と重なるさらなる示された領域514bとがリンクされ、大動脈506と重なる両方の領域が、大動脈506をセグメント化するためのシード点として使用される。この実施形態では、どの解剖学的構造のためのシード点としてどの領域が使用されるかをユーザに対して強調表示するために、リンクされた領域が色分けされる(例えば、大動脈506と重なる領域は第1の色に色分けされ、椎骨504と重なる領域は、第1の色とは異なる第2の色を付される)。例えば、大動脈506と重なる領域が誤って、椎骨504と重なる領域とリンクされている場合、ユーザは、リンクされた領域が同じ構造と確実に重なるように、どの領域がどのさらなる領域とリンクするかを変更し得る。
図6a、図6b、および図6cは図5と同じ画像プロセスを示すが、この実施形態では、大動脈506および椎骨504とそれぞれより良好に重なるために、示された線508および別の示された線510の両側の領域512aおよび512bの幅の大きさを縮小すべきことを示す第2のユーザ入力(例えば、マウスホイールの動き)が受け取られる。したがって、これに応じて、領域512aおよび512bの幅は(図5と比較して)減少する。
その後、この図示の実施形態に係るグラフ分割法を使用して、示された領域およびさらなる領域のリンクされたペア(それぞれ、512aと514a、および512bと514b)を、画像内の椎骨504および大動脈506をセグメント化するためのシード点として、画像がセグメント化される。図7は、セグメンテーションプロセスの出力を示すものであり、生成された2つのセグメントが示されており、一方は椎骨、腎臓および関連構造702に対応し、他方は大動脈704に対応する。このようにして、最小限のユーザ入力で、画像を容易かつ正確に2つのセグメントに分割することができる。
図8は、一実施形態に係る、1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するコンピュータ実装方法800を示す。図示される方法800は、一般的に、システム100のプロセッサ102によってまたはその制御下で実行され得る。この方法は、一部の実施形態によれば、部分的にまたは完全に自動化され得る。
簡潔に言えば、図8を参照して、方法800は、(図8のブロック802において)画像内の線を示す第1のユーザ入力を受け取るステップと、(図8のブロック804において)画像内の示された線の両側に1つずつ、それぞれ片側で示された線と接する2つの領域を定めるステップとを含む。方法800はまた、(図8のブロック806において)2つの領域のそれぞれについて、セグメントを決定するためのシードとして領域を使用して、領域内に含まれる解剖学的構造に対応するセグメントを決定するステップを含む。
上記したように、一般的に、線に沿ってセグメントが切断されるべき当該線にシード点グループが近いほど、セグメンテーションプロセスが良好に実行される。したがって、シード点の最も効果的な配置は、線に沿って画像が切断されるべき当該線のいずれかの側であること、例えば、線に可能な限り近いことである。このようにしてユーザが画像内に線を示し、線の両側に線と隣接する領域を定められるようにすることで、図8の方法は、シード点を配置するためのより直観的で精度の高いアプローチを提供する。例えば、ユーザがセグメント化されるべき各解剖学的構造の部分にシェードを付ける方法と比較して、より少ないユーザ入力が要求され得る。さらに、本明細書の方法は、そのようなシェーディング方法よりも正確である。
図9は、別の実施形態に係るコンピュータ実装方法900を示す。図示される方法900は、一般的に、システム100のプロセッサ102によってまたはその制御下で実行され得る。この方法は、一部の実施形態によれば、部分的にまたは完全に自動化され得る。この図示の実施形態では、ブロック902において、MPR画像などのスキャンされたボリュームが受け取られる。ブロック904において、関心対象のボリュームが指定される。例えば、セグメンテーションの焦点をスキャンされたボリュームの特定の部分にあてるために、スキャンされたボリュームの大きさが縮小され得る。
ブロック906において、画像内の線を示す第1のユーザ入力が受け取られる。この実施形態では、第1のユーザ入力は画像内の2つ以上の点を示し、示された点に線(例えば、スプライン)があてはめられる。このようにして、2つ以上の点という形式で第1のユーザ入力を受け取り、これらの点に線をあてはめることはシステム100に関して上記されており、その詳細はブロック906にも該当することが理解されよう。ブロック906はさらに、画像内の示された線の両側に1つずつ、それぞれ片側で示された線と隣接する2つの領域を定めることを含む。ブロック906はさらに、例えば、領域を変更すること、例えば、第2のユーザ入力に応じて領域の幅を増加させることを含み得る。ブロック906はまた、線を一連の制御点で表すことと、複数の制御点のうちの1つへの調整を示す第3のユーザ入力を受け取ることと、当該制御点を変更することと、調整された制御点を通過する線を再フィッティング(例えば、再決定)することとを含み得る。領域を決定すること、ユーザ入力に応じて領域の幅を変更すること、および線の制御点を調整することは全てシステム100に関して上記されており、その詳細はブロック906のこれらの側面にも該当することが理解されよう。ブロック906はさらに、画像内の別の線を示す第4のユーザ入力を受け取ることを含み得る(例えば、第4のユーザ入力は、第1のユーザ入力に関して上記したように、画像内の2つ以上の他の点の指示を含み、2つ以上の他の点に別の線(またはスプライン)があてはめられ得る)。画像内の別の線の両側に1つずつ、それぞれ片側で別の線と隣接する2つのさらなる領域が定められ得る。そして、2つの領域のそれぞれがさらなる領域とリンクされ得る(例えば、各領域が、その領域と同じ解剖学的構造と重なるさらなる領域とリンクされ得る)。別の線を示す第4のユーザ入力を受け取ること、別の線の両側にさらなる領域を定めること、および各領域を別の領域とリンクすることは全てシステム100に関して上記されており、その詳細はブロック906のこれらの側面にも該当することが理解されよう。
ブロック908において、ユーザは、セグメント化されるべき2つの構造間に線(および/または、ブロック906で第4のユーザ入力が受け取られた場合は別の線)が正しく配置されているか否かを評価する。特に、ユーザは、線が意図される分離領域をカバーしているか否か、例えば、線が、当該線に沿って構造が2つのセグメントに切断(または分離)されるべき線を反映しているか否かを評価する。次に、ユーザは、定められた領域(および/または、さらなる定められた領域)が、関心対象の解剖学的構造の少なくとも一部をカバーするか否かを決定する(例えば、関心対象の解剖学的構造のためのシード点として領域を使用できるか否か)。線が分離領域(例えば、2つのセグメント間の切断点)と正しく整列していない、または領域の一方または両方が関心対象の解剖学的構造と重なっていないとユーザが判断した場合、方法はブロック906に戻る。ユーザは、ブロック908の条件が満たされるまで、線の位置および/または領域の幅を調整するためのさらなるユーザ入力を提供し得る。
ブロック908において、線が関心対象の構造間に正しく延在しており(例えば、分離領域または切断点と整列する)、領域が関心対象の解剖学的構造と重なっている(例えば、適切に配置されている)とユーザが判断した場合、方法はブロック910に進む。ブロック910は、2つの領域のそれぞれについて、セグメントを決定するためのシードとして領域を使用して、領域内に含まれる解剖学的構造に対応するセグメントを決定することを含む。ブロック906において画像内の別の線を示す第4の入力が受け取られた場合、方法は(例えば、追加でまたは代替的に)、ブロック908において、セグメントを決定するためのシード点として領域およびリンクされたさらなる領域の両方を使用して、領域およびリンクされたさらなる領域の両方に含まれる解剖学的構造に対応するセグメントを決定することを含み得る。セグメントを決定することは、システム100に関して上記されており、その詳細はブロック910のこれらの側面にも該当することが理解されよう。
ブロック912において、ユーザは、解剖学的構造のセグメンテーション(または分離)が成功したか否かを評価する。セグメンテーションが失敗した場合、またはユーザが結果に不満がある場合、方法はブロック906に戻り、ユーザは上記のように線の位置および/または領域の幅を調整して、セグメンテーションを再実行し得る。
ブロック912において、セグメンテーションが成功したと判定された場合、方法はブロック914で終了する。
また、コンピュータ可読コードが組み込まれたコンピュータ可読媒体を含むコンピュータプログラム製品が提供され、ここで、コンピュータ可読コードは、適切なコンピュータまたはプロセッサによって実行されると、コンピュータまたはプロセッサに本明細書に記載の1つまたは複数の方法を実行させるように構成される。したがって、本開示は、コンピュータプログラム、特に、実施形態を実現するように適合された、キャリア上のまたはキャリア内のコンピュータプログラムにも及ぶことが理解されよう。プログラムは、ソースコード、オブジェクトコード、部分的にコンパイルされた形式のようなコード中間ソースおよびオブジェクトコード、または本明細書に記載の実施形態に係る方法の実施のための使用に適した任意の他の形式などの形式を取り得る。
また、そのようなプログラムは多様なアーキテクチャ設計を有し得ることが理解されよう。例えば、方法またはシステムの機能を実装するプログラムコードは、1つまたは複数のサブルーチンに細分化されてもよい。当業者には、これらのサブルーチン間で機能を分配する多様な方法が明らかであろう。サブルーチンは、1つの実行可能ファイルに一緒に格納され、自己完結型プログラムを形成してもよい。そのような実行可能ファイルは、コンピュータ実行可能命令、例えば、プロセッサ命令および/またはインタプリタ命令(例えば、Javaインタプリタ命令)を含み得る。あるいは、サブルーチンのうちの1つ以上または全てが少なくとも1つの外部ライブラリファイルに保存され、静的にまたは動的に、例えばランタイムにおいて、メインプログラムにリンクされ得る。メインプログラムは、サブルーチンのうちの少なくとも1つのへの少なくとも1つの呼び出しを有する。サブルーチンはまた、相互の関数呼び出しを含み得る。
コンピュータプログラム製品に関する実施形態は、本明細書に記載の少なくとも1つの方法の各処理ステージに対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに細分され、かつ/または静的に若しくは動的にリンクされ得る1つまたは複数のファイルに保存され得る。コンピュータプログラム製品に関する他の実施形態は、本明細書に記載の少なくとも1つのシステムおよび/または製品の各手段に対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに細分され、かつ/または静的に若しくは動的にリンクされ得る1つまたは複数のファイルに保存され得る。
コンピュータプログラムのキャリアは、プログラムを運ぶことができる任意のエンティティまたはデバイスであり得る。例えば、キャリアはROM(例えばCD ROMまたは半導体ROM)または磁気記録媒体(例えばハードディスク)等のデータストレージを含み得る。さらに、キャリアは、電気または光ケーブルを介して、または無線または他の手段によって伝達され得る電気または光信号等の伝送可能キャリアであり得る。プログラムがそのような信号に組み込まれる場合、キャリアは、そのようなケーブルまたは他のデバイス若しくは手段によって構成され得る。あるいは、キャリアは、プログラムが埋め込まれた集積回路であってもよく、集積回路は、関連する方法を実行するように、または関連する方法の実行において使用されるように構成される。
開示の実施形態の変形例が、図面、開示、および添付の特許請求の範囲から当業者によって理解および実施され得る。特許請求の範囲において、「含む」という用語は他の要素またはステップを排除するものではなく、単数形は複数を除外しない。単一のプロセッサまたは他のユニットが請求項に記載される複数のアイテムの機能を果たし得る。複数の手段が互いに異なる従属請求項に記載されているからといって、これらの手段の組み合わせが好適に使用することができないとは限らない。コンピュータプログラムは、他のハードウェアと共にまたは他のハードウェアの一部として供給される光学記憶媒体またはソリッドステート媒体等の適切な媒体上で記憶および/または分配されてもよいし、インターネットまたは他の有線若しくは無線テレコミュニケーションシステムを介して等の他の形態で分配されてもよい。特許請求の範囲内のいかなる参照符号も、その範囲を限定するものと解釈されるべきではない。

Claims (14)

  1. 1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するシステムであって、前記システムは、
    命令のセットを表す命令データを含むメモリと、
    前記メモリと通信し、前記命令のセットを実行するプロセッサとを備え、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサは、
    前記画像内の線を示す第1のユーザ入力を受け取り、
    前記画像内の前記示された線の両側に1つずつ、それぞれ片側で前記示された線と隣接する2つの領域を定め、
    前記2つの領域のそれぞれについて、
    セグメントを決定するためのシードとして前記領域を使用して、前記領域に含まれる解剖学的構造に対応する前記セグメントを決定する、システム。
  2. 前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、
    前記画像内の解剖学的構造の一部と前記領域が重なるか否かを決定し、
    前記セグメントを決定するための前記シードとして、前記解剖学的構造の決定された重なる部分を使用することを含む、請求項1に記載のシステム。
  3. 前記画像は複数のピクセルまたはボクセルを含み、前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、
    前記セグメントを決定するためのシード点として、前記解剖学的構造の前記重なる部分内の各ピクセルまたはボクセルを使用することを含む、請求項2に記載のシステム。
  4. 前記画像は複数のピクセルまたはボクセルを含み、前記プロセッサが解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、
    前記セグメントを決定するためのシード点として、所定の範囲内の値を有する前記領域内の各ピクセルまたはボクセルを使用することを含む、請求項1に記載のシステム。
  5. 前記プロセッサが前記解剖学的構造に対応するセグメントを決定することは、前記プロセッサが、
    グラフ分割セグメンテーションプロセスを使用して前記セグメントを決定することを含む、請求項1から4のいずれか一項に記載のシステム。
  6. 各領域は前記線に平行な帯を含み、これら平行な帯は対称性を有する、請求項1から5のいずれか一項に記載のシステム。
  7. 前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、
    前記領域のうちの少なくとも1つの領域の幅の変化を示す第2のユーザ入力を受け取り、
    受け取られた前記第2のユーザ入力に従って、前記少なくとも1つの領域の前記幅を調整する、請求項1から6のいずれか一項に記載のシステム。
  8. 前記第2のユーザ入力は、アクチュエータの動きまたはタッチスクリーン上の動きを含み、前記少なくとも1つの領域の前記幅は、前記アクチュエータの動きまたは前記タッチスクリーン上の動きの大きさに応じて変更される、請求項7に記載のシステム。
  9. 前記第1のユーザ入力は、前記画像上の2つ以上の点の位置を含み、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサは、
    前記2つ以上の点を通るスプラインを決定し、
    前記プロセッサが前記画像内の2つの領域を定めることは、前記プロセッサが、
    前記画像内の決定された前記スプラインの両側に1つずつ、それぞれ片側で決定された前記スプラインと隣接する2つの領域を定めることを含む、請求項1から8のいずれか一項に記載のシステム。
  10. 前記線は、複数の調整可能な制御点を含み、前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、
    前記複数の調整可能な制御点のうちの1つまたは複数を調整するための第3のユーザ入力を受け取り、
    受け取られた前記第3のユーザ入力において示される調整に基づき、前記線の形状を更新する、請求項1から9のいずれか一項に記載のシステム。
  11. 前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、
    前記画像内の別の線を示す第4のユーザ入力を受け取り、
    前記画像内の前記別の線の両側に1つずつ、それぞれ片側で前記別の線と隣接する2つのさらなる領域を定め、
    前記2つの領域をそれぞれ前記さらなる領域と関連付け、
    前記2つの領域のそれぞれについて、
    前記領域および関連付けられた前記さらなる領域の両方を前記セグメントを決定するためのシード点として使用して、前記領域および関連付けられた前記さらなる領域の両方に含まれる解剖学的構造に対応するセグメントを決定する、請求項1から10のいずれか一項に記載のシステム。
  12. 前記プロセッサによって前記命令のセットが実行されると、前記プロセッサはさらに、
    前記画像、前記線、および前記2つの領域を表示するようにユーザインターフェースを制御し、
    前記画像の視点を変更し、
    前記画像の前記視点の変更に従い、前記線および前記2つの領域の視点を変更する、請求項1から11のいずれか一項に記載のシステム。
  13. 1つまたは複数の解剖学的構造を含む画像を複数のセグメントにセグメント化するコンピュータ実装方法であって、前記方法は、
    前記画像内の線を示す第1のユーザ入力を受け取るステップと、
    前記画像内の前記示された線の両側に1つずつ、それぞれ片側で前記示された線と隣接する2つの領域を定めるステップと、
    前記2つの領域のそれぞれについて、
    セグメントを決定するためのシードとして前記領域を使用して、前記領域に含まれる解剖学的構造に対応する前記セグメントを決定するステップとを含む、方法。
  14. コンピュータ可読コードが組み込まれたコンピュータ可読媒体であって、前記コンピュータ可読コードは、適切なコンピュータまたはプロセッサによって実行されると、前記コンピュータまたは前記プロセッサに請求項13に記載の方法を実行させる、コンピュータ可読媒体。

JP2020521410A 2017-10-20 2018-10-18 画像セグメンテーション Active JP7053817B6 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17197610.3 2017-10-20
EP17197610.3A EP3474228A1 (en) 2017-10-20 2017-10-20 Segmenting an image
PCT/EP2018/078484 WO2019077018A1 (en) 2017-10-20 2018-10-18 SEGMENTATION OF AN IMAGE

Publications (4)

Publication Number Publication Date
JP2020537566A true JP2020537566A (ja) 2020-12-24
JPWO2019077018A5 JPWO2019077018A5 (ja) 2022-02-15
JP7053817B2 JP7053817B2 (ja) 2022-04-12
JP7053817B6 JP7053817B6 (ja) 2022-06-02

Family

ID=60164616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521410A Active JP7053817B6 (ja) 2017-10-20 2018-10-18 画像セグメンテーション

Country Status (5)

Country Link
US (1) US20200334820A1 (ja)
EP (2) EP3474228A1 (ja)
JP (1) JP7053817B6 (ja)
CN (1) CN111226260A (ja)
WO (1) WO2019077018A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP4298604A1 (en) * 2021-02-23 2024-01-03 Mazor Robotics Ltd. Computer tomography to fluoroscopy registration using segmented inputs
WO2022193077A1 (en) * 2021-03-15 2022-09-22 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for image segmentation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514600A (ja) * 1999-11-19 2003-04-22 ゼネラル・エレクトリック・カンパニイ 管状のボリュメトリック物体を再フォーマットするための方法及び装置
US20080310716A1 (en) * 2007-06-14 2008-12-18 Siemens Corporate Research, Inc. Editing of pre-segmented images using seeds derived from contours
WO2010113998A1 (ja) * 2009-03-31 2010-10-07 株式会社 日立メディコ 医用画像診断装置、容積計算方法
US20130077842A1 (en) * 2011-09-28 2013-03-28 Siemens Aktiengesellschaft Semi-Automated Preoperative Resection Planning

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011042833A1 (en) * 2009-10-05 2011-04-14 Koninklijke Philips Electronics N.V. Interactive selection of a volume of interest in an image
EP2444934A1 (en) * 2010-10-19 2012-04-25 Koninklijke Philips Electronics N.V. Medical imaging system, computer-implemented method, and computer program product for identifying a treated region in a medical image
US20140143716A1 (en) * 2011-06-22 2014-05-22 Koninklijke Philips N.V. System and method for processing a medical image
RU2638007C2 (ru) * 2012-06-01 2017-12-08 Конинклейке Филипс Н.В. Средство выделения сегментации

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514600A (ja) * 1999-11-19 2003-04-22 ゼネラル・エレクトリック・カンパニイ 管状のボリュメトリック物体を再フォーマットするための方法及び装置
US20080310716A1 (en) * 2007-06-14 2008-12-18 Siemens Corporate Research, Inc. Editing of pre-segmented images using seeds derived from contours
WO2010113998A1 (ja) * 2009-03-31 2010-10-07 株式会社 日立メディコ 医用画像診断装置、容積計算方法
US20130077842A1 (en) * 2011-09-28 2013-03-28 Siemens Aktiengesellschaft Semi-Automated Preoperative Resection Planning

Also Published As

Publication number Publication date
CN111226260A (zh) 2020-06-02
EP3698318A1 (en) 2020-08-26
JP7053817B6 (ja) 2022-06-02
WO2019077018A1 (en) 2019-04-25
JP7053817B2 (ja) 2022-04-12
EP3474228A1 (en) 2019-04-24
EP3698318B1 (en) 2022-04-20
US20200334820A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
US7773786B2 (en) Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
JP6018216B2 (ja) 対話型画像注釈付けのシステムおよび方法
JP7053817B2 (ja) 画像セグメンテーション
JP6198604B2 (ja) 医用画像システム
CN103765475A (zh) 具有对最优断层摄影切片的自动选择的交互式实况分割
US9678644B2 (en) Displaying a plurality of registered images
CN110555854A (zh) 用于处理医学图像的系统和方法
US20180064409A1 (en) Simultaneously displaying medical images
US10297089B2 (en) Visualizing volumetric image of anatomical structure
EP2263210A1 (en) Radiotherapeutic treatment planning apparatus and methods
CN107851337B (zh) 交互式网格编辑
RU2721078C2 (ru) Сегментация анатомической структуры на основе модели
CN111430012B (zh) 使用实时边缘感知刷来半自动地分割3d医学图像的系统和方法
US10127630B2 (en) Zooming of medical images
EP3423968B1 (en) Medical image navigation system
JP6790274B2 (ja) 画像上に配置された点のシーケンスを含む輪郭を修正する方法及び装置
US11341651B2 (en) Method and apparatus for refining a model of an anatomical structure in an image
EP3559909A1 (en) A method and apparatus for positioning markers in images of an anatomical structure
Renner et al. Deformable image registration with a featurelet algorithm: implementation as a 3D-slicer extension and validation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150